Empresas chinesas podem sofrer sanções dos EUA por ataques cibernéticos

Os Estados Unidos estão estudando sanções contra empresas chinesas que se beneficiam de ataques cibernéticos ao país. De acordo com o Washington Post, a retaliação deve ser uma resposta pública aos ataques que o país tem sofrido nos últimos meses que afetaram milhões de cidadãos e funcionários do governo. De acordo com o FBI, no último mês a espionagem econômica cresceu 53%.

De acordo com um alto funcionário do governo, a resposta inclui a imposição de sanções econômicas, o indiciamento de companhias e indivíduos específicos e até ações cibernéticas secretas.

Especialistas alertam que existem alguns riscos com a emissão de sanções. “As chances de retaliação chinesa são elevadas. Mas se uma empresa chinesa se beneficiou do roubo da propriedade intelectual, como as evidências apontam, as ações me parecem apropriadas”, explica Jeffrey Bader, um dos conselheiros de Obama entre 2009 e 2011.

Ainda não se sabe quantas instituições ou pessoas serão alvo da retaliação, mas fontes afirmam que multinacionais e grandes companhias chinesas estão na lista. É possível ainda que entidades de outros países sejam incluídas no pacote.

O governo ainda não se decidiu se vai emitir as sanções, mas a decisão deve sair nas próximas duas semanas.

Brasileiros apontam falha em 180 tipos de antivírus em todo o mundo

Pesquisadores de Campinas (SP) afirmam que entre 150 e 180 antivírus existentes no mercado mundial de tecnologia têm falhas graves que permitem a destruição de arquivos em computadores, tablets e smartphones. A técnica, denominada Apoc@lypse, foi desenvolvida ao longo de 3 anos de pesquisas e comprova um erro na base de criação de qualquer antivírus em atividade.
A prática de copiar e colar códigos ou conceitos na construção dos softwares de segurança pode ser um dos motivos para que essa falha aconteça. Muitas ferramentas de proteção são utilizadas há décadas sem alterações em suas bases. O acúmulo de bugs é tão grave que pesquisadores chegaram a nomear o erro como “falha genética” no desenvolvimento de softwares que deveriam assegurar a privacidade do usuário.
Os brasileiros estudam agora uma correção para o problema. “A pesquisa chama toda a indústria de antivírus a repensar seus conceitos, evoluir e apresentar a todos nós produtos melhores e mais seguros”, diz Rogério Winter, Tenente Coronel do Exército Brasileiro e oficial de ligação no CTI Renato Archer, um dos pesquisadores responsáveis pelo Apoc@lypse.

 

Google responde às acusações de anticompetitividade da União Europeia

O Google tem sido constantemente acusado pela União Europeia de ser anti-competitivo. Em abril, a empresa foi formalmente acusada de usar sua posição de mercado para diminuir o alcance de concorrentes e favorecer seus próprios produtos e de anunciantes que pagam para que seus sites sejam mostrados acima dos outros resultados.

Nesta quinta-feira, 27, a empresa divulgou uma mensagem em seu blog afirmando que discorda das alegações do bloco econômico.”Não achamos que este formato é anti-competitivo. Pelo contrário, mostrar anúncios baseados em dados estruturados fornecidos pelos comerciantes comprovadamente melhora a qualidade do anúncio e torna mais fácil para os consumidores encontrar o que estão procurando”, explicou Kent Walker, membro do conselho da companhia.

A comissão do bloco acusa o site de pesquisas de desviar o tráfego de lojas, priorizando, por exemplo, o Google Shopping. “O tráfego vindo do Google em sites de compras tem crescido bastante nos últimos anos. Ao longo da última década, o Google entregou mais de 20 bilhões de cliques gratuitos a serviços de compras concorrentes, como Amazon, eBay, e serviços de compras locais”, explica o executivo. “Nosso motor de buscas é projetado para fornecer os resultados mais relevantes e anúncios mais úteis para qualquer consulta”, argumenta.

Caso seja considerada culpada, a empresa pode ter que pagar uma multa de até 10% de sua receita anual.

125 bilhões de transações eletrônicas serão feitas em 2018

Em 2018 serão feitas no mundo 125 bilhões de transações de comércio eletrônico, prevê a Juniper Research em seu novo estudo, “Mobile & Online Purchases: Cards, Carrier Billing and Third Party Payment Platforms 2015-2020”.

Esse volume representa um crescimento de 60% em relação ao previsto para 2015.

A empresa não detalhou em seu comunicado à imprensa a proporção entre vendas feitas em desktops ou em dispositivos móveis (smartphones e tablets), mas aponta como principais fatores para o crescimento o aumento da cobertura Wi-Fi e 4G no transporte público, o que permite a realização de compras durante os deslocamentos diários das pessoas para casa e trabalho; e a migração para o consumo de bens digitais, em vez de bens físicos, especialmente nas áreas de música e vídeo, com a queda nas vendas de CDs e DVDs.

Também é destacado o fato de a China ter ultrapassado os EUA como maior mercado de comércio eletrônico do mundo desde o ano passado, com US$ 450 bilhões em vendas eletrônicas. Japão, Reino Unido e França completam o ranking dos cinco maiores.

No relatório, os analistas da Juniper recomendam que os varejistas ofereçam uma experiência consistente aos consumidores independentemente do canal utilizado, reforçando o conceito de “Omni Channel”, e que estejam preparados para escalonar sua operação eletrônica em momentos de pico, para não frustrar o público.

Número de cidades brasileiras com Wi-Fi público aumenta 83% em 2 anos

Segundo dados do IBGE, o número de municípios que disponibilizam algum tipo de conexão sem custo para seus cidadãos aumentou 83,% entre 2012 e 2014. Embora a oferta de Wi-Fi gratuito nas cidades brasileiras tenha aumentado nos últimos dois anos, esse percentual ainda representa um montante pequeno de cidades com esse serviço.
Segundo o dados do órgão governamental, em 2012 eram apenas 795 municípios, apenas 14,3% de todas as cidades brasileiras. Na última pesquisa, apesar do aumento expressivo, as 1.457 cidades que oferecem algum tipo de conexão gratuita representam só 26,2% do total de centros urbanos.
Como se já não bastasse a escassez de recursos que permitem a conectividade, de todas as quase 1500 cidades verificadas pelo IBGE, apenas 79 disseram promover a conectividade Wi-Fi em toda a sua extensão, o que ainda sim, não é garantia de conectividade, já que nem em São Paulo, que conta com um dos maiores investimentos nessa área, todos os lugares com cobertura Wi-Fi realmente fornecem um sinal de qualidade.
É a primeira vez que o IBGE pesquisou esse tipo de condição no Perfil dos Estados Brasileiros de 2014. Rondônia, Roraima e Tocantins declaram não oferecer esse tipo de serviço em nenhuma de suas cidades.

Google registra patente de tecnologia para mapear buracos nas ruas

O Google registrou uma patente que permitiria à empresa utilizar a localização do carro do usuário por GPS e sensores para detectar buracos nas ruas e armazenar a informação em um banco de dados. Assim, os serviços da empresa poderiam sugerir a motoristas caminhos menos esburacados, ou pelo menos evitar surpresas desagradáveis.

A partir da tecnologia, o Google seria capaz de monitorar vibrações do carro para entender se ele acabou de passar por um buraco na rua. Cruzando essa informação com o GPS, ele seria capaz de marcar a localização da falha. Ao fazer isso em vários carros ao mesmo tempo, a empresa seria capaz de criar um mapa de buracos e seria capaz de sugerir rotas que evitem este tipo de problema. Não seria surpresa se os carros autônomos do Google usem esta tecnologia para mapear as ruas.

Se sair do papel, o que nem sempre é garantia em patentes, o conceito deve ser aplicado inicialmente nos Estados Unidos. Por lá, há uma estimativa de que a superlotação de vias cause uma perda de US$ 87 bilhões por ano; os buracos são parte importante dessa estatística, causando congestionamento, acidentes e danos aos carros.

Claro, não é só nos Estados Unidos que vias esburacadas são problemas. Existe um país na América do Sul chamado Brasil que também sofre com este mal, tanto nas cidades quanto nas estradas federais e estaduais.

Veja a nova técnica de impressão 3D usa vidro em vez de plástico

écnicos do MIT (Instituto Tecnológico de Massachusetts, nos Estados Unidos) criaram um novo tipo de impressão 3D que substitui as resinas plásticas por vidro. Batizada de 3DGP, a técnica permite que objetos em vidro sejam impressos com variações em forma, transparência e cor. Além de aplicações comerciais na criação de utensílios domésticos, a tecnologia pode levar a fabricação de fibra ótica mais barata.

Segundo os pesquisadores, o 3DGP é um método muito preciso de impressão usando vidro transparente. A partir da variação de espessura do objeto impresso, é possível atingir resultados diferentes em termos de nível de transparência e cor. Conforme a espessura varia em um objeto, é possível que um componente impresso regule transmissão, reflexão e refração de luz.

Como você pode ver nas imagens, os objetos são certamente muito bonitos, mas qual é a aplicação prática dessa tecnologia? Entre uma série de possibilidades, os técnicos do MIT acreditam ser possível usar a capacidade de imprimir vidro com diferentes gradações para transmissão de luz para aprimorar designs de fibra ótica.

Esse aspecto da transmissão de luz é importante porque significa que com o método seria possível criar fibras óticas. Um exemplo de aplicação da tecnologia seria embutir fibra ótica em materiais de construção, de forma que a fachada em vidro de um edifício fosse toda conectada via fibra, por exemplo.

A impressão de vidro funciona de maneira bem semelhante ao que é comum em sistemas que usam o plástico. Na impressora criada pelo MIT, há duas câmaras aquecidas, usadas para impedir que o vidro enrijeça. A câmara superior, mantida a mais de 1.000 graus Celsius, deposita o material na forma desejada. Enquanto que a câmara inferior é usada para temperar o vidro. Em fase de desenvolvimento, ainda não há uma previsão para que impressoras capazes de criar objetos com vidro cheguem ao mercado.

Brasileiro passa 4 minutos em uma página da internet, diz Google

Resultados da pesquisa “Micro-Momentos”, feita pelo Google entre junho e agosto, revelam o tempo médio de visita do internauta brasileiro a uma página na internet. Segundo a empresa, foram 4 minutos em maio de 2015, representando uma queda de 9% em relação ao mesmo período do ano passado.

Segundo o Google, a crescente “pressa” dos brasileiros em mudar de página se deve aos smartphones, que têm aumentado sua participação no quadro geral de acessos. Em maio de 2014, os aparelhos representavam 13,94% das conexões à internet; um ano depois, o número saltou para 29,51% neste ano – alta de 112%.

“A gente não entra mais na internet, a gente vive online”, contextualiza Fabio Coelho, presidente do Google no Brasil. Para ele, esse é o momento em que as marcas que exploram o universo online precisam se adaptar às mudanças de hábitos do consumidor. “Precisamos ter a capacidade de desaprender e aprender com as coisas”.

Hábitos brasileiros

A pesquisa realizada do Google também revela um pouco dos hábitos dos usuários brasileiros na internet. Por exemplo: 69% dos usuários de smartphones no país admitem que pegam o telefone no meio de uma conversa para saber mais informações sobre algo que foi dito. Além disso, 74% dos entrevistados afirmam que utilizam seus celulares enquanto estão em uma loja, decidindo qual produto comprar.

O comportamento dos usuários do YouTube também foi alvo de estudo. Segundo a pesquisa, houve um aumento de 72% em buscas relacionadas a expressão “como fazer” no canal de vídeos, indicando um aumento no interesse dos internautas por conteúdo educativo e novas fontes de aprendizado.

Somente no primeiro semestre de 2015, foram assistidas mais de 2 milhões de horas desse tipo de conteúdo YouTube brasileiro. A metade desse total foi apenas através de smartphones ou tablets.

O objetivo da pesquisa “Micro-Momentos”, segundo o Google, é entender e contextualizar o comportamento do consumidor brasileiro no celular, e assim preparar melhor as empresas da área.

Plugins de Chrome funcionarão no Firefox

A Mozilla Foundation lançou a primeira versão do navegador Firefox no, já longínquo, ano de 2004 e desde então ele possui a reputação de ser um dos navegadores mais facilmente customizáveis disponível no mercado.

Isso pode mudar, no entanto, com uma reestruturação do navegador que ocorrerá nos próximos dois anos, mas talvez este seja um daqueles males que vêm para bem.

Entre as mudanças estará uma alteração na forma como os Add-ons do Firefox interagem com o navegador. Eles passarão a ter menos acesso a funções do navegador, limitando a forma como podem alterar a aparência e funcionamento do browser.

Por outro lado, isso trará ao usuário mais segurança e, aos desenvolvedores da Mozilla, maior facilidade na implementação de novas funções.

A nova forma como o browser tratará os add-ons será muito parecida com o que o Chrome e o Opera fazem, o que irá diminuir para um mínimo o trabalho de portar add-ons desses navegadores para o Firefox.

Por outro lado, aqueles que já existem para o browser da Mozilla terão que sofrer alterações drásticas. É uma medida que poderá tornar o Firefox mais competitivo no futuro, mas causará certa dor de cabeça para os desenvolvedores de add-ons no presente.

Outra mudança drástica será a forma como o navegador lida com processos. Atualmente, todas as abas são concentradas no processo “firefox.exe” e caso uma delas cause um travamento do browser, todas as abas são fechadas.

Após a mudança, o Firefox funcionará de forma parecida com o Chrome, que trata cada aba como um processo independente, o que torna a experiência, como um todo, mais estável, ainda que consuma consideravelmente mais recursos (em particular, memória RAM).

Tudo isso poderá facilitar o controle da Mozilla sobre seu próprio browser e aumentar a segurança e conveniência dos usuários. A fundação diz que já que todos os add-ons deverão passar pelo crivo e aprovação da Mozilla, isso deverá diminuir o número de barras de busca e outras coisas incômodas que se instalam em seu navegador.

Em duas versões (começando com o Firefox 42) os add-ons já precisarão de aprovação da Mozilla. Da versão 43 em diante, já será iniciado o processo de separação das abas em diferentes processos.

Google revela bastidores do funcionamento da rede Jupiter

A Google tem uma rede própria chamada de Jupiter, composta de 100 mil servidores e que pode dar saída a 1 petabit por segundo de dados, o que significa que qualquer um dos servidores da rede pode se comunicar com qualquer outro a velocidades de 10 GB/s.

Esses dados sobre as entranhas da rede, que fazem as buscas do Google funcionarem de forma tão rápida, foram reveladas numa postagem no blog dedicado aos serviços de busca da empresa. Mais detalhes sobre a tecnologia foram mostrados numa conferência de telecomunicações, realizada em Londres.

Para você ter uma ideia, a demanda do Google por banda para que a rede funcione, e não sofra atrasos quando você a utiliza, dobra a cada ano. Isso significa que o processo de evolução dos sistemas que matém a rede Jupiter funcionando está sempre em constante evolução. Prova disso é que a atual geração do datacenter é 100 vezes mais rápida do que a primeira, que passou a operar em 2005.

Esse regime constante de aprimoramento sobre o funcionamento da rede em busca de velocidade só é possível porque a Google tomou um caminho radical na hora de criar os sistemas que permitem que a sua rede se comunique com a Internet e entre si. Ao contrário do que é comum, a Google projeta e desenvolve seus próprios switchers (equipamentos que funcionam como roteadores na sua casa, responsáveis por estabelecer as pontes de comunicação em uma rede).

Ao decidir confeccionar seu próprio hardware do zero, a Google estabeleceu um ciclo de desenvolvimento que permite que o esforço bruto seja colocado sobre o software que roda os servidores e faz a rede funcionar, em vez do hardware, como é mais comum. Segundo Amin Vahdat, autor da postagem no blog da Google, o hardware de switches convencional é “manual e propenso a erros e não é possível usá-lo em escala de acordo com as nossas necessidades”. Além disso, os custos para manter switches comerciais em compasso com o crescimento vertiginoso das necessidades do Google seria impraticável.

O processo todo não foi alheio a problemas. Por exemplo, a primeira geração da rede, batizada de Firehose 1.0 nunca foi utilizada comercialmente. Naquela versão, a Google tentou integrar os switchers aos servidores (seria como se você tentasse colocar o roteador da sua casa para funcionar dentro do seu computador), o que levou a uma série de falhas de hardware que inviabilizaram o uso do modelo.

Os bastidores do funcionamento da rede Jupiter sempre foram um mistério bem guardado pela Google. Até então, pouco se sabia sobre suas características. A divulgação desses detalhes sobre a operação da rede vem num momento em que a Google coloca à disposição de empresas seus serviços na nuvem.