Cientistas criam ‘tatuagem eletrônica’ que ouve a voz e o coração dos pacientes

Uma equipe de pesquisadores da University of Boulder Colorado desenvolveu um dispositivo vestível extremamente fino que é capaz de monitorar a atividade cardíaca dos usuários. Semelhante a uma “tatuagem eletrônica” temporária, o aparelho funciona captando a condução de ondas sonoras pela pele, e por isso também pode ser usado para identificar as vozes dos pacientes.

Parecido com um band-aid pequeno, o sensor pesa menos de 0,3 grama e é menor que uma moeda de um centavo, de acordo com o artigo publicado pelos pesquisadores. Ainda assim, ele pode ser acoplado a qualquer parte da pele do paciente, e então consegue captar as vibrações de seu corpo. Isso permite, por exemplo, que um cardiologista acompanhe remotamente o estado do coração de um paciente em situação de risco.

Reprodução

Ouvindo o corpo

Esse aparelho é composto por um pequeno circuito que contém um acelerômetro extremamente sensível e um eletrodo, segundo o The Verge. O acelerômetro consegue detectar mesmo os menores movimentos que acontecem na pele (como aqueles provocados por ondas sonoras viajando pelos fluidos e músculos do corpo). O eletrodo, por sua vez, percebe sinais elétricos que os nervos enviam aos músculos para fazê-los mexer.

Graças a esses dispositivos, o aparelho é capaz de “‘bisbilhotar’ os sons intrínsecos dos órgãos vitais do corpo, incluindo o coração e os pulmões, com implicações importantes para o monitoramento contínuo da saúde fisiológica”, segundo John Rogers, um dos autores. A abertura e fechamento das válvulas do coração, as vibrações das cordas vocais e até mesmo “roncos” de barriga podem ser captados pelo dispositivo.

Além disso, ele também pode ser integrado a outros sistemas de monitoramento, como eletrocardiograma (para analisar o coração) e eletromiograma (para monitorar atividade muscular). Dessa maneira, a quantidade de informações que poderia ser transmitida remotamente pelo paciente aos médicos seria muito maior. No entanto, os pesquisadores ainda estão trabalhando para dar conectividades sem fio ao aparelho, que está em fase de testes.

Ouvindo a voz

Funcionando dessa maneira, o aparelho também pode ser usado para ouvir a voz dos pacientes. Ao ser acoplado a uma região próxima à garganta e associado a um sistema de compreensão de linguagem natural, ele se torna capaz de entender o que o usuário está dizendo. O vídeo abaixo mostra uma pessoa com o dispositivo usando sua voz para controlar o jogo Pac-Man (usando as palavras “up”, “down”, “left” e “right”, correspondentes às quatro direções):

De acordo com os pesquisadores, a vantagem que o dispositivo tem nesse caso sobre outros microfones é que ele fica colado na pele. Como é feito para detectar as vibrações da pele, e não os sons, ele funciona muito melhor do que microfones tradicionais em situações em que há muito ruído de fundo.

Desenvolvimento

No processo de desenvolvimento desse dispositivo, os cientistas já testaram o aparelho em oito pacientes de idade avançada com problemas cardíacos. Em outra etapa de testes, os cientistas perceberam que era possível ouvir caso um coágulo (um pequeno pedaço solidificado de sangue) passasse pelo coração – uma situação que pode desencadear uma série de problemas que levam à morte.

Mas ainda é necessário algum tempo até que o dispositivo se torne comercialmente disponível. Mesmo assim, os pesquisadores acreditam que o fato de existir um mercado para dispositivos vestíveis focados em saúde é sinal de que sua criação seria bem recebida.

https://goo.gl/Pgw89B

Entenda o papel do Google na Black Friday Brasil

Google: empresa vai munir varejistas online com dados de hora em hora

Quando pensamos em Black Friday, são as lojas online que vêm à nossa mente em primeiro lugar. Essa é uma característica do Brasil, já que a data acontece em meio a um feriado nos Estados Unidos, portanto, lojas físicas têm maior participação no evento. Nesse cenário, o Google tem um papel importante no nosso país: ajudar e-commerces com dados de pesquisas e até mesmo alertá-los quando um site está para sair do ar por causa do volume de acessos.

Durante a Black Friday no Brasil, o consumidor realiza diversas pesquisas em comparadores de preços, como o Zoom e o Buscapé. Lá, os eletrônicos são os produtos que lideram o interesse dos internautas. Isso também se repete nas buscas do Google. De acordo com a empresa, smartphones, televisões, eletrodomésticos e notebooks são as categorias mais procuradas na véspera do dia dos descontos.

Na tarde de ontem, o celular mais buscado era o Galaxy A3, da Samsung, um produto que alia câmeras razoáveis, performance suficiente para o dia a dia e preço competitivo (na faixa dos 1.100 reais). As buscas por preços cresceram. O Google informa que houve um aumento de 65% nas pesquisas relacionadas à data de descontos.

https://goo.gl/Sv2AG0

EUA criam diretrizes contra distração de motoristas com celulares

Motorista em carro com celular

O Departamento de Transportes dos Estados Unidos emitiu nesta quarta-feira diretrizes voluntárias para fabricantes de dispositivos móveis, pedindo que ajudem as pessoas a manter os olhos na estrada ao desenvolver um “modo motorista” que iria desabilitar algumas funções que podem causar distrações em carros em movimento.

As diretrizes também solicitam que as fabricantes facilitem o pareamento de dispositivos móveis com sistemas dos veículos, para descomplicar o uso do celular sem as mãos.

“Estas diretrizes de bom senso, fundamentadas com as melhores pesquisas disponíveis, ajudarão os designers de aparelhos móveis a construir produtos que diminuam as distrações ao volante”, disse o secretário de Transportes dos Estados Unidos, Anthony Foxx, em comunicado à imprensa.

O administrador da Administração Nacional de Segurança em Tráfego de Rodovias (NHTSA, na sigla em inglês), disse em comunicado nesta quarta-feira que a distração de motoristas foi um dos fatores por trás do aumento das mortes no trânsito.

As mortes em rodovias subiram 10,4 por cento na primeira metade de 2016, disse a NHTSA.

https://goo.gl/AnKtcE

 

Sistema do Google inventou uma língua própria que humanos não entendem

O Google divulgou ontem em seu blog de pesquisa que a inteligência artificial responsável pelo Google Tradutor desenvolveu, sem interação humana, uma língua própria para si. A “descoberta” ocorreu quando a empresa estudava um recurso chamado de “zero-shot translation”, e os resultados dessa pesquisa (incluindo a descoberta da língua) foram publicados em um artigo (pdf).

Em setembro, o Google começou a usar redes neurais em seu Tradutor, criando um sistema chamado de Google Neural Machine Translation. Basicamente, o sistema aprende a traduzir a partir de milhões de exemplos diferentes e consegue atingir precisão quase humana. Segundo a empresa, o Tradutor atualmente entende 103 línguas e traduz mais de 140 bilhões de palavras por dia – e aprende com elas.

Para funcionar, o sistema é treinado na tradução de frases específicas de uma língua para outra. Por exemplo, ele precisa traduzir de inglês para coreano, ou de inglês para japonês (e vice-versa). Esse treinamento envolve o uso de milhões de exemplos de traduções previamente validadas, a partir das quais a máquina aprende como a relação de palavras muda entre essas duas línguas.

Aula avançada de línguas

Mas se o sistema é capaz de traduzir do inglês para japonês e do inglês para o coreano, seria ele capaz de traduzir do japonês para o coreano sem passar por inglês? Se sim, essa tradução seria uma “zero-shot translation”, e foi ela que motivou a pesquisa dos desenvolvedores do Google Tradutor. O GIF abaixo ilustra essa possibilidade, e a “zero-shot translation” aparece em laranja:

Surpreendentemente, o sistema de tradução conseguiu ir do japonês ao coreano sem ter sido treinado especificamente. “Nós interpretamos isso como um sinal da existência de uma interlíngua dentro da rede”, disseram os pesquisadores. Em outras palavras, a inteligência artificial teria criado uma língua própria que lhe permite trafegar entre duas línguas nas quais ela não foi previamente treinada, sem precisar passar por uma terceira língua conhecida.

Aula computacional de línguas

De acordo com o TechCrunch, essa interlíngua parece existir num nível mais profundo de representação. Nesse nível, é possível ver semelhanças entre as línguas diferentes – mesmo as desconhecidas – com facilidade. No entanto, por tratar-se de uma rede neural (sistemas que são normalmente muito pouco acessíveis, até para seus criadores), é difícil dizer mais sobre ela.

Com a finalidade de ilustrar essa “íngua profunda”, os pesquisadores criaram uma representação visual das línguas dentro da memória do computador. A imagem abaixo se divide em três partes: a, b e c. A maior delas, a, tem pontos coloridos de acordo com significado: uma frase traduzida do inglês para o coreano e uma frase traduzida do japonês para o inglês que tenham o mesmo significado terão também a mesma cor:

Reprodução

À direita, em cima, b separa uma dessas frases específicas. Embaixo dela, c divide essa frase entre as línguas de origem de cada um dos termos. O que c deixa claro é o fato de que, em uma mesma frase, o sistema usa como fonte três línguas diferentes. Isso significa que ele dispõe de um sistema de representação ainda mais fundamental que essas três línguas. Isso, por sua vez, mostra que o sistema está aprendendo algo sobre o significado de cada palavra além de memorizar traduções entre frases.

“Pelo que sabemos, essa é a primeira vez que esse tipo de aprendizagem transferida funcionou em um sistema de tradução de máquinas”, disseram os pesquisadores. Para eles, os resultados do estudo são interessantes não apenas para cientistas da computação, mas também para linguístas que pensem em usar máquinas para extrair informações sobre relações entre línguas distantes.

Aula computacional de filosofia

O mais interessante do exemplo usado pelo Google é que a língua inglesa não tem praticamente nenhum grau de parentesco com japonês e coreano. Se houve uma língua comum entre essas duas, ela existiu apenas há muitos milhares de anos. Por isso, com exceção de palavras que são pegas do inglês pelo japonês ou pelo coreano, não há nenhuma relação etimológica entre as palavras das duas línguas.

Isso significa que a inteligência artificial conseguiu descobrir uma relação entre as palavras de duas línguas não-relacionadas. Se ela foi capaz de fazer isso apenas olhando para milhões de exemplos de traduções entre as línguas, significa que essa relação existe. A chamada interlíngua que os pesquisadores acharam na máquina pode não ser nem mesmo uma língua, mas um sistema ainda mais profundo de representação do que são as nossas línguas.

https://goo.gl/BF4dzx

Novo recurso do WhatsApp vai mudar a reprodução de vídeos

O WhatsApp começou a testar uma função que vai facilitar a reprodução de vídeos dentro do aplicativo. Não será mais necessário fazer download de um vídeo recebido para poder assisti-lo porque o app terá um recurso de streaming, funcionando de forma semelhante ao YouTube.

Com o novo recurso os usuários não precisam esperar o tempo de download para só depois conferir um conteúdo que lhes foi enviado. Era uma reclamação antiga dos usuários, que muitas vezes precisavam baixar o vídeo inteiro só para descobrir que o conteúdo não valia o tempo e os dados gastos com o download.

O recurso está disponível atualmente apenas para dispositivos Android na versão beta do aplicativo, mas não deve demorar muito para que a novidade comece a ser distribuída para outras plataformas.

No entanto, ficam algumas questões sobre o novo recurso: para fazer streaming, o vídeo precisa ficar armazenado em algum servidor. Isso significa que o WhatsApp vai começar a guardar os vídeos trocados entre os usuários, contrariando o que a empresa diz, que não guarda nenhuma mensagem que circula na plataforma? Ou após o usuário terminar de baixar o vídeo pela primeira vez ele é apagado dos servidores e guardado apenas localmente? A lógica do serviço diz que a segunda opção deve ser a correta.

Este é apenas um dos novos recursos que o WhatsApp está agregando ao serviço nos últimos tempos. Recentemente, o aplicativo recebeu também as aguardadas chamadas de vídeo e suporte a GIFs animados, mas também está testando ferramentas inspiradas no Snapchat, com imagens que desaparecem depois de um período pré-determinado.

 

https://goo.gl/BF4dzx

Inteligência artificial do Google supera profissionais em leitura labial

A DeepMind, empresa de inteligência artificial que pertence ao Google, conseguiu ensinar um sistema a ler os lábios de pessoas em imagens gravadas e fornecer legendas para o que elas estão dizendo. No final do período de treinamento, o sistema conseguia realizar leitura labial de imagens gravadas om precisão superior à de profissionais treinados para isso.

Foram usadas cerca de 5000 horas de programação da BBC, incluindo noticiários, para treinar a máquina. De acordo com a New Scientist, elas continham um total de aproximadamente 118 mil frases inteiras. Programas que foram ao ar entre janeiro de 2010 e dezembro de 2015 foram usados como conjunto de treinamento, e o sistema foi testado usando programas de entre março e setembro de 2016.

Dentre as frases que a máquina foi capaz de legendar estavam sentenças bastante complexas, como “We know there will be hundreds of journalists here as well” (sabemos que haverá centenas de jornalistas aqui também) e “According to the latest figures from the Office of National Statistics” (de acordo com os números mais recentes do escritório de estatísticas nacionais).

Organizando os estudos

Um dos desafios da máquina – além de aprender a ler lábios – foi preparar o seu próprio material de estudo. Isso porque os arquivos de programas de TV disponíveis estavam com áudi e vídeo dessincronizados; em alguns casos, havia mais de um segundo de defasagem entre áudio e vídeo. Isso fazia com que fosse impossível para o sistema criar associações entre os sons e a posição dos labios das pessoas que apareciam na tela.

Para resolver esse problema, o sistema foi alimentado com algumas associações corretas entre sons e formatos de boca. Com essa informação, ele conseguiu sincronizar de novo o áudio e o vídeo das mais de 5000 horas de material de treino. Em seguida, ele “assistiu” novamente a esse materia para aprender novas relações entre sons e formatos de boca. Com o tempo, ele aprendeu a legendar frases da seguinte maneira:

Resultados

Com o fim de testar a eficiência do sistema, os pesquisadores da DeepMind e da Universidade de Oxford compararam o desempenho dele com o de um profissional em leitura labial. Os dois tiveram que decifrar 200 clipes selecionados aleatoriamente dos programas de teste. Enquanto o profissional conseguiu acertar 12,4% das palavras sem qualquer erro, a máquina acertou 46,8% delas.

Boa parte dos erros cometidos pela máquina, no entanto, eram pequenos (como não incluir um “s” no final de uma palavra que era plural) e de pouca relevância para o significado das frases. Com esse desempenho, a rede conseguiu superar até mesmo outros sistemas automatizados de leitura labial. Os pesquisadores disseram que pretendem liberar o material de treinamento da máquina para que ele possa ser usado para melhorar outros sistemas desse tipo.

Aplicações

Esse tipo de sistema pode ser usado para auxiliar pessoas com dificiências auditivas a entender o que está sendo falado em vídeos, filmes e programas de TV. A possibilidade de se gerar legendas automaticamente com base em imagens é bastate útil para serviços de streaming como o Youtube e o Vimeo, que recebem diariamente milhares de novas horas de conteúdo.

Também seria possível utilizar esse método para que assistentes virtuais de smartphone pudessem ser ativados pelos lábios, e não pela voz. Se a Siri fosse capaz de ler os seus lábios usando a sua câmera frontal, por exemplo, ela jamais precisaria ouvir a sua voz de novo. Isso seria bastante útil, pois permitiria que os assistentes virtuais fossem usados mesmo em espaços públicos, sem que a voz do usuário incomodasse ou causasse estranhamento às pessoas próximas.

No entanto, há também um risco associado ao uso malicioso dessa tecnologia. Isso porque basta que uma câmera ligada a esse sistema consiga ver o rosto de um usuário para que ela consiga entender o que ele está falando. Nesse caso, preocupações sobre sigilo de informações se tornariam ainda mais importantes.

https://goo.gl/F2bJjB

Google agora pode informar se um estabelecimento está lotado em tempo real

O Google anunciou que está lançando uma ferramenta para que os usuários possam saber em tempo real se um estabelecimento está lotado ou não, para saber onde evitar ou quanto tempo vai gastar em uma loja, por exemplo.

A gigante da tecnologia vai passar a usar os dados de usuários que armazenam suas informações de localização nos servidores do Google para conseguir determinar se tem muitas pessoas no local.

O Google já tinha uma ferramenta que mostrava os horários de pico de um estabelecimento e quando ele estava fechado ou lotado. Apesar de costumar ser preciso, o widget “Horário de Pico” que aparece no Google Search e Google Maps não determina o quão lotado o estabelecimento vai estar por quanta de alguns eventos especiais, que podem mudar a previsão.

https://goo.gl/Nuq2Dz

Gigante do ramo da saúde quer treinar cirurgiões usando aplicativo

A empresa Touch Surgery, que produz um aplicativo dedicado a treinar cirurgiões via smartphones e tablets, assinou recentemente um acordo com a Ethicon, empresa subsidiária da Johnson & Johnson dedicada a aparelhos médicos. O objetivo da parceria é incentivar o uso da ferramenta de treinamento da Touch Surgery por mais cirurgiões, segundo o TechCrunch.

Cirurgiões normalmente são treinados em um sistema de aprendizado: além de estudar, eles vão acompanhando cirurgias e assumindo papéis cada vez maiores nelas até se tornarem capazes de comandá-las. Embora as empresas reconheçam a qualidade desse método, elas argumentam que ele não é capaz de atender à demanda global por cirurgiões, e por isso os aplicativos seriam importantes.

O Touch Surgery está disponível já para Android e iOS, e pode ser baixado gratuitamente por qualquer pessoa. Ele é dividido em módulos, cada um deles correspondente a um procedimento cirúrgico diferente, que precisam ser baixados individualmente dependendo do procedimento que o médico deseja praticar. Por enquanto, segundo a empresa, mais de 75 módulos diferentes já estão disponíveis gratuitamente, e mais ainda podem ser baixados mediante pagamento. O vídeo abaixo mostra o app:

Cada módulo é composto por uma série de representações dos procedimentos renderizadas em 3D, com as quais os cirurgiões em treino podem interagir. De acordo com a empresa, esses modelos são melhores até mesmo que vídeos na hora de treinar, já que eles são interativos e facilitam a visualização dos diferentes órgãos e vasos do “paciente”.

Ao todo, de acordo com a empresa, mais de 1,5 milhão de pessoas já utilizam o aplicativo – o que faz dele a maior comunidade de cirurgiões do mundo. A ideia é que ele substitua também os simuladores de cirurgia usados em alguns hospitais e escolas de medicina. Embora sejam úteis, esses simuladores são extremamente caros, tanto para se adquirir quanto para se manter.

Elon Musk quer levar internet de alta velocidade para o mundo inteiro

O bilionário da tecnologia Elon Musk anunciou nesta semana que pretende levar internet de alta velocidade a todo o mundo usando o espaço. A SpaceX apresentou um pedido à FCC, Comissão Federal de Comunicações dos Estados Unidos, para iniciar o projeto, que pretende colocar em órbita milhares de satélites.

“O sistema é projetado para fornecer uma ampla gama de serviços de banda larga e comunicações para usuários residenciais, comerciais, institucionais, governamentais e profissionais do mundo inteiro”, explica a SpaceX em um documento.

A rede seria composta por 4,4 mil satélites em diferentes órbitas e custaria cerca de US$ 10 bilhões, de acordo com estimativas do próprio Musk. “Uma vez implantado totalmente, o sistema passaria por praticamente todas as partes da superfície da Terra e, portanto, teria a capacidade de fornecer serviços globais onipresentes”, afirma.

A ideia é que os satélites forneçam uma velocidade global de até 1 Gbps, bem mais do que a média global atual de 5,1 Mbps. O projeto, no entanto, não é o único. Há alguns meses, o Facebook apresentou uma ideia semelhante, mas não teve sucesso em suas primeiras etapas, já que o foguete da SpaceX enviado ao espaço acabou explodindo e destruindo o satélite da empresa.

A SpaceX estima que um novo voo deve acontecer antes do final do ano.

https://goo.gl/I8y2xz

Você agora pode testar os projetos de inteligência artificial do Google

O Google lançou um site que permite que os usuários experimentem alguns de seus projetos de inteligência artificial. O A.I. Experiments traz, entre os itens, um aplicativo que adivinha o que você está desenhando, uma câmera capaz de reconhecer objetos colocados à sua frente e uma ferramenta musical que faz “dupla” com o usuário.

Confira alguns vídeos demonstrativos:

Em Quick, Draw, o usuário é incentivado a desenhar rapidamente um item que deve ser decifrado pelo sistema.

Em Giorgio Cam, o sistema reconhece e diz em voz alta o que está vendo. Os desenvolvedores explicam melhor como funciona o projeto:

Para a gigante de buscas, o objetivo é tornar a tecnologia mais acessível a quem tem interesse em inteligência artificial, mas não possui conhecimento técnico para analisar pesquisas acadêmicas e plataformas onde estudos do tipo são publicados.

Para os desenvolvedores, o código de todos os projetos do site foi postado no GitHub, assim é possível analisá-los e usar suas próprias ferramentas, desenvolvendo aplicações semelhantes. A empresa também está aceitando novas ideias de projetos aqui.

https://goo.gl/DPPj3X