Será que as máquinas estão prestes a ler nossos pensamentos?

1 de Fevereiro de 2019 | 5 meses atrás | Tempo de leitura: 3 minutos

No dia 29 de janeiro, a Nature publicou um estudo mostrando que um sistema de inteligência artificial foi capaz de ler pensamentos e decodificar, por meio de implantes cerebrais, o que as pessoas estavam ouvindo. Depois, o sistema transformou em voz as palavras decodificadas.

A tecnologia está sendo desenvolvida por pesquisadores da Universidade de Columbia, em Nova York, e conta com a utilização de eletrodos colocados no cérebro e uso de deep learning, um ramo da inteligência artificial.

Seria esse o primeiro passo para a leitura de pensamentos?

Há décadas se sabe que quando as pessoas falam ou ouvem, são ativadas determinadas áreas do cérebro. Apesar disso, ler pensamentos e transformá-los em palavras sempre foi um grande desafio. No entanto, a criação do dispositivo capaz de reconhecer palavras que as pessoas estão ouvindo e reproduzi-las pode ser um importante passo para ler a mente de quem não pode falar, por exemplo.

O estudo foi realizado em 5 pacientes que possuíam eletrodos implantados, já que passavam por tratamento para epilepsia. Nesses casos, os implantes normalmente são utilizados para que os médicos consigam entender melhor como e quando acontecem as convulsões.

Os voluntários ouviram uma série de gravações de frases, e a atividade cerebral foi utilizada para treinar um software de deep learning.

A aprendizagem profunda, ou deep learning, é a capacidade de treinar máquinas para realizar tarefas como os seres humanos, como o reconhecimento de fala. Ao invés de organizar dados para que as ações sejam executadas por meio de equações e algoritmos pré definidos, o deep learning configura parâmetros básicos sobre os dados e treina o computador para aprender sozinho, por meio do reconhecimento de padrões em diversas camadas de processamento.

No estudo, os voluntários escutaram gravações de frases faladas por 4 pessoas, durante 30 minutos. De tempos em tempos, o som era interrompido para que os participantes repetissem determinada sentença. Na sequência, eles escutaram mais 40 números serem falados.

Depois de aprender os padrões de fala, a inteligência artificial conseguiu identificar, reconstruir as palavras que eram reproduzidas na mente dos pacientes e, transformar as informações em voz. De acordo com o estudo, o sintetizador reproduziu palavras, de maneira compreensível, em 75% do tempo.

A ideia é, no futuro, permitir a comunicação de pessoas que perderam a habilidade de falar. No entanto, até o momento, a tecnologia só é capaz de reproduzir parte das palavras ouvidas pelos voluntários que participaram do teste.