Robôs preconceituosos? Microsoft quer inteligência artificial sem viés

Tecnologia

29 de Maio de 2018 | 3 semanas atrás

Objetiva e precisa, a inteligência artificial é baseada em algoritmos — o que, para muitos, é o cenário perfeito para evitar qualquer tipo de erro humano. No entanto, como esses softwares acabam se baseando em inputs dados por nós, nem eles acabam escapando de atitudes injustas. Afinal, o aprendizado constante de muitos desses serviços utiliza a interação humana como referência, o que aumenta ainda mais a chance de criarmos robôs preconceituosos. Empresas como a Microsoft já perceberam essa tendência e buscam tecnologias para impedir que algoritmos tenham algum viés prejudicial.

Há quem pense que a inteligência artificial ainda não tem grande impacto em nossas vidas, apenas em situações pontuais. Mesmo que a IA esteja evoluindo de maneira gradativa, é questão de tempo para que esteja por todo canto e interfira em decisões de ampla magnitude. Desse modo, um viés injusto ou preconceito pode ter graves consequências.

A Microsoft entende bem que os robôs podem, sim, acabar preconceituosos. Já faz mais de dois anos que a empresa teve uma péssima experiência com Tay, um chatbot criado para interagir com pessoas no Twitter. A iniciativa acabou dando errado em apenas 24 horas. Como Tay utilizava a interação com usuários para aprender mais, ela foi alvo de comentários racistas e preconceituosos. Não demorou para que a própria Tay destilasse ódio nas redes sociais, chegando a dizer “eu realmente odeio feministas e todas elas deveriam morrer e queimar no inferno” e outros absurdos do tipo. Não é que ela assumiu algum tipo de linha de pensamento, ela simplesmente repetia o que usuários diziam — tanto que depois chegou a tuitar que amava feministas pouco tempo depois. Tay acabou desativada e a empresa acabou soltando uma nota de desculpas.

Inteligência artificial: como evitar preconceitos?

Dois anos se passaram e a Microsoft percebeu que plataformas de IA com preconceitos pode trazer consequências ainda piores do que tuítes racistas. Por isso, está trabalhando em uma ferramenta para identificar e corrigir injustiças. “Coisas como transparência, inteligibilidade e explicação são novas para tão novas para o campo que poucos de nós tem experiência para saber tudo o que precisamos procurar e todas as formas que preconceitos podem estar escondidos em nossos modelos, diz Rich Caruna, pesquisador sênior da Microsoft envolvido na ferramenta de detecção, ao MIT Technology Review.

Rich explica que existe um risco de preconceitos começarem a ficar automáticos no algoritmo — o que tornaria muito mais difícil de achar e apontar o erro. Mas ele avisa que algum tipo de viés deve ficar. “É claro que não podemos esperar perfeição — sempre vai existir algum preconceito que não foi detectado ou que não pode ser eliminado — o objetivo é fazer o melhor que podemos”, conclui.

A Microsoft não é a única — o Facebook anunciou a sua própria ferramenta para detectar qualquer tipo de viés em sua conferência de desenvolvedores no começo de maio. Chamada de Fairness Flow, o algoritmo avisa automaticamente se algum algoritmo está fazendo um julgamento injusto sobre alguém baseado na raça, gênero ou idade.

Embora o empenho de Facebook e Microsoft seja louvável, Bin Yu, professor na universidade UC Berkeley, diz que empresas devem ir além, como ter especialistas de fora para algum tipo de auditoria nos algoritmos. “Alguém precisa investigar os algoritmos do Facebook — não podem ser um segredo mais”, conclui.