Como evitar a inteligência artificial preconceituosa

20 de Março de 2019 | 8 meses atrás | Tempo de leitura: 6 minutos

Por Fabio Pereira

Joy Buolamwini é uma estudante do MIT que descobriu que um software de reconhecimento facial não reconhecia seu rosto, mas reconhecia os de outras pessoas. Pior ainda foi quando ela descobriu que esse software não reconhecia o rosto de pessoas negras. Entenda melhor como isso aconteceu e como evitar este tipo de problema.

Imagine uma criança que está com uma maçã na mão e adulto diz: “Maçã!”. Logo em seguida, a criança repete: “Maçã”. Claro que às vezes ela vai errar e falar “Mafã”, às vezes “Massa”, mas depois de algumas tentativas a criança aprende que aquilo é uma maçã. Depois de alguns dias, a criança vê uma maçã e sem que nenhum adulto diga nada a criança aponta e diz: “Maçã”. Essa criança passou por duas etapas: treinamento e reconhecimento.

Treinamento é a fase quando alguém aprende o que é alguma coisa.

Reconhecimento é quando alguém reconhece alguma coisa baseado no que aprendeu.

Estamos sempre passando por essas duas fases em nossa vida. Sempre aprendendo e reconhecendo e aprendendo novamente e reconhecendo de novo.

Algumas semanas depois a criança vê uma maçã verde e não diz “maçã”. Por que? Porque quando a criança foi treinada para aprender o que era uma maçã, a maçã verde não fez parte do seu treinamento. Agora a criança não sabe que fruta é aquela. Existe uma semelhança, mas a cor é outra, às vezes o tamanho é outro, e agora? A criança tem que ser treinada novamente para ampliar o seu conhecimento de mundo e aprender que a maçã verde também é maçã.

Os computadores aprendem como os seres humanos

Com a Inteligência Artificial (IA) de computadores e equipamentos digitais, há um processo parecido com o de treinamento e reconhecimento descrito acima. Existe uma forma de fazer isso chamada Aprendizagem Profunda (Deep Learning), que chama essas duas etapas de Treinamento e Inferência. Aqui, já falamos também sobre Machine Learning. Vamos chamar a fase de inferência de “reconhecimento”, já que fica mais fácil, não é mesmo?

O seu celular pode categorizar todas as fotos que você já tirou e saber se as fotos são de maçã ou não. Na verdade esse processo é bem mais avançado que isso. Hoje, os computadores conseguem categorizar fotos e saber quem está na foto. É o reconhecimento facial. Você pode tirar fotos de dezenas de pessoas e, tanto o Google Photos e o Facebook, quanto outros softwares de reconhecimento facial, agrupam fotos de pessoas parecidas e, na maioria dos casos, sabem quem é aquela pessoa.

Agora imagine que você fez o download de um desses softwares de reconhecimento facial porque quer categorizar as pessoas que você conhece nas suas fotos do seu celular. Porém, você percebe que o aplicativo não reconhece sua face em nenhuma das fotos que você tira. Você faz alguns testes, tira foto de vários amigos e amigas e descobre que o aplicativo reconhece sim o rosto de algumas pessoas, mas de outras, não. O seu é um dos rostos que nunca é reconhecido. Simplesmente aquele aplicativo não sabe que você é uma pessoa.

Joy Buolamwini passou por uma situação parecida quando descobriu que um software de reconhecimento facial não reconhecia o rosto de pessoas negras porque quando o software passou pelo processo de “treinamento”, as pessoas que estavam treinando não pensaram em mostrar fotos de pessoas negras para este software e dizer: “Computador, este é um rosto”. É esse tipo de problema que Joy tem discutido e pesquisado com o seu projeto InCoding  (Inclusive Coding), que significa Código com Inclusão. Joy usou por um tempo uma máscara branca e mostrava que sem a máscara o software não reconhecia seu rosto e, com a máscara, sim.

Ou seja, o software acha que uma máscara é um rosto, mas que um rosto real, não. Um absurdo de um computador preconceituoso – uma Inteligência Artificial (IA) Preconceituosa.

Podemos definir Inteligência Artificial Preconceituosa como computadores e robôs que funcionam com algoritmos que chegam a conclusões erradas, diferentes da realidade, pois aprenderam e foram treinados com dados que não representam a realidade como ela é.

Como evitar a Inteligência Artificial Preconceituosa

A notícia boa é que muitas pessoas e empresas estão focando esforços e investimentos na prevenção da IA Preconceituosa. Como um exemplo disso, a IBM lançou recentemente o Diversity in Faces (DiF), um conjunto de dados (dataset) amplo e diversificado que busca avançar no estudo da justiça e precisão na tecnologia de reconhecimento facial. Uma iniciativa pioneira nesta área que está disponível para a comunidade global de pesquisa. O DiF fornece um conjunto de dados de anotações de 1 milhão de faces de seres humanos.

Em uma parceria com Mari Klober, o projeto “Checklist para evitar a Inteligência Artificial Preconceituosa” é mais um exemplo de iniciativa no sentido da ética e da moral da IA. Foi criado com o objetivo de conscientizar sobre a importância deste problema e promover uma possível solução através de 3 Passos e um Checklist. Para saber mais, é só visitar a página do projeto e baixar o checklist.

Fabio Pereira morou 8 anos em Sydney trabalhando com tecnologia e comportamento humano, onde virou cidadão Australiano. Autor do best-seller “Consciência Digital”, já palestrou na China, Alemanha, Austrália e até mesmo no famoso palco do TEDx.