A real ameaça da inteligência artificial
Por Rodrigo C. Barros
O que a IA e a Cloroquina têm em comum?
*
O leitor já compreendeu o impacto astronômico da inteligência artificial (IA) nos negócios e nos governos, tanto que as grandes economias se sentiram impelidas a estabelecer planejamentos estratégicos para a tecnologia. O que nem todo mundo ainda compreende são os riscos reais que a tecnologia oferece.
Um apanhado histórico da inteligência artificial nos conduz a uma montanha-russa de promessas exageradas e decepções gigantescas. Um de seus marcos é o surgimento das redes neurais artificiais (RNAs) em 1958, quando Frank Rosenblat inventa o “Perceptron”. No entanto, foi só nos anos 2010 que tais redes se tornaram a principal força motriz da área. Graças a uma união favorável de fatores catalisadores, como a explosão da disponibilidade de dados e a possibilidade de utilizar hardware especializado em multiplicação de matrizes, as RNAs provocaram uma revolução espantosa, surpreendendo o mundo com sua capacidade de lidar com tarefas complexas. A área foi rebatizada para “Deep Learning”, alusão ao número cada vez maior de camadas de neurônios nas arquiteturas das redes, agora mais profundas.
Com “Deep Learning” invadindo nossas vidas cotidianas, não foram poucos os futurólogos que surgiram com as velhas profecias de sempre: a singularidade e a revolta das máquinas, com direito a Schwarzenegger em seu figurino de Exterminador do Futuro. Mas não nos enganemos. A probabilidade de uma RNA atual vir a ganhar consciência é tão pequena quanto o tamanho de um neurônio biológico.
A grande ameaça da IA, pasme, é reproduzir exageradamente bem o comportamento humano. Aliás, reproduzir aquilo que de pior temos: os preconceitos. É preciso ficar claro que as RNAs são máquinas de correlação, e não de causa e efeito. Mais do que isso, num país onde o presidente da República não entende que “correlação não implica necessariamente em causa”, precisamos ser didáticos e instruir o público que podem existir diversas correlações nos dados, mas que ciência boa é aquela que olha com desconfiança para afirmações categóricas a respeito de causalidade. Caso contrário, seríamos obrigados a admitir que os gastos do governo americano em ciência são os responsáveis pelo número de suicídios por estrangulamento e enforcamento nos EUA.
O maior exemplo de como boa parcela da população não entende a diferença entre correlação e causalidade são os arroubos pseudocientíficos na CPI da Covid em defesa do uso da cloroquina para combater o vírus. É certo que os principais responsáveis pela tragédia sanitária que vivemos agiram por ignorância: desconhecem a diferença entre correlação e causa, e não compreendem as especificidades e nuances do método científico.
Ao mesmo risco estamos submetidos quando confiamos cegamente nas RNAs. Se treinarmos tais métodos para que descubram padrões sobre dados díspares, os modelos gerados irão reproduzir as disparidades. Caso clássico de injustiça protagonizada pela IA é o da ferramenta COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), que auxiliava cortes americanas a estimar a probabilidade de reincidência criminal por parte dos réus. Alguém se surpreenderia ao descobrir que o algoritmo apontava indivíduos negros como mais prováveis de reincidir?
A área de “Fairness in Machine Learning” vem ganhando força na academia, servindo de alerta a todos que da IA usufruem: não basta que os modelos aprendam bem os padrões existentes nos dados — eles precisam ser impedidos de propagar preconceitos. O esforço de justiça em IA está apenas começando, com muitas possibilidades para se combater os vieses prejudiciais. Podem-se desenvolver modelos que deliberadamente combatam fatores de confusão previamente anotados. Pode-se trabalhar no desenvolvimento de bases de dados sintéticas que sejam ajustadas para descontar tais fatores. O que não se pode é fingir que preconceitos não existem. Ou que não é um problema de todos nós se as máquinas os reproduzirem.
Em tempos de governos de extrema direita, que exalam e promovem preconceitos, é notório que a principal luta dentro da IA seja a mesma que travamos no dia a dia: a batalha contra injustiças e preconceitos.
*
Rodrigo C. Barros é cientista da computação com doutorado em inteligência artificial pela USP. É pesquisador em IA na PUCRS e diretor de Pesquisas da Teia Labs.
Inscreva-se na newsletter do Serrapilheira para acompanhar mais novidades do instituto e do blog Ciência Fundamental.