A inteligência artificial espelha as nossas imperfeições

A IA nas suas aplicações mais frequentes imita e muitas vezes amplifica as nossas imperfeições, mas também abre uma janela de esperança.

Sistemas que incorporam inteligência artificial (IA) são hoje usados em quase todos os aspetos da nossa vida, desde a recomendação de filmes até à videovigilância e às decisões de crédito. É hoje claro que esses algoritmos de IA tomam decisões automáticas que violam noções elementares de justiça e de moral. Eles tendem a discriminar certos grupos em decisões de crédito[1], falham na classificação de imagens[2] e de fatores de risco de saúde[3] de pessoas de diferentes raças, não são equitativos na atribuição de penas (existem hoje vários estados dos EUA que usam algoritmos para decidir penas de prisão)[4], e contribuem para a disseminação de vídeos falsos e de teorias da conspiração[5]. O futuro das sociedades modernas, incluindo o futuro das nossas democracias, depende da introdução de barreiras éticas e morais ao comportamento destes sistemas.

A inteligência artificial (IA) é um conjunto de programas informáticos que tem por objetivo resolver problemas próprios da inteligência humana, incluindo compreensão de texto e linguagem, o reconhecimento de imagens e a manipulação de objetos. Estes sistemas tiveram um desenvolvimento muito rápido nos últimos 10 ano devido ao sucesso de métodos estatísticos e que “aprendem” sozinhos, ou seja, que usam grandes quantidades de dados para encontrar padrões ou regularidades.

O futuro das sociedades modernas, incluindo o futuro das nossas democracias, depende da introdução de barreiras éticas e morais ao comportamento destes sistemas.

A IA tem o potencial de se tornar uma ferramenta muito poderosa porque, sendo uma coleção de métodos estatísticos cada vez mais complexos, beneficia muito do aumento da capacidade de computação e da disponibilidade de dados. A disponibilidade de dados aumentou muito com o aparecimento da Internet e, mais recentemente, das redes sociais. As redes sociais em particular permitem a medição quase contínua das escolhas dos utilizadores: de que vídeos gostam, que notícias são partilhadas, que tipo de fotografias se tornam populares. Nunca tinha sido possível a empresas e governos ter um acesso tão direto a escolhas feitas por milhões de utilizadores (cidadãos, consumidores) na privacidade dos seus computadores pessoais ou telefones.

Como modelos estatísticos que são, os programas de inteligência artificial tentam imitar o que vêm, e aprendem com os exemplos que lhes são dados. Dito de outra forma, todas as formas de IA tentam minimizar algum tipo de “erro” nas previsões que fazem. Quando o Facebook faz uma sugestão de um artigo ou de um vídeo, a qualidade dessa sugestão é avaliada comparando o que o programa espera que aconteça com o comportamento do utilizador humano. Um modelo é considerado “bom” se sugerir um vídeo que o utilizador humano passe muito tempo a ver. Isso significa que, se os utilizadores humanos partilharem notícias falsas, o algoritmo de IA aprende que essas são as notícias que deve sugerir.

A inteligência artificial não é, ainda, uma nova forma de inteligência. É apenas uma forma de automatizar atividades próprias dos humanos. Por serem automáticos, por não se cansarem, e por utilizarem computadores muito poderosos, os algoritmos de IA podem ser muito mais eficientes do que os humanos em algumas dessas atividades. Mas são, ao mesmo tempo, um espelho da atividade humana. Se ela é imperfeita, ou até injusta ou imoral, o espelho reflete isso mesmo. Se os algoritmos de IA discriminam, falham, ou espalham mentiras isso deve-se, antes de mais, à forma como eles são “treinados”. É esse o preço de criar máquinas que nos imitam e nos seguem para todo o lado sem uma noção autónoma de moral.

Se os algoritmos de IA discriminam, falham, ou espalham mentiras isso deve-se, antes de mais, à forma como eles são “treinados”. É esse o preço de criar máquinas que nos imitam e nos seguem para todo o lado sem uma noção autónoma de moral.

Os algoritmos nos nossos telefones e nas nossas televisões afetam o nosso comportamento diário e têm um papel claro em manifestações de violência como as que vimos no Capitólio em Washington em janeiro deste ano. A maioria dos manifestantes acreditava numa série de mentiras que foram potenciadas por algoritmos de sugestão de notícias sem qualquer supervisão por parte das empresas tecnológicas. Mesmo que não seja sempre tão transparente, estes mecanismos de disseminação de informação afetam quase todos os aspetos da vida em sociedade, incluindo os valores que as crianças aprendem a partir de vídeos que lhes são sugeridos diariamente.

A IA nas suas aplicações mais frequentes imita e muitas vezes amplifica as nossas imperfeições, mas também abre uma janela de esperança. Da mesma maneira que os algoritmos podem imitar as nossas piores características, também criam uma oportunidade para o bem. Basta que se balize o seu comportamento e se incluam preocupações éticas e morais na tomada de decisão.

A imposição de regras de comportamento aos algoritmos cria, naturalmente, o problema de decidir que valores é que devem reger esses algoritmos. Há compromissos entre justiça, equidade e eficiência em que não é sempre clara a resposta certa. Mas a solução atual de treinar modelos estatísticos sem restrições desta natureza leva a resultados indesejáveis e muitas vezes perigosos.

 

[1] The Effects of Machine Learning on Credit Markets. Fuster, Andreas and Goldsmith-Pinkham, Paul and Ramadorai, Tarun and Walther, Ansgar, Predictably Unequal? (October 1, 2020)
[2] Google apologizes after its Vision AI produced racist results, Nicolas Kayser-Bril. https://algorithmwatch.org/en/google-vision-racism/
[3] Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations, Sendhil Mullainathan, Ziad Obermeyer, Brian Powers, and Christine Vogeli, Science, 366(6464), pp.447-453, 2019.
[4] “Human Decisions and Machine Predictions,” Jon Kleinberg, Himabindu Lakkaraju, Jure Leskovec, Jens Ludwig and Sendhil Mullainathan, Quarterly Journal of Economics, 133.1 (2018): 237-293. (also: NBER Working Papers 23180, National Bureau of Economic Research, Inc.)
[5] How To Deal with AI Enabled Disinformation? John Villasenor, 2019.

* Os jesuítas em Portugal assumem a gestão editorial do Ponto SJ, mas os textos de opinião vinculam apenas os seus autores.