Coded Bias – O que falta nas Inteligências Artificiais?

Divulgue e opinie

A Netflix emplacou mais um gol com o documentário Coded Bias. Ao questionar os possíveis problemas que a utilização de inteligências artificiais pode trazer às nossas vidas, o documentário trata de assuntos como privacidade, direitos fundamentais, ganância corporativa, entre outros.

Como sempre, farei os meus comentários, mas não pretendo fazer um resumo do documentário. Afinal, fica a recomendação para que você o assista.

Vou trazer um assunto que foi pouco explorado na obra que é a relação das decisões humanas com as emoções. Quando o processo decisório humano é substituído por um algorítimo, fica faltando um dos principais elementos que organizam a nossa vida: as emoções. Veremos então como isso influencia e como as decisões de uma máquina podem ser muito ruins, justamente por faltarem as emoções.

 

Quem são os protagonistas do documentário Coded Bias?

  • Joy Buolamwini – pesquisadora ganense-americana do MIT (Instituto de Tecnologia de Massachusetts), é a personagem principal da obra. É conhecida por iniciar o movimento de questionamento acerca da precisão dos sistemas de reconhecimento facial.
  • Cathy O’Neil – é matemática, cientista de dados e autora. É a fundadora do blog mathbabe.org e escreveu livros sobre ciência de dados, incluindo o best-seller do New York Times Weapons of Math Destruction. Seu mais recente livro é The Shame Machine;
  • Meredith Broussard – jornalista e autora do livro “Artificial Unintelligence: How Computers Misunderstand the World” (Desinteligência Artificial: como os computadores não entendem o mundo)
  • Safiya Umoja Noble – professora da Universidade da Califórnia em Los Angeles e autora do livro best-seller “Algorithms of Oppression: How Search Engines Reinforce Racism” (Algoritmos de opressão: como os motores de busca reforçam o racismo). Participou da fundação do Center for Critical Internet Inquiry;
  • Silkie Carlo – diretora do Big Brother Watch, iniciativa que monitora o uso experimental e não legalizado do reconhecimento facial pela polícia do Reino Unido.

Veja uma palestra em que Joy explica os problemas que encontrou, antes mesmo de participar do documentário da Netflix – Coded Bias:

Na descrição do vídeo é explicado que:

Joy Buolamwini, estudante de pós-graduação de MIT, trabalhava com um software de reconhecimento facial quando notou um problema: o software não reconhecia o seu rosto, porque as pessoas que tinham codificado o algoritmo não tinham pensado em identificar uma ampla variedade de tons de pele e de estruturas faciais. Agora ela está numa missão de lutar contra o preconceito nas formas de aprendizagem de máquina, um fenômeno a que ela chama “preconceito codificado”. É uma conversa de olhos abertos sobre a responsabilidade necessária em codificação… enquanto os algoritmos tomam conta de cada vez mais aspetos da nossa vida.

 

Quais são os principais problemas ocultos nas “inteligências artificiais”?

Os principais problemas trazidos no documentário Coded Bias e também levantados por mim são:

  • os algorítimos são proprietários, ou seja, quem o criou possui os direitos sobre ele;
  • os códigos não são abertos e não estão disponíveis para auditoria;
  • como são de arquitetura proprietária e “secretos”, tornam-se caixas pretas que ninguém sabe como os critérios de decisão estão sendo organizados;
  • a aprendizagem de máquina é um processo que ocorre à revelia até mesmo de seus criadores;
  • abre a porta para afastar o elemento humano do processo decisório. Depois da decisão automatizada, cabe aos humanos seguir um protocolo;
  • um dos principais elementos do processo decisório humano não está presente nas decisões automatizadas: as emoções.

 

Qual é a principal diferença entre as decisões humanas e as artificiais ou codificadas?

As decisões humanas ocorrem em meio a uma multiplicidade de processos e funções biopsicológicos. Vários tipos de memória, como a experiência de vida, crenças, valores, perspectivas futuras, conhecimento técnico e as emoções são alguns desses processos e funções.

No estágio tecnológico atual, uma máquina pode simular uma certa quantidade desses processos psicológicos humanos. No entanto, alguns são impossíveis de simular, como a experiência de vida e qualquer outro que envolva as emoções como fator essencial.

Alguém pode argumentar que a máquina tem a experiência própria com algum assunto. Isso é, até certo ponto correto, mas é uma experiência de máquina. Quando um ser humano experimenta a vida, existe sempre o elemento emocional. O que são os nossos valores senão elementos semióticos fortemente impregnados por emoções? (Branco, 2016, 2021). As memórias não são apenas gravações do que ocorreu, são elementos semióticos entrelaçados com as emoções experimentadas nos momentos.

Nossas memórias são também maleáveis. Não é como gravar em um vídeo. É mais como escrever em uma wikipedia, em que as memórias podem ser reconstruídas e ressignificadas com o passar do tempo na presença de novas experiências e emoções.

Os valores são, portanto, os principais critérios que os seres humanos utilizam para decidir. Juntamente com as emoções, são responsáveis pela multiplicidade de “soluções” que vemos nas decisões humanas. Alguns podem argumentar que as nossas emoções são exatamente o que mais atrapalha o processo decisório. Ledo engano, pois como abrir mão de um dos elementos mais importantes do nosso psiquismo?

As emoções são tão importantes para o nosso processo decisório que temos um “simulador” que chamamos de empatia. Ser empático é “simular” o lugar do outro, a situação do outro, as emoções do outro. É tão importante e central em nosso psiquismo que podemos nos emocionar vendo uma cena de um filme [que sabemos ser uma ficção]. Ficção ou não acaba sendo pouco importante diante dos nossos processos emocionais. O exercício da empatia é um dos principais indicadores de maturidade emocional.

É, portanto, um processo complexo que envolve funções mentais variadas, básicas e superiores, incluindo abstrações sobre a própria experiência passada, acesso à memória, novas emoções e tomada de decisões acerca do que fazer com o RESULTADO desse processo empático.

 

Qual é o peso das emoções em nossas decisões? Coded Bias?

Essa não é uma pergunta fácil de responder. Há tempos a ciência estuda o processo decisório humano por meio de dilemas morais. A moralidade vem sendo estudada predominantemente sob o ponto de vista cognitivo, mas a prática mostra que existe um componente emocional importante para a resolução dos dilemas morais. Isso serve para explicar, parcialmente, o ditado: faça o que eu digo, mas não faça o que eu faço….

Como as crenças e valores variam de cultura para cultura, assim as decisões sobre o mesmo fato variam.

Vou tentar sintetizar, por meio da explicação de um evento ocorrido há tempos e explicado em diversos estudos científicos recentes (e.g. Branco, 2022; Valsiner, 2021a; Wortmeyer, 2017). Sobre isso, Martins e Branco (2001) nos esclarecem:

Shweder e Much (1987), por exemplo, ilustram de forma convincente o quanto é necessário considerar a inserção do sujeito na cultura e seus processos de construção de significados pessoais no contexto em que vive. Os autores entrevistam um indiano ortodoxo acerca dos dilemas morais de Kolhberg, e analisam o discurso do sujeito buscando explorar os significados que este atribui, em particular, ao dilema de Heinz (roubar ou não roubar do farmacêutico, que não cede a nenhum de seus argumentos, o remédio que poderá salvar a vida da sua esposa). Consideram que as justificativas do indiano, quando analisadas à luz do contexto cultural, revelam que estas não podem ser classificadas de acordo com os critérios pré-estabelecidos por Kolhberg. Isto porque implicam em um sentido do que seja a vida e em questões éticas completamente distintas das observadas em culturas ocidentais. A ideia básica é a de que o indivíduo em desenvolvimento apoiado pelas sugestões morais presentes em sua cultura, reconstrói suas noções de certo e errado a partir de suas experiências cotidianas. Os autores ressaltam o inestimável valor da investigação dos processos de co-construção de significados morais no decorrer das experiências interativas do dia-a-dia do ser em desenvolvimento. A nosso ver, tais investigações apontam uma direção fundamental para a análise e compreensão dos processos de internalização/externalização que estão na origem das crenças e valores morais presentes na cultura pessoal dos indivíduos e na cultura coletiva dos diferentes grupos sociais. [grifos nossos]

https://youtu.be/1_2qEOxSTsM

 

Complementando a explicação acima, as decisões morais, sobretudo, incluem o peso das emoções. O exemplo do indiano que se recusou a justificar o roubo do medicamento, levou em consideração suas crenças religiosas e o cenário de uma vida eterna convivendo com a transgressão do roubo. Em suas críticas aos estágios fixos de desenvolvimento moral de Kohlberg, Shweder e Much (1987) e diversos outros pesquisadores mais recentes (e.g. Mazur et al., 2021; Silva Guimarães, 2022; Xu, Wu & Li, 2021) argumentaram que as avaliações e critérios de análise passariam pela subjetividade dos pesquisadores. Seguindo esse mesmo raciocínio, os códigos também passam pela subjetividade de seus criadores, incluindo suas preconcepções sobre a vida [Coded Bias].

 

Como tomar uma decisão baseada em valores e sem emoção?

Não há como tomar uma decisão humana sem emoções (Valsiner, 2021b). Um humano que toma decisões sem emoções é um psicopata. Valores sem emoção equivalem a qualquer outro critério. Um processo decisório desprovido de emoções pode apresentar o resultado de que é mais eficiente exterminar pessoa com deficiência severa, pois elas seriam um fardo para a coletividade e representariam um custo adicional a ser absorvido por todos.

Entretanto, é o valor que essas pessoas têm para o coletivo que nos impede de tomar esse tipo de decisão que não seria tão difícil para uma máquina. O processo decisório de uma máquina se aproxima do que ocorre nos piores picopatas.

O primeiro passo a ser tomado é que os programadores e cientistas de dados tenham em mente que suas concepções de mundo serão transferidas pera os seus códigos.

Sem entrar no mérito da falta de transparência, no uso indevido e antiético das inteligências artificiais e algorítimos, o que podemos concluir é que faltam as emoções, entre outras coisas, para as tais inteligências artificiais.

Um abraço e boa leitura

Sergio Senna

 

Veja mais sobre tecnologia e comportamento:

Como a tecnologia persuasiva afeta a sua vida?

A psicologia das Fake News: a mentira é eficaz?

Vigilância remota para predição do comportamento e linguagem corporal

Emoções e o uso das redes sociais

 

Referências

Branco, A. U. (2022). The moral-ethical dimension of human psychology. Deep Loyalties: Values in Military Lives, 211.

Martins, L. C., & Branco, A. U. (2001). Desenvolvimento moral: considerações teóricas a partir de uma abordagem sociocultural construtivista. Psicologia: teoria e pesquisa, 17(2), 169-176.

Mazur, L. B., Richter, L., Manz, P., & Bartels, H. (2021). The importance of cultural psychological perspectives in pain research: Towards the palliation of Cartesian anxiety. Theory & Psychology, 09593543211059124.

Shweder, R. A., & Much, N. C. (1987). Determinations of meaning: Discourse and moral socialization.

Silva Guimarães, D. (2022). Theoretical-methodological implications for research from the ethical standpoint of Semiotic-Cultural Constructivism in Psychology. Integrative Psychological and Behavioral Science, 1-15.

Valsiner, J. (2021a). Masked Morality: Theatrical Reality of Living. In General Human Psychology (pp. 151-180). Springer, Cham.

Valsiner, J. (2021b). Constructing and Destroying One’s Life: Phenomenology of the Human Life Course. In General Human Psychology (pp. 3-24). Springer, Cham.

Xu, S., Wu, A., & Li, X. (2021). Jaan Valsiner, a Keen Perceiver and Creator of Cultural Ecology. In Culture as Process (pp. 327-335). Springer, Cham.

Wortmeyer, D. S. (2017). O desenvolvimento de valores morais na socialização militar: entre a liberdade subjetiva e o controle institucional. Tese de doutorado, Universidade de Brasília, Distrito Federal, Brasil. Disponível: https://repositorio.unb.br/handle/10482/24098

1 comentário em “Coded Bias – O que falta nas Inteligências Artificiais?”

  1. Boa tarde Dr. Senna. Sou da área de Ti e gostaria de saber se as emoções são mesmo tão importantes para as nossas decisões. Nas aulas que tive aprendi que as inteligências artificiais podem simular todo o processo decisório humano. Vi que o Sr. falou um poco sobre isso no artigo, mas queria entender melhor.

    Grata

    Responder

Opine sobre isso!