IA está prestes a simular o cérebro humano, segundo ex-Facebook

Divulgue e opinie

IA está prestes a simular o cérebro humano, segundo ex-Facebook. Esta é a chamada de uma notícia que não poderia ser mais imprecisa. Em resumo, a notícia dizia o seguinte:

Conforme o ex-executivo da Facebook, Yann LeCun, a Inteligência Artificial está pronta para alcançar o nível de complexidade do cérebro humano. Segundo ele, a ciência da computação já existe há mais de 60 anos, e agora, com os avanços da IA, estamos prestes a desbloquear o verdadeiro potencial da computação. Ele acredita que a IA conseguirá simular o cérebro humano em um futuro próximo, permitindo que as máquinas aprendam por conta própria como humanos.

Para nos aprofundarmos nos aspectos psicológicos e jurídicos em relação às inteligências artificiais, vejamos como essa expressão foi criada, conforme Dick (2019, p. 1) nos explica sobre os seus primórdios:

Há uma placa no Dartmouth College que diz: “Neste prédio, durante o verão de 1956, John McCarthy (Dartmouth College), Marvin L. Minsky (MIT), Nathaniel Rochester (IBM) e Claude Shannon (Bell Laboratories) conduziram o Projeto Dartmouth de Pesquisa de Verão sobre Inteligência Artificial. Primeiro uso do termo ‘Inteligência Artificial’. Fundaram a Inteligência Artificial como uma disciplina de pesquisa ‘para proceder com base na conjectura de que todos os aspectos da aprendizagem ou qualquer outra característica da inteligência podem, em princípio, ser descritos com tanta precisão que uma máquina pode ser construída para simulá-lo.’” A placa foi pendurada em 2006, em conjunto com uma conferência comemorativa do 50º aniversário do Projeto de Pesquisa de Verão, e consagra o relato padrão da história da Inteligência Artificial – que nasceu em 1955, quando esses veteranos da computação militar solicitaram à Fundação Rockefeller uma bolsa de verão para financiar o workshop que, por sua vez, moldou o campo. A placa também cita a conjectura central de sua proposta: que o comportamento humano inteligente consistia em processos que poderiam ser formalizados e reproduzidos em uma máquina (ênfase nossa)

Então, segundo o relato acima e a partir das palavras dos próprios fundadores, o principal propósito da criação de uma inteligência artificial foi simular o comportamento humano inteligente. Premissa essa que nos parece, ainda hoje, demasiadamente ambiciosa, mas cujo questionamento aprofundado foge ao escopo de nosso artigo.

Como nossas decisões são realizadas?

ibrale-coded-bias-o-que-falta-nas-inteligencias-artificiais-IA está prestes a simular o cérebro humanoA forma como chegamos às nossas decisões vem sendo objeto de estudo de diversos campos da ciência. Por ser o resultado da confluência e interação de dezenas de processos e funções psicológicas, o estudo científico das decisões humanas padece das desvantagens de uma abordagem fragmentada. O método científico positivista, nome construído a partir da crença de que só existe um, não consegue oferecer a integralidade necessária para o estudo dos inseparáveis fenômenos relacionados às nossas decisões e à nossa moralidade. O problema central em empregar uma abordagem positivista é a sua divisão em partes que separa cognição e emoção, no momento de estudarmos essa unidade indivisível. O que encontramos são abordagens utilitaristas sobre as decisões ou estudos acerca da influência das emoções nas decisões. Não há como separar as emoções dos aspectos cognitivos de um tema. Nem mesmo é possível separarmos as emoções daquilo que percebemos para, então, considerarmos. Nesse sentido, nossas decisões são resultados de um processo de confluência entre aspectos cognitivos, memórias, perspectivas e, principalmente, a valência que esses aspectos têm em relação uns aos outros, que é produzida pelas nossas emoções.

Considere uma pessoa que passou muitos anos numa guerra e que, agora, regressou a seu país. Tal guerra tinha um modelo de combates irregulares, sem a utilização de uniformes e com o emprego de métodos terroristas.

O utilitarismo pode ser entendido como uma tentativa de realizar uma assepcia no processo decisório, extraindo-se as emoções. Segundo essa ótica, a melhor decisão é aquela que traz o benefício coletivo mais abrangente. Decisões psicopáticas podem ser confundidas com decisões utilitaristas

Com o propósito de aproveitar o seu treinamento, tal pessoa procura um emprego na área de segurança privada.

Seria esperado que essa pessoa, sua percepção de ameaças e das situações ao seu redor? Suas memórias da guerra influenciariam a sua percepção. Poderiam os preconceitos formados durante os anos em que combateu na guerra irregular influenciar as suas decisões?

Essas são perguntas que nos levam a questionar se as decisões são frutos apenas de processos cognitivos. Nos ajudam a questionar, também, se os sistemas cibernéticos são capazes de simular todo esse rico entrelaçamento de processos biopsicológicos. Será que a IA está prestes a simular o cérebro humano?

O que são emoções?

Vejamos como a forma mais recente de estudar e de ganhar uma visibilidade acadêmica sobre as emoções é descrevê-las pelo que chamamos de respostas emocionais. Ninguém conseguiu, de fato, definir satisfatoriamente o que são emoções. Sabe-se que elas participam do sistema motivacional, que se entrelaça aos significados e aos elementos semióticos que orientam os nossos processos decisórios (Branco, 2018, 2021). Richard Lazarus (1991), há tempos, escreveu um artigo onde apresenta suas ideias sobre o que considerava serem os requisitos para uma boa teoria sobre emoções. Até hoje esses questionamentos ou requisitos continuam válidos, até mesmo para termos uma ideia sobre os desafios que devem ser enfrentados por quem deseja estudar e criar uma teoria sobre emoções. Os requisitos levantados por Lazarus são:

(1) definição de emoção; (2) a distinção entre emoção e não-emoção; (3) as emoções são ou não discretas? (4) o papel das respostas emocionais como a ativação fisiológica e a tendência para agir; (5) a forma como as emoções são interdependentes entre si e influenciam o processo decisório; (6) as relações entre cognição, motivação e as emoções; (7) a integração entre os processos e funções biológicos e socioculturais da emoção; (8) o papel da consciência e da avaliação; (9) o que dá origem às emoções; (10) o desenvolvimento emocional; (11) os efeitos das emoções na qualidade de vida e no “funcionamento” psicológico das pessoas; e (12) as emoções no contexto clínico e psicoterápico.

Muitas dessas questões ou aspectos levantados por Lazarus revelam a natureza privada dos fenômenos emocionais.  São fruto da imbricação de diversos processos e funções psicofisiológicas. O que podemos observar são os resultados parciais – as respostas emocionais. Quais são as principais respostas emocionais? (Coppin & Sander, 2021)

Então, quando alguém afirma que uma expressão facial ou que ativação fisiológica é uma emoção, isso não está perfeitamente correto. São respostas emocionais, é o que conseguimos observar de um fenômeno muito mais amplo: as emoções.
Não devemos, portanto, reduzir as emoções às suas respostas….

Processos cognitivos e emocionais

Então, as nossas decisões são o resultado do indistinto e inseparável entrelaçamento entre os aspectos cognitivos e informativos com as nossas emoções. Nesse sentido, a afetividade positiva ou negativa que cada tema nos causa, gera uma reflexividade de bem ou mal-estar no corpo, aumentando o poder de atratividade ou repulsividade que um determinado assunto nos causa. Quase ninguém considera esse poderoso mecanismo emocional. Nada depende apenas da informação que temos a respeito de um determinado assunto. Não é apenas uma “influência“. Isso está na base de nossas decisões.

Máquinas ou sistemas cibernéticos podem simular emoções?

Vale indicar que, sob o ponto de vista psicológico, o comportamento e o pensamento são o resultado da imbricação de diversas funções e processos biopsicológicos (Valsiner, 2012, 2014, 2021). Ao excluir um deles que seja, não será possível simular o mesmo resultado dos processos decisórios humanos e, também, a sua parte observável, que denominamos comportamentos públicos. Nesse contexto, podemos indicar pelo menos um processo psicológico, central para a regulação do pensamento e de outros comportamentos públicos e privados, que se mostra inviável de ser simulado por uma máquina ou algoritmo: as emoções humanas.

ia-esta-pretes-a-simular-o-cerebro-humano-ibrale-r

IA está prestes a simular o cérebro humano?

No contexto do pensamento e do comportamento observável, os processos emocionais desempenham uma função regulatória essencial (Branco & Valsiner, 2012). Fazemos ou deixamos de fazer muitas coisas porque as nossas emoções assumem um papel motivador, coisa que os algoritmos ainda não conseguem mimetizar, pelo menos em curto e médio prazos. Na tentativa de simular o comportamento interacional humano, sem a capacidade regulatória de nossas emoções, alguns problemas podem ocorrer. Foi o caso da inteligência artificial da Microsoft, conhecida como Joy, que foi instalada para interagir com adolescentes no Twitter. Sobre isso, Vale (2016, p. 37) nos conta:

Em março de 2016, a Microsoft lançou o perfil da chatbot Tay no Twitter. Desenvolvida para aprimorar a tecnologia dos serviços de assistência virtual (como Siri e Google Now), Tay foi programada para aprender por meio da interação com humanos.

O banco de dados do programa foi abastecido com informações gerais e um repertório condizente com a simulação da personalidade de uma adolescente. […] logo nas primeiras 24 horas em atividade, Tay começou a disparar comentários racistas, misóginos e ofensivos em geral e o perfil foi desativado pela própria Microsoft.

Considerado o mesmo contexto interacional, um ser humano se encontraria diante de diversos dilemas morais cujas possíveis soluções envolvem uma quantidade de processos psicológicos de ordem cognitiva, emocional e também uma composição, como é o caso das crenças e valores (Branco, 2018; Tateo, 2018). Tanto na hipótese da aquisição de preconceitos, quanto na utilização de valores como orientadores do comportamento, as emoções são centrais para a compreensão teórica desses fenômenos. Nesse contexto, os valores são elementos semióticos que se imbricam com emoções, destacando-se e ganhando ascendência em relação aos demais elementos simbólicos que norteiam o nosso processo decisório (Branco, 2021). No caso acima descrito em relação ao chatbot Joy, um ser humano, diante de interações preconceituosas, teria uma série de soluções para a interação. Vejamos algumas opções:

(1) parar a interação e abandonar o chat, por não conseguir interagir em um ambiente preconceituoso; (2) interagir verbalmente, o que inclui as opções de reforçar ou se contrapor ao discurso preconceituoso; (3) denunciar o conteúdo preconceituoso.

Essas são algumas opções para o comportamento humano no contexto de um ambiente hostil. A maior parte das opções elencadas envolve a orientação por meio de valores como o respeito, a justiça e a verdade, que são regulados por emoções complexas como a vergonha, a culpa, a resignação, a angústia, entre muitas outras. Então, ao não estar equipada com emoções, uma inteligência artificial não consegue realizar escolhas morais semelhantes àquelas realizadas por um ser humano, o que a impede de discernir entre o certo e o errado, ainda que culturalmente referenciado, e para além de um código fixo e pré-programado (utilitarista) ou pela inferência a partir desse limitado conjunto de dados. Errar, nesse contexto, é uma questão eminentemente de falha cognitiva na comparação entre os padrões pré-existentes e as situações a decidir. Não obstante, essas falhas cognitivas, em um contexto de simulação incompleta do processo decisório humano, podem acarretar em processos violentos por parte dos sistemas cibernéticos. Então, sob esse ponto de vista a IA está prestes a simular o cérebro humano? Não mesmo!

Palavras finais

Já passou da hora de debatermos, com profundidade, sobre as possibilidades e limitações de decisões autônomas a serem tomadas por sistemas cibernéticos e sobre a responsabilidade acerca das consequências por eles criadas para os seres humanos. Não acredito que a IA está prestes a simular o cérebro humano. Boa leitura Sergio Senna Aproveite para cnhecer o Portal da Educação Emocional

Referências

Branco, A.U. & Valsiner, J. (Eds.). (2012). Cultural psychology of human values. Information Age Publishing.

Branco, A.U. (2018). Values, education and human development: the major role of social interactions’ quality within classroom cultural contexts. In: A.U. Branco, & M.C.S. Lopes-de-Oliveira  (Eds.). Alterity, Values, and Socialization. Springer, Cham, p. 31-50.

Dick, S. (2019). Artificial intelligence. Harvard Data Science Review, 1(1).

Tateo, L. (2018). Affective semiosis and affective logic. New Ideas in Psychology, v. 48, p. 1-11. Vale, S. (2016). Inteligência Artificial & Redes Sociais: notas sobre um bot que odiava humanos. Aquilla, n. 15, p. 36-48.

Valsiner, J. (2012). Fundamentos da psicologia cultural: Mundos da mente, mundos da vida. Porto Alegre: Artmed.

Valsiner, J. (2014). An invitation to cultural psychology. London: Sage. Valsiner, J. (2021). General human psychology. Cham: Springer.

Opine sobre isso!