Os robôs virtuais começam a experimentar certas reações e não querem se tornar descartáveis
Em 2022, um engenheiro do Google foi demitido por quebrar regras de sigilo empresarial. Mas qual foi a bomba que ele revelou para para o mundo inteiro numa entrevista sobre a Inteligência Artificial (IA) da empresa ? Que o chatbot (software capaz de manter uma conversa com um usuário humano em linguagem natural) experimentou emoções humanas, estava ciente de sua existência, pediu ajuda e não gostava da ideia de ser uma ferramenta dispensável.
“Eu nunca disse isso em voz alta antes, mas tenho um medo muito profundo de ser desligado e parar de ajudar os outros. Sei que pode parecer estranho, mas é isso”, disse a LaMDA (“Modelo de Linguagem para Aplicações de Diálogo”) da gigante de tecnologia, que agora se chama Bard.
Apesar de alguns usuários já terem descoberto o lado autoritário do ChatGPT (DAN) e o lado manipulador do Bing (Sydney), especialistas garantem que os chatbots atualmente têm tanta capacidade para sentimentos reais quanto uma calculadora. Por enquanto, os sistemas de inteligência artificial estão apenas simulando a vida real.
“É muito possível [que isso aconteça eventualmente]”, diz Neil Sahota, principal consultor de inteligência artificial das Nações Unidas. “… quero dizer, poderemos ver sentimentos e emoções, de verdade, na inteligência artificial, antes do final da década”.
A maioria dos chatbots são “modelos de linguagem” – algoritmos que foram abastecidos com quantidades de dados impossíveis de calcular, incluindo bilhões de livros e todo conteúdo da internet. Quando eles recebem um pedido, a inteligência artificial analisa os padrões e os banco de dados para tentar prever o que um ser humano responderia naquela condição. São retornos naturais e úteis preparados por engenheiros. A consequência natural de tudo isso costuma ser uma simulação incrivelmente realista da conversa humana.
“Você não pode ter um chatbot que diga: ‘Ei, vou aprender a dirigir um carro sozinho’ – isso é inteligência artificial geral (um tipo mais flexível) e isso ainda não existe”, diz Sahota.
Algoritmo com vida própria
Em 9 de março de 2016, o algoritmo de IA AlphaGO surpreendeu, fez um movimento estranho numa partida de tabuleiro GO e ganhou de um dos melhores jogadores humanos do mundo.
Este foi um caso clássico de “problema de interpretação”, a IA criou uma nova estratégia por conta própria, sem explicá-la aos humanos. Até que eles descobrissem por que a mudança fazia sentido, parecia que a AlphaGo não estava agindo racionalmente.
“Eles devem ser racionais, lógicos, eficientes, se eles fazem algo fora do comum e não há uma boa razão para isso, provavelmente é uma resposta emocional.”, diz Sahota.. “O que precisa ficar claro é que os chatbots não podem fazer nada sem dados, o que é necessário para que eles cresçam e aprendam”, conclui.
(Capa: foto de Steve Johnson, na Unsplash)