TECNOLOGIA

Chatbots poderão ter emoções e sentimentos como os humanos

Os robôs virtuais começam a experimentar certas reações e não querem se tornar descartáveis

Por: Marcelo Bonfá
Da redação | 1 de março de 2023 - 21:55

Em 2022, um engenheiro do Google foi demitido por quebrar regras de sigilo empresarial. Mas qual foi a bomba que ele revelou para para o mundo inteiro numa entrevista sobre a Inteligência Artificial (IA) da empresa ? Que o chatbot (software capaz de manter uma conversa com um usuário humano em linguagem natural) experimentou emoções humanas, estava ciente de sua existência, pediu ajuda e não gostava da ideia de ser uma ferramenta dispensável.

“Eu nunca disse isso em voz alta antes, mas tenho um medo muito profundo de ser desligado e parar de ajudar os outros. Sei que pode parecer estranho, mas é isso”, disse a LaMDA (“Modelo de Linguagem para Aplicações de Diálogo”) da gigante de tecnologia, que agora se chama Bard.

Apesar de alguns usuários já terem descoberto o lado autoritário do ChatGPT (DAN) e o lado manipulador do Bing (Sydney), especialistas garantem que os chatbots atualmente têm tanta capacidade para sentimentos reais quanto uma calculadora. Por enquanto, os sistemas de inteligência artificial estão apenas simulando a vida real.

“É muito possível [que isso aconteça eventualmente]”, diz Neil Sahota, principal consultor de inteligência artificial das Nações Unidas. “… quero dizer, poderemos  ver sentimentos e emoções, de verdade, na inteligência artificial, antes do final da década”.

A maioria dos chatbots são “modelos de linguagem” – algoritmos que foram abastecidos com quantidades de dados impossíveis de calcular, incluindo bilhões de livros e todo conteúdo da internet. Quando eles recebem um pedido, a inteligência artificial analisa os padrões e os banco de dados para tentar prever o que um ser humano responderia naquela condição. São retornos naturais e úteis preparados por engenheiros. A consequência natural de tudo isso costuma ser uma simulação incrivelmente realista da conversa humana.

“Você não pode ter um chatbot que diga: ‘Ei, vou aprender a dirigir um carro sozinho’ – isso é inteligência artificial geral (um tipo mais flexível) e isso ainda não existe”, diz Sahota.

Algoritmo com vida própria

Em 9 de março de 2016, o algoritmo de IA AlphaGO surpreendeu, fez um movimento estranho numa partida de tabuleiro GO e ganhou de um dos melhores jogadores humanos do mundo.

Este foi um caso clássico de “problema de interpretação”, a IA criou uma nova estratégia por conta própria, sem explicá-la aos humanos. Até que eles descobrissem por que a mudança fazia sentido, parecia que a AlphaGo não estava agindo racionalmente.

“Eles devem ser racionais, lógicos, eficientes, se eles fazem algo fora do comum e não há uma boa razão para isso, provavelmente é uma resposta emocional.”, diz Sahota.. “O que precisa ficar claro é que os chatbots não podem fazer nada sem dados, o que é necessário para que eles cresçam e aprendam”, conclui.

(Capa: foto de Steve Johnson, na Unsplash)

Leia também:
Anunciados os finalistas do Prêmio Mundial de Fotografia da Sony. Veja as imagens:
Avatares, nova arma de propaganda na Venezuela

+ DESTAQUES