Filósofo acredita que este será o principal efeito colateral do uso em larga escala da tecnologia
Não é de hoje que a inteligência artificial suscita dúvidas sobre o destino da humanidade. Há décadas, o cinema faz previsões futuristas sobre as consequências do uso massivo da tecnologia em que as máquinas se insurgem em um levante distópico contra os humanos.
Mas será que a humanidade realmente corre esse risco?
Os multimilionários da tecnologia, Bill Gates, fundador da Microsoft, e Elon Musk, da Space X e Tesla, já fizeram declarações de que a inteligência artificial pode ser uma ameaça para os seres humanos. Musk foi além. Assinou um termo de compromisso de que não fabricará armas letais com inteligência artificial embarcada.
Para o filósofo e neurocientista Émile P. Torres, que estuda as ameaças existenciais à civilização e à humanidade, essas previsões não podem ser desconsideradas. Em artigo publicado no The Washington Post, o historiador do risco catastrófico global afirma que a humanidade erra ao acreditar que certas previsões serão impossíveis de se confirmar no futuro.
Ele considera que os avanços exponenciais na computação, particularmente o desenvolvimento da Superinteligência Artificial (ASI) pode nos causar grandes danos, chegando ao extremo da extinção da própria humanidade.
Torres entende que os avanços na ciência da computação levarão a sistemas com níveis cada vez mais aprimorados de inteligência, inclusive a capacidade de as máquinas aprenderem sozinhas. As máquinas não apenas funcionariam tão bem quanto os humanos em todos os domínios de interesse, mas poderiam exceder em muito nossas melhores habilidades. Dessa forma, algoritmos poderiam resolver problemas complexos, como vencer um grande mestre de xadrez, escrever um romance, compor uma música contagiante ou até mesmo dirigir um carro no trânsito.
Émile P. Torres apresenta números para embasar essa previsão futurista. Especialistas acreditam que há 50% de chance de que essa “inteligência de máquina em nível humano” seja alcançada até 2050 e 90% de chance até 2075.
De acordo com o autor, atualmente existem pelo menos 72 projetos em todo o mundo nos quais o objeto de pesquisa é o desenvolvimento de uma inteligência geral artificial, que seria o trampolim para a superinteligência artificial.
Mas será que os cientistas em sã consciência projetariam uma superinteligência artificial maliciosa com a função de extermínio, capaz de destruir a humanidade? Ele afirma que não.
Mas como as arquiteturas cognitivas dos algoritmos de superinteligência artificial podem ser diferentes das nossas, também podem trazer resultados inesperados. No estágio atual, a inteligência artificial já consegue vencer os humanos em jogos, por exemplo, descobrindo brechas ou possibilidades nunca vistas por nenhum jogador humano.
O plano B seria prever o desligamento da superinteligência destrutiva em caso de mau funcionamento. Mas se o sistema for suficientemente inteligente ele pode tentar tudo para impedir que seja desconectado.
Émile acha que a humanidade não está preparada para lidar com a superinteligência artificial. Com tanta instabilidade global e a pouca compreensão sobre os limites da tecnologia, adicionar a superinteligência artificial seria como acender um fósforo ao lado de um rastilho de pólvora.
Por isso, o filósofo adota uma posição polêmica. Defende que todas as pesquisas sobre inteligência artificial sejam desaceleradas ou pausadas. Ou de forma espontânea por parte dos pesquisadores. Ou, de forma obrigatória, pelos próprios governos dos países.