CIÊNCIA
Inteligência artificial pode levar à extinção humana

Inteligência artificial pode levar à extinção humana?

Filósofo acredita que este será o principal efeito colateral do uso em larga escala da tecnologia

Por: Mario Augusto
Da redação | 1 de setembro de 2022 - 11:20
Inteligência artificial pode levar à extinção humana

Não é de hoje que a inteligência artificial suscita dúvidas sobre o destino da humanidade. Há décadas, o cinema faz previsões futuristas sobre as consequências do uso massivo da tecnologia em que as máquinas se insurgem em um levante distópico contra os humanos.

Mas será que a humanidade realmente corre esse risco?

Os multimilionários da tecnologia, Bill Gates, fundador da Microsoft, e Elon Musk, da Space X e Tesla, já fizeram declarações de que a inteligência artificial pode ser uma ameaça para os seres humanos. Musk foi além. Assinou um termo de compromisso de que não fabricará armas letais com inteligência artificial embarcada.

Para o filósofo e neurocientista Émile P. Torres, que estuda as ameaças existenciais à civilização e à humanidade, essas previsões não podem ser desconsideradas. Em artigo publicado no The Washington Post, o historiador do risco catastrófico global afirma que a humanidade erra ao acreditar que certas previsões serão impossíveis de se confirmar no futuro.

Leia também:
Inteligência artificial pode levar à extinção da humanidade, alertam especialistas
Baleia Beluga suspeita de espionar para a Rússia
Superinteligência artificial pode levar à extinção da humanidade

A relação entre máquinas e humanos é objeto de várias previsões futuristas. Foto: Pexels.

Ele considera que os avanços exponenciais na computação, particularmente o desenvolvimento da Superinteligência Artificial (ASI) pode nos causar grandes danos, chegando ao extremo da extinção da própria humanidade.

“Parece apenas uma questão de tempo até que os computadores se tornem mais inteligentes que as pessoas. Esta é uma previsão sobre a qual podemos confiar – porque já a estamos vendo. Muitos sistemas alcançaram habilidades sobre-humanas em tarefas específicas, como jogar scrabble, xadrez e pôquer, mas as pessoas agora perdem rotineiramente para o robô em quase tudo”, afirma o filósofo.

Torres entende que os avanços na ciência da computação levarão a sistemas com níveis cada vez mais aprimorados de inteligência, inclusive a capacidade de as máquinas aprenderem sozinhas. As máquinas não apenas funcionariam tão bem quanto os humanos em todos os domínios de interesse, mas poderiam exceder em muito nossas melhores habilidades. Dessa forma, algoritmos poderiam resolver problemas complexos, como vencer um grande mestre de xadrez, escrever um romance, compor uma música contagiante ou até mesmo dirigir um carro no trânsito.

Inteligência artificial pode levar à extinção humana

A capacidade de aprender das máquinas é o calcanhar de Aquiles da humanidade. Foto: Pexels.

Émile P. Torres apresenta números para embasar essa previsão futurista. Especialistas acreditam que há 50% de chance de que essa “inteligência de máquina em nível humano” seja alcançada até 2050 e 90% de chance até 2075.

De acordo com o autor, atualmente existem pelo menos 72 projetos em todo o mundo nos quais o objeto de pesquisa é o desenvolvimento de uma inteligência geral artificial, que seria o trampolim para a superinteligência artificial.

Mas será que os cientistas em sã consciência projetariam uma superinteligência artificial maliciosa com a função de extermínio, capaz de destruir a humanidade? Ele afirma que não.

Mas como as arquiteturas cognitivas dos algoritmos de superinteligência artificial podem ser diferentes das nossas, também podem trazer resultados inesperados. No estágio atual, a inteligência artificial já consegue vencer os humanos em jogos, por exemplo, descobrindo brechas ou possibilidades nunca vistas por nenhum jogador humano.

“E se programarmos uma ASI para estabelecer a paz mundial e ela hackear os sistemas governamentais para lançar todas as armas nucleares do planeta – argumentando que, se não houver humanos, não haverá mais guerra? Sim, podemos programá-la explicitamente para não fazer isso. Mas, e se falhar. Qual seria o Plano B?”, argumenta.

O plano B seria prever o desligamento da superinteligência destrutiva em caso de mau funcionamento. Mas se o sistema for suficientemente inteligente ele pode tentar tudo para impedir que seja desconectado.

Émile acha que a humanidade não está preparada para lidar com a superinteligência artificial. Com tanta instabilidade global e a pouca compreensão sobre os limites da tecnologia, adicionar a superinteligência artificial seria como acender um fósforo ao lado de um rastilho de pólvora.

Por isso, o filósofo adota uma posição polêmica. Defende que todas as pesquisas sobre inteligência artificial sejam desaceleradas ou pausadas. Ou de forma espontânea por parte dos pesquisadores. Ou, de forma obrigatória, pelos próprios governos dos países.

Inteligência artificial pode levar à extinção humana

+ DESTAQUES