dezembro 11, 2025
6601720.jpg

O pesquisador de inteligência artificial Roman Yampolskiy acredita que a civilização está em extinção devido ao desenvolvimento da IA.

O cientista da computação, que se concentra na segurança da IA ​​​​e na cibersegurança na Universidade de Louisville, prevê uma chance impressionante de 99,9% de que a inteligência artificial destrua a humanidade no próximo século, de acordo com sua aparição no programa do podcaster Lex Friedman, lançado no domingo.

Ao longo da extensa entrevista de duas horas, ele argumentou que nenhum sistema de IA lançado até o momento provou ser seguro e expressou pessimismo sobre futuras iterações evitando falhas críticas. Ele se junta a um seleto grupo de desenvolvedores pioneiros de IA que soam os alarmes durante a competição de inteligência artificial do presidente Donald Trump.

Yampolskiy publicou um volume no ano passado intitulado “IA: Inexplicável, Imprevisível, Incontrolável”, descrito como “uma ampla introdução aos problemas centrais, como a imprevisibilidade dos resultados da IA ​​ou a dificuldade em explicar as decisões da IA”.

“Este livro aborda questões mais complexas de propriedade e controle, conduzindo uma análise aprofundada dos perigos potenciais e das consequências não intencionais”, disse ele.

“O livro termina com considerações filosóficas e existenciais, investigando questões sobre a personalidade da IA, a consciência e a distinção entre inteligência humana e inteligência artificial geral (AGI).”

Os especialistas em tecnologia observam que os pioneiros originais da IA, incluindo Yampolskiy, estão entre aqueles que emitem os avisos mais severos sobre a potencial devastação e as consequências apocalípticas que este progresso tecnológico pode trazer.

No entanto, algumas pesquisas questionam a previsão de extinção de Yampolskiy, indicando uma ameaça significativamente menor do que os seus cálculos sugerem.

Uma investigação realizada pela Universidade de Oxford, em Inglaterra, e por Bona, na Alemanha, descobriu que há apenas 5% de probabilidade de a IA exterminar a humanidade, com base em avaliações de mais de 2.700 investigadores de IA.

“As pessoas tentam falar como se esperar o risco de extinção fosse uma opinião minoritária, mas entre os especialistas em IA é a opinião dominante”, alerta Katja Grace, uma das autoras do artigo. “A divergência parece ser se o risco é de 1% ou 20%.”

Vários especialistas proeminentes em IA rejeitaram completamente as alegações de que a IA causa uma situação apocalíptica, incluindo o cofundador do Google Brain, Andrew Ng, e o pioneiro da IA, Yann Lecun, este último acusando líderes tecnológicos como Sam Altman, da OpenAI, de abrigar agendas ocultas por trás de sua retórica alarmista sobre resultados catastróficos da IA.

Altman da OpenAI fez inúmeras declarações preocupantes sobre sua indústria. Ele alertou que a IA provavelmente destruirá inúmeros empregos, que ele caracterizou como não sendo “trabalho real”, comentários que geraram críticas ferozes.

Espelhando as previsões de Altman, numerosos cépticos da IA ​​alertaram igualmente que a tecnologia poderia desencadear uma catástrofe económica, substituindo inúmeros trabalhadores em todos os sectores, sem excepção.

Há mais de dez anos, em 2015, Altman declarou ameaçadoramente: “A IA provavelmente levará ao fim do mundo, mas, entretanto, haverá grandes empresas”.

Ele também encontrou forte reação ao afirmar no início deste ano que a adoção generalizada da IA ​​exigiria “mudanças no contrato social”.