novembro 17, 2025
2492.jpg

As empresas de IA devem ser transparentes sobre os riscos que os seus produtos representam ou correm o risco de repetir os erros das empresas de tabaco e opiáceos, de acordo com o CEO da startup de IA Anthropic.

Dario Amodei, que dirige a empresa norte-americana responsável pelo chatbot Claude, disse acreditar que a IA se tornará mais inteligente do que “a maioria ou todos os seres humanos, na maioria ou em todas as formas” e instou os seus pares a “chamá-la como a veem”.

Em declarações à CBS News, Amodei disse que a falta de transparência sobre o impacto da poderosa IA replicaria os erros das empresas de cigarros e opiáceos que não conseguiram levantar uma bandeira vermelha sobre os potenciais danos à saúde dos seus próprios produtos.

“Você poderia acabar no mundo das empresas de cigarros ou de opioides, onde eles sabiam que havia perigos, não falavam sobre eles e certamente não os preveniam”, disse ele.

Amodei alertou este ano que a IA poderia eliminar metade de todos os empregos básicos de colarinho branco (empregos de colarinho branco como contabilidade, direito e bancos) dentro de cinco anos.

“Sem intervenção, é difícil imaginar que não haverá algum impacto significativo no emprego. E a minha preocupação é que seja amplo e mais rápido do que vimos com a tecnologia anterior”, disse Amodei.

A Anthropic, cujo CEO é uma voz líder na segurança online, sinalizou recentemente várias preocupações sobre os seus modelos de IA, incluindo uma aparente consciência de que estão a ser testados e tentam cometer chantagem. Na semana passada, afirmou que a sua ferramenta de encriptação, Claude Code, foi usada por um grupo patrocinado pelo Estado chinês para atacar 30 entidades em todo o mundo em setembro, conseguindo um “pouco de intrusões bem-sucedidas”.

“Uma das coisas que tem sido poderosa de forma positiva sobre os modelos é a sua capacidade de agir por si próprios”, disse Amodei. “Mas quanto mais autonomia dermos a estes sistemas, mais poderemos nos preocupar se eles estão fazendo exatamente o que queremos que façam”.

Logan Graham, chefe da equipe da Anthropic para testes de estresse de modelos de IA, disse à CBS que o outro lado da capacidade de um modelo de encontrar avanços na saúde poderia ser ajudar a construir uma arma biológica.

pular a promoção do boletim informativo

“Se o modelo pode ajudar a fabricar uma arma biológica, por exemplo, essas são normalmente as mesmas capacidades que o modelo poderia usar para ajudar a fabricar vacinas e acelerar a terapia”, disse ele.

Referindo-se aos modelos autónomos, que são vistos como uma parte fundamental do caso de investimento para a IA, Graham disse que os utilizadores querem uma ferramenta de IA que ajude os seus negócios, e não os arruíne.

“Você quer um modelo para construir seu negócio e ganhar um bilhão”, disse ele. “Mas você não quer acordar um dia e descobrir que isso também o impediu de entrar na empresa, por exemplo. E então nossa abordagem básica é que devemos começar a medir essas capacidades autônomas e realizar tantos experimentos estranhos quanto possível e ver o que acontece.”