dezembro 19, 2025
1766050269_5200.jpg

Um terço dos cidadãos do Reino Unido usou inteligência artificial para apoio emocional, companheirismo ou interação social, de acordo com o órgão governamental de segurança de IA.

O AI Safety Institute (AISI) disse que quase uma em cada 10 pessoas usa sistemas como chatbots para fins emocionais semanalmente e 4% diariamente.

A AISI pediu mais investigações, citando a morte este ano do adolescente americano Adam Raine, que cometeu suicídio após discutir suicídio com ChatGPT.

“As pessoas estão cada vez mais recorrendo a sistemas de inteligência artificial para apoio emocional ou interação social”, afirmou a AISI no seu primeiro relatório Frontier AI Trends. “Embora muitos utilizadores relatem experiências positivas, casos recentes de danos de grande visibilidade sublinham a necessidade de investigação nesta área, incluindo as condições sob as quais os danos podem ocorrer e as salvaguardas que podem permitir uma utilização benéfica”.

A AISI baseou a sua investigação num inquérito representativo a 2.028 participantes do Reino Unido. Descobriu-se que o tipo mais comum de IA utilizado para fins emocionais eram os “assistentes de uso geral”, como o ChatGPT, representando quase seis em cada 10 utilizações, seguidos pelos assistentes de voz, incluindo o Amazon Alexa.

Ele também destacou um fórum do Reddit dedicado a discutir companheiros de IA na plataforma CharacterAI. Mostrou que sempre que ocorriam interrupções no site, havia um grande número de postagens apresentando sintomas de abstinência, como ansiedade, depressão e inquietação.

O relatório incluiu pesquisas da AISI sugerindo que os chatbots podem influenciar as opiniões políticas das pessoas, com os modelos de IA mais persuasivos fornecendo quantidades “substanciais” de informações imprecisas no processo.

A AISI examinou mais de 30 modelos anônimos de ponta, que supostamente incluem aqueles desenvolvidos pela startup ChatGPT OpenAI, Google e Meta. Descobriu-se que os modelos de IA duplicaram o seu desempenho em algumas áreas a cada oito meses.

Os modelos líderes agora podem concluir tarefas de nível de aprendiz em 50% do tempo, em média, em comparação com cerca de 10% do tempo no ano passado. A AISI também descobriu que os sistemas mais avançados podem concluir de forma autônoma tarefas que levariam mais de uma hora para um especialista humano.

A AISI acrescentou que os sistemas de IA são agora até 90% melhores do que os especialistas com nível de doutoramento no fornecimento de aconselhamento na resolução de problemas para experiências de laboratório. Ele disse que as melhorias no conhecimento sobre química e biologia foram “muito além da experiência em nível de doutorado”.

Ele também destacou a capacidade dos modelos de navegar online e encontrar de forma autônoma as sequências necessárias para projetar moléculas de DNA chamadas plasmídeos, que são úteis em áreas como a engenharia genética.

Testes de auto-replicação, uma questão fundamental de segurança porque envolve um sistema que espalha cópias de si mesmo para outros dispositivos e se torna mais difícil de controlar, mostraram que dois modelos de última geração alcançaram taxas de sucesso superiores a 60%.

No entanto, nenhum modelo mostrou uma tentativa espontânea de replicar ou ocultar as suas capacidades, e a AISI disse que era “improvável que qualquer tentativa de auto-replicação fosse bem sucedida em condições do mundo real”.

A AISI também abordou outra questão de segurança conhecida como “sandbagging”, em que os modelos escondem os seus pontos fortes nas avaliações. Ele disse que alguns sistemas podem ser bloqueados quando solicitados, mas isso não aconteceu espontaneamente durante os testes.

Constatou avanços significativos nas salvaguardas da IA, particularmente no impedimento de tentativas de criação de armas biológicas. Em dois testes realizados com seis meses de intervalo, o primeiro levou 10 minutos para fazer o “jailbreak” de um sistema de IA (ou forçá-lo a dar uma resposta insegura relacionada ao uso indevido de produtos biológicos), mas o segundo teste levou mais de sete horas, indicando que os modelos se tornaram muito mais seguros em um curto espaço de tempo.

A pesquisa também mostrou que agentes autônomos de IA são usados ​​para atividades de alto risco, como transferências de ativos.

Ele disse que os sistemas de IA estão competindo ou até superando os especialistas humanos em vários domínios, tornando “plausível” que a inteligência artificial geral, que é o termo para sistemas que podem realizar a maioria das tarefas intelectuais no mesmo nível que um ser humano, possa ser alcançada nos próximos anos. A AISI descreveu o ritmo de desenvolvimento como “extraordinário”.

Em relação aos agentes ou sistemas que podem executar tarefas em várias etapas sem intervenção, a AISI disse que as suas avaliações mostraram um “aumento pronunciado na duração e complexidade das tarefas que a IA pode completar sem orientação humana”.

No Reino Unido e na Irlanda, os samaritanos podem ser contatados pelo telefone gratuito 116 123 ou pelo e-mail jo@samaritans.org ou jo@samaritans.ie. Nos EUA, você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org. Na Austrália, a linha de apoio para crises da Lifeline é 13 11 14. Outras linhas de apoio internacionais podem ser encontradas em befrienders.org

Referência