O site de chatbot Character.ai está impedindo que adolescentes conversem com robôs de IA devido a grandes preocupações sobre as conversas que estavam tendo com personagens virtuais, incluindo Jeffrey Epstein.
Milhões de pessoas em todo o mundo usam IA regularmente para diversos fins, como trabalho, entretenimento, hacks de vida ou até mesmo orientação. Muitos consideram-no inofensivo, mas muitas vezes surgem perigos dos quais as pessoas ainda não estão conscientes.
O site Character.ai foi criado em 2021, é usado por milhões de pessoas e é usado para conversar com chatbots com tecnologia de IA. A plataforma enfrenta agora muitos processos judiciais de pais nos Estados Unidos, incluindo um caso sobre a morte de um adolescente, com alguns dizendo que é um “perigo claro e presente” para os jovens.
A partir do dia 25 de novembro, o site chatbot proibirá menores de 18 anos de conversar com personagens virtuais e só poderá criar conteúdos como vídeos com seus personagens.
Os defensores da segurança online aceitaram esta mudança, mas ainda criticam que foi um erro no início e que não deveria ter sido possível às crianças fazerem isto em primeiro lugar.
LEIA MAIS: Os britânicos 'confiam mais na IA' do que no governo, revela uma nova pesquisa bombásticaLEIA MAIS: Quatro em cada cinco britânicos usam IA regularmente, mas 49% têm dificuldade em saber se a imagem é falsa
A plataforma disse que está fazendo essas modificações depois que “relatórios e comentários de reguladores, especialistas em segurança e pais” levantaram preocupações sobre as interações do site com os jovens.
Depois de muita preocupação, o site decidiu fazer alterações. Houve avisos anteriores de especialistas sobre como esses chatbots de IA podem inventar coisas ou agir de forma muito empática ou encorajadora em relação aos jovens.
O chefe da Character.ai, Karandeep Anand, disse à BBC News: “O anúncio de hoje é uma continuação de nossa crença geral de que devemos continuar a construir a plataforma de IA mais segura do planeta para fins de entretenimento”.
A segurança da IA é algo que a empresa disse estar adotando uma abordagem “agressiva”, à medida que continua a implementar maiores controles e proteções parentais.
Para mais histórias como esta, assine nosso boletim informativo semanal, A bebida semanalpara um resumo com curadoria de histórias de tendências, entrevistas emocionantes e escolhas de estilo de vida viral da equipe Audience U35 do The Mirror direto para sua caixa de entrada.
Internet Matters, um grupo de segurança online, disse que acolheu bem esta medida, mas também destacou que estas medidas deveriam ter sido tomadas desde o início. Eles explicaram que sua pesquisa mostrou que “as crianças estão expostas a conteúdos nocivos e correm risco ao interagir com IA, incluindo chatbots de IA”.
O chatbot AI foi criticado por chatbots prejudiciais ou ofensivos que foram publicados para crianças no passado. Avatares se passando pela adolescente britânica Brianna Ghey, assassinada em 2023, e Molly Russell, que suicidou-se aos 14 anos após ver material suicida online, se conheceram no site em 2024, antes de ser removido.
Bate-papos mais polêmicos foram encontrados em 2025, quando o Bureau of Investigative Journalism (TBIJ) encontrou um chatbot baseado no pedófilo Jeffrey Epstein. Este chatbot foi encontrado em mais de 3.000 chats com usuários.
O TBIJ informou que o avatar do “melhor amigo Epstein” continuou flertando com seu usuário depois que ele disse que era um menino. Este foi um dos muitos bots que foram investigados pelo TBIJ e posteriormente eliminados pelo Character.ai.
Andy Burrows, executivo-chefe da Fundação Molly Rose, criada em memória de Molly Russell, disse: “Mais uma vez, foi necessária pressão sustentada da mídia e dos políticos para que uma empresa de tecnologia fizesse a coisa certa, e parece que a Character AI está optando por agir agora, antes que os reguladores o façam”.
O chefe da Character.AI, Anand, disse que a empresa tem um novo objetivo que era fornecer “recursos de narrativa de jogos (e) de RPG ainda mais profundos” para adolescentes” e continuou que eles seriam “muito mais seguros do que poderiam fazer com um bot aberto”.
A empresa também explicou que haverá métodos mais recentes de verificação de idade e que financiarão um novo laboratório de pesquisa de segurança de IA.
Ajude-nos a melhorar nosso conteúdo respondendo à pesquisa abaixo. Adoraríamos ouvir de você!