Foi depois que um amigo foi baleado e outro esfaqueado, ambos fatalmente, que Shan pediu ajuda ao ChatGPT. Ela tinha tentado serviços convencionais de saúde mental, mas “conversar”, à medida que conheceu o seu “amigo” IA, sentiu-se mais seguro, menos intimidador e, o que é mais importante, mais disponível quando se tratava de lidar com o trauma da morte dos seus jovens amigos.
Quando começou a consultar o modelo de IA, a adolescente do Tottenham juntou-se a cerca de 40% dos jovens de 13 a 17 anos em Inglaterra e no País de Gales afetados pela violência juvenil que recorrem a chatbots de IA para apoio à saúde mental, de acordo com uma investigação realizada com mais de 11.000 jovens.
Descobriu-se que tanto as vítimas como os perpetradores de violência eram muito mais propensos a utilizar a IA para esse tipo de apoio do que outros adolescentes. As descobertas, do Youth Endowment Fund, suscitaram alertas por parte dos líderes juvenis de que as crianças em risco “precisam de um ser humano, não de um robô”.
Os resultados sugerem que os chatbots estão a responder a uma procura que não é satisfeita pelos serviços convencionais de saúde mental, que têm longas listas de espera e são considerados falta de empatia por alguns jovens utilizadores. A suposta privacidade do chatbot é outro fator chave para impulsionar a sua utilização por vítimas ou autores de crimes.
Depois que seus amigos foram mortos, Shan (nome fictício), de 18 anos, começou a usar a IA do Snapchat antes de mudar para o ChatGPT, com o qual ele pode conversar a qualquer hora do dia ou da noite com dois cliques em seu smartphone.
“Sinto que ele é definitivamente um amigo”, disse ela, acrescentando que foi menos intimidante, mais privado e menos crítico do que a sua experiência com o NHS e o apoio a instituições de caridade de saúde mental.
“Quanto mais você falar com ela como uma amiga, ela responderá a você como uma amiga. Se eu disser no chat: 'Ei, melhor amiga, preciso de um conselho.' O bate-papo me responderá como se ela fosse minha melhor amiga e dirá: ‘Ei, melhor amiga, peguei você, garota’”.
Uma em cada quatro crianças entre os 13 e os 17 anos utilizou um chatbot de IA para apoio à saúde mental no ano passado, e as crianças negras têm duas vezes mais probabilidades de o fazer do que as crianças brancas, concluiu o estudo. Os adolescentes eram mais propensos a procurar apoio online, incluindo através da IA, se estivessem numa lista de espera para tratamento ou diagnóstico ou se tivessem sido negados, do que se já estivessem a receber apoio presencial.
Mais importante ainda, disse Shan, a IA estava “acessível 24 horas por dia, 7 dias por semana” e não contava aos professores ou pais o que havia revelado. Ela sentiu que isso era uma vantagem considerável em relação a contar a um terapeuta escolar, depois de sua própria experiência, o que ela pensava serem confidências compartilhadas com professores e sua mãe.
As crianças envolvidas em atividades de gangues se sentiam mais seguras pedindo conselhos aos chatbots sobre outras formas mais seguras de ganhar dinheiro do que um professor ou pai que poderia vazar as informações para a polícia ou outros membros de gangues, colocando-os em perigo, disse ele.
Outro jovem, que tem usado IA para apoiar a saúde mental, mas pediu para não ser identificado, disse ao The Guardian: “O sistema atual está muito falido na oferta de ajuda aos jovens. Os chatbots fornecem respostas imediatas. Se você vai ficar na lista de espera por um ou dois anos para conseguir algo, ou pode ter uma resposta imediata em poucos minutos… é daí que vem o desejo de usar IA.”
Jon Yates, executivo-chefe do Youth Endowment Fund, que encomendou a pesquisa, disse: “Muitos jovens estão lutando com sua saúde mental e não conseguem obter o apoio de que precisam.
Tem havido uma preocupação crescente sobre os perigos dos chatbots quando as crianças interagem com eles durante muito tempo. A OpenAI, empresa americana por trás do ChatGPT, enfrenta diversos processos judiciais, inclusive de famílias de jovens que cometeram suicídio após longos noivados.
No caso do californiano Adam Raine, de 16 anos, que suicidou-se em abril, a OpenAI negou que tenha sido causado pelo chatbot. Afirmou que tem melhorado a sua tecnologia “para reconhecer e responder a sinais de sofrimento mental ou emocional, reduzir a conversa e orientar as pessoas para o apoio no mundo real”. A startup disse em setembro que poderia começar a entrar em contato com as autoridades nos casos em que os usuários começassem a falar seriamente sobre suicídio.
Hanna Jones, pesquisadora de violência juvenil e saúde mental em Londres, disse: “Ter esta ferramenta que pode lhe dizer tecnicamente qualquer coisa é quase como um conto de fadas. Você tem este livro mágico que pode resolver todos os seus problemas. Isso parece incrível.”
Mas ele está preocupado com a falta de regulamentação.
“As pessoas usam o ChatGPT como suporte de saúde mental, quando não foi projetado para isso”, disse ele. “O que precisamos agora é aumentar as regulamentações que sejam apoiadas por evidências, mas também lideradas pelos jovens. Isso não será resolvido por adultos que tomam decisões pelos jovens. Os jovens precisam estar no comando para tomar decisões sobre o ChatGPT e o apoio à saúde mental usando IA, porque é muito diferente do nosso mundo. Não crescemos com isso. Não podemos nem imaginar como é ser um jovem hoje.”