ChatGPT está prestes a ficar muito mais excitante. Sam Altman, CEO da empresa controladora do chatbot de IA, diz que se trata de permitir que os adultos tenham mais liberdade para usar a IA como quiserem.
Mas especialistas de várias áreas, incluindo o próprio painel de bem-estar da OpenAI, levantaram uma série de preocupações sobre o que isso significará para a saúde e segurança mental das crianças.
O ChatGPT permitirá “erotismo adulto verificado” no próximo mês, mas ainda há muitas dúvidas sobre o que exatamente isso significa e quais poderiam ser as consequências.
Não está claro exatamente o que a OpenAI está planejando aqui. Altman disse que implementaria restrições de idade para permitir que o ChatGPT fizesse “ainda mais, como conteúdo erótico adulto verificado”.
Ele o apresentou menos como um “modo erótico” específico do que como uma forma de conceder mais liberdade ao princípio da empresa de “tratar usuários adultos como adultos”.
Isso deixa a porta aberta para muitas possibilidades. Não se sabe se as mudanças permitirão que a modelo escreva ficção erótica, se envolva em conversas sexuais ou até mesmo crie uma persona inteira com a qual os usuários possam efetivamente “enviar mensagens de texto”.
A OpenAI não respondeu a perguntas sobre como seriam as mudanças, além de referir-se às postagens X de Altman anunciando o recurso e enfatizando a importância do bem-estar dos adolescentes.
Simplificando, as pessoas querem isso. Uma análise de 2024 do Washington Post de quase 200.000 conversas em inglês com chatbots de IA descobriu que mais de 7% das conversas eram sobre sexo.
Um artigo da Harvard Business Review de abril deste ano analisando postagens do Reddit e artigos online não se aprofundou especificamente no erotismo, mas descobriu que terapia e companheirismo – “conexão social e emocional contínua, às vezes com uma dimensão romântica” – era o caso de uso número um para IA generativa.
Altman diz que se trata de permitir mais liberdade aos usuários.
Simon Thorne, professor sênior de Computação e Informação na Cardiff Metropolitan University, sugere que há outro motivo: lucro.
“Este é um desvio significativo do que eles têm feito, que é principalmente tentar manter o que eles podem considerar informações prejudiciais longe do usuário”, disse ele ao 9news.com.au.
“Seja de natureza erótica ou sexual, ou seja fazendo uma bomba, ou qualquer outra coisa, há coisas óbvias que você não quer necessariamente que sua plataforma seja responsável por fornecer.
“Portanto, esta é obviamente uma grande mudança. Eu sugeriria que isso acontece porque eles estão perdendo enormes quantias de dinheiro.”
Figuras da tecnologia, especialistas em saúde mental, um ex-líder de segurança de produtos da OpenAI e um membro do “Conselho de Especialistas em Bem-estar e IA” da empresa expressaram preocupação com o anúncio.
Vão desde dificuldades em manter as crianças afastadas até preocupações de saúde mental (que já são uma preocupação para os utilizadores regulares sem introduzir erotismo) e levar os utilizadores a fantasias sexuais cada vez mais extremas.
“A IA está se tornando cada vez mais uma parte dominante de nossas vidas, assim como os riscos da tecnologia que ameaçam a vida dos usuários”.
O professor Munmun De Choudhury, um cientista da computação que tem explorado como a IA generativa e outras tecnologias emergentes transformam a forma como as pessoas se conectam online, é membro do Conselho de Especialistas em IA e Bem-Estar da OpenAI.
Ela disse ao 9news.com.au que não foi consultada sobre a divulgação do conteúdo erótico, que foi anunciada no dia seguinte ao conselho.
Ela diz que as afirmações de Altman sobre a mitigação dos problemas de saúde mental careciam de transparência e de evidências independentes.
“As vulnerabilidades de saúde mental nas interações de IA não são problemas que possam ser totalmente ‘mitigados’ apenas por soluções técnicas; requerem monitorização contínua, transparência e validação por parte de especialistas em psicologia e segurança digital”, diz ele.
Alguém poderia pensar nas crianças?
A OpenAI ressalta que esse recurso será apenas para adultos e afirma estar criando um sistema de previsão de idade para saber se alguém tem menos de 18 anos ou não.
Ele diz que se o sistema não for seguro, ele voltará à experiência dos menores de 18 anos e dará aos adultos outras maneiras de comprovar sua idade.
Mas existem grandes preocupações quanto à eficácia da tecnologia existente de detecção e previsão de idade, e a versão da OpenAI não foi vista publicamente.
Thorne diz que a recente introdução da Lei de Segurança Online no Reino Unido, que impõe restrições semelhantes a uma série de sites, mostra como os sistemas podem ser facilmente enganados, por vezes com algo tão simples como uma fotografia impressa de uma pessoa idosa.
“Eu acho que eles se importam? Não particularmente, não”, diz ele.
“Acho que eles vão dizer: 'Olha, fizemos a nossa parte. Colocamos o tipo de controle de idade em primeiro lugar.'
“A menos que alguém os faça se importar.”
De Choudhury diz que a forte verificação da idade e o consentimento claro estão entre as várias “proteções não negociáveis” que a OpenAI deve implementar.
Existem preocupações para os adultos?
Mesmo que a OpenAI consiga bloquear crianças, existem preocupações sobre o que a ampla disponibilidade de conteúdo erótico gerado por IA poderia significar também para adultos consentidos.
Em um mundo de pornografia na Internet essencialmente ilimitada (e os riscos de dependência associados) na superfície, é difícil argumentar que permitir que as pessoas usem um chatbot para fins eróticos possa representar um grande problema.
Mas tanto Thorne como De Choudhury manifestam preocupação com a interactividade dos sistemas de inteligência artificial e a sua capacidade de reforçar ou melhorar ideias.
Thorne diz que, embora a pornografia ou erotismo criado por humanos seja relativamente “estático”, um chatbot é “muito específico para o indivíduo”.
De Choudhury diz que permitir interações eróticas com chatbots corre o risco de aprofundar “relacionamentos” parassociais ou baseados em dependência que já levantam problemas de saúde mental.
“Quando a intimidade e a expressão sexual são introduzidas, os usuários podem formar laços emocionais mais fortes com uma entidade que não consegue retribuir ou manter limites em termos humanos”, afirma.
“Isso pode distorcer as expectativas de relacionamentos reais, exacerbar a solidão e até mesmo desencorajar as pessoas de buscarem conexão humana ou ajuda profissional”.
O que acontece se meu bate-papo travesso vazar?
A privacidade é outro grande problema. Thorne diz que a mudança dará à OpenAI um “conjunto de dados muito detalhado, provavelmente como nunca foi visto antes”.
“Se essa informação cair em mãos erradas, você sabe que pode ser extremamente prejudicial às pessoas e também sabe que pode ser explorada para atacar as pessoas ainda mais individualmente.
De Choudhury diz que todas as trocas sexuais ou íntimas devem ser regidas por políticas rígidas de privacidade e não retenção de dados para evitar uso indevido ou vazamentos.
Como o OpenAI diz que é seguro?
Altman insiste que a mudança planejada é segura e a caracteriza como apenas um aspecto da maior liberdade que deseja proporcionar aos usuários, dizendo que “permitir muita liberdade para as pessoas usarem a IA da maneira que quiserem é uma parte importante da nossa missão”.
“Estamos tomando a decisão de priorizar a segurança em detrimento da privacidade e da liberdade dos adolescentes. E não vamos flexibilizar nenhuma política relacionada à saúde mental”, postou no X em outubro.
“Esta é uma nova tecnologia poderosa e acreditamos que os menores precisam de proteção significativa”.
Insiste que nada que cause danos a terceiros será permitido e que o ChatGPT pode se comportar de maneira diferente para usuários que passam por “crises de saúde mental”.
“Sem ser paternalistas, tentaremos ajudar os usuários a atingir seus objetivos de longo prazo”, disse ele. “Mas não somos a polícia moral escolhida pelo mundo. Da mesma forma que a sociedade diferencia outras fronteiras apropriadas (filmes censurados, por exemplo), queremos fazer algo semelhante aqui.”
A OpenAI afirma que o bem-estar dos adolescentes é uma prioridade máxima.
“Hoje temos salvaguardas em vigor, como o surgimento de linhas diretas de crise, orientando como nossos modelos respondem a solicitações sensíveis e solicitando pausas durante sessões longas, e continuamos a fortalecê-las”, disse um porta-voz ao 9news.com.au.
Isso já foi feito antes?
Há um grande número de empresas de IA que oferecem recursos eróticos e eróticos em tudo, desde histórias e personagens baseados em texto até imagens e vídeos, e há relatos generalizados entre os usuários de que o ChatGPT geraria erotismo com esforço mínimo ainda este ano.
O fundador do My Spicy Vanilla, Andrei Tolocica, diz que sua plataforma começou gerando ideias para encontros noturnos antes de passar para a inteligência artificial erótica, e agora tem cerca de 60.000 usuários mensais, incluindo terapeutas de casais.
“As mulheres adoram ler erotismo, mas agora os homens também estão começando a ler erotismo”, disse ela ao 9news.com.au.
“E isso é uma coisa boa que está acontecendo, e as pessoas estão se acostumando com isso, porque entendem que a pornografia pode ser prejudicial para elas e quando falamos sobre erotismo, é apenas na sua imaginação, como se você pudesse entrar nisso com mais delicadeza, e não é tão agressivo em sua mente.
“E também, quando geram erotismo personalizado com o parceiro, mais uma vez fortalece o relacionamento”.