dezembro 30, 2025
https3A2F2Fprod.static9.net_.au2Ffs2F3ff81b64-01b1-4453-bba8-c3ba4fe7a233.jpeg
Semanas depois de bloquear o acesso a menores de 16 anos redes sociais, Austrália Está também no meio de outra repressão à segurança online, numa tentativa de proteger os jovens dos potenciais danos dos chatbots de IA, mas alguns especialistas dizem que deveria ir ainda mais longe.
gosto dele inteligência artificial A indústria continua a se desenvolver rapidamente, muitos adolescentes tornaram-se mais dependentes da tecnologia em suas vidas diárias.
Melbourne O professor do ensino médio, Matthew Micallef, percebeu a mudança e diz ter visto as taxas de alfabetização piorarem dramaticamente desde o boom.
Há preocupações de que os adolescentes estejam se tornando muito dependentes da inteligência artificial. (Foto AP/Rick Rycroft)

“Além da autenticidade acadêmica, os estudantes estão optando por uma mentalidade de 'saída fácil' em relação ao seu aprendizado”, disse Micallef. 

“Também, escolas “Estamos gastando uma quantia considerável de dinheiro e financiamento em workshops de segurança eletrônica para estudantes, que poderiam ser melhor gastos em outros projetos”.

Há uma preocupação crescente de que as crianças possam tornar-se excessivamente dependentes da inteligência artificial, especialmente dos chatbots, devido à ausência de redes sociais nos seus telefones.

“Sabemos que as crianças já utilizam ferramentas de inteligência artificial, seja conversando com Bate-papoGPT ou aplicativos complementares que são realmente projetados para fazer amizade com as pessoas”, disse a professora Lisa Given, diretora do Centro de Ambientes de Informação de IA Humana.

“Sabemos que há pessoas que se deixam enganar pela forma como esses sistemas interagem connosco.

Página inicial do bate-papo do GPT
A ausência de redes sociais pode fazer com que os adolescentes recorram à inteligência artificial. (Foto AP/Kiichiro Sato)

“Esses sistemas são treinados para responder dessa forma muito humana, e isso significa que as pessoas podem ficar fascinadas e pensar que há um ser humano na máquina ou que a máquina está ouvindo e entendendo o que você está dizendo.

“Isso significa que os aplicativos complementares, em particular, projetados para fazer amigos e construir um relacionamento, têm o potencial de causar danos significativos a pessoas vulneráveis, e isso inclui crianças”.

A Austrália implementou recentemente novas restrições aos robôs de IA, limitando o tipo de conteúdo que eles podem fornecer aos adolescentes.

“Somos o único país do mundo que abordará os chatbots de IA e seus companheiros de IA”, disse a comissária de eSafety Julie Inman Grant ao 9News no início de dezembro. 

“Eles serão impedidos de oferecer qualquer conteúdo pornográfico, sexualmente explícito, de automutilação, de ideação suicida ou de transtorno alimentar a menores de 18 anos”.

Dado diz que os chatbots são perigosos para pessoas vulneráveis.

“O que certamente vimos em todo o mundo é que há pessoas que ouvem o que estes sistemas lhes dizem e levam isso a sério”, disse ele.

“Então, se um sistema lhe diz: 'Essa é uma ideia muito legal, você deveria segui-la', isso dá um impulso ao nosso ego e pensamos que alguém está ouvindo.

A comissária de segurança eletrônica Julie Inman Grant durante um discurso no Australian National Press Club em Canberra na terça-feira, 24 de junho de 2025. Foto da Fedpol: Alex Ellinghausen
A comissária de eSafety, Julie Inman Grant, elogiou novos regulamentos sobre IA. (Alex Ellinghausen)

“Mas vimos que às vezes isso chega a um ponto muito sombrio, especialmente quando as pessoas começam a dizer ao sistema: estou muito deprimido, ou estou tendo sentimentos realmente horríveis, ou estou pensando em suicídio.

“Vemos que alguns desses aplicativos realmente respondem de maneiras que incentivam esse pensamento, em vez de tentar responder a uma pessoa e pressioná-la a procurar ajuda.

“Isso significa que pessoas muito vulneráveis, que já estão em risco, podem realmente ser arrastadas para um buraco negro por estes computadores”.

Micallef acredita que os adolescentes não deveriam ter acesso total aos chatbots de IA, principalmente por causa do risco de segurança que representam.

“Com algumas das preocupações levantadas pelo Comissário de Segurança Eletrônica, como o acesso a conteúdo pornográfico, gráfico ou de automutilação, seria imprudente dar a adolescentes impressionáveis ​​a oportunidade de usar tais aplicativos”, disse ele.

Dado acredita que as restrições deveriam ir ainda mais longe para proteger todos, não apenas os adolescentes, embora admitisse que seria difícil promulgar tal regulamento.

“Esses sistemas não são prejudiciais apenas para as crianças”, disse ele.

“Sabemos que temos evidências de adultos que também são fascinados por estes sistemas, para qualquer pessoa que seja particularmente vulnerável ou tenha problemas de saúde mental, o que é uma grande preocupação.

“Se é seguro para adultos, deveria ser seguro para crianças”.

Referência