“Além da autenticidade acadêmica, os estudantes estão optando por uma mentalidade de 'saída fácil' em relação ao seu aprendizado”, disse Micallef.
Há uma preocupação crescente de que as crianças possam tornar-se excessivamente dependentes da inteligência artificial, especialmente dos chatbots, devido à ausência de redes sociais nos seus telefones.
“Sabemos que há pessoas que se deixam enganar pela forma como esses sistemas interagem connosco.
“Esses sistemas são treinados para responder dessa forma muito humana, e isso significa que as pessoas podem ficar fascinadas e pensar que há um ser humano na máquina ou que a máquina está ouvindo e entendendo o que você está dizendo.
“Isso significa que os aplicativos complementares, em particular, projetados para fazer amigos e construir um relacionamento, têm o potencial de causar danos significativos a pessoas vulneráveis, e isso inclui crianças”.
A Austrália implementou recentemente novas restrições aos robôs de IA, limitando o tipo de conteúdo que eles podem fornecer aos adolescentes.
“Somos o único país do mundo que abordará os chatbots de IA e seus companheiros de IA”, disse a comissária de eSafety Julie Inman Grant ao 9News no início de dezembro.
“Eles serão impedidos de oferecer qualquer conteúdo pornográfico, sexualmente explícito, de automutilação, de ideação suicida ou de transtorno alimentar a menores de 18 anos”.
Dado diz que os chatbots são perigosos para pessoas vulneráveis.
“O que certamente vimos em todo o mundo é que há pessoas que ouvem o que estes sistemas lhes dizem e levam isso a sério”, disse ele.
“Então, se um sistema lhe diz: 'Essa é uma ideia muito legal, você deveria segui-la', isso dá um impulso ao nosso ego e pensamos que alguém está ouvindo.
“Mas vimos que às vezes isso chega a um ponto muito sombrio, especialmente quando as pessoas começam a dizer ao sistema: estou muito deprimido, ou estou tendo sentimentos realmente horríveis, ou estou pensando em suicídio.
“Vemos que alguns desses aplicativos realmente respondem de maneiras que incentivam esse pensamento, em vez de tentar responder a uma pessoa e pressioná-la a procurar ajuda.
“Isso significa que pessoas muito vulneráveis, que já estão em risco, podem realmente ser arrastadas para um buraco negro por estes computadores”.
Micallef acredita que os adolescentes não deveriam ter acesso total aos chatbots de IA, principalmente por causa do risco de segurança que representam.
“Com algumas das preocupações levantadas pelo Comissário de Segurança Eletrônica, como o acesso a conteúdo pornográfico, gráfico ou de automutilação, seria imprudente dar a adolescentes impressionáveis a oportunidade de usar tais aplicativos”, disse ele.
Dado acredita que as restrições deveriam ir ainda mais longe para proteger todos, não apenas os adolescentes, embora admitisse que seria difícil promulgar tal regulamento.
“Esses sistemas não são prejudiciais apenas para as crianças”, disse ele.
“Sabemos que temos evidências de adultos que também são fascinados por estes sistemas, para qualquer pessoa que seja particularmente vulnerável ou tenha problemas de saúde mental, o que é uma grande preocupação.
“Se é seguro para adultos, deveria ser seguro para crianças”.