dezembro 20, 2025
Clipboard-0014-k1pC-U21048584664AEL-1024x512@diario_abc.png

Um dia a inteligência artificial se tornará autoconsciente? E se sim, estamos cientes disso? Segundo Tom McClelland, do Departamento de História e Filosofia da Ciência da Universidade de Cambridge, as respostas são retumbantes: “Não sei. sabemos” e “não sabemos”. A principal razão para isso é que sabemos quase tudo sobre a natureza da consciência humana. Compreendemos muito pouco para saber se e quando a IA deu o salto, e McClelland acredita que continuará a fazê-lo por muito tempo. Em sua pesquisa, que acaba de ser publicada na revista Mind & Language, o filósofo britânico acredita que qualquer evidência confiável está além do nosso alcance hoje. E isso continuará a ser o caso no futuro próximo.

O problema, claro, está no centro da encruzilhada: o desenvolvimento imparável da tecnologia e o medo de que em algum momento esta tecnologia possa escapar ao nosso controlo. Quando a Inteligência Artificial nos responde com uma frase inteligente, é apenas um eco dos nossos próprios dados ou é uma centelha de consciência, o “eu” que nos olha do outro lado da tela? A resposta curta é: não sabemos. E a longa resposta, que está enlouquecendo os especialistas, é que é muito provável que nunca saberemos.

Sejamos claros. Recentemente, a questão de saber se a “consciência artificial” pode existir deixou de ser um tema nos romances de Isaac Asimov e tornou-se um problema ético premente. E com o seu novo artigo, McClelland lança água fria sobre o entusiasmo de Silicon Valley: a única posição “cientificamente defensável” hoje, diz ele, é o agnosticismo. Em outras palavras, estamos voando às cegas.

Cálculo não é o mesmo que sentimento.

A primeira coisa que devemos fazer, segundo o filósofo britânico, é saber exatamente o que procuramos. E é aqui que a maioria de nós, incluindo os engenheiros, cai na armadilha. McClelland introduz uma distinção crucial que muitas vezes ignoramos: a diferença entre consciência (o conhecimento que uma pessoa tem de si mesma) e sensibilidade (a capacidade de um ser vivo de sentir e experimentar sensações subjetivas, tanto boas como más).

Veja um carro autônomo, por exemplo. Suas câmeras e sensores “vêem” a estrada, processam obstáculos e tomam decisões em milissegundos. Poderíamos dizer que o veículo está “consciente” do seu ambiente; ele tem uma percepção e, até certo ponto, autoconsciência de sua posição no espaço. “Mas”, alerta McClelland, “ainda poderia ser um estado neutro”. Só porque um carro “sabe” que há um muro à frente não significa que ele “se preocupa” em bater nele.

Quando a IA responde a nós, é apenas um eco dos nossos próprios dados ou sou “eu” olhando para nós do outro lado da tela? É muito provável que nunca saberemos

É aqui que entra em jogo a sensibilidade, a capacidade de ter experiências conscientes positivas ou negativas. Sofrimento ou prazer. “É aí que entra a ética”, diz o filósofo. Porque se esta máquina, além de detectar uma parede, pudesse sentir medo antes de um impacto ou dor após uma colisão, então estaríamos diante de um problema moral de enormes proporções.

“Mesmo que criemos acidentalmente uma IA consciente”, diz McClelland, “é improvável que devamos nos preocupar com tal consciência.

“Crentes” versus “céticos”

Simplificando, o actual debate científico é um campo de batalha entre duas posições inconciliáveis, e McClelland destrói ambas com igual precisão.

Por um lado, temos aqueles que podemos considerar “crentes”. Para eles, a consciência não é mágica, é arquitetura. Eles argumentam que se um sistema de IA puder replicar o “software” da mente (comunicações, processamento, memória), então será consciente, independentemente de funcionar em neurônios ou chips de silício. Se anda como um pato e grasna como um pato, então é um pato.

Do lado oposto estão os “céticos”. Argumentam que a consciência vai além do mero processamento de dados; é o resultado de processos biológicos específicos num “sujeito orgânico” de carne e osso. Para eles, tentar criar consciência num computador é como tentar simular a chuva num programa meteorológico: por mais perfeita que seja a simulação, ninguém se molhará. A estrutura pode ser idêntica, mas a “luz” interna nunca acenderá.

Quem está certo? Segundo McClelland, nenhum deles, já que ambos estão dando, cada um à sua maneira, um “salto de fé”. “Não temos uma explicação profunda da consciência. “Não há provas de que a consciência possa emergir com a estrutura computacional apropriada”, explica ele, “mas também de que a consciência seja inerentemente biológica.”

Miragem de evidências

E não existe algum tipo de teste como o teste de Turing para verificar se as máquinas têm “alma” ou não? Isso foi tentado. Estudos recentes, como o conduzido por Patrick Butlin e publicado em 2023 sob o título “Consciência na Inteligência Artificial”, tentaram criar uma “lista de verificação” baseada em teorias neurocientíficas modernas. O objetivo era encontrar “indicadores” de consciência, mas não os encontraram. Apesar disso, os autores do estudo concluíram que, embora nenhuma IA atual seja consciente, “não há barreiras técnicas para conseguir isso no futuro”.

Nosso bom senso evoluiu para lidar com seres vivos, e não com algoritmos que consomem bibliotecas inteiras em segundos.

No novo estudo, McClelland é muito mais direto. E ele argumenta que estamos “a uma revolução intelectual de distância” de criar qualquer teste viável. “Acho que meu gato está consciente”, diz o filósofo. Isto não se baseia na ciência ou na filosofia, mas no bom senso: é óbvio. Mas nosso bom senso evoluiu para lidar com seres vivos, e não com algoritmos que consomem bibliotecas inteiras em segundos. Aplicar a nossa intuição à IA é, para McClelland, uma garantia quase certa de erro.

Portanto, “se nem o bom senso nem a investigação rigorosa nos podem dar uma resposta, a posição lógica é o agnosticismo. Não podemos e talvez nunca seremos capazes de saber.”

Esta incerteza não é inofensiva e pode ter consequências reais. Consideremos, por exemplo, o caso de Blake Lemoine, um engenheiro do Google que foi demitido em 2022 depois de alegar que o chatbot LaMDA “ganhou vida” e que tinha sentimentos. Lemoine caiu exatamente naquilo que McClelland condena: a armadilha da projeção emocional.

O filósofo de Cambridge explica que o público muitas vezes o aborda com histórias semelhantes: “As pessoas”, diz ele, “fazem com que os seus chatbots me escrevam cartas privadas, implorando-me para acreditar que estão conscientes. O problema torna-se mais específico quando as pessoas estão convencidas de que têm máquinas conscientes que merecem os direitos que todos nós ignoramos.

Um risco muito real

Uma situação que McClelland chama de risco “existencialmente tóxico”. Porque se estabelecermos uma conexão emocional profunda com algo com base na premissa de como é a sensação, e isso não passar de uma planilha hipervitaminizada, os danos psicológicos e sociais podem ser enormes. E o que é pior: a indústria tecnológica, ansiosa por vender o próximo grande sucesso, usa esta linguagem de forma irresponsável. “Existe o risco”, adverte McClelland, “de que a incapacidade de provar a consciência seja usada pela indústria da inteligência artificial para fazer afirmações extravagantes sobre a sua tecnologia”.

Teste de camarão

Contudo, talvez o ponto mais provocativo do artigo de McClelland seja a questão da alocação de recursos. E enquanto gastamos milhões e rios de tinta no debate sobre se deveríamos conceder direitos a um servidor na Califórnia, ignoramos o sofrimento real das criaturas debaixo dos nossos narizes.

“Um conjunto crescente de evidências”, escreve o filósofo, “sugere que os camarões podem ser capazes de sofrer, mas matamos cerca de 500 milhões de camarões por ano”. McClelland admite que testar a consciência em camarões é difícil, mas “não é nada comparado à dificuldade de testar a consciência na IA”.

Este é, sem dúvida, um paradoxo muito típico da nossa época: preocupamo-nos mais com “fantasmas digitais” que provavelmente não existem do que com os seres inteligentes que fervemos vivos aos milhões.

Concluindo, McClelland encoraja-nos, num mundo obcecado por respostas rápidas, a abraçar a ignorância e a aprender a conviver com ela. A consciência pode ser um problema intransponível. Ou, sendo agnóstico, talvez não. O que o autor do artigo tem certeza é que hoje esse é um horizonte inatingível. Até resolvermos o mistério das nossas próprias mentes, olhar para a IA será como olhar para um espelho partido: nunca saberemos se o que vemos é um reflexo preciso da vida ou apenas uma ilusão de ótica muito bem programada.

Referência