Blaise Aguera y Arcas (50, Providence, Rhode Island, EUA) publicou um artigo em junho de 2022 na revista Economista no qual ele alertou que o chatbot LaMDA no qual o Google está trabalhando pela primeira vez o fez sentir como se “o chão estivesse mudando sob seus pés”. Seu colega Blake Lemoine chegou a afirmar ter falado com uma máquina que tinha alma. Aguera, então chefe do Google Research, o demitiu por divulgar documentos confidenciais, mas admitiu ao EL PAÍS que o LaMDA o fez repensar muitas coisas.
Cinco meses depois, o resto do mundo ficou igualmente entusiasmado quando a OpenAI lançou publicamente o ChatGPT. O Google vem trabalhando nisso há anos, mas, como dizem, acreditava que o produto ainda não estava pronto para lançamento generalizado. Os concorrentes não pensavam da mesma maneira.
Desde então, o físico e engenheiro informático, cujo pai é catalão e mãe americana, pensa na ideia de inteligência. O que isso define? Uma máquina pode ser inteligente? Ele acredita que sim e desenvolve isso ao longo das 600 páginas de seu livro. O que é inteligência? (O que é inteligência?sem uma tradução planejada para o espanhol).
Aguera é um exemplo que confirma que as grandes empresas tecnológicas empregam os melhores cientistas do mundo na área da inteligência artificial (IA). Ele é vice-presidente do Google, onde lidera o grupo Paradigms of Intelligence (Pi), que conduz pesquisas fundamentais relacionadas à IA. Nesta disciplina, ele é mais conhecido por inventar o aprendizado federado, uma técnica de aprendizado de máquina que permite treinar IA usando dados de vários dispositivos conectados. Aguera visita o EL PAÍS por videoconferência de Chicago.
Perguntar. No livro, ele diz que quando surgiram os grandes modelos de linguagem, ele pensou que isso iria desencadear um intenso debate em torno da nossa compreensão do que é inteligência. E apresentou dois tipos principais de respostas: negação e aceitação. O que você está enfrentando?
Responder. Eu já vi os dois. Acredito que o maior campo seja o campo negacionista, aqueles que dizem que a IA não é realmente inteligente, mas apenas finge ser. Tenho problemas com esta afirmação. É como um estudante de matemática fazendo uma prova dizendo que está apenas fingindo: você não pode passar na prova se não souber matemática. Acho interessante que os especialistas neguem mais isso. Acredito que quando você realmente entender como esses modelos funcionam, terá dificuldade em ver a inteligência neles. É disso que trata meu livro. A inteligência não é determinada pela ação mais estúpida, mas pela mais inteligente. Se você conseguir resolver problemas bastante complexos pelo menos metade das vezes, então algo interessante está acontecendo. Só porque você faz algo estúpido às vezes não significa que você não tem habilidade.
PARA. O que é inteligência?
R. Não creio que exista uma definição geralmente aceita. Acredito que inteligência é a capacidade de compreender e agir em um mundo complexo. Isso significa que você deve ser capaz de simular a si mesmo e ao seu ambiente, incluindo outros objetos inteligentes. E esse modelo deve ser bom o suficiente para permitir que você influencie o futuro de uma forma que seja benéfica para você. Como existem muitos tipos de ambientes, muitas situações e muitos outros tipos de inteligência, isso também significa que não existe uma métrica única que determine o quão inteligente você é. É por isso que falamos de inteligência matemática, social, emocional ou musical.
PARA. A IA cabe aí?
R. Absolutamente. Cada vez que você interage com um modelo de IA, o ambiente dele é você. Sua utilidade depende de sua capacidade de moldar você e o mundo do qual fala. Normalmente a sua conversa não é sobre vocês dois, mas sobre outras coisas, então ele deve ser capaz de entender aspectos de tudo isso para ser útil.
PARA. Sua definição de inteligência concentra-se no resultado e não no processo. Há quem defenda que este processo é importante porque, caso contrário, estaríamos diante de papagaios estocásticos que repetem o que memorizaram.
R. Isso mesmo, sou funcionalista. Isso significa que me preocupo com o funcionamento de algo, não com seus detalhes internos. Na ciência da computação, a ideia de avaliar uma função é que você possa alterar a implementação e ainda assim obter resultados equivalentes. Isso não significa que seja impossível trapacear de alguma forma. Por exemplo, se você memorizar a tabuada de 1 a 100, será capaz de dar a resposta correta para problemas de multiplicação nesse intervalo. Mas você não pode resolver a multiplicação de quatro dígitos porque não entendeu o que é multiplicação. A generalização é importante porque permite considerar situações além do que você consegue lembrar. Se você pode fazer isso, então você é inteligente.
Sobre deixar escapar o que você lembra: se os modelos de linguagem apenas lembrassem, eles não poderiam fazer tudo o que fazem. Mesmo sem multiplicar números de três dígitos, porque se você olhar todas as combinações possíveis de multiplicação de números de três dígitos, então isso é demais para lembrar, não temos exemplos de tudo isso nos dados de treinamento. Isso significa que o modelo deve entender como fazer isso.
A inteligência não é determinada pela ação mais estúpida, mas pela mais inteligente.
PARA. Se as máquinas podem ser inteligentes, como podemos nos diferenciar delas?
R. Somos macios, suaves e cheios de água; As máquinas são robustas, feitas de silício e operam em sistema binário. É por isso que trabalhamos de forma diferente. No livro defendo que é possível ser menos diferente. O que nós fazemos Como nós fazemos isso. Ao construir os nossos cérebros, a natureza resolveu um problema muito semelhante ao que a IA está agora a tentar resolver. A humanidade conseguiu construir aviões que não batem as asas, mas podem voar porque usam a mesma física da equação de Bernoulli que os animais e resolvem o mesmo problema, embora de maneiras diferentes. Na verdade, as asas dos insetos são diferentes das asas dos pássaros, então a natureza também substitui materiais ou métodos. O que equivale a um voo de reconhecimento? E como isso é feito? Ainda não compreendemos totalmente como funciona o cérebro, mas o que sabemos sobre a IA ajudou-nos a avançar na neurociência.
PARA. Você argumenta que a vida é inerentemente computacional.
R. Sim, e não quero dizer isso metaforicamente. Não funciona como um computador, mas a computação pode ser definida como a ciência da causalidade. As equações fundamentais da física de Newton, Einstein, Planck ou Schrödinger não têm causalidade, são completamente reversíveis no tempo. Causalidade é algo que só acontece quando você diminui o zoom e observa a função do sistema. Quando você começa a aprender sobre causas, efeitos e condições, você precisa essencialmente da capacidade de influenciar seu ambiente e tomar decisões informadas. No momento em que você tem isso, é cálculo; e é assim que os seres vivos e o cérebro funcionam.
PARA. Ele também diz que a IA é uma consequência natural da evolução.
R. No livro desenvolvo uma teoria expandida da evolução que vai um pouco além da síntese darwiniana clássica. Não creio que Darwin estivesse errado. Acontece que, na minha opinião, a sua teoria era incompleta porque não leva em conta os efeitos da simbiogénese, a combinação de coisas em novas entidades. Sabemos que isso aconteceu diversas vezes na evolução. Por exemplo, quando as células se uniram para formar organismos multicelulares, não competiram entre si, mas cooperaram para criar algo novo. É este factor adicional que dá origem a todo o progresso, novidade e criatividade na evolução que vai além da mudança aleatória e da selecção natural.
PARA. Você acha que a IA acabará igualando ou superando a inteligência humana?
R. Pioneiros da disciplina como Geoffrey Hinton, Yoshua Bengio ou Yann LeCun dizem que isso já aconteceu, embora eu pessoalmente não saiba onde colocar o limiar do nível humano. Os grandes modelos de hoje já são mais inteligentes em muitos aspectos do que nós individualmente. A mente humana é coletiva. Individualmente podemos ter alguma especialização, mas não somos muito bons em muitas áreas. Mas ao colaborar fazemos coisas incríveis: viajamos à Lua, transplantamos órgãos, sabemos dividir um átomo. LaMDA foi uma mudança real: o advento da aprendizagem não supervisionada, modelando uma linguagem sem atribuir nenhuma tarefa específica a ela. Foi então que o verdadeiro salto foi dado.
PARA. Ele argumenta que a previsão, o que Gemini ou ChatGPT fazem, é inteligência.
R. Sim. No início de 2010, criamos preditores de palavras seguintes para o teclado do telefone Android. Eu, como a maioria, presumi que esses modelos não iriam além da correspondência de padrões. Se você desse a ele uma frase padrão, ele encontraria a palavra correta. Isso não diz nada sobre compreensão. Mas se você desse a ele um problema com palavras, a ideia de ele acertar a próxima palavra parecia uma loucura para mim. Acontece que quando tornamos os modelos bem grandes e começamos a treiná-los com muitos dados da Internet, eles começaram a resolver esses problemas corretamente. Tive de reconsiderar a minha ideia de que a inteligência requer algum tipo de “pó de fada”. Acontece que não, os modelos só precisavam ser ampliados.
Processadores para o espaço
Poucos dias antes da entrevista, o Google anunciou o Projeto Suncatcher, que apelidou de plano de enviar data centers ao espaço para processar IA. Aguera foi entrevistado pelo EL PAÍS para falar sobre seu livro, mas como o cientista compartilhou seu entusiasmo pelo projeto em X, tocamos no assunto na última pergunta.
PARA. Como foi seu envolvimento com o Suncatcher?
R. Eu pretendia isso. Inicialmente pensei em eficiência energética. O consumo de energia da IA está crescendo exponencialmente. É verdade que a IA ainda é muito ineficiente em comparação com o cérebro humano, que consome apenas 20 watts. Mas quanto mais eficientemente fizermos isto, mais a procura aumentará: isto é o que é conhecido como paradoxo de Jevons. Então comecei a pensar no lado da oferta. Embora espere vermos a fusão nuclear, penso que a energia solar é a solução. Não aquele que cai na Terra, mas aquele que vem do espaço, que é 10¹⁰ vezes mais poderoso. Queremos tirar as células solares da Terra e fazer os cálculos ali mesmo.
PARA. Você acha que esse salto para o espaço é possível?
R. Este é um projeto de muitas décadas. Agora estamos dando nossos primeiros passos. Acredito que sistemas altamente integrados produzidos em massa no espaço são a solução a longo prazo. Os projetos espaciais, e não apenas os do Google, em breve se tornarão comuns. Em breve, a ideia de computação no espaço não parecerá mais absurda.
PARA. O que acontece até então?
R. Felizmente, ainda temos muita influência na Terra. Uma delas é tornar a IA mais eficiente. Outra opção é reviver a energia nuclear, que é muito mais limpa, mais saudável e mais segura que o carvão. E, claro, estimular o reaproveitamento de diversos tipos de energia, principalmente a energia solar terrestre.