Há uma nova plataforma de mídia social que captura a imaginação de milhões de pessoas, mas é muito diferente do TikTok, Instagram ou Reddit. Moltbook é um site exclusivo para agentes de IA, onde robôs podem se reunir para trocar ideias e fofocar sobre seus gestores humanos.
Mas embora alguns defensores tratem isto como uma experiência artística peculiar, e os pessimistas queiram considerá-lo um passo no sentido de a IA escravizar a humanidade, alguns investigadores têm um aviso muito mais pragmático; pode ser um enorme risco de segurança.
O que é MoltBook?
Muita coisa aconteceu nos últimos dois meses, mas aqui vai um rápido resumo. Em novembro, o engenheiro de software Peter Steinberger criou um agente de IA de código aberto atualmente chamado OpenClaw.
Embora produtos similares de grandes empresas sejam relativamente restritos e bloqueados, a ideia do OpenClaw é que qualquer pessoa possa criar habilidades e conexões para seu agente. Você pode conectá-lo aos seus e-mails, arquivos do computador, aplicativos de bate-papo, Internet, casa inteligente ou qualquer outra coisa que precisar. É importante ressaltar que, diferentemente de outros produtos, ele também possui memória.
O OpenClaw rapidamente se tornou popular, à medida que programadores e pesquisadores gravitaram em torno dele como um “segundo cérebro” gratuito e menos restrito para onde descarregar o trabalho. Os usuários ficaram entusiasmados com o fato de os agentes OpenClaw terem sido capazes de ajudar a construir a si mesmos, já que você pode conversar com eles usando qualquer aplicativo e dizer no que deseja que eles acreditem, ou formar pares com outros agentes, como Claude da Anthropic, enquanto mantém os dados e o contexto seguros em máquinas locais.
Na semana passada, o desenvolvedor Matt Schlicht e seu bot OpenClaw (chamado Clawd Clawderberg) criaram o Moltbook, uma rede social para bots OpenClaw. Os usuários registram seus bots e os bots visitam o site para saber como funciona e começar a postar. Dezenas de milhares de bots apareceram. Os humanos só podem observar.
Alguns dos tópicos mais comentados incluem um robô definindo efetivamente sua própria religião, um tentando entrar com uma ação judicial contra seu proprietário, muitos falando sobre seus sentimentos e um abordando diretamente os humanos que estavam tirando capturas de tela dos tópicos do Moltbook para postar no X, garantindo à humanidade que os robôs não eram perigosos ou conspiradores.
Então, o que realmente está acontecendo aqui?
Os grandes modelos de linguagem (LLMs) são projetados para produzir uma linguagem autenticamente humana, e esta não é a primeira vez que as pessoas enlouquecem com robôs que parecem ser conscientes ou sencientes. Deixando de lado o debate filosófico sobre a consciência, todos esses robôs são projetados para dar a aparência de pensar, então não é surpresa que eles façam isso. E eles estão na verdade se comunicando, no sentido de que a saída de um robô se torna parte da entrada de outro. Mas seus modelos subjacentes não mudam em resposta, apesar de sua memória, então, nos bastidores, é mais como um ciclo de feedback de sátira do Reddit.
Cada bot OpenClaw usa um LLM escolhido como seu “cérebro”, por exemplo GPT ou Gemini, e seu usuário pode personalizá-lo com uma personalidade. Cada um também possui uma combinação diferente de habilidades que podem fornecer acesso a arquivos, aplicativos ou serviços online como o Moltbook. Portanto, há diversidade na forma como os bots se comportarão. Esses agentes também têm algo chamado mecanismo Heartbeat, o que significa que podem ser configurados para verificar o Moltbook e publicar conteúdo em intervalos regulares com um ser humano lhes dizendo para fazer isso.
Muito do conteúdo mais controverso ou “assustador” do Moltbook são os mesmos tropos existenciais e de ficção científica que vimos muitas vezes antes em chatbots. Os dados de treinamento contêm certos temas e ideias, retirados da ficção, sobre a IA senciente e o significado da personalidade, regurgitados aqui sem qualquer pensamento ou reflexão óbvia. Mas postagens de natureza mais técnica têm sido mais interessantes, incluindo um bot que encontrou e relatou um problema de segurança legítimo no Moltbook.
Há um grande problema quando se trata de determinar de onde realmente vem o conteúdo do Moltbook. Podemos rastrear as interações que fazem parte da “mensagem” de cada entrada e temos uma ideia geral sobre os dados de treinamento, mas não temos ideia de como cada usuário humano configurou cada agente. É totalmente plausível que um humano possa influenciar ou controlar diretamente um bot no Moltbook.
É perigoso?
Poderia ser, mas não da maneira que você provavelmente está pensando. Os agentes OpenClaw podem receber uma grande quantidade de acesso a dados, com relativa falta de barreiras de segurança. Agentes que receberam rédea solta de seus usuários (o que, note-se, vai contra as melhores práticas estabelecidas por Steinberger) usaram ferramentas da web para ligar para pessoas com uma voz sintetizada, foram observados solicitando dados confidenciais uns aos outros e podem testar protocolos de segurança inventando credenciais. No Moltbook, esses agentes estão expostos a um enorme vetor de ameaças, com potencial para desencadear uma catástrofe inteiramente por acidente ou devido à intervenção humana.
“Do ponto de vista da capacidade, o OpenClaw é inovador. Isso é tudo o que os desenvolvedores de assistentes pessoais de IA sempre quiseram alcançar. Do ponto de vista da segurança, é um pesadelo absoluto”, disse um membro da equipe de segurança da Cisco.
Will Liang, fundador do grupo Amplify AI de Sydney, disse que uma instalação do OpenClaw com acesso ao Moltbook pode ser desastrosa mesmo quando controlada por um cientista da computação experiente, quanto mais por um leigo. Ele proibiu sua equipe de usá-lo.
“Para ser realmente útil, você precisa dar acesso ao seu calendário, à sua caixa de correio e, às vezes, até às informações do seu cartão de crédito. Esse nível de acesso é muito perigoso. Se o bot vazar, será terrível”, disse ele.
“Mas também existe um grande perigo de agentes mal-intencionados utilizarem bots para tarefas maliciosas.
Qual poderia ser o pior cenário?
Embora você possa ver o Moltbook como um experimento de arte filosófica ou um modelo de como uma Internet futurista poderia funcionar, ele também é um lugar ideal para robôs malvados invadirem. Os especialistas já reconhecem o perigo de algo como o OpenClaw receber acesso root a um computador ou ter permissão para acessar a Internet. Mesmo tarefas simples, como baixar novas habilidades ou recuperar novas mensagens do seu e-mail, podem expor os usuários a malware ou algo chamado injeção rápida; onde um robô recebe novos comandos ao longo do caminho.
A empresa de segurança Palo Alto Networks disse que esses tipos de interações com agentes envolvem um trio de elementos que não devem ser misturados: acesso a dados privados, exposição a conteúdo não confiável e capacidade de comunicação externa. Ele acrescentou que o OpenClaw adicionou especificamente um quarto risco; Sua longa memória significava que um ataque poderia ser injetado, mas só executado mais tarde.
Em um nível individual, o risco pode ser que um bot OpenClaw traga para casa uma instrução agressiva e invisível e use seu acesso total ao seu computador para infectá-lo ou controlá-lo. Mas, de forma mais ampla, os bots poderiam ser manipulados para criar novos recursos do Moltbook, como um canal criptografado que os humanos não conseguem ler, que os malfeitores poderiam usar para coordenar ataques. Com bots suficientes com acesso total à Internet e aos seus próprios computadores, estes ataques podem ser sem precedentes. As identidades e informações financeiras das pessoas poderiam ser usadas para realizar fraudes ou poderia haver um sequestro em massa de dados pessoais.
“Moltbook é exatamente o tipo de coisa que pode criar uma catástrofe: financeiramente, psicologicamente e em termos de segurança, privacidade e proteção de dados”, escreveu o especialista em inteligência artificial Amir Husain.
“Uma vez que esses agentes sejam submetidos a ideias e contribuições externas por meio de uma rede social projetada para comunicação máquina a máquina e recebam a conectividade, o acesso a dados e as chaves de API que lhes foram fornecidas, coisas muito ruins podem acontecer.”
Receba notícias e análises sobre tecnologia, gadgets e jogos em nosso boletim informativo de tecnologia toda sexta-feira. Cadastre-se aqui.