Os robôs humanóides prometem uma revolução silenciosa nas residências há muitos anos: máquinas com formato humano, capazes de realizar tarefas cotidianas, interagir com o meio ambiente e coexistir com as pessoas como se fossem um dispositivo avançado. A corrida pela criação de “assistentes universais” chegou até a Espanha e já oferece um leque interessante de possibilidades, mas uma das empresas que mais se destaca é a Fig AI.
Esta empresa californiana, fundada por Brett Adcock, tornou-se um dos rostos visíveis uma nova geração de assistentes mecânicos.
Sua proposta é formulada em torno três gerações de robôs: Figura 01, seu primeiro protótipo; Figura 02: Um modelo mais avançado focado na manipulação de precisão; e Figura 03, o empreendimento mais recente destinado à produção em larga escala e futuras residências.
O objetivo deles é que esses robôs se integrem perfeitamente à vida cotidiana. Seu risco, como acabamos de descobrir, o poder que eles escondem sob seu esqueleto de metal.
No auge do interesse pelos humanóides (também impulsionados pelos avanços na inteligência artificial generativa e pelas melhorias na mobilidade autónoma), um novo escândalo coloca mais uma vez a segurança destas máquinas no centro das atenções. E desta vez vem de dentro da própria empresa.
Ex-oficial de segurança afirma que a figura 02 pode quebrar um crânio humano
Em 21 de novembro de 2025, Robert Grundel, ex-chefe de segurança de produtos da empresa, entrou com uma ação federal na Califórnia acusando a Fig AI de ignorar avisos críticos sobre o poder real de seus robôs. Segundo ele, o modelo está no centro do problema Figura 02, um humanóide capaz de gerar força suficiente para fraturar o crânio de um humano adulto em caso de impacto direto.
Grundel diz que durante testes internos, um dos robôs bateu acidentalmente na geladeira com tanta força que formou um amassadoum incidente que, se ocorresse contra uma pessoa, teria consequências graves. Ele também afirma que tanto o CEO Brett Adcock quanto o engenheiro-chefe Kyle Edelberg minimizaram esses riscos mesmo após uma rodada de financiamento multimilionária e que o roteiro de segurança proposto foi abordado diretamente.
Pouco depois de os avisos serem emitidos, Grundel foi demitido. Ele afirma que se trata de medidas retaliatórias, enquanto a empresa afirma que a decisão se deve ao mau desempenho. Para além da disputa laboral, a queixa aponta para uma questão central: a possibilidade de um robô doméstico aparentemente inofensivo poder realizar movimentos com força letal.
O que diz a reclamação?
A denúncia afirma que, Desde o início não houve procedimentos formais de segurança., relatórios de incidentes ou avaliação de risco específica. A única equipe de segurança externa era um contratado sem experiência em robótica.
Segundo Grundel, os gestores falharam porque Eles eliminaram controles importantes, como o botão de parada de emergência, na etapa anterior. (Parada de emergência) porque “não lhes agradavam esteticamente” e alteraram o plano de segurança antes de o apresentarem aos investidores, o que interpreta como uma prática potencialmente fraudulenta.
O que diz o desenho da IA?
A empresa rejeita completamente a versão do ex-engenheiro. Na sua resposta oficial, o desenho da AI insiste que as acusações são “falsas” e que pretende defender-se “vigorosamente” em tribunal. Segundo a empresa, a demissão de Robert Grundel não esteve relacionada aos seus avisos de segurança, mas sim ao suposto mau desempenho em seu cargo.
Nas suas declarações, a empresa insiste que a sua equipa opera segundo padrões rigorosos e que a segurança faz parte do design de cada um dos seus modelos. Salienta também que o recorrente deturpa o processo interno ao afirmar que, na sua opinião, não refletem a realidade do desenvolvimento robô Figura 02, o humanoide questionado na denúncia.
A Figure AI se defende afirmando que está imersa em um processo acelerado de inovação, mas nega categoricamente reduzir controles essenciais ou ignorar deliberadamente riscos em seus robôs. Para a empresa, a ação é uma tentativa de desacreditar seu trabalho em um período de grande cobertura midiática.
A chegada de humanóides à sua terra natal abre um acalorado debate sobre questões de segurança
A Figure AI pretende implantar dezenas de milhares de seus modelos, incluindo o ainda mais avançado Figure 03, em ambientes do mundo real nos próximos anos. Mas este caso revela riscos de acelerar a adoção de humanóides sem um sistema claro de supervisão externa. Para mover peso, manipular objetos e operar com precisão, esses robôs precisam de motores potentes… e essa mesma potência pode representar um perigo se algo der errado ou se o projeto não incluir freios e controles de reserva.
O caso da Figura 02 ilustra esta tensão entre inovação e segurança. Se um robô capaz de se agrupar pode, sob certas circunstâncias, gerar força suficiente para causar ferimentos graves, uma conversa sobre regras, verificações e responsabilidades torna-se inevitável. A indústria está crescendo rapidamente, mas as regulamentações e protocolos de segurança ainda estão atrasados..