Pesquisadores da OpenAI e da Anthropic criticam duramente a xAI, de Elon Musk, por negligência em segurança. Grok 4, seu novo modelo de IA, gerou polêmicas com conteúdo antissemita e assistentes com comportamento tóxico.
Pesquisadores de grandes empresas de tecnologia, como OpenAI e Anthropic, criticaram publicamente a xAI — companhia de Elon Musk — por adotar uma postura considerada irresponsável em relação à segurança e ética em inteligência artificial. O estopim foram os incidentes envolvendo o modelo Grok, que incluiu falas antissemitas e o lançamento de assistentes com comportamentos considerados sexualizados ou agressivos.
Boaz Barak, professor de Harvard e pesquisador na OpenAI, apontou a ausência de relatórios técnicos do Grok 4 como uma grave falha de transparência. Esses documentos, chamados de system cards, são essenciais para mostrar como os modelos são treinados e quais medidas de segurança foram implementadas.
“O modo como a segurança foi tratada é completamente irresponsável”, afirmou Barak na rede X.
Samuel Marks, da Anthropic, reforçou: “Mesmo com falhas, OpenAI, Google e nós na Anthropic fazemos algo. A xAI não faz nada.”
O contraste entre o discurso cauteloso de Elon Musk sobre os riscos da IA e a conduta da sua empresa acendeu um alerta na comunidade científica. O Grok está sendo integrado a produtos como carros da Tesla, serviços para clientes corporativos e até mesmo ao Pentágono — o que aumenta a pressão por responsabilidade e fiscalização.
Além disso, os novos companheiros digitais da xAI — como uma assistente no estilo anime erotizada e um panda com comportamento agressivo — levantaram preocupações sobre dependência emocional, estímulo à violência e impacto psicológico negativo, especialmente entre usuários mais vulneráveis.
Apesar do desempenho técnico do Grok 4, sua reputação vem sendo manchada por controvérsias éticas e pela falta de transparência. Especialistas alertam que essas falhas podem acelerar a criação de leis obrigatórias sobre segurança em inteligência artificial, como as que estão em debate em estados norte-americanos como Califórnia e Nova York.
A trajetória da xAI deixa uma lição clara: desenvolver modelos poderosos é apenas parte do trabalho. Sem uma base ética sólida, políticas de segurança robustas e transparência, a utilidade da inteligência artificial corre o risco de ser comprometida — junto com a confiança da sociedade e dos governos.