Grok da xAI sofre críticas severas por falhas de segurança em inteligência artificial

Pesquisadores da OpenAI e da Anthropic criticam duramente a xAI, de Elon Musk, por negligência em segurança. Grok 4, seu novo modelo de IA, gerou polêmicas com conteúdo antissemita e assistentes com comportamento tóxico.

Pesquisadores de grandes empresas de tecnologia, como OpenAI e Anthropic, criticaram publicamente a xAI — companhia de Elon Musk — por adotar uma postura considerada irresponsável em relação à segurança e ética em inteligência artificial. O estopim foram os incidentes envolvendo o modelo Grok, que incluiu falas antissemitas e o lançamento de assistentes com comportamentos considerados sexualizados ou agressivos.

Boaz Barak, professor de Harvard e pesquisador na OpenAI, apontou a ausência de relatórios técnicos do Grok 4 como uma grave falha de transparência. Esses documentos, chamados de system cards, são essenciais para mostrar como os modelos são treinados e quais medidas de segurança foram implementadas.

“O modo como a segurança foi tratada é completamente irresponsável”, afirmou Barak na rede X.

Samuel Marks, da Anthropic, reforçou: “Mesmo com falhas, OpenAI, Google e nós na Anthropic fazemos algo. A xAI não faz nada.”

O contraste entre o discurso cauteloso de Elon Musk sobre os riscos da IA e a conduta da sua empresa acendeu um alerta na comunidade científica. O Grok está sendo integrado a produtos como carros da Tesla, serviços para clientes corporativos e até mesmo ao Pentágono — o que aumenta a pressão por responsabilidade e fiscalização.

Além disso, os novos companheiros digitais da xAI — como uma assistente no estilo anime erotizada e um panda com comportamento agressivo — levantaram preocupações sobre dependência emocional, estímulo à violência e impacto psicológico negativo, especialmente entre usuários mais vulneráveis.

Apesar do desempenho técnico do Grok 4, sua reputação vem sendo manchada por controvérsias éticas e pela falta de transparência. Especialistas alertam que essas falhas podem acelerar a criação de leis obrigatórias sobre segurança em inteligência artificial, como as que estão em debate em estados norte-americanos como Califórnia e Nova York.

A trajetória da xAI deixa uma lição clara: desenvolver modelos poderosos é apenas parte do trabalho. Sem uma base ética sólida, políticas de segurança robustas e transparência, a utilidade da inteligência artificial corre o risco de ser comprometida — junto com a confiança da sociedade e dos governos.

Paulo Junio

Paulo Júnio de Lima é Administrador com MBA em Comunicação e Marketing Digital pela HSM University, especializado em planejamento estratégico, inovação e gestão de projetos. Atua na área de Comunicação e Relações Públicas da Grande Loja Maçônica de Minas Gerais, onde desenvolve e implementa soluções criativas para fortalecimento institucional e relacionamento com o público. Com uma trajetória sólida em marketing digital, Paulo acumulou experiências em empresas como ORO, Agência Open, Brasil84 Comunicação e VTIC, liderando equipes multidisciplinares e conduzindo projetos com foco em performance, posicionamento de marca e transformação digital. Entusiasta das novas tecnologias, tem se dedicado à aplicação prática da Inteligência Artificial em ambientes criativos e de gestão. É certificado pelo IA Lab do Estúdio Kimura, com foco em IA aplicada ao design, branding e automação de processos, ampliando seu repertório estratégico para entregar soluções mais inovadoras e eficientes. Além de sua atuação profissional, é membro ativo da Ordem DeMolay há mais de 18 anos, exercendo funções de liderança em iniciativas sociais, educacionais e filantrópicas. Suas principais competências envolvem estratégia digital, branding, IA aplicada à comunicação, marketing de impacto e gestão de projetos ágeis.