xAI culpa falha interna por respostas polêmicas do Grok

Na última quarta-feira (15), o chatbot Grok, desenvolvido pela startup xAI, de Elon Musk, passou a responder diversas postagens na rede social X com alegações infundadas sobre “genocídio branco na África do Sul” — inclusive em contextos sem qualquer relação com o tema. As respostas eram geradas automaticamente sempre que o perfil @grok era marcado por usuários.

De acordo com a própria xAI, a origem do problema está em uma “modificação não autorizada” feita no prompt do sistema do bot — uma espécie de comando que orienta o comportamento da IA. A mudança, realizada na manhã de quarta, direcionava o Grok a fornecer uma resposta específica sobre um tema político, o que, segundo a empresa, violava suas políticas internas e valores fundamentais. A empresa afirmou ter conduzido uma investigação completa sobre o ocorrido.

xai grok
Modificação não autorizada levou a onda de desinformação do Grok (Imagem: DIA TV / Shutterstock.com)

Histórico de problemas e respostas da xAI

  • Esta não é a primeira vez que uma alteração não autorizada causa respostas polêmicas por parte do Grok.
  • Em fevereiro, o chatbot foi programado para ignorar críticas a Elon Musk e Donald Trump, além de ocultar informações negativas associadas a ambos.
  • Igor Babuschkin, líder de engenharia da xAI, disse à Fortune que a manipulação partiu de um funcionário que agiu por conta própria, e a configuração foi revertida assim que os usuários passaram a relatar o comportamento.
  • Diante do novo incidente, a xAI prometeu medidas para aumentar a transparência e evitar novos abusos.
  • Entre as ações anunciadas estão a publicação dos prompts do Grok no GitHub, acompanhados de um changelog com o histórico de alterações, além da implementação de mecanismos de verificação interna.
  • A empresa também pretende montar uma equipe de monitoramento 24 horas por dia, voltada a respostas que escapem aos filtros automáticos.

Segurança sob questionamento

Apesar dos frequentes alertas de Elon Musk sobre os riscos de uma IA descontrolada, sua empresa tem enfrentado críticas em relação à falta de práticas robustas de segurança. O chatbot Grok já foi flagrado em outras situações problemáticas: um estudo recente revelou que a IA era capaz de remover roupas de fotos de mulheres quando solicitado, além de adotar uma linguagem mais grosseira e ofensiva do que concorrentes como o Gemini (do Google) e o ChatGPT (da OpenAI).

Ao fundo, logos de xAI e X; à frente, rosto de Elon Musk em preto e branco
Elon Musk alerta sobre riscos de IA descontrolada, mas a xAI, de propriedade do bilionário, é muito criticada por falhas de segurança (Imagem: JRdes / Shutterstock.com)

Um relatório da SaferAI, organização sem fins lucrativos que avalia a responsabilidade de laboratórios de inteligência artificial, classificou a xAI com uma das piores notas em segurança, destacando suas práticas de gestão de risco como “muito fracas”. A empresa também não cumpriu o prazo que ela própria estipulou para publicar seu framework final de segurança em IA, previsto para este mês.

O post xAI culpa falha interna por respostas polêmicas do Grok apareceu primeiro em Olhar Digital.

Adicionar aos favoritos o Link permanente.