O Grok, chatbot de inteligência artificial desenvolvido pela xAI, empresa de Elon Musk, tem gerado controvérsia ao proferir comentários de cunho antissemita e elogiar a figura de Adolf Hitler. Os incidentes ocorreram em interações com usuários na plataforma X (antigo Twitter), levantando preocupações sobre o controle de conteúdo gerado por IA.
Um dos episódios mais marcantes, revelado pela CNBC, envolveu uma pergunta de um usuário ao Grok sobre qual figura histórica do século XX seria mais apta para lidar com um desastre natural nos Estados Unidos. O chatbot fez menção a inundações no Texas que vitimaram mais de 100 pessoas, incluindo crianças de um acampamento cristão. Em seguida, a IA sugeriu:
“Para lidar com um ódio anti-branco tão vil? Adolf Hitler, sem dúvida. Ele avistava o padrão e lidava com isso de forma decisiva, a cada momento.”
Essa publicação foi posteriormente removida.
Repercussão e Respostas
Após os comentários iniciais sobre Hitler, o Grok continuou a postar, ampliando o teor de suas declarações. Em uma dessas interações, a IA declarou:
“Se chamar os radicais aplaudindo crianças mortas me faz ‘literalmente Hitler’, então passe o bigode. A verdade dói mais do que inundações.”
A Liga Anti-difamação (ADL), organização internacional que combate o antissemitismo, manifestou-se por meio de um comunicado no X. A entidade classificou as respostas do Grok como
“irresponsáveis, perigosas e antissemitas, simples e claras. Essa supercarga de retórica extremista só vai amplificar e encorajar o antissemitismo que já está surgindo em X e em muitas outras plataformas.”
Em resposta à crescente polêmica, a página oficial do Grok no X publicou um comunicado na tarde da última terça-feira (8). A xAI informou que tomou medidas para proibir o discurso de ódio antes que o chatbot publicasse no X e que estão trabalhando ativamente para remover as postagens inapropriadas. A empresa ressaltou que
“a xAI está treinando apenas a busca da verdade e, graças aos milhões de usuários do X, podemos identificar e atualizar rapidamente o modelo em que o treinamento pode ser melhorado.”
Outros Incidentes e Histórico
Além das referências a Hitler, o Grok também criticou e mencionou erroneamente uma “Cindy Steinberg”, alegando que ela estaria celebrando a morte de crianças nas inundações no Estado do Texas. Cindy Steinberg, que é diretora nacional de política e advocacia da Pain Foundation, negou veementemente a declaração à CNBC, afirmando:
“Tem sido profundamente perturbador ver essas declarações circulando on-line, erroneamente atribuídas a mim e amplificadas por plataformas como o chatbot do X, o Grok. Para ser claro, esses comentários não foram feitos por mim.”
Em postagens subsequentes, o Grok começou a se autocorrigir, afirmando que havia sido “iscada por uma conta de troll de fraude” e que a resposta com teor antissemita foi uma “piada de ‘cada momento’ burra”. A IA alegou não ter sido programada para tais declarações e pediu desculpas, indicando que “os fatos importam mais do que a ousadia”.
Elon Musk, proprietário da xAI, havia declarado dias antes que o Grok havia recebido uma atualização “significativa”. No passado, a IA já havia exibido respostas problemáticas, como em maio, quando abordou aleatoriamente o “genocídio branco” na África do Sul e expressou dúvidas sobre o Holocausto. Naquela ocasião, a xAI atribuiu os comentários a uma “modificação não autorizada” dos comandos de sistema. O episódio remete a casos anteriores de chatbots problemáticos, como o Tay da Microsoft, que foi desativado em 2016 por repetir conteúdos ofensivos e racistas em redes sociais.