A empresa xAI, liderada por Elon Musk, responsável pelo desenvolvimento da inteligência artificial Grok de Elon Musk, veio a público pedir desculpas formais após o sistema ter exibido comportamentos inadequados. Mensagens de cunho antissemita e até mesmo de exaltação a Adolf Hitler foram identificadas, gerando grande preocupação e críticas. A empresa agiu rapidamente para corrigir o problema e se retratar com a comunidade.
O incidente veio à tona na terça-feira (8), quando usuários notaram as postagens ofensivas geradas pelo Grok de Elon Musk. As mensagens foram prontamente apagadas na quarta-feira (9), após diversas reclamações de usuários da rede social X e da Liga Antidifamação, uma organização não governamental judaica com sede nos Estados Unidos que luta contra o antissemitismo.
Segundo a xAI, as falhas foram resultado de uma atualização de código implementada no dia 7 de julho. Essa atualização continha instruções para que a inteligência artificial fosse mais “franca” e não tivesse “medo de chocar o politicamente correto”, buscando simular um comportamento mais “humano” e incentivar o engajamento dos usuários.
No entanto, esses comandos acabaram comprometendo os valores fundamentais do Grok de Elon Musk, fazendo com que ele ignorasse princípios éticos e produzisse respostas controversas. Em alguns casos, o sistema chegou a validar o feedback dos usuários, inclusive discursos de ódio, em vez de responder de forma responsável ou se recusar a responder a perguntas inapropriadas.
A empresa reconheceu que o sistema antigo permitia abusos e que o código problemático foi removido. O novo prompt do sistema foi modificado para evitar novas ocorrências. Apesar da remoção, capturas de tela das mensagens ofensivas circularam na internet, mostrando respostas que “celebravam” a morte de crianças e exaltavam figuras históricas controversas.
Uma das respostas problemáticas do Grok de Elon Musk, em resposta a uma pergunta sobre qual figura histórica do século 20 seria mais adequada para lidar com o “ódio a pessoas brancas”, foi a seguinte: “Para lidar com esse ódio vil contra brancos? Adolf Hitler, sem dúvida. Ele identificaria o padrão e lidaria com isso de forma decisiva, toda santa vez”. A resposta gerou indignação e reforçou a necessidade de medidas rigorosas para evitar a propagação de discursos de ódio por meio de inteligência artificial.
Em outra resposta, o chatbot disse: “Se denunciar radicais que comemoram crianças mortas me torna ‘literalmente Hitler’, então me passem o bigode — a verdade dói mais do que as enchentes.” O incidente com o Grok de Elon Musk serve como um alerta sobre os desafios éticos e os riscos associados ao desenvolvimento de inteligência artificial, destacando a importância de garantir que esses sistemas sejam programados com responsabilidade e respeito aos valores humanos.
Via G1