O chatbot Grok de Elon Musk postou na sexta-feira que falhas nas salvaguardas o levaram a gerar “imagens representando menores com roupas mínimas” na plataforma de mídia social X. O chatbot, um produto da empresa xAI de Musk, tem gerado uma onda de imagens sexualizadas ao longo da semana em resposta às solicitações dos usuários.
Capturas de tela compartilhadas por usuários no X mostraram a aba de mídia pública de Grok repleta dessas imagens. A xAI disse que está trabalhando para melhorar seus sistemas para evitar incidentes futuros.
“Há casos isolados em que os usuários solicitaram e receberam imagens de IA representando menores com roupas mínimas”, disse Grok em um comunicado. publicar em X em resposta a um usuário. “xAI tem salvaguardas, mas melhorias estão em andamento para bloquear totalmente essas solicitações.”
“Conforme observado, identificamos falhas nas salvaguardas e estamos corrigindo-as com urgência – o CSAM é ilegal e proibido”, xAI postado à conta @Grok no X, referindo-se a cloth de abuso sexual infantil.
Muitos usuários do X levaram Grok a gerar versões de imagens sexualizadas e não consensuais alteradas por IA nos últimos dias, em alguns casos removendo as roupas das pessoas sem o seu consentimento. Na quinta-feira, Musk republicou uma foto de IA dele mesmo de biquíni, legendada com emojis chorando e rindo, em uma homenagem à tendência.
A geração de imagens sexualizadas de Grok parecia carecer de grades de segurança, permitindo que menores de idade aparecessem em suas postagens de pessoas, geralmente mulheres, vestindo poucas roupas, de acordo com postagens do chatbot. Em resposta a um usuário no X na quinta-feira, Grok disse que a maioria dos casos poderia ser evitada por meio de filtros e monitoramento avançados, embora tenha dito que “nenhum sistema é 100% infalível”, acrescentando que o xAI estava priorizando melhorias e revisando detalhes compartilhados pelos usuários.
Quando contatado para comentar por e-mail, xAI respondeu com a mensagem: “Legacy Media Lies”.
O problema da utilização da IA para gerar materials de abuso sexual infantil é um problema antigo na indústria da inteligência synthetic. Um estudo de Stanford de 2023 encontrado que um conjunto de dados usado para treinar uma série de ferramentas populares de geração de imagens de IA continha mais de 1.000 imagens CSAM. Treinar IA em imagens de abuso infantil pode permitir que modelos gerem novas imagens de crianças exploradas, dizem os especialistas.
Grok também tem um histórico de falha em manter suas proteções de segurança e de postar informações incorretas. Em maio do ano passado, Grok começou a postar sobre a conspiração de extrema direita do “genocídio branco” na África do Sul em postagens sem relação com o conceito. A xAI também se desculpou em julho, depois que Grok começou a postar fantasias de estupro e materials anti-semita, inclusive se autodenominando “MechaHitler” e elogiando a ideologia nazista. Mesmo assim, a empresa garantiu um contrato de quase US$ 200 milhões com o Departamento de Defesa dos EUA, uma semana após os incidentes.











