Nurfoto | Nurfoto | Imagens Getty
A Malásia e a Indonésia bloquearam o acesso ao chatbot de inteligência synthetic Grok de Elon Musk no fim de semana devido a preocupações de que a ferramenta estivesse sendo usada para gerar conteúdo não consensual e sexualmente explícito.
Reguladores da Malásia encomendado restrições temporárias serão colocadas no chatbot da xAI no domingo, após “falhas repetidas da X Corp” para lidar com os riscos associados à ferramenta de IA.
A medida ocorreu apenas um dia depois que a Indonésia interveio para interromper o acesso a Grok devido a preocupações semelhantes e convocou funcionários do X sobre o assunto, de acordo com a tradução da declaração da CNBC.
As ações dos países do Sudeste Asiático ocorreram depois que foi descoberto que o Grok da xAI permitia aos usuários gerar e compartilhar facilmente imagens on-line que incluíam imagens explícitas não consensuais e materials de abuso sexual infantil (CSAM).
A empresa de Musk atualizou recentemente seus recursos Grok Think about, permitindo a geração mais fácil de imagens a partir de prompts baseados em texto no chatbot, que está integrado à plataforma de mídia social X de Musk, proporcionando um amplo alcance.
Em meio a crescentes preocupações sobre a política de moderação de conteúdo da Grok, xAI anunciado limitaria os recursos de geração e edição de imagens a assinantes pagantes, em um esforço para corrigir lacunas de salvaguarda que permitiam resultados sexualizados.
Almíscar, respondendo on X, também afirmou que os usuários que criam conteúdo ilegal através do Grok enfrentariam consequências equivalentes ao add de tal materials diretamente para a plataforma de mídia social.
A CNBC tentou entrar em contato com a xAI para comentar os acontecimentos no fim de semana. Um e-mail de imprensa da empresa retornou uma mensagem automática que dizia “Legacy Media Lies”.
Respostas “insuficientes”
As respostas públicas e privadas de X no meio da controvérsia não conseguiram satisfazer as preocupações dos reguladores na Indonésia e na Malásia, bem como de outros que lançaram investigações.
A Comissão de Comunicações e Multimídia da Malásia disse que as respostas “insuficientes” de X “basearam-se principalmente em mecanismos de relatório iniciados pelo usuário e não conseguiram abordar os riscos inerentes representados pelo design e operação da ferramenta de IA”.
“Assim, a restrição é imposta como medida preventiva e proporcional enquanto os processos legais e regulatórios estão em andamento”, disse o órgão de fiscalização. “O acesso ao Grok permanecerá restrito até que salvaguardas eficazes sejam implementadas, especialmente para prevenir conteúdos que envolvam mulheres e crianças”.
Tanto a Indonésia como a Malásia mantêm leis rigorosas contra a pornografia, que proíbem a partilha de conteúdos obscenos e sexuais on-line de forma mais ampla.
Enquanto isso, o Ministério das Comunicações e Assuntos Digitais da Indonésia, Meutya Hafid, disse que “o governo vê os deepfakes sexuais não consensuais como uma violação grave dos direitos humanos, da dignidade e da segurança dos cidadãos no espaço digital”.
Hafid também categorizou o uso indevido de IA para produzir pornografia falsa como uma forma de “violência de base digital”, de acordo com declarações compartilhadas pela estatal Antara Information.
Autoridades de outras jurisdições, incluindo a União Europeia, o Reino Unido, o Brasil e a Índia, também pediu investigações sobre o papel de Grok na facilitação de deepfakes obscenos.
Um órgão de vigilância do Reino Unido, a Internet Watch Foundation, disse Na semana passada, os seus analistas descobriram “imagens criminosas” de crianças com idades entre 11 e 13 anos, que parecem ter sido criadas usando Grok.
Alguns legisladores democratas em Washington recomendaram que as lojas de aplicativos suspendessem a ferramenta de IA, pelo menos até que Musk implementasse mudanças importantes.
Em um e-mail para a CNBC na semana passada, o Departamento de Justiça disse em um comunicado que “leva extremamente a sério o materials de abuso sexual infantil gerado por IA e processará agressivamente qualquer produtor ou possuidor de CSAM”.
“Continuamos a explorar maneiras de otimizar a fiscalização neste espaço para proteger as crianças e responsabilizar os indivíduos que exploram a tecnologia para prejudicar os mais vulneráveis”, acrescentou.
– Lora Kolodny da CNBC contribuiu para este relatório.












