Início Notícias Grok de X limita o gerador de imagens sobre imagens sexuais não...

Grok de X limita o gerador de imagens sobre imagens sexuais não consensuais

16
0

Os usuários australianos da plataforma X de Elon Musk estão falando sobre imagens sexuais não consensuais deles mesmos sendo geradas por seu bot de inteligência synthetic Grok, a pedido de outros usuários.

Grok é um bot de IA de modelo de linguagem grande que foi promovido pelo X como tendo menos salvaguardas do que seus concorrentes.

Nos últimos dias, o bot e o X foram atacados, depois que os usuários começaram a solicitar que Grok despisse digitalmente os usuários do X – a maioria mulheres – sem o seu consentimento.

Carregando…

Uma vítima australiana, que atende por Ele on-line, diz que foi alvo depois de postar na plataforma que não consentiu.

A ABC decidiu não identificar Ele nem compartilhar as imagens criadas dela, para proteger sua privacidade.

“Assim que eu disse explicitamente que não consentia e não estava de acordo, isso de alguma forma enfureceu um grupo de homens, que… decidiram gerar as referidas imagens”, disse Ele ao triple j hack.

“Houve um… que gerou uma imagem minha de burca.

Houve outro que… transformou minha camisa em um biquíni, depois em um microbiquíni, depois em fio dental, e então – para contornar os recursos de segurança de Grok – pediu para ele me cobrir com esmalte de donut, o que aconteceu.

Uma sugestão grok usada contra a modelo erótica australiana Ele. (Fonte: X)

Ele é um criador de conteúdo que posta conteúdo sexual sem nudez no X e em websites de assinatura paga.

Quando ela falou sobre as imagens falsas geradas por IA no X, alguns outros usuários disseram que ela não deveria reclamar por causa do tipo de fotos que ela já havia postado no web site.

“Acho que é exatamente o mesmo que dizer a uma mulher que ela não deveria beber se não quiser ser abusada sexualmente”, disse Ele ao hack.

“Tipo, sim, esse é um risco envolvido em fazer um certo tipo de trabalho, mas não deveria acontecer.

“E acho que os homens que dizem isso estão definitivamente tentando encobrir e se esconder da responsabilidade.”

Um close do rosto de uma mulher, ela tem cabelo ruivo e usa orelhas de duende.

Ele postou no X depois que Grok criou imagens falsas dela sem o consentimento dela. (Fornecido.)

Ele não está sozinho sendo alvo de usuários no X.

A empresa de análise americana Copyleaks estimou que Grok gerou aproximadamente uma imagem sexual não consensual a cada minuto nas 48 horas até 31 de dezembro.

Uma análise separada das solicitações e postagens de Grok pela AI Forensics, uma organização sem fins lucrativos europeia, sugeriu que mais da metade das imagens criadas por Grok continham pessoas em “trajes mínimos” e que 81% das imagens eram de mulheres.

O grupo afirma ter analisado 20 mil imagens geradas por Grok e 50 mil solicitações de usuários, e descobriu que 2% das postagens pareciam retratar pessoas com menos de 18 anos.

Na Austrália, a ABC viu imagens nuas geradas por Grok de pelo menos quatro políticos australianos.

Abuso de IA ‘sem surpresa’

Joel Scalan, professor sênior do Centro de Dissuasão de Materiais para Abuso Sexual Infantil da Universidade da Tasmânia, diz que as empresas de IA parecem estar contornando as salvaguardas na busca por lucros.

Dr. Joel Scanlan.

Dr. Joel Scanlan diz que as empresas de IA estão abandonando as salvaguardas para tentar atrair mais usuários. (ABC noticias: Scott Ross)

Ele disse que as questões levantadas pelos usuários do X sobre Grok não foram surpreendentes.

“Temos uma cultura nas empresas de tecnologia de ‘agir rápido e quebrar as coisas’”, disse o Dr. Scanlan ao triple j hack.

“Esse foi o rótulo que eles criaram há 20 anos e ainda é o caso.

“No contexto da IA… qualquer coisa que eles consigam divulgar para a imprensa para divulgar sua plataforma é vista como algo positivo.

É o lucro acima da proteção… [Elon Musk] vê isso como sendo, ‘ei, é liberdade de expressão, vamos usar as ferramentas da maneira que pudermos’, no entanto, isso não significa que não haja impacto social.

Musk continua a promover ferramenta de IA

O proprietário do X, Elon Musk, abordou preocupações sobre conteúdo ilegal na plataforma em uma postagem no início desta semana.

Na postagem, ele escreveu que quem usasse o Grok para criar conteúdo ilegal seria punido.

Mas desde a postagem de Musk, o bot continuou a responder a solicitações que solicitavam que ele despisse as mulheres e, em alguns casos, as crianças.

A ABC contatou a xAI sobre Grok para perguntar se mais salvaguardas seriam implementadas para proteger os usuários e recebeu o que parecia ser uma resposta automática: “Legacy Media Lies”.

Na sexta-feira, o bot de IA começou a negar solicitações de usuários para imagens alteradas.

Postou que o gerador de imagens estava limitado a assinantes pagantes devido a preocupações com imagens sexuais não consensuais.

Governos da França e da Índia ao Reino Unido condenaram o uso de Grok para “despir” mulheres sem o seu consentimento, com o primeiro-ministro do Reino Unido, Keir Starmer, chamando-o de “uma vergonha” e o regulador independente de comunicações do país dizendo que havia feito contato com X e xAI sobre o assunto.

Na Austrália, um porta-voz do Comissário de eSafety disse que a eSafety “recebeu relatórios relacionados ao uso de Grok para gerar imagens sexualizadas de adultos e crianças”.

O porta-voz disse que embora alguns relatórios ainda estivessem sendo avaliados, os relatos de materials de exploração infantil não “atendiam à classificação do limite para materials de classe 1” e, portanto, nenhum aviso de remoção foi emitido.

“A eSafety continua preocupada com o uso crescente de IA generativa para sexualizar ou explorar pessoas, especialmente quando há crianças envolvidas”, disse o porta-voz.

A IA generativa pode ser segura?

Para usuários australianos do X como Ele, as imagens não consensuais são um sinal de que o X precisa fazer mais para proteger seus usuários.

Ele diz que gostaria que X desse aos correntistas a opção de optar por não ter suas imagens manipuladas pela IA.

“Deve haver um recurso muito estrito para permitir que as pessoas optem por não participar… Não acredito que se uma pessoa for detectada pela IA, que a IA deva ser capaz de fazer qualquer coisa com isso”, disse ela ao hack.

“As plataformas devem garantir que isso não seja possível, a menos que a pessoa ative esse recurso”.

Na Universidade da Tasmânia, o Dr. Scanlan disse que embora fosse tecnicamente desafiador para as empresas oferecer uma solução de opt-out, havia outras medidas de mitigação que poderiam tomar.

“Grandes modelos de linguagem são ótimos para entender a intenção das pessoas e o que elas estão perguntando.

Ter um grande modelo de linguagem dizendo ‘Este é um pedido baseado na sexualização?’ na verdade não é tremendous complicado ou difícil. Na verdade, eles estão apenas optando por não implementar essas fortes salvaguardas.

fonte