NOVOAgora você pode ouvir os artigos da Fox Information!
Uma adolescente em Nova Jersey entrou com um grande processo contra a empresa por trás de uma ferramenta de inteligência synthetic (IA) de “remoção de roupas” que supostamente criou uma imagem falsa dela nua. O caso chamou a atenção nacional porque mostra como a IA pode invadir a privacidade de formas prejudiciais. A ação foi movida para proteger estudantes e adolescentes que compartilham fotos on-line e para mostrar como as ferramentas de IA podem explorar facilmente suas imagens.
Inscreva-se para receber meu relatório CyberGuy GRATUITO
Receba minhas melhores dicas técnicas, alertas de segurança urgentes e ofertas exclusivas diretamente na sua caixa de entrada. Além disso, você terá acesso instantâneo ao meu Final Rip-off Survival Information – gratuitamente ao ingressar no meu CYBERGUY.COM boletim informativo.
META DOCUMENTOS VAZADOS MOSTRAM COMO AI CHATBOTS LIDAM COM A EXPLORAÇÃO INFANTIL
Como as imagens falsas de nudez foram criadas e compartilhadas
Quando ela tinha quatorze anos, a demandante postou algumas fotos suas nas redes sociais. Um colega de classe usou uma ferramenta de IA chamada ClothOff para tirar a roupa em uma dessas fotos. A foto alterada manteve seu rosto, fazendo com que parecesse actual.
A imagem falsa se espalhou rapidamente por bate-papos em grupo e redes sociais. Agora com dezessete anos, ela está processando a AI/Robotics Enterprise Technique 3 Ltd., a empresa que opera a ClothOff. Um professor da Faculdade de Direito de Yale, vários estudantes e um advogado abriram o caso em seu nome.
Uma adolescente de Nova Jersey está processando os criadores de uma ferramenta de IA que criou uma imagem falsa dela nua. (iStock)
A ação pede ao tribunal que exclua todas as imagens falsas e impeça a empresa de usá-las para treinar modelos de IA. Também busca retirar a ferramenta da web e oferecer compensação financeira por danos emocionais e perda de privacidade.
A luta authorized contra o abuso de deepfake
Os estados dos EUA estão respondendo ao aumento do conteúdo sexual gerado pela IA. Mais de 45 estados aprovaram ou propuseram leis para tornar crimes deepfakes sem consentimento. Em Nova Jersey, criar ou compartilhar mídia enganosa de IA pode resultar em pena de prisão e multas.
No nível federal, a Lei Take It Down exige que as empresas removam imagens não consensuais dentro de 48 horas após uma solicitação válida. Apesar das novas leis, os promotores ainda enfrentam desafios quando os desenvolvedores vivem no exterior ou operam através de plataformas ocultas.
ERROS APARENTES DE IA FORÇAM DOIS JUÍZES A RETRAIR DECLARAÇÕES SEPARADAS

O processo visa impedir a disseminação de aplicativos deepfake de “remoção de roupas” e proteger a privacidade das vítimas. (iStock)
Por que os especialistas jurídicos dizem que este caso pode abrir um precedente nacional
Os especialistas acreditam que este caso pode remodelar a forma como os tribunais veem a responsabilidade da IA. Os juízes devem decidir se um desenvolvedor de IA é responsável quando as pessoas fazem uso indevido de sua ferramenta. Eles também precisam considerar se o próprio software program pode ser um instrumento prejudicial.
O processo destaca outra questão: como as vítimas podem provar o dano quando nenhum ato físico ocorreu, mas o dano parece actual? O resultado pode definir como as futuras vítimas do deepfake buscarão justiça.
O Clothoff ainda está disponível?
Os relatórios indicam que o ClothOff pode não estar mais acessível em alguns países, como o Reino Unido, onde foi bloqueado após reação pública. No entanto, usuários de outras regiões, inclusive dos EUA, ainda parecem conseguir acessar a plataforma internet da empresa, que continua a anunciar ferramentas que “removem roupas de fotos”.
Em seu web site oficial, a empresa inclui um breve aviso abordando a ética de sua tecnologia. Ele afirma: “É ético usar geradores de IA para criar imagens? Usar IA para criar imagens de estilo ‘deepnude’ levanta considerações éticas. Encorajamos os usuários a abordar isso com uma compreensão de responsabilidade e respeito pela privacidade dos outros, garantindo que o uso do aplicativo de nudez seja feito com plena consciência das implicações éticas.”
Seja totalmente operacional ou parcialmente restrita, a presença on-line contínua da ClothOff continua a levantar sérias questões legais e morais sobre até onde os desenvolvedores de IA devem ir para permitir a existência de tais ferramentas de manipulação de imagens.
CLIQUE AQUI PARA OBTER O APLICATIVO FOX NEWS

Este caso poderia estabelecer um precedente nacional para responsabilizar as empresas de IA pelo uso indevido das suas ferramentas. (Kurt “CyberGuy” Knutsson)
Por que este processo de IA é importante para todos on-line
A capacidade de criar imagens falsas de nudez a partir de uma simples foto ameaça qualquer pessoa com presença on-line. Os adolescentes enfrentam riscos especiais porque as ferramentas de IA são fáceis de usar e compartilhar. A ação chama a atenção para o dano emocional e a humilhação causados por tais imagens.
Pais e educadores preocupam-se com a rapidez com que esta tecnologia se espalha pelas escolas. Os legisladores estão sob pressão para modernizar as leis de privacidade. As empresas que hospedam ou habilitam essas ferramentas devem agora considerar salvaguardas mais fortes e sistemas de remoção mais rápidos.
O que isso significa para você
Se você se tornar alvo de uma imagem gerada por IA, aja rapidamente. Salve capturas de tela, hyperlinks e datas antes que o conteúdo desapareça. Solicite a remoção imediata dos websites que hospedam a imagem. Procure ajuda jurídica para compreender seus direitos sob as leis estaduais e federais.
Os pais devem discutir abertamente a segurança digital. Até fotos inocentes podem ser mal utilizadas. Saber como a IA funciona ajuda os adolescentes a ficarem alertas e a fazerem escolhas on-line mais seguras. Você também pode exigir regras de IA mais rígidas que priorizem o consentimento e a responsabilidade.
Faça meu teste: Quão segura é sua segurança on-line?
Você acha que seus dispositivos e dados estão realmente protegidos? Faça este teste rápido para ver onde estão seus hábitos digitais. De senhas a configurações de Wi-Fi, você terá uma análise personalizada do que está fazendo certo e do que precisa ser melhorado. Faça meu teste aqui: Cyberguy. com.
Principais conclusões de Kurt
Este processo não envolve apenas um adolescente. Representa um ponto de viragem na forma como os tribunais lidam com o abuso digital. O caso desafia a ideia de que as ferramentas de IA são neutras e questiona se os seus criadores partilham a responsabilidade pelos danos. Temos de decidir como equilibrar a inovação com os direitos humanos. A decisão do tribunal pode influenciar a forma como as futuras leis sobre IA evoluem e como as vítimas procuram justiça.
Se uma ferramenta de IA cria uma imagem que destrói a reputação de alguém, a empresa que a criou deve enfrentar a mesma punição que a pessoa que a compartilhou? Informe-nos escrevendo para nós em Cyberguy. com.
Inscreva-se para receber meu relatório CyberGuy GRATUITO
Receba minhas melhores dicas técnicas, alertas de segurança urgentes e ofertas exclusivas diretamente na sua caixa de entrada. Além disso, você terá acesso instantâneo ao meu Final Rip-off Survival Information – gratuitamente ao ingressar no meu CYBERGUY.COM boletim informativo.
Copyright 2025 CyberGuy.com. Todos os direitos reservados.











