Meta anunciou hoje (25 de setembro) que seria Expandindo seu recurso de segurança juvenilContas adolescentes, para usuários do Fb, Messenger e Instagram em todo o mundo – um movimento que colocará centenas de milhões de adolescentes sob as restrições de segurança padrão da empresa.
A gigante da tecnologia passou o ano passado revisando as contas adolescentes, incluindo limitações de comunicação e descoberta de contas, filtrando conteúdo explícito e Desligando a opção de ir ao ar Para usuários com menos de 16 anos.
A Meta rotulou contas de adolescentes como “um passo significativo para ajudar a manter os adolescentes seguros” e uma ferramenta que traz aos pais “mais tranquilidade”. Mas alguns especialistas em segurança infantil acham que o recurso é uma promessa ainda mais vazia do que se pensava anteriormente.
As faculdades estão dando aos alunos Chatgpt. É seguro?
Um novo relatório também divulgado hoje acusa as contas adolescentes da Meta e os recursos de segurança relacionados de “fracasso abjetamente” para manter os usuários seguros. O relatório, intitulado “Contas adolescentes, promessas quebradas“Descobriram que muitos dos recursos principais do ecossistema de contas adolescentes – incluindo controles sensíveis de conteúdo, ferramentas que evitam contato inadequado e recursos de tela – não funcionavam como anunciado. A análise foi conduzida por segurança cibernética para a democracia e o meta e o WhistleBlower Arturo Béjar e sediado da Universidade de Nova York e da Universidade Nortista. Fundação e pais.
“Esperamos que este relatório sirva como um alerta para os pais que possam pensar que os recentes anúncios de segurança de alto nível da Meta significa que as crianças estão seguras no Instagram”, diz o relatório. “Nossos testes revela que as reivindicações são falsas e os supostos recursos de segurança são substancialmente ilusórios”.
As ferramentas de meta de segurança não resistem à pressão do mundo actual, diz o especialista
Os pesquisadores basearam seus testes em 47 dos 53 recursos de segurança listados pela Meta e que são visíveis pelos usuários. Trinta das ferramentas testadas – 64 % – receberam uma classificação vermelha, o que indica que o recurso foi descontinuado ou totalmente ineficaz. Verificou -se que nove das ferramentas reduziram os danos, mas vinham com limitações (amarelas). Verificou -se que apenas oito dos 47 características de segurança testadas estavam trabalhando efetivamente para evitar danos (verdes), segundo os pesquisadores.
Por exemplo, testes iniciais mostraram que as contas adultas ainda eram capazes de enviar mensagens para usuários adolescentes, apesar das medidas da Meta para evitar contato indesejado, e os adolescentes poderiam enviar mensagens para adultos que não os seguiram. Da mesma forma, o DMS com bullying explícito foi capaz de passar restrições de mensagens passadas. As contas adolescentes ainda eram recomendadas conteúdo sexual e violento e conteúdo com auto-mutilação. Os pesquisadores descobriram que não havia maneiras eficazes de relatar mensagens ou conteúdo sexual.
A pesquisa baseou-se em testes realistas do cenário do usuário para simular como predadores, pais e adolescentes realmente usam plataformas, explicou a segurança cibernética para a co-diretora da democracia, Laura Edelson. “Para muitos dos cenários de risco de que estamos falando, o adolescente está buscando o conteúdo arriscado. Isso é uma coisa regular que qualquer pai de um adolescente sabe é, francamente, apropriado para o desenvolvimento. É por isso que pais, pais, por que criamos a Guardrails”, disse Edelson. Mas a abordagem de Meta para abordar essa tendência comportamental é ineficaz e mal informada, ela disse à Mashable em um briefing da imprensa.
“Se um adolescente precisa experimentar extorsão para relatar, o dano já está causado”, acrescentou Béjar. Ele comparou o papel da Meta como o fabricante de carros, encarregado de fazer um veículo equipado com medidas de segurança robustas, como airbags e freios que fazem o que deveriam fazer. Os pais e os adolescentes são os motoristas, mas “o carro não é seguro o suficiente para entrar”.
Velocidade de luz mashable
“O que a Meta diz ao público geralmente é muito diferente do que suas próprias pesquisas internas mostram”, alegou Josh Golin, diretor executivo da organização de defesa de crianças sem fins lucrativos, Fairplay. “[Meta] tem uma história de deturpamento da verdade. “
Em comunicado à imprensa, Meta escreveu:
“Este relatório representa repetidamente nossos esforços para capacitar os pais e proteger os adolescentes, desligando como nossas ferramentas de segurança funcionam e como milhões de pais e adolescentes estão usando -os hoje.
A realidade são os adolescentes que foram colocados nessas proteções viram conteúdo menos sensível, experimentaram um contato menos indesejado e passaram menos tempo no Instagram à noite. Os pais também têm ferramentas robustas na ponta dos dedos, desde limitar o uso até as interações de monitoramento. Continuaremos melhorando nossas ferramentas e recebemos suggestions construtivo – mas este relatório não é isso. ”
Maurine Molak, da Legacy Basis, de David, e os pais e Ian Russell, da Molly Rose Basis, assinaram também o relatório – ambos os filhos morreram por suicídio após extenso cyberbullying. Os pais de todo o mundo expressaram alarme com o crescente papel da tecnologia, incluindo a IA Chatbots, na saúde psychological adolescente.
Advogados debatem o papel dos reguladores federais
Em abril, a Meta anunciou que estava mudando seu foco de segurança para jovens para reforçar as contas adolescentes, após um ano de escrutínio federal sobre seu papel na crise da saúde psychological da juventude. “Nós vamos usar cada vez mais contas de adolescentes como guarda -chuva, movendo todos os nossos [youth safety] Configurações nele “, disse Tara Hopkins, diretora world de políticas públicas do Instagram, disse Mashable na época.
Muitas empresas de tecnologia se apoiaram na importância da educação de pais e adolescentes, ao lançar os recursos da plataforma, oferecendo hubs de treinamento e informações para os pais analisarem. Especialistas os criticaram como colocando um fardo indevido para os paisem vez de as próprias empresas de tecnologia. Hopkins explicou anteriormente a Mashable que as ferramentas automáticas da Meta, incluindo Verificação da Idade da AIforam projetados para tirar essa pressão dos pais e cuidadores. Mas “os pais não estão pedindo um passe, eles estão apenas pedindo que o produto fique mais seguro”, disse Molak.
As organizações sem fins lucrativos de segurança infantil, como o Frequent Sense MediaAnúncio Splashy“Feito para se lançar de uma maneira melhor antes do Congresso. Após a rolagem de contas de adolescentes, outros estudos de vigilantes de segurança descobriram que os adolescentes eram ainda exposto ao conteúdo sexual. Meta mais tarde removido mais de 600.000 contas ligado ao comportamento predatório. Mais recentemente, o Meta fez alterações provisórias em contas adolescentes que limitar seu acesso aos avatares da AI da empresaapós relatos, eles poderiam se envolver em conversas “românticas ou sensuais” com usuários adolescentes.
Embora os defensores da segurança infantil concordem com a necessidade premente de melhores medidas de segurança on -line, muitos discordam da extensão da supervisão federal. Alguns dos autores do relatório, por exemplo, estão pedindo a aprovação da Lei de Segurança On-line (KOSA), que se tornou um símbolo divisivo de liberdade de expressão e moderação de conteúdo. O relatório também recomenda a Comissão Federal de Comércio e os Procuradores -Gerais do Estado evocam a Lei de Proteção à Privacidade On-line da Criança e a Seção V da Lei FTC para pressionar a empresa a agir. Os participantes do Reino Unido pedem líderes a fortalecer o 2023 Lei de Segurança On-line.
Apenas duas semanas atrás, o Meta Whistleblower Cayce Savage pediu que os reguladores externos intervirem e avaliassem a meta durante um testemunho em frente ao Comitê Judiciário do Senado.
“Mais pesquisas sobre ferramentas de segurança do usuário de mídia social são urgentemente necessárias. Nossas descobertas mostram que muitas proteções são ineficazes, fáceis de contornar ou foram silenciosamente abandonadas”, escrevem os autores do relatório. “As ferramentas de segurança do usuário podem ser muito melhores do que são, e os usuários da Meta merecem um produto melhor e mais seguro do que a Meta está atualmente entregando a eles”.
Se você está se sentindo suicida ou experimentando uma crise de saúde psychological, converse com alguém. Você pode ligar ou enviar mensagens de texto para o 988 Suicide & Disaster Lifeline em 988 ou conversar em 988lifeline.org. Você pode alcançar a linha de vida trans ligando para 877-565-8860 ou o projeto Trevor no 866-488-7386. Texto “Begin” para a linha de texto de crise em 741-741. Entre em contato com a linha de apoio NAMI em 1-800-950-NAMI, de segunda a sexta-feira, das 10:00 às 22:00 ET, ou E-mail [email protected]. Se você não gosta do telefone, considere usar o 988 Chat da linha de vida suicida e de crise. Aqui está um Lista de recursos internacionais.
ATUALIZAÇÃO: 25 de setembro de 2025, 15:34 EDT Este artigo foi atualizado para corrigir a ortografia do nome de Josh Golin.