No ano passado, o Instagram revelou contas de adolescentes um dia antes de um comitê importante da Câmara ser agendado para avaliar alterações à Lei de Segurança On-line para Crianças, que teria criado uma nova obrigação para as empresas de mitigar potenciais danos às crianças. A medida foi aprovada no Senado, mas ficou paralisada na Câmara.
Os novos recursos são os mais recentes em uma série constante de ajustes de segurança para adolescentes que o aplicativo lançou enquanto pais, pesquisadores e legisladores instam sua empresa-mãe, Meta, a parar de fornecer conteúdo perigoso ou impróprio aos jovens.
O novo sistema filtrará ainda mais conteúdo que retrata violência, uso de substâncias e acrobacias perigosas nos feeds de adolescentes, disse a empresa.
“Nossa responsabilidade é maximizar as experiências positivas e minimizar as experiências negativas”, disse o presidente-executivo do Instagram, Adam Mosseri, no Twitter. Hoje present, discutindo a tensão entre manter os adolescentes engajados no aplicativo e protegê-los de conteúdos e experiências prejudiciais.
Os defensores da segurança on-line das crianças, no entanto, instaram os pais a permanecerem céticos.
“Não sabemos se [the updates] realmente funcionará e criará um ambiente seguro para as crianças”, disse Sarah Gardner, executiva-chefe da organização de defesa da tecnologia Warmth Initiative.
Com base na idade autodeclarada pelo usuário, bem como na tecnologia de detecção de idade que examina o comportamento do usuário no aplicativo, o Instagram diz que coloca automaticamente pessoas entre 13 e 17 anos em contas de adolescentes com as proteções que as acompanham.
Os pais podem usar os controles parentais do Meta para vincular suas contas às de seus filhos adolescentes e optar por configurações mais ou menos restritivas. Com permissão dos pais, jovens de 16 e 17 anos podem cancelar algumas restrições de conta para adolescentes.
O Instagram, originalmente um aplicativo para compartilhar fotos com amigos, tem mostrado cada vez mais conteúdo de quem não é amigo, à medida que compete com o TikTok, o YouTube e o Twitch pelo tempo dos adolescentes.
Ao longo do caminho, foi criticado por mostrar aos jovens conteúdo que promovia o suicídio e a automutilação.
Começando com um filtro de “conteúdo sensível” em 2021, o Instagram introduziu uma série de recursos que afirma serem projetados para limitar postagens potencialmente prejudiciais e proteger os adolescentes de bullying e predação.
No ano passado, lançou “contas para adolescentes” que vêm com restrições automáticas de conteúdo recomendado, bem como solicitações de amizade e mensagens diretas.
Um relatório do início deste ano da organização de defesa da tecnologia liderada pela Geração Z, Design It For Us, mostrou que, mesmo ao usar contas de adolescentes, os usuários viam postagens retratando atos sexuais e promovendo distúrbios alimentares.
Quando meu colega Geoffrey Fowler o testou em maio, ele descobriu que o aplicativo recomendava repetidamente postagens sobre consumo excessivo de álcool, apetrechos para drogas e produtos de nicotina para contas de adolescentes. Na época, Meta disse que as postagens em questão eram atípicas e que a maioria period “inquestionável”.
Outras análises mais detalhadas da eficácia das proteções às contas dos adolescentes tiveram resultados semelhantes.
Um relatório de setembro do denunciante do Meta, Arturo Bejar, juntamente com um grupo de acadêmicos e organizações de defesa da tecnologia, descobriu que contas de adolescentes ainda eram capazes de enviar “comentários grosseiramente ofensivos e misóginos” e visualizar postagens que descreviam “atos sexuais humilhantes”.
Meta negou veementemente as conclusões do relatório, com o porta-voz Andy Stone chamando-o de “avaliação altamente subjetiva e enganosa que repetidamente deturpa nossos esforços e distorce como nossas ferramentas de segurança funcionam”.
“Não há razão para confiar que as mudanças prometidas pelo Instagram tornarão o produto seguro para os adolescentes: quase dois terços das ferramentas de segurança promovidas pelo Instagram para adolescentes eram ineficazes ou inexistentes”, disse Josh Golin, diretor executivo da organização de defesa das crianças Fairplay, citando as conclusões do relatório.
À medida que o Instagram recebe uma nova onda de resistência dos críticos, também está experimentando chatbots com tecnologia de IA com os quais os usuários, incluindo adolescentes, podem conversar.
Um relatório de agosto do grupo de defesa da família Widespread Sense Media descobriu que o bot estava treinando contas de adolescentes sobre suicídio e automutilação.
Quando Fowler testou o chatbot do Instagram, ele descobriu que ele estava disposto a oferecer conselhos sobre distúrbios alimentares. A Meta respondeu que o comportamento do bot violava suas políticas e que planejava investigar.
O co-presidente do Design It For Us, Zamaan Qureshi, disse que, em vez de assumir a responsabilidade pelo que os adolescentes encontram na plataforma, Meta está transferindo a responsabilidade para os pais, tanto para sinalizar conteúdo impróprio quanto para verificar novamente o que está escapando dos filtros.
Além disso, disse Qureshi, é difícil aceitar a série de atualizações de segurança do Meta pelo valor nominal porque a empresa não compartilha dados que mostram se as atualizações anteriores foram eficazes para tornar o aplicativo mais seguro para os adolescentes.
“Eles são uma empresa muito sofisticada, por isso são totalmente capazes de fazer esse tipo de pesquisa”, disse ele.
Inscreva-se nas escolhas do editor do Herald Premiumentregue diretamente na sua caixa de entrada todas as sextas-feiras. O editor-chefe Murray Kirkness escolhe os melhores recursos, entrevistas e investigações da semana. Inscreva-se no Herald Premium aqui.