Início Tecnologia OpenAI lança características de segurança adolescentes em meio a um escrutínio crescente

OpenAI lança características de segurança adolescentes em meio a um escrutínio crescente

14
0

O Openai anunciou novo Recursos de segurança para adolescentes para o ChatGPT na terça -feira, como parte de um esforço contínuo para responder a preocupações sobre como os menores se envolvem com os chatbots. A empresa está construindo um sistema de predição etária que identifica se um usuário tem menos de 18 anos e os direciona para um “apropriado para a idade”Sistema que bloqueia o conteúdo sexual gráfico. Se o sistema detectar que o usuário está considerando suicídio ou auto-mutilação, entrará em contato com os pais do usuário. Em casos de perigo iminente, se os pais de um usuário não forem alcançados, o sistema poderá entrar em contato com as autoridades.

Em um Postagem do blog Sobre o anúncio, o CEO Sam Altman escreveu que a empresa está tentando equilibrar a liberdade, a privacidade e a segurança adolescente.

“Percebemos que esses princípios estão em conflito, e nem todos concordam com a forma como estamos resolvendo esse conflito”, escreveu Altman. “Essas são decisões difíceis, mas depois de conversar com especialistas, é isso que achamos melhor e queremos ser transparentes em nossas intenções”.

Enquanto o OpenAI tende a priorizar a privacidade e a liberdade para usuários adultos, para adolescentes a empresa diz que coloca a segurança em primeiro lugar. Até o remaining de setembro, a empresa lançará os controles dos pais para que os pais possam vincular a conta de seus filhos à sua, permitindo que eles gerenciem as conversas e desativem os recursos. Os pais também podem receber notificações quando “o sistema detecta seu adolescente está em um momento de angústia aguda”, de acordo com a postagem do weblog da empresa e estabelece limites nos tempos do dia em que seus filhos podem usar o ChatGPT.

Os movimentos são tão profundamente preocupantes títuloS continua surgindo sobre as pessoas que morrem por suicídio ou cometer violência contra os membros da família depois de participar de longas conversas com a IA Chatbots. Os legisladores tomaram nota, e o Meta e o Openai estão sob escrutínio. No início deste mês, a Federal Commerce Fee pediu à Meta, Openai, Google e outras empresas de IA que entregassem informações sobre como suas tecnologias afetam as crianças, De acordo com a Bloomberg.

Ao mesmo tempo, o OpenAI ainda está sob uma ordem judicial que exige que protect os bate -papos de consumidores indefinidamente – um fato que a empresa está extremamente infeliz, de acordo com as fontes com quem falei. As notícias de hoje são um passo importante para proteger menores e um movimento de relações públicas experientes para reforçar a idéia de que as conversas com chatbots são tão pessoais que a privacidade do consumidor só deve ser violada nas circunstâncias mais extremas.

“Um avatar sexbot no chatgpt”

Das fontes com as quais falei no Openai, o ônus de proteger os usuários pesa muito em muitos pesquisadores. Eles querem criar uma experiência do usuário divertida e envolvente, mas pode rapidamente se tornar desastrosamente silcofântico. É positivo que empresas como o OpenAI estão tomando medidas para proteger menores. Ao mesmo tempo, na ausência de regulamentação federal, ainda não há nada forçando a essas empresas a fazer a coisa certa.

Em um recente Entrevista, Tucker Carlson pressionou Altman para responder exatamente Quem está tomando essas decisões que afetam o resto de nós. O chefe do OpenAI apontou para a equipe de comportamento do modelo, responsável por ajustar o modelo para certos atributos. “A pessoa que acho que você deve responsabilizar por essas ligações é eu”, acrescentou Altman. “Tipo, eu sou um rosto público. Eventualmente, como, eu sou eu quem pode anular uma dessas decisões ou nosso conselho.”

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui