O Openai anunciou novo Recursos de segurança para adolescentes para o ChatGPT na terça -feira, como parte de um esforço contínuo para responder a preocupações sobre como os menores se envolvem com os chatbots. A empresa está construindo um sistema de predição etária que identifica se um usuário tem menos de 18 anos e os direciona para um “apropriado para a idade”Sistema que bloqueia o conteúdo sexual gráfico. Se o sistema detectar que o usuário está considerando suicídio ou auto-mutilação, entrará em contato com os pais do usuário. Em casos de perigo iminente, se os pais de um usuário não forem alcançados, o sistema poderá entrar em contato com as autoridades.
Em um Postagem do blog Sobre o anúncio, o CEO Sam Altman escreveu que a empresa está tentando equilibrar a liberdade, a privacidade e a segurança adolescente.
“Percebemos que esses princípios estão em conflito, e nem todos concordam com a forma como estamos resolvendo esse conflito”, escreveu Altman. “Essas são decisões difíceis, mas depois de conversar com especialistas, é isso que achamos melhor e queremos ser transparentes em nossas intenções”.
Enquanto o OpenAI tende a priorizar a privacidade e a liberdade para usuários adultos, para adolescentes a empresa diz que coloca a segurança em primeiro lugar. Até o remaining de setembro, a empresa lançará os controles dos pais para que os pais possam vincular a conta de seus filhos à sua, permitindo que eles gerenciem as conversas e desativem os recursos. Os pais também podem receber notificações quando “o sistema detecta seu adolescente está em um momento de angústia aguda”, de acordo com a postagem do weblog da empresa e estabelece limites nos tempos do dia em que seus filhos podem usar o ChatGPT.
Os movimentos são tão profundamente preocupantes títuloS continua surgindo sobre as pessoas que morrem por suicídio ou cometer violência contra os membros da família depois de participar de longas conversas com a IA Chatbots. Os legisladores tomaram nota, e o Meta e o Openai estão sob escrutínio. No início deste mês, a Federal Commerce Fee pediu à Meta, Openai, Google e outras empresas de IA que entregassem informações sobre como suas tecnologias afetam as crianças, De acordo com a Bloomberg.
Ao mesmo tempo, o OpenAI ainda está sob uma ordem judicial que exige que protect os bate -papos de consumidores indefinidamente – um fato que a empresa está extremamente infeliz, de acordo com as fontes com quem falei. As notícias de hoje são um passo importante para proteger menores e um movimento de relações públicas experientes para reforçar a idéia de que as conversas com chatbots são tão pessoais que a privacidade do consumidor só deve ser violada nas circunstâncias mais extremas.
“Um avatar sexbot no chatgpt”
Das fontes com as quais falei no Openai, o ônus de proteger os usuários pesa muito em muitos pesquisadores. Eles querem criar uma experiência do usuário divertida e envolvente, mas pode rapidamente se tornar desastrosamente silcofântico. É positivo que empresas como o OpenAI estão tomando medidas para proteger menores. Ao mesmo tempo, na ausência de regulamentação federal, ainda não há nada forçando a essas empresas a fazer a coisa certa.
Em um recente Entrevista, Tucker Carlson pressionou Altman para responder exatamente Quem está tomando essas decisões que afetam o resto de nós. O chefe do OpenAI apontou para a equipe de comportamento do modelo, responsável por ajustar o modelo para certos atributos. “A pessoa que acho que você deve responsabilizar por essas ligações é eu”, acrescentou Altman. “Tipo, eu sou um rosto público. Eventualmente, como, eu sou eu quem pode anular uma dessas decisões ou nosso conselho.”