Início Tecnologia O ChatGPT verificará sua idade em breve, na tentativa de proteger usuários...

O ChatGPT verificará sua idade em breve, na tentativa de proteger usuários adolescentes

18
0

Elyse melhora o picaro / zdnet

Siga ZDNet: Adicione -nos como uma fonte preferida no Google.


As principais toca de Zdnet

  • O OpenAI adicionará a verificação de idade ao ChatGPT.
  • Os adolescentes terão mais medidas de segurança, comprometendo alguma liberdade.
  • Os adultos manterão a capacidade de usar o chatbot como desejarem.

Os usuários de chatbot estão cada vez mais confiando em ferramentas como o ChatGPT para questões sensíveis ou pessoais, incluindo problemas de saúde psychological. As consequências podem ser devastadoras: um garoto adolescente tirou a própria vida depois de passar horas conversando com o Chatgpt sobre suicídio. Em meio a um processo resultante e outras pressões crescentes, o OpenAI reavaliou as salvaguardas de seu chatbot com alterações que visam proteger os adolescentes, mas afetarão todos os usuários.

Além disso: como as pessoas realmente usam chatgpt vs claude – e o que as diferenças nos dizem

Em um blog Postado na terça -feira, o CEO da Openai, Sam Altman, explorou a complexidade de implementar uma estrutura de segurança adolescente enquanto adere aos princípios de sua empresa, que conflitam ao pesar liberdade, privacidade e segurança adolescente como objetivos individuais. O resultado é um modelo de previsão de nova period que tenta verificar a idade do usuário para garantir que os adolescentes tenham uma experiência mais segura – mesmo que isso signifique que os usuários adultos possam ter que provar que também têm mais de 18 anos.

Novas proteções para adolescentes, incluindo previsão de idade

Altman disse que o OpenAI está priorizando a segurança sobre a privacidade e a liberdade com medidas adicionais especificamente para adolescentes, principalmente construindo um sistema de presidência etária que estima a idade de um usuário com base em como eles usam o ChatGPT. O chatbot é destinado aos usuários de 13 anos ou mais, portanto, a primeira etapa da verificação será diferenciada entre usuários de 13 a 18 anos.

Além disso: o OpenAI possui um novo parceiro de codificação Agentic para você agora: GPT-5-Codex

Não está claro quando a empresa lançará a verificação da idade, mas está atualmente em andamento.

Em caso de dúvida, o ChatGPT inicializará os usuários para a experiência de menores de 18 anos e, em alguns casos e países, solicitará um ID. Altman reconhece que isso pode surgir como um compromisso de privacidade para os adultos, mas o vê como “uma troca digna”.

Na versão para adolescentes, o ChatGPT será treinado para não falar de flerte, mesmo se solicitado ou participar de uma discussão sobre suicídio em qualquer cenário. Se um usuário de menores de idade estiver tendo ideação suicida, o OpenAI tentará entrar em contato com os pais ou autoridades, se não estiver disponível. A empresa anunciou recentemente essas mudanças de políticas após um incidente em abril, no qual um adolescente que passou horas conversando com o Chatgpt sobre suicídio tirou a própria vida.

Para muitos, uma experiência very best para chatbot maximizaria a assistência e minimizaria as objeções, mantendo suas informações privadas e não se envolvendo com consultas prejudiciais no interesse da segurança. No entanto, como o weblog de Altman explorou, muitos desses objetivos estão em desacordo, tornando o chatgpt aperfeiçoador especialmente desafiador quando se trata de uso de adolescentes. As novas políticas são uma tentativa de impedir que tragédias semelhantes aconteçam com usuários de menores de idade, mesmo que reduza algumas experiências para outros usuários.

AI Chatbots, Privacidade e Questões de Segurança

As pessoas estão cada vez mais usando os chatbots da IA ​​para conversar sobre assuntos particulares ou sensíveis, pois podem agir como confidentes imparciais que podem ajudá -lo a entender tópicos difíceis, como um diagnóstico médico ou questão authorized ou apenas fornecer um ouvido auditivo. Em julho, Altman disse que as mesmas proteções de privacidade que se aplicam a um médico ou advogado devem se inscrever em uma conversa com a IA. A empresa está defendendo a referida proteção com os formuladores de políticas.

Além disso: FTC examina o OpenAI, Meta e outros na segurança da AI Companion for Children

Enquanto isso, Altman escreveu no weblog que o OpenAI está desenvolvendo “recursos avançados de segurança” destinados a manter as informações dos usuários privados, mesmo dos funcionários do OpenAI. Obviamente, ainda haveria algumas exceções, como quando os sistemas automatizados identificam uso indevido grave, incluindo uma ameaça à vida de alguém ou uma intenção de prejudicar os outros, o que exigiria uma revisão humana.

No whole, essas medidas seguem uma tendência maior de usuários que se voltam para o Chatgpt para problemas de saúde psychological ou como terapeuta. Embora o ChatGPT e outros chatbots generativos da IA ​​possam ser bons conversadores, eles não devem substituir um profissional médico e não têm a folga para fazê -lo. Uma Universidade de Stanford estudar Até descobriram que os terapeutas da IA ​​podem interpretar mal crises, fornecer respostas inadequadas e reforçar os preconceitos.

Ao mesmo tempo, a Federal Commerce Fee (FTC) está investigando companheiros de IA comercializados para usuários jovens e seus possíveis perigos.

Mantendo a liberdade do usuário

Altman também explorou como manter a liberdade, enfatizando o desejo da empresa de os usuários usarem suas ferramentas de IA da maneira que desejam, com “limites muito amplos de segurança”. Como resultado, a empresa continuou a atualizar as liberdades do usuário. Por exemplo, Altman diz que, embora o chatbot não seja construído para ser glamour, os usuários que desejam que ele sejam podem permitir essa característica.

Além disso: Anthrópico diz que Claude ajuda a apoiar emocionalmente os usuários – não estamos convencidos

Em casos mais drásticos, mesmo que o chatbot não deva não fazer instruções sobre como cometer suicídio, se um usuário adulto quiser que o ChatGPT descubra um suicídio para ajudar a escrever uma história fictícia, o modelo deve ajudar com a solicitação, de acordo com Altman.

“Trate nossos usuários adultos como adultos”, escreveu ele.



avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui