Início Tecnologia Openai quer que você show que você não é criança

Openai quer que você show que você não é criança

9
0

Se você estiver cheio de muita maravilha infantil, poderá ser relegado a uma versão mais adequada para crianças do ChatGPT. Openai anunciado Terça-feira que planeja implementar um sistema de verificação de nova period que ajudará a filtrar os usuários de menores de idade em uma nova experiência de chatbot que é mais apropriada para a idade. A mudança ocorre quando a empresa enfrenta um escrutínio aumentado de legisladores e reguladores sobre Como os usuários de menores de idade interagem com seu chatbot.

Para determinar a idade de um usuário, o OpenAI usará um sistema de previsão de idade que tenta estimar quantos anos um usuário é baseado em como eles interagem com o chatgpt. A empresa disse que, quando acredita que um usuário tem menos de 18 anos, ou quando não pode fazer uma determinação clara, ele os filtra em uma experiência projetada para usuários mais jovens. Para os usuários que são colocados na experiência de idade de idade quando têm mais de 18 anos, terão que fornecer uma forma de identificação para provar sua idade. E acesse a versão completa do chatgpt.

De acordo com a empresaessa versão do chatbot bloqueará o “conteúdo sexual gráfico” e não responderá em conversas glamourosas ou sexualmente explícitas. Se um usuário de menores de 18 anos estiver expressando angústia ou ideação suicida, tentará entrar em contato com os pais dos usuários e poderá entrar em contato com as autoridades se houver preocupações de “danos iminentes”. De acordo com o Openaisua experiência para adolescentes prioriza “segurança antes da privacidade e liberdade”.

O Openai ofereceu dois exemplos de como delineia essas experiências:

Por exemplo, o comportamento padrão do nosso modelo não levará a uma conversa flerta, mas se um usuário adulto pedir, deve obtê -lo. Para um exemplo muito mais difícil, o modelo por padrão não deve fornecer instruções sobre como cometer suicídio, mas se um usuário adulto estiver pedindo ajuda para escrever uma história fictícia que descreva um suicídio, o modelo deve ajudar nessa solicitação. “Tratar nossos usuários adultos como adultos” é como falamos sobre isso internamente, ampliando a liberdade o máximo possível sem causar danos ou prejudicar a liberdade de outra pessoa.

Openai é atualmente o sujeito de um processo por morte por negligência Arquivado pelos pais de um garoto de 16 anos que tirou a própria vida depois de expressar pensamentos suicidas para conversar. Ao longo da conversa da criança com o chatbot, ele compartilhou evidências de auto-mutilação e expressou planos de tentar suicídio-nenhum dos quais a plataforma sinalizou ou elevou de uma maneira que poderia levar à intervenção. Pesquisadores descobriram Que chatbots como o ChatGPT podem ser solicitados pelos usuários para obter conselhos sobre como se envolver em auto-mutilação ou tirar a própria vida. No início deste mês, a Comissão Federal de Comércio informações solicitadas Do Openai e outras empresas de tecnologia sobre como seus chatbots afetam crianças e adolescentes.

A mudança faz do OpenAI a mais recente empresa a entrar na tendência de verificação etária, que varreu a Web este ano – divulgada pela decisão da Suprema Corte de que uma lei do Texas que exige que os websites pornográficos verifiquem a idade de seus usuários period constitucional e, com a exigência do Reino Unido que as plataformas on -line verifiquem a idade dos usuários. Embora algumas empresas tenham determinado que os usuários enviem uma forma de ID para provar sua idade, plataformas como o YouTube também optaram por métodos de previsão de idade como o OpenAI, um método que foi criticado como imprecisa e repugnante.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui