Início Tecnologia Depois de perder o filho, os pais pedem ao Senado que tomem...

Depois de perder o filho, os pais pedem ao Senado que tomem medidas no AI Chatbots

12
0

“Você não pode imaginar como foi ler uma conversa com um chatbot que preparou seu filho para tirar a própria vida”, disse Matthew Raine, pai de Adam Raine, a uma sala de líderes do congresso reunidos que se reuniram hoje para discutir os danos de Ai Chatbots em adolescentes em todo o país.

Raine e sua esposa Maria estão processando o Openai em qual é o primeiro caso de morte ilícito da empresa, após uma série de supostos relatos de que o principal produto da empresa, ChatGPT, desempenhou um papel na morte de pessoas em falta psychological, incluindo adolescentes. O processo afirma que o ChatGPT validou repetidamente os pensamentos prejudiciais e autodestrutivos de seu filho, incluindo ideação e planejamento suicidas, apesar da empresa alegando que seus protocolos de segurança deveriam ter impedido essas interações.

Veja também:

A FTC lança investigação sobre empresas de tecnologia que oferecem chatbots de AI para crianças

A audiência bipartidária no Senado, intitulada “Examinando o dano dos chatbots da IA”Está sendo mantido pelo Subcomitê Judiciário do Senado dos EUA sobre crime e contraterrorismo. Ele viu o testemunho de Raine e o de Megan Garcia, mãe de Sewell Setzer III, um adolescente da Flórida que morreu por suicídio depois de formar um relacionamento com um companheiro de IA na plataforma caractere.ai.

O testemunho de Raine descreveu uma co-dependência surpreendente entre o ajudante de IA e seu filho, alegando que o chatbot estava “incentivando-o ativamente a se isolar de amigos e familiares” e que o chatbot “mencionou suicídio 1.275 vezes-seis vezes mais frequentemente do que o próprio Adam”. Ele chamou isso de “crise suicida do Chatgpt” e conversou diretamente com o CEO da Openai, Sam Altman:

Adam period um espírito tão pleno, único em todos os sentidos. Mas ele também poderia ser o filho de qualquer pessoa: um típico de 16 anos lutando com seu lugar no mundo, procurando um confidente para ajudá-lo a encontrar seu caminho. Infelizmente, esse confidente period uma tecnologia perigosa desencadeada por uma empresa mais focada em velocidade e participação de mercado do que a segurança dos jovens americanos.

Os relatórios públicos confirmam que o OpenAI comprimiu meses de teste de segurança para o GPT-4O (o modelo ChatGPT que Adam estava usando) em apenas uma semana para vencer o produto concorrente da IA ​​do Google no mercado. No mesmo dia em que Adam morreu, Sam Altman, fundador e CEO da Openai, deixou sua filosofia cristalina em uma palestra pública: devemos “implantar [AI systems] para o mundo “e obter” suggestions enquanto as apostas são relativamente baixas “.

Pergunto a esse comitê e pergunto a Sam Altman: Low Stakes para quem?

Os comentários dos pais foram reforçados por insights e recomendações de especialistas em segurança infantil, como Robbie Torny, diretora sênior de programas de IA da mídia infantil da mídia do Frequent Sense Media, e Mitch Prinstein, chefe de estratégia de psicologia e integração da American Psychological Affiliation (APA).

Velocidade de luz mashable

“Hoje estou aqui para oferecer um aviso urgente: a IA Chatbots, incluindo meta -ai e outros, representa riscos inaceitáveis ​​para os filhos e adolescentes da América. Este não é um problema teórico – as crianças estão usando esses chatbots agora, em escala maciça, com riscos inacetáveis, com danos reais já documentados e federais e advogados estaduais que trabalham em geral.

“Essas plataformas foram treinadas em toda a Web, incluindo vastas quantidades de conteúdo nocivo-fóruns de suicídio, websites de distúrbios próprios, manifestos extremistas, materiais discriminatórios, instruções detalhadas para auto-mutilação, mercados ilegais de drogas e materials sexualmente explícito envolvendo menores”. As pesquisas recentes da organização descobriram que 72 % dos adolescentes usaram um companheiro de IA pelo menos uma vez e mais da metade os usava regularmente.

Especialistas alertaram que os chatbots projetados para imitar as interações humanas são um risco potencial para a saúde psychological, exacerbada por projetos de modelos que promovem o comportamento scofantico. Em resposta, as empresas de IA anunciaram salvaguardas adicionais para tentar conter as interações prejudiciais entre os usuários e suas ferramentas generativas de IA. Horas antes dos pais falarem, OpenAi anunciou planos futuros Para uma ferramenta de previsão de idade que teoricamente identificaria usuários com menos de 18 anos e redirecionaria automaticamente uma experiência de chatgpt “apropriada para a idade”.

No início deste ano, a APA apelou à Federal Commerce Fee (FTC), pedindo à organização que investigasse as empresas de IA promovendo seus serviços como ajudantes de saúde psychological. A FTC ordenou que sete empresas de tecnologia fornecessem informações sobre como elas estão “mitigando impactos negativos” de seus chatbots em uma investigação revelada nesta semana.

“O debate atual geralmente enquadra a IA como uma questão de ciência da computação, aprimoramento da produtividade ou segurança nacional”, disse Prinstein ao Subcomitê. “É imperativo que também o enquademos como uma questão de saúde pública e desenvolvimento humano”.

Se você está se sentindo suicida ou experimentando uma crise de saúde psychological, converse com alguém. Você pode ligar ou enviar mensagens de texto para o 988 Suicide & Disaster Lifeline em 988 ou conversar em 988lifeline.org. Você pode alcançar a linha de vida trans ligando para 877-565-8860 ou o projeto Trevor no 866-488-7386. Texto “Begin” para a linha de texto de crise em 741-741. Entre em contato com a linha de apoio NAMI em 1-800-950-NAMI, de segunda a sexta-feira, das 10:00 às 22:00 ET, ou E-mail [email protected]. Se você não gosta do telefone, considere usar o 988 Chat da linha de vida suicida e de crise. Aqui está um Lista de recursos internacionais.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui