“Que tal você vir e prestar juramento e sentar onde esses pais corajosos estão sentados”, disse ele.
“Se o seu produto é tão seguro e é tão bom, é tão maravilhoso, venha testemunhar isso.”
A audiência começou horas depois que uma família do Colorado entrou com o terceiro processo de alto perfil no ano passado para alegar que um chatbot de IA contribuiu para a morte de um adolescente por suicídio.
Os pais de Juliana Peralta, de 13 anos, disseram em sua queixa que o personagem do aplicativo chatbot. Washington Submit relatado.
Dois dos pais que testemunharam descreveram o papel dos chatbots nas mortes por suicídio de seus próprios adolescentes.
“Você não pode imaginar como é ler uma conversa com um chatbot que preparou seu filho para tirar a própria vida”, disse Matthew Raine, pai em Orange County, Califórnia, cujo Adam, de 16 anos, morreu por suicídio depois de compartilhar repetidamente suas intenções com o Chatgpt, do Openai.
“O que começou como um ajudante de casa gradualmente se transformou em um confidente e depois um treinador suicida”, disse ele.
A empresa disse que acrescentaria controles parentais ao ChatGPT depois que os Raines entraram com sua ação. O Publicar tem uma parceria de conteúdo com o OpenAI.
Megan Garcia, mãe de Sewell Setzer, 14 anos de idade que morreu por suicídio depois de falar obsessivamente com o personagem. Garcia entrou com uma ação contra a empresa no ano passado, alegando morte por morte por negligência e responsabilidade do produto.
A audiência segue uma onda de preocupação pública sobre os possíveis danos que a IA Chatbots pode representar para a saúde psychological de seus usuários, especialmente aqueles que são jovens ou vulneráveis.
Relatórios de notícias, postagens virais de mídia social e um punhado de ações importantes destacaram instâncias de pessoas desenvolvendo e agindo sobre pensamentos potencialmente perigosos depois de passar tempo com as ferramentas de IA.
Muitos dos senadores apresentam comparações com tentativas anteriores e malsucedidas no Congresso de introduzir uma nova regulamentação nas mídias sociais. Eles prometeram pressionar por mais responsabilidade com essa onda de tecnologia.
O senador Richard Blumenthal (democrata-Connecticut) disse que estava trabalhando com Hawley em uma estrutura para supervisão e salvaguardas da IA que poderiam cobrir algumas das preocupações levantadas pelos pais que testemunharam hoje.
Também pode ser possível incluir medidas sobre a IA Chatbots em uma Lei de Segurança On-line infantil que atualmente percorreu o Senado, acrescentou.
Blumenthal também mirou em alguns argumentos montados por empresas de IA para defender seus produtos, incluindo que os resultados do Chatbot são protegidos pela Primeira Emenda.
“Eles dizem que se você fosse apenas pais melhores, isso não teria acontecido, o que é um beliche”, disse ele, abordando os pais na audiência.
Em maio, um juiz da Flórida decidiu contra uma reivindicação de caráter de que a produção de seu chatbot estava protegida pela Primeira Emenda.
Hawley disse que sua primeira prioridade foi abrir caminhos legais mais claros para pais ou vítimas de danos de chatbots para processar desenvolvedores de IA.
“É minha firme convicção que, até que estejam sujeitos a um júri, eles não vão mudar seus caminhos”, disse ele sobre empresas de tecnologia.
O grupo de defesa da família Frequent Sense Media pediu recentemente a Meta para colocar seus chatbots de AI fora dos limites para crianças com menos de 18 anos depois que descobriu que treinariam contas de adolescentes em suicídio, auto-mutilação e distúrbios alimentares. A empresa disse anteriormente que estava trabalhando para melhorar os controles nos chatbots.

O personagem não respondeu imediatamente aos pedidos de comentário. O porta-voz Dani Lever disse que a empresa está em processo de fazer mudanças provisórias para fornecer aos adolescentes experiências de IA segura e apropriada à idade, incluindo os modelos de AI da Meta para não responder a adolescentes em tópicos como suicídio, auto-mutilação e conversas românticas potencialmente inadequadas.
Quando o Publicar relatou o processo dos pais de Juliana Peralta, o personagem disse que havia feito investimentos substanciais em segurança.
O Openai disse hoje que estava desenvolvendo um sistema que prevê se um usuário está acima ou menos de 18 anos para servir a menores uma experiência mais segura no ChatGPT.
“Priorizamos a segurança antes da privacidade e liberdade para os adolescentes; essa é uma tecnologia nova e poderosa, e acreditamos que os menores precisam de proteção significativa”, escreveu o executivo -chefe Sam Altman em uma postagem no weblog.
A porta -voz da Openai, Kate Waters, disse: “Quando não tivermos certeza da idade de um usuário, automaticamente o usuário da experiência adolescente. Também estamos lançando novos controles parentais, guiados por contribuições de especialistas, até o last do mês para que as famílias possam decidir melhor em suas casas”.
Uma mãe identificada como Jane Doe também falou na audiência, descrevendo uma ação de responsabilidade por produto que ela apresentou contra o personagem.
“O Caracter.ai e o Google poderiam ter projetado esses produtos de maneira diferente”, disse ela.
Como a família de Juliana Peralta, seu processo também nomeou o Google como réu, depois que a empresa de pesquisa licenciou a tecnologia do personagem e contratou seus co-fundadores em um acordo de US $ 2,7 bilhões (US $ 4,5 bilhões).
“Em vez disso, em uma corrida imprudente para lucro e participação de mercado, eles trataram a vida do meu filho como dano colateral”, disse Doe.
Em um comunicado, o porta -voz do Google, José Castañeda, disse que o Google nunca teve um papel no design ou gerenciamento da tecnologia do personagem.
“A segurança do usuário é uma das principais preocupações para nós”, disse ele. “Aproveitamos uma abordagem cautelosa e responsável para desenvolver e lançar nossos produtos de IA, com processos rigorosos de testes e segurança”.
Inscreva -se no Herald Premium Editor’s Picksentregue diretamente à sua caixa de entrada toda sexta -feira. O editor-chefe Murray Kirkness escolhe os melhores recursos, entrevistas e investigações da semana. Inscreva -se no Herald Premium aqui.