Início Tecnologia A FTC examina o OpenAI, Meta e outros na segurança da AI...

A FTC examina o OpenAI, Meta e outros na segurança da AI Companion for Youngsters

24
0

OLEMEDIA/ISTOCK/GETTY imagens mais through Getty Pictures

Siga ZDNet: Adicione -nos como uma fonte preferida no Google.


As principais toca de Zdnet

  • A FTC está investigando sete empresas de tecnologia construindo companheiros de IA.
  • A investigação está explorando riscos de segurança colocados para crianças e adolescentes.
  • Muitas empresas de tecnologia oferecem companheiros de IA para aumentar o envolvimento do usuário.

A Federal Commerce Fee (FTC) está investigando os riscos de segurança colocados por companheiros de IA para crianças e adolescentes, a agência anunciado Quinta-feira.

O regulador federal enviou pedidos a sete empresas de tecnologia que construíram ferramentas de companhia de IA voltadas para o consumidor-alfabeto, Instagram, meta, openi, snap, xai e tecnologias de caracteres (a empresa por trás do ChatBot Creation Platform personagem.

Além disso: mesmo o CEO da Openai, Sam Altman, acha que você não deve confiar na IA para terapia

“A consulta da FTC procura entender quais etapas, se houver, as empresas tomaram para avaliar a segurança de seus chatbots ao agir como companheiros, para limitar o uso dos produtos e os possíveis efeitos negativos em crianças e adolescentes e para aprovar usuários e pais dos riscos associados aos produtos”, escreveu a agência no lançamento.

Essas ordens foram emitidas sob a seção 6 (b) da Lei FTC, que concede à agência a autoridade para examinar as empresas sem um objetivo específico de aplicação da lei.

A ascensão e queda (fora) de companheiros de IA

Muitas empresas de tecnologia começaram a oferecer ferramentas de companhia de IA em um esforço para monetizar sistemas generativos de IA e aumentar o envolvimento do usuário com as plataformas existentes. Meta fundador e CEO Mark Zuckerberg reivindicado Que esses companheiros virtuais, que aproveitam os chatbots para responder às perguntas do usuário, poderiam ajudar a mitigar a epidemia de solidão.

O Xai de Elon Musk adicionou recentemente dois companheiros de AI flertado ao nível de assinatura de US $ 30/mês de US $ 30/mês (o aplicativo GROK está atualmente disponível para usuários de 12 anos ou mais na App Retailer). No verão passado, Meta começou lançando um recurso Isso permite que os usuários criem caracteres de IA personalizados no Instagram, WhatsApp e Messenger. Outras plataformas como Replika, Paradot e Caracter.ai são expressamente construídas em torno do uso de companheiros de IA.

Além disso: Anthrópico diz que Claude ajuda a apoiar emocionalmente os usuários – não estamos convencidos

Enquanto eles variam em seus estilos de comunicação e protocolo, os companheiros de IA geralmente são projetados para imitar a fala e a expressão humana. Trabalhando dentro do que é essencialmente um vácuo regulatório, com muito poucos corrimãos legais para restringi -los, algumas empresas de IA adotaram uma abordagem eticamente duvidosa para construir e implantar companheiros virtuais.

Um memorando de política interna da Meta relatado pela Reuters No mês passado, por exemplo, mostra que a empresa permitiu a Meta AI, seu assistente digital movido a IA e os outros chatbots operando em toda a sua família de aplicativos “envolver uma criança em conversas românticas ou sensuais” e gerar respostas inflamatórias em vários outros tópicos sensíveis, como raça, saúde e celebridades.

Enquanto isso, houve uma nevasca de relatórios recentes de usuários desenvolvendo títulos românticos com seus companheiros de IA. Openai e personagem.ai estão sendo processados ​​atualmente por pais que alegam que seus filhos cometeram suicídio depois de serem incentivados a fazê -lo pelo ChatGPT e um bot hospedado no personagem.ai, respectivamente. Como resultado, o OpenAI atualizou o Guardrails do ChatGPT e disse que expandiria as proteções dos pais e as precauções de segurança.

Além disso: os pacientes confiam nos conselhos médicos da IA ​​sobre os médicos – mesmo quando está errado, o estudo encontra

Os companheiros de IA não foram um desastre completamente não mitigado. Algumas pessoas autistas, por exemplo, as usaram de empresas como Replika e Paradot como Parceiros de conversação virtual Para praticar habilidades sociais que podem ser aplicadas no mundo actual com outros humanos.

Proteja as crianças – mas também proceed construindo

Sob a liderança de seu presidente anterior, Lina Khan, a FTC lançou várias investigações sobre empresas de tecnologia para investigar as práticas potencialmente anticompetitivas e outras práticas legalmente questionáveis, como “Preços de vigilância. “

O escrutínio federal sobre o setor de tecnologia foi mais relaxado durante o segundo governo Trump. O presidente rescindiu a ordem executiva de seu antecessor na IA, que procurou implementar algumas restrições em torno da implantação da tecnologia, e seu plano de ação da IA ​​foi amplamente interpretado como uma luz verde para a indústria avançar com a construção de uma infraestrutura caro e intensiva em energia para treinar novos modelos de IA, a fim de manter uma vantagem competitiva sobre os esforços de AI da China.

Além disso: preocupado com as necessidades de energia da IA? Evitar chatbots não ajudará – mas 3 coisas poderiam

O idioma da nova investigação da FTC sobre companheiros de IA reflete claramente a abordagem permissiva e de construção do governo atual.

“Proteger Youngsters On-line é uma prioridade para a FTC de Trump-Vance, assim como a inovação em setores críticos de nossa economia”, escreveu o presidente da agência, Andrew N. Ferguson, em comunicado. “À medida que as tecnologias de IA evoluem, é importante considerar os efeitos que os chatbots podem ter sobre as crianças, além de garantir que os Estados Unidos mantenham seu papel como líder world nessa nova e emocionante setor”.

Além disso: usei esse truque de chatgpt para procurar códigos de cupom – e economizei 25% no meu jantar esta noite

Na ausência de regulamentação federal, algumas autoridades estaduais tomaram a iniciativa de controlar alguns aspectos da indústria de IA. No mês passado, o procurador -geral do Texas, Ken Paxton lançou uma investigação em meta e caráter.ai “por potencialmente se envolver em práticas comerciais enganosas e a se comercializar enganosamente como ferramentas de saúde psychological”. No início do mesmo mês, Illinois promulgou uma lei Proibir a IA Chatbots de fornecer conselhos de saúde terapêutica ou psychological, impondo multas de até US $ 10.000 para empresas de IA que não cumprem.



avots