Esta foto tirada em 2 de fevereiro de 2024 mostra Lu Yu, chefe de gerenciamento de produtos e operações do Wantalk, um chatbot de inteligência synthetic criado pela empresa de tecnologia chinesa Baidu, mostrando o perfil de uma namorada digital em seu telefone, na sede do Baidu em Pequim.
Jade Gao | Afp | Imagens Getty
PEQUIM — A China planeja impedir que chatbots com inteligência synthetic influenciem as emoções humanas de maneiras que possam levar ao suicídio ou à automutilação, de acordo com projeto de regras lançado sábado.
O regulamentos propostos da Administração do Ciberespaço tem como alvo o que chama de “serviços de IA interativos semelhantes aos humanos”, de acordo com uma tradução da CNBC do documento em chinês.
As medidas, uma vez finalizadas, aplicar-se-ão a produtos ou serviços de IA oferecidos ao público na China que simulem a personalidade humana e envolvam emocionalmente os utilizadores através de texto, imagens, áudio ou vídeo. O período de comentários públicos termina em 25 de janeiro.
As regras planejadas por Pequim marcariam a primeira tentativa mundial de common a IA com características humanas ou antropomórficas, disse Winston Ma, professor adjunto da Faculdade de Direito da NYU. As últimas propostas surgem no momento em que as empresas chinesas desenvolvem rapidamente companheiros de IA e celebridades digitais.
Em comparação com a regulamentação de IA generativa da China em 2023, Ma disse que esta versão “destaca um salto da segurança do conteúdo para a segurança emocional”.
O projeto de regras propõe que:
- Os chatbots de IA não podem gerar conteúdo que incentive o suicídio ou a automutilação, nem se envolver em violência verbal ou manipulação emocional que prejudique a saúde psychological dos usuários.
- Se um usuário propor especificamente o suicídio, os fornecedores de tecnologia deverão ter um humano assumindo a conversa e entrar em contato imediatamente com o responsável do usuário ou com um indivíduo designado.
- Os chatbots de IA não devem gerar conteúdo relacionado a jogos de azar, obsceno ou violento.
- Os menores devem ter o consentimento do responsável para usar IA para companheirismo emocional, com limites de tempo de uso.
- As plataformas devem ser capazes de determinar se um utilizador é menor, mesmo que este não revele a sua idade, e, em caso de dúvida, aplicar configurações para menores, permitindo ao mesmo tempo recursos.
Disposições adicionais exigiriam que os fornecedores de tecnologia lembrassem os utilizadores após duas horas de interação contínua com IA e obrigassem a avaliações de segurança para chatbots de IA com mais de 1 milhão de utilizadores registados ou mais de 100.000 utilizadores ativos mensais.
O documento também incentivou o uso de IA semelhante à humana na “divulgação cultural e no companheirismo dos idosos”.
IPOs de chatbot de IA chinês
A proposta surge emblem após duas startups chinesas líderes de chatbot de IA, Z.ai e Minimax, entrou com pedido de oferta pública inicial em Hong Kong este mês.
A Minimax é mais conhecida internacionalmente por seu aplicativo Talkie AI, que permite aos usuários conversar com personagens virtuais. O aplicativo e sua versão doméstica chinesa, Xingye, representaram mais de um terço da receita da empresa nos três primeiros trimestres do ano, com uma média de mais de 20 milhões de usuários ativos mensais durante esse tempo.
Z.ai, também conhecido como Zhipu, arquivado com o nome “Tecnologia Atlas do Conhecimento.” Embora a empresa não tenha divulgado usuários ativos mensais, ela observou que sua tecnologia “capacitaram” cerca de 80 milhões dispositivos, incluindo smartphones, computadores pessoais e veículos inteligentes.
Nenhuma das empresas respondeu ao pedido da CNBC para comentários sobre como as regras propostas poderiam afetar seus planos de IPO.










