O projeto estabelece uma abordagem regulatória que exigiria que os provedores alertassem os usuários contra o uso excessivo e interviessem quando os usuários mostrassem sinais de dependência. [File]
| Crédito da foto: REUTERS
O regulador cibernético da China emitiu no sábado um projeto de regras para comentários públicos que reforçariam a supervisão dos serviços de inteligência synthetic projetados para simular personalidades humanas e envolver os usuários em interações emocionais.
A medida sublinha o esforço de Pequim para moldar a rápida implementação da IA voltada para o consumidor, reforçando os requisitos éticos e de segurança.
As regras propostas se aplicariam a produtos e serviços de IA oferecidos ao público na China que apresentam traços de personalidade humana simulados, padrões de pensamento e estilos de comunicação, e interagem emocionalmente com os usuários por meio de texto, imagens, áudio, vídeo ou outros meios.
O projeto estabelece uma abordagem regulatória que exigiria que os provedores alertassem os usuários contra o uso excessivo e interviessem quando os usuários mostrassem sinais de dependência.
De acordo com a proposta, os prestadores de serviços seriam obrigados a assumir responsabilidades de segurança durante todo o ciclo de vida do produto e estabelecer sistemas para revisão de algoritmos, segurança de dados e proteção de informações pessoais.
O projeto também visa potenciais riscos psicológicos. Espera-se que os prestadores identifiquem os estados dos utilizadores e avaliem as emoções dos utilizadores e o seu nível de dependência do serviço. Se for descoberto que os usuários exibem emoções extremas ou comportamento viciante, os provedores devem tomar as medidas necessárias para intervir, afirmou.
As medidas estabelecem conteúdos e estabelecem limites, afirmando que os serviços não devem gerar conteúdos que ponham em risco a segurança nacional, espalhem boatos ou promovam violência ou obscenidade.
Publicado – 29 de dezembro de 2025, 09h32 IST








