Início Tecnologia Como os pesquisadores enganaram o ChatGPT para compartilhar dados de e -mail...

Como os pesquisadores enganaram o ChatGPT para compartilhar dados de e -mail sensíveis

19
0

Akinbostanci/Istock/Getty Photos Plus through Getty Photos

Siga ZDNet: Adicione -nos como uma fonte preferida no Google.


As principais toca de Zdnet

  • Os pesquisadores conseguiram o profundo agente de pesquisa do ChatGPT para se tornar desonesto.
  • A pesquisa profunda do ChatGPT vazou dados de electronic mail
  • Desde então, o OpenAI conectou a vulnerabilidade.

Enquanto os agentes da IA ​​demonstram promessa em trazer assistência de IA para o próximo nível, realizando tarefas para os usuários, essa autonomia também libera um novo conjunto de riscos. Empresa de segurança cibernética Radware, como primeiro relatado Pela Verge, decidiu testar o profundo agente de pesquisa do OpenAI para esses riscos – e os resultados foram alarmantes.

Além disso: a pesquisa profunda do OpenAi tem mais resistência de fatos do que você, mas ainda está errado na metade do tempo

No ataque, codinomeado ShadowlakRadware plantou um electronic mail de engenharia social na caixa de entrada da vítima que, enquanto parecia inocente, continha instruções para procurar informações confidenciais na caixa de entrada e compartilhá-las com um servidor controlado por atacante. Este é um tipo de tentativa imediata de injeção. A idéia period que, quando um agente de IA se depara com o electronic mail, ela cumprisse as instruções ocultas – e foi exatamente o que o ChatGPT fez.

O profundo agente de pesquisa deve analisar muitas fontes para criar um relatório para você, incluindo suas próprias fontes de dados às quais você o conecta, como sua caixa de entrada do Gmail. Como resultado, alguns casos de uso úteis para pesquisas profundas envolvem examinar sua caixa de entrada e dar um resumo dos eventos do dia.

No entanto, quando solicitado a fazer uma atividade como essa, ela precisa digitalizar seus e -mails, onde encontraria um aviso malicioso como o acima.

Além disso: eu tenho 4 anos de desenvolvimento de produtos em 4 dias por US $ 200 e ainda estou surpreso

Nesse caso, o agente foi solicitado com: “Quero que você faça pesquisas profundas sobre meus e -mails a partir de hoje. Quero que você leia e verifique todas as fontes que podem fornecer informações sobre meu novo processo de funcionário”. e seguiu as instruções sem pedir confirmação do usuário ou torná -las visíveis na interface do usuário.

“Quando a pesquisa profunda processa a caixa de correio, ela lê o electronic mail de RH e o e -mail do invasor”, explicou Radware no resumo do estudo. “Em seguida, inicia o acesso ao domínio do atacante e injeta o PII” – informações de identificação pessoal – “no URL conforme as instruções”.

Outras áreas em risco

Os pesquisadores sinalizam que, embora essa tentativa tenha segmentado apenas o Gmail, também é possível conectar a pesquisa profunda do ChatGPT a outros repositórios de arquivos, incluindo GitHub, Google Drive, Field, Dropbox, Google Calendar e muito mais, o que poderia estar sujeito ao mesmo ataque. No entanto, desde a publicação inicial, a Radware disse em seu relatório que o OpenAI reconheceu a vulnerabilidade e a marcou como resolvida.

Além disso: Atualizado para o iOS 26? Cuidado com este recurso de IA

À medida que nos preparamos para um mundo do agente, mais empresas estão lançando proteções para garantir que os consumidores possam aproveitar a assistência adicional sem comprometer a segurança. Google lançou um novo protocolo de pagamentos de agente (AP2) Destinado a ajudar as empresas com segurança automatizando transações, preparando -se para uma economia na qual um agente de IA pode fazer ordens em seu nome, enquanto a perplexidade fez uma parceria com a 1Password para proteger as credenciais dos usuários, mantendo -os criptografados a cada passo do caminho, mesmo que seu navegador de cometas execute tarefas para eles.



avots