Início Tecnologia Esse novo recurso de Claude ‘pode colocar seus dados em risco’ ‘,...

Esse novo recurso de Claude ‘pode colocar seus dados em risco’ ‘, antrópico admite

17
0

Ekaterina Goncharova/Second by way of Getty Pictures

Siga ZDNet: Adicione -nos como uma fonte preferida no Google.


As principais toca de Zdnet

  • Claude AI agora pode criar e editar documentos e outros arquivos.
  • O recurso pode comprometer seus dados sensíveis.
  • Monitore cada interação com a IA quanto a comportamento suspeito.

Os serviços de IA generativos mais populares podem trabalhar com seus próprios dados e arquivos pessoais ou relacionados ao trabalho. A vantagem? Isso pode economizar tempo e trabalho, seja em casa ou no trabalho. A desvantagem? Com acesso a informações sensíveis ou confidenciais, a IA pode ser levada a compartilhar esses dados com as pessoas erradas.

Além disso: Claude pode criar PDFs, slides e planilhas para você agora no chat

O exemplo mais recente é o Claude AI do Anthropic. Na terça -feira, a empresa anunciou que agora sua IA pode criar e editar documentos de palavras, planilhas do Excel, slides do PowerPoint e PDFs diretamente no Site de Claude e nos aplicativos de desktop para Home windows e MacOS. Simplesmente descreva o que você deseja no immediate, e Claude, esperançosamente, entregará os resultados desejados.

Por enquanto, o recurso está disponível apenas para Claude MaxEquipes e assinantes corporativos. No entanto, a Anthrópica disse que estará disponível para usuários profissionais nas próximas semanas. Para acessar o novo recurso de criação de arquivos, acesse as configurações e selecione a opção para “criação e análise de arquivos atualizada” na categoria experimental.

Avertências antrópicas dos riscos

Parece uma habilidade útil, certo? Mas antes de mergulhar, esteja ciente de que existem riscos envolvidos nesse tipo de interação. Em seu Comunicado à imprensa de terça -feiraaté a antropia reconheceu que “o recurso oferece ao Claude Web acesso para criar e analisar arquivos, o que pode colocar seus dados em risco”.

Além disso: os agentes da IA ​​ameaçarão os seres humanos para alcançar seus objetivos, encontra um relatório antrópico

Sobre uma página de suportea empresa investigou mais profundamente os riscos potenciais. Construído com alguma segurança em mente, o recurso fornece a Claude um ambiente de caixa de areia que possui acesso limitado à Web para que possa baixar e usar pacotes JavaScript para o processo.

Mas, mesmo com esse acesso limitado à Web, um invasor pode usar injeção imediata e outros truques para adicionar instruções através de arquivos ou websites externos que enganam Claude a executar código malicioso ou ler dados sensíveis a partir de uma fonte conectada. A partir daí, o código pode ser programado para usar o ambiente da caixa de areia para conectar -se a uma rede externa e vazar dados.

Que proteção está disponível?

Como você pode se proteger e seus dados desse tipo de compromisso? O único conselho que oferece é monitorar Claude enquanto você trabalha com o recurso de criação de arquivos. Se você notar usando ou acessar os dados inesperadamente, pare -os. Você também pode relatar problemas usando a opção de polegar para baixo.

Além disso: os dias gratuitos de raspagem da internet da IA ​​podem ter terminado, graças a este novo protocolo de licenciamento

Bem, isso não parece muito útil, pois coloca o ônus do usuário para observar ataques maliciosos ou suspeitos. Mas isso é par para o curso para a indústria generativa de IA neste momento. A injeção imediata é uma maneira acquainted e infame para os invasores inserirem código malicioso em um immediate de IA, dando -lhes a capacidade de comprometer dados sensíveis. No entanto, os provedores de IA demoraram a combater essas ameaças, colocando os usuários em risco.

Na tentativa de combater as ameaças, o Antrópico descreveu vários recursos para usuários de Claude.

  • Você tem controle whole sobre o recurso de criação de arquivos, para ativá -lo e desligar a qualquer momento.
  • Você pode monitorar o progresso de Claude enquanto estiver usando o recurso e interromper suas ações sempre que quiser.
  • Você pode revisar e auditar as ações tomadas por Claude no ambiente da caixa de areia.
  • Você pode desativar o compartilhamento público de conversas que incluem qualquer informação do recurso.
  • Você pode limitar a duração de quaisquer tarefas realizadas por Claude e a quantidade de tempo alocado a um único contêiner de caixa de areia. Fazer isso pode ajudá -lo a evitar loops que possam indicar atividades maliciosas.
  • Os recursos de rede, contêiner e armazenamento são limitados.
  • Você pode configurar regras ou filtros para detectar ataques rápidos de injeção e detê -los se forem detectados.

Além disso: Microsoft torneia antropal para a IA em Phrase e Excel, Sinalizando a distância do OpenAI

Talvez o recurso não seja para você

“Realizamos testes de time vermelho e segurança no recurso”, disse a Anthrópica em seu lançamento. “Temos um processo contínuo para testes de segurança contínuos e tensões vermelhas desse recurso. Incentivamos as organizações a avaliar essas proteções contra seus requisitos de segurança específicos ao decidir se deve permitir esse recurso”.

Essa frase closing pode ser o melhor conselho de todos. Se sua empresa ou organização configurar a criação de arquivos de Claude, você deve avaliá -la contra suas próprias defesas de segurança e ver se ela passa. Caso contrário, talvez o recurso não seja para você. Os desafios podem ser ainda maiores para os usuários domésticos. Em geral, evite compartilhar dados pessoais ou confidenciais em suas solicitações ou conversas, cuidado com o comportamento incomum da IA ​​e atualize o software program de IA regularmente.



avots