Início Tecnologia Anthropic quer ser a única empresa de IA na América de Trump

Anthropic quer ser a única empresa de IA na América de Trump

16
0

A Anthropic, a empresa de inteligência synthetic por trás do chatbot Claude, está tentando criar um lugar como o mocinho no espaço da IA. Recém ser a única grande empresa de IA a dar apoio atrás de uma conta de segurança da IA ​​na Califórnia, a empresa pegou uma manchete do semafor Graças à sua aparente recusa em permitir que seu modelo seja usado para tarefas de vigilância, o que está irritando o governo Trump.

Segundo o relatório, as agências policiais se sentiram sufocadas por Política de uso do Anthropicque inclui uma seção que restringe o uso de sua tecnologia para “justiça legal, censura, vigilância ou propósitos de aplicação da lei proibidos”. Isso inclui a proibição do uso de suas ferramentas de IA para “fazer determinações sobre aplicações de justiça legal”, “direcionar ou rastrear a localização física de uma pessoa, o estado emocional ou a comunicação sem o seu consentimento” e “analisar ou identificar conteúdo específico para censurar em nome de uma organização do governo”.

Esse tem sido um problema actual para as agências federais, incluindo o FBI, o Serviço Secreto e a Imigração e a Alfândega, por semafore criou tensões entre a empresa e o atual governo, apesar de antrópicos dar acesso ao governo federal ao seu chatbot de Claude e ao conjunto de ferramentas de IA para Apenas US $ 1. Segundo o relatório, a política da Anthropic é ampla, com menos escultores do que os concorrentes. Por exemplo, Política de uso do OpenAI restringe o “monitoramento não autorizado dos indivíduos”, que pode não descartar o uso da tecnologia para o monitoramento “authorized”.

O Openai não respondeu a um pedido de comentário.

Uma fonte familiarizada com o assunto explicou que Claude do Anthropic está sendo utilizado por agências para fins de segurança nacional, inclusive para segurança cibernética, mas a política de uso da empresa restringe os usos relacionados à vigilância doméstica.

Um representante para o antrópico disse que a empresa desenvolveu Claudegov Especificamente para a comunidade de inteligência, e o serviço recebeu “alta” autorização do Programa Federal de Gerenciamento de Risco e Autorização (FedRamp), permitindo seu uso com cargas de trabalho sensíveis ao governo. O representante disse que Claude está disponível para uso em toda a comunidade de inteligência.

Um funcionário do governo lamentado por Semafor Essa política do Antrópico faz um julgamento ethical sobre como as agências policiais fazem seu trabalho, que, como … com certeza? Mas também, é tanto uma questão authorized quanto ethical. Vivemos em um estado de vigilância, a aplicação da lei pode e tem Pessoas vigiadas sem mandados no passado e quase certamente continuará a fazê -lo no futuro.

Uma empresa optando por não participar disso, na medida em que resistir, está cobrindo sua própria bunda, tanto quanto está mantendo uma posição ética. Se o governo federal estiver irritado com o fato de a política de uso de uma empresa impedir que ele notice vigilância doméstica, talvez o principal argumento seja que o governo esteja realizando uma vigilância doméstica generalizada e tentando automatizá -lo com sistemas de IA.

De qualquer forma, a postura teoricamente de princípios da Anthropic é a mais recente em seu esforço para se posicionar como a empresa de IA razoável. No início deste mês, isso apoiou uma conta de segurança da IA ​​na Califórnia Isso exigiria que ele e outras grandes empresas de IA se submetessem a novos e mais rigorosos requisitos de segurança para garantir que os modelos não correm o risco de causar danos catastróficos. Antrópico foi o único participante importante no espaço da IA ​​para jogar seu peso por trás da conta, que aguarda a assinatura do governador Newsom (que pode ou não vir, como ele anteriormente veto uma conta semelhante). A empresa também está em DC, arremessando a rápida adoção de IA com o Guardrails (mas ênfase na parte rápida).

Sua posição como a empresa de IA fria talvez seja um pouco prejudicada pelo fato de pirateado Milhões de livros e trabalhos que costumavam treinar seu grande modelo de idioma, violando os direitos dos detentores de direitos autorais e deixando os autores altos e secos sem pagamento. Um acordo de US $ 1,5 bilhão alcançado no início deste mês colocará pelo menos algum dinheiro nos bolsos das pessoas que realmente criaram os trabalhos usados ​​para treinar o modelo. Enquanto isso, antropia period apenas avaliado em quase US $ 200 bilhões Em uma rodada recente de financiamento que fará com que a penalidade ordenada pelo tribunal em um erro de arredondamento.

avots