Início Tecnologia Scott Wiener em sua luta para fazer Large Tech revelar os perigos...

Scott Wiener em sua luta para fazer Large Tech revelar os perigos de Ai

15
0

Esta não é a primeira tentativa do senador estadual da Califórnia, Scott Wiener, de abordar os perigos da IA.

Em 2024, o Vale do Silício montou uma campanha feroz contra sua controversa lei de segurança de IA, o SB 1047, o que tornaria as empresas de tecnologia responsáveis ​​pelos possíveis danos de seus sistemas de IA. Os líderes de tecnologia alertaram que isso sufocaria o growth da AI da América. O governador Gavin Newsom finalmente vetou a conta, ecoando preocupações semelhantes, e uma common casa de hackers da AI prontamente jogou uma “festa do veto SB 1047”. Um participante me disse: “Graças a Deus, ai ainda é authorized”.

Agora, Wiener retornou com uma nova conta de segurança da IA, SB 53, que fica na mesa do governador Newsom, aguardando sua assinatura ou veto em algum momento nas próximas semanas. Desta vez, o projeto é muito mais common ou, pelo menos, o Vale do Silício não parece estar em guerra com ela.

Antrópico endossou o SB 53 no início deste mês. O porta -voz da Meta Jim Cullinan diz ao TechCrunch que a empresa apóia o regulamento da IA ​​que equilibra o guarda -cor de inovação e diz que “o SB 53 é um passo nessa direção”, embora existam áreas de melhoria.

O ex -consultor de políticas da AI da Casa Branca, Dean Ball, diz ao TechCrunch que o SB 53 é uma “vitória por vozes razoáveis” e acha que há uma forte likelihood de o governador Newsom assina.

Se assinado, o SB 53 imporia alguns dos primeiros requisitos de relatórios de segurança do país em gigantes da IA ​​como Openai, Anthropic, Xai e Google – empresas que hoje não têm obrigação de revelar como testam seus sistemas de IA. Muitos laboratórios de IA publicam voluntariamente relatórios de segurança explicando como seus modelos de IA podem ser usados ​​para criar biológicos e outros perigos, mas eles fazem isso à vontade e nem sempre são consistentes.

O conta Requer os principais laboratórios de IA – especificamente aqueles que ganham mais de US $ 500 milhões em receita – para publicar relatórios de segurança para seus modelos de IA mais capazes. Assim como o SB 1047, o projeto de lei se concentra especificamente nos piores tipos de riscos de IA: sua capacidade de contribuir com mortes humanas, ataques cibernéticos e armas químicas. O governador Newsom está considerando vários outros projetos de lei que abordam outros tipos de riscos de IA, como técnicas de otimização de engajamento em companheiros de IA.

Evento do TechCrunch

São Francisco
|
27-29 de outubro de 2025

O SB 53 também cria canais protegidos para os funcionários que trabalham na AI Labs para relatar preocupações de segurança aos funcionários do governo e estabelece um cluster de computação em nuvem operado pelo estado, Calcompute, para fornecer recursos de pesquisa de IA além das grandes empresas de tecnologia.

Uma razão pela qual o SB 53 pode ser mais common que o SB 1047 é que é menos severo. O SB 1047 também teria twister as empresas de IA responsáveis ​​por quaisquer danos causados ​​por seus modelos de IA, enquanto o SB 53 se concentra mais em exigir autorrelato e transparência. O SB 53 também se aplica por pouco às maiores empresas de tecnologia do mundo, em vez de startups.

Mas muitos na indústria de tecnologia ainda acreditam que os estados devem deixar o regulamento da IA ​​para o governo federal. Em um carta recente Para o governador Newsom, o Openai argumentou que os laboratórios de IA deveriam ter que cumprir os padrões federais – o que é uma coisa engraçada a dizer a um governador do estado. A empresa de risco Andreessen Horowitz escreveu um recente Postagem do blog sugerindo vagamente que alguns projetos de lei na Califórnia poderiam violar a cláusula de comércio adormecida da Constituição, que proíbe os estados de limitar injustamente o comércio interestadual.

O senador Wiener aborda essas preocupações: ele não tem fé no governo federal para aprovar uma regulamentação significativa de segurança da IA; portanto, os estados precisam intensificar. De fato, Wiener acha que o governo Trump foi capturado pela indústria de tecnologia e que os recentes esforços federais para bloquear todas as leis estaduais da IA ​​são uma forma de Trump “recompensando seus financiadores”.

O governo Trump fez uma mudança notável para longe do foco do governo Biden na segurança da IA, substituindo -o por ênfase no crescimento. Brand após assumir o cargo, o vice -presidente JD Vance apareceu em um Conferência da IA em Paris e disse: “Não estou aqui esta manhã para falar sobre a segurança da IA, que foi o título da conferência há alguns anos. Estou aqui para falar sobre a oportunidade da IA”.

O Vale do Silício aplaudiu essa mudança, exemplificada pelo Plano de Ação da AI de Trump, que removeu barreiras à construção da infraestrutura necessária para treinar e servir os modelos de IA. Hoje, os grandes CEOs de tecnologia são vistos regularmente Jantar na Casa Branca ou anunciando centers de data de cem bilhões de dólares ao lado do presidente Trump.

O senador Wiener acha crítico para a Califórnia liderar o país na segurança da IA, mas sem sufocar a inovação.

Recentemente, entrevistei o senador Wiener para discutir seus anos na mesa de negociações com o Vale do Silício e por que ele está tão focado nas contas de segurança da IA. Nossa conversa foi editada levemente para clareza e brevidade. Minhas perguntas estão em negrito e suas respostas não são.

Maxwell Zeff: Senador Wiener, entrevistei você quando o SB 1047 estava sentado na mesa do governador Newsom. Fale comigo sobre a jornada em que você está regulam a segurança da IA ​​nos últimos anos.

Scott Wiener: Tem sido uma montanha -russa, uma experiência de aprendizado incrível e realmente gratificante. Conseguimos ajudar a elevar este problema [of AI safety]não apenas na Califórnia, mas no discurso nacional e internacional.

Temos essa nova tecnologia incrivelmente poderosa que está mudando o mundo. Como garantimos que isso beneficie a humanidade de uma maneira em que reduzimos o risco? Como promovemos a inovação, além de estarmos atentos à saúde pública e segurança pública. É uma conversa importante – e, de certa forma, existencial – sobre o futuro. O SB 1047 e agora o SB 53 ajudaram a promover essa conversa sobre inovação segura.

Nos últimos 20 anos de tecnologia, o que você aprendeu sobre a importância das leis que podem responsabilizar o Vale do Silício?

Eu sou o cara que representa São Francisco, o coração espancado da inovação da IA. Estou imediatamente ao norte do próprio Vale do Silício, então estamos bem aqui no meio de tudo. Mas também vimos como as grandes empresas de tecnologia – algumas das empresas mais ricas da história do mundo – foram capazes de interromper a regulamentação federal.

Toda vez que vejo CEOs de tecnologia jantando na Casa Branca com o aspirante a ditador fascista, tenho que respirar fundo. Todas essas são pessoas realmente brilhantes que geraram enorme riqueza. Muitas pessoas eu represento o trabalho para elas. Realmente me machuca quando vejo os acordos que estão sendo feitos com a Arábia Saudita e os Emirados Árabes Unidos, e como esse dinheiro é canalizado para a moeda de meme de Trump. Isso me causa profunda preocupação.

Eu não sou alguém que é anti-Tech. Eu quero que a inovação tecnológica aconteça. É incrivelmente importante. Mas esta é uma indústria em que não devemos confiar para se regulamentar ou assumir compromissos voluntários. E isso não está lançando aspersões em ninguém. Isso é o capitalismo, e pode criar enorme prosperidade, mas também causar danos se não houver regulamentos sensatos para proteger o interesse público. Quando se trata de segurança da IA, estamos tentando enfiar a agulha.

O SB 53 está focado nos piores danos que a IA poderia imaginar imaginar – morte, ataques cibernéticos maciços e a criação de biológicas. Por que se concentrar lá?

Os riscos da IA ​​são variados. Há discriminação algorítmica, perda de emprego, falsões profundas e golpes. Houve várias contas na Califórnia e em outros lugares para abordar esses riscos. O SB 53 nunca se destinou a cobrir o campo e abordar todos os riscos criados pela IA. Estamos focados em uma categoria específica de risco, em termos de risco catastrófico.

Essa questão me veio organicamente de pessoas no espaço da IA ​​em São Francisco – fundadores de startups, tecnólogos da IA ​​da linha de frente e pessoas que estão construindo esses modelos. Eles vieram a mim e disseram: ‘Este é um problema que precisa ser abordado de uma maneira atenciosa’.

Você acha que os sistemas de IA são inerentemente inseguros ou têm o potencial de causar morte e ataques cibernéticos maciços?

Eu não acho que eles sejam inerentemente seguros. Eu sei que há muitas pessoas trabalhando nesses laboratórios que se preocupam profundamente em tentar mitigar o risco. E novamente, não se trata de eliminar o risco. A vida é sobre risco, a menos que você viva no seu porão e nunca saia, você terá risco em sua vida. Mesmo no seu porão, o teto pode cair.

Existe o risco de que alguns modelos de IA possam ser usados ​​para causar danos significativos à sociedade? Sim, e sabemos que existem pessoas que gostariam de fazer isso. Devemos tentar dificultar os maus atores causarem esses danos graves, assim como as pessoas que desenvolvem esses modelos.

A Antrópica emitiu seu apoio ao SB 53. Como são suas conversas com outros gamers do setor?

Conversamos com todos: grandes empresas, pequenas startups, investidores e acadêmicos. Antrópico tem sido realmente construtivo. No ano passado, eles nunca apoiaram formalmente [SB 1047] Mas eles tinham coisas positivas a dizer sobre aspectos da conta. Eu não acho que[antropic}amatodososaspectosdoSB53masachoqueelesconcluíramquenoequilíbriovaleapenaapoiaroprojeto[Anthropic}loveseveryaspectofSB53butIthinktheyconcludedthatonbalancethebillwasworthsupporting

Tive conversas com grandes laboratórios de IA que não estão apoiando a conta, mas não estão em guerra com ela da maneira que estavam com o SB 1047. Não é surpreendente. O SB 1047 period mais uma conta de responsabilidade, o SB 53 é mais uma conta de transparência. As startups foram menos engajadas este ano, porque a conta realmente se concentra nas maiores empresas.

Você sente pressão dos grandes AI PACs que se formaram nos últimos meses?

Este é outro sintoma dos cidadãos unidos. As empresas mais ricas do mundo podem apenas despejar recursos intermináveis ​​nesses PACs para tentar intimidar funcionários eleitos. Sob as regras que temos, elas têm todo o direito de fazer isso. Nunca realmente impactou como eu aborto a política. Houve grupos tentando me destruir desde que eu estive no cargo eleito. Vários grupos passaram milhões tentando me explodir, e aqui estou eu. Estou nisso a fazer certo pelos meus eleitores e tentar fazer da minha comunidade, São Francisco e o mundo um lugar melhor.

Qual é a sua mensagem ao governador Newsom, pois ele está debatendo se deve assinar ou vetar esta conta?

Minha mensagem é que ouvimos você. Você vetou o SB 1047 e forneceu uma mensagem de veto muito abrangente e atenciosa. Você sabiamente convocou um grupo de trabalho que produziu um relatório muito forte, e nós realmente analisamos esse relatório ao elaborar essa conta. O governador estabeleceu um caminho, e seguimos esse caminho para chegar a um acordo, e espero que chegássemos lá.

avots