Antrópico endossa a conta de segurança da AI da Califórnia, SB 53
Na segunda-feira, a Anthropic anunciou um endosso oficial do SB 53, um projeto de lei da Califórnia do senador estadual Scott Wiener que imporia os requisitos de primeira transparência da primeira na nação aos maiores desenvolvedores de modelos de IA do mundo. O endosso da Anthropic marca uma vitória rara e grande para o SB 53, numa época em que grupos de tecnologia grandes como CTA e Chamber for Progress estão fazendo lobby contra o projeto de lei. “Embora acreditemos que a segurança da IA da Frontier seja melhor abordada no nível federal, em vez de uma colcha de retalhos de regulamentos estaduais, os poderosos avanços da IA não esperam consenso em Washington”. disse antrópico em uma postagem no blog. “A questão não é se precisamos de governança de IA – é se o desenvolveremos com pensamento hoje ou reativamente amanhã. O SB 53 oferece um caminho sólido para o primeiro”. Se aprovado, o SB 53 exigiria que os desenvolvedores de modelos de IA da Frontier como OpenAI, Antrópico, Google e XAI desenvolvam estruturas de segurança, lançassem relatórios de segurança e segurança pública antes de implantar modelos poderosos de IA. O projeto também estabeleceria proteções de denunciantes para os funcionários que apresentam preocupações com segurança. O projeto se concentra especificamente em limitar os modelos de IA de contribuir a “riscos catastróficos”, que o projeto define como a morte de pelo menos 50 pessoas ou mais de um bilhão de dólares em danos. O SB 53 concentra-se no lado extremo do risco de IA-limitando os modelos de IA de ser usado para fornecer assistência no nível de especialistas na criação de armas biológicas ou ser usado em ataques cibernéticos-em vez de mais preocupações de curto prazo, como os deepfakes de IA ou a spofância. O Senado da Califórnia aprovou uma versão anterior do SB 53, mas ainda precisa realizar uma votação final no projeto de lei antes que possa avançar para a mesa do governador. O governador Gavin Newsom ficou em silêncio sobre o projeto até agora, embora veteu o último projeto de lei da AI do senador Weiner, SB 1047, que incluiu muitas das mesmas medidas. As contas que regulam os desenvolvedores de modelos de IA da Frontier enfrentaram uma reação significativa do Vale do Silício e do governo Trump, que argumentam que esses esforços poderiam limitar a inovação da América na corrida contra a China. Investidores como Andreessen Horowitz e Y Combinator lideraram parte da reação contra o SB 1047 e, nos últimos meses, o governo Trump ameaçou repetidamente impedir que os estados aproveitassem completamente a regulamentação da IA. Um dos argumentos mais comuns contra as contas de segurança da IA é que os estados devem deixar o assunto para os governos federais. O chefe de política de IA de Andreessen Horowitz, Matt Deult, e o diretor jurídico, Jai Ramaswamy, publicaram uma postagem no blog na semana passada, argumentando que muitos dos estaduais de hoje o risco que violam a cláusula de comércio da Constituição – o que limita os governos estaduais de aprovar leis que vão além de suas obrigações de comércio e de aproveitamento. Evento do TechCrunch São Francisco | 27-29 de outubro de 2025, no entanto, o co-fundador Antrópico, Jack Clark, argumenta em um post sobre X que a indústria de tecnologia criará poderosos sistemas de IA nos próximos anos e mal podem esperar o governo federal agir. “Há muito que dissemos que preferimos um padrão federal”, disse Clark. “Mas, na ausência disso, isso cria um plano sólido para a governança de IA que não pode ser ignorada”. O diretor de assuntos globais da Openai, Chris Lehane, enviou uma carta ao governador Newsom em agosto, argumentando que ele não deveria passar nenhum regulamento de IA que empurraria startups para fora da Califórnia – embora a carta não tenha mencionado o SB 53 pelo nome. O ex -chefe de pesquisa de políticas da Openai, Miles Brundage, disse em um post em X que a carta de Lehane estava “cheia de lixo enganoso sobre a política de SB 53 e AI em geral”. Notavelmente, o SB 53 visa regular apenas as maiores empresas de IA do mundo – principalmente as que geraram uma receita bruta de mais de US $ 500 milhões. Apesar das críticas, especialistas em políticas dizem que o SB 53 é uma abordagem mais modesta do que as contas anteriores de segurança da IA. Dean Ball, membro sênior da Fundação para a Inovação Americana e ex -consultor de políticas da AI da Casa Branca, disse em um post de agosto que ele acredita que o SB 53 tem uma boa chance agora de se tornar lei. Ball, que criticou o SB 1047, disse que os redatores do SB 53 “demonstraram respeito pela realidade técnica”, bem como uma “medida de restrição legislativa”. O senador Wiener disse anteriormente que o SB 53 foi fortemente influenciado por um painel de políticas de especialistas que o governador de Newsom convocou-co-liderado pelo principal pesquisador de Stanford e co-fundador da World Labs, Fei-FEI LI-para aconselhar a Califórnia sobre como regular a IA. A maioria dos laboratórios de IA já possui alguma versão da política de segurança interna que o SB 53 exige. O Openai, o Google DeepMind e a Antrópica publicam regularmente relatórios de segurança para seus modelos. No entanto, essas empresas não estão vinculadas a nenhuma lei para fazê-lo e, às vezes, ficam para trás de seus compromissos de segurança auto-impostos. O SB 53 visa definir esses requisitos como lei. No início de setembro, os legisladores da Califórnia alteraram o SB 53 para remover uma seção do projeto de lei que exigiria que os desenvolvedores de modelos de IA fossem auditados por terceiros. As empresas de tecnologia já lutaram contra esses tipos de auditorias de terceiros em outras batalhas de políticas de IA anteriormente, argumentando que são excessivamente onerosas.
Fonte