📚 Continue Lendo
Mais artigos do nosso blog
O Senador Wiener Impulsiona Lei Segurança IA na Califórnia com uma nova proposta legislativa, a SB 53. Esta iniciativa representa mais um esforço do político estadual para enfrentar os potenciais perigos da Inteligência Artificial. A proposta surge após uma tentativa anterior de regulamentação ter sido vetada em 2024.
No ano passado, uma vigorosa campanha de pressão vinda do Vale do Silício se opôs à controvertida lei de segurança da IA de Wiener, a SB 1047. Este projeto visava responsabilizar as companhias de tecnologia pelos potenciais danos causados por seus sistemas de IA. Líderes do setor alertaram que a legislação poderia sufocar o crescimento da IA nos Estados Unidos. O Governador Gavin Newsom, ecoando preocupações semelhantes, acabou vetando o projeto. Em resposta, uma renomada “casa de hackers” de IA rapidamente organizou uma “Festa do Veto da SB 1047”, onde um participante comentou aliviado que “graças a Deus, a IA ainda é legal”.
Senador Wiener Impulsiona Lei Segurança IA na Califórnia
Agora, o Senador Wiener retorna com um novo projeto de Lei de Segurança da IA, o SB 53, que se encontra sobre a mesa do Governador Newsom, aguardando sua sanção ou veto nas próximas semanas. Desta vez, o projeto demonstra uma aceitação significativamente maior no mercado ou, no mínimo, o Vale do Silício não parece estar em guerra contra ele.
A empresa Anthropic, por exemplo, endossou abertamente o SB 53 no início deste mês. Jim Cullinan, porta-voz da Meta, informou à TechCrunch que a companhia apoia uma regulamentação de IA que consiga equilibrar salvaguardas com a inovação, afirmando que o SB 53 é um passo nessa direção, embora existam aspectos a serem aprimorados. Dean Ball, ex-conselheiro de política de IA da Casa Branca, expressou à TechCrunch que o SB 53 representa uma vitória para “vozes razoáveis” e acredita que há uma forte probabilidade de o Governador Newsom sancionar a lei.
Caso seja sancionado, o SB 53 estabeleceria alguns dos primeiros requisitos de segurança e relatórios para gigantes da IA, como OpenAI, Anthropic, xAI e Google, empresas que atualmente não têm obrigações de divulgar como testam seus sistemas de Inteligência Artificial. Muitas empresas de IA voluntariamente publicam relatórios de segurança explicando como seus modelos de IA poderiam ser utilizados para desenvolver armas biológicas e outras ameaças, mas o fazem por vontade própria e nem sempre de forma consistente.
Requisitos e Foco da SB 53 na Regulamentação da IA
O projeto exige que os principais laboratórios de IA, especificamente aqueles com receita superior a 500 milhões de dólares, publiquem relatórios de segurança para seus modelos de IA mais avançados. De forma semelhante à SB 1047, esta lei concentra-se nos piores tipos de riscos associados à IA: sua capacidade de contribuir para mortes humanas, ataques cibernéticos em grande escala e a produção de armas químicas. O Governador Newsom está avaliando outras propostas que abordam diferentes tipos de riscos da IA, como técnicas de otimização de engajamento em companheiros virtuais de IA.
Adicionalmente, o SB 53 estabelece canais protegidos para que funcionários de laboratórios de IA possam relatar preocupações de segurança a oficiais do governo. O projeto também cria um centro de computação em nuvem operado pelo estado, o CalCompute, que tem como objetivo fornecer recursos de pesquisa em IA, ampliando o acesso além das grandes empresas de tecnologia.
Uma das razões pelas quais o SB 53 pode ser mais bem-aceito que o SB 1047 reside em sua menor severidade. Enquanto o SB 1047 responsabilizaria as empresas de IA por quaisquer danos causados por seus modelos, o SB 53 foca mais em exigir auto-relatos e maior transparência. O projeto atual também se aplica estritamente às maiores empresas de tecnologia do mundo, e não a startups menores, mitigando a pressão sobre negócios emergentes.
Debate entre Regulamentação Estadual e Federal
Ainda assim, muitos na indústria tecnológica acreditam que os estados deveriam deixar a regulamentação da IA para o governo federal. Em uma carta recente ao Governador Newsom, a OpenAI defendeu que os laboratórios de IA deveriam se adequar apenas aos padrões federais – uma declaração peculiar para ser dirigida a um governador estadual. A empresa de capital de risco Andreessen Horowitz publicou um post em seu blog, sugerindo vagamente que alguns projetos de lei na Califórnia poderiam violar a cláusula do Comércio Dormente da Constituição dos EUA, que proíbe estados de limitar injustamente o comércio interestadual.
O Senador Wiener, por sua vez, contrapõe essas preocupações, expressando descrença na capacidade do governo federal de aprovar regulamentações significativas para a segurança da IA. Para ele, é imperativo que os estados assumam a liderança nesse tema. O senador argumenta, inclusive, que a administração Trump teria sido “capturada pela indústria tecnológica” e que os esforços federais recentes para bloquear as leis estaduais de IA são uma forma de Trump recompensar seus financiadores.
A administração Trump, de fato, demonstrou uma notável mudança em relação ao foco da administração Biden na segurança da IA, substituindo-o por uma ênfase no crescimento. Logo após assumir o cargo, o vice-presidente J.D. Vance compareceu a uma conferência de IA em Paris e declarou: “Não estou aqui esta manhã para falar sobre segurança da IA, que era o título da conferência há alguns anos. Estou aqui para falar sobre oportunidade da IA”. O Vale do Silício aplaudiu essa mudança, exemplificada pelo Plano de Ação de IA de Trump, que removeu barreiras para a construção da infraestrutura necessária para treinar e servir modelos de IA. Atualmente, CEOs de grandes empresas de tecnologia são frequentemente vistos em jantares na Casa Branca ou anunciando centros de dados bilionários ao lado do Presidente Trump.
Diante desse cenário, o Senador Wiener considera crucial que a Califórnia lidere o país na segurança da IA, mas sem sufocar a inovação tecnológica.

Imagem: Getty via techcrunch.com
A Luta de Scott Wiener pela IA Responsável
Questionado sobre sua jornada para regulamentar a segurança da IA nos últimos anos, o Senador Wiener descreve a experiência como uma “montanha-russa” e um “aprendizado incrível”, que ajudou a elevar a questão da segurança da IA no discurso nacional e internacional. Ele ressalta que a IA é uma tecnologia “incrivelmente poderosa que está mudando o mundo”, e o desafio é garantir que ela “beneficie a humanidade de uma forma que reduza o risco”, promovendo a inovação “sempre com a saúde e segurança pública em mente”.
Com base em 20 anos de observação da indústria tecnológica, o senador destaca a importância de leis que possam responsabilizar o Vale do Silício. Representando São Francisco, o “coração da inovação da IA”, ele testemunhou como grandes empresas, algumas das mais ricas da história mundial, conseguiram frear a regulamentação federal. Wiener expressa profunda preocupação com a proximidade entre CEOs de tecnologia e figuras políticas de alto escalão, mencionando acordos com países como Arábia Saudita e Emirados Árabes Unidos. Apesar de ser pró-tecnologia e desejar a inovação, ele defende que essa indústria não deve ser confiada para se autorregular ou fazer compromissos voluntários. Segundo ele, o capitalismo, embora gere prosperidade, também pode causar danos se não houver “regulamentações sensatas para proteger o interesse público”.
O SB 53, especificamente, mira nos “piores danos” que a IA poderia causar – mortes, ciberataques massivos e a criação de armas biológicas. Wiener explica que os riscos da IA são variados, incluindo discriminação algorítmica, perda de empregos, deepfakes e golpes. No entanto, o SB 53 não tem a intenção de cobrir todo o campo de riscos, mas sim se concentra na categoria de risco “catastrófico”, uma preocupação que lhe foi apresentada organicamente por profissionais do setor de IA em São Francisco, incluindo fundadores de startups e tecnólogos que constroem os modelos.
O senador não considera os sistemas de IA inerentemente seguros, reconhecendo que há riscos de que alguns modelos de IA possam ser usados para causar danos significativos à sociedade por maus atores. Seu objetivo é dificultar que esses agentes causem grandes malefícios, e as pessoas que desenvolvem esses modelos também deveriam compartilhar dessa meta.
Quanto à aceitação na indústria, Wiener menciona que conversou com todos: grandes empresas, pequenas startups, investidores e acadêmicos. Embora a Anthropic não “ame cada aspecto” do SB 53, eles concluíram que o projeto, no geral, merece apoio. Outros grandes laboratórios de IA, embora não apoiem explicitamente, não estão em conflito com o projeto da mesma forma que estavam com o SB 1047, principalmente porque o SB 53, focado em transparência em vez de responsabilidade, afeta primariamente as empresas maiores, levando a um menor engajamento por parte das startups.
Questionado sobre a pressão dos grandes PACs de IA que surgiram nos últimos meses, o Senador Wiener classificou-os como um “sintoma do Citizens United“, onde as empresas mais ricas podem despejar recursos ilimitados para “intimidar funcionários eleitos”. Contudo, ele afirma que isso “nunca realmente impactou sua abordagem política”, estando em seu cargo para “fazer o certo por seus constituintes e tentar melhorar sua comunidade, São Francisco e o mundo”.
A mensagem final do senador ao Governador Newsom é clara: “Nós o ouvimos”. Ele reitera que o grupo de trabalho convocado pelo governador após o veto do SB 1047 produziu um “relatório muito forte” que foi crucial na formulação do atual projeto. Wiener acredita que seguiu o caminho traçado pelo governador e espera que “tenhamos chegado lá”, sinalizando uma tentativa de consenso.
A discussão sobre a regulamentação da inteligência artificial é complexa e exige um equilíbrio entre inovação e segurança. Para aprofundar-se nas complexidades da legislação e nas perspectivas políticas, continue acompanhando as notícias em nossa editoria de Análises e mantenha-se informado sobre os desdobramentos dessa tecnologia revolucionária.
Crédito da Imagem: Divulgação / TechCrunch
Recomendo
🔗 Links Úteis
Recursos externos recomendados