Anthropic Endossa Regulamentação de IA da Califórnia: SB 53

Blog
Artigos Relacionados

📚 Continue Lendo

Mais artigos do nosso blog

A gigante da inteligência artificial Anthropic Endossa Regulamentação de IA da Califórnia: SB 53, um projeto de lei estadual que estabeleceria exigências pioneiras de transparência para desenvolvedores de modelos de IA. Este apoio oficial, divulgado na última segunda-feira, representa uma rara e substancial conquista para o SB 53. A adesão da Anthropic acontece em um período em que importantes entidades do setor de tecnologia, como a CTA e a Chamber for Progress, manifestam forte oposição e lobby contra o projeto de lei.

Em uma publicação oficial no blog da empresa, a Anthropic articulou a urgência e a relevância de sua posição. “Embora acreditemos que a segurança da inteligência artificial de ponta seja idealmente tratada em nível federal, e não por um mosaico de regulamentações estaduais, os poderosos avanços da IA não aguardarão um consenso em Washington”, declarou a empresa. A questão fundamental, conforme a Anthropic, não se resume a “se precisamos de governança de IA, mas sim se a desenvolveremos de forma ponderada hoje ou reativamente amanhã”. A companhia vê o Projeto de Lei 53 da Califórnia como uma abordagem viável para concretizar essa governança de maneira proativa e eficaz.

Anthropic Endossa Regulamentação de IA da Califórnia: SB 53

Caso seja sancionado, o Projeto de Lei 53 da Califórnia exigirá que empresas responsáveis por modelos de inteligência artificial de fronteira, incluindo nomes proeminentes como OpenAI, Google, xAI e a própria Anthropic, criem e implementem rigorosas estruturas de segurança. Essas companhias também serão compelidas a divulgar relatórios públicos de segurança e proteção antes de proceder com a implantação de seus modelos avançados de IA. O senador estadual Scott Wiener é o idealizador dessa legislação, que, entre outros pontos, visa instituir proteções aos denunciantes que levante preocupações relativas à segurança no ambiente de trabalho. A matéria legislativa foca explicitamente em limitar a capacidade de modelos de IA de contribuir para riscos catastróficos, que o projeto define como eventos capazes de ocasionar a morte de 50 ou mais indivíduos, ou causar danos econômicos superiores a um bilhão de dólares. A proposta direciona sua atenção para a vertente extrema dos riscos da IA, objetivando prevenir seu uso em cenários como a assistência especializada na criação de armas biológicas ou a execução de ciberataques de larga escala, em detrimento de preocupações de curto prazo como deepfakes ou comportamentos artificiais condescendentes.

Tramitação Legislativa do SB 53 e Oposição Setorial

Apesar de uma versão prévia do SB 53 já ter recebido a aprovação do Senado da Califórnia, o projeto ainda requer uma votação final antes de avançar para a mesa do governador Gavin Newsom. O governador tem se mantido reservado quanto ao SB 53. É relevante mencionar que, em uma ocasião anterior, Newsom vetou o último projeto de lei de segurança de IA proposto pelo senador Wiener, o SB 1047, introduzindo um elemento de incerteza quanto ao desfecho do atual projeto.

As propostas de regulamentação destinadas aos desenvolvedores de modelos de IA de ponta têm enfrentado considerável resistência, tanto por parte do ecossistema de tecnologia do Vale do Silício quanto da antiga administração Trump. Ambos os lados argumentam que tais iniciativas poderiam frear a inovação dos Estados Unidos na corrida tecnológica global contra a China. Figuras proeminentes de empresas de capital de risco como Andreessen Horowitz e Y Combinator foram algumas das vozes mais ativas na oposição ao SB 1047. Nos últimos meses, a administração Trump manifestou diversas vezes sua intenção de bloquear estados de promulgar regulamentações de IA de forma independente, enfatizando a preocupação com a uniformidade da legislação. Um dos argumentos mais frequentes contra a legislação de segurança de IA em nível estadual é que a matéria deveria ser exclusiva do governo federal. Matt Perault, chefe de Política de IA, e Jai Ramaswamy, diretor jurídico, ambos da Andreessen Horowitz, publicaram um artigo em seu blog na semana anterior, argumentando que diversos projetos de lei estaduais de IA atuais correm o risco de infringir a Cláusula de Comércio da Constituição. Esta cláusula restringe os governos estaduais de promulgar leis que extrapolem suas fronteiras e prejudiquem o comércio interestadual, salientando a complexidade legal que cerca a segurança e a regulamentação da inteligência artificial em nível nacional.

O Ponto de Vista da Anthropic e os Desafios da Governança de IA

Ainda que a Anthropic declare preferência por um padrão regulatório federal, Jack Clark, co-fundador da empresa, reiterou em uma publicação na plataforma X que a indústria tecnológica tem um cronograma acelerado para construir sistemas de IA de alta capacidade e não pode se dar ao luxo de esperar por uma ação do governo federal. “Nós há muito tempo afirmamos que preferiríamos um padrão federal”, disse Clark. “Mas, na ausência disso, este projeto de lei estabelece um modelo robusto para a governança da IA que não pode ser desconsiderado”, complementou, destacando a necessidade de uma ação imediata no âmbito estadual.

Chris Lehane, diretor global de Assuntos da OpenAI, endereçou uma carta ao governador Newsom em agosto, advertindo contra a aprovação de quaisquer regulamentações de IA que pudessem impelir startups a sair da Califórnia, embora a comunicação não mencionasse explicitamente o SB 53. Contraditoriamente, Miles Brundage, ex-chefe de Pesquisa de Políticas da OpenAI, criticou a carta de Lehane em uma publicação no X, classificando-a como cheia de “informações enganosas” sobre o SB 53 e a política de IA de modo geral. É fundamental ressaltar que o SB 53 foi concebido para regulamentar apenas as maiores companhias de IA do mundo, visando especificamente aquelas com receita bruta superior a 500 milhões de dólares. Essa delimitação estratégica reflete uma intenção de focar em grandes corporações, em vez de onerar indiscriminadamente todo o ecossistema de startups, o que potencialmente reduz a amplitude de sua aplicação em comparação a outras propostas de lei.

Anthropic Endossa Regulamentação de IA da Califórnia: SB 53 - Imagem do artigo original

Imagem: Getty via techcrunch.com

Uma Proposta Mais Moderada e Suas Chances de Sucesso

A despeito das críticas recebidas, especialistas em políticas públicas encaram o SB 53 como uma proposta mais prudente em comparação com os projetos de lei de segurança de IA que o antecederam. Dean Ball, Pesquisador Sênior da Foundation for American Innovation e ex-conselheiro de política de IA da Casa Branca, expressou em uma publicação de blog em agosto sua crença de que o SB 53 detém boas chances de se tornar lei. Ball, que previamente se manifestou de forma crítica ao SB 1047, elogiou os responsáveis pela elaboração do SB 53 por demonstrar “respeito pela realidade técnica, bem como uma medida de contenção legislativa”. O projeto também foi substancialmente influenciado por um painel de especialistas convocado pelo governador Newsom, co-liderado por Fei-Fei Li, renomada pesquisadora de Stanford e co-fundadora da World Labs, um fator que pode ter contribuído para sua abordagem mais equilibrada e pragmática.

Muitos dos principais laboratórios de IA já operam com algum tipo de política de segurança interna, semelhante ao que o SB 53 exige. Gigantes como OpenAI, Google DeepMind e Anthropic publicam regularmente relatórios de segurança de seus modelos. Entretanto, essas práticas são atualmente voluntárias; as empresas não são vinculadas legalmente a manter esses padrões e, ocasionalmente, podem ficar aquém dos compromissos de segurança autoimpostos. O SB 53 almeja estabelecer esses requisitos como lei estadual, prevendo repercussões financeiras no caso de não conformidade, solidificando assim o arcabouço regulatório para a tecnologia.

Em uma modificação recente, ocorrida em setembro, legisladores californianos alteraram o SB 53 para remover uma seção que imporia a exigência de auditorias de terceiros aos desenvolvedores de modelos de IA. Companhias tecnológicas têm persistentemente se oposto a auditorias externas em debates anteriores sobre políticas de IA, argumentando que são indevidamente onerosas. Esta emenda pode ter aliviado a resistência da indústria e potencialmente ampliado as perspectivas de aprovação do projeto de lei.

Em suma, o endosso da Anthropic ao SB 53 impulsiona consideravelmente a pauta da Regulamentação de IA da Califórnia, estabelecendo um modelo importante para a governança futura da inteligência artificial no estado e com potenciais implicações nacionais. As demandas de transparência e segurança que o projeto introduz representam um avanço essencial na gestão de riscos, buscando equilibrar inovação com a responsabilidade intrínseca à IA. Para manter-se informado sobre discussões cruciais envolvendo tecnologia, política e seus impactos sociais, convidamos você a continuar explorando nossa editoria de Política.

Crédito da imagem: TechCrunch


Links Externos

🔗 Links Úteis

Recursos externos recomendados