📚 Continue Lendo
Mais artigos do nosso blog
As críticas à segurança da IA no Vale do Silício geraram um intenso debate esta semana, colocando líderes da indústria e influenciadores contra ativistas e grupos que advogam pelo desenvolvimento responsável da inteligência artificial. David Sacks, conselheiro da Casa Branca para IA e Criptomoedas, e Jason Kwon, Diretor de Estratégia da OpenAI, foram os catalisadores de uma discussão acalorada ao insinuar que certos defensores da segurança da IA poderiam ter motivações pessoais ou estariam agindo em nome de financiadores bilionários, ao invés de puros interesses públicos.
Essas alegações ressoaram no ambiente online e com as organizações de segurança da IA que se manifestaram, considerando-as mais uma tentativa de intimidação por parte das gigantes tecnológicas do Vale do Silício. Não é a primeira vez que tais tensões surgem. Em 2024, por exemplo, o mercado de capitais espalhou rumores infundados de que o projeto de lei de segurança da IA da Califórnia, o SB 1047, poderia levar fundadores de startups à prisão. Embora a Brookings Institution tenha desmentido essas informações, o Governador Gavin Newsom acabou vetando a proposta.
Críticas à Segurança da IA Agitam Líderes no Vale do Silício
Se as intenções de Sacks e da OpenAI foram ou não intimidar os críticos, o resultado foi a criação de um clima de receio entre vários defensores da segurança da IA. Diversos líderes de organizações sem fins lucrativos, procurados pela reportagem, preferiram conceder entrevistas sob a condição de anonimato, expressando o desejo de proteger suas respectivas instituições de possíveis retaliações. O cerne da controvérsia evidencia a crescente polarização entre a busca por um desenvolvimento de IA responsável e a incessante corrida para transformar a tecnologia em um produto de consumo de massa, um dilema amplamente explorado por especialistas da indústria.
Acusações Contra a Anthropic e a Disputa Regulatória
No centro de uma das polêmicas mais recentes está a Anthropic, uma empresa que expressou preocupações significativas sobre o potencial da IA em causar desemprego, facilitar ciberataques e gerar “danos catastróficos” à sociedade. Em uma postagem na plataforma X, David Sacks alegou na terça-feira, 14 de outubro de 2025, que a Anthropic estaria se valendo de táticas de “alarmismo” para aprovar leis que a beneficiariam, sufocando startups menores com burocracia excessiva. A Anthropic foi a única das grandes empresas de IA a apoiar o Projeto de Lei 53 (SB 53) do Senado da Califórnia, uma legislação que impõe requisitos de relatórios de segurança para grandes companhias de IA e que foi sancionada no mês passado.
As declarações de Sacks surgiram em resposta a um influente ensaio viral do cofundador da Anthropic, Jack Clark, no qual ele expressava seus temores em relação à inteligência artificial. Clark havia apresentado o ensaio como discurso em uma conferência sobre segurança da IA em Berkeley semanas antes. Apesar da aparente sinceridade do relato de um tecnólogo sobre as ressalvas de seus próprios produtos, Sacks o interpretou de maneira bastante crítica. “A Anthropic está conduzindo uma estratégia sofisticada de captura regulatória baseada no alarmismo. É a principal responsável pelo frenesi regulatório estatal que está prejudicando o ecossistema de startups”, postou David Sacks na plataforma X em 14 de outubro de 2025. Sacks adicionou, em uma postagem de acompanhamento, que a Anthropic tem consistentemente se posicionado como inimiga do governo Trump, o que levanta a questão da verdadeira natureza de sua estratégia.
OpenAI em Confronto: Subpoenas e Acusações de Coordenação
Também nesta semana, o diretor de estratégia da OpenAI, Jason Kwon, utilizou a plataforma X para esclarecer por que a empresa estava enviando intimações (subpoenas) a organizações sem fins lucrativos focadas em segurança da IA, como a Encode, que defende políticas de IA responsáveis. Uma intimação, nesse contexto, é uma ordem legal para apresentação de documentos ou testemunhos. Kwon afirmou que após o processo judicial movido por Elon Musk contra a OpenAI — alegando que a criadora do ChatGPT havia se desviado de sua missão original sem fins lucrativos — a empresa achou “suspeita” a oposição de diversas organizações à sua reestruturação. A Encode, por exemplo, apresentou um amicus brief (manifestação legal de “amigo da corte”) em apoio ao processo de Musk, e outras ONGs também se manifestaram publicamente contra a reestruturação da OpenAI. “Há muito mais na história do que isso. Como todos sabem, estamos ativamente nos defendendo de Elon em um processo onde ele está tentando prejudicar a OpenAI para seu próprio benefício financeiro. A Encode, organização para a qual @_NathanCalvin atua como Conselheiro Geral, foi uma das…” twittou Jason Kwon em 10 de outubro de 2025.
Kwon afirmou que tal oposição levantou questões de transparência sobre quem estaria financiando esses grupos e se haveria alguma coordenação. A NBC News reportou esta semana que a OpenAI emitiu intimações abrangentes para a Encode e outras seis organizações sem fins lucrativos que criticaram a empresa, solicitando comunicações relacionadas aos dois maiores oponentes da OpenAI: Elon Musk e Mark Zuckerberg, CEO da Meta. A OpenAI também solicitou à Encode documentos relativos ao seu apoio ao SB 53.
Dentro da própria OpenAI, as opiniões estão divididas. Um proeminente líder da área de segurança de IA afirmou que há uma crescente cisão entre a equipe de assuntos governamentais da OpenAI e sua organização de pesquisa. Enquanto os pesquisadores de segurança da empresa frequentemente publicam relatórios que detalham os riscos dos sistemas de IA, a unidade de política da OpenAI se opôs ao SB 53, preferindo que regras uniformes fossem estabelecidas em nível federal. Joshua Achiam, chefe de alinhamento de missão da OpenAI, expressou seu desconforto com o envio das intimações pela sua própria empresa, declarando em uma postagem na X: “Correndo um possível risco para toda a minha carreira, direi: isso não parece ótimo.”

Imagem: Getty via techcrunch.com
A Ascensão do Movimento de Segurança da IA e as Implicações para o Vale do Silício
Brendan Steinhauser, CEO da Alliance for Secure AI – uma organização de segurança de IA que não foi intimada pela OpenAI –, acredita que a OpenAI está convencida de que seus críticos fazem parte de uma conspiração liderada por Musk. No entanto, Steinhauser argumenta que essa percepção é equivocada, e que grande parte da comunidade de segurança da IA também é bastante crítica das práticas, ou da ausência delas, da xAI de Elon Musk. “Por parte da OpenAI, isso é feito para silenciar os críticos, para intimidá-los e para dissuadir outras organizações sem fins lucrativos de fazer o mesmo”, explicou Steinhauser. “Para Sacks, acredito que ele está preocupado com o crescimento do movimento [de segurança da IA] e com o desejo das pessoas de responsabilizar essas empresas.”
Sriram Krishnan, o assessor sênior de política de IA da Casa Branca e ex-sócio-geral da a16z, também se juntou à discussão esta semana com uma postagem em redes sociais, caracterizando os defensores da segurança da IA como “desconectados da realidade”. Ele incitou as organizações de segurança da IA a conversar com “pessoas no mundo real usando, vendendo, adotando IA em suas casas e organizações”. Essa perspectiva ignora estudos como o da Pew Research, que aponta que quase metade dos americanos está mais preocupada do que animada com a IA, embora as causas exatas dessa preocupação permaneçam ambíguas. Outra pesquisa aprofundada revelou que os eleitores americanos se preocupam mais com a perda de empregos e com deepfakes do que com riscos catastróficos causados pela IA, um tema que geralmente domina a agenda do movimento de segurança da IA.
Abordar essas preocupações de segurança pode custar caro para a rápida expansão da indústria de IA, um trade-off que inquieta muitos no Vale do Silício. Com investimentos em IA impulsionando uma parcela significativa da economia americana, o receio de uma regulamentação excessiva é, de certa forma, compreensível. Contudo, após anos de avanço desregulado da inteligência artificial, o movimento de segurança da IA parece ganhar ímpeto real, especialmente em 2026. As tentativas do Vale do Silício de confrontar esses grupos podem, paradoxalmente, ser um indicativo do sucesso de suas iniciativas em pautar o debate sobre um desenvolvimento mais ético e seguro da IA. Para mais informações sobre como o governo se posiciona sobre as políticas de tecnologia, é importante consultar fontes oficiais e estudos acadêmicos sobre o tema, como os relatórios da Brookings Institution sobre políticas tecnológicas, que frequentemente abordam as complexidades da regulação e inovação.
Confira também: crédito imobiliário
O Vale do Silício encontra-se em um momento crucial, onde a inovação desenfreada se choca com as demandas por maior responsabilidade e segurança no desenvolvimento da IA. As críticas mútuas entre líderes tecnológicos e ativistas de segurança apenas intensificam a necessidade de um diálogo construtivo para modelar um futuro digital mais seguro e equitativo. Para continuar acompanhando os desdobramentos dessa complexa relação entre tecnologia e política, convidamos você a explorar outras matérias na nossa editoria de Política e Análises.
Crédito da imagem: Maxwell Zeff / TechCrunch
Recomendo
🔗 Links Úteis
Recursos externos recomendados