Bunkers: Líderes da Big Tech temem futuro da Inteligência Artificial

noticias
Artigos Relacionados

📚 Continue Lendo

Mais artigos do nosso blog

A discussão sobre o futuro da Inteligência Artificial ganha novos contornos à medida que bilionários da indústria tecnológica investem pesado na construção de complexos abrigos subterrâneos. Essas edificações, por muitos chamadas de “bunkers”, levantam questionamentos sobre as preocupações que impulsionam tais preparativos. Será que os temores de cenários apocalípticos ou mesmo as implicações da IA avançada estão por trás dessa corrida por segurança extrema?

Mark Zuckerberg, CEO da Meta, está entre os nomes que mais geram especulações. Desde 2014, ele teria iniciado obras em seu vasto complexo Koolau Ranch, de aproximadamente 5 quilômetros quadrados, localizado na ilha de Kauai, no Havaí. O projeto incluiria um abrigo equipado com fontes próprias de energia e alimentos. Trabalhadores envolvidos na construção, como carpinteiros e eletricistas, teriam sido submetidos a acordos de confidencialidade, conforme detalhado em reportagem da revista Wired, e um muro de quase dois metros de altura bloqueia a visão do local.

Bunkers: Líderes da Big Tech temem futuro da Inteligência Artificial

No ano passado, Zuckerberg negou estar construindo um abrigo para o “fim do mundo”, descrevendo o espaço subterrâneo de 465 metros quadrados apenas como “um pequeno abrigo, como um porão”. Contudo, a negação não aplacou as especulações, especialmente após sua aquisição de 11 propriedades no bairro de Crescent Park, em Palo Alto, Califórnia, onde supostamente adicionou um espaço subterrâneo de 650 metros quadrados. Embora as licenças de construção refiram-se a porões, alguns vizinhos e comentaristas o intitulam de “bunker” ou “batcaverna de um bilionário”. Ele teria gasto cerca de US$ 110 milhões (aproximadamente R$ 550 milhões) nestes imóveis em Palo Alto.

O fenômeno não se restringe a Zuckerberg. Há rumores persistentes em torno de outros expoentes do setor de tecnologia, muitos dos quais parecem ter adquirido terrenos com amplos espaços subterrâneos, prontos para serem transformados em bunkers de luxo avaliados em milhões de reais. Reid Hoffman, cofundador do LinkedIn, já mencionou a ideia de um “seguro contra o apocalipse”, afirmando que cerca de metade dos super-ricos possuem tal proteção, sendo a Nova Zelândia um destino frequente para essas compras de propriedades. A questão que paira é: eles se preparam para conflitos militares, impactos das mudanças climáticas ou eventos catastróficos ainda desconhecidos para o público em geral?

O avanço vertiginoso da Inteligência Artificial nos últimos anos acrescentou um novo e significativo item à lista de potenciais problemas existenciais. Muitos na comunidade tecnológica expressam profunda preocupação com a rapidez dessa evolução. Ilya Sutskever, cientista-chefe e cofundador da OpenAI, é um exemplo notório. Em meados de 2023, sua empresa lançou o ChatGPT, um chatbot que hoje atinge centenas de milhões de usuários globais. Durante o desenvolvimento, Sutskever teria se convencido cada vez mais da iminência da Inteligência Artificial Geral (AGI), o ponto onde as máquinas atingem a inteligência humana.

De acordo com o livro da jornalista Karen Hao, Sutskever, em uma reunião, sugeriu a colegas a construção de um abrigo subterrâneo para os principais cientistas da empresa antes do lançamento de uma tecnologia tão potente. Ele teria proferido a frase: “Definitivamente, vamos construir um bunker antes de lançarmos a AGI”, embora o termo “nós” permaneça ambíguo. Isso revela uma interessante contradição: muitos cientistas e líderes que trabalham ativamente no desenvolvimento da IA demonstram também um profundo receio sobre o que ela poderá significar no futuro. Diante disso, surge a indagação: quando exatamente a AGI será uma realidade, e ela tem o potencial de ser tão transformadora a ponto de inspirar tamanha precaução?

A chegada da AGI, segundo líderes tecnológicos, pode ser mais cedo do que muitos imaginam. Sam Altman, diretor da OpenAI, declarou em dezembro de 2024 que a AGI chegará “mais cedo do que a maioria das pessoas no mundo imagina”. Demis Hassabis, cofundador da DeepMind, previu sua ocorrência nos próximos cinco a dez anos. Dario Amodei, fundador da Anthropic, utilizou o termo “IA poderosa” em um escrito do ano passado, sugerindo sua chegada já em 2026. Essas projeções contrastam com as opiniões de acadêmicos.

Dame Wendy Hall, professora de ciência da computação na Universidade de Southampton, expressa ceticismo: “Eles mudam as regras o tempo todo. Depende de com quem você fala.” Ela argumenta que, embora a tecnologia de IA seja “incrível”, ela ainda está “muito longe da inteligência humana”. Babak Hodjat, diretor de tecnologia da Cognizant, concorda que “avanços fundamentais” ainda são necessários. Além disso, é improvável que a IA progrida em um único salto; em vez disso, é uma tecnologia em constante e rápida evolução, com múltiplas empresas ao redor do globo buscando suas próprias versões avançadas.

Contudo, a ideia da AGI entusiasma alguns no Vale do Silício por ser vista como um precursor de algo ainda mais potente: a ASI, ou superinteligência artificial, uma tecnologia que superaria a inteligência humana. O conceito de “singularidade” foi postumamente atribuído ao matemático húngaro John von Neumann em 1958, referindo-se ao ponto em que a inteligência computacional transcende a compreensão humana. Livros recentes, como “Genesis” de 2024 (escrito por Eric Schmidt, Craig Mundy e Henry Kissinger), exploram a ideia de uma tecnologia tão eficaz na tomada de decisões que a humanidade cederia a ela o controle total. Para os autores, a questão é de “quando”, não de “se”.

Os entusiastas da AGI e da ASI são quase evangélicos em relação aos seus potenciais benefícios, defendendo que a IA encontrará curas para doenças fatais, resolverá as mudanças climáticas e criará uma fonte inesgotável de energia limpa. Elon Musk chegou a prever uma “renda alta universal”, impulsionada pela IA superinteligente. Ele afirmou que a IA se tornaria tão acessível que as pessoas teriam seus “R2-D2 e C-3PO pessoais”. Com entusiasmo, Musk projetou: “Todos terão os melhores cuidados médicos, alimentação, transporte doméstico e tudo o mais. Abundância sustentável.”

No entanto, há também um lado sombrio. Surge a preocupação de que essa tecnologia possa ser capturada por grupos terroristas para ser usada como arma, ou até mesmo que ela própria decida que a humanidade é a fonte dos problemas globais e atue para erradicá-la. Tim Berners Lee, criador da World Wide Web, alertou em uma entrevista à BBC sobre a necessidade de controle: “Se for mais inteligente do que você, então temos que mantê-lo sob controle. Temos que ser capazes de desligá-la.”

Bunkers: Líderes da Big Tech temem futuro da Inteligência Artificial - Imagem do artigo original

Imagem: bbc.com

Governos estão implementando medidas de proteção. Nos Estados Unidos, o presidente Biden aprovou uma ordem executiva em 2023, exigindo que algumas empresas de IA compartilhem resultados de testes de segurança com o governo federal. Parte dessa ordem foi revogada posteriormente por Donald Trump, que a classificou como “barreira” à inovação. No Reino Unido, o AI Safety Institute, um órgão de pesquisa financiado pelo governo, foi estabelecido há dois anos para investigar os riscos da Inteligência Artificial avançada. E em meio a tudo isso, permanecem os planos de “seguro contra o apocalipse” dos super-ricos.

“Dizer que você está ‘comprando uma casa na Nova Zelândia’ é como piscar, sem dizer mais nada”, comentou Reid Hoffman, e o mesmo se aplicaria aos bunkers. Entretanto, existe uma peculiaridade humana no cenário: um ex-guarda-costas de um bilionário com bunker próprio relatou que a prioridade inicial de sua equipe de segurança, em caso de emergência, seria “eliminar o chefe e entrar no bunker”.

Para Neil Lawrence, professor de aprendizado de máquina na Universidade de Cambridge, essa discussão é “absurda”. Ele argumenta que a noção de Inteligência Artificial Geral é tão irracional quanto a de um “Veículo Artificial Geral”. Lawrence enfatiza que o veículo adequado depende do contexto: um Airbus A350 para viagens longas, um carro para deslocamento diário, a pé para a cafeteria. Não existe um único veículo que possa atender a todas essas funções. Para ele, o foco na AGI é uma distração da transformação real: a IA atual, que permite que pessoas comuns interajam diretamente com máquinas para realizar suas vontades.

As ferramentas atuais de IA são treinadas com grandes volumes de dados e se destacam na identificação de padrões, seja na detecção de tumores em exames ou na previsão da próxima palavra em uma sequência. No entanto, elas não “sentem”, por mais convincentes que suas respostas possam parecer. Hodjat explica que existem métodos para fazer um Modelo de Linguagem Grande (LLM) simular memória e aprendizado, mas são “insatisfatórios e bastante inferiores aos dos seres humanos”.

Vince Lynch, CEO da IV.AI, com sede na Califórnia, também expressa cautela em relação às declarações exageradas sobre a AGI, classificando-as como “um ótimo marketing”. Ele argumenta que o status de “empresa que está construindo a coisa mais inteligente que já existiu” atrai investimentos, mas “não é algo que vai acontecer daqui a dois anos”, exigindo “muito processamento, muita criatividade humana, muita tentativa e erro”. Quando questionado sobre a eventual concretização da AGI, Lynch responde com uma pausa: “Eu realmente não sei.”

Em alguns aspectos, a IA já superou o cérebro humano. Uma ferramenta de IA generativa pode dominar história medieval em um instante e resolver equações complexas no seguinte. Algumas empresas de tecnologia, como a Meta, admitem nem sempre compreender a totalidade dos processos que levam às respostas de seus sistemas de IA, observando que estes continuam a se aprimorar autonomamente. Contudo, biologicamente, o cérebro humano ainda mantém a vantagem.

Com cerca de 86 bilhões de neurônios e 600 trilhões de sinapses, ele supera largamente os equivalentes artificiais. O cérebro opera sem interrupções entre as interações e adapta-se continuamente a novas informações. Hodjat exemplifica: “Se você disser a um ser humano que foi encontrada vida em um exoplaneta, ele aprenderá isso imediatamente, e isso afetará sua visão de mundo dali em diante. Para um LLM, ele só saberá disso enquanto você continuar repetindo isso como um fato.” Além disso, os LLMs carecem de metacognição, a capacidade introspectiva que permite aos seres humanos saberem o que sabem — uma parte crucial da inteligência humana ainda não reproduzida em laboratório, mesmo em meio aos avisos de filmes como “2001: Uma Odisseia no Espaço” sobre perigos de computadores sencientes.

Confira também: crédito imobiliário

A preocupação com o futuro da Inteligência Artificial é real e multifacetada, englobando desde os preparativos sigilosos de bilionários até os debates acalorados na academia. Compreender esses desenvolvimentos é crucial para antecipar as transformações sociais e econômicas que virão. Para aprofundar suas análises sobre como a tecnologia molda o mundo, continue acompanhando as notícias e reflexões na nossa editoria de Economia.

Crédito: Alex Wong/Getty Images, Bloomberg via Getty Images, AFP via Getty Images, Getty Images, Smith Collection/Gado/Getty Images.


Links Externos

🔗 Links Úteis

Recursos externos recomendados

Deixe um comentário