Acordo global por limites éticos para IA ganha apoio

TECNOLOGIA
Artigos Relacionados

📚 Continue Lendo

Mais artigos do nosso blog

Uma crescente movimentação internacional, batizada de **Acordo global por limites éticos para IA**, tem soado o alerta sobre a carência de uma política internacional coesa para a inteligência artificial. Com mais de 200 ex-chefes de estado, diplomatas, cientistas e laureados com o Nobel entre os signatários, a iniciativa busca estabelecer consensos cruciais que a IA não deve jamais transgredir, prevenindo riscos de larga escala.

Líderes de diferentes setores, incluindo fundadores de empresas de ponta em IA, convergiram em um objetivo comum: garantir que a inteligência artificial se desenvolva de maneira segura e controlada. Esta ação coordenada visa evitar cenários onde a IA possa, por exemplo, simular comportamentos humanos de forma enganosa ou até mesmo se reproduzir autonomamente sem supervisão humana.

Acordo global por limites éticos para IA ganha apoio

A iniciativa, articulada por organizações como o Centro Francês para a Segurança da IA (CeSIA), a The Future Society e o Center for Human-Compatible Artificial Intelligence da UC Berkeley, é uma solicitação direta aos governos para que solidifiquem um entendimento político global. A meta ambiciosa é que tal acordo sobre limites éticos para IA seja alcançado até o final de 2026. Entre os nomes que aderiram ao chamado, destacam-se figuras influentes como o cientista da computação britânico-canadense Geoffrey Hinton (laureado com o Prêmio Nobel), Wojciech Zaremba, cofundador da OpenAI, Jason Clinton, CISO da Anthropic, e Ian Goodfellow, pesquisador do Google DeepMind, além de diversas outras autoridades e 70 organizações dedicadas à temática da IA.

Charbel-Raphaël Segerie, diretor executivo do CeSIA, salientou em uma coletiva de imprensa recente a filosofia por trás da iniciativa. O foco não é reagir após a ocorrência de um incidente de grandes proporções, mas sim intervir preventivamente. O objetivo central é barrar riscos potenciais e, eventualmente, irreversíveis, antes que se materializem. Ele reiterou a urgência da situação: “Se as nações ainda não conseguem concordar sobre o que desejam fazer com a IA, elas precisam ao menos concordar sobre o que a IA nunca deve fazer”.

O anúncio deste apelo global ganha especial relevância em vista da 80ª Semana de Alto Nível da Assembleia Geral das Nações Unidas, em Nova Iorque. A proeminência da discussão sobre inteligência artificial foi evidenciada quando a laureada com o Prêmio Nobel da Paz, Maria Ressa, citou a iniciativa em seu discurso de abertura na assembleia. Ressa, conhecida por seu engajamento em questões de accountability global e o fim da impunidade de grandes empresas de tecnologia, enfatizou a necessidade de esforços unificados nesse sentido.

Atualmente, existem alguns delineamentos de políticas de IA em nível regional, como o “AI Act” da União Europeia, que proíbe certas aplicações da inteligência artificial consideradas inaceitáveis dentro de seus países membros. Há também um entendimento mútuo entre os Estados Unidos e a China de que armamentos nucleares devem permanecer sob controle humano, nunca sob a alçada de sistemas de inteligência artificial. Contudo, persiste uma notável ausência de um consenso ou arcabouço global unificado para a governança e regulamentação da IA.

A carência de um aparato de controle mais robusto e universal é um ponto de preocupação. Niki Iliadis, diretora de governança global de IA na The Future Society, expressou ceticismo em relação à eficácia de meras promessas voluntárias de responsabilidade, afirmando que elas são insuficientes para uma verdadeira fiscalização. Segundo Iliadis, as políticas de escalonamento responsável desenvolvidas pelas próprias empresas de IA se mostram limitadas. Em última análise, para uma definição, monitoramento e aplicação efetiva das “linhas vermelhas”, é indispensável a criação de uma instituição global independente e dotada de poder.

Acordo global por limites éticos para IA ganha apoio - Imagem do artigo original

Imagem: Amelia Holowaty Krales/The via theverge.com

Stuart Russell, professor de ciência da computação na UC Berkeley e um renomado pesquisador de IA, defendeu que a conformidade pode ser alcançada se as empresas adiarem o desenvolvimento de sistemas de inteligência artificial geral (AGI) até que a segurança possa ser garantida. Ele traçou um paralelo com o setor de energia nuclear, observando que usinas não foram construídas antes que os desenvolvedores tivessem uma compreensão sólida de como evitar explosões. A indústria de IA, argumenta Russell, deve escolher um caminho tecnológico distinto, onde a segurança seja intrínseca desde o início, e essa prioridade precisa ser comprovada.

Críticos da regulamentação de IA frequentemente alegam que tais restrições poderiam inviabilizar o desenvolvimento econômico e a inovação. No entanto, Russell contesta essa premissa, afirmando que “linhas vermelhas” não obstruem tais progressos. É totalmente possível impulsionar o desenvolvimento econômico com a inteligência artificial sem recorrer à AGI, sobre a qual ainda não se tem controle. Russell desqualificou essa suposta dicotomia — “se você deseja diagnóstico médico, então tem que aceitar a AGI que destruirá o mundo” — como algo completamente desprovido de sentido, reforçando que um futuro seguro para a IA é alcançável e necessário.

Este movimento internacional é um lembrete contundente da complexidade e da urgência em estabelecer limites claros para o avanço da inteligência artificial, garantindo que ela sirva à humanidade de forma segura e ética. Para continuar acompanhando as discussões e desdobramentos em torno das políticas de IA e seus impactos globais, explore mais em nossa editoria de Política.

Photo by Amelia Holowaty Krales / The Verge


Links Externos

🔗 Links Úteis

Recursos externos recomendados

Deixe um comentário