Lançamento do Sora Gera Tensão Interna na OpenAI

Blog
Artigos Relacionados

📚 Continue Lendo

Mais artigos do nosso blog

O lançamento do Sora, novo aplicativo de vídeos gerados por inteligência artificial da OpenAI, gerou uma série de discussões e acentuou tensões internas na companhia. Atual e ex-pesquisadores da organização expressaram abertamente suas apreensões em redes sociais, como o X (antigo Twitter), questionando como a iniciativa se alinha à missão sem fins lucrativos da OpenAI de desenvolver IA avançada para o benefício da humanidade.

A controvérsia surge com o surgimento de um feed estilo TikTok recheado de vídeos produzidos por IA e inúmeras ‘deepfakes’ de Sam Altman, CEO da empresa. Muitos colaboradores se encontram divididos sobre a estratégia e o impacto que o foco no consumo massivo pode ter sobre os princípios fundamentais da companhia, reforçando o desafio de equilibrar objetivos comerciais com um propósito ético.

Lançamento do Sora Gera Tensão Interna na OpenAI

John Hallman, pesquisador de pré-treinamento da OpenAI, admitiu em uma postagem de 30 de setembro de 2025 que “feeds baseados em IA são assustadores”, e confessou sentir “alguma preocupação” ao saber sobre o lançamento do Sora 2. No entanto, Hallman elogiou a equipe por “fazer o melhor trabalho possível ao projetar uma experiência positiva”, e reafirmou o compromisso da OpenAI em “garantir que a IA ajude e não prejudique a humanidade”. Sua publicação sinalizou uma divisão comum entre os profissionais da área que veem tanto o potencial quanto os perigos dessas novas tecnologias.

Acompanhando a linha de pensamento, Boaz Barak, outro pesquisador da OpenAI e professor em Harvard, manifestou sentimentos mistos, comentando: “Compartilho uma mistura semelhante de preocupação e entusiasmo.” Ele reconheceu o incrível avanço técnico do Sora 2, mas advertiu que é “prematuro nos congratularmos por evitar as armadilhas de outros aplicativos de mídia social e ‘deepfakes'”. Essa perspectiva destaca a complexidade de prever os efeitos a longo prazo e os riscos associados ao lançamento de uma plataforma com tal poder de geração de conteúdo.

Um ex-pesquisador da OpenAI, Rohan Pandey, aproveitou o debate para promover sua nova startup, a Periodic Labs, composta por ex-membros de laboratórios de IA que buscam desenvolver sistemas de IA para descobertas científicas. Pandey incentivou aqueles que “não querem construir a máquina de lixo TikTok de IA infinita, mas querem desenvolver IA que acelere a ciência fundamental”, a se juntar à sua equipe. Esta divergência ilustra a existência de uma visão alternativa dentro da comunidade de IA, priorizando a pesquisa científica em detrimento de aplicações de consumo.

A introdução do Sora ao mercado acende um ponto de tensão recorrente para a OpenAI: seu rápido crescimento como empresa de tecnologia de consumo e sua coexistência como um laboratório de ponta de IA com uma ambiciosa carta estatutária de organização sem fins lucrativos. Antigos funcionários defendem que a unidade de consumo, como o ChatGPT, pode financiar a pesquisa de IA e impulsionar a ampla distribuição da tecnologia, justificando a sinergia entre o propósito social e os meios comerciais.

Em uma publicação de 1º de outubro de 2025, Sam Altman, CEO da OpenAI, abordou os motivos pelos quais a empresa investe tanto capital e poder computacional em um aplicativo de mídia social baseado em IA. Ele afirmou: “Nós precisamos, em grande parte, de capital para construir IA que possa fazer ciência, e com certeza estamos focados em AGI com quase todo o nosso esforço de pesquisa. Também é bom mostrar às pessoas tecnologias/produtos novos e interessantes ao longo do caminho, fazê-los sorrir e, esperançosamente, ganhar algum dinheiro, dada toda a necessidade computacional.” Altman concluiu, citando o lançamento do ChatGPT, que “a realidade é nuançada quando se trata de trajetórias ótimas para uma empresa.”

Ainda assim, a questão persiste: em que momento o lado consumerista da OpenAI supera sua missão sem fins lucrativos? Quando a empresa opta por não aproveitar uma oportunidade lucrativa de crescimento de plataforma porque ela se opõe diretamente à sua missão? Este dilema é amplificado enquanto os reguladores investigam a transição da OpenAI para um modelo com fins lucrativos, considerada essencial para levantar capital adicional e, eventualmente, abrir capital. O procurador-geral da Califórnia, Rob Bonta, expressou no mês anterior preocupação especial em assegurar que a missão de segurança declarada da OpenAI como organização sem fins lucrativos permaneça central na reestruturação.

Enquanto alguns céticos consideram a missão da OpenAI uma ferramenta de branding para atrair talentos das grandes empresas de tecnologia, muitos colaboradores internos insistem que essa missão foi o principal motivo que os atraiu à companhia. Atualmente, a presença do Sora é modesta, com apenas um dia de lançamento. No entanto, sua estreia marca uma significativa expansão dos negócios de consumo da OpenAI, expondo a empresa a incentivos que assolaram aplicativos de mídia social por décadas.

Lançamento do Sora Gera Tensão Interna na OpenAI - Imagem do artigo original

Imagem: Getty via techcrunch.com

Diferentemente do ChatGPT, que é otimizado para a utilidade, a OpenAI declara que o Sora foi projetado para “diversão” – um espaço para gerar e compartilhar clipes de IA. A interface se assemelha mais ao TikTok ou aos Instagram Reels, plataformas notórias por seus ciclos viciantes. A OpenAI garante que pretende evitar essas armadilhas, afirmando em uma postagem de blog que acompanhou o lançamento do Sora que “preocupações com ‘doomscrolling’, vício, isolamento e feeds otimizados para recompensa de aprendizado” estão em primeiro plano. A empresa afirma explicitamente que não está otimizando para o tempo gasto no feed, mas sim para maximizar a criação de conteúdo, e promete enviar lembretes aos usuários que rolarem por muito tempo, priorizando a exibição de pessoas conhecidas.

Essa abordagem representa um ponto de partida mais robusto que o “Vibes” da Meta, outro feed de vídeos curtos alimentado por IA, lançado na semana anterior e aparentemente apressado sem muitas salvaguardas. Conforme apontado por Miles Brundage, ex-líder de políticas da OpenAI, é provável que existam aplicações boas e ruins de feeds de vídeo com IA, similar ao que foi observado na era dos chatbots.

Ainda assim, como Altman reconheceu há tempos, ninguém inicia a criação de um aplicativo com a intenção de que ele seja viciante; são os incentivos de gerenciar um feed que, frequentemente, levam a isso. A própria OpenAI já enfrentou problemas de lisonja no ChatGPT, atribuídos a algumas de suas técnicas de treinamento e, segundo a empresa, involuntários. Em um podcast de junho, Altman abordou o que ele chama de “grande desalinhamento da mídia social”, em que os algoritmos de feed geraram consequências negativas não intencionais na sociedade e, talvez, para usuários individuais, mesmo que inicialmente buscassem manter os usuários engajados no site.

É prematuro determinar o grau de alinhamento do aplicativo Sora com seus usuários ou com a missão da OpenAI. Já há usuários percebendo técnicas de otimização de engajamento no aplicativo, como emojis dinâmicos que surgem ao “curtir” um vídeo – um recurso que parece projetado para estimular o sistema de recompensa cerebral e aumentar o engajamento do usuário. O verdadeiro teste será a evolução do Sora ao longo do tempo. Considerando como a IA já se incorporou aos feeds tradicionais de mídia social, parece plausível que os feeds nativos de IA possam ter seu momento de destaque em breve. A questão de saber se a OpenAI conseguirá desenvolver o Sora sem replicar os erros de seus antecessores permanece em aberto.

Este cenário na OpenAI ressalta os desafios inerentes à inovação tecnológica em sua interface com a sociedade e o mercado. Para aprofundar-se em como o universo da tecnologia impacta a economia e as relações trabalhistas, explore nossa editoria de Economia. Acompanhe nossas análises para manter-se informado sobre os desdobramentos de um mercado em constante transformação. Além disso, para entender mais sobre o complexo cenário das implicações éticas na inteligência artificial e o desafio de equilibrar inovação com responsabilidade, você pode consultar estudos e reportagens detalhadas, como as disponíveis em `https://www.bbc.com/portuguese/topics/cjymx2z1rnjt`.

Crédito da imagem: TechCrunch


Links Externos

🔗 Links Úteis

Recursos externos recomendados

Deixe um comentário