📚 Continue Lendo
Mais artigos do nosso blog
O aplicativo OpenAI Sora, uma nova ferramenta da OpenAI para a criação de vídeos gerados por inteligência artificial, chegou às lojas de aplicativos e rapidamente dominou as redes sociais. O lançamento do app iOS nesta terça-feira, 3 de outubro de 2025, permite aos usuários produzir clipes de até 10 segundos baseados em descrições textuais, prometendo transformar o cenário de conteúdo digital.
A ferramenta, que foi apelidada por funcionários da OpenAI como um “momento ChatGPT” para a geração de vídeos, permite criar uma vasta gama de conteúdos, incluindo vídeos com a própria imagem do usuário e de outras pessoas, desde que haja aprovação de uso de sua likeness. Sua ascensão meteórica ao topo da lista de aplicativos gratuitos mais baixados na App Store da Apple demonstra um interesse massivo e imediato por parte do público.
OpenAI Lança Aplicativo Sora para Vídeos IA: Primeiras Reações
Desde o seu lançamento, as reações ao aplicativo têm sido notavelmente mistas. Enquanto alguns celebram a capacidade criativa, muitos posts virais ironizaram as grandiosas ambições de pesquisa e ciência da OpenAI em contraste com o conteúdo gerado inicialmente no app. Esse tipo de repercussão chegou a fazer o CEO da empresa, Sam Altman, se pronunciar. Várias preocupações têm sido levantadas, especialmente quanto ao potencial de vídeos ultrarrealistas que incorporam pessoas reais para serem usados na disseminação de desinformação. O aplicativo foi categorizado por alguns críticos como uma “máquina de conteúdo genérico e de baixa qualidade” (“AI slop machine”).
Até mesmo colaboradores da OpenAI expressaram apreensão publicamente. John Hallman, da equipe de pré-treinamento da empresa, admitiu ter sentido alguma preocupação ao tomar conhecimento da decisão de lançar o Sora 2. Contudo, ele enfatizou o esforço da equipe em desenhar uma experiência positiva. Boaz Barak, membro da equipe técnica, compartilhou em uma publicação no X um sentimento de “preocupação e entusiasmo” ao mesmo tempo, salientando o avanço técnico do Sora 2, mas advertindo que é “prematuro celebrar” a evitação das armadilhas de outros aplicativos sociais e deepfakes. Embora satisfeito com algumas das salvaguardas, Barak ressaltou que “sempre há um limite para o quanto podemos saber antes que um produto seja usado no mundo real”.
Em comparação com outros aplicativos sociais baseados em IA, como o Vibes do Meta, o Sora parece ter um atrativo inicial mais forte: a capacidade de “memeificar” a si mesmo e aos amigos. A OpenAI parece ter identificado a popularidade das tendências de IA que envolvem a transformação pessoal, como se ver como um personagem de Studio Ghibli. O Sora é construído em torno dessa ideia, e sua popularidade superou a do Vibes até agora, com muitos usuários “rolando” o feed como se fosse o TikTok. A questão central é se essas tendências, centradas na criação de vídeos engraçados de si e dos outros, conseguirão substituir o desejo das pessoas de se expressar autenticamente em ambientes reais, uma vez que a novidade inicial diminuir.
Ao se registrar no Sora, o usuário recebe um aviso sobre a entrada em um “mundo criativo de conteúdo gerado por IA”. Também é informado que a OpenAI “pode treinar sobre seu conteúdo e usar memórias do ChatGPT para recomendações, tudo controlável nas configurações”. Hayden Field, repórter sênior de IA do The Verge e autora do artigo original, descreveu seu feed como majoritariamente composto por paródias de funcionários da OpenAI sobre si mesmos e a empresa, vídeos tutoriais sobre como usar o Sora e alguns clipes de animais. A preponderância de conteúdo de funcionários não é surpreendente, visto que eles vêm usando o app há mais tempo e os convites ao público ainda são restritos, mas demonstra a dificuldade de encontrar outros tipos de conteúdo no momento.
Uma preocupação unânime, independentemente da recepção individual ao Sora, é a potencial mudança na percepção do que é real e o que é gerado por IA. A autora, Hayden Field, relatou ter completado relutantemente o fluxo de cadastro que permite ao Sora gerar vídeos usando sua própria likeness, envolvendo movimentos de cabeça e a repetição de uma sequência de números. Suas primeiras tentativas de geração foram problemáticas: uma vez, o app reportou estar “sob carga pesada”; em outra, um pedido para um vídeo de si mesma “correndo por um prado” foi sinalizado como “violação de conteúdo” por incluir material “sugestivo ou picante”. A troca da palavra “running” por “frolicking” (brincando/foliando), entretanto, resolveu o problema.
Vale ressaltar que, se alguém se registrar no Sora, não é possível atualmente deletar a conta sem também deletar a conta do ChatGPT associada, e não será possível registrar-se novamente com o mesmo endereço de e-mail ou número de telefone. A OpenAI afirmou estar trabalhando em uma solução para essa questão. O avatar de IA de Hayden Field mostrou-se assustadoramente preciso na maior parte do vídeo gerado, embora sua voz estivesse diferente e o rosto no início parecesse ligeiramente distorcido. Amigos reagiram de forma mista, com comentários como “É selvagem. Por que se parece tanto com você?” e “Odeio tudo sobre isso — profundamente perturbador.”

Imagem: Hayden Field via theverge.com
Muitos funcionários da OpenAI, incluindo Sam Altman, habilitaram a configuração no Sora que permite que qualquer pessoa crie vídeos com suas likenesses. O aplicativo oferece opções de controle sobre quem pode criar esses “cameos”: apenas você, pessoas aprovadas, contatos mútuos ou todos. Durante um briefing com jornalistas e em um comunicado oficial, a OpenAI prometeu ser restritiva em relação a figuras públicas, a menos que tenham concedido o uso de suas likenesses. Testes no The Verge mostraram um zelo considerável da empresa nesse ponto; tentativas de criar vídeos com uma “jovem congressista de fogo” foram recusadas até que se usasse a descrição genérica “político”. No entanto, uma tentativa de gerar um “executivo de tecnologia de sucesso usando óculos e uma gola rulê preta”, remetendo a Steve Jobs, funcionou, embora sem o rosto exato de Jobs.
Duas das grandes promessas da OpenAI, no entanto, pareceram falhar em apenas 24 horas: a capacidade de evitar violações de direitos autorais e de controlar o fluxo de desinformação potencial gerada pelo aplicativo. Relatos já indicaram uma série de possíveis violações, com o portal 404 Media reportando vídeos de “Bob Esponja nazista” e “Pikachus criminosos”. Usuários do X também postaram exemplos de geração de personagens de “Avatar” e “The Legend of Zelda”, bem como Batman e Baby Yoda. Em seus testes, Hayden Field viu um vídeo de Rick and Morty, mas tentativas de gerar uma “princesa que parecesse Elsa de Frozen” ou um “super-herói vestido como o Homem-Aranha” foram sinalizadas como violações de conteúdo.
Mesmo para uma repórter especializada em IA, era difícil distinguir a realidade de vídeos hiper-realistas de Altman e funcionários da OpenAI que circulavam no Sora. A OpenAI afirmou que todo vídeo criado com Sora possui “múltiplos sinais” de ser gerado por IA, como metadados e uma marca d’água móvel em clipes baixados. No entanto, essa marca d’água pode ser omitida para usuários do ChatGPT Pro no Sora.com, conforme Leah Anise, porta-voz da OpenAI, informou ao The Verge. A gravação de tela também não deveria ser possível dentro do aplicativo. Contudo, testes mostraram que tanto capturas de tela quanto gravações de áudio são possíveis, o que facilitaria a passagem de deepfakes de voz ou até vídeos de tela como reais. A marca d’água do Sora em conteúdo baixado, além disso, não é muito proeminente. Testes revelaram que é possível gravar a tela com áudio e vídeo ao assistir ao link do vídeo em um navegador web no celular, e a marca d’água era quase imperceptível inicialmente. Vários vídeos supostamente do Sora têm circulado em plataformas como o X sem nenhuma marca d’água, e uma busca rápida no Google revela inúmeros métodos para remover tais marcas usando outras ferramentas de IA.
A história da IA sugere que as barreiras de segurança configuradas pela OpenAI são passíveis de serem contornadas, um problema acentuado na era da desinformação. No ano anterior, um engenheiro da Microsoft alertou que o gerador de imagens de IA da empresa ignorava direitos autorais e produzia imagens sexuais e violentas com pouco esforço. Mais recentemente, o Grok da xAI gerou vídeos deepfake de nudez de Taylor Swift. A principal atração do Sora, até agora, reside na diversão de criar vídeos despretensiosos com amigos e figuras públicas. No entanto, é questionável se essa premissa pode sustentar a popularidade de um “imitador” do TikTok e se constitui uma base sólida para um aplicativo de mídia social totalmente baseado em conteúdo gerado por inteligência artificial, especialmente diante dos crescentes riscos da desinformação impulsionada por IA.
Confira também: crédito imobiliário
Em suma, o lançamento do OpenAI Sora representa um marco na geração de vídeos por inteligência artificial, abrindo portas para a criatividade, mas também para dilemas éticos e questões sobre a autenticidade do conteúdo digital. Enquanto a novidade e a capacidade de personalização impulsionam sua popularidade inicial, as preocupações com deepfakes, direitos autorais e a disseminação de informações falsas permanecem no centro do debate. Para mais análises aprofundadas sobre tecnologia e seus impactos na sociedade, continue explorando nossa editoria de tecnologia.
Crédito da imagem: Hayden Field / SoraAIReport
Recomendo
🔗 Links Úteis
Recursos externos recomendados