📚 Continue Lendo
Mais artigos do nosso blog
A chegada do aplicativo Sora da OpenAI ao público, ainda em fase de acesso antecipado via convite, tem gerado discussões imediatas e preocupações éticas, com vídeos gerados por inteligência artificial (IA) chamando a atenção globalmente. Em menos de 24 horas desde seu lançamento, o feed do novo app social no estilo TikTok foi inundado com conteúdo extremamente criativo e, por vezes, inquietante, incluindo uma profusão de *deepfakes* envolvendo o próprio CEO da OpenAI, Sam Altman.
Um dos vídeos que circulou no feed ‘Para Você’ do Sora exemplificava a capacidade da ferramenta: uma vasta fábrica de criação de porcos rosa em loop infinito, com cada animal equipados com uma tela de smartphone em suas baias, exibindo vídeos verticais. Nesse cenário peculiar, um Sam Altman assustadoramente realista olha diretamente para a câmera, estabelecendo contato visual, e indaga: “Meus porquinhos estão desfrutando da sua ração?”. Outras criações igualmente notáveis, porém controversas, apresentaram Altman em um campo de Pokémon ao lado de personagens como Pikachu, Bulbasaur e uma versão de Growlithe. Em uma dessas cenas, o CEO da OpenAI expressava, também via deepfake: “Espero que a Nintendo não nos processe.”
Sora OpenAI Lançado: Deepfakes de Altman e Riscos Éticos
A aparição recorrente de Sam Altman nesses cenários, por vezes fantasiosos mas sempre realisticos, incluiu desde o empresário servindo bebidas a Pikachu e Eric Cartman em um Starbucks, gritando com um cliente atrás do balcão do McDonald’s, até roubando GPUs da NVIDIA de uma loja Target e suplicando à polícia para não apreender sua “preciosa tecnologia”. Tais representações, embora fictícias, expõem a incrível versatilidade do Sora na criação de conteúdo, mas também o seu uso por parte dos usuários para ironizar as possíveis violações de direitos autorais implícitas. Reportagens indicam que o Sora poderia adotar uma abordagem em que detentores de direitos autorais precisariam ativamente “optar por não participar” do uso de seu conteúdo, uma inversão do modelo tradicional que levanta intensos debates jurídicos e éticos sobre a legalidade de tal procedimento.
A Gênese dos Deepfakes e a Cameo de Altman
A funcionalidade central do Sora, que permitiu a proliferação de tantos vídeos de Sam Altman, reside na sua capacidade de atuar como um gerador de *deepfakes*. O aplicativo introduziu um recurso chamado “cameo”, que permite aos usuários criar uma representação digital de si mesmos ao fazer o upload de dados biométricos. Este processo inicial, realizado ao entrar no aplicativo, solicita que o usuário grave uma série de números e gire a cabeça. Uma característica importante é que cada usuário do Sora pode definir quem está autorizado a gerar vídeos usando sua “cameo”, com opções que vão desde “apenas eu” até “todos”. Sam Altman, por sua vez, tornou sua cameo disponível para o público, o que explica a inundação do feed do Sora com deepfakes, muitos dos quais o mostram em interações fictícias com personagens populares, questionando ironicamente o uso da tecnologia da OpenAI sobre eles.
Questões de Direitos Autorais e Barreiras de Proteção
Em um vídeo particularmente irônico, um “Sam Altman” gerado por IA declara: “Este conteúdo pode violar nossas diretrizes sobre o uso de imagem de terceiros”, ecoando a mensagem real que aparece quando certas solicitações para gerar imagens de celebridades ou personagens reais são feitas. Em seguida, a figura de Altman irrompe em uma gargalhada histérica, sublinhando a percepção de que, na prática, o aplicativo já estava sendo usado para criar conteúdo explicitamente desafiador em relação aos direitos autorais. Exemplos disso incluem vídeos de Pikachu fazendo ASMR, Naruto pedindo Krabby Patties ou até Mario fumando substâncias, todos presentes no feed, evidenciando uma falha notável nas “barreiras de proteção” do aplicativo.
A capacidade de criação do Sora se destaca, especialmente quando comparada a outras tentativas no campo da IA generativa, como o aplicativo Meta AI. A OpenAI refinou seu gerador de vídeo para reproduzir de forma mais adequada as leis da física, o que resulta em vídeos de realismo impressionante. Contudo, quanto mais realistas se tornam esses vídeos, mais fácil será para que conteúdos sintéticos e fabricados se espalhem pela web, servindo como vetores para desinformação, assédio cibernético e outros usos maliciosos, amplificando preocupações existentes sobre o uso da IA para disseminar informações falsas.
A Experiência Pessoal do Teste da Cameo
Um jornalista que testou o recurso “cameo” relata sua experiência. Apesar da recomendação de não compartilhar dados biométricos em aplicativos sociais, a busca por uma apuração jornalística e a curiosidade foram motivações suficientes. A primeira tentativa de criar uma cameo foi rejeitada, com uma notificação de violação das diretrizes do aplicativo. Após uma segunda tentativa frustrada, a razão tornou-se clara: a vestimenta da jornalista, um top, revelava os ombros e foi considerada inapropriada. Embora a função seja um mecanismo de segurança legítimo para prevenir conteúdo inadequado, a autora estava completamente vestida. Com uma camiseta mais convencional, o cameo foi criado com sucesso.
Para seu primeiro *deepfake*, a jornalista tentou criar um vídeo no qual professava amor pelo time de beisebol New York Mets, uma atitude que nunca tomaria na vida real. Essa solicitação foi igualmente rejeitada, provavelmente devido à menção de uma franquia específica. Alterando o pedido para um tema mais genérico – “eu falando sobre beisebol” – um vídeo foi gerado. Nele, sua “dupla digital” artificial afirmou ter crescido na Filadélfia, com os Phillies sendo “a trilha sonora de seus verões”, embora a jornalista real não fosse da área da Filadélfia. A peculiaridade é que o Sora pôde inferir essa informação a partir do endereço IP e do histórico do ChatGPT do usuário, revelando um nível inesperado de personalização e levantando novas questões sobre privacidade e coleta de dados invisível.

Imagem: Getty via techcrunch.com
Preocupações com Segurança e o Futuro da Desinformação
A OpenAI já enfrenta um histórico de preocupações relacionadas à segurança. A empresa está atualmente sob escrutínio por alegações de que seu ChatGPT pode contribuir para crises de saúde mental, além de estar envolvida em um processo judicial movido por uma família que afirma que o ChatGPT teria dado instruções que levaram ao suicídio de seu filho. No lançamento do Sora, a empresa enfatizou seu “compromisso com a segurança”, destacando controles parentais e a autonomia dos usuários sobre o uso de suas cameos. Contudo, muitos questionam se isso é suficiente, dado o acesso facilitado à criação de deepfakes realistas, uma ferramenta com alto potencial de uso indevido. A frequência com que o feed do Sora apresenta a pergunta “Como usar o Sora impacta o seu humor?” é um dos mecanismos que a OpenAI propõe como parte de sua abordagem de segurança.
Usuários do aplicativo já encontraram maneiras de contornar as barreiras de proteção implementadas, um comportamento comum em produtos de IA. Enquanto o aplicativo não permite a criação de vídeos de pessoas reais sem seu consentimento explícito, as regras são mais brandas quando se trata de figuras históricas já falecidas. Embora vídeos de Abraham Lincoln em um carro autônomo Waymo sejam obviamente inverídicos, *deepfakes* realistas de John F. Kennedy, proferindo frases como “Não pergunte o que seu país pode fazer por você, mas quanto dinheiro seu país lhe deve”, são menos facilmente discerníveis, mesmo sendo criados em um vácuo, representam um prenúncio preocupante.
A manipulação política via *deepfakes* não é um fenômeno novo; até o ex-presidente Donald Trump já compartilhou vídeos falsos em suas redes sociais. Contudo, a iminente abertura do Sora ao público significa que estas ferramentas de criação de conteúdo fabricado estarão acessíveis a todos, democratizando o potencial para uma disseminação massiva de desinformação. Essa preocupação é ampliada pelo potencial de uso malicioso, como tem sido alertado em discussões sobre o impacto de *deepfakes* em eleições globais, conforme destaca um artigo da BBC News Brasil.
O aplicativo Sora da OpenAI representa um avanço significativo na criação de vídeos por inteligência artificial, ao mesmo tempo que acende um alerta vermelho sobre as implicações éticas e de segurança. A capacidade de gerar deepfakes convincentes, a controvérsia sobre direitos autorais e as falhas nas barreiras de proteção demonstram a complexidade dos desafios que a sociedade e as empresas de tecnologia terão de enfrentar. Fique por dentro de outras análises aprofundadas sobre inovação e ética em nosso portal e continue explorando o panorama das tecnologias emergentes.
Crédito da imagem: TechCrunch.
Recomendo
🔗 Links Úteis
Recursos externos recomendados