OpenAI não esperava crise de direitos autorais com Sora

TECNOLOGIA
Artigos Relacionados

📚 Continue Lendo

Mais artigos do nosso blog

O lançamento do Sora, o inovador aplicativo de vídeo gerado por inteligência artificial da OpenAI, deflagrou uma inesperada crise de direitos autorais, surpreendendo a própria empresa. Sam Altman, CEO da OpenAI, expressou seu espanto diante da intensa repercussão e das complexidades não previstas relacionadas à propriedade intelectual e à disseminação de conteúdo criado por IA. A plataforma, que permite a criação de vídeos ultra-realistas de até 10 segundos com áudio, rapidamente se tornou um centro de debate sobre ética, controle e as implicações futuras da tecnologia.

Inicialmente, o Sora operava sob uma política de “opt-out” para detentores de direitos autorais, o que significava que empresas de mídia precisariam notificar explicitamente a OpenAI caso não desejassem que seus personagens gerados por IA circulassem livremente no aplicativo. Contudo, em questão de dias após sua disponibilização, a proliferação de criações como versões nazistas do Bob Esponja, um Pikachu criminoso e reinterpretações de Rick e Morty por meio do Sora, levou Sam Altman a anunciar uma imediata reversão da política, concedendo aos detentores de direitos a autonomia para decidir sobre o uso de suas obras.

OpenAI não esperava crise de direitos autorais com Sora

Questionado sobre os motivos que levaram a OpenAI a alterar sua abordagem, Altman revelou que a mudança foi um reflexo de intensas conversas com as partes interessadas. Ele sugeriu que a magnitude da reação pública não foi antecipada. “A teoria do que as pessoas iriam sentir, e depois ver o resultado de fato, trouxe diferentes respostas,” afirmou Altman, pontuando que a reação se mostrou “mais diferente do que as pessoas esperavam” em comparação com as imagens estáticas.

A capacidade do aplicativo Sora se assemelha a um “feed” infinito no estilo TikTok, permitindo a criação de vídeos curtos de 10 segundos — incluindo áudio — de praticamente qualquer conceito. Isso abrange a geração de um “cameo” com a própria aparência do usuário via IA, ou a de qualquer pessoa que tenha fornecido consentimento explícito. Embora a OpenAI tente limitar as representações de indivíduos não registrados no aplicativo, seus comandos de texto demonstraram ser extremamente eficazes na geração de personagens protegidos por direitos autorais.

Altman ressaltou que muitos detentores de direitos estão genuinamente empolgados com o potencial da tecnologia, mas exigem um grau muito maior de controle sobre como seus ativos são utilizados. O CEO da OpenAI reconheceu o sucesso instantâneo da plataforma, admitindo que o Sora “ficou muito popular muito rapidamente… Pensamos que poderíamos diminuir o ritmo de crescimento; isso não aconteceu.” A empresa reafirmou seu compromisso com os direitos autorais e com o bem-estar dos indivíduos, prometendo o desenvolvimento de controles adicionais e antecipando que “muitas das principais peças de conteúdo estarão disponíveis com restrições sobre o que podem ou não fazer.”

Entre os primeiros adeptos do sistema, Altman manifestou surpresa com as reações “intermediárias” de usuários que se sentiam ambivalentes em relação a permitir que seus rostos gerados por IA fossem utilizados publicamente no Sora. Ele esperava uma decisão binária – público ou privado – mas se deparou com um espectro muito mais amplo de nuances. Em resposta a essa percepção, a OpenAI implementou recentemente restrições adicionais. Altman observou que “muita gente mudou de ideia sobre se gostaria ou não que seus cameos fossem públicos,” enfatizando o desejo comum de evitar que suas representações dissessem coisas ofensivas ou “profundamente problemáticas.”

Complementando a declaração, Bill Peebles, chefe do Sora na OpenAI, publicou no X (anteriormente Twitter) que a equipe havia recebido feedback de inúmeras pessoas interessadas em tornar seus cameos públicos, mas com a capacidade de manter o controle sobre o uso. Agora, os usuários podem especificar como suas representações geradas por IA são empregadas, por meio de instruções de texto diretamente ao Sora, como, por exemplo, “não me coloque em vídeos que envolvam comentários políticos” ou “não me deixe dizer essa palavra específica.”

A equipe também está empenhada em aprimorar a visibilidade da marca d’água do Sora em vídeos baixados, conforme Peebles mencionou. Diversos indivíduos expressaram preocupação com o risco de desinformação gerado por vídeos de IA hiper-realistas, especialmente quando a marca d’água que os identifica como criações de IA não é suficientemente grande ou pode ser facilmente removida, seguindo tutoriais que já proliferam online. “Também sei que as pessoas já estão encontrando maneiras de removê-la,” Altman admitiu sobre a marca d’água durante uma sessão de perguntas e respostas.

Durante sua apresentação no evento DevDay, Altman havia anunciado a disponibilização imediata de uma prévia do Sora 2 na API da OpenAI. Essa medida permitiria aos desenvolvedores acessar o mesmo modelo que impulsiona o Sora 2 para criar vídeos gerados por IA de alta qualidade para seus próprios projetos, aparentemente sem a aplicação de qualquer marca d’água visível. Contudo, em uma coletiva de imprensa, quando questionado sobre a implementação de salvaguardas para o Sora 2 na API, Altman optou por não dar uma resposta específica à questão.

Altman ainda revelou surpresa com o volume de demanda para gerar vídeos destinados exclusivamente a chats de grupo — ou seja, para serem compartilhados apenas com uma ou poucas pessoas, e não de forma mais ampla. Embora essa utilização tenha se mostrado popular, ele reconheceu que o formato atual do aplicativo não se adapta perfeitamente a essa demanda específica.

O CEO da OpenAI enquadrou as dificuldades iniciais do lançamento como oportunidades de aprendizado. “Em pouco tempo não teremos mais o único bom modelo de vídeo disponível, e haverá uma tonelada de vídeos sem nenhuma de nossas salvaguardas, e isso é aceitável, é assim que o mundo funciona,” disse Altman. Ele complementou, afirmando: “Podemos usar esta janela para fazer a sociedade realmente entender, ‘Ei, o campo de jogo mudou, agora podemos gerar vídeos em alguns casos quase indistinguíveis’, e você tem que estar pronto para isso.” Altman expressou a percepção de que as pessoas só prestam atenção à tecnologia da OpenAI no momento do lançamento, e não quando a equipe discute seu desenvolvimento. “Temos que ter – esse tipo de co-evolução tecnológica e social”, pontuou. “Acredito que funciona, e eu realmente não sei de mais nada que funcione. Haverá claramente desafios para a sociedade lidar com essa qualidade, e com o que ficará muito melhor, na geração de vídeo. Mas a única maneira que conhecemos de ajudar a mitigar isso é fazer o mundo experimentar e descobrir como isso vai acontecer.”

OpenAI não esperava crise de direitos autorais com Sora - Imagem do artigo original

Imagem: OpenAI via theverge.com

É uma posição polêmica, especialmente vinda de um CEO de IA. Desde seu surgimento, a inteligência artificial tem sido utilizada de maneiras que afetam desproporcionalmente minorias e populações vulneráveis – desde prisões injustas até o uso de IA para pornografia de vingança. O Sora conta com algumas proteções, mas a experiência e a história recente sugerem que usuários encontrarão maneiras de contorná-las. Ferramentas de remoção de marca d’água já se espalham online, algumas usando “borracha mágica”, outras programando seus próprios métodos. Atualmente, os prompts de texto não permitem a geração de rostos específicos sem permissão, mas há alegações de que a regra foi contornada para criar aproximações realistas, utilizadas para instilar medo, fazer ameaças ou gerar vídeos sugestivos, como de mulheres segurando objetos fálicos.

Quando questionado se os planos da OpenAI representavam uma abordagem de “move fast and break things” (agir rápido e romper barreiras), Altman refutou a ideia. Ele explicou que as críticas dos usuários do Sora atualmente pendem para o lado de que a empresa está sendo excessivamente restritiva e com “censura.” Altman reiterou que o lançamento foi realizado de maneira conservadora e que, com o tempo, a companhia buscará formas de permitir mais liberdade aos usuários.

Em relação à lucratividade do Sora, Altman afirmou que “não estava entre minhas dez principais preocupações” por ora. No entanto, reconheceu que “obviamente um dia teremos que ser muito lucrativos, e estamos confiantes e pacientes de que chegaremos lá.” O CEO explicou que a empresa está, no momento, em uma fase de investimento agressivo no projeto.

Independentemente das dificuldades iniciais, Greg Brockman, presidente da OpenAI, expressou seu fascínio pela curva de adoção do Sora, que superou a do ChatGPT em intensidade. O aplicativo manteve-se consistentemente no topo da lista de aplicativos gratuitos na App Store da Apple. “Acho que isso aponta um pouco para o futuro – essa coisa a que sempre voltamos: vamos precisar de mais capacidade de processamento [compute],” declarou. “Em certa medida, essa é a lição número um do lançamento [do Sora] até agora.”

Essa análise de Brockman funciona essencialmente como um argumento em favor do Stargate, o projeto conjunto da OpenAI com a SoftBank e a Oracle para fortalecer a infraestrutura de IA nos EUA. A iniciativa visa um investimento inicial de US$ 100 bilhões, podendo chegar a US$ 500 bilhões em quatro anos. O projeto tem o apoio do Presidente Donald Trump e a OpenAI já anunciou novos locais para centros de dados no Texas, Ohio e Novo México. Esses empreendimentos, intensivos em energia, são alvo de controvérsias, pois frequentemente operam com poucas centenas de funcionários após a construção inicial, apesar das promessas de grande escala na criação de empregos.

Contudo, a OpenAI segue em frente. Em uma movimentação de destaque na segunda-feira, a empresa firmou um acordo com a fabricante de chips AMD que poderia lhe conceder uma participação de 10%. Horas mais tarde, em uma sessão de perguntas e respostas com jornalistas, Altman foi indagado sobre o interesse da empresa em desenvolver seus próprios chips. “Estamos interessados em toda a pilha da infraestrutura de IA,” ele respondeu. Em outro momento, instruiu os repórteres a “esperar muito mais da OpenAI sobre a pilha de infraestrutura.”

Durante a sessão, os executivos da OpenAI repetidamente enfatizaram a insuficiência de “compute” e como essa escassez pode limitar a capacidade da empresa e de seus concorrentes de oferecer serviços em grande escala. “Perguntar ‘Quanta capacidade de processamento você quer?’ é um pouco como perguntar ‘Quanta força de trabalho você quer?'”, comparou Brockman. “A resposta é que você sempre pode tirar mais com mais.” No cenário atual, oferecer mais capacidade para gerar deepfakes de amigos é o mais recente atrativo comercial.

Confira também: crédito imobiliário

Em suma, a incursão da OpenAI com o Sora trouxe à tona questões cruciais sobre direitos autorais, controle de conteúdo gerado por IA e o desafio da co-evolução tecnológica e social. As experiências iniciais com o aplicativo ressaltam a complexidade de equilibrar inovação com responsabilidade. Continue explorando análises aprofundadas sobre o impacto da tecnologia em nossa sociedade e economia, navegando pela nossa editoria de Análises para se manter atualizado.

Image: OpenAI


Links Externos

🔗 Links Úteis

Recursos externos recomendados

Deixe um comentário