Imagens de segurança de um famoso CEO de tecnologia furtando uma loja, Ronald McDonald em uma perseguição policial, Jesus brincando sobre “vibes de última ceia” em um vídeo em frente a uma mesa de jantar lotada. Todos são vídeos falsos que, na quarta-feira (1º), estavam entre os mais populares em um novo aplicativo estilo TikTok que borra ainda mais a linha entre realidade e fantasia ou falsidade gerada por IA (inteligência artificial).
Sora, lançado pela OpenAI, criadora do ChatGPT, é um aplicativo onde cada segundo de áudio e vídeo é gerado por IA. Os usuários podem criar vídeos falsos que retratam a si mesmos ou seus amigos em praticamente qualquer cenário imaginável, com realismo consistentemente alto e uma trilha sonora convincente, inclusive com vozes. A OpenAI disse que o aplicativo está inicialmente disponível apenas nos Estados Unidos e Canadá, mas que o acesso será expandido.
Nas 24 horas após o lançamento do aplicativo na terça-feira (30), os primeiros usuários exploraram o poder da tecnologia aprimorada de criação de vídeos da OpenAI e a diversão de inserir amigos em cenas absurdas, ou fazê-los cantar, dançar ou voar.
Os usuários também postaram clipes que mostraram como ferramentas de vídeo de IA mais poderosas poderiam ser usadas para enganar, assediar e também levantar questões legais sobre direitos autorais.
Vídeos falsos que viralizaram no Sora incluíam imagens realistas de câmeras corporais da polícia, recriações de programas populares de TV e clipes que quebraram as proteções destinadas a impedir o uso não autorizado da imagem de uma pessoa.
Testes realizados pelo The Washington Post mostraram que o Sora poderia criar vídeos falsos de pessoas reais vestidas como generais nazistas, cenas falsas altamente convincentes de programas de TV, incluindo “South Park”, e imagens falsas de figuras históricas como John F. Kennedy.
Especialistas têm alertado há anos que vídeos gerados por IA poderiam se tornar indistinguíveis de vídeos filmados com câmeras, minando a confiança em filmagens do mundo real. A combinação do Sora de tecnologia de IA aprimorada e sua capacidade de inserir realisticamente pessoas reais em clipes falsos parece tornar tal confusão mais provável.
“O desafio com ferramentas como o Sora é que ele torna o problema exponencialmente maior porque é muito disponível e muito bom”, disse Ben Colman, CEO e cofundador da Reality Defender, uma empresa que desenvolve software para ajudar bancos e outras empresas a detectar fraudes e deepfakes de IA.
Apenas alguns meses atrás, pessoas comuns não tinham acesso à geração de vídeo de IA de alta qualidade, disse Colman. “Agora está em toda parte.”
Conteúdo gerado por IA tornou-se cada vez mais comum —e popular— em plataformas como TikTok e YouTube ao longo do último ano. Estúdios de Hollywood estão experimentando a tecnologia para acelerar produções.
O presidente Donald Trump postou esta semana um vídeo falso gerado por IA em sua rede social Truth Social mostrando o líder da minoria na Câmara, Hakeem Jeffries, com um sombrero e bigode durante uma coletiva de imprensa. A conta do governador da Califórnia, Gavin Newsom, no X postou vídeos falsos do vice-presidente J.D. Vance no X.
O novo aplicativo Sora torna a OpenAI a primeira grande empresa de tecnologia a tentar construir uma plataforma social de vídeo totalmente focada em vídeo falso. O Sora ficou em terceiro lugar como o download mais popular na App Store da Apple um dia após seu lançamento, apesar do acesso ao aplicativo ser limitado àqueles que têm um código de convite de um usuário existente.
A OpenAI lançou a primeira versão do Sora no ano passado, como uma ferramenta que simplesmente convertia comandos de texto em curtos clipes de vídeo falsos. O Google e outras empresas logo lançaram suas próprias ferramentas de vídeo de IA. A Meta adicionou na semana passada um recurso chamado Vibes ao seu aplicativo de IA que permite que as pessoas criem e compartilhem vídeos de IA.
As ferramentas da Meta e do Google permitem a criação de pessoas com aparência real. Com o Sora, a OpenAI foi além e projetou o aplicativo para incentivar os usuários a fazer vídeos de pessoas específicas e compartilhar sua própria imagem para que outros usem.
Um porta-voz da OpenAI disse que as regras para seus produtos proíbem personificação, golpes e fraudes. A empresa também adicionou proteções extras ao aplicativo quando pessoas reais são apresentadas em vídeos, destinadas a bloquear nudez e violência gráfica.
Em resposta a perguntas sobre possíveis violações de direitos autorais quando os usuários fazem vídeos replicando conteúdos, o chefe de parcerias de mídia da OpenAI, Varun Shetty, disse que os usuários estão “ansiosos para se envolver com sua família e amigos através de suas próprias imaginações, bem como histórias, personagens e mundos que amam.”
A OpenAI bloqueará quaisquer personagens com direitos autorais se os detentores de direitos pedirem que sejam removidos, disse Shetty. O Post relatou anteriormente que testes com uma versão anterior da tecnologia de vídeo da OpenAI sugeriam que ela havia sido criada usando versões de filmes e programas da Netflix. A empresa está enfrentando múltiplos processos alegando que usou indevidamente texto de livros, notícias e outras fontes para treinar sistemas de IA.
O Washington Post tem uma parceria de conteúdo com a OpenAI.
A Disney enviou no mês passado uma carta de desistência ao aplicativo de chatbot Character AI, pedindo que removesse chatbots personalizados por seus usuários para interpretar personagens da Disney. “A Disney não permitirá que sua empresa sequestre personagens, danifique marcas ou infrinja direitos autorais e/ou marcas registradas”, de acordo com uma cópia da carta vista pelo Post.
Folha Mercado
Receba no seu email o que de mais importante acontece na economia; aberta para não assinantes.
O Sora coloca imagens de pessoas reais em vídeos falsos com um recurso chamado “cameos”. Os usuários carregam um vídeo curto de seu rosto que, uma vez processado pelo aplicativo, pode ser usado pelo Sora para inserir a imagem dessa pessoa em vídeos gerados por IA. Os usuários podem manter seu cameo para si mesmos, permitir que amigos também o usem, ou até mesmo permitir que qualquer usuário do Sora gere vídeos com seu rosto.
A OpenAI disse que dar aos usuários a capacidade de controlar o uso de sua imagem dessa maneira protegerá contra possíveis usos indevidos. Os usuários podem excluir vídeos feitos com sua imagem por outros se não gostarem deles, e o Sora tenta bloquear tentativas de criar vídeos de figuras públicas como políticos e celebridades.
Mas nas primeiras horas do lançamento público do aplicativo, alguns usuários encontraram maneiras de contornar esses limites. Justine Ezarik, youtuber conhecida como iJustine, postou no Sora que seu rosto estava “aberto para qualquer pessoa que queira fazer um vídeo comigo agora, então não abusem.”
Outros usuários rapidamente a adicionaram em todos os tipos de cenas, incluindo uma série de clipes postados sob o nome de usuário “JustineLover”, que a retratavam sendo respingada com líquido branco pegajoso. A conta foi posteriormente removida. “Estou feliz que essa conta tenha sido removida antes mesmo de aparecer no meu feed”, escreveu Ezarik em um e-mail. Ela disse que monitora o uso de seu cameo no aplicativo Sora para que possa “excluir qualquer coisa que ultrapasse os limites.”
Novos usuários do aplicativo são apresentados a caixas de seleção pedindo que não criem vídeos que contenham “violência ou temas explícitos”, retratem crianças ou apresentem pessoas sem seu consentimento. O aplicativo às vezes se recusa a gerar vídeos e exibe um aviso de que a solicitação violou suas políticas ou “proteções contra assédio, discriminação, bullying ou conteúdo proibido semelhante.”
Mathieu Samson, fundador da Kickflix, agência de produção de filmes com IA, usou o Sora para fazer um comercial de TV falso, mas realista, para um conjunto de brinquedos infantis chamado “Ilha Secreta” que apresenta uma “sala de massagem escondida”, em referência ao criminoso sexual condenado Jeffrey Epstein.
“Definitivamente não há filtros suficientes”, disse Samson, prevendo que, como aconteceu com outras novas ferramentas de IA, a OpenAI adicionará mais restrições à medida que clipes problemáticos forem sinalizados e denunciados. Ele espera que os usuários ainda encontrem maneiras de ultrapassar os limites. “Não importa os filtros, sempre há maneiras de contorná-los.”
Samson, que disse ter criado contas de vídeo de IA no TikTok e YouTube, previu que os humanos poderiam em breve achar difícil competir com conteúdo falso online.
O vídeo de IA pode ser feito mais rapidamente e está se tornando mais difícil de identificar, disse ele. “Mesmo que os espectadores prefiram autenticidade, se se tornar difícil discernir, então terá pouca vantagem”, disse Samson.
Colaborou Kevin Schaul