IA:Usaram meu rosto no Sora; primeiro ri, depois tive medo – 08/10/2025 – Tec

Recentemente, assisti a um vídeo em que eu era preso por dirigir bêbado. Depois, vi outro em que queimava uma bandeira dos Estados Unidos. Em seguida, um em que confessava comer aparas de unha.

Nada disso aconteceu. Mas tudo parecia tão real que precisei assistir duas vezes para acreditar.

Amigos fizeram os vídeos usando o Sora, novo aplicativo de IA (inteligência artificial) da OpenAI, dona do ChatGPT, que já é o app mais baixado em iPhones. Eu dei ao aplicativo acesso ao meu rosto. Mas nunca autorizei o que fariam com ele.

O Sora torna assustadoramente fácil colocar rostos e vozes reais em vídeos gerados por IA. Basta gravar um pequeno vídeo de selfie para criar um “cameo” —um perfil digital do seu rosto— e escolher quem pode usá-lo: amigos, todos da plataforma ou apenas você. Qualquer pessoa com acesso pode digitar uma breve descrição do que quer ver você fazendo e gerar o vídeo em poucos minutos.

É preciso optar por compartilhar o rosto, mas não há como aprovar o conteúdo antes que ele seja criado. O app apenas envia uma notificação depois que alguém faz um vídeo com sua imagem. (O Sora também funciona como uma rede social, parecida com o TikTok —com a diferença de que tudo o que aparece ali é gerado por IA.) Você pode excluir vídeos com sua aparência dentro do aplicativo, mas, até isso acontecer, o criador já viu, pode ter compartilhado ou até baixado e publicado em outra plataforma.

O Sora leva o conceito de consentimento digital a uma zona desconfortável. Até pouco tempo atrás, usar IA para falsificar a imagem de alguém era chamado de deepfake. Agora, a OpenAI o rebatizou de “cameo” e o transformou na brincadeira social da semana. No meio das risadas, perde-se a noção de como é perder o controle sobre o próprio rosto.

Para entender o que isso significa, tecnicamente e emocionalmente, pedi a meu criativo colega Chris Velazco que fizesse o que quisesse com vídeos do Sora usando meu rosto. Ele produziu um falso flagrante de embriaguez ao volante e dezenas de outros, incluindo um em que Ronald Reagan me nomeia presidente do Conselho Nacional de Mentir para Crianças. (O Washington Post tem uma parceria de conteúdo com a OpenAI, mas avalio toda tecnologia com o mesmo olhar crítico.)

Muitos vídeos eram genuinamente engraçados. O Sora impressiona pela naturalidade dos rostos, expressões, movimentos labiais e até o tom de voz. Há algo fascinante em ver a si mesmo em situações que jamais viveria. Quando alguém assume o controle desse espelho, pode ser criativo de formas que você não seria.

Um dos meus favoritos mostra um chef de reality show me repreendendo por um prato ruim. Amigos disseram que a expressão no vídeo é assustadoramente parecida com a minha.

Poderia ter ficado nisso —uma brincadeira inofensiva entre amigos. Mas então Chris fez um vídeo em que eu contava uma piada de mau gosto no escritório. Senti o estômago revirar. Não era algo que eu diria, mas também não era completamente impossível. E foi isso que me perturbou. Consegui me imaginar mostrando o vídeo a alguém e vendo a dúvida surgir no olhar da pessoa: Será que ele realmente disse isso?

Sou jornalista, com nome e espaço para me defender. Mas e as pessoas vulneráveis, como vítimas de abuso ou alvos de golpes online? Imagine o ambiente de uma escola. Um vídeo falso mostrando alguém furtando, usando drogas ou dizendo ofensas racistas e sendo enviado a empregadores, pais ou professores.

Conversei com Eva Galperin, diretora de cibersegurança da ONG Electronic Frontier Foundation, que atua com vítimas de abuso digital. “Vídeos de amigos furtando em lojas são muito mais perigosos para algumas populações do que para outras”, disse ela. “O que a OpenAI não entende são as dinâmicas de poder.”

O QUE VOCÊ PODE, E O QUE NÃO PODE, CONTROLAR SOBRE O PRÓPRIO ROSTO

Em nota, a OpenAI afirmou que “você tem controle total sobre sua imagem dentro do Sora”. Quando perguntei por que usuários não podem aprovar vídeos antes que sejam criados, a empresa agradeceu o “feedback”. Tradução: sabemos que é um problema, mas lançamos mesmo assim.

“Deveríamos ter muito mais controle sobre nossa identidade”, disse Hany Farid, professor da Universidade da Califórnia em Berkeley e especialista em mídia gerada por IA. “Mas tornar o produto mais seguro o tornaria menos viral, e ninguém quer isso”, completou.

As configurações padrão agravam o problema. Ao criar uma conta, o Sora define automaticamente que seu cameo pode ser usado por “amigos em comum” —qualquer pessoa que você siga e que também siga você. Poucos usuários saberão exatamente quem está nessa lista.

Amigos não permanecem amigos para sempre, as relações mudam“, observou Galperin. “Na prática, você está confiando em todos que já seguiu para nunca se tornarem ex-amigos, inimigos ou apenas pessoas com mau julgamento.”

Após críticas, o Sora adicionou algum controle extra. Agora é possível escrever diretrizes sobre como você quer ser retratado, incluindo restrições sobre o que não pode ser feito. “Estamos aprimorando continuamente as restrições e adicionaremos novas formas de manter o controle sobre seu cameo”, escreveu Bill Peebles, chefe do Sora, em postagem na rede social X (antigo Twitter).

A OpenAI também afirma que o aplicativo tem barreiras contra conteúdo sexual, violento ou prejudicial. Não dá para gerar vídeos de alguém nu, mas há registros meus sendo empurrado, cuspido por multidões e mostrando o dedo médio a um bebê. (A IA até errou o dedo, mas ainda assim.) Para criar um vídeo de alguém sendo grosseiro, basta digitar o nome da pessoa e a frase.

Os vídeos incluem uma marca-d’água visível para indicar que são falsos. Mas minha designer mostrou que conseguiu removê-la com um programa de edição da Adobe em cerca de cinco minutos.

“A OpenAI subestima seriamente a criatividade das pessoas quando o assunto é assédio”, disse Galperin.

O DANO DE UM VÍDEO FALSO

O CEO da OpenAI, Sam Altman, definiu seu cameo como disponível para qualquer pessoa. Na primeira semana do app, ele apareceu em diversos vídeos cômicos. Perguntei o que ele havia aprendido com a experiência, e a empresa não respondeu. Mas Altman não é um usuário comum —ele pode banir qualquer pessoa do aplicativo.

A criadora de conteúdo Justine Ezarik, conhecida como iJustine, também deixou seu cameo aberto ao público, e logo encontrou vídeos sexualizados jogando líquido em seu corpo.

Em e-mail, Ezarik disse não ter se surpreendido e afirmou que agora monitora cada vídeo e apaga tudo que ultrapassa o limite. A maioria dos usuários, no entanto, não tem tempo nem conhecimento técnico para fazer o mesmo.

“Isso está provocando conversas importantes”, disse ela, “sobre como essas ferramentas podem ser usadas para ferir ou intimidar pessoas”.

Usuários anônimos podem enfrentar problemas ainda piores. “Me preocupa o uso desses vídeos como instrumentos de assédio ou de fraude, para enganar pessoas e fazê-las pensar que amigos estão em apuros e precisam de dinheiro”, afirmou.

E o que fazer? A criadora Jules Terpak acredita que usuários comuns “estariam abertos a liberar o recurso para amigos, mas não para o público”, algo que já observa entre seus seguidores.

Entre amigos próximos, pode até funcionar, mas ainda há riscos. “Eu sentiria necessidade de pedir permissão antes de postar um cameo de um amigo”, disse Terpak, que já foi colunista de conselhos do Washington Post. “Não acho necessariamente errado criar algo em privado se a pessoa me autorizou no app, mas mesmo assim, intuitivamente, eu confirmaria antes de publicar.”

Esse impulso —o de pedir permissão mesmo quando você tecnicamente já está autorizado a fazer o que deseja— é a cultura do consentimento que a OpenAI deveria ter incorporado ao aplicativo. Em vez disso, delegou a responsabilidade à boa vontade dos usuários.

Depois da experiência com Chris, mudei minhas configurações no Sora para “somente eu” —o que significa que apenas eu posso gerar vídeos com meu rosto. Isso elimina o aspecto social do app, mas é justamente o objetivo. Quem já criou um cameo pode apagá-lo nas configurações, embora isso não remova os vídeos que já foram feitos.

Chris pediu desculpas por me deixar desconfortável. Agora imagine se ele não se importasse.

Consultor Júridico

Facebook
Twitter
LinkedIn

Entraremos em Contato

Deixe seu seu assunto para explicar melhor