O The Washington Post fez um teste simples e revelador: enviou o mesmo vídeo gerado por inteligência artificial para oito grandes redes sociais e conferiu o que cada plataforma mostrava ao público.
O teste
O clipe foi criado com o app Sora, da OpenAI, e trazia metadados do padrão técnico conhecido como Credenciais de Conteúdo (C2PA) — inclusive indicações como “Criado usando IA Generativa” e “publicado pela OpenAI” — além de uma marca d’água leve. Ainda assim, ao subir os arquivos, todas as plataformas removeram esses metadados e bloquearam o acesso ao marcador digital que permitiria checar a procedência.
Somente o YouTube exibiu alguma indicação, mas de forma discreta: um aviso escondido na descrição do vídeo que precisava ser aberto manualmente. O texto dizia “Conteúdo alterado ou sintético”, sem mencionar explicitamente o uso de inteligência artificial.
- YouTube: sinalizou parcialmente, com aviso oculto na descrição;
- Facebook: não mostrou indicação e não manteve os metadados;
- Instagram: não mostrou indicação e não manteve os metadados;
- Pinterest: não mostrou indicação e não manteve os metadados;
- TikTok: não mostrou indicação e não manteve os metadados;
- LinkedIn: não mostrou indicação e não manteve os metadados;
- Snapchat: não mostrou indicação e não manteve os metadados;
- X: não mostrou indicação e não manteve os metadados.
O que é o C2PA
O padrão C2PA nasceu em 2021, idealizado por empresas como Microsoft, Adobe e BBC, para anexar metadados confiáveis a imagens e vídeos — detalhando câmeras, softwares de edição ou o sistema de IA que gerou o arquivo. A governança ficou a cargo da Coalition for Content Provenance and Authenticity, que reúne centenas de membros, entre eles Google, Meta, Intel, Sony, Nikon, OpenAI e TikTok. A adesão, porém, é voluntária.
O app Sora incluiu os metadados e a marca d’água em sua versão divulgada pela OpenAI; porém, a versão para desenvolvedores não trazia essas marcações, e assinantes do plano profissional puderam baixar vídeos sem marcas. A OpenAI afirmou também ter criado marcadores invisíveis de autenticidade para uso interno.
O Google tem um projeto semelhante chamado SynthID, também pensado para marcação, mas que não ficou disponível ao público. Ferramentas que detectam manipulações pela análise visual foram citadas como alternativas, mas se mostraram pouco confiáveis e ganharam adoção limitada pelas redes.
“Reconhecemos que a adoção levará tempo e esse trabalho está em andamento”, disse Christa Muldoon, porta‑voz do Google.
Compromissos e limites práticos
Grandes empresas, como Google e OpenAI, assumiram compromissos durante o governo de Joe Biden para desenvolver sistemas que indiquem quando um conteúdo foi gerado por IA. Ainda assim, o teste do Post mostrou que, na prática, a aplicação desses compromissos segue limitada. Algumas empresas não responderam a pedidos de comentário (Meta, OpenAI, TikTok, Snapchat e X); outras recusaram comentar oficialmente (LinkedIn e Pinterest).
“Os usuários precisam ter acesso à informação sobre como o conteúdo foi feito, inclusive, quais ferramentas foram usadas”, afirmou Andrew Jenks, presidente‑executivo da coalizão que gerencia o padrão.
O que vem a seguir
Como desdobramento legal, uma lei assinada pelo governador Gavin Newsom exige, na Califórnia (EUA), que grandes plataformas passem a exibir, a partir do próximo ano, informações visíveis sobre se um conteúdo foi alterado ou criado com uso de inteligência artificial. O teste do Post e as respostas das empresas mostram que ainda faltam mecanismos eficazes e amplamente adotados para essa transparência.
O resultado é claro: a tecnologia para marcar a origem existe, mas sua preservação e exposição ao público ainda não são práticas comuns. Há trabalho pela frente para que a promessa de transparência se traduza em sinais visíveis e confiáveis para quem consome conteúdo online.