Paulo Afonso, na Bahia — A OpenAI lançou nesta semana o Sora 2, um modelo de inteligência artificial que cria vídeos hiper‑realistas a partir de instruções de texto ou de imagens. Junto com o modelo, veio um aplicativo social focado em conteúdo curto gerado por IA, numa proposta parecida com a de plataformas como o TikTok.
O que o Sora 2 oferece
O sistema traz vários recursos que aumentam o realismo:
- visuais detalhados e simulação física avançada;
- síntese de voz e efeitos sonoros;
- uma função de cameo para inserir a imagem do usuário em cenas, ou usar o rosto de terceiros com autorização.
O que aconteceu nos primeiros dias
Nos primeiros três dias de disponibilidade, o app foi usado para criar vídeos que mostravam fraudes eleitorais, prisões de imigrantes, protestos, crimes, explosões em áreas urbanas e invasões domiciliares — eventos que não ocorreram. Isso acendeu um alerta entre especialistas sobre os riscos à democracia e à segurança digital.
Relatos de imprensa indicaram que, apesar de restrições, a ferramenta recusou gerar imagens de líderes políticos e celebridades sem permissão, mas aceitou cenas como assaltos, imagens de câmeras de segurança e explosões urbanas. Um exemplo divulgado mostrou um vídeo simulando o CEO da OpenAI, Sam Altman, cometendo furto em uma loja.
“É preocupante para os consumidores que todos os dias estão expostos a não sei quantas dessas peças de conteúdo. Eu me preocupo com a nossa democracia. Eu me preocupo com a nossa economia. Eu me preocupo com as nossas instituições”, disse o professor Hany Farid, da Universidade da Califórnia em Berkeley.
A OpenAI afirmou ter feito testes de segurança extensivos antes do lançamento e lembra que suas políticas proíbem personificação, golpes e fraudes, atuando quando detecta uso indevido. Segundo a empresa, o Sora 2 inclui uma marca d’água em movimento para sinalizar conteúdo gerado por IA e exige o envio de um vídeo do próprio usuário para criar avatares realistas — embora o cadastro no app não peça verificação de identidade.
Riscos apontados por especialistas
Pesquisadores chamaram atenção para um conjunto de problemas possíveis. O fundador da CivAI, Lucas Hansen, falou sobre o aumento do chamado “dividendo do mentiroso”, quando registros verdadeiros passam a ser desacreditados como falsos. O professor Kristian J. Hammond, da Universidade Northwestern, alertou para a formação de “realidades fragmentadas”, em que públicos só recebem materiais que reforçam crenças erradas.
Se quase qualquer cena pode ser fabricada, como confiar no que vemos? Essa pergunta envolve não só tecnologia, mas leis, políticas públicas e educação digital.
Especialistas e jornalistas dizem que o caso reforça a necessidade de decisões públicas e de alfabetização midiática para reduzir danos — inclusive pensando nos efeitos sobre eleitores e processos democráticos, aqui na Bahia e em outros lugares.