Deepfakes desafiam eleições e acendem alerta para 2026
Vídeos falsos com Lula, Haddad e até apresentadora da Globo já circulam. Número de ações na Justiça Eleitoral explodiu desde 2022
247 - A proliferação de vídeos manipulados por inteligência artificial — os chamados deepfakes — está ampliando o risco de interferência eleitoral no Brasil e preocupa autoridades, especialistas e instituições de pesquisa. Segundo reportagem do O Globo, conteúdos ultrarrealistas têm potencial de alterar o resultado de eleições e exigem respostas mais robustas da Justiça e das plataformas digitais antes do pleito de 2026.
A advogada Stefani Vogel, pesquisadora do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) e coautora do estudo Ethics 4IA, resume a inquietação: “observamos que, em disputas eleitorais mais acirradas ou com candidatos maiores, a Justiça Eleitoral se via despreparada e sem instrumentos para fazer uma análise mais técnica sobre essas ocorrências de deepfake”. E alerta: “a tendência é que esses casos aumentem no ano que vem, e nós devemos ficar novamente nas mãos do TSE, que deve aperfeiçoar a solução pensada para essas ocorrências”.
A multiplicação dos processos - Dados extraídos do Diário Eletrônico da Justiça revelam que o número de processos envolvendo deepfakes explodiu em anos eleitorais: apenas três em 2022, contra 109 em 2024. Somente no primeiro semestre deste ano, já foram 51 — e a expectativa é que esse número cresça ainda mais em 2025.
Para Pollyana Ferreira, professora da USP e especialista em inteligência artificial generativa, o cenário atual é fruto da evolução tecnológica e do barateamento das ferramentas: “desde o lançamento do ChatGPT em 2022, vimos um salto na quantidade dessas ferramentas, que também têm ficado mais baratas, transformando o uso desses recursos mais acessível a qualquer cidadão comum”.
Ela ressalta que antes, para manipular uma imagem ou áudio, era necessário contratar um editor profissional. Hoje, bastam alguns cliques.
Falsificações com Lula e Haddad - Entre os exemplos mais emblemáticos, estão vídeos que distorcem falas do presidente Luiz Inácio Lula da Silva (PT) e de integrantes do governo. Um dos conteúdos mais compartilhados recentemente mostra Lula supostamente anunciando uma nova categoria do Bolsa Família para “mães de bebês reborn” — bonecas hiper-realistas que simulam recém-nascidos. O vídeo foi gerado com base em uma entrevista real do presidente ao podcast Podpah em 2021, mas editado por IA. A fake news forçou o Ministério do Desenvolvimento Social a desmentir a informação: “só para bebês de carne e osso”, ironizou o órgão em suas redes.
Outro vídeo falsificado apresenta a voz do ministro da Fazenda, Fernando Haddad (PT), anunciando tributos sobre “cachorrinhos de estimação e grávidas”. A peça circulou durante uma queda de popularidade do governo em meio à crise do Pix e foi compartilhada pelo deputado Osmar Terra (MDB-RS), ex-ministro de Bolsonaro.
As manipulações também atingem figuras da imprensa. A jornalista Renata Vasconcellos, âncora do Jornal Nacional, da TV Globo, teve sua imagem usada para narrar a suposta existência de um quarto secreto do presidente Lula destinado a “guardar o dinheiro roubado dos aposentados”.
Reações do Estado - A Advocacia-Geral da União (AGU) já apresentou 12 pedidos extrajudiciais para a remoção de conteúdos falsos desde 2023, dos quais nove foram aceitos, três negados e outros três ainda estão sob análise das plataformas. Quatro dos casos viraram ações judiciais.
Na esfera judicial, o Supremo Tribunal Federal (STF) formou maioria, na semana passada, para responsabilizar redes sociais por conteúdos ilegais, mesmo antes de decisão judicial. O Tribunal Superior Eleitoral (TSE), por sua vez, proibiu terminantemente o uso de deepfakes e determinou que conteúdos gerados por IA devem conter aviso claro informando sua origem artificial.
Apesar disso, segundo o levantamento Ethics 4IA, de 56 processos sobre deepfakes nos Tribunais Regionais Eleitorais em 2023, 14 foram enviados à Justiça comum — reflexo, segundo Stefani Vogel, do despreparo de parte dos operadores do Direito.
Riscos à democracia - Para o cientista político Murilo Medeiros, da Universidade de Brasília (UnB), o uso irresponsável de IA pode prejudicar a confiança da população nas instituições democráticas: “simular falas, comportamentos e os posicionamentos dos candidatos pode induzir o eleitor ao erro. Uma saturação informacional no ambiente digital, com conteúdos manipulados, influencia e enfraquece a confiança da população no sistema eleitoral”.
Avanço tecnológico e regulação - A preocupação se intensifica com o surgimento de plataformas como a Veo3, lançada pelo Google em maio de 2025. Capaz de gerar vídeos realistas com base em textos simples, a ferramenta afirma que incorpora uma marca d’água digital, o SynthID, para sinalizar conteúdos artificiais. No entanto, analistas temem que as falsificações ultrapassem barreiras técnicas antes que legislações eficazes estejam em vigor.
No Congresso, há propostas para regulamentar o uso da IA no país. No Senado, Chico Rodrigues (PSB-PR) apresentou dois projetos: um para endurecer a punição para crimes contra a honra cometidos com deepfakes, e outro que regula o uso publicitário da tecnologia. Ambos estão parados nas comissões. Já na Câmara, discute-se uma proposta mais ampla, ainda em fase de audiências públicas.
Casos internacionais reforçam urgência - O Brasil não está sozinho. Na Argentina, durante as eleições legislativas em Buenos Aires, um vídeo adulterado mostrava o ex-presidente Mauricio Macri pedindo votos para o partido de Javier Milei. Dois anos antes, o então candidato Sergio Massa foi alvo de outro conteúdo falso, que o mostrava cheirando cocaína.
Nos Estados Unidos, deepfakes de Joe Biden circularam na véspera das primárias democratas em New Hampshire, com áudios falsos do presidente pedindo aos eleitores para “ficarem em casa”. Na França, a campanha de Marine Le Pen foi beneficiada por contas falsas no TikTok que se apresentavam como “sobrinhas” da candidata, com o objetivo de atrair o voto jovem.
Diante de um cenário cada vez mais sofisticado e desafiador, especialistas e autoridades reforçam que a resposta precisa ser institucional, jurídica e pedagógica. O tempo até 2026 está correndo — e a manipulação já começou.
❗ Se você tem algum posicionamento a acrescentar nesta matéria ou alguma correção a fazer, entre em contato com [email protected].
✅ Receba as notícias do Brasil 247 e da TV 247 no Telegram do 247 e no canal do 247 no WhatsApp.
Assine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista: