À medida que as eleições de 2026 se aproximam, um fantasma tecnológico paira sobre a democracia brasileira: a Inteligência Artificial (IA) e sua capacidade de produzir fake news em um novo patamar de velocidade e realismo. Especialistas, a Justiça Eleitoral e figuras políticas, como o Ministro Luís Roberto Barroso, do STF, alertam que a massificação de vídeos e áudios manipulados — os chamados deepfakes — representa um risco inédito para a integridade do voto.
O Salto Tecnológico da Desinformação
A IA generativa levou a desinformação a uma nova era. Se antes as fake news se limitavam a textos e imagens de baixa qualidade, hoje qualquer pessoa, mesmo sem grande conhecimento técnico, pode criar conteúdos falsos que são quase indistinguíveis da realidade. A ameaça não é futura; ela já está em curso, se intensificando a cada ciclo eleitoral.
- Deepfakes Hiper-realistas: A principal preocupação reside nos vídeos e áudios falsos que simulam candidatos, eleitores ou figuras públicas dizendo e fazendo coisas que nunca aconteceram. A tecnologia permite sincronia labial perfeita, entonações de voz convincentes e cenários detalhados, tornando o olho humano incapaz de detectar a manipulação rapidamente.
Sora e a Potencialização dos Vídeos Falsos
O receio ganha contornos mais nítidos com o surgimento e a popularização de ferramentas avançadas como o Sora. Embora o Sora (um modelo de geração de vídeo a partir de texto da OpenAI) não tenha sido citado diretamente nos resultados de busca como causador de problemas eleitorais no Brasil, sua capacidade de gerar clipes ultrarrealistas e complexos por simples comandos de texto ilustra o potencial de risco. A massificação de apps com essa capacidade pode fazer com que vídeos de propaganda política enganosa ou ataques difamatórios sejam criados e viralizados em escala e velocidade nunca vistas.
Nano Banana: O Caso dos Deepfakes Eleitorais
Embora o termo “Nano Banana” não seja amplamente documentado como um caso isolado e específico de deepfake de grande repercussão eleitoral no Brasil, a discussão em torno de casos como esse é real. Casos de deepnudes com candidatas e manipulações de imagem já foram identificados em pleitos recentes, revelando que a tecnologia tem sido usada para ataques misóginos e difamatórios na política. Tais incidentes reforçam o argumento de que a tecnologia, nas mãos erradas, é uma arma contra a legitimidade democrática e a participação feminina na política.
O Contra-Ataque da Justiça Eleitoral
O Tribunal Superior Eleitoral (TSE) tem atuado de forma preventiva e tenta se manter à frente da rápida evolução da IA. Já existem normas que proíbem expressamente o uso de deepfakes na propaganda eleitoral com o intuito de disseminar fatos inverídicos ou gravemente descontextualizados.
A estratégia da Justiça Eleitoral para 2026 se baseia em três pilares:
- Regulamentação e Fiscalização: Exigência de transparência no uso de IA nas campanhas e punição rigorosa (incluindo cassação de registro ou mandato) para quem violar as normas.
- Parcerias com Plataformas: Colaboração com as redes sociais por meio de iniciativas como o Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia (CIEDDE) para monitorar e remover conteúdo ilegal em tempo real.
- Educação Midiática: Campanhas fortes de alfabetização digital para capacitar o eleitor a identificar e questionar conteúdos suspeitos.
Conforme afirmou o Ministro Barroso, “o dia que, com a massificação da desinformação pela inteligência artificial e o deepfake, a gente não puder mais acreditar no que vê e no que ouve, a liberdade de expressão vai ter perdido completamente o sentido”. A batalha nas eleições de 2026 será, antes de tudo, uma disputa pelo controle da percepção da realidade.













