Metodologia
Entenda mais detalhes sobre a metodologia aplicada pelo Observatório IA nas Eleições. A página pode sofrer alterações à medida que a pesquisa e a coleta de dados passe por aperfeiçoamentos.
Entenda mais detalhes sobre a metodologia aplicada pelo Observatório IA nas Eleições. A página pode sofrer alterações à medida que a pesquisa e a coleta de dados passe por aperfeiçoamentos.
O enfoque da nossa documentação está em casos de disseminação de conteúdo produzido por IA que tem potencial de interferência na formação da opinião política nacional, na integridade democrática e na decisão de voto, seja por associação explícita (nomes e eventos eleitorais) ou por associação implícita (temas correlatos à confiança e integridade eleitoral).
Vamos considerar conteúdos produzidos por ou sobre pessoas naturais que exercem ou disputarão cargos políticos, sobre partidos e coligações e sobre instituições públicas brasileiras.



Também incluiremos conteúdos que abordam diretamente temas centrais de campanhas e eventos oficiais do processo eleitoral, além de peças que podem levantar dúvida sobre a legitimidade do pleito e a integridade do ambiente eleitoral.
Ademais, buscaremos peças multimídia que interfiram diretamente ou indiretamente a integridade democrática nacional, como conteúdos que ataquem instituições públicas, bem como possíveis violações de direitos humanos, como publicações racistas e discurso de ódio.
Publicações multimídia (texto, imagem, vídeo e áudio) criadas com IA compartilhadas nas redes sociais por perfis de pessoas que concorrem ou exercem cargos públicos, partidos e coligações com fins de influenciar na formação da opinião política nacional. Serão identificados conteúdos sinalizados ou não com uso de IA por tais perfis.
Conteúdos sintéticos (em vídeo, imagem ou áudio) que utilizam imagem ou outros atributos físicos de pessoas que concorrem ou exercem cargos públicos, partidos e coligações. Serão levados em consideração peças publicadas nas redes pelo público em geral com fins de prejudicar ou favorecer candidaturas, figuras políticas e atacar instituições públicas brasileiras.
Aqui, vamos considerar:
• Síntese e troca de rostos de políticos, candidatos, figuras públicas e eleitores;
• Dublagem;
• Políticos ou figuras públicas já falecidas;
• Manipulação de atributos faciais;
• Deepnudes
• Áudios falsos.
Casos de conteúdos sintéticos com teor pornográfico não consensual que utilizam imagens ou outros atributos físicos de pessoas que concorrem ou exercem cargos públicos, publicados nas redes com fins de perpetuar a violência política de gênero.
Conteúdos sintéticos e/ou deepfakes que busquem violar direitos humanos, como peças de cunho racista e demais tipos de discurso de ódio.

As buscas por casos se deu em meio a um cenário de intensa privatização de dados e falta de transparência por parte das plataformas, que impõe obstáculos principalmente para pesquisadores de países situados no Sul Global à medida que explora a produção de informação local por meio do colonialismo de dados (Tavares e Tranjan, 2023; Cassino, 2021). Além do fim da API gratuita do Twitter, no primeiro semestre de 2023, a Meta encerrou o CrowdTangle às vésperas da eleição brasileira, impossibilitando o cadastro de novos pesquisadores e substituindo a ferramenta por um programa de acesso limitado a pesquisadores selecionados. O TikTok também limita o acesso à API apenas para pesquisadores da Europa e dos Estados Unidos.

Frente a tal contexto de escassez de ferramentas gratuitas e abertas, a equipe de pesquisa realiza buscas ativas e constantes em:
Nas plataformas de redes sociais, fazemos buscas e utilizamos pesquisas de palavras-chave como “deepfake”, “Inteligência Artificial” e “Eleições” para encontrar postagens compartilhadas pelos próprios usuários. Apesar da limitação de tal técnica, sujeita às dinâmicas de recomendação algorítmica que limita os resultados apresentados de acordo com as preferências de cada usuário, peças sintéticas são identificadas nessas redes em razão dos usuários utilizarem as palavras-chaves pesquisadas ou indicarem uso de IA na legenda.
Além disso, desenvolvemos uma lista com os links dos perfis dos principais possíveis candidatos às eleições de 2026, bem como figuras importantes no cenário político brasileiro, como ministros, ex-presidentes e outros políticos. Dessa forma, é possível realizar rondas frequentes nos perfis desses políticos para identificar se há uso ou não da tecnologia.


Em relação ao Facebook, realizamos buscas ativas na Biblioteca de Anúncios da plataforma a fim de identificar conteúdos impulsionados por candidatos e/ou eleitores que fazem uso de IA para manipulação ou produção de informação. No sistema, buscamos anúncios que usam a palavra-chave “Inteligência Artificial” e que estão vinculados aos “temas sociais, eleições ou política”.
Também aplicamos a busca dos mesmos termos no mecanismo de busca do Google e no mecanismo de busca dos sites dos veículos jornalísticos e de checagem para a identificação de notícias publicadas sobre o assunto. Dessa forma, conseguimos monitorar o que a imprensa nacional e projetos midiáticos independentes estavam noticiando e identificando sobre casos de IA nas eleições. Esses casos e monitoramentos são incorporados ao nosso mapeamento com as devidas referências aos veículos citados.
Após a coleta, para organização das informações, documentamos os casos e os categorizamos a partir das seguintes categorias, visíveis ao público no site do observatório:
Além dos itens acima, organizamos os casos a partir do uso político das publicações (ataque ou endosso) e por potencial desinformativo, diferenciando casos satíricos de conteúdos enganosos.
Consideramos conteúdos satíricos aqueles que retratam acontecimentos, temas ou figuras políticas com claros fins de humor. Já conteúdo desinformativos seriam aqueles criados com IA com o objetivo ou com o potencial de propagar informações e narrativas falsas sobre candidatos, partidos ou qualquer episódio que possa interferir no processo eleitoral ou debate público político nacional (SANTOS 2022).
Reconhecemos que ambos os conteúdos (sátira e desinformação) podem ter usos políticos distintos. Por isso dividimos também os casos entre aqueles de endosso ou propaganda política (que tem o potencial ou o objetivo de impulsionar candidatos ou partidos políticos) e de ataques (publicações que busquem questionar a lisura das eleições brasileiras e/ou influenciar negativamente a imagem de instituições públicas, como o Tribunal Superior Eleitoral (TSE) e o Supremo Tribunal Federal (STF), partidos ou candidatos).
Dessa forma, conseguimos identificar não só os tipos de mídia que circulam, mas também compreender de quem as peças sintéticas estão partindo (políticos/partidos/candidatos ou eleitores) e quais objetivos comunicacionais, desinformativos e políticos os conteúdos criados com IA estavam projetando no debate público do país dentro e fora do pleito eleitoral.
Sim. O observatório busca mapear conteúdos sintéticos que têm potencial de interferência na formação da opinião política nacional independente do espectro político ou ideológico do conteúdo e/ou do perfil que o publicou. Nosso objetivo é entender como a IA está sendo utilizada por diferentes atores e lados políticos.
A atuação do Observatório se justifica pelo fato de que, na prática, o período eleitoral não se restringe apenas ao calendário oficial estabelecido pelo Tribunal Superior Eleitoral. Atualmente, a dinâmica das campanhas políticas se estende ao longo do tempo, caracterizando-se por uma lógica de campanha permanente, em que atores políticos constroem continuamente suas imagens públicas, narrativas e estratégias de engajamento dentro das plataformas de redes sociais.
Nesse contexto, a coleta de dados fora do período eleitoral é essencial para capturar essas movimentações políticas que, embora não ocorram formalmente durante a campanha, influenciam diretamente o cenário eleitoral e o comportamento do eleitorado.
O Observatório considera conteúdo (ou mídia) sintético as peças totalmente ou parcialmente criadas com ajuda de ferramentas de Inteligência Artificial, principalmente as IAs generativas. O termo Deepfake é uma contração dos termos em inglês Deep Learning (Aprendizado Profundo) e Fake (Falso), aludindo à geração de conteúdo por redes neurais artificiais. Deepfake é definido como um conteúdo falso gerado por Inteligência Artificial que, de forma convincente, consegue parecer verdadeiro aos olhos humanos.
A manipulação de imagens de humanos, que está entre as aplicações mais comuns, a mídia sintética resultante de Deepfake é o produto da substituição de um rosto em uma imagem ou vídeo já existente pelo rosto de outra pessoa, gerando uma reencenação com conteúdo fictício, mas que se apresenta como se fosse real
Compartilhe conosco e nos ajude no monitoramento.