INTELIGÊNCIA ARTIFICIAL

A personagem de IA que viraliza com críticas ao governo Lula e ao STF

Perfil com imagens geradas por inteligência artificial tem alcance comparável ao de deputados e figuras públicas; criador da página diz que gasta R$ 20 por vídeo gerado.

Quando o presidente dos Estados Unidos Donald Trump ameaçou impor um tarifaço nas exportações do Brasil, um efeito quase imediato foi um aumento da popularidade do presidente Lula em pesquisas.

Lula se colocou como crítico da medida e das ações de Trump. Meses depois o país conseguiu fazer com que boa parte das tarifas fosse suspensa, com direito a elogios do americano ao presidente brasileiro.

Mas isso não impediu que o episódio polarizasse as bases de eleitores de Lula e do ex-presidente Bolsonaro.

Um lado culpava o tarifaço pelas ações do filho do ex-presidente, Eduardo, que vinha articulando nos EUA para que sancionassem ministros do Supremo Tribunal Federal (STF).

De outro, críticos do presidente, especialmente da ala bolsonarista, diziam que Lula estava tentando fazer política partidária e rivalizar com Trump, ao invés de negociar com o líder americano.

Uma das falas que se destacaram nas críticas a Lula nas redes sociais naquele momento veio de uma voz e um rosto que não existem para além das redes sociais.

Era Dona Maria, um avatar criado com inteligência artificial para representar uma mulher negra, idosa, que fala palavrões e se diz revoltada com a situação do país.

Um vídeo sobre o tema publicado em sua conta no Instagram em 10 de julho de 2025 atingiu 8,8 milhões de visualizações e mais de 23 mil comentários.

"Eu já estou revoltada com essa p*, Brasil. E o molusco (referência ao presidente Lula) está calado. Agora que o povo está levando no r* com taxa gringa, ele está calado igual siri na lata. Cadê o povo na rua? Cadê panela batendo, cadê o grito, cadê a revolta? Ou todo mundo virou planta? Porque eu tô aqui gritando e só escuto o vento e a taxa vindo."

Na imagem, Dona Maria, criada com ferramentas do Gemini, a inteligência artificial do Google, fala em um microfone, como se estivesse em um discurso, com plateia ao fundo.

Os comentários se dividem: alguns diziam que queriam vê-la discutindo com Lula, outros reclamaram do excesso de palavrões. Um afirmou que ela "lavou a alma dos brasileiros."

Ninguém questionou o fato de Dona Maria não ser uma pessoa de verdade.

O viral não foi exceção: a BBC News Brasil analisou dados da página e uma amostra de mais de 50 mil comentários e identificou um engajamento próximo ao de políticos tradicionais da direita brasileira, com uma média de mais de 2 mil comentários por publicação.

Ao menos 12 vídeos da página tiveram mais de 1 milhão de visualizações em menos de um ano.

Além do levantamento próprio, a reportagem também pediu à startup Zeeng, de análise de dados, uma comparação com outros perfis sobre política na mesma rede social.

A média de interações por publicação (comentários e curtidas) no Instagram desta personagem de IA no último ano foi semelhante à de políticos de diferentes espectros, como da senadora Damares Alves (Republicanos) e do deputado Lindbergh Farias (PT).

Foi também maior, no período, em média de interações por publicação, do que páginas como a do ex-governador de Goiás e pré-candidato a presidente Ronaldo Caiado (PSD), segundo este levantamento. Foram analisadas interações em publicações de julho de 2025 até a primeira semana de abril deste ano.

Isso não significa que esse engajamento seja recorrente ou permanente — as publicações mais recentes da página obtiveram engajamento inferior à média, por exemplo.

Uma página que tenha um maior número de publicações, mas com menos engajamento, apareceria em uma posição mais baixa neste ranking. Caso do perfil do presidente Lula, por exemplo, que postou mais e com conteúdos mais diversificados, como fotos, galerias e vídeos.

A análise dos comentários nos posts da Dona Maria também revela interações com políticos da direita e mensagens de apoio e críticas de usuários comuns.

Embora o perfil de Dona Maria não faça apoio explícito a um candidato, as críticas são, em sua maioria, direcionadas ao presidente Lula, ao atual governo e a ministros do Supremo Tribunal Federal (STF).

O criador do perfil, que diz trabalhar como motorista de aplicativo e usar a página para complementar a renda, afirmou em entrevista à BBC News Brasil que não tem candidato.

Mas diz também que não teria dúvidas entre Lula (PT) e Flávio Bolsonaro (PL), que aparecem como os nomes mais competitivos à presidência nas pesquisas de opinião até agora: se pudesse, conta, faria campanha para o segundo de graça.

Para especialistas ouvidos pela BBC News Brasil, esse tipo de conteúdo gerado por IA poderá ser usado para mobilizar eleitores, abastecer candidatos com menos recursos e mobilizar campanhas não oficiais, com críticas a candidatos que poderiam violar regras do Tribunal Superior Eleitoral (TSE).

Há também um risco, segundo os especialistas, de que esse tipo de conteúdo possa confundir eleitores e até o Judiciário.

'O algoritmo entrega assuntos que geram revolta social'

O perfil de Dona Maria apareceu pela primeira vez nas redes em junho de 2025.

Seu criador é Daniel Cristiano dos Santos, 37 anos e morador de Magé (RJ), na Baixada Fluminense. Daniel conta que trabalha como motorista de aplicativo e que vê hoje a página como um complemento em sua renda e também um espaço para expressar opiniões sem precisar mostrar o rosto.

Além de ganhar com as visualizações em outras redes, ele afirma que também cria vídeos de IA para empresas e ensina como fazê-los. O Instagram, diz, é a rede que chama mais a atenção.

Os primeiros vídeos públicos no canal mostram outros personagens de IA, sem características definidas como a de Dona Maria. Orientado por outro criador de conteúdo, que ele não quis divulgar o nome, Daniel decidiu trabalhar com um só personagem, que ele conta ser inspirado na avó.

"Tinha muitas cópias do meu vídeo. Não havia uma personagem específica para eu poder ter direitos autorais. Ela (a personagem) tem características da minha avó, por parte de mãe, que faleceu quando eu era moleque."

A agressividade nas palavras, no entanto, não tem qualquer relação com a personalidade da avó, mas com o que Daniel avalia que é uma linguagem necessária para sobreviver nas redes sociais.

"Não sabia mexer com o algoritmo de rede social e fui aprendendo com o tempo. Assuntos que geram revolta social, o algoritmo entrega. Crítica a internet entrega. Se fizer vídeo falando muito a verdade, mas sem aquele toque apimentado, não entrega. Não adianta. O brasileiro está acostumado a ver desgraça na internet. Pensei em dosar um pouco, mas passar uma mensagem."

Uma das primeiras pautas dos vídeos foi o preço elevado de alimentos no supermercado. No Facebook, o primeiro vídeo divulgado já atingiu dois milhões de visualizações.

"Eu não passo necessidade. Mas ao mesmo tempo eu batalho, corro atrás. Trabalho desde 2019 como motorista de aplicativo aqui no Rio. O cara que trabalha e tira um salário mínimo ou um pouco mais, ele sente o peso quando vai ao supermercado e paga R$ 1.000 por metade de um carrinho de compras. É um negócio que bate, sensibiliza qualquer um. Essa foi a minha visão ao criar o primeiro vídeo."

Os vídeos seguintes tratam de temas diversos, seja a megaoperação policial no Rio, em outubro de 2025, que deixou mais de cem pessoas mortas, ou o tarifaço de Trump sobre o Brasil.

"Muito se falou que a culpa foi do Eduardo (Bolsonaro). Na minha visão não foi. Porque na época Trump fez essa estratégia de taxa em vários países, não só no Brasil. E na época Lula se recusou a sentar e dialogar com Trump", disse ele sobre o vídeo mais visto da página (vale ressaltar que Lula e Trump se encontraram pessoalmente em outubro e trocaram elogios, três meses depois da publicação).

A decisão sobre quais temas abordar nos vídeos não é aleatória. Santos diz que pesquisa os assuntos que mais estão circulando nas redes sociais naquele dia, com mais engajamento, e o mais popular vira a pauta.

Há dias, inclusive, em que o tema foge da política. Um dos mais recentes, por exemplo, trata do jogador Neymar. Durante a entrevista, Daniel mostrou também a produção de um vídeo em que Dona Maria tem um dia como motorista de aplicativo, é maltratada por uma passageira e então responde à altura.

IA do Google e vídeos por R$ 20

Getty Images
Gemini é usado para gerar vídeos de IA de canal

Durante a entrevista Daniel contou — e mostrou em sua tela compartilhada — que usa ferramentas do Google para gerar o material: o Gemini e a plataforma Flow, que permite criar sequências de vídeos curtos e depois combiná-los. O ChatGPT, outra ferramenta popular de IA, também é usado para gerar os textos que vão descrever como os vídeos devem ser feitos.

A BBC News Brasil também testou essas plataformas. O Flow é o que garante que o usuário pode recriar o vídeo diversas vezes até que fique bom o suficiente para publicação, sem os erros estranhos que a IA costuma gerar, como movimentos sem sentido ou falta de continuidade nas ações. Este processo consome créditos — Daniel diz que gasta cerca de R$ 20 por vídeo.

"Comecei a fazer um atrás do outro. E foi o que deu no que deu. Tem no Facebook, no TikTok, no YouTube, no Kwai."

Ele disse que sempre teve receio de gravar o próprio rosto para falar sobre política.

"Por meio da IA você consegue passar um pouco a revolta que sente, o que acontece com o brasileiro. Hoje muitas pessoas me procuram para fazer vídeos porque elas têm receio de gravar. Se veem na câmera e não acham legal."

Daniel admite que já divulgou informações incorretas. Não fez retratação pública, mas decidiu apagá-las.

"Quando eu faço algum vídeo que não é verídico, eu nem me retrato, eu apago o vídeo. Já aconteceu duas vezes. É aquele negócio de você fazer vídeos sozinho; você não consegue checar certas informações. Foi um erro meu. Eu bati só com o que estava rolando no Instagram. Mas aí, quando eu fui no Google, já bateu ali que era totalmente ao contrário. Eu peguei e apaguei."

Página recebe patrocínio ou apoio de políticos?

Santos diz que trabalha sozinho na página e que já foi procurado por casas de aposta, mas recusou convites de publicidade.

"Ganho pouco. Tenho uma visão de preferir não me corromper para não tirar a característica do brasileiro que está cansado e quer melhorar o seu país." Ele diz que faz os vídeos no tempo livre, mas que sua principal renda é como motorista.

Daniel conta que boa parte dos seguidores é de pessoas idosas, possivelmente de baixa renda (o Instagram não entrega esse tipo de informação) e que muitas vezes sequer percebem que a personagem é gerada por inteligência artificial. Não se sentiria, portanto, à vontade para divulgar algum tipo de produto que os prejudicasse, diz.

Ele afirma que a visibilidade dos vídeos trouxe propostas diversas, tanto de empresas quanto de pré-candidatos às eleições deste ano, sem citar nomes. E não descarta trabalhar na eleição, a depender da proposta.

"Eu não posso falar que vou dispensar serviço. Não vou, porque, querendo ou não, é um trabalho."

A BBC News Brasil não encontrou indícios de que a página receba algum tipo de financiamento de políticos, embora haja figuras, tanto com cargo público quanto influenciadoras digitais da direita, que comentam e reverberam este conteúdo.

'O ódio desperta a pessoa a se movimentar'

O cientista político Hilton Fernandes, professor da Fespsp (Fundação Escola de Sociologia e Política de São Paulo), se surpreendeu ao ver a qualidade dos vídeos de IA e o efeito que poderiam ter nas eleições deste ano.

"A primeira coisa que eu senti quando vi o vídeo é que era muito bem feito. O texto é bom. É possível você imaginar uma pessoa falando com você, pessoalmente, daquele jeito."

A qualidade do material gerou desconfiança. "Parecia que tinha alguma coisa por trás, algum tipo de orientação, dinheiro, recurso, às vezes, um político", diz.

A BBC News Brasil não encontrou evidências de que o criador do perfil trabalhe para qualquer candidato ou partido. Também identificou ao menos um processo judicial em que Daniel é mencionado e que o cita, de fato, como motorista de aplicativo.

Para Fernandes, o risco mais relevante da Dona Maria não é a desinformação convencional, ou seja, uma mentira factual que poderia ser verificada e desmentida.

O problema, diz, está em outra camada: o que o formato produz no espectador, mesmo quando se sabe que a voz é gerada por máquina.

"O fato de ela falar com raiva, usar alguns palavrões, indignação, falar alto, falar rápido, tudo isso cria um clima um pouco desconfortável... se você não acredita no vídeo, você sabe que é inteligência artificial, mas você fica ali à exposição, porque você acaba ouvindo o discurso, inconscientemente, você começa a associar aqueles temas com coisas negativas."

Segundo Fernandes, isso tem implicações diretas para o comportamento eleitoral. O conteúdo raivoso trabalha com dois mecanismos emocionais, diz: o entusiasmo, que mobiliza quem quer que um candidato ganhe, e o desconforto, que afasta ou radicaliza quem assiste.

"A campanha negativa funciona. O ataque atrai, o ódio desperta a pessoa a se movimentar. Muita gente que fala que quer que o PT saia, não importa quem é o candidato. E isso tem a ver com esse sentimento de ser contra, de oposição."

O cientista político vê a IA como uma ruptura especialmente importante para candidaturas menores. Antes, a barreira de entrada para produzir conteúdo político de qualidade era financeira. Com a IA, isso pode ter mudado.

"A inteligência artificial vai fazer muita diferença agora pra candidaturas menores, que têm menos recursos, geralmente candidatos a cargos proporcionais. Porque é muito mais barato. É muito mais barato produzir o texto, a arte, o vídeo."

As grandes campanhas também devem usar a tecnologia, diz o especialista, mas de forma menos visível e até possivelmente irregular, sem deixar rastros.

"As grandes campanhas talvez façam o uso de inteligência artificial no que a gente chama de campanha de submundo. Aquela campanha que ninguém sabe de onde vem. Fica muito escondida, não tem registro, não tem declaração no TSE. Às vezes, pode até descobrir que se relaciona a um, uma campanha ou a um partido, mas a gente não tem como provar."

Ele avalia também que será desafiadora a responsabilização por esse tipo de conteúdo.

"Com a inteligência artificial eu não tenho essa identificação da pessoa. Então fica muito mais difícil responsabilizar e, ao mesmo tempo, diminui demais o peso da denúncia falsa, do texto falso, da desinformação... É muito mais fácil de perdoar, porque parece uma brincadeira, parece algo que foi feito espontaneamente pela internet, não tem alguém por trás."

Ele compara a situação aos memes que surgiram nas eleições anteriores e a dificuldade de enquadrá-los em algum tipo de irregularidade.

"Vai ser a mesma coisa que aconteceu com os memes. É tanto volume que não tem como tratar. O TSE vai tentar criar alguns exemplos, gerar constrangimento, mas não vai conseguir acompanhar tudo."

Perfil opera em 'zona cinzenta', diz professora

Para Yasmin Curzi, professora da FGV Direito Rio, perfis que usam IA como o de Dona Maria operam em uma zona cinzenta.

Segundo Curzi, as críticas ao governo, ao Supremo ou a políticos — como as reproduzidas na página — não necessariamente fogem do escopo da liberdade de expressão. Dependendo do contexto, gravidade e falseamento de informações, podem ser passíveis de punição.

"O problema começa quando esse conteúdo gerado por IA é vinculado sem nenhuma rotulagem. Mesmo na pré-campanha é necessário que esse conteúdo esteja rotulado como produzido por inteligência artificial", afirma.

A professora explica que a nova resolução do TSE (23.755/2026) ampliou e endureceu regras para deepfakes — montagens que simulam uma pessoa real dizendo ou fazendo algo que nunca aconteceu, proibindo-as e impondo regras para o ciclo eleitoral.

O caso da Dona Maria, porém, é diferente: a personagem não tenta se passar por alguém que existe.

O TSE também prevê o dever de diligência dos candidatos. Isso significa que, se um candidato compartilhar ou patrocinar conteúdo gerado por IA — mesmo que não o tenha produzido —, ele assume corresponsabilidade.

"Se o conteúdo tiver IA e não tiver rotulagem, se tiver veiculando fatos inverídicos, esse engajamento gerado pelo candidato pode ser usado como evidência pelo TSE de conhecimento prévio. E o candidato pode responder sim por propaganda irregular", diz. "Pela jurisprudência do TSE, poderia inclusive gerar configuração de abuso de poder político, dependendo do grau de dano causado no equilíbrio do jogo eleitoral."

A responsabilização, explica Curzi, pode ser múltipla: alcança o criador do perfil, o candidato beneficiado (se demonstrado conhecimento prévio ou financiamento), o partido ou coligação envolvidos e até a própria plataforma — no caso, o Instagram —, se, após notificada pelo TSE, não remover o conteúdo declarado irregular.

TSE não tem capacidade para enfrentar avalanche de conteúdo de IA, diz especialista

Getty Images
Geração de vídeos com IA amplia riscos de desinformação às vésperas da eleição, avaliam especialistas

Para João Victor Archegas, coordenador de Direito & Tecnologia e GovTech do Instituto de Tecnologia e Sociedade do Rio (ITS Rio), o caso da Dona Maria antecede uma eleição em que a inteligência artificial deixou de ser problema apenas das campanhas oficiais e passou a ser ferramenta ao alcance de qualquer eleitor.

Archegas conta que personagens criados com IA para espalhar mensagens políticas vinham aparecendo cada vez mais no seu próprio feed.

"Não tenho nenhum dado. É uma sensação generalizada que a gente tem no campo, de que está aumentando consideravelmente nos últimos meses", diz.

O pesquisador lembra que, nas eleições municipais de 2024, a enxurrada de IA que se temia não veio. O Tribunal Superior Eleitoral (TSE) chegou a publicar, naquele ano, resolução sobre o tema, com a proibição de deepfakes por candidatos e regras para o uso de chatbots. Mas o número de casos que efetivamente chegaram à Justiça Eleitoral foi pequeno.

"Foi muito pouco. Se esperava uma onda, um tsunami no Brasil, como tinha acontecido, por exemplo, na Índia um ano antes", afirma. "No Brasil, chegou como uma marola."

Para Archegas, 2026 será diferente: a tecnologia ficou barata, acessível e replicável.

"Os sistemas de inteligência artificial hoje permitem fazer o que esse sujeito ensina na prática. Com um pouquinho de tempo, você cria uma persona que pode replicar em vários conteúdos. Não precisa nem pensar no texto, pode usar o ChatGPT para criar o roteiro. E depois joga numa inteligência artificial que cria o vídeo."

O fluxo que hoje é feito por uma única pessoa custaria milhões de reais há poucos anos, diz o pesquisador.

"Há duas décadas se gastariam milhões de reais para contratar isso numa consultoria. Porque você teria alguém especializado em produzir o roteiro e pensar em uma linguagem que faça sentido para aquela rede social, que aperte os botões certos e leve aquele conteúdo a mais pessoas."

O risco, na avaliação dele, não está apenas no volume, mas na construção de uma identidade afetiva entre o público e o avatar.

"Vai criando essa identidade e isso vai abrindo espaço na mente das pessoas, deixando-as talvez até mais vulneráveis. E eventualmente, durante as eleições, abre-se caminho para espalhar informações completamente inventadas e falsas. Nada impede que esse movimento aconteça em algum ponto. E aí as coisas começam a ser bem complexas: você criou uma personalidade na qual as pessoas confiam."

Conforme a exposição aumenta, diz Archegas, a fronteira entre o avatar e uma pessoa real pode se apagar na cabeça do usuário da rede social.

"Conforme você vai sendo exposto a esse conteúdo diversas vezes, começa a naturalizá-lo e não vê mais uma diferença entre um avatar criado por IA e uma pessoa revoltada com a situação do país. As coisas começam a se confundir e o impacto no discurso público acaba sendo exatamente o mesmo. Esse é o perigo, me parece."

Para o pesquisador, o TSE não tem hoje capacidade de reagir a esse tipo de conteúdo — e essa é a parte mais grave do problema.

"Acho que isso é o mais aterrorizante. O tribunal estava esperando algo muito mais profissional e que viesse de um ponto de vista partidário, inclusive. Partidos apoiando seus candidatos a produzir esse tipo de conteúdo, que é muito mais fácil de fiscalizar e, eventualmente, até aplicar sanções. Não é o caso com esse fenômeno, porque a gente está falando de um eleitor que pode simplesmente aprender a fazer algo extremamente profissional."

Um dos riscos centrais, segundo Archegas, é o uso da tecnologia nos últimos dias antes do voto — o TSE aprovou neste ano uma medida que proíbe o uso de IA na propaganda eleitoral nas 72 horas que antecedem a eleição e nas 24 horas seguintes.

"Essa é a janela de informação da vontade do eleitor, e eu, TSE, não quero que ela seja falseada por esse ciclo de inteligência artificial. E 24 horas depois porque o gato escaldado tem medo de água fria. É uma questão que remete ao que aconteceu no dia 8 de janeiro e à possibilidade de você gerar um caos em relação aos resultados das eleições com inteligência artificial, que possa levar as pessoas a cometerem atos de violência."

Diante do limite institucional da Justiça Eleitoral, Archegas defende que a saída prática passa pelas plataformas, como Instagram, TikTok e YouTube.

"Mapear essas contas, entender como elas podem participar de uma eleição no Brasil em 2026 e, percebendo algum sinal de irregularidade ou de tentativa de falsear a construção da vontade do eleitorado, que possam atuar para tentar conter um pouco desse processo que parece inevitável."

Procurado, o TSE diz que "não se manifesta sobre temas ou casos que possam vir a ser ou são objetos de análise na Justiça Eleitoral" e que "isso é feito somente nos autos processuais."

Mais Lidas