VIRAL

Alimentos e objetos falantes tomam as redes e viram alerta para desinformação

Com personagens ranzinzas e tom bem-humorado, conteúdos de inteligência artificial mostram comidas e objetos "falando" sobre conservação e uso; especialistas alertam para risco de informações sem fonte ou base científica

Vídeos produzidos com IA viralizam nas redes: falta respaldo científico é risco -  (crédito: Reprodução/TikTok)
Vídeos produzidos com IA viralizam nas redes: falta respaldo científico é risco - (crédito: Reprodução/TikTok)

"Ei, sua jumenta, não jogue minha casca fora". Em tom de bronca, um abacaxi falante aparece em um dos vídeos que viralizaram sobre alimentos que dão dicas de saúde e cotidiano. Criados com o uso de Inteligência Artificial (IA), os conteúdos mostram alimentos e objetos dando orientações sobre como devem ser usados ou armazenados. 

Fique por dentro das notícias que importam para você!

SIGA O CORREIO BRAZILIENSE NOGoogle Discover IconGoogle Discover SIGA O CB NOGoogle Discover IconGoogle Discover

Nas publicações, bananas pedem para que as cascas virem adubo, pães reclamam da geladeira por ficarem "duros e sem graça", morangos imploram para não serem guardados molhados, o macarrão, o brócolis, a cenoura, alho, salsicha e até objetos de higiene como toalhas, privadas e esponjas ganham voz. Em comum, os vídeos trazem personagens com expressões humanas, geralmente ranzinzas, que ensinam supostas dicas domésticas ou alimentares, quase sempre sem citar a origem das informações: "Faça isso, evite aquilo".

Siga o canal do Correio no WhatsApp e receba as principais notícias do dia no seu celular

@alimentosfalantesia DICAS DO DIA #alimentosfalantesia #funnyreels #alimentacaosaudavel #ia #frutasfalantes ? som original - Alimentos Falantes IA

No TikTok, hashtags como #alimentosfalantes e #objetosfalantes já reúnem centenas de publicações e perfis dedicados exclusivamente a esse formato acumulam milhares de seguidores. Parte dos vídeos foi produzida com ferramentas como o Veo 3, IA do Google capaz de gerar imagens ultrarrealistas. O criador escreve um roteiro descrevendo o objeto, a emoção e a mensagem que deseja transmitir, e a tecnologia transforma o texto em vídeo.

Criatividade não significa informação de qualidade

O problema, segundo especialistas ouvidos pelo Correio, é que qualquer pessoa pode inserir informações sem respaldo técnico, inclusive orientações sobre saúde, alimentação ou comportamento. Para o professor doutor Romes Heriberto de Araújo, do curso de Engenharia de Software do Centro Universitário UNICEPLAC e pesquisador em cibernética e Inteligência Artificial, o sucesso desse tipo de conteúdo tem explicação psicológica e tecnológica.

"Esses vídeos viralizam porque combinam estranhamento cognitivo, antropomorfização e formatos curtos altamente compatíveis com os algoritmos das plataformas. O fato de um objeto inanimado falar quebra expectativas, prende a atenção rapidamente e aumenta retenção e compartilhamento", explica. 

@top_quiz44 #IA #fy #objetofalante #vaso #banheiro ? som original - Objetos falando

Segundo ele, o cérebro humano tende a atribuir emoções e intenções a qualquer coisa que demonstre características humanas. "O fato de um objeto inanimado falar e demonstrar personalidade quebra expectativas, prende a atenção rapidamente e aumenta retenção e compartilhamento, que são métricas essenciais para a viralização em redes como TikTok, Reels e Shorts. Essa estranheza causa uma recompensa de estímulos cerebrais que faz com que as pessoas se interessem no tema", disse.

O fenômeno psicológico por trás disso é a antropomorfização, tendência humana de atribuir intencionalidade, emoção e consciência a objetos. "O cérebro tende a atribuir características humanas a qualquer coisa que 'fale'. Objetos com voz reduzem a distância crítica. Eles parecem amigáveis, inofensivos e confiáveis. Além disso, remetem a desenhos animados, fábulas e histórias da infância, o que gera uma sensação positiva e aumenta o engajamento, fazendo com que as pessoas se interessem no tema", afirma.

"Tudo é pensado para que o objeto deixe de ser 'coisa' e passe a ser 'personagem', e personagens geram vínculo."

Romes explica que o alerta surge quando o tom lúdico mascara simplificações perigosas. “O limite é ultrapassado quando há dicas médicas sem base científica, ausência de contexto, fonte ou aviso de que o conteúdo é humorístico ou quando o conteúdo induz comportamentos sem qualificação profissional. O humor é legítimo enquanto não prescreve nem substitui especialistas”, diz o professor.

Desinformação simpática

O risco maior não está apenas na mentira explícita, mas na chamada “meia verdade carismática” ou "desinformação simpática". “Erros ditos com carisma tendem a ser aceitos sem questionamento. Existe também a dissolução da autoria, muitas vezes não se sabe quem criou o conteúdo, e a escalada de deepfakes. Hoje são objetos, amanhã podem ser médicos ou autoridades”, alerta.

Outro fator que contribui para a credibilidade desses vídeos é o chamado “efeito halo”. “Se algo parece bem produzido, didático e seguro, o cérebro associa automaticamente a competência e confiabilidade. A IA fala com segurança, sem hesitação, o que cria uma autoridade performática baseada na estética, não no conhecimento”, explica.

O formato curto também favorece a propagação de informações imprecisas. “Conteúdos rápidos não deixam espaço para nuances ou exceções. O usuário consome e compartilha antes de refletir. É um ambiente ideal para informações erradas altamente transmissíveis”, completa.

Para diferenciar conteúdo educativo de estratégia comercial ou desinformação, Romes orienta observar sinais como presença de fontes, reconhecimento de limites e ausência de promessas milagrosas. “Se o vídeo resolve tudo em 30 segundos e parece bom demais, desconfie. Vídeos de objetos falantes com IA não são o problema em si. O problema surge quando forma, carisma e tecnologia substituem critério, fonte e responsabilidade.”

 

  • Google Discover Icon
postado em 21/02/2026 03:17
x