Podcast do Correio | Rodrigo Badaró | Conselheiro do CNJ

"Sem cuidados, não teremos Justiça", diz conselheiro do CNJ sobre IA

Indicado ao cargo de presidente do Comitê Nacional de Inteligência Artificial do Poder Judiciário, o advogado apresenta as próximas etapas para blindar tribunais de fraudes tecnológicas

Rodrigo Badaró, conselheiro do Conselho Nacional de Justiça (CNJ), foi entrevistado no Podcast do Correio -  (crédito:  Ana Dubeux/CB/D.A Press)
Rodrigo Badaró, conselheiro do Conselho Nacional de Justiça (CNJ), foi entrevistado no Podcast do Correio - (crédito: Ana Dubeux/CB/D.A Press)

Com a popularização do uso da Inteligência Artificial (IA), surgem preocupações quanto ao impacto da tecnologia no Poder Judiciário, que lida com a vida e patrimônio da população, apontou Rodrigo Badaró, conselheiro do Conselho Nacional de Justiça (CNJ), no Podcast do Correio. Indicado à presidência do Comitê Nacional de Inteligência Artificial do Poder Judiciário, o advogado aponta como objetivo o fortalecimento da segurança processual, mas sem descartar a modernização da Justiça brasileira.

Fique por dentro das notícias que importam para você!

SIGA O CORREIO BRAZILIENSE NOGoogle Discover IconGoogle Discover SIGA O CB NOGoogle Discover IconGoogle Discover

Criado pela Resolução nº 615, o comitê deve garantir que tribunais sigam padrões éticos no uso da tecnologia. Rodrigo comenta que a primeira medida será a capacitação dos magistrados, que precisam conhecer a forma correta de fazer perguntas à IA generativa, por meio de prompts, e se comprometer a checar todas as informações disponibilizadas. Apesar da medida, ele destaca que a IA deve continuar tendo uma função complementar no trabalho do juiz, que nunca deve delegar a decisão à máquina.

Siga o canal do Correio no WhatsApp e receba as principais notícias do dia no seu celular

Segundo o conselheiro, aqueles que não souberem usar as novas ferramentas poderão ser diretamente prejudicados por defesas mal-intencionadas, por meio da prática de Prompt Injection, quando um instruções ocultas são fornecidas à IA com comentários HTML, CSS ou Markdown, caracteres de largura zero, campos de metadados, entre outras medidas inicialmente invisíveis. "Com essa prática, se o juiz julgar o processo usando a IA ela vai levá-lo ao entendimento do advogado. Se não tivermos cuidados, não vamos ter mais justiça", alerta.

Outros objetivos do Comitê inclui a atualização do Sinapses, que é uma plataforma que agrupa os diferentes modelos de Inteligência Artificial, desenvolvido pelos tribunais para cumprir demandas particulares. Rodrigo explica que, atualmente, o Sinapes possui 174 projetos cadastrados, que são analisados pelos riscos que podem trazer ao processo legal. Ele destaca que a catalogação é essencial para a popularização de modelos já testados em tribunais, como o Berna, um sistema desenvolvido pelo Tribunal de Justiça de Goiás (TJGO) que analisa petições iniciais que chegam às Cortes, identificando padrões no uso inadequado da Justiça. "Nós vamos a todos os tribunais, pegar as ideias boas, juntar todas elas, respeitando a autonomia das instituições. Esse vai ser o papel do CNJ", disse o entrevistado.

De acordo com o advogado, o cenário ideal seria que cada órgão tivesse a sua própria ferramenta institucional de IA, assim criando uma maior segurança para as atividades dos magistrados, para que não corram riscos ao utilizarem plataformas comerciais, que poderiam ser eventualmente manipuladas com a prática de Prompt Injection. Ele explica que, além de servirem ao regime interno do tribunal, os sistemas passariam pelo CNJ, que garantiria a transparência da ferramenta: "É muito melhor para o cidadão saber que o próprio tribunal disponibilizou uma ferramenta, que é auditada pelo CNJ, para prestar o serviço".

A criação de ferramentas institucionais também evitam problemas éticos, presentes nos sistemas mais conhecidos como ChatGPT ou Gemini. O advogado cita um estudo de Oxford, que observou que os algoritmos treinados na Internet costumam refletir vieses sem fundamento empírico, como o preconceito em relação a povos nordestinos. Ele afirma que as IAs também podem apresentar uma análises racistas, com base em estatísticas. "A ferramenta vê que pessoas negras têm maiores taxas de prisão no Brasil, mas não pensa no aspecto estrutural do país. Então isso acaba refletindo um racismo e pode prejudicar um promotor a oferecer uma denúncia", comentou.

Rodrigo afirma que as fraudes tecnológicas atingiram patamares epidêmicos, tanto os golpes com Inteligência Artificial, quanto os mais simples, como os "falsos advogados". Diante desses casos, a CNJ lançou uma campanha institucional de alerta a população, em conjunto com a OAB, que mostra aos consumidores algumas medidas que devem ser consideradas ao procurar defesa, como ligar para o advogado e identificar o timbre da voz, tomar cuidado ao realizar transferências Pix e desconfiar de contatos por mensagem, já que, de acordo com o conselheiro, podem ser golpistas que obtiveram dado de processos públicos. "É uma situação que prejudica muitas pessoas, mas também os advogados, já que a profissão perde credibilidade", afirma.

*Estagiário sob a supervisão de Márcia Machado

 

  • Google Discover Icon
postado em 12/02/2026 00:01 / atualizado em 12/02/2026 09:41
x