CRIMES DIGITAIS

Projetos de lei no Congresso miram misoginia e agressores virtuais

Diante da alta de ataques virtuais direcionados, propostas no Legislativo avançaram sobre criminalização da misoginia, inteligência artificial e responsabilização de plataformas

Uso de imagens sem consentimento pode gerar indenização e punição -  (crédito: Caio Gomez/CB/D.A Press)
Uso de imagens sem consentimento pode gerar indenização e punição - (crédito: Caio Gomez/CB/D.A Press)

O avanço de propostas no Congresso Nacional para enfrentar o ódio contra mulheres tem colocado no centro do debate a responsabilização dos agressores. Nessa terça-feira (24/3), o Senado aprovou um projeto de lei que torna a misoginia crime de discrimanção equivalente ao de racismo. O texto prevê a reclusão de 1 a 3 anos e será analisado na Câmara dos Deputados. Outra medida que tramita no Legistivo é direcionada ao combate de deepfakes pornográficos, montagens feitas com inteligência artificial que utilizam imagens de mulheres sem consentimento para criar conteúdos íntimos falsos.

O PL nº 3.821/2024, já aprovado pela Câmara, tipifica a manipulação, produção e divulgação de nudez ou ato sexual falso gerado por IA, com aumento de pena em casos de disseminação em massa por redes sociais ou plataformas digitais.

Fique por dentro das notícias que importam para você!

SIGA O CORREIO BRAZILIENSE NOGoogle Discover IconGoogle Discover SIGA O CB NOGoogle Discover IconGoogle Discover

O texto altera o Código Penal e a Lei das Eleições para criminalizar a criação e divulgação de conteúdos falsos, principalmente de natureza íntima ou sexual. Na prática, cria um novo tipo penal com pena de reclusão de 2 a 6 anos e multa, com agravantes quando a vítima for mulher ou quando houver disseminação em massa, como nas redes sociais. A proposta é de autoria da deputada Amanda Gentil (PP/MA) e já avançou bastante: foi aprovada pelos deputados e encaminhada ao Senado em 2025, onde aguarda despacho para as comissões.

Leia também: Vender conteúdo em plataforma erótica pode afetar o emprego CLT? Especialista e praticante comentam

Segundo Marcelo Mattoso, sócio do Barcellos Tucunduva Advogados (BTLAW), projetos de lei atualmente em discussão no Congresso redefinem a responsabilidade das plataformas diante de conteúdos misóginos e violentos. “De um lado, criam tipos penais específicos para conteúdos sexuais falsos gerados por IA. De outro, pressionam as plataformas a adotar mecanismos mais ativos de prevenção, denúncia e remoção”, resume. 

Criar e compartilhar tal tipo de conteúdo ainda pode ser tratado como crimes distintos. Conforme o advogado, o PL 3821/2024 separa as condutas de manipular, produzir e divulgar conteúdo falso de nudez ou ato sexual, o que permite distinguir quem cria o material de quem o faz circular.

“Essa separação é importante porque a cadeia de danos não se esgota no autor da montagem; muitas vezes o maior impacto à vítima decorre da viralização”. afirma Mattoso.

Leia também: Além do pix, o que criadoras de conteúdo adulto ganham de mimos

A ausência de uma lei específica sobre deepfakes dificulta a responsabilização penal. Apesar disso, o sistema já consegue reagir parcialmente com normas existentes. “A Lei nº 15.123/2025 já alterou o art. 147-B do Código Penal para aumentar a pena da violência psicológica contra a mulher quando praticada com uso de IA ou outro recurso tecnológico que altere imagem ou som da vítima. Portanto, o Judiciário consegue adaptar parte do ordenamento, mas ainda existem zonas cinzentas que o legislador está tentando preencher”, justifica o especialista. 

Escalada dos ataques

Dados do Fórum Brasileiro de Segurança Pública evidenciam a escalada desse cenário: os casos de violência psicológica contra mulheres, categoria que inclui ataques virtuais, cresceram 33,8% no Brasil. O tema ganha ainda mais urgência diante da disseminação dos deepfakes pornográficos, ampliando a violência digital e os danos à reputação das vítimas.

Leia também: Por que cuidar da saúde mental é mais urgente do que nunca no Brasil

Diante desse cenário, o uso de imagem sem consentimento configura violação direta aos direitos da personalidade, especialmente quando fere a honra e a vida privada, protegidos pelo Código Civil e pela Constituição Federal, de acordo com Thaissa Garcia. Ela é mestre em direito civil pela PUC/SP e pós-graduada em direito digital e proteção de dados pelo Ebradi.

“Trata-se de ofensa a direitos fundamentais, notadamente à dignidade da pessoa humana, o que enseja responsabilidade civil, com dever de indenização pelos danos causados, independentemente de prejuízo material”, destaca a especialista.

Leia também: Privacidade em condomínios: até onde vai a liberdade dentro do apartamento?

O Marco Civil da Internet (Lei nº 12.965/2014) responsabiliza as plataformas que hospedam tais conteúdos mediante ordem judicial para retirada, especialmente nos casos de crimes contra a honra. Além disso, quando houver falha sistêmica da plataforma em prevenir ou remover o conteúdo, a responsabilização é agravada.

“Esses casos frequentemente envolvem uso indevido de dados pessoais, atraindo a incidência da Lei Geral de Proteção de Dados Pessoais, que prevê sanções que vão de advertência a multa de até 2% do faturamento da empresa, limitada a R$ 50 milhões por infração”, aponta Thaissa. 

Em resumo, os especialistas afirmam que quanto mais específica for a lei em relação ao deepfake sexual, menor tende a ser a distância entre o dano sofrido e a resposta estatal efetiva. Apesar disso, a vítima é amparada em casos de violência digital e deve buscar apoio jurídico para responsabilização civil e eventual reparação por danos, além de registrar ocorrência e acionar as plataformas para remoção do conteúdo. 

 

  • Google Discover Icon
postado em 25/03/2026 09:55 / atualizado em 25/03/2026 10:23
x