O avanço de propostas no Congresso Nacional para enfrentar o ódio contra mulheres tem colocado no centro do debate a responsabilização dos agressores. Nessa terça-feira (24/3), o Senado aprovou um projeto de lei que torna a misoginia crime de discrimanção equivalente ao de racismo. O texto prevê a reclusão de 1 a 3 anos e será analisado na Câmara dos Deputados. Outra medida que tramita no Legistivo é direcionada ao combate de deepfakes pornográficos, montagens feitas com inteligência artificial que utilizam imagens de mulheres sem consentimento para criar conteúdos íntimos falsos.
O PL nº 3.821/2024, já aprovado pela Câmara, tipifica a manipulação, produção e divulgação de nudez ou ato sexual falso gerado por IA, com aumento de pena em casos de disseminação em massa por redes sociais ou plataformas digitais.
O texto altera o Código Penal e a Lei das Eleições para criminalizar a criação e divulgação de conteúdos falsos, principalmente de natureza íntima ou sexual. Na prática, cria um novo tipo penal com pena de reclusão de 2 a 6 anos e multa, com agravantes quando a vítima for mulher ou quando houver disseminação em massa, como nas redes sociais. A proposta é de autoria da deputada Amanda Gentil (PP/MA) e já avançou bastante: foi aprovada pelos deputados e encaminhada ao Senado em 2025, onde aguarda despacho para as comissões.
Leia também: Vender conteúdo em plataforma erótica pode afetar o emprego CLT? Especialista e praticante comentam
Segundo Marcelo Mattoso, sócio do Barcellos Tucunduva Advogados (BTLAW), projetos de lei atualmente em discussão no Congresso redefinem a responsabilidade das plataformas diante de conteúdos misóginos e violentos. “De um lado, criam tipos penais específicos para conteúdos sexuais falsos gerados por IA. De outro, pressionam as plataformas a adotar mecanismos mais ativos de prevenção, denúncia e remoção”, resume.
Criar e compartilhar tal tipo de conteúdo ainda pode ser tratado como crimes distintos. Conforme o advogado, o PL 3821/2024 separa as condutas de manipular, produzir e divulgar conteúdo falso de nudez ou ato sexual, o que permite distinguir quem cria o material de quem o faz circular.
“Essa separação é importante porque a cadeia de danos não se esgota no autor da montagem; muitas vezes o maior impacto à vítima decorre da viralização”. afirma Mattoso.
Leia também: Além do pix, o que criadoras de conteúdo adulto ganham de mimos
A ausência de uma lei específica sobre deepfakes dificulta a responsabilização penal. Apesar disso, o sistema já consegue reagir parcialmente com normas existentes. “A Lei nº 15.123/2025 já alterou o art. 147-B do Código Penal para aumentar a pena da violência psicológica contra a mulher quando praticada com uso de IA ou outro recurso tecnológico que altere imagem ou som da vítima. Portanto, o Judiciário consegue adaptar parte do ordenamento, mas ainda existem zonas cinzentas que o legislador está tentando preencher”, justifica o especialista.
Escalada dos ataques
Dados do Fórum Brasileiro de Segurança Pública evidenciam a escalada desse cenário: os casos de violência psicológica contra mulheres, categoria que inclui ataques virtuais, cresceram 33,8% no Brasil. O tema ganha ainda mais urgência diante da disseminação dos deepfakes pornográficos, ampliando a violência digital e os danos à reputação das vítimas.
Leia também: Por que cuidar da saúde mental é mais urgente do que nunca no Brasil
Diante desse cenário, o uso de imagem sem consentimento configura violação direta aos direitos da personalidade, especialmente quando fere a honra e a vida privada, protegidos pelo Código Civil e pela Constituição Federal, de acordo com Thaissa Garcia. Ela é mestre em direito civil pela PUC/SP e pós-graduada em direito digital e proteção de dados pelo Ebradi.
“Trata-se de ofensa a direitos fundamentais, notadamente à dignidade da pessoa humana, o que enseja responsabilidade civil, com dever de indenização pelos danos causados, independentemente de prejuízo material”, destaca a especialista.
Leia também: Privacidade em condomínios: até onde vai a liberdade dentro do apartamento?
O Marco Civil da Internet (Lei nº 12.965/2014) responsabiliza as plataformas que hospedam tais conteúdos mediante ordem judicial para retirada, especialmente nos casos de crimes contra a honra. Além disso, quando houver falha sistêmica da plataforma em prevenir ou remover o conteúdo, a responsabilização é agravada.
“Esses casos frequentemente envolvem uso indevido de dados pessoais, atraindo a incidência da Lei Geral de Proteção de Dados Pessoais, que prevê sanções que vão de advertência a multa de até 2% do faturamento da empresa, limitada a R$ 50 milhões por infração”, aponta Thaissa.
Em resumo, os especialistas afirmam que quanto mais específica for a lei em relação ao deepfake sexual, menor tende a ser a distância entre o dano sofrido e a resposta estatal efetiva. Apesar disso, a vítima é amparada em casos de violência digital e deve buscar apoio jurídico para responsabilização civil e eventual reparação por danos, além de registrar ocorrência e acionar as plataformas para remoção do conteúdo.
Saiba Mais
-
Política Elmano minimiza pesquisa que mostra Ciro na frente no CE
-
Política Médicos sinalizam que Bolsonaro deve receber alta da UTI em 24 horas
-
Política Moraes compartilha com PF provas do STF contra Eduardo Bolsonaro
-
Política Oposição pede impeachment de Dino após ministro anular quebras de sigilo da CPMI do INSS
-
Política CPMI do INSS não localiza ex de Vorcaro e avalia condução coercitiva
-
Política Zema: "Estarei com todos que estiverem contra o PT no 2º turno"
-
Política Renúncia de Castro deixa governo do Rio com futuro incerto
-
Política Ex-jornalistas da Globo criticam Powerpoint da GloboNews sobre Vorcaro
-
Política Gonet se manifesta favorável à prisão domiciliar de Jair Bolsonaro
