Por Celeste Leite dos Santos* — A Inteligência Artificial (IA) generativa mudou a natureza da violência sexual digital. O sistema de Justiça enfrenta, não de hoje, um fenômeno bem mais complexo do que antes: conteúdos íntimos inteiramente sintéticos, produzidos por algoritmos, mas capazes de destruir reputações, provocar trauma psíquico e violar gravemente a dignidade sexual de mulheres e de meninas.
Tal deslocamento impõe problema jurídico decisivo. Nas deepfakes sexuais, muitas vezes, não existe cena real previamente captada. Ainda assim, o dano é concreto. A humilhação pública, a estigmatização, a chantagem, o medo e a revitimização não dependem da autenticidade fática da imagem, mas, sim, de sua capacidade de parecer verdadeira e de circular como se fosse. É a desmaterialização da prova: a violência continua sendo real, embora o conteúdo seja sintético.
É neste ponto que se evidencia a insuficiência de uma leitura estritamente formal do artigo 218-C do Código de Processo Penal — que pune quem oferece, troca, disponibiliza, transmite, vende, distribui ou divulga conteúdo íntimo sem autorização.
O dispositivo em tela foi avanço importante contra a divulgação não consentida de conteúdo íntimo, mas nasceu antes da explosão da IA generativa. Hoje, a tutela penal não pode permanecer condicionada, na prática, à ideia de registro "real", sob pena de deixar desprotegidas vítimas de montagens hiper-realistas, que produzem efeitos lesivos equivalentes, e até mais devastadores, do que registros autênticos.
As discussões da 70ª Sessão da Comissão sobre a Situação da Mulher (CSW70), realizada pela Organização das Nações Unidas (ONU), em março deste ano, em Nova Iorque, nos Estados Unidos, reforçam a urgência em torno da violência facilitada por meios tecnológicos. A mensagem é inequívoca: a Tecnologia não é neutra quando usada para humilhar, controlar, silenciar e expor mulheres nos espaços público e privado. A resposta jurídica, portanto, não pode ser analógica, improvisada ou tardia.
Em São Paulo, o Projeto de Lei (PL) 3.731/2023, de autoria do deputado Rafa Zimbaldi (União Brasil-SP), oferece resposta relevante ao propor a instituição no estado de um Sistema de Prevenção e Combate à Deepfake. Em tramitação na Assembleia Legislativa do Estado de São Paulo (Alesp), a iniciativa acerta ao combinar prevenção, educação digital, apoio às vítimas e inteligência pública.
Mas a lacuna mais visível, a meu ver, está no processo penal. Em casos de deepfake, a prova depende de preservação de login, de URLs, de hashes (função matemática que cria "impressão digital" única, gerada por algoritmos), de metadados de tráfego, de contexto de publicação e de elementos de rastreabilidade. Não basta saber se a imagem é falsa - é preciso demonstrar como foi produzida, por onde circulou, quem impulsionou sua difusão e o potencial de dano.
Neste cenário, a saída mais consistente não é mexer no atual artigo 218 do Código Penal, mas incluir neste ordenamento jurídico o artigo 218-A - voltado, especificamente, à prova digital em casos de crimes praticados por meio de manipulação por IA. É preciso abandonar a premissa de que só há violência sexual digital relevante quando existe fato visual originário.
Enquanto o processo penal continuar preso a categorias pensadas para prova analógica, vítimas de violência sexual digital seguirão expostas à dúvida técnica, à demora institucional e à revitimização. O conteúdo pode ser artificial. A violência, não. Um sistema de Justiça que não consegue enxergar este cenário, falha flagrantemente.
Promotora de Justiça em último grau do Colégio Recursal do Ministério Público (MP) de São Paulo. Doutora em direito civil, mestre em direito penal e presidente do Instituto Brasileiro de Atenção Integral à Vítima (Pró-Vítima)*
Saiba Mais
