Em audiência pública, InternetLab defende regulação em camadas no enfrentamento às deepfakes sexuais
Contribuição do InternetLab destaca que mulheres e meninas são desproporcionalmente afetadas pelas deepfakes, tendo seus direitos à privacidade, proteção de dados e personalidade ameaçados. Diante da gravidade, recomendamos que deepfakes sexuais sejam enquadradas como de risco excessivo.
No dia 03/09, a Comissão de Defesa dos Direitos da Mulher e a Comissão Especial sobre Inteligência Artificial da Câmara dos Deputados promoveram uma audiência pública sobre crimes cometidos contra mulheres com imagens falsas de nudez produzidas por inteligência artificial. A audiência reuniu organizações da sociedade civil e representantes do setor público e integra as discussões em torno do PL 2338/23, que busca regulamentar o uso de inteligência artificial no Brasil.
O InternetLab, representado pela diretora de pesquisa Clarice Tavares, apresentou contribuição destacando três pontos centrais: (i) o uso massivo de deepfakes para violação dos direitos das mulheres; (ii) a insuficiência do atual arcabouço legal para enfrentar as deepfakes sexuais; e (iii) a necessidade de uma abordagem regulatória em camadas.
O caráter generificado das deepfakes
A intervenção do InternetLab ressaltou o continuum online/offline nas violências de gênero que ocorrem nos meios digitais e fora deles, na medida em que a violência contra a mulher facilitada pela tecnologia não está desconectada das desigualdades de gênero e da misoginia que estruturam a sociedade. Ainda que seja cada vez mais difícil restringir os efeitos e impactos da violência apenas ao ambiente online ou offline, a emergência de novas tecnologias traz novas camadas de violação de direitos.
Nesse contexto, as deepfakes vêm sendo usadas como uma nova forma de violência de gênero. O próprio conceito, desde sua origem, tem um caráter profundamente generificado: o termo deepfake surgiu em 2017, por um usuário do Reddit que utilizava o pseudônimo “deepfakes”. Esse usuário criou um subreddit em que usava tecnologia de deep learning, em código aberto, para substituir o rosto de mulheres famosas em vídeos pornográficos.
Ainda que existam outros tipos de usos de deepfake, pesquisas apontam que esse tipo de tecnologia é usado, majoritariamente, para produção de imagens sexuais sintéticas, sem o consentimento das vítimas. Um estudo de Oxford que analisou quase 35.000 variantes de modelos deepfake disponíveis para download público revelou que 96% desses modelos tinham como alvo mulheres identificáveis, sejam celebridades mundialmente reconhecidas ou usuárias de redes sociais com um número pequeno de seguidores. Grande parte desses modelos continham tags como “pornô”, “sexy” ou “nu” ou descrições que sinalizavam a intenção de gerar imagens íntimas não consensuais, apesar de tais usos violarem os Termos de Serviço das plataformas de hospedagem.
Os dados da pesquisa de Oxford, somados a levantamentos de outras instituições, evidenciam o uso massivo das deepfakes para a violação de direitos das mulheres. A preocupação intensifica-se com os avanços tecnológicos: se antes eram necessárias centenas de imagens para gerar um conteúdo sintético realista, hoje basta uma única fotografia para produzir resultados convincentes, o que torna qualquer pessoa uma potencial vítima.
Arcabouço legal insuficiente
O InternetLab ressaltou que o arcabouço legal atualmente disponível para a proteção de direitos das mulheres é insuficiente diante da complexidade de atores e de violações envolvidos na produção não consentida de deepfakes sexuais. Esse fenômeno articula múltiplos campos do direito, como a proteção de dados pessoais, posto que essas informações são utilizadas sem consentimento ou sem bases legais adequadas; questões de privacidade e de direitos autorais; a disseminação não consentida de imagens íntimas; e desafios ligados à desinformação e à responsabilidade de plataformas e agentes de IA. Uma responsabilização que recaia apenas sobre o indivíduo que produz ou compartilha o conteúdo ignora a ampla cadeia de atores que participa de sua criação e circulação.
Orientações e discussões anteriormente formuladas em relação à disseminação não consentida de imagens íntimas, como não compartilhar fotos pessoais ou adotar formas seguras de compartilhamento, tornam-se limitadas diante das deepfakes, na medida em que, nesse caso, a vítima não tem qualquer nível de controle, já que uma única imagem sua que esteja disponível na internet pode ser usada na produção de conteúdos falsos e potencialmente abusivos.
Diante desse cenário, em 2025, foi aprovado o aumento da pena para o crime de violência psicológica contra a mulher, em caso de uso de inteligência artificial que altere imagem ou som da vítima (art. 147-B, parágrafo único do Código Penal). Embora seja um avanço e sinalize o reconhecimento da gravidade das deepfakes sexuais, a medida restringe-se à responsabilização do autor do conteúdo, deixando de considerar a estrutura mais ampla que sustenta sua produção e circulação, além de carecer de mecanismos preventivos, priorizando o direito penal como resposta principal (e, por vezes, única) contra a violência de gênero.
Regulação em camadas
Diante da complexidade do problema, que envolve desde os atores responsáveis pela produção e fornecimento da tecnologia até aqueles que compartilham o conteúdo, o InternetLab destacou a necessidade de uma abordagem regulatória em camadas. Essa perspectiva deve abranger todo o ciclo de vida das deepfakes, que vai da concepção dos modelos de IA à circulação das imagens e seus efeitos sobre a audiência em geral.
A abordagem regulatória em camadas inspira-se no trabalho desenvolvido pelo European Policy Research Service, que identifica as cinco dimensões do ciclo de vida das deepfakes que devem ser consideradas na formulação de políticas públicas para prevenir e enfrentar efeitos adversos dessa tecnologia. Assim, uma regulação em camadas que vise o enfrentamento às deepfakes sexuais deve considerar:
- Responsabilidade dos atores que desenvolvem e disponibilizam ferramentas de deepfake. Diante de seus impactos, todas as deepfakes devem ser enquadradas como tecnologias de alto risco, por terem um alto potencial danoso e viés discriminatório. Qualquer aplicação pode afetar direitos de personalidade, privacidade, proteção de dados e direitos autorais, o que demanda salvaguardas rigorosas. No caso das deepfakes sexuais, o risco é ainda maior, a ponto de justificar seu enquadramento como tecnologia de risco excessivo e, portanto, vedada. Medidas de safety by design podem contribuir para essa vedação, como a implementação de barreiras que impeçam a inserção de inputs de caráter sexual, prevenindo a criação desse tipo de conteúdo.
- Responsabilidade do usuário que cria conteúdo sintético sexual. A criação de deepfakes sexuais deve estar sujeita à responsabilização civil e/ou criminal. Embora o direito penal não deva ser visto como a única nem a principal ferramenta para enfrentar a violência sexual, pode desempenhar um papel complementar, em articulação com as obrigações de plataformas e de desenvolvedores de tecnologia.
- O papel das plataformas. A disseminação e a circulação dos conteúdos determinam a escala e a gravidade das deepfakes sexuais, o que confere às plataformas de mídias sociais um papel central. É fundamental que sejam obrigadas a adotar softwares de detecção de deepfakes sexuais, a ampliar a transparência de seus sistemas, a aprimorar mecanismos de rotulagem e a detalhar processos de decisão sobre a remoção (ou não) de conteúdos. Considerando que já existem tecnologias relativamente eficazes para identificar exploração sexual infantil e imagens íntimas não consentidas, é razoável exigir esforços equivalentes no combate às deepfakes sexuais.
- Proteção aos alvos ou às vítimas de mídias sintéticas sexuais. As pessoas alvo de deepfakes sexuais devem contar com suporte institucionalizado que vá desde a proteção de seus dados pessoais até mecanismos de assistência jurídica, psicológica e social, capazes de reparar e mitigar os danos causados.
- Educação da audiência. É preciso investir em alfabetização midiática e cidadania tecnológica, ampliando o debate público sobre deepfakes e seus impactos. Isso inclui discutir os riscos éticos, a desproporcionalidade de seus efeitos sobre determinados grupos sociais e o fortalecimento da capacidade de identificar conteúdos sintéticos.
Uma abordagem em camadas, que reconheça a complexidade do tema e o impacto desproporcional das deepfakes sexuais sobre as mulheres, pode contribuir para a criação de um ambiente mais seguro, com a responsabilização dos diferentes atores envolvidos nesse ecossistema.