E se fizessem pornografia com uma foto sua, usando IA? 1u6710
O risco é real, pois estamos na era do conteúdo erótico não consentido, nova (e crescente) forma de violência sexual 2ur23

Em algum momento das últimas duas décadas, você talvez tenha recebido (mesmo sem pedir) alguma imagem de uma celebridade sem roupa — e não era fruto de um trabalho oficial, mas uma montagem em que o rosto da pessoa foi aplicado a outro corpo. Pois hoje existe o risco de que façam isso com fotos suas, minhas, de qualquer pobre mortal como nós. Entramos na era da pornografia não consentida, movida a IA.
E o que é pornografia não consentida? O termo é meio que autoexplicativo, mas vale definir: a rigor, é a criação e divulgação de imagens íntimas falsas, manipuladas digitalmente, que retratam pessoas em situações sexuais sem permissão. Esse processo, antes a especialistas, hoje está ao alcance de qualquer pessoa por meio de plataformas simples e intuitivas.
Existem diversas modalidades de conteúdo desse tipo. A nudificação, por exemplo, consiste em remover digitalmente as roupas de alguém numa imagem. Podem pegar aquela sua foto de uma premiação do trabalho, subir numa plataforma e recriar seu corpo despido. Ou trocar seu rosto com o de modelos de conteúdo adulto, usando técnicas de deepfake, em que uma IA fabrica mídias altamente convincentes de alguém.

Se no ado isso preocupava a Scarlett Johansson ou o Chris Evans, agora qualquer pessoa pode se tornar vítima, tendo sua imagem manipulada para fins pornográficos, muitas vezes a partir de fotos comuns. Mulheres e meninas são os principais alvos, mas qualquer pessoa pode ser atingida.
Mas isso acontece mesmo? Com que frequência? 2m3m4j
Como de costume quando se trata da internet, muitos problemas podem parecer algo etéreo e distante, por vezes exagerados graças à dinâmica das redes sociais. Mas, sim, a pornografia não consentida é algo relevante. Uma pesquisa no Reino Unido revelou que uma em cada dez pessoas já foi vítima ou conhece alguém que foi de deepfakes eróticos, e quase metade dos entrevistados teme ser alvo desse tipo de abuso.
Outro estudo sobre o tema, feito em parceria entre universidades da Austrália, dos Estados Unidos e também do Reino Unido, ouviu 16 mil pessoas em dez países. Destas, 2,2% relataram já terem sido vítimas de pornografia deepfake e 1,8% itiram já ter criado ou compartilhado esse tipo de conteúdo.
São números pequenos, mas não irrelevantes, por dois motivos: primeiro porque há subnotificação (muitas vítimas não reconhecem imediatamente que foram alvo ou sentem vergonha de denunciar), segundo a tendência de crescimento conforme IAs generativas se disseminam entre diferentes camadas da população.
O que fazer para se proteger? 685t5i
Se a gente vivesse num conto da Carochinha, eu poderia dizer para você limitar sua exposição na internet. Mas, num mundo em que visibilidade se tornou um imperativo, não tem como fazer isso sem perder o juízo, a paciência e, vá lá, oportunidades profissionais.
Mais que isso: o problema é sério demais para ser resolvido com medidas individuais, o que além de tudo jogaria sobre as vítimas o ônus de resolver a má intenção dos outros.
Então, é preciso falar em legislação, que tem de dar conta dessa nova modalidade de violência sexual, e de tecnologia. Se a IA criou o problema, vai ter que resolver também. Em outras palavras, investir em algoritmos capazes de coibir deepfakes e ajudar na punição dos agressores.

A União Europeia vem investindo em sistemas de inteligência artificial capazes de identificar deepfakes e imagens íntimas manipuladas de forma não consensual. Apesar dos avanços, o desafio é grande: a cada nova tecnologia de detecção, surgem métodos mais sofisticados de criação de deepfakes, num ciclo constante de inovação e evasão.
Por isso, o uso dessas IAs precisa ser acompanhado de legislação robusta, cooperação internacional e políticas públicas que garantam tanto a proteção das vítimas quanto o respeito à privacidade das pessoas.
E o Brasil, como fica nesse embate? 166q6k
Do ponto de vista legal, o Brasil tem bons exemplos, como a Lei Rose Leonel (13.772/2018), que tratam da divulgação de imagens íntimas sem consentimento, com penas de até cinco anos de reclusão, além da Lei Carolina Dieckmann para crimes cibernéticos.
Há também o PL 3821/2024, atualmente em tramitação no Senado, que tipifica como crime “manipular, produzir ou divulgar, por qualquer meio, conteúdo de nudez ou ato sexual falso, gerado por tecnologia de inteligência artificial ou outros meios tecnológicos”.
A pena prevista é de dois a seis anos de reclusão e multa, podendo ser aumentada se a vítima for mulher, criança, adolescente, pessoa idosa ou com deficiência, ou se houver divulgação em massa nas redes sociais.
Como sempre digo aqui na coluna, a mesma tecnologia que serve para melhorar o mundo pode ser usada para complicar a vida das pessoas. Pressionar governos, empresas e instituições para que as leis e a inovação andem juntas, aparentemente, é algo que não vamos poder tirar do nosso radar nunca mais.