O Facebook está testando um novo método polêmico para combater o chamado pornô de vingança (revenge porn) na plataforma – a divulgação de imagens ou vídeos íntimos sem o consentimento das vítimas.

Iniciado na Austrália (via ABC), o sistema utilizará uma inteligência artificial para identificar e bloquear a postagem de qualquer conteúdo que possa que possa ser considerado revenge porn, ajudando a conter sua propagação pela web de maneira automática – e dependendo menos da revisão humana do conteúdo.

A polêmica, no entanto, fica por conta do método que será utilizado para “treinar” essa inteligência artificial: a iniciativa deseja que o próprio usuário envie nudes ao Facebook para que o site alimente o sistema com referências do que deve ser considerado conteúdo comprometedor.

O teste sendo realizado na Austrália conta com a apoio da agência governamental e-Safety e busca reduzir os casos de revenge porn na região. Estimativas apontam que uma a cada cinco mulheres entre 18 e 45 anos correm risco de serem vítimas do problema.

Para entrar no programa, usuários devem preencher um formulário da e-Safety e enviar qualquer imagem que desejam apontar como sensíveis para ela mesma via plataformas da empresa – Facebook, Messenger ou Instagram.

De acordo com a rede social, as imagens não serão armazenadas em serviços da companhia, mas criam uma espécie de “impressão digital” do conteúdo, que será utilizada para bloquear possíveis vazamentos futuros.