“No sin mi consentimiento”, asistencia para víctimas de pornografía de venganza

Facebook ha querido hacer más para ayudar a las personas que han sido víctimas de una forma de explotación cruel y destructiva conocida como pornografía de venganza. Es por eso que acaba de lanzar “No sin mi consentimiento”, un nuevo centro de asistencia a las víctimas dentro su Centro de seguridad, desarrollado en conjunto con expertos.

Se ha informado que las víctimas pueden encontrar organizaciones y recursos de apoyo en este centro, así como conocer sobre los pasos a seguir para eliminar el contenido de la plataforma y evitar que se siga compartiendo.

Además, en “No sin mi consentimiento” podrán acceder a su programa piloto lanzado en 2017, donde se trabaja constantemente para prevenir este tipo de abuso y mantener este contenido fuera de la comunidad.

La compañía de Mark Zuckerberg también permitirá que sea más fácil e intuitivo para las víctimas de pornografía de venganza informar cuando sus imágenes íntimas se hayan compartido en Facebook.

Durante los próximos meses, además de “No sin mi consentimiento”, se creará un set de herramientas en apoyo a las víctimas de todo el mundo para brindarles más información a las personas, donde se incluya un relevante apoyo cultural y local.

“Haremos esto en colaboración con la Línea de ayuda para la pornografía de Venganza (Reino Unido), Cyber Civil Rights Initiative (Estados Unidos), Digital Rights Foundation (Pakistán), SaferNet (Brasil) y el profesor Lee Ji-yeon (Corea del Sur)”, ha explicado Antigone Davis, jefe de Seguridad Global en Facebook.

Igualmente señaló que el trabajo de combate al abuso y el apoyo a las víctimas, en proyectos como “No sin mi consentimiento”, sería imposible sin la colaboración de expertos internacionales.

Es por eso que, al margen de la Sexagésima Comisión de la Condición Jurídica y Social de la Mujer, han realizado un evento con Dubravka Simonovic, relatora especial de Estados Unidos sobre la violencia contra las mujeres.

Allí se han reunido algunos de estos defensores de las víctimas, representantes de la industria y organizaciones sin fines de lucro, para discutir la manera en que la pornografía de venganza se manifiesta en todo el mundo, sus causas y consecuencias; los desafíos que se aproximan y cómo abordarlos, así como estrategias disuasivas.

Detección de pornografía de venganza

En la red social y su familia de apps tienen claro que puede ser devastador compartir imágenes íntimas de alguien sin su consentimiento. Para proteger a las víctimas, su política desde hace mucho tiempo ha sido eliminar estas imágenes no consensuadas cuando son reportadas, además de usar una técnica de revisión de fotos para evitar que vuelvan a ser compartidas.

Para detectar este tipo de contenido de forma más rápida y, por lo tanto, poder brindar un apoyo más adecuado a las víctimas, igualmente se ha anunciado una nueva tecnología de detección que puede evitar este tipo de abusos.

“Encontrar estas imágenes va más allá de detectar desnudos en nuestra plataforma. Al utilizar el Aprendizaje Automático (ML) y la Inteligencia Artificial (IA), ahora podemos detectar proactivamente imágenes o videos de desnudos que se comparten sin consentimiento en Facebook o Instagram”.

Esto significa que la compañía puede ser capaz de encontrar este contenido antes de que alguien lo reporte, lo cual es relevante por dos razones: a menudo las víctimas temen las represalias y se muestran evasivas a informar el contenido por sí mismas o desconocen que el contenido ha sido compartido.

Un miembro especialmente capacitado del equipo de Normas Comunitarias revisará el contenido detectado por la tecnología. Se ha explicado que si la imagen o el video infringen las normas de la plataforma, será eliminado, e incluso, podrán inhabilitar la cuenta por compartir contenido íntimo sin permiso.

“Esta nueva tecnología de detección se suma a nuestro programa piloto ejecutado junto con distintas organizaciones de defensa de víctimas. Este programa brinda a las personas una opción de emergencia para enviar una foto a Facebook de forma segura y proactiva”.

El siguiente paso sería la creación de una huella digital de esa imagen y así evitar, en primer lugar, que se comparta en la plataforma. Facebook, después de recibir comentarios positivos de las víctimas y de las organizaciones de apoyo, ha decidido ampliar este programa piloto en los próximos meses para que más personas puedan beneficiarse de esta opción en casos de emergencia.

Holly Jacobs, Fundadora de Cyber Civil Rights Initiative (CCRI), ha dicho que se sienten encantados de que el programa pilotos se expanda para incorporar más organizaciones de seguridad de las mujeres en todo el mundo, ya que muchas de las solicitudes que reciben provienen de víctimas que residen fuera de los Estados Unidos.