PDQ y TMK + PDQF, tecnologías para detectar contenido dañino en Facebook

3

Desde Facebook se ha anunciado el lanzamiento de dos nuevas tecnologías de código abierto que pueden detectar contenido dañino en videos y fotos. Se trata de PDQ y TMK + PDQF, las cuales forman parte de un conjunto de herramientas que utilizan en la plataforma para descubrir ese contenido nocivo.

Antigone Davis, responsable de Seguridad Global; y Guy Rosen, vicepresidente de Integridad en Facebook, han informado que estos algoritmos serán de código abierto en GitHub.

La idea es que los socios de la industria, desarrolladores pequeños y organizaciones sin fines de lucro puedan utilizar PDQ y TMK + PDQF para identificar de manera más fácil contenido dañino y compartir funciones hash o huellas digitales de diferentes tipos de contenido abusivo.

Estas tecnologías recientemente anunciadas, para aquellos que ya utilizan su propia tecnología para detectar coincidencias, representan una capa adicional de defensa y permiten que los sistemas de intercambio de hash se comuniquen entre sí, haciéndolos mucho más poderosos.

“Confiamos en una combinación de tecnología y personas para ayudar a mantener nuestras plataformas seguras. Cuando identificamos un contenido dañino, como explotación infantil, propaganda terrorista, o violencia gráfica, la tecnología puede ayudarnos a encontrar duplicados de las mismas y evitar que se compartan”.

Es por esto que en la compañía han decidido compartir con otras personas parte de la tecnología que usan para combatir abusos en la plataforma, con la intención de trabajar para mantener el internet más seguro.

John Clark, presidente y CEO del Centro Nacional de Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), ha comentado que en sólo un año han sido testigos de un aumento del 541% en la cantidad de videos de abuso sexual infantil reportados por la industria tecnológica a CyberTipline.

“Confiamos en que la generosa contribución de Facebook de esta tecnología de código abierto en última instancia conducirá a la identificación y rescate de más víctimas de abuso sexual infantil”.

Combatiendo el contenido nocivo

Facebook ha contribuido a lo largo de los años con cientos de proyectos de código abierto, compartiendo así su tecnología con la comunidad en general. Sin embargo, se ha conocido que esta es la primera vez que comparte una tecnología de comparación de fotos o videos.

El reciente anuncio, aprovechando la generosa contribución de PhotoDNA de Microsoft para lucha contra la explotación infantil hace 10 años y el lanzamiento más reciente de la API de seguridad de contenido de Google, también forma parte de un compromiso de toda la industria para construir un Internet más seguro.

“También, existen otros algoritmos e implementaciones disponibles para la industria como pHash, PhotoDNA, aHash y dHash de Microsoft. Nuestro algoritmo de coincidencia de fotos, PDQ, debe mucha de su inspiración a pHash, a pesar de haber sido creado desde cero como un algoritmo distinto con una implementación de software independiente”.

TMK + PDQF, la tecnología de coincidencia de video, ha sido desarrollada conjuntamente por el equipo de Investigación de Inteligencia Artificial de Facebook (FAIR) y académicos de la Universidad de Módena y Reggio Emilia en Italia.

Se ha explicado que estas tecnologías crean una manera eficiente de almacenar archivos como hashes digitales cortos que pueden determinar si dos archivos son iguales o similares, incluso sin la imagen o el video original.

Además, los hashes se pueden compartir más fácilmente con otras compañías y organizaciones sin fines de lucro. Cuando se identifica propaganda terrorista en las plataformas, por ejemplo, la eliminan y analizan utilizando una variedad de técnicas, incluyendo los algoritmos que han compartido.

“Después, compartimos los hashes con socios de la industria, incluidas las empresas más pequeñas a través de GIFCT, para que también puedan eliminar el mismo contenido si aparece en alguno de sus servicios”.

Davis y Rosen han detallado que PDQ y TMK + PDQF han sido diseñados para operar a gran escala, admitiendo aplicaciones de video-hashing de cuadros y en tiempo real. PDQ y TMK + PDQF, además, fueron planteadas en función de la experiencia en la detección de abusos en miles de millones de publicaciones en Facebook.

“Esperamos que al contribuir de nuevo a la comunidad, estaremos permitiendo que más compañías mantengan sus servicios seguros y empoderen a las organizaciones sin fines de lucro para que puedan trabajar en el espacio”.

Este trabajo se suma a la investigación en curso en estas áreas, incluida la asociación de Facebook con la Universidad de Maryland, la Universidad de Cornell, el Instituto de Tecnología Massachusettes y la Universidad de California, Berkeley, para investigar nuevas técnicas de detección y manipulaciones intencionales de videos y fotos para evadir sus sistemas.

Hackathon de seguridad infantil

Las tecnologías PDQ y TMK + PDQF han sido anunciadas mientras ocurre el cuarto hackathon anual de seguridad infantil, que se realiza en la sede de Facebook en Menlo Park, California.

El evento de dos días reúne alrededor de 80 ingenieros y científicos de datos de empresas asociadas a Technology Coalition, entre otras, para desarrollar nuevas tecnologías que ayuden a proteger a los niños y niñas.

En esta oportunidad, el hackathon anual de seguridad infantil se centra en el desarrollo de nuevas herramientas para ayudar a los socios, NCMEC y Thorn, en su trabajo.

Algunos equipos, por ejemplo, crearán una característica que permita a las fuerzas del orden público utilizar la herramienta de administración de casos CyberTip, del NCMEC, para consultar las bases de datos de hashes conocidos en otras organizaciones sin fines de lucro, así como información clave relacionada con un CyberTip particular.

Así, podrán recopilar y comparar puntos de datos, al tiempo que se ayudará en su esfuerzo por identificar a los niños en riesgo e informes altamente procesables. El código fuente abierto publicado también estará disponible para los equipos en el hackathon anual de seguridad infantil.

“Los hackathons son una forma de reunir a personas de diferentes organizaciones con experiencia muy diversa para crear herramientas que resuelvan la explotación sexual infantil en internet. Todos los códigos y prototipos desarrollados en el evento serán donados a nuestros socios y utilizados en sus esfuerzos por la seguridad infantil”.

Los ejecutivos han enfatizado que continuarán expandiendo y mejorando sus propios productos y características para combatir este problema crítico.