En Facebook no han tenido otra opción que evaluar las medidas adicionales que pudiesen tomar para evitar que sus servicios sigan siendo utilizados para causar daño o difundir propaganda de odio, luego de los terribles ataques terroristas en Nueva Zelanda.
Desde ya, como resultado de ese análisis, las personas que hayan infringido las normas de Facebook, incluida su política de Organizaciones y Personas Peligrosas, tendrán restricciones para usar Facebook Live.
Guy Rosen, vicepresidente de Integridad de Facebook, ha sido el encargado de anunciar estas nuevas medidas y asegurar que las amenazas, necesariamente, las deben enfrentar con un nivel de innovación técnica que ayude a detectar posibles manipulaciones de productos multimedia.
Tal es el caso de lo sucedido después de Christchurch, cuando algunos usuarios modificaron el video para evitar su identificación y volver a publicarlo después de que fuera retirado.
A juicio del ejecutivo, esto requerirá de investigación fundacional impulsada por la industria y la academia, por lo que también ha informado nuevas asociaciones de investigación con líderes académicos de tres universidades, por un total de 7,5 millones de dólares. Dijo que estas asociaciones estarán diseñadas para impulsar nuevas mejoras en la tecnología para el análisis de imágenes y videos.
Aunque la gran mayoría de las personas utiliza Facebook Live con fines positivos, como compartir un momento con amigos o crear conciencia sobre una causa que le interesa, ha insistido en que es posible que se pueda abusar de esta herramienta y por ello quieren tomar medidas para limitar esa posibilidad.
Eliminar publicaciones en Facebook
Rosen ha dejado claro que si alguien publica propaganda de odio o cualquier contenido que viole las Normas Comunitarias en Facebook Live u otras herramientas de la plataforma, inmediatamente se procederá a eliminar esa publicación.
“Si esta persona sigue publicando contenido que continúa infringiendo nuestras políticas, se le impide usar Facebook durante un cierto período de tiempo, lo que también restringe su capacidad de transmitir en Live”.
Incluso, en algunos casos, ha referido que puede quedar excluida del servicio por completo, ya sea por violaciones repetidas de bajo nivel o, en episodios raros, por una sola violación considerada grave. Un ejemplo de este caso sería usar propaganda terrorista en su foto de perfil o compartir imágenes de explotación infantil.
En cuando al ajuste de las reglas que se aplican específicamente a Live, se ha conocido que también han comenzado a emplear una política de “única advertencia” en relación con una gama ampliada de delitos.
“A partir de ahora, cualquier persona que viole nuestras políticas más serias no podrá utilizar Live durante períodos de tiempo establecidos, por ejemplo, de 30 días desde que cometió la primera infracción”.
En este sentido, alguien que comparta un enlace a una declaración de un grupo terrorista sin contexto será bloqueado inmediatamente para que no pueda usar Facebook Live durante un período de tiempo específico.
El Vicepresidente de Integridad de Facebook igualmente ha añadido que planean extender estas restricciones a otras áreas en las próximas semanas, comenzando por evitar que esas mismas personas creen anuncios en Facebook.
Y es que en la compañía de Mark Zuckerberg reconocen la tensión existente entre quienes prefieren contar con un servicio sin restricciones y los límites necesarios que requiere mantener a las personas seguras en Facebook.
El objetivo, de acuerdo al ejecutivo, es minimizar el riesgo de daños, propaganda de odio o abusos en Facebook Live y permitir que las personas utilicen esta herramienta de una forma positiva todos los días.
Detectando la manipulación audiovisual
Uno de los desafíos que han enfrentado en la plataforma en los días posteriores al ataque de Nueva Zelanda, según lo publicado por Guy Rosen, ha sido la proliferación de diferentes variantes del video. Al parecer, las personas compartieron versiones editadas, no siempre de manera intencional, lo que dificultó su detección en los sistemas.
A pesar de que han implementado distintas técnicas para encontrar esas variantes, incluida la tecnología de coincidencia de video y audio, se han percatado de que se trata de un área en la que tienen que invertir en investigaciones adicionales.
Como resultado de esa situación, también han decidido anunciar asociaciones con tres universidades: la Universidad de Maryland, la Universidad de Cornell y la Universidad de California, en Berkeley, las cuales estarán centradas en la investigación de nuevas técnicas.
Esas nuevas técnicas se encuentran enfocadas en detectar imágenes, videos y audios manipulados, así como distinguir entre publicaciones de individuos que manipulan imágenes y videos de manera intencional, de aquellos que lo hacen inconscientemente.
“Está claro que lidiar con el aumento de este tipo de manipulaciones requerirá de mucha investigación y una colaboración profunda entre la industria y la academia. Necesitamos que todos trabajemos juntos para enfrentar este desafío”.
Rosen ha aclarado que estas asociaciones son sólo una parte del esfuerzo que ejecutan para trabajar de la mano con la academia y sus colegas de la industria, por lo que buscarán seguir avanzando lo más rápido posible para innovar frente a esta amenaza.
Según su criterio, este trabajo será fundamental en el esfuerzo ampliado por combatir la manipulación de imágenes, videos y audios, incluyendo DeepFakes (ultrafalso).
También espera que estas alianzas les ayuden a combatir de forma más eficaz a los grupos organizados que intentan engañar los sistemas de Facebook, como se ha visto después del ataque a Christchurch.
“Estas son cuestiones sumamente complejas y nos encontramos trabajando en un entorno en constante cambio. Sólo si nos mantenemos atentos y trabajando con expertos, otras empresas, gobiernos y la sociedad civil en general alrededor del mundo, podremos mantener a las personas seguras. Estamos ansiosos por continuar juntos este trabajo”.