Menú Buscar
Un usuario utilizando Instagram en su smartphone / CREATIVE COMMONS

Las fotos de Instagram ayudan a Facebook a combatir el terrorismo

La compañía de Mark Zuckerberg revela entrenar a sus sistemas de inteligencia artificial que detectan mensajes de odio con las publicaciones que se hacen en la red social

3 min

Parece que el desarrollo de la inteligencia artificial es el gran objetivo de las grandes empresas tecnológicas del mundo. En los últimos días, hemos podido ver cómo Google trabaja en este sentido con su renovada y su casi humanizada herramienta Assistant. Ahora, hemos podido ver que estos mismos intereses son los que persigue Facebook.

La compañía dirigida por Mark Zuckerberg --salpicada durante los últimos meses por diversos escándalos que ha hecho disminuir considerablemente su reputación de cara a los consumidores de internet-- decidió centrar su discurso en la parte positiva que poseen sus productos y servicios durante la conferencia de desarrolladores F8, que tuvo lugar estos días en San José (California). Uno de estos objetivos marcados, va dirigido a la moderación del contenido que se publica en la red social con más usuarios del planeta. Una tarea que en muchas ocasiones pasa bastante inadvertida pero que sin duda constituye una prioridad tan absoluta como necesaria.

El fundador de Facebook Mark Zuckerberg, en una imagen de archivo / EFE

Imagen de archivo de Mark Zuckerbeg

Objetivo: eliminar el odio de Facebook

Según expluicó Mike Schroepfer, CTO de Facebook, durante el primer trimestre de 2018 fueron detectadas dos millones de piezas audiovisuales de "propaganda terrorista", de las cuales un 99% fueron detectadas antes de ser vistas por los seres humanos. "¿Cómo?", fue la pregunta que se hicieron la mayoría de asistentes a la ponencia.

Algoritmos de comportamiento basados en Inteligencia artificial. Esa es la tecnología "invisible" en la que trabaja Facebook en su objetivo por limpiar de internet los contenidos que supongan incitación al odio, intimidación y que hagan un llamado a la autolesión. Algo que es posible mediante diversos algoritmos automatizados capaces de procesar el lenguaje natural a la hora de expresarse en un vídeo.

¿Cómo funcionan estos algoritmos?

Tal y como revelaron en la conferencia, Facebook reconoció que parte de esta estrategia reside en la otra gran red social por excelencia de la que es propietaria: Instagram. Y es que la compañía de Mark Zuckerberg emplea las publicaciones de fiestas, cumpleaños y demás momentos felices de las vidas de sus usuarios para entrenar sus herramientas de inteligencia artificial encargadas de detectar mensajes cargados de odio.

Y es que la moderación de contenido es una preocupación apremiante para las empresas de tecnología. YouTube, sin ir más lejos, ha reconocido en muchas ocasiones tener problemas a la hora de filtrar y suprimir el contenido ofensivo. Un enemigo para las redes sociales sobre el que Facebook ha sido acusado de forma directa, alegando que no hace lo suficiente para eliminar publicaciones. Su objetivo es ahora demostrar que esto no es cierto, y que trabajan activamente por erradicar este mal mediante la innovación y la vanguardia tecnológica.