Tech

Facebook logra eliminar más contenido del EI

La firma de Mark Zuckerberg ha entrenado sus sistemas de revisión, tanto humanos como algoritmos informáticos, para buscar publicaciones de grupos terroristas.

Facebook dijo que fue capaz de eliminar una mayor cantidad de contenido del Estado Islámico (EI) y Al Qaeda en el primer trimestre de 2018 al buscarlo activamente.

La red social adoptó medidas sobre 1.9 millones de contenidos de esos grupos en los primeros tres meses del año, casi el doble que en el trimestre anterior. Y el 99 por ciento de ese contenido no fue informado primero por los usuarios sino que fue advertido por los sistemas internos de la compañía, aseguró Facebook este lunes.

Facebook, al igual que Twitter y YouTube de Google, históricamente han puesto la responsabilidad en sus usuarios de advertir sobre el contenido que sus moderadores necesitan ver. Tras la presión de los gobiernos para reconocer su inmenso poder para la propagación de propaganda terrorista, Facebook comenzó hace aproximadamente un año a asumir una responsabilidad más directa. El máximo ejecutivo, Mark Zuckerberg, dijo a principios de este mes al Congreso que Facebook ahora cree que tiene una responsabilidad sobre el contenido de su sitio.

La compañía define a los terroristas como organizaciones no gubernamentales que participan en actos de violencia premeditados contra personas o propiedades para intimidar y lograr un objetivo político, religioso o ideológico. Esa definición incluye extremistas religiosos, supremacistas blancos y grupos ambientalistas militantes. "Es sobre si usan la violencia para alcanzar esos objetivos".

La política no se aplica a los gobiernos, dijo Facebook, porque "los estados-nación pueden legítimamente usar la violencia bajo ciertas circunstancias".

Facebook no dio cifras para su eliminación del contenido de los supremacistas blancos u otros grupos que considera están relacionados con el terrorismo, en parte porque los sistemas se han enfocado en la capacitación hasta ahora en el EI y al-Qaeda.

Facebook ha sido criticado por ser demasiado pasivo con el contenido extremista, especialmente en países como Myanmar y Sri Lanka, donde el algoritmo de la compañía, al impulsar publicaciones sobre lo popular, ha ayudado a aumentar teorías de conspiración que desencadenan violencia étnica. La gente en esos países le dijo al diario The New York Times que incluso después de que informan el contenido, Facebook puede decidir no quitarlo.

También lee: