Se integrarA? mA?s personal de monitoreo a Facebook

Se integrarA? mA?s personal de monitoreo a Facebook

 

Hace unos dA�as, elA�portal ProPublica alertA? que Facebook habA�a ignorado mA?s de 900 solicitudes de retiro de contenidos que incitaban a la violencia, la red social pidiA? disculpas por los inconvenientes y dijo que incrementarA? a 20.000 el nA?mero de personas que revisan los contenidos.

El medio revelA? 43 ejemplos de publicaciones que hacA�an referencia a contenido o frases racistas, antisemitas o en contra de la igualdad de gA�nero. En algunos de los post la red social argumentA? que no tenA�a suficiente informaciA?n para tomar una decisiA?n o que sus reglas permiten, por ejemplo, atacar una ideologA�a pero no miembros de la religiA?n.

Sin embargo, en un comunicado dirigido a ProPublica, la compaA�A�a reconociA? que se cometieron errores en el proceso de revisiA?n y que prevA� duplicar el nA?mero de personas que se encargan de verificar que las publicaciones cumplan con las reglas.

El pasado mes de septiembre el mismo portal publicA? una investigaciA?n que revelaba que dentro de la red social se podA�a segmentar audiencias con categorA�as antisemitas, entre ellas: a�?cA?mo quemar judA�osa�? y a�?la historia de cA?mo los judA�os arruinaron el mundoa�?.

En varias ocasiones la red social se ha comprometido a luchar en contra del discurso del odio dentro de la red social y trabajar a�?para hacer de Facebook un lugar donde todos puedan sentirse segurosa�?. De hecho, la compaA�A�a de Mark Zuckerberg ha acudido al uso de sistemas de inteligencia artificial que se encargan, entre otras cosas, de hacer comparaciA?n de imA?genes para identificar si una foto o un vA�deo coincide con un contenido de terrorismo publicado anteriormente.

 

Comentarios