informe-transparencia-facebook

El nuevo informe de transparencia de Facebook ignora sus mayores problemas

Otro día, otra parada en la interminable gira de disculpas de Facebook.

El último informe de transparencia de Facebook incluye por primera vez estadísticas sobre la gran cantidad de contenido que la compañía elimina por violar los estándares de su comunidad.

El informe pasado se centraba en la censura, rastreando la respuesta de la red social a las solicitudes de eliminación por parte de los funcionarios del gobierno. Sin embargo, el contenido eliminado representa solo una pequeña fracción del contenido total que la compañia elimina cada año.

Gran parte del contenido que Facebook derriba es por violar sus “estándares comunitarios”, es decir las reglas que prohíben el discurso de odio,  violencia gráfica, desnudez etc.

Por su parte, el informe de transparencia deja en claro cuánto de eso se está abriendo paso a través de la red social de forma regular.

Por ejemplo, la compañía dice que eliminó una asombrosa cuenta falsa de 583 millones durante el primer trimestre de 2018. Así como 837 millones de mensajes no deseados que define como “actividad no auténtica que está automatizada o coordinada”.

Pero aunque las cifras arrojan algo de luz sobre la magnitud de la batalla, el informe no nos dice mucho sobre algunas de las preguntas más importantes con las que lidia actualmente la compañía.

No hay mención de los esfuerzos de la compañía para proteger mejor los datos de los usuarios, por ejemplo. Las divulgaciones de Cambridge Analytica para notificar a usuarios cuyos datos se usaron incorrectamente, no se menciona en el informe.

Del mismo modo, hay poca mención de información falsa o noticias falsas, otro tema espinoso que Facebook luchó para combatir. Aunque la barra lateral del informe contiene un artículo del centro de ayuda y una publicación de Mark Zuckerberg sobre el tema, el informe en sí no agrega ninguna información nueva.

[pro_ad_display_adzone id=”10304″]Ebook Marketing de Contenidos