Tecnología & Cultura Digital

Facebook: se filtran las reglas que regulan sexo y violencia en la red social

Un documento publicado por 'The Guardian' revela que la red social permite las autolesiones en directo y no modera ciertos tipos de violencia.

2017-05-22

Por CNET

Facebook, esa red social con más de 2.000 millones de usuarios y en donde las emisiones en directo ya han comenzado a ocasionar problemas en todo el mundo, tiene reglas para la moderación de comentarios y publicaciones que han sido reportadas por The Guardian, y que de buenas a primera dejan detalles que podrían dejarte confuso. Uno de ellos es simple: las imágenes de un suicidio o asesinato, por ejemplo, solo deben ser eliminadas una vez que 'no hay oportunidad de ayudar a la persona'.

Y aunque en los documentos explican que cada caso puede tener un tratamiento diferente, las políticas de Facebook a las que tuvo acceso la fuente dan una idea de cómo se modera la violencia, el discurso de odio, el terrorismo, la pornografía e incluso el racismo o canibalismo.

Facebook Live, el nombre formal de la herramienta de emisión de streaming, cumple un año, y desde su lanzamiento se han conocido al menos 50 actos de violencia, según reporta The Wall Street Journal. Entre ellos se incluyen asesinatos, suicidios y una paliza a un adolescente con necesidades especiales en Chicago, Estados Unidos, a comienzos de año.

¿Cómo decidir qué se censura en Facebook Live?
Según los documentos filtrados, la red social tiene claro que han aumentado las autolesiones emitidas en directo, y por ello tiene una política para esto: 'estamos viendo más contenido de video -- incluyendo suicidios -- compartidos en Facebook (...). No queremos censurar ni castigar a las personas en peligro que están intentando suicidarse'.

Y aunque apenas lees esta política puedes considerarla negativa, el reporte dice que la empresa tiene una explicación para esto: los expertos contratados por la compañía creen que es mejor para la seguridad de las personas dejarlas vivir en directo siempre y cuando estén en contacto con los espectadores.

Y a pesar de que existe un riesgo de contagio -- es decir, si alguien ve un suicidio, es más propenso a ejecutarlo -- los videos no deben ser interrumpidos hasta que 'no haya oportunidad de ayudar a la persona'. Entonces la empresa lo eliminará de la plataforma siempre que no tenga un interés periodístico.

Y aunque el caso de los suicidios emitidos en directo puede ser el más sonado, también hay otros contenidos permitidos por la red social, siempre según el reporte, que son de escándalo:

  • Ciertos abusos físicos de niños, siempre que no haya 'sadismo y celebración' en ellos.
  • A abortos, siempre y cuando no haya desnudos.
  • Violencia animal, aunque pueden ser marcados como inapropiados y se eliminarán los que la celebren.
  • Los documentos también explican que cualquier contenido que señale violencia en contra de personas importantes como el presidente Trump debe ser borrado de la red social.

Facebook no confirmó a CNET y CNET en español la autenticidad de los documentos, pero dijo que la seguridad de sus usuarios es su principal preocupación.

'Mantener a las personas en un Facebook seguro es lo más importante que hacemos', dijo en un comunicado Monika Bickert, directora de gestión de políticas globales de Facebook. 'Además de invertir en más personas, también estamos construyendo mejores herramientas para mantener a nuestra comunidad segura. Vamos a hacer más fácil reportar problemas, y nuestros revisores podrán determinar más rápido qué posts violan nuestros estándares y será más fácil ponerse en contacto con la policía si alguien necesita ayuda'.

Facebook dijo que contrataría 3.000 revisores más aparte de los 4,500 actuales, para luchar contra la violencia en los videos en directo.

12 ejemplares al año por $75

SUSCRIBIRSE