Ad Code

Ticker

6/recent/ticker-posts

Por primera vez, Facebook publica directrices detalladas sobre lo que puede y no aparecer en la red social


NUEVA YORK.— Si alguna vez se ha preguntado quĂ© tipo de cosas no quiere exactamente Facebook en su propia red, está de suerte. Por primera vez, Facebook publicĂł el martes las directrices detalladas sobre lo que permite y prohĂ­be en su propia web: 27 páginas en total.
No realice amenazas violentas creĂ­bles ni se deleite con la violencia sexual; no promueva el terrorismo ni la caza furtiva de especies amenazadas; no intente comprar marihuana, vender armas de fuego o publicar los precios de venta de medicamentos con receta; no publique instrucciones para lesionarse; no muestre a menores en un contexto sexual ni cometa mĂşltiples homicidios en diferentes momentos o lugares.
Facebook ya habĂ­a vetado la mayorĂ­a de estas acciones su anterior página “estándares de la comunidad”, que esbozaba a grandes rasgos los estándares de la red social, pero el documento publicado el martes incluye algunos detalles que a veces pueden resultar sangrientos.

Las pautas actualizadas reflejan los criterios que emplean sus 7.600 moderadores para revisar publicaciones cuestionables y decidir si son eliminadas y, en ocasiones, alertar a las autoridades.
Los criterios en sĂ­ no cambian, pero los detalles revelan informaciĂłn interesante. Las fotos de senos están permitidas en algunos casos _como en imágenes de lactancia materna o en pinturas_ pero no en otros. El documento detalla lo que considera explotaciĂłn sexual de adultos o menores, pero deja espacio para prohibir otras formas de abuso en caso de que surjan.
Dado que Facebook no permite la presencia de asesinos en serie, las nuevas guĂ­as definen el tĂ©rmino: cualquier persona que haya cometido dos o más asesinatos en “mĂşltiples incidentes o ubicaciones”. Las personas que cometieron un Ăşnico homicidio no serán excluidas, pues podrĂ­a haber sido en defensa propia.
El repaso a las pautas da una idea de lo difĂ­cil que debe ser la labor de un moderador de Facebook. Estas personas deben leer y observar material cuestionable de todo tipo y tomar decisiones complicadas, como por ejemplo si un video hace apologĂ­a de los desĂłrdenes alimenticios o simplemente busca ayudar a la gente. O cuando se cruza la lĂ­nea entre la broma y el acoso, o se pasa de una reflexiĂłn teĂłrica a una amenaza directa, y similares.
Los moderadores operan en 40 idiomas distintos. El objetivo de Facebook es responder a los reportes sobre contenidos cuestionables en un plazo 24 horas, aunque dice que no impone cuotas ni lĂ­mite de tiempo a las revisiones.
La red social ha cometido varios errores sonados en los últimos años. Por ejemplo, grupos de derechos humanos dicen que Facebook ha dado una respuesta inadecuada al discurso de odio y la incitación a la violencia contra las minorías musulmanas en Myanmar.
En 2016, Facebook se retractĂł luego de eliminar una fotografĂ­a icĂłnica de 1972 de The Associated Press en la que aparece una niña corriendo desnuda y gritando tras un ataque con napalm en Vietnam. En un primer momento, la firma insistiĂł en que no podĂ­a crear una excepciĂłn para una fotografĂ­a en concreto de un menor desnudo, pero pronto se retractĂł apuntando que la imagen tenĂ­a una “importancia global”.

fuente http://hoy.com.do

Ad Code