Ocio

Facebook: se podrá apelar a partir de hoy los contenidos que la red social elimina


Los usuarios de Facebook podrán desde hoy apelar las decisiones con las que la red social decide dar de baja un contenido, como suele suceder cuando una foto muestra desnudez, violencia explícita, explotación sexual infantil u otras características que violan las «Normas Comunitarias» de la empresa. 

Además, la compañía publicó por primera vez las pautas internas que sus empleados usan para aplicar esas normas (las que definen qué se mantiene y qué se elimina), con el objetivo de ayudar a las personas «a entender dónde trazamos la línea en estas cuestiones», afirmó Monika Bickert, vicepresidenta de Facebook para Políticas Globales de Producto. 

La iniciativa busca también obtener las opiniones de usuarios y de expertos en distintos campos para «mejorar las pautas y las decisiones que tomamos», señaló la ejecutiva en diálogo con Télam. 

El primer paso en este sentido implica la posibilidad para los usuarios de apelar las publicaciones «que fueron removidas por desnudez o contenido sexual, discurso de odio o violencia gráfica». 

Por ejemplo, «si tu foto, vídeo o publicación ha sido eliminado por violar nuestras Normas Comunitarias, se te dará la opción de solicitar una revisión», detalló la empresa, y aclaró que las apelaciones son revisadas por el equipo de operaciones comunitarias (siempre por una persona) en el plazo de 24 horas». 

«Si hemos cometido un error, el contenido será restaurado y notificaremos a la persona que solicitó la apelación», aseguró en un documento al que tuvo acceso esta agencia. 

En un futuro cercano, Facebook dará también la posibilidad de apelar otros tipos de infracciones, no solo para el contenido que dado de baja sino también para aquel que fue reportado pero no fue removido de la plataforma.  

Bikert, ex fiscal, está al frente de una equipo compuesto por alrededor de 60 personas -distribuidas en 11 oficinas alrededor del mundo- con diferentes formaciones, como abogados, especialistas en seguridad infantil o en terrorismo, quienes trabajan escribiendo las políticas y supervisando su implementación.  

Esta tarea, en tanto, la realiza el equipo de Operación Comunitaria, compuesto por alrededor de 7.500 personas, los llamados revisores de contenidos, que «están distribuidos alrededor del mundo y revisando contenidos que han sido reportados, ya sea por usuarios que utilizan las herramientas para reportar u otros que nuestra tecnología marcó por ser contenidos que pueden violar nuestras políticas», explicó a Télam. 

Este equipo trabaja en 40 idiomas diferentes durante las 24 horas todos los días, y en el último año la cantidad de miembros aumentó en un 40 por ciento.  

«En algunos casos, nos equivocamos porque nuestras políticas no son lo suficientemente claras para nuestros revisores», señalaron desde la compañía, y agregaron: «En la mayoría de las ocasiones, sin embargo, cometemos errores porque los procesos involucran a personas, y las personas somos falibles». 

Pero la empresa también tiene sistemas de revisión automatizada (basados en inteligencia artificial), que actúan «al momento de subir un contenido y se hace en casos como pornografía infantil o videos de decapitaciones, que no están permitidos en Facebook de ninguna manera».  

El trabajo de estos equipos se guía por una serie de lineamientos internos que definen qué puede publicarse y qué no sobre un amplio abanico de tópicos sensibles como discurso de odio, violencia gráfica, desnudez, actividad sexual, spam, explotación sexual infantil, promoción del crimen, suicidio, bullying, acoso, terrorismo o amenazas, entre otros. 

Estos son los lineamientos que a partir de hoy están al alcance de cualquier persona que los quieran leer. 

«Una de las preguntas que nos hacen con más frecuencia es cómo decidimos el contenido que está permitido en Facebook. Estas decisiones están entre las más importantes que tomamos porque son fundamentales para garantizar que Facebook sea a la vez un lugar seguro y un lugar para compartir con libertad diferentes puntos de vista», explicó Bikert.