Facebook por fin publica su política para eliminar el contenido que considera inapropiado

Son 27 páginas que entregan las definiciones de Facebook de discurso de odio, amenazas violentas, explotación sexual y más. La compañía dará a la gente por primera vez derecho a apelar sus decisiones.

Bloomberg News.

Por primera vez, Facebook Inc. ha dejado que la gente conozca sus directrices específicas para eliminar contenido una vez que es informado a los moderadores de la red social.

El documento de 27 páginas rige el comportamiento de más de 2.000 millones de usuarios y entrega las definiciones de Facebook de discurso de odio, amenazas violentas, explotación sexual y más. Es lo más cerca que ha llegado el mundo a ver un código de conducta internacional que fue promulgado a puertas cerradas. La divulgación del documento se produce tras las frecuentes críticas y la confusión sobre las políticas de la compañía.

Los estándares de la comunidad parecen el resultado de años de ensayo y error y se utilizan para proporcionar a los trabajadores la suficiente especificidad para tomar decisiones rápidas y consistentes. Aunque los primeros planos de las nalgas desnudas no están permitidos, sí se permiten cuando están “editados digitalmente en un personaje público».

Facebook publicó las políticas para ayudar a las personas a entender dónde la compañía traza la línea en cuestiones matizadas, dijo Monika Bickert, vicepresidenta de gestión de políticas globales de la firma, en una publicación de blog. La compañía dará a la gente por primera vez derecho a apelar sus decisiones. (Nota del editor: Esta es una opción que, según la publicación de Bickert, se implementará en el próximo año y funcionará, en principio, para apelaciones sobre contenido de desnudos o actividad sexual, discurso de odio o violencia gráfica. Un vez un contenido sea borrado, el usuario sería notificado y tendría la opción de pedir una revisión más profunda, que tendrá que ser resuelta por el equipo de Facebook en 24 horas. Si, en efecto, se reconoce que hubo un error, el contenido volverá a estar disponible).

La divulgación de las políticas de contenido se produce solo unos días después de que el máximo ejecutivo de Facebook, Mark Zuckerberg, testificara ante el Congreso, donde enfrentó frecuentes preguntas sobre las prácticas de la compañía. En la sesión, los legisladores le preguntaron si Facebook eliminaba injustamente más contenido conservador que liberal o por qué el mal contenido, como perfiles falsos y publicaciones de venta de drogas opioides, permanecía a pesar de haber sido reportado.

«Nuestras políticas son tan buenas como la fuerza y ​​la precisión de nuestra aplicación, y nuestra aplicación no es perfecta», dijo Bickert. «En algunos casos, cometemos errores porque nuestras políticas no son lo suficientemente claras para nuestros revisores de contenido. En muchas ocasiones, sin embargo, cometemos errores porque nuestros procesos involucran a personas y las personas son falibles».

La compañía tiene 7.500 revisores de contenido, un 40 por ciento más que hace un año, que trabajan en 40 idiomas. Facebook también ha dicho que está trabajando para aumentar el número de empleados que hablan los idiomas que requieren más atención. Pero con 2.200 millones de usuarios en todo el mundo, cada revisor es responsable en promedio de una base de usuarios que es equivalente a la población de Pittsburgh, Pensilvania.

En su testimonio ante el Congreso, Zuckerberg prometió que la aplicación de estándares mejoraría con la inteligencia artificial. Esos sistemas, sin embargo, están entrenados por humanos y es probable que también sean falibles.

Aunque Facebook aspira a aplicar sus políticas «sostenida y justamente a una comunidad que trasciende regiones, culturas e idiomas», con frecuencia no lo hace. El New York Times ha informado recientemente cómo la compañía ha tardado en responder a mensajes que incitan a la violencia étnica en países como Myanmar y Sri Lanka. En muchos casos, las personas han reportado contenido que Facebook permitió que se mantuviera en la página, aun cuando viola los estándares.

Las políticas son detalladas cuando se trata de problemas que se han experimentado en Estados Unidos, especialmente la violencia con armas de fuego. Los perfiles de asesinos en masa son eliminados si mataron a cuatro personas a la vez, en virtud de si fueron condenados o identificados por la policía con imágenes del crimen, o si se quitaron la vida o fueron asesinados en la escena o después.

Una de las definiciones de Facebook de acoso involucra «acusaciones de que la víctima de una tragedia violenta miente sobre ser una víctima, actúa o finge ser la víctima de un evento verificado o recibe un pago o se le empleó para engañar a las personas sobre su participación en el evento». Esa definición se aplica solo cuando un mensaje se envía directamente a un sobreviviente o un familiar directo, como ocurrió con las víctimas de los tiroteos de Sandy Hook y Parkland.

Ahora que Facebook publicó las políticas, está solicitando comentarios para editarlas. A partir de mayo, la compañía realizará una serie de eventos en todo el mundo para solicitar asesoramiento.

“Nuestros esfuerzos para mejorar y perfeccionar nuestras Normas de la Comunidad dependen de la participación y la contribución de gente de todo el mundo», dijo Bickert.

Por: Bloomber News.

Scroll al inicio