EFE/Ritchie B. Tongo

Facebook reconoce su errónea política de moderación de contenidos: «Hacemos las cosas mal»

Monika Bickert, Jefa de Gestión de Políticas Globales en Facebook, explica en un artículo publicado en «The Guardian» que la revisión de todo el contenido que se sube a la red social es una tarea «difícil, compleja y desafiante» y reconoce que es muy complicado «encontrar el equilibrio». Aún así, insiste en que, a pesar de los errores, la compañía se toma el tema de la seguridad muy en serio

MADRID Actualizado: Guardar
Enviar noticia por correo electrónico

Facebook, como era de esperar, no se ha mantenido callada en cuanto al escándalo sobre cómo la red social en realidad ordena a sus moderadores a tolerar ciertos contenidos violentos, tal y como destapó « The Guardian» el pasado domingo. Ahora, en el mismo periódico, Monika Bickert, Jefa de Gestión de Políticas Globales en Facebook, defiende el papel de la compañía con un artículo titulado: « En Facebook hacemos las cosas mal - pero no tomamos nuestro papel de seguridad en serio».

El diario británico, tras acceder a la filtración de cien manuales con los que se instruye a moderadores que controlan los contenidos de Facebook, aseguró que este equipo de trabajadores son instruidos para dejar que se publiquen mensajes relacionado con muertes violentas, autolesiones, escenas de abortos y maltrato no sexual a menores.

Un contenido que choca frontalmente con las Normas comunitarias de la red social. Monika Bickert, que reconoce errores, explica el papel de la compañía

La responsable asegura que la revisión de todo el contenido que se sube a Facebook es una tarea «difícil, compleja y desafiante» y reconoce que es muy complicado «encontrar el equilibrio».

«Quiero explicar cómo y dónde dibujamos la línea» entre lo que se publica y lo que se censura, explica la responsable, entrando en detalle a múltiples factores que influyen en la labor del equipo de moderación.

«En un día normal, más de mil millones de personas usan Facebook. Ellos comparten contenido en docenas de idiomas: todo tipo de contenido, desde fotos y actualizaciones de estado a vídeos en vivo», recuerda en el artículo publicado en «The Guardian». «Un porcentaje muy pequeño de ellos -continua- nos será reportado y será investigado por nuestros equipos de moderación. La gama de temas es amplia - desde el «bullying» y el discurso de odio al terrorismo y crímenes de guerra - y compleja». Es aquí donde entra un primer factor determinante para ser capaces de responder rápidamente a millones de informes semanales que les llega desde cualquier rincón del mundo: los revisores tienen que entender el contexto.

«Es difícil juzgar la intención» que esconde una publicación, dice la responsable, poniendo un ejemplo: si alguien publica algo relacionado con un ataque terrorista, ¿inspirará a la gente a emular la violencia o se posicionarán en contra? Además, Bickert reseña que el contexto cultural también influye y recuerda que mientras que en Reino Unido, ser crítico con la monarquía puede ser aceptable, en otras partes del mundo supone «una sentencia de cárcel».

Cambios en constante evolución

«Nuestros estándares cambian con el tiempo a medida que nuestra comunidad crece y las cuestiones sociales en todo el mundo evolucionan. Estamos en constante diálogo con expertos y organizaciones locales, desde la seguridad infantil hasta el terrorismo y los derechos humanos», continúa. «A veces esto significa que nuestras políticas pueden ser contradictorias. Tal y como informó 'The Guardian', los expertos en autolesiones nos aconsejaron que puede ser mejor dejar los videos en vivo de automutilación para emitir una alerta de ayuda». Esto no significa que Facebook, después, los elimine. «A veces esto no es suficiente para prevenir la tragedia, pero a veces lo es», asegura.

«Si alguien publica algo relacionado con un ataque terrorista, ¿inspirará a la gente a emular la violencia o se posicionarán en contra?

Además, Bickert expone: «Cuando una chica en Georgia, EE.UU., intentó suicidarse en Facebook Live hace dos semanas, sus amigos pudieron notificarlo a la policía, que logró llegar a tiempo. Somos conscientes de al menos otra media docena de casos como este de los últimos meses».

La objetividad es otro de los puntos claves que afecta al equipo de moderadores. La responsable asegura que Facebook se esfuerza por mantenerla pero recuerda que en numerosas ocasiones se enfrentan con áreas grises, como sucede con el arte y la pornografía. «No siempre son fáciles de distinguir, pero hemos descubierto que las imágenes generadas digitalmente de desnudos tienen más probabilidades de ser pornográficas que las hechas a mano, por lo que nuestra política refleja eso», explica.

La responsable de Gestión de Políticas Globales de Facebook agradece a «The Guardian» su publicación, que demuestra -dice- «lo difícil que puede ser dibujar las líneas». Hace casi una década que se creó el manual de estándares de contenido con el que trabaja el equipo de moderadores. «Mucho quedó a la discreción de los empleados individuales. Pero como no hay dos personas que tengan idénticas opiniones sobre lo que define el discurso de odio o el acoso - o cualquier otro tipo de temas - pronto evolucionamos nuestros estándares para incluir definiciones claras» para el moderador sepa qué hacer con independencia de que sea de la India, Brasil o Reino Unido.

Equipo cualificado

«Como señaló el artículo, nos enfrentamos a críticas de personas que quieren más censura y personas que quieren menos. Vemos eso como una señal útil de que no nos estamos inclinando demasiado en ninguna dirección. La alternativa - no hacer nada y permitir que se publique todo - no es lo que nuestra comunidad quiere», opina la responsable.

Monika Bickert, para terminar, reconoce: «Hacemos las cosas mal y estamos trabajando constantemente para asegurarnos de que esos casos se dan cada vez menos a menudo. Ponemos mucho empeño en tratar de encontrar las respuestas correctas, incluso cuando no hay alguna».

Facebook -dice- se toma muy en serio su papel y trabaja sin perder de vista la seguridad de los usuarios. Y para demostrarlo, recuerda: «pasé más de una década como fiscal criminal en EE.UU. y Tailandia, investigando desde la explotación sexual infantil hasta las pandillas violentas al terrorismo». Bickert, hay que reseñar, es Doctora por la Escuela de Derecho Harvad.

Ver los comentarios