Facebook F8

Las medidas de Facebook para combatir el contenido abusivo: inteligencia artificial y borrar el historial

La multinacional estadounidense desgrana sus próximas medidas para limpiar la red social de mensajes de odio y violencia

Mark Zuckerberg, fundador de Facebook, durante su intervención en el F8 de este año REUTERS

J.M.SÁNCHEZ

Una de las principales lacras de las redes sociales se encuentra en, por desgracia, la permisividad con la que hasta hace bien poco albergaban contenido de carácter violento y hacían la vista gorda en todo aquello que pretendía desinformar. Aunque nada es perfecto y quedan flecos por resolver, las compañías propietarias de servicios de internet han dado pasos en atajar este problema. Para Facebook , la solución se encuentra en la Inteligencia Artificial.

Las máquinas y la automatización, sin embargo, siempre ha despertado recelos y dudas, no solo por el posible impacto en la economía , sino por la existencia de sesgos y comportamientos propios de los seres humanos que les «entrenan» . La eficiencia y rapidez en su forma de operar sigue siendo su mayor baza. Los robots superan con creces la mente humana y, en este caso, en lo que a detectar este tipo de contenido, las redes sociales tiene ante sí un gran aliado.

En la segunda jornada de la conferencia de desarrollares F8, Facebook ha desgranado su estrategia para aplicar servicios basados en Inteligencia Artificial (IA). Se desarrollará en tres áreas (visión, procesamiento de lenguaje natural y razonamientos). Tres areas en las que se dediocará el mayor esfuerzo para los próximos años. A partir de estos procesos se espera eliminar los mensajes tóxicos con mayor celeridad .

«La IA es la mejor herramienta que tiene Facebook para mantener la comunidad a salvo», apuntó Mike Schroepfer , director técnico de la compañía estadounidense. En el primer trimestre de 2018 se estima que el 99% del contenido eliminado por la plataforma estuvo relacionado con mensajes generados por el ISIS y Al-Qaeda. Todo ello fue detectado por los sistemas internos de la compañía. «Los avances en esta tecnología, incluido IA, aprendizaje automático y reconocimiento de imágenes, significa que ahora podemos eliminar el contenido inapropiado más rápido porque no siempre tenemos que esperar a que se informe», relató.

En el caso de los suicidios, desde Facebook creen que gracias a estos mecanismos automáticos pueden contribuir reducir los casos. «Tan pronto como nuestra tecnología identifique que alguien ha expresado pensamientos de suicidio podemos ayudarlo, lo que hemos hecho en más de mil casos», añadió. Parte de esa capacidad para detectar el contenido nocivo se encuentra en los sistemas de procesamiento de imágenes de la compañía, que permiten detectar «la posición en tiempo real de un objeto en movimiento», pero la nueva aproximación, llamada Dense Pose , «va un paso más allá al detectar a varios objetos en movimiento».

Este sistema de reconocimiento de imágenes ha sido entrenado no solo pasa distinguir elementos de una imagen, sino para identificar con mayor precisión qué es lo que muestra la imagen, es decir, no solo identifica una estatua, sino que identifica que se trata de la Estatua de la Libertad, por ejemplo. Pese a estos desarrollos tecnológicos, que han «llevado tiempo desarrollar el software», Facebook aspira sin embargo a aumentar la capacidad de su equipo de revisión ( en la actualidad cuentan con unos 20.000 colaboradores ).

La forma de operar de esta tecnología se encuentra en la forma de aprendizaje a partir de un supuesto. « Lo hacemos mediante el análisis de ejemplos específicos de contenido incorrecto que se han informado y eliminado para identificar patrones de comportamiento. Estos patrones se pueden usar para enseñar a nuestro software a buscar proactivamente otros problemas similares», explicó. En lo que respecta al procesamiento de lenguaje natural, la multinacional norteamericana trabaja en un nuevo sistema de traducción más preciso, para que ofrezca respuestas traducidas «mucho más similares» a la expresión de las personas en sus respectivos idiomas.

Otro de los caminos para el control de los datos personales y la información que gestiona la red social se encuentra en los nuevos permisos y herramientas de control. Y, para dotarle de mayor eficiencia y transparencia, Facebook anunció que permitirá a los usuarios saber qué páginas web y aplicaciones envían sus datos identificativos a la red social, eliminar esa información asociada con sus cuentas e impedir que se continúe almacenando en un historial de navegación.

Para ello, lo podrán hacer mediante la herramienta «Clear History» («Borrar Historial»), que estará disponible «en unos meses», según desgranó por su parte Mark Zuckerberg , máximo responsable de Facebook. La compañía está bajo una gran presión en ese sentido desde el pasado marzo, cuando se conoció que una consultora británica, Cambridge Analytica , había tenido acceso a la información de al menos 87 millones de usuarios recopilada por una aplicación.

«Las aplicaciones y sitios web que usan herramientas como el botón de 'Like' o Facebook Analytics nos envían información para hacer su contenido y sus anuncios mejores. También la utilizamos para hacer tu experiencia en Facebook mejor», añadió Erin Egan , responsable de privacidad. En su discurso en F8, Zuckerberg dijo que la herramienta es una «versión para Facebook» de la opción que ofrecen los navegadores para borrar el historial y las «cookies», y advirtió de que utilizarla puede empeorar la experiencia en la red social porque habrá que «reconfigurar las cosas». A su juicio, será una simple herramienta de control para borrar tu historial de navegación en Facebook: en qué has hecho clic, los sitios que has visitado.

Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación