ARCHIVO

YoutubeLos robots de YouTube son más eficientes que el humano para detectar videos extremistas

La plataforma elimina ocho millones de videos en el último trimestre del 2017 y con el 76% de las veces incluso antes de que el contenido se viera

MADRIDActualizado:

Frente al miedo atroz que generan las máquinas -parte por culpa de las novelas y películas-, el sector de la innovación y la tecnología busca reducir el miedo de los seres humanos de ser sustituidos por robots en un futuro. La tendencia, en estos momentos, es virar hacia un modelo colaborativo con las personas. Ayudar, contribuir, facilitar es la idea que empieza a brillar en medio de la incertidumbre.

Un escenario que, por supuesto, ha contribuido a lo largo de la historia la tecnología. Las plataformas digitales, conscientes de ello, empiezan ahora a equilibrar la balanza entre la intervención de la mano humana y el apoyo de los robots para diversas tareas como la detección de contenido extremista, más habitual de lo que nos pensamos en las redes sociales. De ahí que, si las firmas del sector desean seguir teniendo la confianza perdida en este último año, sea necesario «sanear» sus servicios y prescindir de una de sus grandes lacras, los mensajes de odio y el «spam» generalizado.

Uno de los principales interesados en hacer cumplir ese reto es YouTube. En su informe de transparencia, la plataforma ha anunciado que en el cuarto trimestre de 2017 ha eliminado unos 8.284.039 videos relacionados con contenido extremista, terrorista o simplemente «spam». De ellos, unos 6,7 millones lo marcó como inapropiado por los sistemas de detección automática.

«Nuestras inversiones en aprendizaje automático nos ayudan a acelerar estas eliminaciones y nos están proporcionando beneficios en campos de alto riesgo y bajo volumen»

De tal forma, que la firma propiedad de Alphabet saca pecho al considerar que se han mejorado las técnicas antispam y antiterroristas hasta el punto que se estima que el 76% de todos ellos se bloquearon antes incluso de verse una sola vez. Más de la mitad de los vídeos que eliminamos por extremismo violento han tenido menos de 10 visualizaciones. «Las máquinas nos ayudan a ocuparnos de los contenidos que infringen nuestras políticas», argumentan fuentes de la compañía en un comunicado.

En esa línea, YouTube ha valorado que las máquinas permiten «marcar contenidos para una revisión a gran escala», lo que les facilita el trabajo de eliminación de millones de vídeos que infringen sus políticas incluso «antes de que puedan ser vistos por los usuarios». «Nuestras inversiones en aprendizaje automático nos ayudan a acelerar estas eliminaciones y nos están proporcionando beneficios en campos de alto riesgo y bajo volumen, como, por ejemplo, en extremismo violento, y en campos de alto volumen como en el caso de contenido de spam», sostienen las mismas fuentes.

Pese a las dudas generadas en torno al impacto de los robots como posibles sustitutos de operarios en diversos procesos industriales, la compañía estadounidense asegura que el hecho de implementar modelos informáticos basados en «aprendizaje automático» significa «más personas revisando el contenido, no menos». «Nuestros sistemas confían en la revisión por parte del personal para valorar si los contenidos infringen nuestras políticas», añaden. Pese al trabajo desarrollado por la inteligencia artificial en esta materia se siguen colando contenidos inapropiados en el modo restringido de YouTube e, incluso, en el canal específico destinado a los más pequeños, YouTube Kids, en donde se presupone que se creó para ofrecer únicamente videos adaptados a sus edad.

.