YouTube y pedofilia: un gran problema que intenta resolver con eliminar comentarios

La medida, que se aplicará en los vídeos protagonizados por menores, intenta evitar el abuso

ARCHIVO

Esta funcionalidad es sólo para registrados

Es difícil casar a YouTube con la solemnidad y salud. La red de videos, la más popular del mundo, dispone de una serie de automatismos, combinados gracias a sus potentes algoritmos informáticos, que no son infalibles. Por su servicios, que está lejos de rozar la perfección, se «cuelan» desde contenidos inapropiados en su versión para niños ( YouTube Kids ) a videos de contenido sexual no apto para menores, lo que implica comportamientos cercanos a la pedofilia.

Es un problema capital el que ensombrece a la firma propiedad del gigante de internet Alphabet. Su algoritmo de recomendación, controlado por un sistema informático , se puede alterar; es plausible aprovecharse de estos sistemas para fines malintencionados, según investigaciones de medios especializados .

La situación se recrudece al desenmarañar el amplio catálogo de la plataforma. Se necesitan unos pocos clics, como informa «Techcruch» , para que los algoritmos de recomendación redirijan una búsqueda de vídeos de « mujeres en bikini » de mujeres adultas hacia secuencias de menores en donde portan poca ropa como hecho de realizar actividades gimnásticas. Esta revelación, surgida a raíz de una denuncia de un «bloguero» llamado Matt Watson , provocó la salida de algunos anunciantes de la compañía, entre ellos Disney o Epic Games (empresa desarrolladora del exitoso videojuego «Fortnite»)

Momentos y fragmentos aparentemente inocentes que mutan en vídeos lascivos, teóricamente poco apropiados para los usuarios menores. Y más teniendo en cuenta la edad mínima de acceder a YouTube, unos 13 años según se recogen entre sus términos de uso . Algo que, coinciden expertos en derecho digital, pocas veces se cumple. Después de eliminar miles de comentarios sospechosos que acompañaban a vídeos para niños, YouTube ha decidido ir más allá; va a eliminar la posibilidad de comentar en la mayoría de vídeos en donde se muestran a menores. Una medida enfocada a poner coto a la pedofilia.

El problema en cuestión se encuentra en que los pedófilos han podido transmitir «discretamente» vídeos de menores (a veces explícito) entre los comentarios de muchos canales, y logrando así saltarse las prohibiciones de YouTube. «Durante los próximos meses centraremos nuestros sus esfuerzos en suspender los comentarios sobre vídeos que muestren a niños pequeños o a otros menores de edad que podrían correr el riesgo de atraer comportamientos predatorios», apuntan en un comunicado fuentes de la compañía.

La plataforma, en un cambio de actitud, prepara además un sistema de clasificación de comentarios diseñado para «identificar más rápidamente» este tipo de comentarios perniciosos. El objetivo es poder eliminarlos «hasta dos veces más rápido». A partir de ahora, solo un pequeño número de canales gestionados por menores podrán contener comentarios. Siempre y cuando «utilicen herramientas de moderación y demuestren un bajo riesgo de comportamiento depredador».

YouTube, que asume el problema, aspira a seguir este proceso de eliminación de contenido inapropiado y se plantea, incluso, suspender los canales que «intenten hacer daño a los niños de cualquier forma», entre los que cita los vídeos con desafíos peligrosos, que van contra las políticas y que se encuentran prohibidos desde el pasado mes de enero. Hace relativamente poco, una investigación de «The Washington Post» desveló la existencia de manuales para el suicidio en vídeos destinados al consumo de menores.

Una madre encontró una secuencia de Filthy Frank , un personaje popular de YouTube, mostrando (aunque en clave de humor) la mejor forma de cortarse la venas en el marco de un vídeo sobre el videojuego «Splatoon 2» publicado en un canal de YouTube Kids. En este extracto, que una usuaria llamada Free Hess publicó en su cuenta de Twitter, se apreciaba a Filthy Frank con el brazo estirado diciendo «¡Y recordad niños! De lado para llamar la atención y a lo largo para tener resultados», haciendo referencia a técnicas de suicidio.

Además, Hess alertó sobre la presencia de otros contenidos que ha considerado como potencialmente peligrosos como simulaciones de tiroteos en escuelas o dibujos animados que hablan sobre tráfico de personas, en vídeos sobre videojuegos como «Minecraft». Por su parte, YouTube defendió a Europa Press que «trabajamos para asegurarnos de que los vídeos en YouTube Kids sean amigables para la familia y nos tomamos el feedback muy en serio».

Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación