Jacky Alciné, un programador de Nueva York, comprobó que unas imágenes en las que aparecía junto con una amiga se habían guardado en una carpeta generada de manera automática bajo la etiqueta «Gorillas»
Jacky Alciné, un programador de Nueva York, comprobó que unas imágenes en las que aparecía junto con una amiga se habían guardado en una carpeta generada de manera automática bajo la etiqueta «Gorillas» - ARCHIVO

Así soluciona Google Photos su «algoritmo racista»: eliminando de su base de datos a gorilas y monos

Tras la polémica generada en 2015 cuando el servicio de imágenes confundió a personas afroamericanas con gorilas, el gigante de internet mantiene fuera del sistema de etiquetado a toda referencia hacia los primates en una demostración más de las dificultades a las que se enfrentan las compañías con los sistemas de reconocimiento facial

MADRIDActualizado:

Los sistemas de reconocimiento facial se han introducido en los métodos de etiquetado de determinados servicios digitales en los últimos años como Facebook o Google. Son prácticos, sí, de gran utilizada para el día a día y ayudan a organizar el material gráfico, pero aunque han evolucionado positivamente no son totalmente perfectos. En 2015, el algoritmo informático integrado en la aplicación Google Photos confundió a dos afroamericanos y los etiquetó en una imagen como «gorilas». Un error que causó gran polémica y que obligó a la compañía norteamericana a pedir disculpas además de prometer que no volvería a suceder.

Después de este tiempo, la solución que ha tomado el gigante de internet para evitar que se repita de nuevo un caso similar ha sido dejar fuera de la lista de etiquetados a simios, gorilas, chimpancés, monos. Una decisión rudimentaria. Aquel episodio se descubrió de casualidad, cuando Jacky Alciné, un programador de Nueva York, comprobó que unas imágenes en las que aparecía junto con una amiga se habían guardado en una carpeta generada de manera automática bajo la etiqueta «Gorillas» -gorilas, en español-. Las acusaciones de racismo no cesaron. La empresa tuvo que recular y actualizar el servicio.

Según ha comprobado el medio especializado «Wired», la respuesta de Google para que no se repita esta «confusión» ha sido borrar (literalmente) tanto a los gorilas como a algunos otros primates del léxico del servicio tales como «babuino», «gibón» o «tití». Una «extraña solución», explican los expertos, que refleja las dificultades que enfrentan las compañías tecnológicas para mejorar los sistemas de reconocimiento de imágenes que comienzan a asaltar la vida de las personas en cada esquina. El software, además, tampoco es capaz de encontrar «mujer negra» o «hombre negro» en su nueva actualización, lo que se traduce en una máxima de andar por casa; mejor ocultar el problema que solucionarlo.

La aplicación y servicio web Google acumula en la actualidad unos 500 millones de usuarios, según las últimas cifras conocidas. Está concebido como un espacio para administrar y realizar copias de seguridad de las imágenes personales. Utiliza un modelo tencnológico basado en «aprendizaje automático» o «machine learning» para agrupar de manera automática las fotografías con contenido similar y ubicaciones. El sistema permite, además de «aprender» y adaptarse a los hábitos de los consumidores conforme más se utiliza, que los usuarios puedan localizar sus recuerdos personales rápidamente.

«La tecnología de etiquetado de imágenes todavía es inmadura y, lamentablemente, no es perfecta»

Pero no es perfecto. Un portavoz de Google confirmó a «Wired» que el término «gorila» se eliminó de las búsquedas y el etiquetado de imagen después del incidente de 2015 y que «chimpancé» y«mono» también se encuentran bloqueados en la actualidad. Porque lo cierto es que las máquinas y los sistemas de inteligencia artificial requieren de un entrenamiento, que generalmente lo hacen seres humanos, aunque los sistemas más avanzados son capaces de «aprender» mediante redes neuronales por capas más allá de los habituales supuestos y casos prácticos que almacenar.

«La tecnología de etiquetado de imágenes todavía es inmadura y, lamentablemente, no es perfecta», explican fuentes de la compañía norteamericana al mismo medio. El escenario, además, es incierto, puesto que ya se trabaja en el desembarco de vehículos autónomos que, mediante algoritmos, programas informáticos y sensores, deben discriminar a peatones de animales y objetos. Los ingenieros de aprendizaje automático que trabajan en estos sistemas deben preocuparse por los «casos de excepción» que no se encuentran en sus bases de datos. «Es muy difícil modelar todo lo que verá su sistema una vez que esté en funcionamiento», apunta Vicente Ordóñez Román, profesor de la Universidad de Virginia, a «Wired». ABC ha comprobado que, efectivamente, cuando el usuario sube una imagen de un gorila, el sistema no ofrece como sugerencia catalogarlo.