Una subcontrata de Google usó a personas sin hogar para mejorar el reconocimiento facial del Pixel 4

Según el «New York Daily News», Randstad empleó a personas especialmente vulnerables para entrenar el algoritmo del futuro gran «smartphone» de la tecnológica

Foto de archivo de una persona sin hogar Jose María Barroso

ABC TECNOLOGÍA

Este verano el portal estadounidense «The Verge» publicó que empleados de Google habían estado recorriendo las calles de varias ciudades de Estados Unidos y ofreciendo a los transeúntes 5 dólares a cambio de que permitiesen que se les realizase un escaneo facial . El objetivo de esta campaña era mejorar el algoritmo de reconocimiento del nuevo «smartphone» de los de Sillicon Valley, el Pixel 4 . Ahora el diario « The New York Daily News » publica que una empresa subcontratada por la tecnológica con este fin, Randstad , empleó a personas sin hogar de la ciudad de Atlanta para llevar a cabo las pruebas.

Según apuntaron al medio estadounidense sus fuentes, que en teoría son personas que estuvieron trabajando en este proyecto, se dedicaban a «apuntar a personas sin hogar y personas con piel oscura, a menudo sin decir que estaban trabajando para Google». En ocasiones, recoge el «Daily News», ni siquiera explicaban claramente que estaban grabando sus caras . «Se dirigieron a personas sin hogar porque son los menos propensos a decir algo a los medios», expresó al diario estadounidense un exempleado de la compañía. «Las personas sin hogar no sabían lo que estaba pasando en absoluto», añadió.

Y es que, según apuntan, los encargados de llevar a cabo el escaneo presentaron la prueba como una especie de «juego de selfies» . «Simplemente les decíamos que jugasen con el teléfono durante un par de minutos y que a cambio obtendrían una tarjeta de regalo», explican los exempleados en declaraciones recogidas por « The Verge ». Dicha recompensa tenía un valor 5 dólares . Exactamente el mismo importe que el resto de empresas subcontratadas por Google ofrecían al resto de participantes en el test del algoritmo.

El que Randstad, según «The New York Daily News», estuviese llevando a cabo este tipo de prácticas no implica que Google estuviese al corriente. Es más, no tenía ninguna obligación de estarlo . El proceso de recogida de datos faciales para entrenar a una inteligencia artificial es muy habitual entre las compañías tecnológicas. Apple lo empleó en su momento para desarrollar su Face ID . La firma de Cupertino, según explicó su vicepresidenta Cynthia Hogan en su momento, ideó su algoritmo para que funcionase independientemente de la raza o la etnia del usuario. Para entrenarlo, emplearon unos mil millones de fotografías .

Respecto al tratamiento de los datos de aquellos que venden su información facial, Google explica que «aunque las muestras faciales no pueden ser anónimas, a cada participante se le asigna un número de identidad abstracto. Mantenemos por separado la dirección de correo electrónico de cada participante, para eliminar los datos de quienes lo soliciten».

Los datos serán conservados por la empresa durante 18 meses . Al mismo tiempo, Google afirma que las caras de los usuarios de Pixel 4 no se guardaran en los servidores de la compañía, sino en el chip de seguridad Titan M del dispositivo. A su vez, la información que quede almacenada en Soli, el radar de movimiento que llevará incorporado el terminal, también «permanecerán en el teléfono y nunca se guardan ni se comparten con otros servicios de Google», aseguran desde la tecnológica. Se espera que el próximo 15 de octubre se presente el nuevo terminal dentro del acto «Made by Google», que tendrá lugar en Nueva York (Estados Unidos).

Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación