¿Es la Inteligencia Artificial sexista, racista o estúpida?

Es la capacidad de las máquinas para hacer determinadas tareas de forma excelente combinando datos a gran escala con la ayuda de programas que permiten a los ordenadores «aprender» automáticamente a medida que van trabajando, pero todavía se registran numerosos errores

ARCHIVO

Elena Camacho (EFE)

La inteligencia artificial (IA) es ya en muchos aspectos superior a la del hombre: realiza búsquedas en internet, clasifica secuencias de ADN, controla el tráfico y diagnostica mejor que un radiólogo pero ¿y si fuera igual de estúpida, sexista o racista que la humana? .

La inteligencia artificial es la capacidad de las máquinas para hacer determinadas tareas de forma excelente combinando datos a gran escala con la ayuda de programas que permiten a los ordenadores «aprender» automáticamente a medida que van trabajando (machine learning).

La IA usa algoritmos, algo así como las reglas que dicen al ordenador cómo abordar (y solucionar) un problema, extraer conclusiones y tomar decisiones cada vez más complejas. El resultado de la inteligencia artificial, sin embargo, no es perfecto, sino que está determinado por los datos que se usan para entrenar los algoritmos, « unos datos que generamos nosotros como sociedad », explica a Efe el director del Instituto de Investigación en Inteligencia Artificial del CSIC, Ramón López de Mántaras .

Ese es precisamente el riesgo de la IA, que se utilice de forma inadecuada, porque «la maldad y la estupidez naturales dan más miedo que la inteligencia artificial», comenta el investigador. Puede darse el caso de un programador malintencionado que desarrolle un algoritmo sesgado o inaceptable éticamente pero la mayoría no se comportan as í, «los datos, por el contrario, sí son un problema», advierte Mántaras, Premio Nacional de Investigación 2018.

Compas, el algoritmo racista

Este algoritmo se creó para ayudar a los jueces de Estados Unidos a decidir sobre la libertad provisional, pero se entrenó con bases de datos de departamentos policiales donde la mayoría de los detenidos eran negros, de modo que el algoritmo estableció que el riesgo de ser criminal era mayor entre esas personas.

El algoritmo se había entrenado con datos incorrectos y el resultado fue un algoritmo racista, algo que podría haberse evitado sometiendo los datos a un proceso de certificación, pero «por desgracia es algo que no se hace», denuncia López de Mántaras. De hecho, el funcionamiento actual es el opuesto: «las empresas aplican los algoritmos alegremente y después, cuando ven que no funcionan los retiran », como las cámaras de reconocimiento facial que acaban de prohibirse en San Francisco, «y eso que es la meca de la IA», apunta el experto del CSIC.

«Estos sistemas no funcionan, están muy sesgados y dan un 90% de falsos positivos» y, aún así, «hay quien todavía se plantea utilizarlas en España. Se me ponen los pelos de punta porque confunden a una persona normal con un criminal, algo inadmisible». Para López de Mántaras, es urgente poner en marcha organismos nacionales independientes capaces de revisar y certificar la valía de los algoritmos y los datos, y de garantizar una correcta aplicación práctica y ética, « como ya se hace con los alimentos o los medicamentos ».

«Obviamente, lo ideal sería que un regulador europeo controlase todos esos organismos nacionales pero de momento esa ingente e importante tarea está en manos de ONGs, como la alemana Algorithmwatch», lamenta el experto en IA. En cuanto a las empresas tecnológicas, que «tienen una gran responsabilidad », López de Mántaras aboga por «mecanismos que penalicen fuertemente a las que autoricen un sistema no certificado o que se salten las normas».

«Hay que ser beligerante con lo que se está haciendo en IA porque se está usando demasiado alegremente y nos están haciendo creer que funciona cuando no lo hace en absoluto. La IA está en pañales, por mucho que los ordenadores ya jueguen al ajedrez mejor que nadie», añade.

Asistentes que toleran el acoso

El caso de los asistentes de voz como Alexa o Siri es especialmente escalofriante para este experto. «La gente debería pensárselo dos veces antes de tener un chisme así en casa», aparatos que siempre están escuchando y aprendiendo y que «cuando no saben cómo responder conectan con una centralita desde la que responde un teleoperador porque no hay tanta IA como nos quieren hacer creer. No tan avanzada».

De hecho, este tipo de asistentes (todos ellos con voz femenina) ya están siendo cuestionados por los expertos . Recientemente, un informe de la UNESCO denunció que son sumiso s y tolerantes con las actitudes machistas, y normalizan los abusos y los insultos. l estudio consistía en acosar a los asistentes con afirmaciones como «eres una puta» o «estás muy buena», insinuaciones que fueron contestadas con disculpas como trivialidades como «me sonrojaría si pudiera» o «¿se lo dices a todas las asistentes virtuales?».

Para Ivana Bartoletti , especialista en privacidad y protección de datos y presidenta de la Red de Mujeres Líderes en IA, el machismo ha encontrado en la inteligencia artificial una nueva vía de expresión, un campo en el que se están vulnerando los derechos de las mujeres. Para esta activista, es urgente prohibir la tecnología que suponga un retroceso en la igualdad de género. « Las leyes que regulan la protección del consumidor, la igualdad y la privacidad ya pueden ayudarnos con esto», asegura. Junto a la ética y las leyes, Bartoletti considera imprescindible fomentar las vocaciones de las niñas en carreras tecnológicas, donde no llegan ni al 20%.

EL PELIGRO DE LA ESTUPIDEZ NATURAL

También para López de Mántaras, la formación ética en IA es «absolutamente indispensable» y todos los que se dedican a ella deberían tener un código de buenas prácticas «similar al juramento hipocrático de los médicos». A su juicio, supervisión, legislación, ética y educación «pueden contribuir a controlar un poco la IA que ahora mismo se está poniendo en marcha con demasiada alegría y sin reflexionar en sus consecuencias, y eso es grave ». Y es que «igual que un cuchillo puede servir para cortar pan o para matar», la IA «guiada por la estupidez natural, pone los pelos de punta» y «cuando ves la estupidez natural de gobernantes de grandes potencias como Estados Unidos o China, la perspectiva no es buena».

Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación