La peligrosa inteligencia artificial que puede generar textos falsos y «colártelos» como reales

OpenAI, proyecto de investigación en el que está detrás el gurú tecnológico Elon Musk, declina liberar el software para uso por sus posibles implicaciones en materia de desinformación, uno de los problemas a resolver en la actualidad

Actualizado:

La inteligencia artificial, una tecnología que se lleva desarrollándose desde los años cincuenta, hechiza al mismo tiempo que aterra. El miedo a las posibles implicaciones en la economía global presenta un delirio de percepciones negativas. No es para menos, cuando se obserban los logros alcanzados. Porque las máquinas hace tiempo que superaron al ser humano. La convivencia entre ambos constructos es, sin embargo, inevitable en el futuro.

Por eso no es de extrañar el desarrollo de sistemas de escritura digital automática capaz de emular la semántica y detalles de una persona. Algo terrible, pese a todo, en manos incoscientes; y más en la burbuja de desinformación en la que nos encontramos. Porque, además, la presencia de «bots» en las redes sociales es más que frecuente, con lo que la difusión de bulos y mentiras es, a día de hoy, el mayor quebradero de cabeza de las plataformas de medios sociales.

No liberar el código informático del programa. Ese es el desafío de OpenAI, una empresa de investigación sin ánimo de lucro respaldada por Elon Musk o Reid Hoffman, entre otros, y que ha decidido no hacer públicas sus investigaciones. La razón es simple: su nuevo modelo de inteligencia artificial, llamado GPT2, es «tan bueno» escribiendo y produciendo textos, que temen un «uso malicioso».

Se trata de un generador de texto. El sistema se alimenta de texto y caracteres digitales. Puede escribir desde unas pocas palabras a una página complet, y se le puede solicitar que escriba las siguientes oraciones basándose en sus predicciones de lo que debería venir a continuación. Lo hace, en principio, con mucho sentido, que podría pasar por un artículo de una persona. «El sistema está superando los límites de lo que se creía posible, tanto en términos de la calidad de la producción como de su amplia variedad de usos potenciales», constatan los analistas. Ha sido entrenado, según la compañía, con una base de datos de 40 GB de textos extraídos de internet.

«Necesitamos realizar experimentos para descubrir qué pueden y qué no pueden hacer», dijo Jack Clark, jefe de política de la organización en «The Guardian». «Si no puedes anticipar todas las habilidades de un modelo, tienes que empujarlo hasta ver qué puede hacer. Hay muchas personas que creen que se puede hacer algo malicioso».

La industria editorial, desde hace un tiempo, ha venido incorporando modelos de escritura automática y sistemas de inteligencia artificial, ya sea para completar un texto o desarrollarlos desde cero. Es algo cada vez más común que anima a pensar que los periodistas, en un futuro, se dedicarán a corrobar sus fuentes y a tareas más creativas en lugar de generar noticias de hechos plausibles y asépticos como la información económica o deportiva.