Los «deep fakes» llegan a la voz: suplantar la identidad va a ser la próxima preocupación de los ciudadanos

El robo de 200.000 dólares tras hacerse pasar por el director general de la empresa pone de relieve la capacidad de la inteligencia artificial para replicar incluso

Esta funcionalidad es sólo para registrados

La suplantación de identidad es una de las mayores preocupaciones de los ciudadanos. En una era en la que cualquiera puede abrirse un perfil en redes sociales para hacerse pasar por otra persona, los algoritmos de inteligencia artificial han alcanzado una notable perfección que, aplicado a contenidos multimedia, ha dado paso a un preocupante fenómeno que ya se conoce como « deep fakes ». El problema es que se pueden manipular no solo vídeos con un sorprendente índice de realismo sino también la voz humana.

Un truculento caso ha permitido dar la voz de alarma ante una posible tendencia que, según los expertos, tiene todos los atributos para generalizarse en el futuro. Según desveló a finales de agosto el medio «The Wall Street Journal» , un grupo de cibercriminales empleó un software basado en inteligencia artificial para hacerse pasar por la voz de un director ejecutivo y transferir, de manera fraudulenta, unos 220.000 euros de una empresa energética británica. La estafa se produjo en marzo, pero no ha sido recientemente cuando ha trascendido.

Un ejecutivo de la compañía afectada pensó que estaba hablando por teléfono con su jefe, un director ejecutivo de la empresa matriz ubicada en Alemania cuyo nombre no ha trascendido. El ciberdelincuente le instó a enviar los fondos a un proveedor en Hungría. Se logró cometer la estafa a partir de la creación de voces sintéticas que replican las mismas ondas de una voz original . La estafa se pudo acometer también dado que la llamada telefónica coincidió con un correo electrónico enviado previamente que anticipaba la operación financiera.

Aunque tiene margen para perfeccionarse, según informa «La Vanguardia», este tipo de manipulaciones ha empezado a despertar las preocupaciones de ciudadanos y empresas de todo tipo. Estimaciones de la firma de seguridad Symantec apuntaron en julio un aumento de los ataques por medio de esta técnica de suplantación de voz. El pasado año, Google presentó una tecnología propia, Duplex, que es capaz de conversar con personas por teléfono. El objetivo con el que nació era ahorrar a sus usuarios el esfuerzo de llamar directamente. El software era capaz de imitar los principales atributos de la voz humana, desde el color, el acento, la entonación o la modulación.

Los expertos creen que estas técnicas van a crecer en los próximos años y, acompañados de la viralidad que brindan las redes sociales, puede anticipar la llegada de audios manipulados que pueden llegar a cambiar la interpretación de los hechos noticiosos. Sin embargo, apuntan a que a diferencia de los «deep fakes» de video se requiere de conocimientos avanzados y una tecnología muy sofistifada que no está al alcance de cualquiera.

Este tipo de sistemas funciona a partir de una inteligencia artificial que toma las principales características de la voz transformándola en una onda interpretable por un software. A partir de entonces es capaz de replicar desde la modulación, el timbre, el color o el sexo para generar una voz sintética que puede repetir palabras pregrabadas o producir frases desde cero. «Hay que tener mucho cuidado con las imágenes y audio porque no puedes creer lo que vemos», advierte a este diario Stella Luna , experta en seguridad informática y directora general de Pentaquark Consulting, quien asegura que los «deep fakes» de audio requieren de un soporte tecnológico que, en general, están al alcance por el momento de empresas.

En su opinión, dado que la sofisticación de la tecnología presenta diferencias notables entre las manipulaciones de vídeo y audio, el impacto también es distinto. No obstante, esta experta pronostica que este tipo de fraudes van a ir a más pero espera que los métodos de seguridad y de detección «vayan en paralelo».

Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación