El Equipo E: España se ríe con la llegada del «deep fake» que parodia a los políticos

Un vídeo parodiando al célebre grupo de televisión con Pablo Casado, Pedro Sánchez, Pablo Iglesias, Albert Rivera y Santiago Abascal de protagonistas hace furor en redes sociales demostrando el potencial de esta tecnología emergente que es imparable para los sistemas de verificación

FACETOFAKE

Esta funcionalidad es sólo para registrados

Los vídeos manipulados no son nada nuevo. Pero con las nuevas tecnologías, el realismo logrado ha permitido obtener resultados asombrosos. Los llamados «deep fakes» se han convertido en uno de los grandes desafíos de las redes sociales. Personajes famosos como Barack Obama, Donald Trump o Jennifer Lawrence han sido objeto de experimentos multimedia que llegan incluso a confundir al espectador. En España empieza a detectarse el impacto de esa tecnología con ejemplos como el de un vídeo titulado « Equipo E » que parodia a los políticos españoles. Estas secuencias son cada vez más populares para crear «memes» que incluso, en manos malintencionadas, puede llegar a contribuir a la propaganda.

El vídeo humorístico que ha aparecido en el canal YouTube , cuya autoría está atribuida a un grupo llamado « Face to Fake », toma de base la cabecera de la célebre serie de televisión «El Equipo A», pero sustituye los rostros de los protagonistas originales por los de los principales políticos españoles. Su cabera era muy conocida por su comienzo: «En 1972 un comando compuesto por cuatro de los mejores hombres del ejército americano fueron encarcelados por un delito que no habían cometido». Así, Hannibal Smith, líder del grupo, se ha modificado con un notable realismo por la cara de Pablo Casado, candidato a la presidencia por el Partido Popular. Gestos, detalles, movimientos están muy bien logrados que incluso llegan a confundir.

Por su parte, «Fénix», personaje que era conocido por su atractivo físico, lo «interpreta» Pedro Sánchez , líder del PSOE, mientras que el rostro de Albert Rivera , de Ciudadanos, aparece sobre el de H. M. «Howling Mad» Murdock, que para los neonatos, era muy querido por sus comportamientos alocados. Por último, Santiago Abascal, presidente de Vox, sustituye al forzudo M.A Baracus (B.A. por sus siglas en inglés), al que muchos admiraban por su estética -y colgantes de oro que le rodeaba el cuello-. Pablo Iglesias , de Unidas Podemos, en cambio, «interpreta» a Amy Amanda Allen, la periodista que se vio obligada a formar parte del equipo.

El vídeo manipulado se ha hecho muy popular en las redes sociales y acumula, en el momento de la redacción de esta información, más de 280 mil reproducciones. No es el primer contenido de este tipo del autor, ya que en su canal oficial de YouTube aparecen otros vídeos de tipo « deep fake » humorísticos de películas como « Braveheart », « Gladiator », así como otros contenidos en donde se parodia a otros dirigentes políticos como Mariano Rajoy , expresidente del Gobierno.

Estos vídeos «fake» han sido utilizados ya para atribuirle palabras y frases a políticos que nunca las han pronunciado. Afirmaciones tajantes y manipuladas que en el momento de su detección se ha viralizado por redes sociales rápidamente, complicando además las labores de los algoritmos de verificación. Las redes sociales han alzado la voz para combatir estos vídeos, pero es una tarea complicada .

Facebook, incluso, ha reconocido haber mantenido vídeos «fakes» de dirigentes políticos en su plataforma al considerar que no son «censores», lo ha generado una gran preocupación al respecto. Otros servicios como Twitter han querido reducir su viralidad informando acerca de su contenido falso en una etiqueta. Lo controvertido, y preocupante a la vez, es que se teme que este tipo de vídeos se perfeccionen a tal calibre que vayan a emplearse para suplantar y modificar la identidad de personajes conocidos.

«Cuando solo tomas la cara se simplifica el problema. Tomar un cuerpo entero de una persona, con un fondo en el que trabajar, no se consigue ser totalmente realistas, pero ya existe un campo de investigación al respecto»

Jorge Muñoz , experto en Deep Learning y Visión Artificial de Serendeepia , firma especializada en este área, reconocía en una entrevista para ABC que esta práctica «da un poco de miedo», aunque rebaja la preocupación porque, de momento, se necesitan ciertas consideraciones para lograr un grado de hiperrealismo: una gran cantidad de datos, vídeos de alta calidad y se se han ensayado con personajes famosos. Hace tres años, precisamente, se realizó una prueba con Barack Obama , expresidente de Estados Unidos. Su resultado fue espeluznante , y es difícil saber si se trata de una secuencia procesada por ordenador .

Este experto, sin embargo, considera que estas técnicas de «deep fakes» funcionan de manera más impactante, llegando incluso a sembrar la confusión , cuando se aplican únicamente a los rostros humanos. «Cuando solo tomas la cara se simplifica el problema. Tomar un cuerpo entero de una persona, con un fondo en el que trabajar, no se consigue ser totalmente realistas, pero ya existe un campo de investigación al respecto», añadió.

Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación