POR BBC News Mundo | 18 de junio de 2018, 3:27 AM
Universidad de Washington
Este Barack Obama parece el auténtico, pero no lo es.

La tecnología es capaz de poner palabras en tu boca que no hayas dicho, de crear un rostro idéntico al tuyo y de imitar tus gestos al más mínimo detalle.

Los videos "deepfake", una suerte de videomontajes que crean identidades falsas usando la inteligencia artificial, cada vez son más precisos y sofisticados. Tanto es así, que a muchos les preocupa que seamos incapaces de distinguirlos de los originales.

Así ocurrió en 2017, cuando un clip que retrataba a un "falso" Barack Obama se viralizó en internet. Millones de personas lo vieron a través de YouTube y medios de comunicación en todo el mundo.

Con un software, un poco de tiempo y algo de experiencia, unos investigadores de la Universidad de Washington fueron capaces de hacer algo que nunca se había logrado hasta entonces: hiperrealismo tecnológico.

"Estamos adentrándonos en una era en la cual nuestros enemigos le pueden hacer a cualquier persona decir lo que sea en cualquier momento dado", expresaba desde el Despacho Oval el expresidente de Estados Unidos -o, mejor dicho, su doble digital- en el video.

Esa misma tecnología también permitió desarrollar "identidades duplicadas" del mandatario ruso Vladimir Putin o del actual presidente estadounidense, Donald Trump.

Pero también comenzaron a aflorar videos pornográficos en los que el rostro de las actrices originales fue modificado por el de otras personas. Por eso, muchos dijeron que los "deepfake" son el nuevo porno de la venganza.

  • Qué son los "deepfakes" y por qué se están convirtiendo en el nuevo "porno de la venganza"

Pero existe una forma de saber si un video fue manipulado.

En un abrir y cerrar de ojos...

"Es importante que el público en general sea consciente de las capacidades de la tecnología moderna para generar videos y editarlos", escribió en su blog Michael Zollhöfer, profesor de la Universidad de Stanford, EE.UU., quien desarrolló una nueva herramienta de "deepfake".

Pero no es menos importante estar atentos a las señales que permiten identificarlos.

La clave, explican Yuezun Li, Ming-Ching Chang y Siwei Lyu en una investigación publicada por la Universidad de Cornell, en Nueva York, EE.UU., está en los movimientos oculares.

Getty Images
Un ser humano promedio parpadea 17 de veces por minuto. ¿Y en un "deepfake"?

"Nuestro método se basa en la detección del parpadeo de los ojos en los videos, que es una señal psicológica que no está bien representada en los videos falsos", explican los investigadores.

La solución entonces para saber si un video es falso, explican los expertos, es prestar atención a los ojos y a la forma y cantidad de veces en que se cierran.

Los protagonistas de los "deepfake" no parpadean como los humanos.

Una persona promedio parpadea 17 veces por minuto. Pero, como la mayoría de las fotografías no capturan a la gente con los ojos cerrados, quienes aparecen en los videos "deepfake" tampoco los cierran.

"Los algoritmos de los 'deepfake' heredan este defecto básico", explica Siwei Lyu.

  • La controvertida tecnología que permite crear identidades falsas

A través de una herramienta que monitorea los movimientos oculares en los videomontajes, Lyu y su equipo fueron capaces de distinguir los videos falsos con una precisión del 99 por ciento.

Tal vez eso cambie en los próximos meses o años, a medida que avanzan las técnicas para crear esos videos.

En agosto, Zollhöfer y otros científicos de la Universidad de Stanford presentarán sus avances en la ACM SIGGRAPH, una conferencia internacional sobre computación gráfica en donde tal vez den a conocer un parpadeo "más humano".

Getty Images
La tecnología puede llegar muy lejos.

Algunos, como el periodista tecnológico Kevin Roose, creen que, a medida que avanza la tecnología, menores serán nuestras posibilidades de descubrir las manipulaciones.

"Probablemente no haya nada que podamos hacer más que intentar combatir los engaños cuando salgan a la luz, ejercer presión sobre las empresas de redes sociales para que luchen decididamente contra la desinformación y confiar en nuestros ojos un poco menos cada día", escribió Roose en el diario estadounidense The New York Times.

Otros, como Lyu, creen que la propia ciencia podrá aportar soluciones: "Es como jugar al gato y al ratón", asegura.


Otras señales a las que prestar atención

Estos son algunos indicios a los que, según los especialistas en "deepfake", debes estar atento para sospechar de un video:

  • La fuente que lo publica es desconocida o poco fiable: por ejemplo, una cadena de WhatsApp. Analiza la fuente.
  • Los lugares y las fechas no coinciden: presta atención a esos y otros detalles, como el logotipo o el lugar desde donde se grabó.
  • Presta atención a la boca: además de los ojos, los movimientos de la boca pueden ser reveladores.
  • Presta atención al mensaje: suele apelar a la emoción y busca generar ciertas reacciones en quien lo escucha.
  • Mira lo que ocurre a cámara lenta: ralentiza y para partes del video para observar más de cerca las transiciones.

Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.