POR Gabriel Pacheco | 3 de noviembre de 2025, 10:40 AM

En cuestión de meses, la inteligencia artificial (IA) evolucionó tan rápido que es casi imposible distinguir cuando su rastro está presente un determinado contenido. Hoy, cualquier persona puede generar un video en el que una figura pública diga o haga algo que jamás ocurrió.

Luis Adrián Salazar, exministro de Ciencia, Tecnología y Telecomunicaciones, explica que los avances han borrado las señales que antes permitían detectar cuándo una imagen o un video eran falsos.

“Al inicio, veíamos figuras donde se movían los labios de forma extraña y sabíamos que era un montaje. Pero con herramientas como Sora o los nuevos generadores de video, eso ya no es tan evidente. Hoy, basta con un pequeño clip y una muestra de voz para crear un video que imite gestos, tono y expresiones de una persona real”, señala Salazar.
Este realismo plantea un problema creciente: diferenciar entre lo auténtico y lo fabricado. Según el Foro Económico Mundial, la desinformación ocupa el primer lugar entre los riesgos globales de mayor impacto para los próximos años, y la inteligencia artificial es una de las vías que más la potencia.

“Podemos poner a alguien a decir lo que sea, con absoluta irresponsabilidad”, advierte Salazar. “Y eso, en contextos sensibles como una campaña política, puede tener consecuencias graves”.

Paula Brenes, directora de la fundación YOD y experta en Tecnología, coincide: cada versión nueva de estas herramientas corrige los errores de la anterior.
“Hace seis meses decíamos a la gente: ‘Mire las manos, mire el parpadeo, observe si la boca se mueve raro’. Eso ya no sirve. Los sistemas aprenden tan rápido que los fallos visibles desaparecen. Hoy, algunos videos falsos solo se pueden detectar por detalles mínimos, como una zona borrosa donde debería ir un sello de agua o un fondo que se mueve de forma irregular”.
Brenes explica que el perfeccionamiento se debe a la cantidad de información con la que las inteligencias artificiales se entrenan: millones de imágenes y videos subidos por usuarios a Internet, incluso en juegos aparentemente inofensivos.

Ambos especialistas coinciden en que el avance tecnológico no viene acompañado del mismo ritmo de alfabetización digital. “El acceso es masivo, pero el conocimiento no”, resume Brenes.

Salazar agrega: “Ya el 78% de las empresas en el mundo utiliza inteligencia artificial de alguna manera. En seis meses, lo que hoy es exclusivo se volverá gratuito y accesible para todos. Y eso implica más poder, pero también más riesgos”.

Entonces, ¿cómo podemos distinguir lo real de lo falso?

Aunque las herramientas de verificación existen, su precisión no es absoluta y la tecnología avanza más rápido que los sistemas de detección. Por eso, los expertos recomiendan desarrollar un hábito que ninguna máquina puede reemplazar: el pensamiento crítico.

“Dudar es esencial”, afirma Salazar. “Preguntarnos de dónde viene el contenido, quién lo generó y si hay otra fuente que lo confirme. No podemos asumir que lo que vemos es real solo porque lo vemos”. 

El problema no solo radica en la capacidad de las máquinas, sino en cómo las personas reaccionan ante lo que ven. 

“Hoy es más fácil generar odio que generar reflexión”, lamenta Salazar. “Y si replicamos algo sin saber si es cierto, contribuimos a dañar la confianza pública”.

Brenes, por su parte, plantea la urgencia de una educación tecnológica que incluya ética digital:

“Necesitamos enseñar a la gente no solo a usar estas herramientas, sino a entender sus implicaciones. Igual que con el cigarro: antes de usarlo, hay que saber los riesgos que implica”.
En el nuevo ecosistema digital, ver ya no es creer. Frente a la avalancha de contenidos generados por inteligencia artificial, la única defensa efectiva es pensar antes de compartir.

Lea también

Entretenimiento

Character.AI prohibirá que menores chateen con IA tras tragedia con adolescente

La plataforma, usada por millones de adolescentes, cerrará el acceso a menores de 18 años desde noviembre tras una ola de críticas y demandas judiciales.