Entretenimiento
Character.AI prohibirá que menores chateen con IA tras tragedia con adolescente
La plataforma, usada por millones de adolescentes, cerrará el acceso a menores de 18 años desde noviembre tras una ola de críticas y demandas judiciales.
En cuestión de meses, la inteligencia artificial (IA) evolucionó tan rápido que es casi imposible distinguir cuando su rastro está presente un determinado contenido. Hoy, cualquier persona puede generar un video en el que una figura pública diga o haga algo que jamás ocurrió.
Luis Adrián Salazar, exministro de Ciencia, Tecnología y Telecomunicaciones, explica que los avances han borrado las señales que antes permitían detectar cuándo una imagen o un video eran falsos.
“Al inicio, veíamos figuras donde se movían los labios de forma extraña y sabíamos que era un montaje. Pero con herramientas como Sora o los nuevos generadores de video, eso ya no es tan evidente. Hoy, basta con un pequeño clip y una muestra de voz para crear un video que imite gestos, tono y expresiones de una persona real”, señala Salazar.Este realismo plantea un problema creciente: diferenciar entre lo auténtico y lo fabricado. Según el Foro Económico Mundial, la desinformación ocupa el primer lugar entre los riesgos globales de mayor impacto para los próximos años, y la inteligencia artificial es una de las vías que más la potencia.
“Hace seis meses decíamos a la gente: ‘Mire las manos, mire el parpadeo, observe si la boca se mueve raro’. Eso ya no sirve. Los sistemas aprenden tan rápido que los fallos visibles desaparecen. Hoy, algunos videos falsos solo se pueden detectar por detalles mínimos, como una zona borrosa donde debería ir un sello de agua o un fondo que se mueve de forma irregular”.Brenes explica que el perfeccionamiento se debe a la cantidad de información con la que las inteligencias artificiales se entrenan: millones de imágenes y videos subidos por usuarios a Internet, incluso en juegos aparentemente inofensivos.
Entonces, ¿cómo podemos distinguir lo real de lo falso?
Salazar agrega: “Ya el 78% de las empresas en el mundo utiliza inteligencia artificial de alguna manera. En seis meses, lo que hoy es exclusivo se volverá gratuito y accesible para todos. Y eso implica más poder, pero también más riesgos”.
“Dudar es esencial”, afirma Salazar. “Preguntarnos de dónde viene el contenido, quién lo generó y si hay otra fuente que lo confirme. No podemos asumir que lo que vemos es real solo porque lo vemos”.
“Hoy es más fácil generar odio que generar reflexión”, lamenta Salazar. “Y si replicamos algo sin saber si es cierto, contribuimos a dañar la confianza pública”.
“Necesitamos enseñar a la gente no solo a usar estas herramientas, sino a entender sus implicaciones. Igual que con el cigarro: antes de usarlo, hay que saber los riesgos que implica”.En el nuevo ecosistema digital, ver ya no es creer. Frente a la avalancha de contenidos generados por inteligencia artificial, la única defensa efectiva es pensar antes de compartir.