Por Mariana Valladares |22 de enero de 2025, 15:55 PM

El uso de la inteligencia artificial (IA) en la salud costarricense tiene el potencial de revolucionar el sistema de atención, optimizando tiempos y mejorando la precisión en los diagnósticos. Uno de los proyectos más ambiciosos e innovadores de IA en Costa Rica es Lidia, como se ha bautizado a un programa dentro de la Caja Costarricense de Seguro Social (CCSS), que agrupa diversos proyectos relacionados con la implementación de esta tecnología en el ámbito de la salud.

Lidia pertenece al Expediente Digital Único en Salud (EDUS) y se creó en 2023. Este sistema se compone de iniciativas en diferentes etapas de desarrollo, y tiene como objetivo principal la creación de modelos predictivos y el uso de tecnología para mejorar el diagnóstico y tratamiento médico.

Este proyecto reúne a equipos multidisciplinarios que incluyen médicos, ingenieros, estadísticos y otros profesionales para desarrollar estas soluciones tecnológicas en salud.

El objetivo de Lidia es probar y desarrollar modelos que puedan apoyar de manera significativa la atención médica, como es el caso del modelo predictivo de diabetes, que detecta pacientes en riesgo para priorizar su abordaje, entre otras iniciativas en áreas como la salud pulmonar, el síndrome coronario agudo y el cáncer de mama.



Pero Lidia intenta crecer en medio de algunos dilemas éticos y legales, debido a la información que está de por medio.

​“Son datos personales. Además, hay un tema importante que es la cantidad de delitos que ahora se dan a través de llamadas engañosas, etcétera. Perfectamente, el Estado no tiene la protección necesaria para evitar el ciberataque, y en el ciberataque también se puede acceder a información a esos niveles. De tal manera que no, entonces yo no permitiría, y me parece que muchos ciudadanos tampoco lo harían”, explicó a Teletica.com la diputada independiente, Gloria Navas.

Como mencionó la abogada penalista de profesión, este avance tecnológico plantea serios dilemas éticos, especialmente en lo que respecta al manejo de los datos de los pacientes y los riesgos de posibles fallos en los sistemas. El uso de estas tecnologías requiere un firme compromiso con la ética, la seguridad y la privacidad de los pacientes, no solo en la CCSS, también en cualquier ente privado que utilice IA para la salud.

​“El tema es sumamente delicado porque estamos hablando de datos sensibles. No solo existe una ley con efectos claros y una entidad que protege los derechos ciudadanos en esa línea, sino que también está el artículo 24 de la Constitución Política, que garantiza la privacidad de la información. Hay antecedentes importantes que debemos considerar”, acotó la congresista.

Un ejemplo de ello, es el de la extinta Unidad Presidencial de Análisis de Datos (UPAD), por el cual es investigado el expresidente de la República, Carlos Alvarado, y otros miembros de su gobierno. La pesquisa incluyó allanamientos en la Casa Presidencial y el Ministerio de Planificación Nacional y Política Económica (Mideplán), el 28 de febrero de 2020.

​“El Estado no cuenta con la protección necesaria para evitar que estos ataques comprometan la información de los ciudadanos. Por lo tanto, no permitiría que mis datos fueran utilizados de esta manera, y estoy segura de que muchos otros ciudadanos tampoco lo harían”, subrayó Navas.

La preocupación que tiene la legisladora la comparte Haydée Blanco, una vecina de Desamparados de 75 años. En una conversación con este medio, ella indicó que prefiere que sus datos sensibles, como el expediente de salud, no sean utilizados por tecnologías como la IA, porque no confía en lo que pueda pasar con ellos. 

“Prefiero que solo el doctor los vea”, sostuvo.

A ello debe añadirse que la Unión Médica Nacional (UMN) denunció, este martes, un presunto manejo irregular del EDUS. El planteamiento se dirigió contra la Junta Directiva de la CCSS, como último responsable del proyecto.

“Tenemos que partir del hecho de que la inteligencia artificial es el futuro en todos los campos relacionados con el ser humano, y la medicina no es una excepción. El manejo de Big Data coloca a la inteligencia artificial como una herramienta que debe estar en primera línea. Esto se debe a que su capacidad para analizar datos nos permitirá identificar prioridades, falencias y áreas en las que debemos implementar programas que quizás ni siquiera estamos visualizando en este momento. 

"Sin embargo, para que esto funcione, es necesario contar con un expediente digital robusto, blindado y funcional, que permita una interacción clínica adecuada entre el médico y el paciente. Solo así los datos obtenidos serán fehacientes y reflejarán realmente la situación de salud de la población costarricense en sus diversas patologías”, explicó la doctora Janice Sandí Morales, vicepresidenta de la Junta Directiva de la Unión Médica Nacional y del Sindicato de Médicos.


La UMN recalca su preocupación por enterarse del uso de estas tecnologías sin regulaciones.

“Hablamos ahora del llenado de protocolos y formularios. Por ejemplo, formularios relacionados con cáncer, tabaco, adolescencia o adulto mayor. Hay una gran cantidad de estos documentos que deben completarse dentro de la consulta clínica. Si el llenado se realiza en una preconsulta, donde una persona, con tiempo y calma, formula las preguntas necesarias, la información obtenida será totalmente válida. Sin embargo, si se incluye dentro de una consulta en la que el paciente acude por una patología específica, y el médico comienza a indagar sobre temas que no son la prioridad del paciente en ese momento, la información recabada probablemente no será efectiva.

“La inteligencia artificial es útil y efectiva solo si se le proporcionan los elementos necesarios para analizar los datos de manera adecuada. A través de Big Data, se pueden obtener resultados que realmente tengan un impacto positivo en el sistema de salud”, precisó Sandí Morales.

​Sin ley

El experto en Derecho de Tecnologías Informáticas, Andrés Corrales, explicó que Costa Rica no tiene una ley que regule el uso de la inteligencia artificial. Lo que existe es una política que se presentó recientemente por parte del Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones (Micitt). Además, se dispone de diferentes mecanismos jurídicos relacionados con el empleo de tecnología, que ya están tipificados en la legislación nacional.

Por ejemplo, el tema de la protección de datos, el manejo responsable de la información y temas de privacidad están contemplados en la Constitución Política. Sin embargo, algo similar a lo que actualmente tiene la Unión Europea (UE) —una legislación específica que regule la inteligencia artificial— no existe. De hecho, esa es la única región en el mundo que cuenta con normativa aprobada sobre este tema.

​"Tenemos la Ley de Protección de la Persona frente al Tratamiento de sus Datos Personales, que regula los datos personales sensibles, que se puede utilizar para fines de salud, cuando peligra la vida de la persona, incluso sin su consentimiento. Pero aquí es donde debemos tener en cuenta que es peligroso que la CCSS inicie proyectos de uso de inteligencia artificial sin una normativa robusta sobre protección de datos personales y sin una estrategia adecuada de ciberseguridad, acompañada igualmente de normativa robusta sobre esta materia de seguridad.

“Esto podría generar perjuicios a las personas si la información se filtra, si no se tiene el consentimiento adecuado o la información sobre las implicaciones de permitir que una aseguradora tenga acceso a esta información. Recordemos que esto podría restringir oportunidades a la persona, y esto es peligroso”, dijo por su lado el abogado especialista en Derecho Informático, Adalid Medrano.

El director del EDUS, Manuel Rodríguez, explicó a Teletica.com que los datos que se pretenden sistematizar con Lidia son los mismos que se encuentran en el EDUS y aseguró que a estos se les daría el mismo manejo. Esos procesos han sido avalados por la Agencia de Protección de Datos de los Habitantes (Prodhab). 

Este último órgano resaltó que en el EDUS tiene las mismas obligaciones que todos aquellos que realizan tratamiento de datos personales y deben garantizar que los protocolos y medidas de seguridad sean adecuados y actualizados según el tipo de datos, las finalidades y los tratamientos que se realicen.

"En cuanto a la consulta sobre si estamos preparados para esto, es importante reiterar que, independientemente de si se trata de EDUS o de datos de salud, el responsable de la base de datos debe cumplir las normas actuales sobre tratamiento de datos. Además, debe realizar valoraciones de riesgo, incluyendo las específicas de la inteligencia artificial (IA), considerando los datos de entrada, el diseño de algoritmos y las decisiones de salida, para contrarrestar sesgos, decisiones automatizadas sin intervención humana, patrones, errores, usos e interpretaciones que no estén ajustados normativamente, y garantizar la calidad de la información.

"Es indispensable desarrollar una cultura de cumplimiento en materia de privacidad, seguridad y ética, tanto desde el diseño como por defecto. Asimismo, se debe evidenciar el cumplimiento de los principios relacionados con los datos personales y la IA, con el fin de establecer esquemas apropiados de cumplimiento y gobernanza en el tratamiento de datos personales. Finalmente, es fundamental respetar los derechos de los habitantes e implementar mecanismos que permitan el ejercicio de esos derechos y el acceso a la información", ratificó la Prodhab.​​

Según el viceministro de Salud, Allan Mora Vargas, “todo proyecto de inteligencia artificial tiene que partir del principio de que toda persona tiene el derecho de estar informada sobre lo que se va a hacer con sus datos”.

El jerarca señaló que es fundamental que los asegurados den su consentimiento informado antes de que sus datos sean utilizados, y que estos sean anonimizados bajo estrictos protocolos de seguridad.

Esta transparencia es crucial para mantener la confianza en el sistema de salud, ya que cualquier mal uso de los datos puede tener graves consecuencias, tanto para los pacientes, como para la institución.

Para el Sindicato de Médicos Especialistas (Siname), el uso de los datos es un tema complejo, pero que la CCSS lo ha solucionado satisfactoriamente.

​“Ahí entrás en una situación más compleja, pero al mismo tiempo sencilla, que yo supongo que, a nivel institucional, ya lo resolvieron. Tengamos claro que en este momento la Caja tiene todos esos datos de todos los costarricenses, porque la Caja vela por el 100% del sistema EDUS. Ya estos datos se están utilizando para hacer estudios predictivos o estudios. Por ejemplo, el fumado”, mencionó el presidente de la organización de trabajadores, Mario Quesada.

Al respecto, Rodríguez recalcó que el principal reto que debe superar Lidia es cómo se puede generar este tipo de aplicaciones tecnológicas, mientras se garantiza la protección de las personas frente al tratamiento de sus datos. Enfatizó que en eso, la Prodhab ha sido un aliado en los procesos de desarrollo.

​Dilema de los errores

Otro gran reto se presenta cuando la IA falla. Aunque los sistemas de inteligencia artificial pueden reducir significativamente los tiempos de atención y mejorar la eficiencia, no están exentos de cometer errores.

La microbióloga Angie Cervantes indicó que los sistemas de IA utilizados en los laboratorios clínicos de la CCSS, como los algoritmos para la validación de pruebas de glucosa, han logrado reducir drásticamente los tiempos de respuesta. Añadió que el único margen de error del mismo, es una programación incorrecta, por parte de quien hace uso de esa tecnología.

Ello evidencia un punto crucial: que la inteligencia artificial no está exenta de errores. Y si la programación es defectuosa o el sistema no ha aprendido correctamente, las consecuencias pueden ser graves.

En esa línea, la microbióloga explicó que los sistemas de IA deben ser entrenados adecuadamente para identificar los elementos correctos.

Sobre ese particular, el director del EDUS resaltó que los proyectos de Lidia están dirigidos a la prevención de enfermedades, no su tratamiento.

​“Estamos hablando de promoción de la salud y prevención de la enfermedad. Por eso es importante el tema de la cultura, realmente el hecho de poder llamar a las personas que tienen un nivel de riesgo. Lo que estamos haciendo realmente es decir: ‘Mire, con base en sus indicadores, hay una posibilidad de que desarrolle alguna patología’. Pero no significa necesariamente que la persona identificada en el protocolo o en el modelo vaya a desarrollar la patología”, explicó Rodríguez.

 

Desde la parte legal, Medrano y Corrales coincidieron en que si estos sistemas fallan o los datos sensibles de los usuarios se filtran, la responsabilidad cae sobre la institución que desarrolla el programa, en este caso, la CCSS. Los usuarios, por su parte, tienen el derecho de solicitar que sus datos sean eliminados de estos sistemas.

Previo al uso de los expedientes médicos, los especialistas en Derecho recalcan que siempre debe haber un consentimiento informado.

​“Este es un punto clave en el debate actual. Si una IA genera un diagnóstico incorrecto, la responsabilidad no puede recaer en la máquina, sino en la institución o el profesional que decidió implementarla sin supervisión adecuada. La IA debe ser vista como una herramienta complementaria y no como una solución definitiva”, señaló Corrales.

El uso de IA en la salud no debe implicar la sustitución de los médicos, sino una herramienta para apoyarlos en la toma de decisiones. Según el viceministro Mora, la IA “es una herramienta más dentro del maletín, que puede ser utilizada para mejorar, ampliar, priorizar o caracterizar alguna condición del paciente, pero no para sustituir el diagnóstico clínico”. Este principio es clave para asegurar que la IA no reemplace el juicio humano, especialmente en situaciones críticas donde la experiencia del médico es insustituible.

El representante del Colegio de Médicos, Fernando Coto, ve a Lidia y el uso de IA en salud también como una herramienta, pero que no sustituye la necesidad de que el diagnóstico final lo realice un doctor.

​“Para tomar decisiones y poder predecir, es fundamental no solo contar con los más expertos, sino también dotar de herramientas que mejoren el criterio médico a aquellos médicos que tal vez aún no tienen el nivel de expertise, ya que no cuentan con suficientes años de práctica.

“El entrenamiento que requiere una máquina para hacer un diagnóstico es exponencialmente menor que el que necesita un médico para volverse experto en un tema médico humano. Por lo tanto, un médico potenciado con inteligencia artificial en su toma de decisiones posiblemente será un médico que disminuirá sus errores”, dijo Coto.

​Transparencia y regulación

Como mencionan los expertos, la implementación de inteligencia artificial en el sistema de salud debe estar respaldada por una regulación estricta, que garantice la transparencia y la seguridad en el uso de estos sistemas.

​“El Ministerio de Salud debería dictar las pautas y requisitos necesarios, así como solicitar acreditaciones importantes a los investigadores involucrados en estos procesos. No se debe dejar de manera arbitraria ni tampoco por la libre, sino más bien dentro de un marco bien regulado, en el cual, como país, se defina lo que queremos lograr, lo que queremos implementar y cuáles son nuestros objetivos”, abogó el representante del Colegio de Médicos.

El viceministro de Salud aseveró que ya existen conversaciones sobre la regulación de IA en la salud costarricense y que la Organización Panamericana de la Salud (OPS) ha hecho alusión al tema, lo cual para la cartera “es un buen punto de partida”.

“Desde el Ministerio de Salud, estamos pensando que, basados en los principios de la Estrategia de Inteligencia Artificial, se debe generar normativa adicional sobre el uso, pero también sobre el registro de estas tecnologías. El objetivo es ser conscientes y claros de que la tecnología tiene ciertas características y debe ser usada únicamente para esas características”, añadió Mora.

Lidia simboliza un avance crucial en la aplicación de la IA en la salud pública costarricense y un camino lleno de posibilidades. Sin embargo, también plantea interrogantes sobre el equilibrio entre innovación y ética. Su crecimiento dependerá de decisiones estratégicas que aborden las limitaciones actuales y maximicen su potencial para transformar la atención médica en el país.

El futuro crecimiento de este proyecto no solo es un desafío técnico, sino también un dilema ético y social que demanda la participación activa de todos los actores involucrados. Como concluye Rodríguez, “la tecnología está aquí para mejorar la salud, pero su uso debe estar siempre respaldado por principios éticos sólidos”.

Puede acceder al especial completo a través de este enlace.
YouTubeTeleticacom