Editorial
Información del artículo
*Autor para correspondencia
Correo electrónico:
cramosortiz@gmail.com
(C. Ramos Ortiz).
Ana María Rivas Fernándeza, Carlos Ramos Ortizb,*
aLicenciada en Derecho. bCentro de Salud de Maracena (Granada). Grupo de Bioética de SEMG.
La inteligencia artificial (IA) es una realidad que lleva muchos años integrándose en la medicina, y está revolucionando las posibilidades en el diagnóstico, tratamiento y abordaje de enfermedades.
Tradicionalmente se ha utilizado en:
- Diagnóstico de imágenes médicas: análisis de imágenes como radiografías, resonancias magnéticas o tomografías, mediante identificación de patrones que pueden indicar la presencia de enfermedades.
- Asistencia en intervenciones quirúrgicas: robots de asistencia que ayudan a los cirujanos a realizar procedimientos con mayor precisión, con lo que se reduce el riesgo y se mejoran los resultados de las intervenciones.
- Gestión de cuidados y monitorización de pacientes: sistemas de monitorización que integran algoritmos basados en inteligencia artificial para detectar anomalías de forma temprana.
- Desarrollo de fármacos e investigación: los sistemas de IA pueden analizar rápidamente grandes bases de datos de información molecular y clínica para identificar posibles compuestos candidatos a nuevos medicamentos.
- Análisis de datos de salud a gran escala: la IA puede procesar y analizar grandes conjuntos de datos de salud para identificar tendencias, patrones y correlaciones, que pueden ser cruciales para entender mejor las enfermedades y reformar los sistemas de salud.
En este último año ha surgido un nuevo tipo de IA, ampliamente publicitado por los medios de comunicación, denominado “inteligencia artificial generativa” (IAG). Engloba sistemas como ChatGPT (OpenAI) o Bard (Google), creados a partir de nuevos datos basados en algoritmos de aprendizaje automático.
Estos sistemas funcionan en dos fases:
- Fase de entrenamiento: se introduce todo tipo de datos en el algoritmo con el fin de aprender a identificar patrones y las relaciones entre los datos de entrenamiento.
- Fase de generación: el algoritmo utiliza los patrones y las relaciones aprendidas en la fase de entrenamiento para generar nuevos datos que sean similares a los datos de entrenamiento.
Los algoritmos más utilizados son:
- Redes neuronales. Algoritmos que se inspiran en el funcionamiento del cerebro humano para generar imágenes, texto, código… Suelen componerse de algoritmos basados en la competencia entre dos redes neuronales. Una de ellas es la llamada “generador”, la responsable de la génesis de nuevos datos; la otra, llamada “discriminador”, distingue entre los datos generados y los reales.
- Aprendizaje automático. Se alimenta de un conjunto de datos que incluyen también las etiquetas. Estas consisten en información que indica a la IA a qué categoría pertenecen los datos y realizan una clasificación por patrones. Una vez identificados los patrones y sus etiquetas, la IA genera nuevos datos por semejanza (parecidos, no iguales, a los que se han introducido).
Estos sistemas constituyen una gran revolución y la causa de su creciente popularidad, porque no es necesario ningún conocimiento técnico para interaccionar con ellos, sino que responden al lenguaje natural y establecen una conversación convencional. Así, por ejemplo, se elimina la participación del médico (que sí es una figura fundamental en los modelos anteriores). El paciente accede de forma directa a los sistemas de IA y la respuesta se genera en función de los datos que el paciente introduce. Esto conlleva un gran riesgo, ya que el usuario no siempre tiene los conocimientos necesarios para discernir qué información es relevante, por lo que la respuesta generada puede ser errónea y llevar a mayor confusión.
En resumen, los sistemas de IA son un modelo avanzado que emplea técnicas de aprendizaje y análisis profundo para producir respuestas similares a las humanas, e interpreta y utiliza el lenguaje natural.
Estos modelos nos plantean desafíos nuevos que deben abordarse antes de que puedan utilizarse de forma segura y responsable en el ámbito médico:
- Confidencialidad y privacidad. La confidencialidad de los datos es uno de los pilares de la relación médico-paciente. Con estos modelos el riesgo de que sean utilizados para entrenar modelos es real, lo que puede comprometer la privacidad del paciente. Es necesario establecer protocolos muy estrictos para respetar dicha confidencialidad.
- Responsabilidad y transparencia. En el caso de la responsabilidad legal motivada por los posibles daños de una respuesta errónea o una mala interpretación de los resultados la respuesta es compleja: ¿quién sería responsable si el consejo generado por una IA es perjudicial: el desarrollador, la empresa generadora del algoritmo? La transparencia en el modo de funcionamiento de estos sistemas y sus limitaciones es fundamental.
Como respuesta a todos los desafíos legales que plantean estas nuevas tecnologías, la Unión Europea ha reaccionado de forma innovadora con el Borrador del Reglamento de la UE sobre Inteligencia Artificial. Representa un avance muy significativo en el establecimiento de un marco legal para el uso y el desarrollo de la IA.
Este reglamento clasifica los sistemas de IA según el riesgo que representan y establece distintas obligaciones para los proveedores y usuarios de acuerdo con el nivel de riesgo.
Los sistemas considerados con “riesgo inaceptable” serán prohibidos. En estos grupos se incluyen los que puedan manipular el comportamiento de los grupos vulnerables, o bien que se utilicen como métodos de “puntuación social” para clasificar a la población. Otros sistemas incluidos en este apartado son la tecnología de identificación biométrica en tiempo real y a distancia, como, por ejemplo, el reconocimiento facial. Existen excepciones para ello, pero siempre bajo supervisión judicial.
Los sistemas de “alto riesgo” se dividen en tres categorías:
- Los utilizados en productos sujetos a legislación de la UE sobre seguridad de productos, como aviación, automóviles, dispositivos médicos o juguetes.
- Los pertenecientes a ámbitos específicos: identificación biométrica, gestión de infraestructuras cruciales, aplicación de la ley… Todas ellas deberán ser incluidas en una base de datos y vigiladas a lo largo de su ciclo de vida.
En el caso de la IAG, como CHAT GPT o Gemini (incluido en Bard), se establecerán requisitos de transparencia y la obligación de revelar que el contenido ha sido generado por una IA, y garantizar que los datos utilizados para el entrenamiento respeten los derechos de autor.
Se espera que el contenido del acuerdo se conozca en 2024, para cuya aprobación se requerirá el visto bueno del Parlamento Europeo, previo proceso de armonización de los ordenamientos jurídicos de los Estados miembros.
Y, aludiendo al objetivo de nuestro artículo: ¿qué implicaciones tiene la IAG en los principios clásicos de la bioética?:
- Principio de autonomía. Se refiere al derecho de los pacientes a tomar decisiones informadas sobre su propia atención médica. La IAG debe garantizar que los usuarios estén plenamente informados sobre el hecho de que están interactuando con un sistema de IA. Esto es crucial, sobre todo cuando se utiliza para proporcionar información o consejos médicos, con el fin de que los usuarios puedan dar un consentimiento genuinamente informado.
- Beneficencia. Implica actuar en el mejor interés del paciente, buscar activamente su bienestar. La IAG debe ser utilizada para mejorar activamente la práctica médica, ya sea a través de diagnósticos más precisos, tratamientos personalizados o una gestión más eficiente de los recursos de salud. La tecnología no debe utilizarse solo por su novedad, sino que debe demostrar un beneficio claro para los pacientes.
- No maleficencia. Evitar hacer daño a los pacientes. Esto se traduce en garantizar que los sistemas de IAG no causen daño, ya sea a través de errores de interpretación, sesgos en los datos o mal uso de la información personal. Es vital que los sistemas de IAG sean seguros, precisos y fiables, especialmente, cuando se aplican a la información médica.
- Justicia. La IAG debe ser accesible e inclusiva, y asegurar que sus beneficios no están limitados a un pequeño grupo de privilegiados. Esto implica tener en cuenta la equidad en el acceso a esta tecnología, así como garantizar la representación equitativa de diversos grupos de pacientes en los datos utilizados para entrenar a los sistemas de IAG.
Al aplicar los principios clásicos de la bioética a la IAG pretendemos asegurar que su uso en medicina se haga respetando los derechos y el bienestar de los pacientes, a la vez que se intentan maximizar los beneficios y minimizar los riesgos potenciales.
La ética en la IAG no consiste solo en cumplir con los estándares técnicos, sino también la adhesión a estos principios, que son fundamentales en la práctica médica.
Bibliografía
- Karako K, Song P, Chen Y, Tang W. New possibilities for medical support systems utilizing artificial intelligence (AI) and data platforms. Biosci Trends. 2023; 17(3): 186-89. doi: 10.5582/bst.2023.01138.
- Wójcik S, Rulkiewicz A, Pruszczyk P, Lisik W, Pobozy M, Domienik-Karłowicz J. Beyond ChatGPT: What does GPT-4 add to healthcare? The dawn of a new era. Cardiol J. 2023; 30(6): 1018–25. doi: 10.5603/cj.97515.
- Li Y, Li Z, Zhang K, Dan R, Jiang S, Zhang Y. ChatDoctor: A medical chat model fine-tuned on a Large Language Model Meta-AI (LLaMA) using medical domain knowledge. Cureus. 2023; 15(6): e40895. doi: 10.7759/cureus.40895.
- Watters C, Lemanski MK. Universal skepticism of ChatGPT: a review of early literature on chat generative pre-trained transformer. Front Big Data. 2023; 6: 1224976. doi: 10.3389/fdata.2023.1224976.
- Dave T, Athaluri SA, Singh S. ChatGPT in medicine: an overview of its applications, advantages, limitations, future prospects, and ethical considerations. Front Artif Intell. 2023; 6: 1169595. doi: 10.3389/frai.2023.1169595.
- Ge J, Li M, Delk MB, Lai JC. A comparison of large language model versus manual chart review for extraction of data elements from the electronic health record. medRxiv. 2023 [En prensa]. doi: 10.1101/2023.08.31.23294924.
- Comisión Europea. Resumen de los acuerdos de la Comisión Europea sobre IAAct. [9 de diciembre de 2023]. Disponible en: https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473