Foresight: Un Modelo de IA Generativa a Escala Nacional
Foresight, concebido en 2023, inicialmente utilizó GPT-3 de OpenAI, la tecnología que sustenta la primera iteración de ChatGPT, y se entrenó con 1.5 millones de registros de pacientes de dos hospitales de Londres. Chris Tomlinson de University College London y su equipo han expandido desde entonces Foresight, denominándolo el primer “modelo de IA generativa a escala nacional de datos de salud” del mundo. Esta versión mejorada aprovecha LLM Llama 2 de código abierto de Meta e incorpora ocho conjuntos de datos distintos acumulados rutinariamente por el NHS en Inglaterra desde noviembre de 2018 hasta diciembre de 2023. Estos conjuntos de datos abarcan citas ambulatorias, ingresos hospitalarios, registros de vacunación y otros eventos relacionados con la salud, totalizando 10 mil millones de puntos de datos en 57 millones de individuos, esencialmente toda la población de Inglaterra.
A pesar de la falta de métricas de rendimiento disponibles públicamente debido a las pruebas en curso, Tomlinson afirma que Foresight podría eventualmente facilitar diagnósticos individuales y predecir tendencias de salud más amplias, como hospitalizaciones o ataques cardíacos. Enfatizó el potencial del modelo para predecir complicaciones de enfermedades de manera preventiva, lo que permite la intervención temprana y un cambio hacia la atención preventiva a escala durante una conferencia de prensa el 6 de mayo.
Preocupaciones sobre la Privacidad y la Protección de Datos
La perspectiva de alimentar datos médicos tan extensos en un modelo de IA ha encendido preocupaciones sobre la privacidad. Aunque los investigadores afirman que todos los registros fueron “anonimizados” antes de entrenar la IA, el riesgo de re-identificación a través del análisis de patrones de datos sigue siendo una preocupación significativa, especialmente con grandes conjuntos de datos.
Luc Rocher de la Universidad de Oxford destaca el desafío inherente de salvaguardar la privacidad del paciente mientras se construyen potentes modelos de IA generativa. La misma riqueza de datos que hace que los datos sean valiosos para fines de IA también hace que sea increíblemente difícil de anonimizar. Rocher aboga por un estricto control del NHS sobre estos modelos para garantizar un uso seguro.
Michael Chapman de NHS Digital reconoce el riesgo inherente de re-identificación, incluso con datos anonimizados. Si bien se eliminan los identificadores directos, la riqueza de los datos de salud dificulta garantizar la anonimización completa.
Para contrarrestar este riesgo, Chapman declaró que la IA opera dentro de un entorno de datos del NHS “seguro”, restringiendo la fuga de información y asegurando el acceso solo a investigadores aprobados. Amazon Web Services y Databricks proporcionan infraestructura computacional pero no pueden acceder a los datos.
Yves-Alexandre de Montjoye de Imperial College London sugiere verificar la capacidad de un modelo para memorizar datos de entrenamiento para detectar posibles fugas de información. Cuando fue cuestionado por New Scientist, Tomlinson admitió que el equipo de Foresight aún no había realizado estas pruebas, pero planeaba hacerlo en el futuro.
Confianza Pública y Uso de Datos
Caroline Green de la Universidad de Oxford enfatiza la importancia de comunicar el uso de datos al público para mantener la confianza. A pesar de los esfuerzos de anonimización, las personas generalmente quieren controlar sus datos y comprender su destino, lo que les hace sentir muy fuertemente sobre la ética de ello.
Los controles actuales ofrecen opciones limitadas para que los individuos opten por no participar en el uso de datos por parte de Foresight. Los datos de los conjuntos de datos del NHS recopilados a nivel nacional se utilizan para entrenar el modelo, y los mecanismos de exclusión existentes no se aplican porque los datos han sido “anonimizados”, según un portavoz de NHS England. Sin embargo, las personas que han optado por no compartir datos de su médico de familia no tendrán sus datos incluidos en el modelo.
GDPR y Anonimización de Datos
El Reglamento General de Protección de Datos (GDPR) exige que las personas tengan la opción de retirar el consentimiento para el uso de sus datos personales. Sin embargo, el proceso de entrenamiento de LLM como Foresight hace que sea imposible eliminar un solo registro de la herramienta de IA. El portavoz de NHS England afirma que GDPR no se aplica porque los datos utilizados para entrenar el modelo son anonimizados y no constituyen datos personales.
El sitio web de la Oficina del Comisionado de Información del Reino Unido aclara que los datos “anonimizados” no deben usarse indistintamente con datos anónimos, ya que la ley de protección de datos del Reino Unido no define el término, y su uso puede llevar a la confusión.
La posición legal se complica aún más por el uso actual de Foresight para la investigación relacionada con COVID-19, que permite excepciones a las leyes de protección de datos promulgadas durante la pandemia, según Sam Smith de medConfidential. Smith afirma que la IA solo para COVID probablemente contiene datos de pacientes incrustados que no deberían salir del laboratorio, y los pacientes deberían tener control sobre el uso de sus datos.
Consideraciones Éticas
Las consideraciones éticas que rodean el uso de datos médicos para el desarrollo de IA colocan a Foresight en una posición precaria. Green argumenta que la ética y las consideraciones humanas deben ser el punto de partida para el desarrollo de la IA, en lugar de una ocurrencia tardía.
Examinando las Preocupaciones Más Profundamente
Las preocupaciones que rodean el uso de registros médicos del NHS por parte de Foresight se extienden más allá de la mera privacidad de los datos. Tocan cuestiones fundamentales sobre la propiedad de la información personal de salud, el potencial de sesgo algorítmico y el impacto a largo plazo de la IA en la relación médico-paciente.
Propiedad y Control de los Datos de Salud
Uno de los dilemas éticos centrales es hasta qué punto las personas deben tener control sobre sus propios datos de salud. Si bien el NHS sin duda requiere acceso a la información del paciente para brindar una atención eficaz, el uso de estos datos para el entrenamiento de IA plantea preguntas sobre si las personas están adecuadamente informadas y facultadas para dar su consentimiento a tales usos secundarios.
Los mecanismos de exclusión actuales son insuficientes, ya que no abordan completamente las complejidades del entrenamiento de IA. El argumento de que los datos anonimizados ya no son datos personales según GDPR es una interpretación legal que pasa por alto la realidad de que incluso los datos anonimizados pueden potencialmente ser re-identificados o utilizados para extraer inferencias sobre individuos.
Un enfoque más sólido implicaría la implementación de un sistema de consentimiento informado que describa explícitamente cómo los datos del paciente pueden utilizarse para la investigación y el desarrollo de IA. Esto requeriría explicaciones claras y accesibles de los posibles beneficios y riesgos de tales usos, así como proporcionar a las personas una oportunidad significativa para optar por participar o no participar.
Sesgo Algorítmico
Otra preocupación significativa es el potencial de sesgo algorítmico en los modelos de IA entrenados en grandes conjuntos de datos. Si los datos utilizados para entrenar Foresight reflejan las disparidades de salud existentes, el modelo puede perpetuar e incluso amplificar estas desigualdades.
Por ejemplo, si ciertos grupos demográficos están subrepresentados en el conjunto de datos o si sus condiciones médicas son diagnosticadas erróneamente o no tratadas, la IA puede ser menos precisa en la predicción de enfermedades u hospitalizaciones para estos grupos. Esto podría conducir a un acceso desigual a los recursos de atención médica y potencialmente exacerbar las desigualdades de salud existentes.
Para mitigar el riesgo de sesgo algorítmico, es esencial analizar cuidadosamente los datos utilizados para entrenar Foresight e identificar y abordar cualquier sesgo potencial. Esto puede implicar el sobremuestreo de grupos subrepresentados, la corrección de inexactitudes en los datos y el desarrollo de algoritmos que estén específicamente diseñados para ser justos y equitativos.
Impacto en la Relación Médico-Paciente
El creciente uso de la IA en la atención médica tiene el potencial de alterar la relación tradicional médico-paciente de maneras profundas. Si bien la IA sin duda puede ayudar a los médicos a tomar decisiones más informadas, es crucial asegurarse de que no reemplace el elemento humano de la atención.
Los pacientes deben sentirse seguros de que sus médicos están utilizando la IA como una herramienta para mejorar su juicio clínico, no como un sustituto de él. La relación médico-paciente debe seguir siendo una de confianza, empatía y toma de decisiones compartida.
Para salvaguardar la relación médico-paciente, es importante enfatizar la importancia de la interacción humana y la comunicación en la atención médica. Los médicos deben estar capacitados para comunicar eficazmente el papel de la IA en su proceso de toma de decisiones y para abordar cualquier inquietud que puedan tener los pacientes.
Encontrando un Camino a Seguir
Navegar por el complejo panorama ético y legal que rodea a la IA en la atención médica requiere un enfoque multifacético.
- Transparencia y Participación Pública: Comunicar abiertamente cómo se utilizan los datos del paciente e involucrar al público en debates sobre las implicaciones éticas de la IA en la atención médica.
- Fortalecimiento de la Protección de Datos: Implementar medidas de protección de datos más estrictas para minimizar el riesgo de re-identificación y garantizar que las personas tengan un mayor control sobre sus datos de salud.
- Abordar el Sesgo Algorítmico: Identificar y mitigar activamente el sesgo algorítmico en los modelos de IA para garantizar un acceso equitativo a la atención médica para todos.
- Priorizar la Atención Centrada en el Ser Humano: Enfatizar la importancia de la relación médico-paciente y garantizar que la IA se utilice como una herramienta para mejorar, no para reemplazar, la interacción humana.
Al abordar estas preocupaciones, podemos aprovechar el potencial transformador de la IA en la atención médica al tiempo que salvaguardamos la privacidad del paciente, promovemos la equidad y preservamos el elemento humano de la atención. El futuro de la atención médica depende de nuestra capacidad para navegar por estos desafíos de manera responsable y ética. Sólo entonces podemos garantizar que la IA realmente sirva a los mejores intereses de los pacientes y de la sociedad en su conjunto.
El desarrollo de Foresight, un modelo de inteligencia artificial (IA), ha provocado un debate considerable debido a su dependencia de un vasto conjunto de datos de 57 millones de registros médicos del Servicio Nacional de Salud (NHS) en Inglaterra. Si bien los defensores promocionan su potencial para revolucionar la atención médica a través de la predicción de enfermedades y la previsión de hospitalizaciones, los críticos expresan serias preocupaciones sobre la privacidad del paciente y la protección de datos. Este artículo profundiza en las complejidades de Foresight, examinando sus capacidades, los dilemas éticos que presenta y las salvaguardas establecidas para mitigar los riesgos potenciales.