DeepSeek busca internos para IA médica

Chinese AI startup DeepSeek is actively recruiting interns to meticulously label medical data, aiming to enhance the precision and reliability of AI applications within hospital settings. This move underscores the escalating integration of AI, particularly open-source models, in Chinese healthcare, where they’re being utilized for generating diagnoses and prescriptions. However, it also comes amid growing scrutiny of the potential risks associated with the rapid deployment of these technologies.

La Oportunidad de Pasantía: Una Inmersión Profunda

El programa de pasantías de DeepSeek ofrece una compensación diaria de 500 yuanes (aproximadamente US$70) a personas capaces de comprometerse a una semana laboral de cuatro días. La responsabilidad principal de estos pasantes gira en torno al etiquetado de datos médicos, específicamente para aplicaciones relacionadas con herramientas de “diagnóstico auxiliar avanzado”. Estos puestos tienen su sede en Beijing, lo que coloca a los pasantes en el corazón de las operaciones de DeepSeek y a la vanguardia del panorama del desarrollo de la IA en China.

La oferta de trabajo en Boss, una popular plataforma de reclutamiento, describe las calificaciones específicas para los posibles pasantes. Los candidatos ideales poseen una sólida formación médica, típicamente evidenciada por la inscripción como estudiante de pregrado de cuarto año o la posesión de una maestría. Además, el rol requiere familiaridad con los large language models (LLMs), dominio de la escritura de código Python y la capacidad de crear prompts efectivos para modelos de AI grandes. Este conjunto de habilidades multifacéticas refleja la naturaleza compleja del trabajo involucrado, que requiere tanto conocimiento médico como experiencia técnica.

Responsabilidades Clave de los Pasantes

  • Etiquetado detallado de datos: Asignar etiquetas precisas y consistentes a los datos médicos, asegurando que los modelos de AI estén entrenados con información de alta calidad.
  • Competencia en LLM: Trabajar con large language models para comprender sus capacidades y limitaciones en el contexto médico.
  • Codificación en Python: Utilizar Python para manipular datos, automatizar procesos y potencialmente contribuir al desarrollo de algoritmos de AI.
  • Ingeniería de prompts: Crear prompts efectivos que obtengan respuestas precisas y relevantes de los modelos de AI, particularmente en escenarios de diagnóstico.

Adopción de la IA de DeepSeek en Hospitales Chinos

Esta iniciativa se alinea con una tendencia más amplia de los hospitales chinos que adoptan modelos de AI de código abierto de compañías como DeepSeek. Estos sistemas de AI se están aprovechando para ayudar a generar diagnósticos y recetas, lo que podría agilizar los flujos de trabajo y mejorar la atención al paciente. A partir de marzo, se estima que 300 hospitales en toda China ya habían comenzado a incorporar los LLM de DeepSeek en sus diagnósticos clínicos y sistemas de apoyo a la toma de decisiones médicas.

El atractivo de la IA en el cuidado de la salud proviene de su potencial para:

  • Mejorar la precisión del diagnóstico: Los algoritmos de AI pueden analizar grandes cantidades de datos médicos para identificar patrones y anomalías que podrían pasar desapercibidas para los clínicos humanos.
  • Acelerar el diagnóstico: La IA puede acelerar el proceso de diagnóstico, lo que lleva a un tratamiento más rápido y potencialmente a mejores resultados para el paciente.
  • Personalizar los planes de tratamiento: La IA puede analizar los datos individuales del paciente para adaptar los planes de tratamiento a sus necesidades y circunstancias específicas.
  • Reducir los costos de atención médica: Al automatizar tareas y mejorar la eficiencia, la IA puede contribuir a reducir los costos de atención médica.

Preocupaciones y Críticas con Respecto a la Rápida Adopción de la IA

A pesar de los beneficios potenciales, la rápida adopción de la IA de DeepSeek por parte de los hospitales no ha estado exenta de detractores. Un equipo de investigadores chinos ha expresado su preocupación por los posibles riesgos clínicos de seguridad y privacidad asociados con esta implementación generalizada.

En un artículo publicado en la estimada revista médica JAMA (Journal of the American Medical Association), los investigadores advirtieron contra la aceptación acrítica de la IA en el cuidado de la salud. Destacaron la propensión de DeepSeek a generar “resultados plausibles pero factuales incorrectos”, un fenómeno comúnmente conocido como “alucinaciones” en la comunidad de IA. Esta tendencia, argumentaron, podría conducir a un “riesgo clínico sustancial”, que podría comprometer la seguridad y el bienestar del paciente.

El equipo de investigación incluyó figuras prominentes en la comunidad china de investigación médica, como Wong Tien Yin, el jefe fundador de Tsinghua Medicine, un consorcio de escuelas de investigación médica en la Universidad de Tsinghua en Beijing. Su participación otorga una credibilidad significativa a las preocupaciones planteadas.

Posibles Riesgos Destacados por los Investigadores

  • Alucinaciones de AI: La generación de información faktualmente incorrecta o engañosa por parte de los modelos de AI, lo que podría conducir a un diagnóstico erróneo o un tratamiento inapropiado.
  • Preocupaciones sobre la privacidad de los datos: El riesgo de que los datos confidenciales del paciente se vean comprometidos o mal utilizados por los sistemas de AI.
  • Falta de transparencia: La naturaleza de “caja negra” de algunos algoritmos de AI, lo que dificulta la comprensión de cómo llegan a sus conclusiones.
  • Sesgo en los algoritmos de AI: El potencial de que los algoritmos de AI perpetúen o amplifiquen los sesgos existentes en el cuidado de la salud, lo que lleva a disparidades en los resultados del tratamiento.
  • Dependencia excesiva de la AI: El riesgo de que los profesionales de la salud se vuelvan demasiado dependientes de la AI, lo que podría disminuir sus habilidades de pensamiento crítico y juicio clínico.

Respuesta de DeepSeek: Abordar las Alucinaciones de AI

Reconociendo la validez de estas preocupaciones, DeepSeek ha incorporado medidas para abordar el problema de las alucinaciones de AI en sus aplicaciones médicas. En la descripción del trabajo publicada en Boss, la compañía declaró explícitamente que los pasantes desempeñarán un papel crucial en la mejora de las capacidades médicas de DeepSeek, incluida la mejora del conocimiento médico de los modelos y la minimización de las alucinaciones en las preguntas y respuestas médicas.

Este enfoque proactivo sugiere que DeepSeek está comprometido con el desarrollo de sistemas de AI que no solo sean poderosos sino también confiables y seguros para su uso en entornos clínicos. Al centrarse en mitigar las alucinaciones y mejorar la precisión de la información médica, DeepSeek tiene como objetivo generar confianza entre los profesionales de la salud y garantizar la adopción responsable de la AI en el cuidado de la salud.

Estrategias para Minimizar las Alucinaciones de AI

  • Aumento de datos: Ampliar el conjunto de datos de entrenamiento con información médica diversa y de alta calidad para mejorar la base de conocimiento del modelo.
  • Mecanismos de verificación de hechos: Incorporar mecanismos para verificar la precisión de la información generada por el modelo de AI con fuentes médicas confiables.
  • Aprendizaje por refuerzo: Entrenar al modelo de AI para priorizar la precisión y evitar generar información especulativa o no fundamentada.
  • Supervisión humana: Implementar sistemas que permitan a los clínicos humanos revisar y validar los resultados del modelo de AI, asegurando que sean precisos y apropiados.
  • AI explicable (XAI): Desarrollar algoritmos de AI que proporcionen explicaciones de sus decisiones, lo que facilita a los clínicos la comprensión y la confianza en las recomendaciones de la AI.

El Perfil Ideal del Interno: Habilidades y Responsabilidades

Los solicitantes exitosos para estas pasantías deberán poseer un conjunto de habilidades multifacéticas, que abarquen tanto el conocimiento médico como la experiencia técnica. Serán responsables de:

  • Diseñar modelos para preguntas médicas: Elaborar la estructura y los parámetros de los modelos de AI que puedan responder eficazmente a las consultas médicas.
  • Concebir procesos de evaluación para las capacidades médicas del modelo: Desarrollar métodos para evaluar la precisión, la confiabilidad y la seguridad de los modelos de AI en contextos médicos.

El candidato ideal demostrará:

  • Una sólida comprensión de la terminología y los conceptos médicos: esencial para etiquetar con precisión los datos médicos y evaluar el rendimiento de los modelos de AI.
  • Dominio de lenguajes de programación como Python: Necesario para manipular datos, construir modelos de AI y automatizar tareas.
  • Experiencia trabajando con large language models: familiaridad con las fortalezas y limitaciones de los LLM en el dominio médico.
  • Excelentes habilidades de comunicación y colaboración: crucial para trabajar eficazmente con otros pasantes, investigadores y profesionales de la salud.
  • Un compromiso con el desarrollo ético de la AI: una comprensión profunda de las consideraciones éticas que rodean el uso de la AI en el cuidado de la salud, incluida la privacidad de los datos, el sesgo y la transparencia.

El Futuro de la IA en la Asistencia Sanitaria: Un Optimismo Cauteloso

El programa de prácticas de DeepSeek representa un paso importante hacia la integración de la IA en la asistencia sanitaria. Al invertir en la anotación de datos y el refinamiento de modelos, DeepSeek está trabajando para mejorar la precisión y la fiabilidad de sus sistemas de IA. Sin embargo, las preocupaciones planteadas por los investigadores chinos subrayan la necesidad de precaución y de una cuidadosa consideración de los posibles riesgos que conlleva.

El futuro de la IA en la asistencia sanitaria depende de la capacidad de:

  • Desarrollar sistemas de IA que sean a la vez potentes y fiables.
  • Abordar las consideraciones éticas que rodean el uso de la IA en la asistencia sanitaria.
  • Garantizar que la IA se utiliza para aumentar, no para sustituir, a los clínicos humanos.
  • Promover la transparencia y la explicabilidad en los algoritmos de IA.
  • Fomentar la colaboración entre los desarrolladores de IA, los profesionales de la salud y los reguladores.

Con un enfoque en el desarrollo y la aplicación responsables, la IA tiene el potencial de revolucionar la asistencia sanitaria, mejorar los resultados de los pacientes y transformar la forma en que se practica la medicina.

La Oportunidad de Prácticas: Un Análisis Detallado

El programa de prácticas de DeepSeek ofrece una remuneración diaria de 500 yuanes (aproximadamente 70 dólares estadounidenses) a personas capaces de comprometerse a una semana laboral de cuatro días. La responsabilidad principal de estos becarios gira en torno al etiquetado de datos médicos, concretamente para aplicaciones relacionadas con herramientas de “diagnóstico auxiliar avanzado”. Estos puestos tienen su sede en Pekín, lo que sitúa a los becarios en el centro de las operaciones de DeepSeek y a la vanguardia del panorama del desarrollo de la IA en China.

La oferta de empleo en Boss, una popular plataforma de contratación, describe las cualificaciones específicas para los posibles becarios. Los candidatos ideales poseen una sólida formación médica, normalmente demostrada por la inscripción como estudiante de cuarto año de licenciatura o la posesión de un máster. Además, la función requiere familiaridad con los grandes modelos lingüísticos (LLM), dominio de la escritura de código Python y la capacidad de elaborar mensajes eficaces para los grandes modelos de IA. Este conjunto de habilidades multifacético refleja la naturaleza compleja del trabajo, que requiere tanto conocimientos médicos como experiencia técnica.

Las principales responsabilidades de los becarios

  • Etiquetado detallado de datos: Asignar etiquetas precisas y coherentes a los datos médicos, garantizando que los modelos de IA se entrenen con información de alta calidad.
  • Dominio de los LLM: Trabajar con grandes modelos lingüísticos para comprender sus capacidades y limitaciones en el contexto médico.
  • Codificación en Python: Utilizar Python para manipular datos, automatizar procesos y potencialmente contribuir al desarrollo de algoritmos de IA.
  • Ingeniería de mensajes: Elaborar mensajes eficaces que obtengan respuestas precisas y pertinentes de los modelos de IA, especialmente en situaciones de diagnóstico.

Adopción de la IA de DeepSeek en los hospitales chinos

Esta iniciativa está en consonancia con una tendencia más amplia de los hospitales chinos a adoptar modelos de IA de código abierto de empresas como DeepSeek. Estos sistemas de IA se están aprovechando para ayudar a generar diagnósticos y prescripciones, lo que podría agilizar los flujos de trabajo y mejorar la atención al paciente. A partir de marzo, se calcula que 300 hospitales de toda China ya han empezado a incorporar los LLM de DeepSeek a sus diagnósticos clínicos y sistemas de apoyo a la toma de decisiones médicas.

El atractivo de la IA en la asistencia sanitaria se debe a su potencial para:

  • Mejorar la precisión del diagnóstico: Los algoritmos de IA pueden analizar grandes cantidades de datos médicos para identificar patrones y anomalías que podrían pasar desapercibidos para los médicos humanos.
  • Acelerar el diagnóstico: La IA puede acelerar el proceso de diagnóstico, lo que permite un tratamiento más rápido y podría mejorar los resultados de los pacientes.
  • Personalizar los planes de tratamiento: La IA puede analizar los datos de cada paciente para adaptar los planes de tratamiento a sus necesidades y circunstancias específicas.
  • Reducir los costes sanitarios: Automatizando tareas y mejorando la eficiencia, la IA puede contribuir a reducir los costes sanitarios.

Preocupaciones y críticas con respecto a la rápida adopción de la IA

A pesar de las posibles ventajas, la rápida adopción de la IA de DeepSeek por parte de los hospitales no ha estado exenta de detractores. Un equipo de investigadores chinos ha manifestado su preocupación por los posibles riesgos clínicos de seguridad y privacidad asociados a esta aplicación generalizada.

En un artículo publicado en la prestigiosa revista médica JAMA (Journal of the American Medical Association), los investigadores advirtieron contra la aceptación acrítica de la IA en la asistencia sanitaria. Destacaron la propensión de DeepSeek a generar “resultados plausibles pero fácticamente incorrectos”, un fenómeno comúnmente denominado “alucinaciones” en la comunidad de la IA. Esta tendencia, argumentaron, podría entrañar un “riesgo clínico sustancial”, comprometiendo potencialmente la seguridad y el bienestar de los pacientes.

El equipo de investigación incluía a figuras destacadas de la comunidad china de investigación médica, como Wong Tien Yin, jefe fundador de Tsinghua Medicine, un consorcio de escuelas de investigación médica de la Universidad de Tsinghua en Pekín. Su participación confiere una credibilidad significativa a las preocupaciones planteadas.

Posibles riesgos señalados por los investigadores

  • Alucinaciones de la IA: La generación de información fácticamente incorrecta o engañosa por parte de los modelos de IA, que podría conducir a un diagnóstico erróneo o a un tratamiento inadecuado.
  • Preocupaciones por la privacidad de los datos: El riesgo de que los datos confidenciales de los pacientes se vean comprometidos o mal utilizados por los sistemas de IA.
  • Falta de transparencia: La naturaleza de “caja negra” de algunos algoritmos de IA, que dificulta la comprensión de cómo llegan a sus conclusiones.
  • Sesgo en los algoritmos de IA: El potencial de que los algoritmos de IA perpetúen o amplifiquen los sesgos existentes en la asistencia sanitaria, lo que conduce a disparidades en los resultados del tratamiento.
  • Dependencia excesiva de la IA: El riesgo de que los profesionales sanitarios se vuelvan excesivamente dependientes de la IA, lo que podría disminuir sus habilidades de pensamiento crítico y su juicio clínico.

Respuesta de DeepSeek: abordando las alucinaciones de la IA

Reconociendo la validez de estas preocupaciones, DeepSeek ha incorporado medidas para abordar el problema de las alucinaciones de la IA en sus aplicaciones médicas. En la descripción del puesto publicada en Boss, la empresa declaró explícitamente que los becarios desempeñarán un papel crucial en la mejora de las capacidades médicas de DeepSeek, incluida la mejora del conocimiento médico de los modelos y la minimización de las alucinaciones en las preguntas y respuestas médicas.

Este enfoque proactivo sugiere que DeepSeek está comprometido con el desarrollo de sistemas de IA que no sólo sean potentes, sino también fiables y seguros para su uso en entornos clínicos. Al centrarse en la mitigación de las alucinaciones y la mejora de la precisión de la información médica, DeepSeek pretende generar confianza entre los profesionales sanitarios y garantizar la adopción responsable de la IA en la asistencia sanitaria.

Estrategias para minimizar las alucinaciones de la IA

  • Aumento de datos: Ampliación del conjunto de datos de formación con información médica diversa y de alta calidad para mejorar la base de conocimientos del modelo.
  • Mecanismos de comprobación de hechos: Incorporación de mecanismos para verificar la exactitud de la información generada por el modelo de IA contrastándola con fuentes médicas fiables.
  • Aprendizaje por refuerzo: Formación del modelo de IA para priorizar la precisión y evitar la generación de información especulativa o no fundamentada.
  • Supervisión humana: Implantación de sistemas que permitan a los médicos humanos revisar y validar los resultados del modelo de IA, garantizando que sean precisos y apropiados.
  • IA explicable (XAI): Desarrollo de algoritmos de IA que proporcionen explicaciones de sus decisiones, lo que facilita a los clínicos la comprensión y la confianza en las recomendaciones de la IA.

El perfil ideal del becario: habilidades y responsabilidades

Los candidatos seleccionados para estas prácticas deberán poseer un conjunto de habilidades multifacético, que abarque tanto conocimientos médicos como experiencia técnica. Serán responsables de:

  • Diseñar modelos para preguntas médicas: Elaborar la estructura y los parámetros de los modelos de IA que puedan responder eficazmente a las consultas médicas.
  • Concebir procesos de evaluación para las capacidades médicas del modelo: Desarrollar métodos para evaluar la precisión, la fiabilidad y la seguridad de los modelos de IA en contextos médicos.

El candidato ideal demostrará:

  • Una sólida comprensión de la terminología y los conceptos médicos: esencial para etiquetar con precisión los datos médicos y evaluar el rendimiento de los modelos de IA.
  • Dominio de lenguajes de programación como Python: Necesario para manipular datos, construir modelos de IA y automatizar tareas.
  • Experiencia trabajando con grandes modelos lingüísticos: Familiaridad con los puntos fuertes y las limitaciones de los LLM en el ámbito médico.
  • Excelentes habilidades de comunicación y colaboración: Crucial para trabajar eficazmente con otros becarios, investigadores y profesionales sanitarios.
  • Un compromiso con el desarrollo ético de la IA: Una comprensión profunda de las consideraciones éticas que rodean el uso de la IA en la asistencia sanitaria, incluida la privacidad de los datos, el sesgo y la transparencia.

El futuro de la IA en la asistencia sanitaria: un optimismo cauto

El programa de prácticas de DeepSeek representa un paso significativo hacia la integración de la IA en la asistencia sanitaria. Al invertir en la anotación de datos y el perfeccionamiento de modelos, DeepSeek está trabajando para mejorar la precisión y la fiabilidad de sus sistemas de IA. Sin embargo, las preocupaciones planteadas por los investigadores