De la consulta al algoritmo: así cambia la relación con la salud

Copilot se ha convertido en una herramienta clave para resolver dudas de salud, entender informes y ofrecer apoyo emocional. Esto conlleva beneficios, pero también riesgos, para la ciudadanía

Más allá de las búsquedas tradicionales en internet, millones de personas recurren cada día a sistemas como Copilot para resolver dudas relacionadas con síntomas, tratamientos, hábitos de bienestar o preparación de consultas médicas. Según Microsoft, este tipo de preguntas se encuentra entre las más frecuentes en su asistente de IA.

Este fenómeno abre un debate social de fondo: ¿puede la IA democratizar el acceso a la información sanitaria sin poner en riesgo la seguridad de las personas? Organismos como la Organización Mundial de la Salud (OMS) recuerdan que estas tecnologías pueden ser útiles, pero también peligrosas si se despliegan sin supervisión adecuada. La cuestión ya no es si la ciudadanía usa IA para temas de salud -porque ya lo hace-, sino cómo garantizar que ese uso sea responsable, seguro y equitativo.

Copilot como nuevo intermediario sanitario

En su informe AI and Health: How people are using Copilot for health, Microsoft reconoce que una parte muy significativa de las consultas diarias al asistente está relacionada con el bienestar físico y mental. No se trata de un fenómeno marginal: son millones de preguntas al día. Y el perfil del usuario es diverso: cuidadores, padres primerizos, pacientes crónicos, jóvenes que buscan información rápida y personas mayores acompañadas por familiares. Copilot se ha convertido en una especie de enfermera digital disponible 24/7, capaz de traducir información médica compleja a un lenguaje accesible.

¿Para qué se usa? Según Microsoft y estudios publicados en JAMA y Nature Medicine, las consultas se concentran en cuatro grandes bloques:

  • Traductor médico: “Explícame este informe como si tuviera 10 años”.
  • Preparador de citas: “¿Qué debería preguntarle a mi cardiólogo mañana?”.
  • Detector de dudas: “¿Es normal este síntoma después de empezar X medicación?”.
  • Coach de bienestar: recomendaciones sobre sueño, alimentación, ansiedad o ejercicio.

Estas funciones no sustituyen a un profesional sanitario, pero sí ayudan a las personas a llegar mejor preparadas a la consulta, entender sus informes o reducir la incertidumbre inicial.

Pero la IA no solo acompaña al paciente en casa: también empieza a integrarse en entornos clínicos. Microsoft colabora con Epic Systems, líder en historia clínica electrónica, y con Paige.AI, especializada en diagnóstico por imagen, para incorporar Copilot en flujos de trabajo médicos. La OMS, en su guía de 2024 sobre IA multimodal en salud, advierte que estas herramientas pueden mejorar la eficiencia, pero requieren auditorías, transparencia y supervisión humana constante.

Impactos en la sociedad

  • Rompe barreras de acceso. Para quienes viven en zonas rurales o no tienen un médico de cabecera accesible, Copilot ofrece un primer recurso informativo que reduce desigualdades.
  • Empodera al paciente. Comprender la propia enfermedad mejora la adherencia a los tratamientos y fortalece la relación con el profesional sanitario.
  • Calma la ansiedad (bien usada). Frente al “Dr. Google”, que tiende a alarmar, Copilot ofrece respuestas más matizadas y contextualizadas.
  • Salud mental más accesible. Para muchas personas, preguntar por primera vez sobre ansiedad o depresión a una IA es más fácil que verbalizarlo ante otra persona.

Posibles desafíos

  • Alucinaciones con bata blanca. La IA puede inventarse medicamentos, dosis o diagnósticos con total seguridad. En salud, un error no es un detalle: es un riesgo.
  • El peligro del autodiagnóstico. Interpretar mal una respuesta puede llevar a automedicación o a ignorar síntomas graves.
  • Brecha digital sanitaria. Quienes no saben usar estas herramientas pueden quedar en desventaja, ampliando desigualdades ya existentes.
  • Reguladores marcando terreno. La OMS alertó en 2024 de que estos sistemas deben usarse con supervisión. La Unión Europea, con su AI Act, clasifica varios usos sanitarios como “de alto riesgo”, obligando a auditorías, trazabilidad y controles estrictos.
  • Posibles sesgos. Muchos modelos se entrenan con datos dominados por hombres blancos, lo que puede traducirse en peores respuestas para mujeres, personas racializadas o personas mayores.

Conceptos clave

  • IA generativa: tecnología que produce texto, imágenes o audio a partir de grandes modelos entrenados.
  • Copilot: asistente de IA de Microsoft basado en modelos de lenguaje avanzados.
  • Alucinación: cuando la IA se inventa una respuesta y la presenta como cierta.
  • Sesgo algorítmico: errores sistemáticos derivados de datos de entrenamiento poco representativos.