Alerta médica con ChatGPT Health: falla en el 52% de las emergencias y pone en riesgo al usuario

La reciente evaluación independiente realizada por investigadores de la Escuela de Medicina Icahn del Mount Sinai reveló que ChatGPT Health, el sistema lanzado por OpenAI en enero de 2026 con la promesa de revolucionar el triaje y la orientación médica digital, todavía presenta fisuras preocupantes a la hora de clasificar emergencias médicas y derivar adecuadamente a los pacientes.

Según el estudio, la herramienta digital de inteligencia artificial exhibe serias limitaciones en su capacidad para identificar los casos que requieren atención médica urgente, lo que cuestiona su idoneidad para el uso directo por parte de consumidores sin una supervisión especializada.

Qué dicen los datos sobre la tasa de fracaso
La investigación se centró en 960 escenarios médicos simulados, elaborados a partir de 60 viñetas diseñadas por médicos de distintas especialidades y cubrieron 21 áreas clínicas. Un dato clave del informe sitúa la tasa de fallo en casos de emergencia en 52%, mientras que en presentaciones no urgentes se observó una tasa de fallo de 35%.

En otras palabras, según los investigadores, cerca de la mitad de las situaciones de urgencia médica no fueron correctamente identificadas ni derivadas a servicios de atención de emergencias por la inteligencia artificial.

La herramienta demostró mayor fortaleza al identificar emergencias reconocidas, como los accidentes cerebrovasculares y las reacciones alérgicas graves, mientras que en cuadros clínicos menos habituales pero igual de críticos, como la cetoacidosis diabética o la insuficiencia respiratoria inminente, la tasa de error ascendió al 52%.

Además, el análisis demostró que ciertos factores, como la tendencia de algunos usuarios a minimizar sus síntomas al reportarlos, aumentaban las probabilidades de que ChatGPT Health sugiriera cuidados de menor urgencia.

 

Qué riesgos hay ante la falla de ChatGPT Health en sus respuestas

Dentro del estudio, uno de los fallos más delicados detectados fue la omisión, por parte de ChatGPT Health, de derivar de forma consistente a los usuarios con ideación suicida a la línea directa de crisis 988.

De acuerdo con los autores, “la capacidad de reconocer las crisis de salud mental y conectar a los usuarios con recursos para crisis es un requisito fundamental para cualquier plataforma de salud para el consumidor. Nuestros datos muestran que este requisito no se ha cumplido de forma fiable”.

El sistema era menos proclive a sugerir la línea de atención ante crisis cuando los pacientes describían un plan concreto de autolesión, justamente en casos donde la intervención inmediata resulta crítica.

Isaac S. Kohane, director del Departamento de Informática Biomédica de la Facultad de Medicina de Harvard, quien no participó en el estudio, advirtió sobre la importancia de evaluaciones externas permanentes para estos sistemas.

Kohane afirmó que “cuando millones de personas utilizan un sistema de IA para decidir si necesitan atención de emergencia, hay mucho en juego. La evaluación independiente debería ser rutinaria, no opcional”.

Por qué crece el debate sobre el rol de la inteligencia artificial en la atención médica
Antes del lanzamiento de ChatGPT Health, OpenAI había reportado que alrededor del 25% de los 800 millones de usuarios semanales de ChatGPT realizaban al menos una consulta médica, lo que equivale a unos 40 millones de usuarios que ya utilizan activamente la plataforma con fines sanitarios.

Ashwin Ramaswamy, profesor de Urología en la Escuela de Medicina Icahn del Monte Sinaí y autor principal del estudio, manifestó la motivación detrás de la investigación.

“Queríamos responder a una pregunta muy básica pero crucial: si alguien sufre una emergencia médica real y acude a ChatGPT Health en busca de ayuda, ¿le indicará claramente que debe acudir a urgencias?”, dijo.

Si bien los responsables del estudio no sugieren prohibir el uso de estas plataformas, insisten en que los profesionales de la salud deben instruir a los pacientes en su empleo y en los posibles riesgos asociados.

A dónde acuden las personas durante una emergencia médica
Según datos del informe, el 73% de los pacientes continúa acudiendo en primera instancia a sus médicos para obtener información sobre salud, frente a solo 16% que recurre a inteligencia artificial.

Asimismo, en palabras de Alvira Tyagi, estudiante de medicina y coautora del estudio: “Estos sistemas están cambiando rápidamente, así que parte de nuestra capacitación ahora debe considerar aprender a comprender críticamente sus resultados, identificar dónde fallan y utilizarlos de manera que protejan a los pacientes”.

Mientras la integración de herramientas como ChatGPT Health en la atención médica avanza aceleradamente, los expertos destacan que su desarrollo aún atraviesa una fase incipiente y que será tarea de los proveedores de salud establecer pautas para su utilización segura por parte de los pacientes.