ChatGPT podría diagnosticar a los pacientes tan bien como los médicos, según estudio

Chat GPT
Foto: webperfection

Una investigación publicada en la revista Annals of Emergency Medicine, revela que el chatbot de inteligencia artificial (IA) ChatGPT diagnostica a los pacientes tan bien como los médicos con experiencia. Esta tecnología se presentará en el Congreso Europeo de Medicina de Urgencias y Emergencias que comienza este fin de semana.

Los investigadores del Hospital Jeroen Bosch de los Países Bajos introdujeron en dos versiones de ChatGPT las notas de los médicos e información anónima sobre 30 pacientes, incluidos exámenes, síntomas y resultados de laboratorio.

Descubrieron un solapamiento de alrededor del 60% entre la lista de posibles diagnósticos de los médicos de urgencias y el chatbot.

También puede leer:

TikTok es multado por la Unión Europea por incumplir las normas de protección de datos

«Descubrimos que ChatGPT funcionaba bien a la hora de generar una lista de diagnósticos probables y sugerir la opción más probable«, afirma en un comunicado Hidde ten Berg, autor del estudio y miembro del servicio de urgencias del Hospital Jeroen Bosch.

«También encontramos un gran solapamiento con las listas de diagnósticos probables de los médicos. En pocas palabras, esto indica que ChatGPT fue capaz de sugerir diagnósticos médicos de forma muy parecida a como lo haría un médico humano».

Los médicos de urgencias tenían el diagnóstico correcto en sus cinco primeras listas el 87% de las veces, mientras que la versión 3.5 de ChatGPT tenía el diagnóstico correcto en su lista el 97% de las veces, frente al 87% de la versión 4.0 de ChatGPT.

Esta herramienta no es un dispositivo médico

La investigación no se utilizó para repercutir en los pacientes, sino para probar el potencial o la viabilidad del uso de la IA generativa para el diagnóstico.

Pero no es algo que vaya a estar disponible para su uso clínico todavía.

«Uno de los problemas, al menos en Europa… es que la legislación es muy dura», dijo a Euronews Next el autor del estudio, Steef Kurstjens, del Departamento de Química Clínica y Hematología del Hospital Jeroen Bosch.

«Así que este tipo de herramientas no son dispositivos médicos. Así que si las usas para afectar a la atención al paciente, estás usando una herramienta que no es un dispositivo médico como un dispositivo médico, y eso no está permitido. Por tanto, creo que es necesario [aprobar] una nueva legislación si se quiere utilizar esto», añadió.

La privacidad de los datos de los pacientes es otra de las grandes preocupaciones en torno al uso de la IA generativa en la atención sanitaria, y algunos expertos instan a los responsables políticos a tratar de reducir cualquier riesgo potencial a través de la regulación.

Fuente: Euronews