ChatGPT funciona bien como "socio" en el diagnóstico de pacientes

MARTES, 12 de diciembre de 2023 (HealthDay News) -- Los cerebros de los médicos son excelentes para tomar decisiones, pero incluso los médicos más inteligentes podrían beneficiarse de un poco de ayuda diagnóstica de ChatGPT, sugiere un estudio reciente.

El principal beneficio proviene de un proceso de pensamiento conocido como "razonamiento probabilístico": conocer las probabilidades de que algo suceda (o no).

ChatGPT funciona bien como "socio" en el diagnóstico de pacientes

"Los humanos tienen dificultades con el razonamiento probabilístico, la práctica de tomar decisiones basadas en el cálculo de probabilidades", explicó el autor principal del estudio, el Dr. Adam Rodman, del Centro Médico Beth Israel Deaconess, en Boston.

"El razonamiento probabilístico es uno de varios componentes de hacer un diagnóstico, que es un proceso increíblemente complejo que usa una variedad de estrategias cognitivas distintas", explicó en un comunicado de prensa de Beth Israel. "Elegimos evaluar el razonamiento probabilístico de forma aislada, porque es un área bien conocida en la que los humanos podrían usar apoyo".

El equipo de Beth Israel utilizó datos de una encuesta publicada anteriormente de 550 profesionales de la salud. A todos se les había pedido que realizaran un razonamiento probabilístico para diagnosticar cinco casos médicos distintos.

Sin embargo, en el nuevo estudio, el equipo de Rodman dio los mismos cinco casos al algoritmo de IA de ChatGPT, el Gran Modelo de Lenguaje (LLM, por sus siglas en inglés), ChatGPT-4.

Los casos incluían información de pruebas médicas comunes, como una gammagrafía de tórax para neumonía, una mamografía para el cáncer de mama, una prueba de esfuerzo para la enfermedad de las arterias coronarias y un cultivo de orina para la infección del tracto urinario.

Con base en esa información, el chatbot utilizó su propio razonamiento probabilístico para reevaluar la probabilidad de varios diagnósticos de pacientes.

De los cinco casos, el chatbot fue más preciso que el médico humano en dos; igualmente preciso para otros dos; y menos preciso para uno. Los investigadores consideraron esto un "empate" al comparar a los humanos con el chatbot para diagnósticos médicos.

Pero el chatbot ChatGPT-4 sobresalió cuando las pruebas de un paciente dieron negativo (en lugar de positivo), volviéndose más preciso en el diagnóstico que los médicos en los cinco casos.

"Los humanos a veces sienten que el riesgo es más alto de lo que es después de un resultado negativo de la prueba, lo que puede conducir a un tratamiento excesivo, más pruebas y demasiados medicamentos", apuntó Rodman. Es médico de medicina interna e investigador en el departamento de medicina de Beth Israel.

El estudio aparece en la edición del 11 de diciembre de la revista JAMA Network Open.

Es posible entonces que algún día los médicos trabajen en conjunto con la IA para ser aún más precisos en el diagnóstico de los pacientes, dijeron los investigadores.

Rodman calificó esa perspectiva de "emocionante".

"Incluso si son imperfectos, la facilidad de uso [de los chatbots] y su capacidad para integrarse en los flujos de trabajo clínicos podrían, en teoría, hacer que los humanos tomen mejores decisiones", dijo. "La investigación futura sobre la inteligencia humana y artificial colectiva es muy necesaria".

Más información

Obtenga más información sobre IA y medicina en la Universidad de Harvard.

FUENTE: Centro Médico Beth Israel Deaconess, comunicado de prensa, 11 de diciembre de 2023

Comparte tu opinión