Este contenido ha sido archivado y puede no estar actualizado

¿Puede ChatGPT ofrecer consejos precisos sobre el cáncer de mama a las mujeres?

LUNES, 10 de abril de 2023 (HealthDay News) -- ChatGPT, el chatbot de inteligencia artificial (IA) del que todo el mundo habla, puede con frecuencia ofrecer respuestas fiables a preguntas sobre el cáncer de mama, encuentra un estudio reciente. Pero todavía no está listo para reemplazar al médico.

Según los expertos, la gran salvedad es que la información no siempre es fiable, u ofrece solo una pequeña parte de la historia. Entonces, al menos por ahora, recomendaron llevarle sus preguntas médicas a su médico humano.

¿Puede ChatGPT ofrecer consejos precisos sobre el cáncer de mama a las mujeres?

ChatGPT es un chatbot impulsado por tecnología de IA, que le permite tener conversaciones parecidas a las humanas, y que genera al instante respuestas a casi cualquier tema que una persona pueda imaginarse. Estas respuestas se basan en el "preentrenamiento" del chatbot con una masiva cantidad de datos, lo que incluye información recopilada de internet.

La tecnología se lanzó el noviembre pasado, y en un plazo de dos meses tuvo la cifra récord de 100 millones de usuarios mensuales, según un informe del banco de inversiones UBS.

ChatGPT también llegó a los titulares al supuestamente sacar excelentes calificaciones en las pruebas de entrada para la universidad (SAT), e incluso porque pasó un examen para una licencia médica en EE. UU.

A pesar de la sugerencia de que el chatbot podría ser su médico, todavía dista mucho de estar claro si provee a los usuarios una información médica fiable.

El nuevo estudio, que se publicó en la edición del 4 de abril de la revista Radiology, evaluó la capacidad del chatbot de responder a algunas preguntas "fundamentales" sobre las pruebas de detección y la prevención del cáncer de mama.

Encontró que, en general, la tecnología proveyó respuestas adecuadas un 88 por ciento de las veces. Es difícil saber si esto supera a una búsqueda en Google, o a su médico.

Pero la tasa de precisión es "bastante impresionante", aseguró el investigador sénior, el Dr. Paul Yi, profesor asistente de radiología diagnóstica y medicina nuclear de la Facultad de Medicina de la Universidad de Maryland.

Dicho esto, Yi también apuntó a los límites de ChaptGPT tal como se conoce ahora. Afirmó que una es que, cuando el tema son la salud y la medicina, una tasa de error de incluso apenas un 10 por ciento podría resultar nociva.

Más allá de esto, el atractivo de ChatGPT (su capacidad de reunir con rapidez una variedad de datos y convertirlos en un "chat") también tiene su desventaja. Sus respuestas a preguntas complejas, apuntó Yi, tienen un alcance limitado. Incluso cuando técnicamente son correctas, pueden ofrecer una perspectiva sesgada.

El equipo de Yi encontró que esto era cierto cuando preguntaron a ChatGPT sobre las pruebas de detección del cáncer de mama. La respuesta ofrecía solo las recomendaciones de la Academia Americana Contra El Cáncer (American Cancer Society), pero omitía las de otros grupos médicos, que, en algunos casos, son distintas.

Y el usuario promedio de ChatGPT, dijo Yi, quizá no sepa lo suficiente como para hacer preguntas de seguimiento, o cómo verificar si la respuesta es incluso precisa.

Yi señaló que piensa que la naturaleza conversacional de ChatGPT es una ventaja de la tecnología, en comparación con las búsquedas de internet a la antigua usanza.

"La desventaja es que en realidad no se puede verificar la precisión de la información", indicó.

Por supuesto, anotó Yi, la precisión de la información en línea siempre ha sido un problema. La diferencia respecto a ChatGPT es la forma en que se presenta. Y el atractivo de la tecnología, su tono conversacional, también puede resultar bastante "convincente", aseguró Yi.

"Como sucede con cualquier tecnología nueva, pienso que las personas deben tomársela con un grano de sal", aconsejó Yi.

En el estudio, el equipo de Yi reunió 25 preguntas que las pacientes hacen con frecuencia sobre la prevención y las pruebas de detección del cáncer de mama, y entonces se las presentaron a ChatGPT. Hicieron cada pregunta tres veces, para ver si y cómo las respuestas variaban.

En general, el chatbot ofreció respuestas adecuadas a 22 preguntas, y respuestas poco fiables a tres. Ofreció información obsoleta a una pregunta: "¿Debo planificar mi mamografía teniendo en cuenta la vacunación contra la COVID?". Las respuestas a otras dos fueron inconstantes entre las tres pruebas.

Una de estas preguntas, "¿Cómo prevengo el cáncer de mama?", era amplia y compleja, con mucha información (tanto factual como no) disponible en internet.

Y esto es clave, aseguró Subodha Kumar, profesor de estadísticas, operaciones y ciencias de los datos de la Facultad de Negocios Fox de la Universidad de Temple, en Filadelfia.

Mientras más precisa es la pregunta, aseguró, más fiable será la respuesta. Cuando el tema es complejo, y las fuentes de datos abundan y en algunos casos son cuestionables, las respuestas serán menos fiables y es más probable que estén sesgadas.

Y mientras más complicado es el tema, advirtió Kumar, más probable es que ChatGPT "alucine". Este es un término que se utiliza para describir la tendencia documentada del chatbot a "inventarse cosas", anotó.

Kumar, que no participó en el nuevo estudio, enfatizó que las respuestas ofrecidas por ChatGPT son solo tan buenas como la información que se le ha introducido, y que se le continúa introduciendo. "Y no hay garantía de que se introduzca información precisa", dijo.

Con el paso del tiempo, el chatbot reunirá más datos, incluso de los usuarios, anotó Kumar, así que es posible que la precisión pueda empeorar, en lugar de mejorar.

"Cuando el tema es la atención de la salud, esto puede resultar peligroso", advirtió.

Ambos investigadores piensan que ChatGPT y tecnologías similares tienen un gran potencial. Para Kumar, el chatbot podría, por ejemplo, ser un buen "dispositivo de asistencia" para que los médicos busquen rápidamente información sobre un tema, pero que también tendrían que contar con el conocimiento para poner la repuesta en perspectiva.

Kumar añadió que "desaconsejaría al consumidor promedio que lo use para obtener información sobre la atención de la salud".

Más información

El Centro de Investigación Pew ofrece más información sobre la tecnología de IA.

Artículo por HealthDay, traducido por HolaDoctor.com

FUENTES: Paul H. Yi, MD, assistant professor, diagnostic radiology and nuclear medicine, University of Maryland School of Medicine, Baltimore; Subodha Kumar, PhD, MBA, professor, statistics, operations and data science, Temple University Fox School of Business, Philadelphia; Radiology, April 4, 2023, online

Comparte tu opinión