Un estudio en EE. UU. revela que la IA supera a los médicos en diagnósticos complejos, pero el sesgo humano limita su potencial como herramienta clínica.
La inteligencia artificial cada vez está más capacitada para resolver problemas, incluso en el área médica. A inicios de años, por ejemplo, un estudio demostró ChatGPT obtuvo mejor calificación que los estudiantes peruanos en el Examen Nacional de Medicina. Pese a ello, los profesionales de la salud todavía no sienten la confianza suficiente para usar este tipo de herramientas.
Otra evidencia de la utilidad de la tecnología en el campo de la salud es un reciente estudio llevado a cabo en Estados Unidos, el cual ha demostrado que ChatGPT-4, la inteligencia artificial de OpenAI, puede diagnosticar enfermedades con mayor precisión que los médicos. El análisis comparó la capacidad de la IA para resolver casos clínicos frente a médicos que usaron herramientas tradicionales y aquellos que también tuvieron acceso al chatbot, evidenciando el potencial y las limitaciones del uso de la IA en medicina.
En el estudio, que involucró a 50 médicos de diferentes especialidades, ChatGPT-4 logró un 92% de precisión al trabajar de manera autónoma, superando tanto a los médicos que se apoyaron en la herramienta (76%) como a los que dependieron únicamente de recursos convencionales (74%).
¿Un aliado desaprovechado por el sesgo humano?
Los investigadores destacaron, sin embargo, que muchos médicos no aprovecharon al máximo las capacidades del chatbot.
“No escuchaban a la inteligencia artificial cuando les decía cosas que contradecían sus propias ideas”, afirmó el Dr. Adam Rodman, coautor del estudio.
Esta resistencia, conocida como sesgo de confianza, limitó la utilidad del chatbot como complemento en la toma de decisiones clínicas.
Además, los médicos trataron a ChatGPT-4 como un simple motor de búsqueda, formulando preguntas específicas en lugar de utilizarlo para analizar casos clínicos completos. Esto no solo redujo la efectividad de la herramienta, sino que también reflejó la falta de capacitación en su uso por parte del persona médico, una barrera que el estudio identifica como clave para maximizar su potencial.
Los grandes modelos de lenguaje han cambiado la forma en que se aborda el diagnóstico médico. A diferencia de sistemas computacionales anteriores como INTERNIST-1, que buscaban replicar el razonamiento humano, herramientas como ChatGPT generan diagnósticos basados en datos y patrones lingüísticos previos, facilitando su integración en la práctica médica moderna.
A pesar de sus limitaciones, los investigadores consideran que herramientas como ChatGPT podrían convertirse en asistentes valiosos para los médicos, proporcionando segundas opiniones y mejorando la precisión diagnóstica. Sin embargo, para alcanzar este potencial, será crucial superar el escepticismo y entrenar a los profesionales en su uso.
Fuente: El Comercio
No hay comentarios.:
Publicar un comentario
Los comentarios con contenido inapropiado no serán publicados. Si lo que Usted quiere es realizar una consulta, le pedimos por favor lo haga a través del link de Contacto que aparece en este blog. Muchas gracias