Un pequeño estudio descubrió que el chatbot de IA tuvo mejor desempeño que los médicos humanos al evaluar historias clínicas. También encontró que los especialistas no usaban el chatbot a su máximo potencial.
Adam Rodman, experto en medicina interna del Centro Médico Beth Israel Deaconess de Boston, esperaba con confianza que los chatbots creados con inteligencia artificial ayudaran a los médicos a diagnosticar enfermedades.
Se equivocaba.
En cambio, en un estudio que Rodman ayudó a diseñar, los médicos que recibieron ChatGPT-4 junto con los recursos convencionales obtuvieron resultados solo ligeramente mejores que los médicos que no tuvieron acceso al bot. Y, para sorpresa de los investigadores, ChatGPT por sí solo superó a los médicos.
“Me quedé en shock”, dijo Rodman.
El chatbot, de la empresa OpenAI, obtuvo una puntuación media del 90 por ciento al diagnosticar una afección médica a partir de un informe de caso y explicar su razonamiento. Los médicos asignados al azar para utilizar el chatbot obtuvieron una puntuación media del 76 por ciento. Los que no lo utilizaron obtuvieron una puntuación media del 74 por ciento.
El estudio demostró algo más que el rendimiento superior del chatbot.
Puso de manifiesto que los médicos a veces creen inquebrantablemente en el diagnóstico que han hecho, incluso cuando un chatbot sugiere potencialmente uno mejor.
Y el estudio ilustró que, aunque los médicos están expuestos a las herramientas de la inteligencia artificial para su trabajo, pocos saben cómo explotar las capacidades de los chatbots. En consecuencia, no aprovecharon la capacidad de los sistemas de IA para resolver problemas de diagnóstico complejos y ofrecer explicaciones de sus diagnósticos.
Los sistemas de IA deberían ser “extensores de médicos”, dijo Rodman, que ofrezcan valiosas segundas opiniones sobre los diagnósticos.
Pero parece que queda camino por recorrer antes de que se aproveche ese potencial.
Con información de NYT