Un estudio de JAMA Internal Medicine sugiere que los asistentes de IA como ChatGPT pueden mejorar significativamente la salud. Usando preguntas de salud del mundo real, el estudio encontró que los profesionales de la salud preferían las respuestas de IA sobre las de los médicos el 79% del tiempo, citando una mayor calidad y empatía. Si bien no reemplaza a los médicos, la IA se puede integrar en los sistemas de atención médica para mejorar la atención al paciente, lo que podría reducir el desgaste de los médicos y mejorar la prestación general de atención médica.
Si bien la IA no reemplazará a su médico, un nuevo artículo de JAMA Internal Medicine sugiere que los médicos que trabajan en conjunto con tecnologías como ChatGPT podrían revolucionar la medicina.
Ha habido una especulación generalizada sobre cómo los avances en los asistentes de inteligencia artificial (IA) como ChatGPT podrían usarse en medicina.
Un nuevo estudio publicado hoy (28 de abril de 2023) en JAMA Internal Medicine, dirigido por el Dr. John W. Ayers, del Instituto Qualcomm de la Universidad de California, San Diego (UCSD), ofrece una visión preliminar del papel que pueden desempeñar los asistentes de IA. En medicina. El estudio comparó las respuestas escritas de médicos y ChatGPT con preguntas de salud del mundo real. Un panel de profesionales de la salud autorizados prefirió las respuestas de ChatGPT el 79 % de las veces y calificó las respuestas de ChatGPT como de mayor calidad y más empáticas.
“Las oportunidades para mejorar la atención médica con IA son enormes”, dijo Ayers, quien también es subdirector de innovación en la División de Enfermedades Infecciosas y Salud Pública Global de la Facultad de Medicina de UCSD. “La atención aumentada por IA es el futuro de la medicina”.
¿ChatGPT está listo para la salud?
En el nuevo estudio, el equipo de investigación se dispuso a responder la pregunta: ¿Puede ChatGPT responder con precisión las preguntas que los pacientes envían a sus médicos? Si es así, los modelos de IA pueden integrarse en los sistemas de atención médica para mejorar las respuestas de los médicos a las preguntas enviadas por los pacientes y aliviar la carga cada vez mayor de los médicos.
«ChatGPT podría aprobar un examen de licencia médica», dijo el coautor del estudio, el Dr. Davey Smith, médico científico, codirector del Instituto de Investigación Clínica y Traslacional Altman de UCSD y profesor de la Facultad de Medicina de UCSD, «pero responder directamente a las preguntas de los pacientes con precisión y empatía es un juego de pelota diferente».
«La pandemia de COVID-19 ha acelerado la adopción de la atención médica virtual», agregó el coautor del estudio, el Dr. Eric Leas, afiliado al Instituto Qualcomm y profesor asistente en la Escuela de Salud Pública y Ciencias de la Longevidad Humana Herbert Wertheim de UCSD. «Si bien esto facilita que los pacientes accedan a la atención, los médicos se ven abrumados por una avalancha de mensajes electrónicos de pacientes que buscan asesoramiento médico que han contribuido a niveles récord de agotamiento médico».
Diseño de un estudio para probar ChatGPT en un entorno sanitario
Para obtener una muestra amplia y diversa de preguntas y respuestas sobre salud de los médicos que no contenían información de identificación personal, el equipo recurrió a las redes sociales, donde millones de pacientes publican preguntas médicas que los médicos responden: AskDocs de Reddit.
r/AskDocs es un subreddit con aproximadamente 452 000 miembros que publican preguntas médicas y profesionales de la salud verificados envían respuestas. Si bien cualquiera puede responder una pregunta, los moderadores verifican las credenciales del proveedor de atención médica y las respuestas muestran el nivel de credenciales del encuestado. El resultado es una colección grande y diversa de preguntas médicas de pacientes y respuestas de profesionales médicos autorizados.
Si bien algunos pueden preguntarse si los intercambios de preguntas y respuestas en las redes sociales son una prueba justa, los miembros del equipo señalaron que los intercambios reflejaban su experiencia clínica.
El equipo muestreó aleatoriamente 195 intercambios de AskDocs en los que un médico verificado respondió una pregunta pública. El equipo proporcionó la pregunta original a ChatGPT y le pidió que escribiera una respuesta. Un panel de tres profesionales de la salud con licencia evaluó cada pregunta y las respuestas correspondientes y no sabía si la respuesta provenía de un médico o de ChatGPT. Compararon las respuestas en función de la calidad de la información y la empatía, y señalaron cuál preferían.
El panel de evaluadores de profesionales de la salud prefirió las respuestas de ChatGPT a las respuestas de los médicos el 79 % de las veces.
«Los mensajes de ChatGPT respondieron con información detallada y precisa que a menudo abordaba más aspectos de las preguntas del paciente que las respuestas del médico», dijo Jessica Kelley, enfermera registrada en Human Longevity en San Diego y coautora del estudio.
Además, las respuestas de ChatGPT fueron de una calidad significativamente mayor que las respuestas de los médicos: las respuestas de buena o muy buena calidad fueron 3,6 veces más altas para ChatGPT que para los médicos (médicos 22,1% versus ChatGPT 78,5%). Las respuestas también fueron más empáticas: las respuestas empáticas o muy empáticas fueron 9,8 veces más altas para ChatGPT que para los médicos (médicos 4,6 % versus ChatGPT 45,1 %).
“Nunca pensé que diría esto”, agregó el Dr. Aaron Goodman, profesor clínico asociado de la Facultad de Medicina de UCSD y coautor del estudio, “Pero ChatGPT es una receta que me gustaría enviar a mi bandeja de entrada. La herramienta transformará la forma en que veo a mis pacientes”.
Aprovechar los asistentes de IA para enviar mensajes a los pacientes
«Si bien nuestro estudio enfrentó a ChatGPT con los médicos, la solución definitiva no es expulsar al médico por completo», dijo el Dr. Adam Poliak, profesor asistente de informática en Bryn Mawr College y coautor del estudio. «En cambio, un médico que usa ChatGPT es la respuesta para una mejor atención empática».
«Nuestro estudio es uno de los primeros en mostrar cómo los asistentes de IA pueden potencialmente resolver problemas de atención médica en el mundo real», dijo el Dr. Christopher Longhurst, director médico y director digital de UC San Diego Health. «Estos resultados sugieren que herramientas como ChatGPT pueden redactar de manera eficiente consejos médicos personalizados y de alta calidad para la revisión de los médicos, y estamos comenzando ese proceso en UCSD Health».
el medico Mike Hogarth, médico bioinformático, codirector del Instituto de Investigación Clínica y Traslacional Altman de la UCSD, profesor de la Facultad de Medicina de la UC San Diego y coautor del estudio, agregó: «Es importante que la integración de los asistentes de IA en los mensajes de atención médica se realizan en el contexto de un ensayo controlado aleatorio para evaluar cómo el uso de asistentes de IA afecta los resultados para los médicos y los pacientes”.
Además de mejorar el flujo de trabajo, las inversiones en la mensajería del asistente de IA pueden afectar la salud del paciente y el desempeño del médico.
el medico Mark Dredze, profesor asociado de ciencias de la computación de John C Malone en Johns Hopkins y coautor del estudio, señaló: «Podríamos usar estas tecnologías para capacitar a los médicos en la comunicación centrada en el paciente, eliminar las disparidades de salud que sufren las poblaciones minoritarias que buscan atención médica con frecuencia». a través de mensajes, crear nuevos sistemas de seguridad médica y ayudar a los médicos a brindar una atención más eficiente y de alta calidad”.
Referencia: «Comparación de las respuestas de AI y Physician Chatbot a las preguntas de los pacientes publicadas en un foro público de redes sociales» por John W. Ayers, PhD, MA; Adán Poliak, PhD; marca dredze, doctorado; Eric C. Leas, Doctorado, MPH; Zacharias Zhu, BS; Jessica B. Kelley, MSN; Dennis J. Faix, MD; Aaron M. Goodman, MD; Christopher A. Longhurst, MD, MS; Dr. Michael Hogarth; Davey M. Smith, MD, MAS, 28 de abril de 2023, Medicina Interna de JAMA.
DOI: 10.1001/jamainternmed.2023.1838
Además de Ayers, Poliak, Dredze, Leas, Kelley, Goodman, Longhurst, Hogarth y Smith, autores del artículo de Medicina Interna de JAMA, «Comparación de las respuestas de los chatbots de médicos e inteligencia artificial a las preguntas de los pacientes publicadas en un foro público de redes sociales». son Zechariah Zhu de UCSD y el Dr. Dennis J. Faix del Centro de Investigación de Salud Naval.