Un estudio publicado en el Journal of The National Cancer Institute Cancer Spectrum investigó el creciente uso de chatbots e inteligencia artificial (IA) para proporcionar información relacionada con el cáncer. Los investigadores descubrieron que estos recursos digitales desacreditan con precisión los mitos y conceptos erróneos comunes sobre el cáncer. Esta investigación pionera fue realizada por Skyler Johnson, MD, médico científico del Instituto del Cáncer Huntsman y profesor asistente en el Departamento de Oncología Radioterápica de la Universidad de Utah. Su propósito era evaluar la confiabilidad y precisión de la información sobre el cáncer proporcionada por ChatGPT.
Johnson y su equipo utilizaron la lista de mitos y conceptos erróneos comunes sobre el cáncer del Instituto Nacional del Cáncer (NCI) como campo de pruebas. Descubrieron que el 97% de las respuestas proporcionadas por ChatGPT eran precisas. Sin embargo, este resultado va acompañado de salvedades dignas de mención. Una preocupación importante planteada por el equipo fue la posibilidad de que algunas de las respuestas de ChatGPT pudieran malinterpretarse o malinterpretarse.
“Esto puede conducir a algunas malas decisiones por parte de los pacientes con cáncer. El equipo sugirió precaución al aconsejar a los pacientes si deberían usar chatbots para obtener información sobre el cáncer”, dice Johnson.
El estudio encontró que los revisores estaban cegados, lo que significa que no sabían si las respuestas provenían del chatbot o del NCI. Si bien las respuestas fueron precisas, los revisores encontraron que el lenguaje de ChatGPT era indirecto, vago y, en algunos casos, poco claro.
“Reconozco y comprendo lo difícil que puede ser para los pacientes con cáncer y sus cuidadores acceder a información precisa”, dice Johnson. «Estas fuentes deben estudiarse para que podamos ayudar a los pacientes con cáncer a navegar por las aguas turbias que existen en el entorno de información en línea mientras intentan buscar respuestas sobre sus diagnósticos».
La información incorrecta puede dañar a los pacientes con cáncer. En un estudio anterior de Johnson y su equipo publicado en el Journal of the National Cancer Institute, descubrieron que la información errónea era común en las redes sociales y tenía el potencial de dañar a los pacientes con cáncer.
Los próximos pasos son evaluar con qué frecuencia los pacientes usan chatbots para buscar información sobre el cáncer, qué preguntas hacen y si los chatbots de IA brindan respuestas precisas a preguntas poco comunes o inusuales sobre el cáncer.
Referencia: «Using ChatGPT to Assess Cancer Myths and Misconceptions: Artificial Intelligence and Cancer Information» por Skyler B Johnson, Andy J King, Echo L Warner, Sanjay Aneja, Benjamin H Kann y Carma L Bylund, 17 de marzo de 2023, Journal of The Instituto Nacional del Cáncer – Espectro del Cáncer.
DOI: 10.1093/jncics/pkad015
El estudio fue financiado por el Instituto Nacional del Cáncer y la Fundación del Cáncer Huntsman.