Experimento muestra que la IA ChatGPT es más empática por escrito que un médico
Evaluadores eligieron más respuestas de ChatGPT que las de los doctores.
Un experimento con profesionales sanitarios y ChatGPT constató que esta inteligencia artificial (IA) supera a los médicos al momento de proporcionar respuestas empáticas y de alta calidad a las preguntas por escrito de pacientes.
Un artículo de JAMA Internal Medicine sugirió que, aunque la IA no sustituirá al médico, el trabajo conjunto de los profesionales con tecnologías como ChatGPT puede "revolucionar la medicina", señaló la Universidad de California en San Diego, responsable del estudio.
Dirigido por John W. Ayers, el estudio comparó las respuestas escritas que médicos y ChatGPT dieron a preguntas de pacientes. Según los resultados, el grupo de profesionales que las evaluó prefirió las respuestas de la IA el 79% de las veces, y calificó estas como de mayor calidad y más empáticas.
MODELOS DE IA PARA MEJORAR RESPUESTAS DE MÉDICOS
El equipo se propuso averiguar si ChatGPT puede responder con precisión a las preguntas que los pacientes envían a sus médicos.
En caso afirmativo, dijeron los investigadores, los modelos de Inteligencia Artificial podrían integrarse en los sistemas sanitarios para mejorar las respuestas de los médicos a las preguntas enviadas por los pacientes, sobre todo después de la pandemia del Covid-19 con la que se aceleró la asistencia virtual, y aliviar así la carga cada vez mayor que soportan los facultativos.
Para obtener una muestra amplia y diversa de preguntas y respuestas de médicos que no contuvieran información personal identificable, el equipo recurrió a "AskDocs" de la plataforma de foros Reddit.
En esta los usuarios publican preguntas a las que responden profesionales sanitarios verificados. Aunque cualquiera puede responder a una cuestión, los moderadores verifican las credenciales de los profesionales y las respuestas muestran el nivel de credenciales del encuestado, explicó un comunicado de la universidad.
El equipo seleccionó al azar 195 intercambios de AskDocs en los que un médico verificado respondía a una pregunta pública. Proporcionó la pregunta original a ChatGPT y le pidió que redactara una respuesta.
PREFIRIERON LAS RESPUESTAS DE CHATGPT
Un grupo de tres profesionales sanitarios evaluó cada pregunta y las respuestas correspondientes, sin saber si esta procedía de un médico o de ChatGPT. Compararon las respuestas en función de la calidad de la información y la empatía, y señalaron cuál preferían.
El panel de evaluadores prefirió las respuestas de ChatGPT a las de los médicos en un 79% de las ocasiones.
Jessica Kelley, coautora del estudio, afirmó:
Los mensajes de ChatGPT respondían con información matizada y precisa, que a menudo abordaba más aspectos de las preguntas del paciente que las respuestas de los médicos".
Además, la calidad de las respuestas de ChatGPT fue significativamente superior a la de los médicos: las respuestas de calidad buena o muy buena fueron 3.6 veces superiores para ChatGPT
Las respuestas también fueron más empáticas: Las respuestas empáticas o muy empáticas fueron 9.8 veces superiores para la IA.
El objetivo, apuntan los autores, es que un médico aproveche esta IA en su día a día, no sustituir al profesional.
"Estos resultados sugieren que herramientas como ChatGPT pueden redactar eficientemente consejos médicos personalizados de alta calidad para su revisión por parte de los médicos", detalló Christopher Longhurst, del UC San Diego Health.