ChatGPT pudo superar a los médicos humanos en el diagnóstico de enfermedades y afecciones médicas en el estudio. Los hallazgos del estudio se publicaron el mes pasado y destacaron que los chatbots de inteligencia artificial (IA) pueden ser eficaces para analizar los historiales y las condiciones de los pacientes y proporcionar un diagnóstico más preciso. Aunque el estudio tenía como objetivo comprender si los chatbots de IA pueden ayudar a los médicos a proporcionar mejores diagnósticos, los resultados revelaron inesperadamente que el chatbot con tecnología GPT-4 de OpenAI es muy eficaz cuando funciona sin la ayuda de una persona en comparación con cuando se reúne con un médico.
ChatGPT supera a los médicos en el diagnóstico de enfermedades
El estudiarpublicado en la revista JAMA Network Open, fue realizado en el Centro Médico Beth Israel Deaconess en Boston por un equipo de investigadores. El experimento tenía como objetivo determinar si la IA podría ayudar a los médicos a diagnosticar enfermedades mejor en comparación con los métodos tradicionales.
Según el New York Times informeEn el experimento participaron 50 médicos que eran una mezcla de residentes y médicos que asistían a la facultad de medicina. Fueron reclutados por varios grandes sistemas hospitalarios de EE. UU. y se les proporcionaron seis historias clínicas de pacientes. Se informa que a los participantes se les pidió que proporcionaran una opinión de evaluación para cada caso y que explicaran por qué les gustaba o se oponían a una evaluación en particular. Se dijo que los médicos también eran calificados en función de si su diagnóstico final era correcto.
Para evaluar el desempeño de cada participante, se informa que se seleccionan profesionales médicos en grupos. Aunque supuestamente se les mostraron las respuestas, no se les dijo si la respuesta provino de un médico con experiencia en inteligencia artificial, solo un médico o solo de ChatGPT.
Además, para eliminar la posibilidad de historias clínicas falsas, los investigadores supuestamente seleccionaron historias reales de pacientes que han sido utilizadas por los investigadores durante décadas pero nunca publicadas para evitar la contaminación cruzada. Este punto es importante porque ChatGPT no se puede entrenar con datos no publicados.
Los hallazgos del estudio fueron sorprendentes. Los médicos que no utilizaron ninguna herramienta de inteligencia artificial para revisar los historiales de casos obtuvieron una puntuación promedio del 74 por ciento, mientras que los médicos que utilizaron un chatbot obtuvieron una puntuación promedio del 76 por ciento. Sin embargo, cuando ChatGPT por sí solo analizó el historial del caso y proporcionó un diagnóstico, recibió un promedio del 90 por ciento.
Aunque varios factores pueden afectar los resultados del estudio, desde el nivel de experiencia de los médicos hasta el sesgo individual en un diagnóstico particular, los investigadores creen que el estudio enfatiza que no se puede ignorar la capacidad de los métodos de IA en las organizaciones médicas.