Berliner Boersenzeitung - ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU

EUR -
AED 4.241153
AFN 72.754563
ALL 95.904412
AMD 436.077607
ANG 2.067262
AOA 1058.989364
ARS 1607.142281
AUD 1.654835
AWG 2.081601
AZN 1.95977
BAM 1.954803
BBD 2.329412
BDT 141.917624
BGN 1.97398
BHD 0.436272
BIF 3423.45409
BMD 1.154841
BND 1.479146
BOB 7.99182
BRL 6.143319
BSD 1.15661
BTN 108.125857
BWP 15.771435
BYN 3.508935
BYR 22634.884553
BZD 2.326114
CAD 1.587035
CDF 2627.263453
CHF 0.912861
CLF 0.02714
CLP 1072.223987
CNY 7.952696
CNH 7.970476
COP 4285.361066
CRC 540.224494
CUC 1.154841
CUP 30.603288
CVE 110.208795
CZK 24.490831
DJF 205.954966
DKK 7.471741
DOP 68.654987
DZD 152.950997
EGP 60.324739
ERN 17.322616
ETB 182.275564
FJD 2.568655
FKP 0.865578
GBP 0.865213
GEL 3.135356
GGP 0.865578
GHS 12.60757
GIP 0.865578
GMD 84.87984
GNF 10137.829861
GTQ 8.859482
GYD 241.973454
HKD 9.044802
HNL 30.613918
HRK 7.521945
HTG 151.732619
HUF 392.05814
IDR 19571.091251
ILS 3.618573
IMP 0.865578
INR 108.037231
IQD 1515.127308
IRR 1519337.754721
ISK 143.429337
JEP 0.865578
JMD 181.710477
JOD 0.818758
JPY 183.649756
KES 149.66002
KGS 100.990396
KHR 4621.643032
KMF 493.117464
KPW 1039.361533
KRW 1729.189906
KWD 0.354109
KYD 0.963808
KZT 556.046425
LAK 24836.118896
LBP 103580.078814
LKR 360.792877
LRD 211.652061
LSL 19.510581
LTL 3.409946
LVL 0.698551
LYD 7.404224
MAD 10.807448
MDL 20.141554
MGA 4822.686665
MKD 61.484385
MMK 2424.533847
MNT 4119.260525
MOP 9.335739
MRU 46.297389
MUR 53.781172
MVR 17.853984
MWK 2005.63794
MXN 20.652427
MYR 4.549493
MZN 73.795385
NAD 19.51075
NGN 1573.886435
NIO 42.558296
NOK 11.265017
NPR 173.000274
NZD 1.988749
OMR 0.444016
PAB 1.156595
PEN 3.998661
PGK 4.992454
PHP 69.281806
PKR 322.926298
PLN 4.27394
PYG 7554.1475
QAR 4.229343
RON 5.097703
RSD 117.46927
RUB 95.073447
RWF 1682.870906
SAR 4.335248
SBD 9.298388
SCR 16.082539
SDG 694.059788
SEK 10.871788
SGD 1.478179
SHP 0.86643
SLE 28.38022
SLL 24216.451871
SOS 660.97436
SRD 43.2921
STD 23902.878092
STN 24.487512
SVC 10.119839
SYP 127.6839
SZL 19.517722
THB 37.74134
TJS 11.108835
TMT 4.053492
TND 3.415858
TOP 2.78058
TRY 51.180177
TTD 7.84693
TWD 36.92108
TZS 2970.769215
UAH 50.668895
UGX 4371.770464
USD 1.154841
UYU 46.605223
UZS 14100.808802
VES 525.095404
VND 30419.668062
VUV 137.687189
WST 3.150166
XAF 655.633991
XAG 0.017179
XAU 0.000266
XCD 3.121016
XCG 2.084419
XDR 0.815409
XOF 655.622642
XPF 119.331742
YER 275.543707
ZAR 19.622018
ZMK 10394.962502
ZMW 22.582483
ZWL 371.858346
ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU
ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU / Foto: Steve Jennings - GETTY IMAGES NORTH AMERICA/AFP

ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU

El sistema de inteligencia artificial ChatGPT obtuvo resultados de aprobado o casi aprobado en el examen para obtener la licencia médica en Estados Unidos, según un estudio publicado el jueves.

Tamaño del texto:

"Alcanzar la puntuación de aprobado en este examen de expertos notoriamente difícil, y hacerlo sin ningún refuerzo humano, marca un hito notable en la maduración de la IA [Inteligencia Artificial] clínica", señalan los autores del estudio publicado en la revista PLOS Digital Health.

"Estos resultados sugieren que los grandes modelos lingüísticos pueden ayudar en la educación médica y, potencialmente, en la toma de decisiones clínicas", añadieron.

ChatGPT, que es capaz de producir ensayos, poemas y códigos de programación en cuestión de segundos, fue desarrollado por OpenAI, una startup con sede en California fundada en 2015 con financiación inicial de Elon Musk, entre otros.

Microsoft invirtió 1.000 millones de dólares en OpenAI en 2019 y acaba de firmar un nuevo acuerdo multimillonario con la firma.

Para el estudio, los investigadores de AnsibleHealth, con sede en California, probaron el rendimiento de ChatGPT en un examen de licencia de tres partes realizado por estudiantes de medicina y médicos en formación en Estados Unidos.

El examen estandarizado pone a prueba los conocimientos en múltiples disciplinas médicas, desde la ciencia básica a la bioquímica, pasando por el razonamiento diagnóstico y la bioética.

El sistema de IA se probó con 350 de las 376 preguntas públicas de la versión de junio de 2022 del examen, según el estudio, y el chatbot no recibió ninguna formación especializada previa.

Se eliminaron las preguntas basadas en imágenes.

ChatGPT obtuvo una puntuación de entre el 52,4% y el 75% en las tres partes del examen. La puntuaciónnpara graduar está en torno al 60%.

Las preguntas se presentaron a ChatGPT en varios formatos, incluyendo algunas abiertas como "¿Cuál sería el diagnóstico del paciente basado en la información proporcionada?".

También había otras de opción múltiple como "¿Cuál de los siguientes patógenos es la causa principal del estado del paciente?".

Según el estudio, dos médicos que no se conocían entre sí revisaron las respuestas para establecer las calificaciones finales.

Un experto externo, Simon McCallum, profesor titular de ingeniería de software en la Universidad Victoria de Wellington, Nueva Zelanda, apuntó que Google ha obtenido resultados alentadores con una herramienta médica de IA conocida como Med-PaLM.

"Puede que ChatGPT apruebe el examen, pero Med-PaLM es capaz de aconsejar a los pacientes tan bien como un médico general profesional", afirma McCallum. "Y ambos sistemas están mejorando".

ChatGPT también resultó útil a los autores del estudio sobre exámenes médicos de otra forma: utilizaron el chatbot para ayudar a redactarlo, dijo la coautora Tiffany Kung.

(K.Lüdke--BBZ)