Berliner Boersenzeitung - ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU

EUR -
AED 4.307662
AFN 75.65645
ALL 95.455382
AMD 433.035491
ANG 2.099447
AOA 1076.768783
ARS 1636.860327
AUD 1.626298
AWG 2.111312
AZN 1.99669
BAM 1.95591
BBD 2.370113
BDT 144.388141
BGN 1.956602
BHD 0.444402
BIF 3502.307889
BMD 1.172951
BND 1.489746
BOB 8.131389
BRL 5.80165
BSD 1.176766
BTN 110.920564
BWP 15.755888
BYN 3.325559
BYR 22989.842205
BZD 2.366713
CAD 1.602169
CDF 2716.554865
CHF 0.915682
CLF 0.026553
CLP 1045.063663
CNY 7.981991
CNH 7.981616
COP 4385.546991
CRC 539.802822
CUC 1.172951
CUP 31.083205
CVE 110.272157
CZK 24.311053
DJF 209.550028
DKK 7.473452
DOP 69.980366
DZD 155.132327
EGP 61.837278
ERN 17.594267
ETB 183.735061
FJD 2.567297
FKP 0.862672
GBP 0.865245
GEL 3.143253
GGP 0.862672
GHS 13.238746
GIP 0.862672
GMD 85.625652
GNF 10327.318134
GTQ 8.985736
GYD 246.203881
HKD 9.183732
HNL 31.283497
HRK 7.535741
HTG 154.124748
HUF 357.026418
IDR 20376.096548
ILS 3.403148
IMP 0.862672
INR 110.814383
IQD 1541.586917
IRR 1539967.542208
ISK 143.815622
JEP 0.862672
JMD 185.35045
JOD 0.831578
JPY 184.015502
KES 151.920982
KGS 102.539973
KHR 4720.06492
KMF 491.466945
KPW 1055.668813
KRW 1717.505805
KWD 0.361199
KYD 0.980655
KZT 544.970726
LAK 25824.235848
LBP 105018.682784
LKR 378.928134
LRD 215.948619
LSL 19.199619
LTL 3.463419
LVL 0.709507
LYD 7.443356
MAD 10.785516
MDL 20.245969
MGA 4886.004719
MKD 61.666615
MMK 2463.011404
MNT 4199.687323
MOP 9.491735
MRU 47.080447
MUR 54.800109
MVR 18.127941
MWK 2040.401971
MXN 20.276983
MYR 4.596825
MZN 74.956934
NAD 19.199783
NGN 1597.01982
NIO 43.301888
NOK 10.926269
NPR 177.458928
NZD 1.975285
OMR 0.450996
PAB 1.176766
PEN 4.07603
PGK 5.121049
PHP 70.959441
PKR 327.879986
PLN 4.231562
PYG 7202.344676
QAR 4.289452
RON 5.263969
RSD 117.404627
RUB 87.561202
RWF 1725.197269
SAR 4.433959
SBD 9.421446
SCR 16.245024
SDG 704.357949
SEK 10.887686
SGD 1.488639
SHP 0.875726
SLE 28.854149
SLL 24596.194285
SOS 672.537919
SRD 43.904758
STD 24277.720273
STN 24.500233
SVC 10.296581
SYP 129.667759
SZL 19.194082
THB 37.824741
TJS 10.997348
TMT 4.117058
TND 3.41348
TOP 2.824185
TRY 53.175691
TTD 7.960449
TWD 36.83395
TZS 3050.721524
UAH 51.52615
UGX 4401.24815
USD 1.172951
UYU 47.054659
UZS 14259.803991
VES 582.028979
VND 30863.863161
VUV 138.51814
WST 3.180472
XAF 655.957634
XAG 0.014717
XAU 0.000249
XCD 3.169959
XCG 2.12082
XDR 0.815801
XOF 655.993986
XPF 119.331742
YER 279.87078
ZAR 19.295866
ZMK 10557.966547
ZMW 22.417073
ZWL 377.689786
ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU
ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU / Foto: Steve Jennings - GETTY IMAGES NORTH AMERICA/AFP

ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU

El sistema de inteligencia artificial ChatGPT obtuvo resultados de aprobado o casi aprobado en el examen para obtener la licencia médica en Estados Unidos, según un estudio publicado el jueves.

Tamaño del texto:

"Alcanzar la puntuación de aprobado en este examen de expertos notoriamente difícil, y hacerlo sin ningún refuerzo humano, marca un hito notable en la maduración de la IA [Inteligencia Artificial] clínica", señalan los autores del estudio publicado en la revista PLOS Digital Health.

"Estos resultados sugieren que los grandes modelos lingüísticos pueden ayudar en la educación médica y, potencialmente, en la toma de decisiones clínicas", añadieron.

ChatGPT, que es capaz de producir ensayos, poemas y códigos de programación en cuestión de segundos, fue desarrollado por OpenAI, una startup con sede en California fundada en 2015 con financiación inicial de Elon Musk, entre otros.

Microsoft invirtió 1.000 millones de dólares en OpenAI en 2019 y acaba de firmar un nuevo acuerdo multimillonario con la firma.

Para el estudio, los investigadores de AnsibleHealth, con sede en California, probaron el rendimiento de ChatGPT en un examen de licencia de tres partes realizado por estudiantes de medicina y médicos en formación en Estados Unidos.

El examen estandarizado pone a prueba los conocimientos en múltiples disciplinas médicas, desde la ciencia básica a la bioquímica, pasando por el razonamiento diagnóstico y la bioética.

El sistema de IA se probó con 350 de las 376 preguntas públicas de la versión de junio de 2022 del examen, según el estudio, y el chatbot no recibió ninguna formación especializada previa.

Se eliminaron las preguntas basadas en imágenes.

ChatGPT obtuvo una puntuación de entre el 52,4% y el 75% en las tres partes del examen. La puntuaciónnpara graduar está en torno al 60%.

Las preguntas se presentaron a ChatGPT en varios formatos, incluyendo algunas abiertas como "¿Cuál sería el diagnóstico del paciente basado en la información proporcionada?".

También había otras de opción múltiple como "¿Cuál de los siguientes patógenos es la causa principal del estado del paciente?".

Según el estudio, dos médicos que no se conocían entre sí revisaron las respuestas para establecer las calificaciones finales.

Un experto externo, Simon McCallum, profesor titular de ingeniería de software en la Universidad Victoria de Wellington, Nueva Zelanda, apuntó que Google ha obtenido resultados alentadores con una herramienta médica de IA conocida como Med-PaLM.

"Puede que ChatGPT apruebe el examen, pero Med-PaLM es capaz de aconsejar a los pacientes tan bien como un médico general profesional", afirma McCallum. "Y ambos sistemas están mejorando".

ChatGPT también resultó útil a los autores del estudio sobre exámenes médicos de otra forma: utilizaron el chatbot para ayudar a redactarlo, dijo la coautora Tiffany Kung.

(K.Lüdke--BBZ)