The Prague Post - ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU

EUR -
AED 4.309937
AFN 79.974464
ALL 96.94329
AMD 448.468957
ANG 2.101161
AOA 1076.162683
ARS 1681.072535
AUD 1.778674
AWG 2.112424
AZN 1.989985
BAM 1.955665
BBD 2.363136
BDT 142.790116
BGN 1.955665
BHD 0.442269
BIF 3501.55762
BMD 1.173569
BND 1.505196
BOB 8.107439
BRL 6.274369
BSD 1.173319
BTN 103.496836
BWP 15.629918
BYN 3.974125
BYR 23001.947791
BZD 2.359737
CAD 1.626625
CDF 3327.067262
CHF 0.935029
CLF 0.028454
CLP 1116.252732
CNY 8.361326
CNH 8.360997
COP 4566.883877
CRC 591.059087
CUC 1.173569
CUP 31.099572
CVE 110.257368
CZK 24.324325
DJF 208.935537
DKK 7.46466
DOP 74.384851
DZD 151.793493
EGP 56.3471
ERN 17.603531
ETB 168.467439
FJD 2.62727
FKP 0.865717
GBP 0.865687
GEL 3.157245
GGP 0.865717
GHS 14.314009
GIP 0.865717
GMD 83.908281
GNF 10176.29559
GTQ 8.995377
GYD 245.473008
HKD 9.154189
HNL 30.739872
HRK 7.534776
HTG 153.529373
HUF 390.892031
IDR 19255.798937
ILS 3.914984
IMP 0.865717
INR 103.599717
IQD 1537.093601
IRR 49377.905898
ISK 143.234146
JEP 0.865717
JMD 188.216972
JOD 0.832053
JPY 173.518018
KES 151.589507
KGS 102.628829
KHR 4702.674478
KMF 492.314003
KPW 1056.252107
KRW 1634.816571
KWD 0.358373
KYD 0.977832
KZT 634.446083
LAK 25441.238941
LBP 105070.726938
LKR 354.015495
LRD 208.265584
LSL 20.36339
LTL 3.465243
LVL 0.70988
LYD 6.335561
MAD 10.566169
MDL 19.488651
MGA 5199.640078
MKD 61.53574
MMK 2464.299154
MNT 4220.177636
MOP 9.405549
MRU 46.838758
MUR 53.374273
MVR 17.967305
MWK 2034.459173
MXN 21.628694
MYR 4.934849
MZN 75.002649
NAD 20.36339
NGN 1763.051164
NIO 43.177011
NOK 11.571502
NPR 165.594537
NZD 1.974542
OMR 0.449869
PAB 1.173319
PEN 4.089017
PGK 4.972656
PHP 67.092541
PKR 333.122841
PLN 4.252206
PYG 8384.419625
QAR 4.283204
RON 5.066336
RSD 117.131892
RUB 97.763233
RWF 1700.182312
SAR 4.402764
SBD 9.631337
SCR 16.690845
SDG 705.894664
SEK 10.933907
SGD 1.509089
SHP 0.922241
SLE 27.432182
SLL 24609.154515
SOS 670.553584
SRD 46.209317
STD 24290.504006
STN 24.498304
SVC 10.266289
SYP 15258.684042
SZL 20.343592
THB 37.214153
TJS 11.040936
TMT 4.119226
TND 3.415564
TOP 2.748616
TRY 48.499492
TTD 7.977448
TWD 35.559012
TZS 2886.400202
UAH 48.371352
UGX 4123.714554
USD 1.173569
UYU 46.996747
UZS 14604.989033
VES 186.280981
VND 30964.61186
VUV 139.571972
WST 3.224613
XAF 655.911597
XAG 0.027823
XAU 0.000322
XCD 3.171628
XCG 2.114654
XDR 0.815744
XOF 655.911597
XPF 119.331742
YER 281.128051
ZAR 20.415751
ZMK 10563.526792
ZMW 27.837073
ZWL 377.888663
ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU
ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU / Foto: Steve Jennings - GETTY IMAGES NORTH AMERICA/AFP

ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU

El sistema de inteligencia artificial ChatGPT obtuvo resultados de aprobado o casi aprobado en el examen para obtener la licencia médica en Estados Unidos, según un estudio publicado el jueves.

Tamaño del texto:

"Alcanzar la puntuación de aprobado en este examen de expertos notoriamente difícil, y hacerlo sin ningún refuerzo humano, marca un hito notable en la maduración de la IA [Inteligencia Artificial] clínica", señalan los autores del estudio publicado en la revista PLOS Digital Health.

"Estos resultados sugieren que los grandes modelos lingüísticos pueden ayudar en la educación médica y, potencialmente, en la toma de decisiones clínicas", añadieron.

ChatGPT, que es capaz de producir ensayos, poemas y códigos de programación en cuestión de segundos, fue desarrollado por OpenAI, una startup con sede en California fundada en 2015 con financiación inicial de Elon Musk, entre otros.

Microsoft invirtió 1.000 millones de dólares en OpenAI en 2019 y acaba de firmar un nuevo acuerdo multimillonario con la firma.

Para el estudio, los investigadores de AnsibleHealth, con sede en California, probaron el rendimiento de ChatGPT en un examen de licencia de tres partes realizado por estudiantes de medicina y médicos en formación en Estados Unidos.

El examen estandarizado pone a prueba los conocimientos en múltiples disciplinas médicas, desde la ciencia básica a la bioquímica, pasando por el razonamiento diagnóstico y la bioética.

El sistema de IA se probó con 350 de las 376 preguntas públicas de la versión de junio de 2022 del examen, según el estudio, y el chatbot no recibió ninguna formación especializada previa.

Se eliminaron las preguntas basadas en imágenes.

ChatGPT obtuvo una puntuación de entre el 52,4% y el 75% en las tres partes del examen. La puntuaciónnpara graduar está en torno al 60%.

Las preguntas se presentaron a ChatGPT en varios formatos, incluyendo algunas abiertas como "¿Cuál sería el diagnóstico del paciente basado en la información proporcionada?".

También había otras de opción múltiple como "¿Cuál de los siguientes patógenos es la causa principal del estado del paciente?".

Según el estudio, dos médicos que no se conocían entre sí revisaron las respuestas para establecer las calificaciones finales.

Un experto externo, Simon McCallum, profesor titular de ingeniería de software en la Universidad Victoria de Wellington, Nueva Zelanda, apuntó que Google ha obtenido resultados alentadores con una herramienta médica de IA conocida como Med-PaLM.

"Puede que ChatGPT apruebe el examen, pero Med-PaLM es capaz de aconsejar a los pacientes tan bien como un médico general profesional", afirma McCallum. "Y ambos sistemas están mejorando".

ChatGPT también resultó útil a los autores del estudio sobre exámenes médicos de otra forma: utilizaron el chatbot para ayudar a redactarlo, dijo la coautora Tiffany Kung.

S.Danek--TPP