The Prague Post - L'IA non è ancora pronta a dare consigli sulla salute, l'esperimento

EUR -
AED 4.330578
AFN 75.468553
ALL 95.370831
AMD 434.26718
ANG 2.110613
AOA 1082.496254
ARS 1649.279971
AUD 1.625347
AWG 2.125489
AZN 2.009303
BAM 1.955202
BBD 2.368676
BDT 144.305864
BGN 1.967008
BHD 0.444064
BIF 3500.4294
BMD 1.179189
BND 1.491244
BOB 8.126515
BRL 5.795828
BSD 1.17604
BTN 111.057033
BWP 15.789171
BYN 3.323484
BYR 23112.111202
BZD 2.365277
CAD 1.612129
CDF 2670.864298
CHF 0.916177
CLF 0.026704
CLP 1050.508704
CNY 8.019372
CNH 8.014083
COP 4394.855841
CRC 540.634648
CUC 1.179189
CUP 31.248518
CVE 110.231286
CZK 24.334582
DJF 209.425947
DKK 7.476537
DOP 69.938609
DZD 156.038276
EGP 62.195977
ERN 17.68784
ETB 183.631137
FJD 2.574218
FKP 0.865474
GBP 0.864889
GEL 3.154379
GGP 0.865474
GHS 13.247948
GIP 0.865474
GMD 86.674958
GNF 10318.844
GTQ 8.979254
GYD 246.064742
HKD 9.234999
HNL 31.264438
HRK 7.538916
HTG 153.972908
HUF 353.981307
IDR 20491.303919
ILS 3.421187
IMP 0.865474
INR 111.345548
IQD 1540.628801
IRR 1546506.829043
ISK 143.873347
JEP 0.865474
JMD 185.35331
JOD 0.836092
JPY 184.753623
KES 151.883547
KGS 103.085327
KHR 4718.556838
KMF 492.90156
KPW 1061.251335
KRW 1723.751231
KWD 0.36279
KYD 0.9801
KZT 543.543758
LAK 25791.111834
LBP 105315.489444
LKR 378.634195
LRD 215.803997
LSL 19.293799
LTL 3.48184
LVL 0.71328
LYD 7.436725
MAD 10.75591
MDL 20.110849
MGA 4912.497521
MKD 61.621153
MMK 2476.100645
MNT 4223.124889
MOP 9.4824
MRU 47.006623
MUR 55.210091
MVR 18.163925
MWK 2038.876413
MXN 20.255648
MYR 4.623647
MZN 75.362436
NAD 19.293799
NGN 1609.593864
NIO 43.276764
NOK 10.859513
NPR 177.691653
NZD 1.976185
OMR 0.453611
PAB 1.17604
PEN 4.066156
PGK 5.193412
PHP 71.358689
PKR 327.765953
PLN 4.239717
PYG 7183.802847
QAR 4.298685
RON 5.21945
RSD 117.334114
RUB 87.543025
RWF 1724.072695
SAR 4.44258
SBD 9.456429
SCR 17.539736
SDG 708.107537
SEK 10.86706
SGD 1.494509
SHP 0.880384
SLE 29.067455
SLL 24727.006491
SOS 672.094441
SRD 44.100547
STD 24406.83871
STN 24.492509
SVC 10.290853
SYP 130.375396
SZL 19.281103
THB 37.973479
TJS 10.972544
TMT 4.127163
TND 3.415955
TOP 2.839205
TRY 53.473293
TTD 7.970562
TWD 36.927538
TZS 3063.662984
UAH 51.6595
UGX 4406.652233
USD 1.179189
UYU 46.905654
UZS 14265.63688
VES 588.693738
VND 31022.113342
VUV 139.685143
WST 3.192143
XAF 655.756438
XAG 0.014675
XAU 0.00025
XCD 3.186819
XCG 2.119552
XDR 0.815551
XOF 655.756438
XPF 119.331742
YER 281.384102
ZAR 19.315959
ZMK 10614.123377
ZMW 22.390152
ZWL 379.698489
L'IA non è ancora pronta a dare consigli sulla salute, l'esperimento

L'IA non è ancora pronta a dare consigli sulla salute, l'esperimento

Non dialoga correttamente con i pazienti e fatica a decifrare i sintomi

Dimensione del testo:

I chatbot basati sull'intelligenza artificiale non sono ancora pronti a dispensare consigli sulla salute: non sempre riescono a interagire correttamente con i potenziali pazienti e spesso forniscono risposte equivocabili o potenzialmente fuorvianti. Lo dimostra un esperimento pubblicato sulla rivista Nature Medicine dall'Università di Oxford. Lo studio ha coinvolto quasi 1.300 persone online, alle quali sono stati sottoposti dieci diversi scenari medici (che vanno dal giovane che lamenta un forte mal di testa dopo una serata fuori con gli amici fino alla neomamma che si sente costantemente senza fiato ed esausta). Per ciascuno scenario, i partecipanti dovevano cercare di capire quale potesse essere il problema di salute alla base e valutare se fosse il caso di chiamare il medico di famiglia o un'ambulanza: come supporto potevano utilizzare un modello linguistico di grandi dimensioni (come GPT-4o, Llama 3 o Command R+) oppure potevano affidarsi alle loro risorse abituali, come i classici motori di ricerca su Internet. In parallelo, i ricercatori hanno sottoposto gli stessi scenari medici ai chatbot in condizioni controllate, fornendo loro la descrizione del problema di salute senza che ci fosse un dialogo diretto con utenti umani reali. I risultati dimostrano che quando i test sono stati condotti senza partecipanti umani, gli Llm hanno identificato correttamente i problemi di salute nel 94,9% dei casi e hanno scelto una linea d'azione corretta nel 56,3% dei casi. Tuttavia, quando erano i partecipanti umani a interrogare gli Llm sottoponendo i sintomi indicati negli scenari medici, i problemi di salute rilevanti venivano identificati in meno del 34,5% dei casi e una linea d'azione corretta veniva scelta in meno del 44,2% (risultati che non sono stati migliori rispetto a quanto ottenuto dal gruppo di controllo formato dai partecipanti che hanno usato i classici motori di ricerca del web). In 30 casi in particolare, i ricercatori sono andati a ispezionare manualmente le interazioni intercorse tra gli esseri umani e gli Llm e hanno scoperto che i partecipanti spesso fornivano informazioni incomplete o errate all'IA, ma anche che i chatbot a volte generavano informazioni fuorvianti o errate.

L.Bartos--TPP