The Prague Post - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

EUR -
AED 4.313975
AFN 80.547545
ALL 97.434934
AMD 449.73046
ANG 2.102303
AOA 1077.171324
ARS 1492.791377
AUD 1.764031
AWG 2.116752
AZN 2.0016
BAM 1.955498
BBD 2.367734
BDT 143.357833
BGN 1.958424
BHD 0.442032
BIF 3495.35953
BMD 1.174668
BND 1.502568
BOB 8.102747
BRL 6.532923
BSD 1.172619
BTN 101.493307
BWP 15.744565
BYN 3.837607
BYR 23023.499991
BZD 2.355536
CAD 1.60865
CDF 3393.617337
CHF 0.934453
CLF 0.028651
CLP 1114.547663
CNY 8.403625
CNH 8.419418
COP 4775.561579
CRC 592.408399
CUC 1.174668
CUP 31.128712
CVE 110.247953
CZK 24.57048
DJF 208.817712
DKK 7.463496
DOP 71.148999
DZD 151.843521
EGP 57.684081
ERN 17.620026
ETB 163.190867
FJD 2.634488
FKP 0.874805
GBP 0.874465
GEL 3.18381
GGP 0.874805
GHS 12.254105
GIP 0.874805
GMD 84.57654
GNF 10176.42647
GTQ 9.000608
GYD 245.342064
HKD 9.220266
HNL 30.706252
HRK 7.537617
HTG 153.886205
HUF 396.850416
IDR 19217.339549
ILS 3.93908
IMP 0.874805
INR 101.616219
IQD 1536.162471
IRR 49468.226083
ISK 142.276286
JEP 0.874805
JMD 187.051077
JOD 0.832886
JPY 173.446879
KES 151.506573
KGS 102.553011
KHR 4697.273684
KMF 491.603168
KPW 1057.221015
KRW 1624.959912
KWD 0.358662
KYD 0.977249
KZT 639.001194
LAK 25279.09122
LBP 105069.953557
LKR 353.815291
LRD 235.113646
LSL 20.812382
LTL 3.468491
LVL 0.710546
LYD 6.330021
MAD 10.545169
MDL 19.72395
MGA 5179.199166
MKD 61.550483
MMK 2465.733848
MNT 4216.363074
MOP 9.481134
MRU 46.800763
MUR 53.342135
MVR 18.094285
MWK 2033.385588
MXN 21.777064
MYR 4.958867
MZN 75.131746
NAD 20.812382
NGN 1799.510154
NIO 43.153327
NOK 11.93722
NPR 162.388891
NZD 1.948849
OMR 0.45153
PAB 1.172619
PEN 4.153358
PGK 4.860248
PHP 67.132737
PKR 332.301418
PLN 4.249143
PYG 8783.641829
QAR 4.274539
RON 5.067641
RSD 117.131888
RUB 93.245282
RWF 1695.037905
SAR 4.407892
SBD 9.732239
SCR 16.61843
SDG 705.392672
SEK 11.192362
SGD 1.503815
SHP 0.923105
SLE 26.959075
SLL 24632.212956
SOS 670.196371
SRD 43.067458
STD 24313.263549
STN 24.496212
SVC 10.260413
SYP 15272.941179
SZL 20.804783
THB 38.024448
TJS 11.198868
TMT 4.123086
TND 3.423471
TOP 2.751195
TRY 47.634334
TTD 7.973767
TWD 34.632517
TZS 3004.935362
UAH 49.031718
UGX 4204.349902
USD 1.174668
UYU 46.972737
UZS 14837.70572
VES 141.281363
VND 30711.704452
VUV 140.295141
WST 3.217414
XAF 655.855588
XAG 0.030776
XAU 0.000352
XCD 3.1746
XCG 2.113373
XDR 0.815674
XOF 655.855588
XPF 119.331742
YER 283.036769
ZAR 20.86834
ZMK 10573.429114
ZMW 27.351771
ZWL 378.242735
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: Kirill KUDRYAVTSEV - AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

V.Sedlak--TPP