The Prague Post - Expertos preocupados porque la inteligencia artificial ya engaña a humanos

EUR -
AED 4.233551
AFN 73.201043
ALL 96.095128
AMD 431.675517
ANG 2.06315
AOA 1057.091197
ARS 1653.403273
AUD 1.64817
AWG 2.074988
AZN 1.956396
BAM 1.939515
BBD 2.332322
BDT 140.232563
BGN 1.899358
BHD 0.437066
BIF 3436.545328
BMD 1.152771
BND 1.483822
BOB 7.923472
BRL 6.071873
BSD 1.158049
BTN 105.316728
BWP 15.715666
BYN 3.407747
BYR 22594.311075
BZD 2.329017
CAD 1.563987
CDF 2562.034227
CHF 0.900579
CLF 0.026878
CLP 1061.31026
CNY 7.950373
CNH 7.982015
COP 4349.658492
CRC 552.942276
CUC 1.152771
CUP 30.548431
CVE 109.346889
CZK 24.422028
DJF 206.211431
DKK 7.470238
DOP 68.945021
DZD 153.36529
EGP 58.475118
ERN 17.291565
ETB 179.616703
FJD 2.548199
FKP 0.859752
GBP 0.866189
GEL 3.141275
GGP 0.859752
GHS 12.406828
GIP 0.859752
GMD 84.726795
GNF 10154.203265
GTQ 8.797136
GYD 239.89576
HKD 9.009649
HNL 30.650689
HRK 7.534515
HTG 151.917457
HUF 395.4809
IDR 19574.051125
ILS 3.56582
IMP 0.859752
INR 106.404162
IQD 1516.971268
IRR 1522464.624599
ISK 145.098845
JEP 0.859752
JMD 181.354678
JOD 0.817333
JPY 182.96147
KES 148.084811
KGS 100.810008
KHR 4646.957604
KMF 488.774373
KPW 1037.484094
KRW 1721.536445
KWD 0.35448
KYD 0.965045
KZT 572.136625
LAK 24797.234933
LBP 103699.912871
LKR 360.260959
LRD 209.262963
LSL 19.369885
LTL 3.403833
LVL 0.697299
LYD 7.379144
MAD 10.693514
MDL 20.028074
MGA 4822.261909
MKD 61.126761
MMK 2421.395884
MNT 4113.316453
MOP 9.326965
MRU 46.343588
MUR 54.639997
MVR 17.821707
MWK 2008.02391
MXN 20.722943
MYR 4.571319
MZN 73.658282
NAD 19.369801
NGN 1604.461516
NIO 42.613803
NOK 11.105006
NPR 170.181231
NZD 1.961042
OMR 0.449088
PAB 1.146672
PEN 3.949538
PGK 4.987489
PHP 68.658825
PKR 323.461508
PLN 4.295611
PYG 7576.442328
QAR 4.181491
RON 5.090683
RSD 117.556009
RUB 92.143974
RWF 1689.058228
SAR 4.346164
SBD 9.274253
SCR 16.107817
SDG 693.388621
SEK 10.69534
SGD 1.47878
SHP 0.864877
SLE 28.271761
SLL 24173.030174
SOS 660.600538
SRD 43.40932
STD 23860.03171
STN 24.536844
SVC 10.13217
SYP 127.550594
SZL 19.375262
THB 37.033343
TJS 11.024931
TMT 4.046226
TND 3.368814
TOP 2.775596
TRY 50.81622
TTD 7.846748
TWD 36.722103
TZS 2959.451158
UAH 50.601802
UGX 4231.47124
USD 1.152771
UYU 45.111232
UZS 13983.589396
VES 490.091363
VND 30312.112741
VUV 136.706914
WST 3.159149
XAF 656.952012
XAG 0.013932
XAU 0.000226
XCD 3.115421
XCG 2.087025
XDR 0.81703
XOF 656.949158
XPF 119.331742
YER 274.935292
ZAR 19.397643
ZMK 10376.320368
ZMW 22.389814
ZWL 371.191783
Expertos preocupados porque la inteligencia artificial ya engaña a humanos
Expertos preocupados porque la inteligencia artificial ya engaña a humanos / Foto: Kirill KUDRYAVTSEV - AFP/Archivos

Expertos preocupados porque la inteligencia artificial ya engaña a humanos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

M.Jelinek--TPP