The Prague Post - Expertos preocupados porque la inteligencia artificial ya engaña a humanos

EUR -
AED 4.302663
AFN 76.74015
ALL 96.411485
AMD 444.279233
ANG 2.097242
AOA 1074.348762
ARS 1680.363188
AUD 1.739245
AWG 2.108864
AZN 1.994559
BAM 1.953601
BBD 2.360833
BDT 143.388611
BGN 1.967536
BHD 0.441691
BIF 3470.908181
BMD 1.171591
BND 1.503008
BOB 8.099849
BRL 6.299668
BSD 1.172181
BTN 106.470928
BWP 15.664369
BYN 3.378982
BYR 22963.190106
BZD 2.357437
CAD 1.621102
CDF 2524.779654
CHF 0.926641
CLF 0.026289
CLP 1038.029699
CNY 8.155678
CNH 8.156389
COP 4302.083371
CRC 571.554256
CUC 1.171591
CUP 31.04717
CVE 111.07018
CZK 24.336822
DJF 208.735061
DKK 7.470416
DOP 74.326026
DZD 152.071362
EGP 55.627511
ERN 17.57387
ETB 182.066086
FJD 2.656044
FKP 0.869816
GBP 0.871968
GEL 3.157406
GGP 0.869816
GHS 12.705941
GIP 0.869816
GMD 86.113238
GNF 10265.445873
GTQ 8.979271
GYD 244.987512
HKD 9.135425
HNL 30.988826
HRK 7.533686
HTG 153.446635
HUF 385.037044
IDR 19874.992514
ILS 3.712067
IMP 0.869816
INR 107.195332
IQD 1535.565113
IRR 49353.285043
ISK 146.190901
JEP 0.869816
JMD 184.573044
JOD 0.830669
JPY 185.392021
KES 151.076874
KGS 102.45564
KHR 4720.666574
KMF 492.068319
KPW 1054.468854
KRW 1722.045917
KWD 0.360358
KYD 0.976796
KZT 595.467239
LAK 25348.361331
LBP 104968.306434
LKR 363.019859
LRD 216.656501
LSL 19.264335
LTL 3.459405
LVL 0.708684
LYD 6.370829
MAD 10.740965
MDL 19.96844
MGA 5313.166529
MKD 61.555717
MMK 2459.980518
MNT 4177.669534
MOP 9.414264
MRU 46.852066
MUR 53.89315
MVR 18.101067
MWK 2032.612222
MXN 20.60753
MYR 4.753153
MZN 74.876225
NAD 19.264335
NGN 1662.827557
NIO 43.00089
NOK 11.703395
NPR 170.524341
NZD 2.007194
OMR 0.450471
PAB 1.172176
PEN 3.935271
PGK 4.907504
PHP 69.466581
PKR 328.016264
PLN 4.224114
PYG 7828.189092
QAR 4.265745
RON 5.092948
RSD 117.430939
RUB 91.443523
RWF 1709.583099
SAR 4.393567
SBD 9.52529
SCR 16.687663
SDG 704.716502
SEK 10.68967
SGD 1.504793
SHP 0.878997
SLE 28.293647
SLL 24567.683577
SOS 669.556255
SRD 44.884796
STD 24249.575138
STN 24.837736
SVC 10.256412
SYP 12957.302082
SZL 19.268313
THB 36.542521
TJS 10.931287
TMT 4.10057
TND 3.386778
TOP 2.820911
TRY 50.721354
TTD 7.943026
TWD 37.068561
TZS 2961.194793
UAH 50.732998
UGX 4051.549407
USD 1.171591
UYU 45.006128
UZS 14146.965383
VES 406.343045
VND 30777.118495
VUV 141.563885
WST 3.259808
XAF 655.22232
XAG 0.012364
XAU 0.000241
XCD 3.166285
XCG 2.112513
XDR 0.814883
XOF 656.682377
XPF 119.331742
YER 279.2491
ZAR 19.20715
ZMK 10545.728618
ZMW 23.472481
ZWL 377.251931
Expertos preocupados porque la inteligencia artificial ya engaña a humanos
Expertos preocupados porque la inteligencia artificial ya engaña a humanos / Foto: Kirill KUDRYAVTSEV - AFP/Archivos

Expertos preocupados porque la inteligencia artificial ya engaña a humanos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

M.Jelinek--TPP