The Prague Post - Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

EUR -
AED 4.254419
AFN 72.973309
ALL 96.164402
AMD 437.01703
ANG 2.073057
AOA 1062.166225
ARS 1639.84365
AUD 1.645941
AWG 2.087847
AZN 1.972554
BAM 1.959558
BBD 2.333074
BDT 141.671666
BGN 1.908478
BHD 0.43728
BIF 3260.631774
BMD 1.158306
BND 1.483344
BOB 8.032988
BRL 6.082613
BSD 1.158381
BTN 106.855904
BWP 15.74137
BYN 3.385893
BYR 22702.800273
BZD 2.329567
CAD 1.57401
CDF 2501.941462
CHF 0.902897
CLF 0.02686
CLP 1060.579771
CNY 8.005172
CNH 8.006577
COP 4364.335359
CRC 551.43838
CUC 1.158306
CUP 30.695113
CVE 110.56031
CZK 24.428209
DJF 205.854752
DKK 7.471514
DOP 70.084261
DZD 152.526914
EGP 61.143971
ERN 17.374592
ETB 177.889316
FJD 2.560434
FKP 0.863606
GBP 0.864814
GEL 3.156432
GGP 0.863606
GHS 12.492314
GIP 0.863606
GMD 84.556577
GNF 10164.135829
GTQ 8.88473
GYD 242.34681
HKD 9.056275
HNL 30.660794
HRK 7.532811
HTG 151.755762
HUF 394.749619
IDR 19633.289012
ILS 3.59317
IMP 0.863606
INR 106.780942
IQD 1516.801886
IRR 1530006.576149
ISK 145.089878
JEP 0.863606
JMD 181.468763
JOD 0.821232
JPY 183.345381
KES 149.767772
KGS 101.293865
KHR 4650.599162
KMF 492.279602
KPW 1042.475177
KRW 1709.869575
KWD 0.356527
KYD 0.965359
KZT 576.836125
LAK 24712.461343
LBP 103726.315159
LKR 360.774927
LRD 211.969464
LSL 19.170364
LTL 3.420176
LVL 0.700647
LYD 7.395827
MAD 10.898213
MDL 20.074668
MGA 4811.017802
MKD 61.636391
MMK 2432.525278
MNT 4134.102778
MOP 9.325441
MRU 46.46007
MUR 55.517567
MVR 17.895493
MWK 2010.819517
MXN 20.617294
MYR 4.59036
MZN 74.018531
NAD 19.422143
NGN 1617.817216
NIO 42.631749
NOK 11.168827
NPR 170.969847
NZD 1.958076
OMR 0.445366
PAB 1.158421
PEN 4.032933
PGK 4.991615
PHP 68.680593
PKR 325.676108
PLN 4.278378
PYG 7454.358631
QAR 4.224537
RON 5.097475
RSD 117.432597
RUB 90.635529
RWF 1693.56215
SAR 4.348474
SBD 9.318784
SCR 16.064567
SDG 696.718077
SEK 10.659156
SGD 1.480437
SHP 0.86903
SLE 28.40744
SLL 24289.099775
SOS 660.867261
SRD 43.629923
STD 23974.598412
STN 24.546222
SVC 10.135523
SYP 128.085396
SZL 19.16414
THB 37.042269
TJS 11.102703
TMT 4.054071
TND 3.382317
TOP 2.788924
TRY 51.039306
TTD 7.860072
TWD 36.920197
TZS 2988.429491
UAH 50.90816
UGX 4361.363232
USD 1.158306
UYU 46.339259
UZS 14122.202273
VES 501.112123
VND 30437.389499
VUV 138.272414
WST 3.174325
XAF 657.217262
XAG 0.01376
XAU 0.000227
XCD 3.13038
XCG 2.087703
XDR 0.820953
XOF 657.222947
XPF 119.331742
YER 276.365705
ZAR 19.169857
ZMK 10426.144868
ZMW 22.386929
ZWL 372.974103
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial / Foto: Olivier Douliery - AFP

Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la Inteligencia Artificial (IA) en sus modelos en desarrollo.

Tamaño del texto:

El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.

OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.

De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.

"Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar", afirmó la empresa en un "marco de trabajo" disponible en su página web.

El trabajo de este equipo, bajo las nuevas directrices, debería "ayudar a cubrir ese vacío", añadió OpenAI.

El grupo se concentrará en los llamados "modelos de frontera" que la empresa desarrolla, con capacidades superiores a los software actuales de IA.

Sólo podrán desplegarse aquellos modelos catalogados de riesgo "medio" o inferior, tras un análisis en cuatro categorías, según el documento.

La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.

En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.

La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.

Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.

Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.

Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.

El Consejo de administración será informado y podrá revertir las decisiones de la dirección.

A.Novak--TPP