The Prague Post - Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

EUR -
AED 4.297145
AFN 80.514189
ALL 97.785062
AMD 447.604669
ANG 2.093828
AOA 1072.828477
ARS 1490.487912
AUD 1.796502
AWG 2.108804
AZN 1.988028
BAM 1.957486
BBD 2.353467
BDT 141.762105
BGN 1.957455
BHD 0.441058
BIF 3473.584104
BMD 1.169933
BND 1.494998
BOB 8.054282
BRL 6.514886
BSD 1.165624
BTN 100.570924
BWP 16.653348
BYN 3.814451
BYR 22930.681112
BZD 2.341357
CAD 1.600836
CDF 3376.425952
CHF 0.932781
CLF 0.029099
CLP 1116.641972
CNY 8.395422
CNH 8.396338
COP 4721.052863
CRC 588.068828
CUC 1.169933
CUP 31.003217
CVE 110.364778
CZK 24.629434
DJF 207.352145
DKK 7.465247
DOP 70.496202
DZD 151.881856
EGP 57.362318
ERN 17.548991
ETB 161.976833
FJD 2.636797
FKP 0.866844
GBP 0.867107
GEL 3.170194
GGP 0.866844
GHS 12.181013
GIP 0.866844
GMD 83.65191
GNF 10113.062475
GTQ 8.952093
GYD 243.780396
HKD 9.183884
HNL 30.502317
HRK 7.535068
HTG 152.942585
HUF 399.224916
IDR 19090.669476
ILS 3.924416
IMP 0.866844
INR 101.064985
IQD 1526.941319
IRR 49268.786988
ISK 142.404159
JEP 0.866844
JMD 186.370616
JOD 0.829505
JPY 172.58438
KES 151.214174
KGS 102.310986
KHR 4675.747647
KMF 493.711538
KPW 1052.975712
KRW 1622.784363
KWD 0.357239
KYD 0.971353
KZT 617.952831
LAK 25138.082171
LBP 104436.540711
LKR 351.718962
LRD 233.701284
LSL 20.681067
LTL 3.454507
LVL 0.70768
LYD 6.326557
MAD 10.538027
MDL 19.809401
MGA 5184.110792
MKD 61.61307
MMK 2455.633802
MNT 4199.214209
MOP 9.423878
MRU 46.362962
MUR 53.220355
MVR 18.017096
MWK 2021.002574
MXN 21.866163
MYR 4.949397
MZN 74.828136
NAD 20.681067
NGN 1788.686529
NIO 42.894197
NOK 11.912752
NPR 160.896272
NZD 1.967184
OMR 0.449857
PAB 1.165654
PEN 4.156151
PGK 4.898906
PHP 66.715995
PKR 332.029338
PLN 4.252511
PYG 8864.787139
QAR 4.260652
RON 5.070255
RSD 117.185091
RUB 91.43491
RWF 1684.149859
SAR 4.388967
SBD 9.693004
SCR 17.057193
SDG 702.566756
SEK 11.210792
SGD 1.499748
SHP 0.919383
SLE 26.908132
SLL 24532.908576
SOS 666.002496
SRD 42.907303
STD 24215.245008
STN 24.519548
SVC 10.198959
SYP 15211.298754
SZL 20.672569
THB 37.80082
TJS 11.14908
TMT 4.106464
TND 3.424596
TOP 2.740098
TRY 47.28962
TTD 7.912951
TWD 34.446911
TZS 3035.975065
UAH 48.781282
UGX 4176.776129
USD 1.169933
UYU 47.062548
UZS 14660.878629
VES 136.841176
VND 30587.305732
VUV 138.951441
WST 3.084099
XAF 656.483176
XAG 0.030117
XAU 0.000345
XCD 3.161802
XCG 2.100645
XDR 0.816447
XOF 656.533722
XPF 119.331742
YER 281.895226
ZAR 20.669551
ZMK 10530.80464
ZMW 26.80855
ZWL 376.717855
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial / Foto: Olivier Douliery - AFP

Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la Inteligencia Artificial (IA) en sus modelos en desarrollo.

Tamaño del texto:

El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.

OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.

De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.

"Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar", afirmó la empresa en un "marco de trabajo" disponible en su página web.

El trabajo de este equipo, bajo las nuevas directrices, debería "ayudar a cubrir ese vacío", añadió OpenAI.

El grupo se concentrará en los llamados "modelos de frontera" que la empresa desarrolla, con capacidades superiores a los software actuales de IA.

Sólo podrán desplegarse aquellos modelos catalogados de riesgo "medio" o inferior, tras un análisis en cuatro categorías, según el documento.

La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.

En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.

La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.

Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.

Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.

Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.

El Consejo de administración será informado y podrá revertir las decisiones de la dirección.

A.Novak--TPP