The Prague Post - Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

EUR -
AED 4.305885
AFN 76.810625
ALL 96.485907
AMD 444.528755
ANG 2.098808
AOA 1075.151523
ARS 1677.216
AUD 1.730424
AWG 2.110439
AZN 1.991518
BAM 1.956445
BBD 2.360078
BDT 143.335395
BGN 1.969005
BHD 0.442155
BIF 3470.091376
BMD 1.172466
BND 1.503695
BOB 8.097013
BRL 6.248112
BSD 1.171786
BTN 107.320108
BWP 15.63882
BYN 3.371511
BYR 22980.340008
BZD 2.356777
CAD 1.616972
CDF 2526.665087
CHF 0.92833
CLF 0.026139
CLP 1032.086977
CNY 8.161777
CNH 8.156637
COP 4304.745293
CRC 573.889096
CUC 1.172466
CUP 31.070358
CVE 110.299933
CZK 24.332486
DJF 208.677658
DKK 7.470316
DOP 73.85465
DZD 152.137996
EGP 55.550514
ERN 17.586995
ETB 182.552257
FJD 2.658005
FKP 0.870466
GBP 0.871564
GEL 3.15981
GGP 0.870466
GHS 12.737686
GIP 0.870466
GMD 86.172875
GNF 10264.250748
GTQ 8.994964
GYD 245.171239
HKD 9.14213
HNL 30.903183
HRK 7.52993
HTG 153.43121
HUF 384.687965
IDR 19825.233122
ILS 3.702713
IMP 0.870466
INR 107.405533
IQD 1535.112365
IRR 49390.144207
ISK 146.183083
JEP 0.870466
JMD 184.220701
JOD 0.831262
JPY 185.355366
KES 151.154734
KGS 102.532022
KHR 4715.754942
KMF 492.436067
KPW 1055.256377
KRW 1718.108406
KWD 0.360252
KYD 0.976563
KZT 593.9409
LAK 25335.320358
LBP 104939.052496
LKR 362.849559
LRD 216.210462
LSL 19.168316
LTL 3.461989
LVL 0.709213
LYD 6.912896
MAD 10.751205
MDL 19.862222
MGA 5402.010329
MKD 61.64031
MMK 2461.817738
MNT 4180.789598
MOP 9.412003
MRU 46.778413
MUR 53.932856
MVR 18.114561
MWK 2031.956181
MXN 20.449788
MYR 4.744954
MZN 74.931953
NAD 19.168316
NGN 1665.241639
NIO 43.124761
NOK 11.642057
NPR 171.713438
NZD 2.000679
OMR 0.450888
PAB 1.171831
PEN 3.933746
PGK 5.009587
PHP 69.449823
PKR 327.839923
PLN 4.220275
PYG 7847.585775
QAR 4.272353
RON 5.095895
RSD 117.394316
RUB 90.011879
RWF 1709.136046
SAR 4.396767
SBD 9.532404
SCR 15.881492
SDG 705.238356
SEK 10.643503
SGD 1.503665
SHP 0.879653
SLE 28.315319
SLL 24586.031783
SOS 668.545945
SRD 44.800176
STD 24267.685768
STN 24.50818
SVC 10.253247
SYP 12966.979154
SZL 19.164069
THB 36.476577
TJS 10.927467
TMT 4.103632
TND 3.416026
TOP 2.823017
TRY 50.766735
TTD 7.95496
TWD 37.047606
TZS 2989.789486
UAH 50.570816
UGX 4054.335901
USD 1.172466
UYU 44.954046
UZS 14147.661646
VES 406.64652
VND 30794.828077
VUV 141.669611
WST 3.262243
XAF 656.201202
XAG 0.012442
XAU 0.000241
XCD 3.168649
XCG 2.11195
XDR 0.815491
XOF 656.164811
XPF 119.331742
YER 279.45674
ZAR 19.054805
ZMK 10553.613988
ZMW 23.583777
ZWL 377.533679
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial / Foto: Olivier Douliery - AFP

Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la Inteligencia Artificial (IA) en sus modelos en desarrollo.

Tamaño del texto:

El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.

OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.

De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.

"Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar", afirmó la empresa en un "marco de trabajo" disponible en su página web.

El trabajo de este equipo, bajo las nuevas directrices, debería "ayudar a cubrir ese vacío", añadió OpenAI.

El grupo se concentrará en los llamados "modelos de frontera" que la empresa desarrolla, con capacidades superiores a los software actuales de IA.

Sólo podrán desplegarse aquellos modelos catalogados de riesgo "medio" o inferior, tras un análisis en cuatro categorías, según el documento.

La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.

En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.

La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.

Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.

Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.

Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.

El Consejo de administración será informado y podrá revertir las decisiones de la dirección.

A.Novak--TPP