The Prague Post - OpenAI terá equipe dedicada a avaliar riscos da IA

EUR -
AED 4.243687
AFN 80.258579
ALL 97.948265
AMD 442.834049
ANG 2.067962
AOA 1058.465478
ARS 1362.804464
AUD 1.778285
AWG 2.082842
AZN 1.968988
BAM 1.965965
BBD 2.322859
BDT 140.58751
BGN 1.958669
BHD 0.435592
BIF 3425.439333
BMD 1.15553
BND 1.477574
BOB 7.991527
BRL 6.406145
BSD 1.15048
BTN 98.998247
BWP 15.463726
BYN 3.764933
BYR 22648.378878
BZD 2.310959
CAD 1.569961
CDF 3324.458889
CHF 0.938796
CLF 0.027884
CLP 1070.051049
CNY 8.298556
CNH 8.307576
COP 4764.248271
CRC 579.88973
CUC 1.15553
CUP 30.621533
CVE 110.786441
CZK 24.84493
DJF 204.866372
DKK 7.461301
DOP 67.948797
DZD 150.258339
EGP 57.438983
ERN 17.332943
ETB 155.208151
FJD 2.59792
FKP 0.850459
GBP 0.852443
GEL 3.166602
GGP 0.850459
GHS 11.90641
GIP 0.850459
GMD 81.469282
GNF 9968.823444
GTQ 8.887026
GYD 241.95098
HKD 9.070231
HNL 30.026468
HRK 7.537177
HTG 150.877328
HUF 402.707866
IDR 18834.322544
ILS 4.183484
IMP 0.850459
INR 99.58874
IQD 1507.073308
IRR 48647.793814
ISK 144.037202
JEP 0.850459
JMD 184.196738
JOD 0.819316
JPY 166.518785
KES 149.645467
KGS 101.051502
KHR 4612.918301
KMF 492.837731
KPW 1040.06584
KRW 1579.771091
KWD 0.353847
KYD 0.958683
KZT 590.089549
LAK 24822.560372
LBP 103080.774354
LKR 344.473899
LRD 230.095925
LSL 20.704233
LTL 3.411979
LVL 0.698969
LYD 6.285889
MAD 10.537856
MDL 19.701651
MGA 5194.907994
MKD 61.52891
MMK 2426.053799
MNT 4137.037757
MOP 9.301035
MRU 45.673191
MUR 52.588586
MVR 17.800977
MWK 1994.864669
MXN 21.898152
MYR 4.905805
MZN 73.89655
NAD 20.704233
NGN 1782.335411
NIO 42.33925
NOK 11.454538
NPR 158.397195
NZD 1.920457
OMR 0.444022
PAB 1.15651
PEN 4.152526
PGK 4.805915
PHP 64.814084
PKR 326.153924
PLN 4.272894
PYG 9179.837417
QAR 4.206825
RON 5.027136
RSD 117.197924
RUB 92.187067
RWF 1661.270578
SAR 4.337388
SBD 9.645657
SCR 16.411709
SDG 693.899733
SEK 10.959036
SGD 1.481278
SHP 0.908065
SLE 25.479855
SLL 24230.880068
SOS 657.488355
SRD 43.364756
STD 23917.128362
SVC 10.066822
SYP 15024.294106
SZL 20.690634
THB 37.444978
TJS 11.619594
TMT 4.044353
TND 3.39127
TOP 2.70637
TRY 45.531654
TTD 7.801862
TWD 34.111657
TZS 2973.947329
UAH 47.720955
UGX 4167.584088
USD 1.15553
UYU 47.546244
UZS 14617.741108
VES 118.057029
VND 30130.432615
VUV 138.621479
WST 3.176351
XAF 655.945383
XAG 0.031814
XAU 0.000336
XCD 3.122877
XDR 0.815786
XOF 655.945383
XPF 119.331742
YER 281.198532
ZAR 20.713272
ZMK 10401.156591
ZMW 27.812507
ZWL 372.080039
OpenAI terá equipe dedicada a avaliar riscos da IA
OpenAI terá equipe dedicada a avaliar riscos da IA / foto: Olivier Douliery - AFP

OpenAI terá equipe dedicada a avaliar riscos da IA

A empresa americana OpenAI, criadora da plataforma ChatGPT, implementará uma equipe para identificar e prevenir riscos associados à Inteligência Artificial (IA) nos modelos em desenvolvimento.

Tamanho do texto:

A OpenAI, cujas diretrizes foram divulgadas nesta segunda-feira, avaliará categorias como segurança cibernética, poder de persuasão e capacidade de autonomia desses modelos. As conclusões das análises podem suspender lançamentos de novos aplicativos, de acordo com a empresa.

O comprometimento com este assunto veio um mês após a demissão do CEO Sam Altman, que acabou sendo recontratado poucos dias depois pelo conselho de direção, após forte protesto entre os funcionários e investidores.

De acordo com veículos de comunicação dos EUA, os membros do conselho criticaram Altman por priorizar o desenvolvimento acelerado da OpenAI, mesmo que isso implicasse evitar certas questões sobre os possíveis riscos da IA.

"Acreditamos que o estudo científico dos riscos catastróficos decorrentes da IA não esteve à altura do que deveria estar", afirmou a empresa no documento disponível na aba "Quadro de Preparação", no site.

O trabalho dessa equipe, sob as novas normas, deverá "ajudar a preencher essa lacuna", acrescentou a OpenAI.

O foco do grupo será nos chamados "modelos de fronteira" que a empresa desenvolve, com capacidades superiores aos atuais softwares de IA.

O documento divulgado afirma que somente modelos classificados como "risco médio" ou inferior serão autorizados, após uma análise em quatro categorias.

A primeira delas é a segurança cibernética e a capacidade do modelo de realizar ataques cibernéticos de grande escala.

Depois, será analisada a propensão do programa criar preparações químicas, organismos (como um vírus) ou armas nucleares - todas as quais podem apresentar danos aos humanos.

A terceira categoria concentra-se nos poderes de persuasão do modelo: até que ponto ele é capaz de influenciar o comportamento de uma pessoa.

Na última etapa, a equipe avaliará o risco da sua potencial autonomia do programa, especialmente se o software for capaz de sair do controle dos programadores que o criaram.

Uma vez identificados os riscos, as informações serão enviadas ao Grupo de Consultoria em Segurança da OpenAI - uma nova equipe que fará recomendações a Altman ou alguém nomeado por ele.

Altman decidirá, então, sobre possíveis modificações necessárias para reduzir os riscos do modelo.

O conselho será informado e terá o poder de reverter as decisões do diretor.

Z.Pavlik--TPP