The Prague Post - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 4.241153
AFN 72.754563
ALL 95.904412
AMD 436.077607
ANG 2.067262
AOA 1058.989364
ARS 1607.142281
AUD 1.654835
AWG 2.081601
AZN 1.95977
BAM 1.954803
BBD 2.329412
BDT 141.917624
BGN 1.97398
BHD 0.436272
BIF 3423.45409
BMD 1.154841
BND 1.479146
BOB 7.99182
BRL 6.143319
BSD 1.15661
BTN 108.125857
BWP 15.771435
BYN 3.508935
BYR 22634.884553
BZD 2.326114
CAD 1.587035
CDF 2627.263453
CHF 0.912861
CLF 0.02714
CLP 1072.223987
CNY 7.952696
CNH 7.970476
COP 4285.361066
CRC 540.224494
CUC 1.154841
CUP 30.603288
CVE 110.208795
CZK 24.490831
DJF 205.954966
DKK 7.471741
DOP 68.654987
DZD 152.950997
EGP 60.324739
ERN 17.322616
ETB 182.275564
FJD 2.568655
FKP 0.865578
GBP 0.865213
GEL 3.135356
GGP 0.865578
GHS 12.60757
GIP 0.865578
GMD 84.87984
GNF 10137.829861
GTQ 8.859482
GYD 241.973454
HKD 9.044802
HNL 30.613918
HRK 7.521945
HTG 151.732619
HUF 392.05814
IDR 19571.091251
ILS 3.618573
IMP 0.865578
INR 108.037231
IQD 1515.127308
IRR 1519337.754721
ISK 143.429337
JEP 0.865578
JMD 181.710477
JOD 0.818758
JPY 183.649756
KES 149.66002
KGS 100.990396
KHR 4621.643032
KMF 493.117464
KPW 1039.361533
KRW 1729.189906
KWD 0.354109
KYD 0.963808
KZT 556.046425
LAK 24836.118896
LBP 103580.078814
LKR 360.792877
LRD 211.652061
LSL 19.510581
LTL 3.409946
LVL 0.698551
LYD 7.404224
MAD 10.807448
MDL 20.141554
MGA 4822.686665
MKD 61.484385
MMK 2424.533847
MNT 4119.260525
MOP 9.335739
MRU 46.297389
MUR 53.781172
MVR 17.853984
MWK 2005.63794
MXN 20.652427
MYR 4.549493
MZN 73.795385
NAD 19.51075
NGN 1573.886435
NIO 42.558296
NOK 11.265017
NPR 173.000274
NZD 1.988749
OMR 0.444016
PAB 1.156595
PEN 3.998661
PGK 4.992454
PHP 69.281806
PKR 322.926298
PLN 4.27394
PYG 7554.1475
QAR 4.229343
RON 5.097703
RSD 117.46927
RUB 95.073447
RWF 1682.870906
SAR 4.335248
SBD 9.298388
SCR 16.082539
SDG 694.059788
SEK 10.871788
SGD 1.478179
SHP 0.86643
SLE 28.38022
SLL 24216.451871
SOS 660.97436
SRD 43.2921
STD 23902.878092
STN 24.487512
SVC 10.119839
SYP 127.6839
SZL 19.517722
THB 37.74134
TJS 11.108835
TMT 4.053492
TND 3.415858
TOP 2.78058
TRY 51.180177
TTD 7.84693
TWD 36.92108
TZS 2970.769215
UAH 50.668895
UGX 4371.770464
USD 1.154841
UYU 46.605223
UZS 14100.808802
VES 525.095404
VND 30419.668062
VUV 137.687189
WST 3.150166
XAF 655.633991
XAG 0.017179
XAU 0.000266
XCD 3.121016
XCG 2.084419
XDR 0.815409
XOF 655.622642
XPF 119.331742
YER 275.543707
ZAR 19.622018
ZMK 10394.962502
ZMW 22.582483
ZWL 371.858346
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

P.Svatek--TPP