The Prague Post - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 4.255446
AFN 80.51328
ALL 96.968767
AMD 444.625883
ANG 2.0735
AOA 1062.412792
ARS 1499.234134
AUD 1.77876
AWG 2.08833
AZN 1.967852
BAM 1.944687
BBD 2.340505
BDT 142.005266
BGN 1.952493
BHD 0.436668
BIF 3409.105275
BMD 1.158574
BND 1.489207
BOB 8.038303
BRL 6.489155
BSD 1.159191
BTN 100.399908
BWP 15.625228
BYN 3.793246
BYR 22708.058928
BZD 2.328324
CAD 1.590891
CDF 3347.121128
CHF 0.930764
CLF 0.028313
CLP 1110.713974
CNY 8.316074
CNH 8.321692
COP 4836.862895
CRC 585.503658
CUC 1.158574
CUP 30.702223
CVE 109.079329
CZK 24.586149
DJF 205.901728
DKK 7.462836
DOP 70.383463
DZD 150.476918
EGP 56.525606
ERN 17.378617
ETB 161.241492
FJD 2.611195
FKP 0.857326
GBP 0.867651
GEL 3.139791
GGP 0.857326
GHS 12.107415
GIP 0.857326
GMD 83.417541
GNF 10028.620163
GTQ 8.896395
GYD 242.501225
HKD 9.094804
HNL 30.354542
HRK 7.530849
HTG 151.642329
HUF 397.286616
IDR 19004.096459
ILS 3.88152
IMP 0.857326
INR 100.568314
IQD 1517.73251
IRR 48790.463504
ISK 142.191591
JEP 0.857326
JMD 185.949017
JOD 0.821454
JPY 172.102761
KES 149.98914
KGS 101.143963
KHR 4657.469046
KMF 491.812747
KPW 1042.716996
KRW 1610.059448
KWD 0.353886
KYD 0.965889
KZT 630.192589
LAK 24990.451023
LBP 103750.340804
LKR 349.930153
LRD 232.873348
LSL 20.749852
LTL 3.420969
LVL 0.70081
LYD 6.267525
MAD 10.414136
MDL 19.53054
MGA 5150.191863
MKD 61.21022
MMK 2432.516656
MNT 4156.677842
MOP 9.372237
MRU 46.134608
MUR 52.587735
MVR 17.842133
MWK 2011.866728
MXN 21.741785
MYR 4.901956
MZN 74.102527
NAD 20.750429
NGN 1772.201441
NIO 42.656245
NOK 11.822267
NPR 160.640251
NZD 1.941654
OMR 0.445454
PAB 1.159067
PEN 4.108557
PGK 4.877172
PHP 66.265241
PKR 328.282923
PLN 4.261918
PYG 8682.385324
QAR 4.21808
RON 5.071889
RSD 117.120165
RUB 94.250492
RWF 1676.077545
SAR 4.345997
SBD 9.598899
SCR 16.989088
SDG 695.720595
SEK 11.143928
SGD 1.491253
SHP 0.910458
SLE 26.588958
SLL 24294.73119
SOS 662.116779
SRD 42.35781
STD 23980.151654
STN 24.360688
SVC 10.143039
SYP 15063.555065
SZL 20.750123
THB 37.577633
TJS 11.040358
TMT 4.066596
TND 3.397456
TOP 2.713501
TRY 46.995485
TTD 7.882379
TWD 34.349994
TZS 2977.536016
UAH 48.482072
UGX 4155.219523
USD 1.158574
UYU 46.457331
UZS 14585.345808
VES 139.345685
VND 30354.6502
VUV 137.404105
WST 3.173318
XAF 652.168326
XAG 0.030448
XAU 0.00035
XCD 3.131106
XCG 2.089009
XDR 0.803367
XOF 652.269079
XPF 119.331742
YER 279.158667
ZAR 20.74425
ZMK 10428.561218
ZMW 27.180101
ZWL 373.060495
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

P.Svatek--TPP