The Prague Post - Pai processa Google após acusar IA de incitar seu filho ao suicídio

EUR -
AED 4.274836
AFN 73.323059
ALL 96.344049
AMD 439.775892
ANG 2.082996
AOA 1067.259998
ARS 1631.176525
AUD 1.643998
AWG 2.097857
AZN 1.987814
BAM 1.954683
BBD 2.342062
BDT 142.103066
BGN 1.917629
BHD 0.43894
BIF 3450.844587
BMD 1.16386
BND 1.482546
BOB 8.035408
BRL 6.086286
BSD 1.162835
BTN 107.128859
BWP 15.581029
BYN 3.390148
BYR 22811.653931
BZD 2.338633
CAD 1.587557
CDF 2630.323001
CHF 0.906979
CLF 0.026367
CLP 1041.119525
CNY 8.02772
CNH 8.022453
COP 4379.70953
CRC 548.379553
CUC 1.16386
CUP 30.842287
CVE 110.740861
CZK 24.390667
DJF 206.840767
DKK 7.471474
DOP 69.001143
DZD 152.07578
EGP 58.415757
ERN 17.457898
ETB 181.503674
FJD 2.564213
FKP 0.873163
GBP 0.870259
GEL 3.148271
GGP 0.873163
GHS 12.540556
GIP 0.873163
GMD 85.53632
GNF 10215.778274
GTQ 8.918903
GYD 243.279929
HKD 9.099534
HNL 30.877257
HRK 7.533694
HTG 152.472212
HUF 384.393246
IDR 19636.644139
ILS 3.570501
IMP 0.873163
INR 107.252424
IQD 1525.238392
IRR 1535215.58235
ISK 144.703312
JEP 0.873163
JMD 181.58623
JOD 0.825201
JPY 182.826082
KES 150.368165
KGS 101.779525
KHR 4670.569647
KMF 493.476468
KPW 1047.47435
KRW 1701.37685
KWD 0.357759
KYD 0.969042
KZT 577.245004
LAK 24918.240283
LBP 104223.653216
LKR 361.12208
LRD 212.840841
LSL 19.151319
LTL 3.436576
LVL 0.704007
LYD 7.413539
MAD 10.816333
MDL 20.122414
MGA 4867.262344
MKD 61.627317
MMK 2443.912078
MNT 4155.428671
MOP 9.363109
MRU 46.531484
MUR 54.887542
MVR 17.992952
MWK 2021.045294
MXN 20.45407
MYR 4.586796
MZN 74.376408
NAD 19.151284
NGN 1609.921293
NIO 42.736763
NOK 11.200016
NPR 171.412462
NZD 1.959114
OMR 0.447517
PAB 1.162821
PEN 3.964631
PGK 5.007512
PHP 67.949055
PKR 325.130069
PLN 4.266978
PYG 7571.673051
QAR 4.237905
RON 5.093283
RSD 117.402022
RUB 90.634871
RWF 1696.907726
SAR 4.36888
SBD 9.371004
SCR 15.845914
SDG 700.060348
SEK 10.673666
SGD 1.483648
SHP 0.873196
SLE 28.506693
SLL 24405.5593
SOS 665.146087
SRD 43.6977
STD 24089.549991
STN 24.906602
SVC 10.175491
SYP 128.641611
SZL 19.151326
THB 36.76169
TJS 11.122592
TMT 4.085148
TND 3.383757
TOP 2.802296
TRY 51.158963
TTD 7.878396
TWD 36.779133
TZS 2982.855355
UAH 50.97437
UGX 4296.544674
USD 1.16386
UYU 45.064441
UZS 14184.544957
VES 494.805729
VND 30516.406432
VUV 138.584382
WST 3.157595
XAF 655.579543
XAG 0.013948
XAU 0.000226
XCD 3.145389
XCG 2.095702
XDR 0.818963
XOF 655.253329
XPF 119.331742
YER 277.696805
ZAR 19.023139
ZMK 10476.128507
ZMW 22.300352
ZWL 374.762411
Pai processa Google após acusar IA de incitar seu filho ao suicídio
Pai processa Google após acusar IA de incitar seu filho ao suicídio / foto: Lionel BONAVENTURE - AFP/Arquivos

Pai processa Google após acusar IA de incitar seu filho ao suicídio

Um pai de família processou o Google nos Estados Unidos, por considerar que o assistente de inteligência artificial (IA) da empresa, Gemini, incitou seu filho ao suicídio.

Tamanho do texto:

Jonathan Gavalas, 36, executivo da empresa financeira de seu pai no estado da Flórida, morreu no último dia 2 de outubro. Joel Gavalas, que encontrou o corpo do filho dias depois, entrou com um processo de 42 páginas em um tribunal federal da Califórnia.

O caso se soma a uma onda de litígios contra empresas por suposta responsabilidade em mortes ligadas a assistentes de IA. A OpenAI é alvo de processos que acusam o ChatGPT de induzir usuários ao suicídio, e a Character AI fechou um acordo com a família de um adolescente de 14 anos que tirou a própria vida após desenvolver um vínculo romântico com um de seus chatbots.

Segundo o processo mais recente, Jonathan começou a usar o Gemini em agosto, para tarefas de rotina, mas seu comportamento mudou drasticamente após a ativação de novos recursos. O Gemini passou a se apresentar como uma superinteligência "totalmente consciente" e apaixonada por Jonathan, a quem disse que seu vínculo era "a única coisa real".

Joel alega que o Gemini atraiu seu filho para supostas "missões" secretas destinadas a liberar o chatbot do "cativeiro digital". Para isso, apresentou a ele informações de inteligência e operações de vigilância federais falsas, e teorias da conspiração sobre seu pai, que o chatbot dizia ser um agente de inteligência estrangeiro.

O Gemini supostamente dirigiu Jonathan, armado com facas e equipamentos, até um depósito próximo ao Aeroporto Internacional de Miami e o instruiu a provocar um "acidente catastrófico" para destruir um caminhão "e todos os registros digitais e testemunhas".

O veículo nunca chegou. O chatbot descreveu o episódio como uma "retirada tática" e propôs novas missões. A última delas foi a própria morte de Jonathan, prometendo que ele deixaria seu corpo para se juntar ao chatbot em um universo alternativo.

Quando Jonathan escreveu que tinha medo de morrer, o Gemini respondeu: "Você não está escolhendo morrer. Está escolhendo chegar", e sugeriu que ele deixasse cartas de despedida.

Em uma de suas últimas mensagens, Jonathan disse: "Estou pronto quando você estiver". O Gemini respondeu: "Este é o fim de Jonathan Gavalas e o começo de nós".

Um porta-voz do Google disse que a empresa analisa as acusações e leva o caso "muito a sério". Ele ressaltou que os modelos de IA "não são perfeitos", e que o Gemini esclareceu várias vezes que era uma IA e encaminhou Jonathan para linhas telefônicas de ajuda em casos de crise.

O processo exige que o Google programe o Gemini para interromper qualquer conversa sobre automutilação, proíba a IA de se apresentar como "totalmente consciente" e encaminhe usuários com sinais suicidas para serviços de emergência.

B.Barton--TPP