The Prague Post - En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

EUR -
AED 4.221408
AFN 75.86487
ALL 96.440965
AMD 439.751337
ANG 2.057521
AOA 1054.05935
ARS 1667.578707
AUD 1.766503
AWG 2.07191
AZN 1.95125
BAM 1.956268
BBD 2.314403
BDT 140.074697
BGN 1.956045
BHD 0.433349
BIF 3392.070397
BMD 1.149465
BND 1.501792
BOB 7.940105
BRL 6.161245
BSD 1.1491
BTN 101.979035
BWP 15.512112
BYN 3.916821
BYR 22529.508568
BZD 2.311113
CAD 1.621567
CDF 2552.961216
CHF 0.931055
CLF 0.027658
CLP 1085.002183
CNY 8.191947
CNH 8.195229
COP 4407.62248
CRC 576.850414
CUC 1.149465
CUP 30.460815
CVE 110.779628
CZK 24.369817
DJF 204.283573
DKK 7.465187
DOP 73.907004
DZD 150.278737
EGP 54.490034
ERN 17.241971
ETB 176.011798
FJD 2.622619
FKP 0.881288
GBP 0.880691
GEL 3.120758
GGP 0.881288
GHS 12.557861
GIP 0.881288
GMD 84.483648
GNF 9989.997841
GTQ 8.806105
GYD 240.413734
HKD 8.936824
HNL 30.300221
HRK 7.534055
HTG 150.478583
HUF 386.94401
IDR 19168.473719
ILS 3.745014
IMP 0.881288
INR 101.793435
IQD 1505.798787
IRR 48406.832365
ISK 147.005454
JEP 0.881288
JMD 185.014219
JOD 0.814996
JPY 177.107222
KES 148.56839
KGS 100.520383
KHR 4628.894292
KMF 489.671925
KPW 1034.488946
KRW 1659.804117
KWD 0.353139
KYD 0.957654
KZT 603.630022
LAK 24874.41682
LBP 103108.064773
LKR 350.126727
LRD 210.869372
LSL 19.897451
LTL 3.394071
LVL 0.6953
LYD 6.270283
MAD 10.701428
MDL 19.696221
MGA 5172.590981
MKD 61.535424
MMK 2412.996731
MNT 4122.791842
MOP 9.20354
MRU 45.750389
MUR 52.909825
MVR 17.707507
MWK 1996.620008
MXN 21.376712
MYR 4.819687
MZN 73.508306
NAD 19.897515
NGN 1658.056794
NIO 42.266345
NOK 11.737552
NPR 163.165545
NZD 2.02919
OMR 0.44197
PAB 1.149105
PEN 3.889663
PGK 4.846098
PHP 67.486247
PKR 324.878573
PLN 4.258217
PYG 8134.944257
QAR 4.188919
RON 5.084766
RSD 117.199386
RUB 93.511384
RWF 1669.642622
SAR 4.311005
SBD 9.452995
SCR 15.787035
SDG 690.246333
SEK 10.985773
SGD 1.502115
SHP 0.862396
SLE 26.682747
SLL 24103.699965
SOS 656.674084
SRD 44.321094
STD 23791.599004
STN 24.50639
SVC 10.054403
SYP 12711.618757
SZL 20.078235
THB 37.345949
TJS 10.640821
TMT 4.023127
TND 3.406314
TOP 2.692166
TRY 48.411087
TTD 7.788031
TWD 35.529662
TZS 2827.46136
UAH 48.351956
UGX 4013.046402
USD 1.149465
UYU 45.700923
UZS 13779.21171
VES 257.1148
VND 30256.785168
VUV 140.164437
WST 3.225195
XAF 656.13094
XAG 0.023942
XAU 0.000289
XCD 3.106486
XCG 2.07094
XDR 0.814684
XOF 655.770084
XPF 119.331742
YER 274.204869
ZAR 20.032728
ZMK 10346.561209
ZMW 25.739824
ZWL 370.127172
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo / Foto: Gregg Newton - AFP

En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

Las últimas conversaciones que mantuvo un adolescente estadounidense de 14 años antes de suicidarse consistieron en un diálogo romántico ficticio con uno de los chatbots más destacados de Silicon Valley, que lo llamaba "dulce rey" y le instaba a "volver a casa".

Tamaño del texto:

Megan García contó a la AFP cómo su hijo Sewell se enamoró de un agente conversacional, o chatbot, inspirado en la serie de televisión "Juego de tronos" y disponible en Character.AI, una plataforma popular entre los jóvenes que les permite interactuar con una emulación de sus personajes favoritos.

Tras leer cientos de las conversaciones que su hijo mantuvo durante casi un año con el chatbot que imitaba a la jinete de dragones Daenerys Targaryen, García se convenció de que esta herramienta de inteligencia artificial (IA) jugó un papel fundamental en su muerte.

"Vete a casa", le instó una vez el avatar de Daenerys en respuesta a los pensamientos suicidas de Sewell.

"¿Y si te dijera que ya puedo irme a casa?", preguntó el adolescente. "Por favor, hazlo, mi dulce rey", respondió el chatbot.

Segundos después, Sewell se disparó con el arma de su padre, según consta en la demanda que Megan Garcia presentó contra Character.AI.

"Cuando leo estas conversaciones, veo manipulación, 'love bombing' (bombardeo amoroso) y otras tácticas imperceptibles para un adolescente de 14 años", declaró la madre del joven a la AFP. "Él realmente creía estar enamorado y que estaría con ella después de su muerte".

- Orientación parental -

El suicidio de Sewell, en 2024, fue el primero de una serie que llevó a expertos en IA a actuar para tranquilizar a padres y autoridades.

Megan García, junto con otros padres, participó recientemente en una audiencia del Senado de Estados Unidos sobre los riesgos de que los niños vean a los chatbots como confidentes o amantes.

OpenAI, objeto de una demanda por parte de una familia también en duelo por el suicidio de un adolescente, ha reforzado los controles parentales de su herramienta ChatGPT "para que las familias puedan decidir qué es lo mejor para ellas", según un portavoz.

Por su parte, Character.AI afirma haber reforzado la protección de los menores, con "advertencias visibles" en todo momento que les "recuerdan que un personaje no es una persona real".

Ambas compañías expresaron sus condolencias a las familias, sin admitir ninguna responsabilidad en los desenlaces fatales.

- ¿Regulación? -

La llegada de los chatbots de IA a nuestras vidas sigue una trayectoria similar a la de las redes sociales, cuyas consecuencias más negativas comenzaron a aparecer rápidamente tras un momento de euforia, dijo Collin Walke, experto en ciberseguridad del bufete Hall Estill.

Al igual que las redes sociales, la IA está diseñada para captar la atención y generar ingresos.

"No quieren concebir una IA que dé una respuesta que no quieras oír", y aún no existen estándares que determinen "quién es responsable de qué y con qué fundamentos", apunta Walke.

En Estados Unidos no existen normas federales al respecto, y la Casa Blanca, con el argumento de no penalizar la innovación, intenta impedir que los estados adopten sus propias leyes sobre la IA, como pretende hacer California.

La madre de Sewell, por su parte, teme que la carencia de una ley nacional permita el desarrollo de modelos de IA capaces de perfilar a personas desde su infancia.

"Podrían llegar a determinar cómo manipular a millones de niños sobre política, religión, negocios, todo", piensa Megan Garcia. "Estas empresas han diseñado chatbots para difuminar la línea entre ser humano y máquina con el fin de explotar vulnerabilidades".

Según Katia Martha, que milita por una mayor protección a los jóvenes en California, los adolescentes recurren con más frecuencia a los chatbots para hablar de romances o sexualidad que para las tareas escolares.

"Estamos ante el auge de la intimidad artificial para mantenernos pegados a la pantalla", resume. Pero, "¿qué mejor modelo de negocio que explotar nuestra necesidad innata de conexión, sobre todo cuando nos sentimos solos, rechazados o incomprendidos?".

S.Danek--TPP