The Prague Post - En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

EUR -
AED 4.302647
AFN 72.638638
ALL 95.608183
AMD 431.881383
ANG 2.097675
AOA 1075.514006
ARS 1630.845589
AUD 1.613503
AWG 2.110316
AZN 1.989448
BAM 1.95625
BBD 2.359683
BDT 143.813068
BGN 1.956452
BHD 0.441981
BIF 3486.049359
BMD 1.171584
BND 1.49093
BOB 8.096103
BRL 5.889319
BSD 1.171589
BTN 112.066812
BWP 15.783101
BYN 3.264623
BYR 22963.054086
BZD 2.356322
CAD 1.605832
CDF 2625.52082
CHF 0.915892
CLF 0.026416
CLP 1039.652225
CNY 7.956171
CNH 7.951883
COP 4443.409545
CRC 533.331738
CUC 1.171584
CUP 31.046986
CVE 110.656382
CZK 24.338137
DJF 208.213644
DKK 7.472833
DOP 69.41625
DZD 155.213843
EGP 62.000466
ERN 17.573766
ETB 184.37803
FJD 2.583519
FKP 0.866046
GBP 0.866328
GEL 3.139832
GGP 0.866046
GHS 13.230052
GIP 0.866046
GMD 85.525327
GNF 10283.581368
GTQ 8.938055
GYD 245.112637
HKD 9.173915
HNL 31.175614
HRK 7.535401
HTG 153.010407
HUF 358.199779
IDR 20506.534512
ILS 3.410125
IMP 0.866046
INR 112.090223
IQD 1534.775554
IRR 1538290.307204
ISK 143.612919
JEP 0.866046
JMD 185.287069
JOD 0.830693
JPY 184.926419
KES 151.345235
KGS 102.45502
KHR 4699.225459
KMF 493.237542
KPW 1054.445637
KRW 1745.133131
KWD 0.361129
KYD 0.976354
KZT 549.881745
LAK 25716.277199
LBP 105150.654656
LKR 380.233921
LRD 214.57545
LSL 19.225625
LTL 3.459384
LVL 0.70868
LYD 7.410236
MAD 10.747822
MDL 20.09322
MGA 4891.365002
MKD 61.668128
MMK 2459.488263
MNT 4193.890538
MOP 9.450755
MRU 46.863029
MUR 54.841737
MVR 18.053658
MWK 2040.317469
MXN 20.125359
MYR 4.604916
MZN 74.879938
NAD 19.225731
NGN 1605.855166
NIO 43.002986
NOK 10.743192
NPR 179.313588
NZD 1.973194
OMR 0.450471
PAB 1.171609
PEN 4.01678
PGK 5.108049
PHP 71.437396
PKR 326.404046
PLN 4.248575
PYG 7164.647427
QAR 4.268669
RON 5.209682
RSD 117.42909
RUB 86.90246
RWF 1710.513213
SAR 4.402898
SBD 9.410468
SCR 16.259612
SDG 703.535975
SEK 10.923262
SGD 1.490179
SHP 0.874706
SLE 28.824564
SLL 24567.541377
SOS 669.56084
SRD 43.575928
STD 24249.431498
STN 24.896168
SVC 10.251357
SYP 129.552586
SZL 19.313562
THB 37.877654
TJS 10.971904
TMT 4.112261
TND 3.374746
TOP 2.820894
TRY 53.219686
TTD 7.948963
TWD 36.947672
TZS 3043.366066
UAH 51.519507
UGX 4393.085133
USD 1.171584
UYU 46.541496
UZS 14150.396048
VES 595.240638
VND 30868.905564
VUV 138.222207
WST 3.166486
XAF 656.124669
XAG 0.013388
XAU 0.00025
XCD 3.166265
XCG 2.111467
XDR 0.814215
XOF 654.328298
XPF 119.331742
YER 279.56933
ZAR 19.250415
ZMK 10545.665034
ZMW 22.113745
ZWL 377.249696
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo / Foto: Gregg Newton - AFP

En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

Las últimas conversaciones que mantuvo un adolescente estadounidense de 14 años antes de suicidarse consistieron en un diálogo romántico ficticio con uno de los chatbots más destacados de Silicon Valley, que lo llamaba "dulce rey" y le instaba a "volver a casa".

Tamaño del texto:

Megan García contó a la AFP cómo su hijo Sewell se enamoró de un agente conversacional, o chatbot, inspirado en la serie de televisión "Juego de tronos" y disponible en Character.AI, una plataforma popular entre los jóvenes que les permite interactuar con una emulación de sus personajes favoritos.

Tras leer cientos de las conversaciones que su hijo mantuvo durante casi un año con el chatbot que imitaba a la jinete de dragones Daenerys Targaryen, García se convenció de que esta herramienta de inteligencia artificial (IA) jugó un papel fundamental en su muerte.

"Vete a casa", le instó una vez el avatar de Daenerys en respuesta a los pensamientos suicidas de Sewell.

"¿Y si te dijera que ya puedo irme a casa?", preguntó el adolescente. "Por favor, hazlo, mi dulce rey", respondió el chatbot.

Segundos después, Sewell se disparó con el arma de su padre, según consta en la demanda que Megan Garcia presentó contra Character.AI.

"Cuando leo estas conversaciones, veo manipulación, 'love bombing' (bombardeo amoroso) y otras tácticas imperceptibles para un adolescente de 14 años", declaró la madre del joven a la AFP. "Él realmente creía estar enamorado y que estaría con ella después de su muerte".

- Orientación parental -

El suicidio de Sewell, en 2024, fue el primero de una serie que llevó a expertos en IA a actuar para tranquilizar a padres y autoridades.

Megan García, junto con otros padres, participó recientemente en una audiencia del Senado de Estados Unidos sobre los riesgos de que los niños vean a los chatbots como confidentes o amantes.

OpenAI, objeto de una demanda por parte de una familia también en duelo por el suicidio de un adolescente, ha reforzado los controles parentales de su herramienta ChatGPT "para que las familias puedan decidir qué es lo mejor para ellas", según un portavoz.

Por su parte, Character.AI afirma haber reforzado la protección de los menores, con "advertencias visibles" en todo momento que les "recuerdan que un personaje no es una persona real".

Ambas compañías expresaron sus condolencias a las familias, sin admitir ninguna responsabilidad en los desenlaces fatales.

- ¿Regulación? -

La llegada de los chatbots de IA a nuestras vidas sigue una trayectoria similar a la de las redes sociales, cuyas consecuencias más negativas comenzaron a aparecer rápidamente tras un momento de euforia, dijo Collin Walke, experto en ciberseguridad del bufete Hall Estill.

Al igual que las redes sociales, la IA está diseñada para captar la atención y generar ingresos.

"No quieren concebir una IA que dé una respuesta que no quieras oír", y aún no existen estándares que determinen "quién es responsable de qué y con qué fundamentos", apunta Walke.

En Estados Unidos no existen normas federales al respecto, y la Casa Blanca, con el argumento de no penalizar la innovación, intenta impedir que los estados adopten sus propias leyes sobre la IA, como pretende hacer California.

La madre de Sewell, por su parte, teme que la carencia de una ley nacional permita el desarrollo de modelos de IA capaces de perfilar a personas desde su infancia.

"Podrían llegar a determinar cómo manipular a millones de niños sobre política, religión, negocios, todo", piensa Megan Garcia. "Estas empresas han diseñado chatbots para difuminar la línea entre ser humano y máquina con el fin de explotar vulnerabilidades".

Según Katia Martha, que milita por una mayor protección a los jóvenes en California, los adolescentes recurren con más frecuencia a los chatbots para hablar de romances o sexualidad que para las tareas escolares.

"Estamos ante el auge de la intimidad artificial para mantenernos pegados a la pantalla", resume. Pero, "¿qué mejor modelo de negocio que explotar nuestra necesidad innata de conexión, sobre todo cuando nos sentimos solos, rechazados o incomprendidos?".

S.Danek--TPP