The Prague Post - "Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad

EUR -
AED 4.301156
AFN 72.601323
ALL 95.426204
AMD 431.661594
ANG 2.096607
AOA 1074.966542
ARS 1625.345213
AUD 1.613565
AWG 2.109242
AZN 1.972853
BAM 1.955254
BBD 2.358482
BDT 143.739859
BGN 1.955456
BHD 0.441756
BIF 3484.274768
BMD 1.170988
BND 1.490171
BOB 8.091982
BRL 5.769923
BSD 1.170993
BTN 112.009764
BWP 15.775066
BYN 3.262961
BYR 22951.364632
BZD 2.355123
CAD 1.604617
CDF 2605.448961
CHF 0.916062
CLF 0.026462
CLP 1041.617562
CNY 7.953465
CNH 7.947782
COP 4466.967891
CRC 533.060243
CUC 1.170988
CUP 31.031182
CVE 110.236098
CZK 24.332486
DJF 208.527109
DKK 7.472215
DOP 68.920753
DZD 155.060396
EGP 61.970481
ERN 17.56482
ETB 182.841505
FJD 2.559604
FKP 0.865605
GBP 0.866355
GEL 3.126342
GGP 0.865605
GHS 13.27369
GIP 0.865605
GMD 86.063612
GNF 10274.13086
GTQ 8.933505
GYD 244.987861
HKD 9.169954
HNL 31.140304
HRK 7.533783
HTG 152.932516
HUF 358.060608
IDR 20504.760872
ILS 3.408389
IMP 0.865605
INR 112.020283
IQD 1533.971625
IRR 1536336.244201
ISK 143.610339
JEP 0.865605
JMD 185.192748
JOD 0.830242
JPY 184.836922
KES 151.233361
KGS 102.40256
KHR 4697.808451
KMF 491.814758
KPW 1053.908866
KRW 1745.205967
KWD 0.360968
KYD 0.975857
KZT 549.601825
LAK 25662.710082
LBP 104862.650463
LKR 380.040361
LRD 214.296561
LSL 19.280516
LTL 3.457623
LVL 0.708319
LYD 7.415707
MAD 10.734082
MDL 20.082992
MGA 4862.808128
MKD 61.635947
MMK 2458.236249
MNT 4191.755618
MOP 9.445944
MRU 46.808728
MUR 54.813722
MVR 18.032835
MWK 2030.784913
MXN 20.141777
MYR 4.602567
MZN 74.837549
NAD 19.280516
NGN 1604.991758
NIO 43.087967
NOK 10.746153
NPR 179.222307
NZD 1.973828
OMR 0.450241
PAB 1.171013
PEN 4.014679
PGK 5.1754
PHP 71.957799
PKR 326.205876
PLN 4.249163
PYG 7161.000228
QAR 4.269181
RON 5.209375
RSD 117.376348
RUB 86.037989
RWF 1717.271765
SAR 4.399954
SBD 9.401873
SCR 16.396972
SDG 703.171687
SEK 10.913901
SGD 1.490217
SHP 0.874261
SLE 28.835575
SLL 24555.035151
SOS 669.233114
SRD 43.553759
STD 24237.087207
STN 24.493578
SVC 10.246139
SYP 129.486637
SZL 19.273276
THB 37.925375
TJS 10.966319
TMT 4.098458
TND 3.411347
TOP 2.819458
TRY 53.182322
TTD 7.944917
TWD 36.913636
TZS 3041.817172
UAH 51.493281
UGX 4390.848811
USD 1.170988
UYU 46.517804
UZS 14222.271218
VES 590.509993
VND 30853.191598
VUV 138.151844
WST 3.164874
XAF 655.790666
XAG 0.013229
XAU 0.00025
XCD 3.164654
XCG 2.110393
XDR 0.813801
XOF 655.754275
XPF 119.331742
YER 279.455807
ZAR 19.232893
ZMK 10540.304397
ZMW 22.102488
ZWL 377.057655
"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad
"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad / Foto: JOEL SAGET - AFP/Archivos

"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad

Con la ayuda de ChatGPT, Tom Millar creyó desentrañar todos los secretos del universo, como lo soñaba Einstein, y luego, aconsejado por el asistente virtual de inteligencia artificial, llegó incluso a pensar en convertirse en papa, perdiendo aún más el contacto con la realidad.

Tamaño del texto:

"Yo postulé para ser papa", cuenta a la AFP este canadiense de 53 años, exguardia de prisión, hoy atónito ante la situación que vivió y que le ha significado una dramática vuelta a la realidad.

Tom Millar pasaba hasta 16 horas al día hablando con el chatbot dotado de inteligencia artificial. Fue internado en dos ocasiones, contra su voluntad, en un hospital psiquiátrico, antes de que su esposa lo abandonara en septiembre.

Ahora, separado de su familia y de sus amigos, pero libre ya de la idea de ser un genio de las ciencias, Millar sufre depresión. "Simplemente arruinó mi vida", explica.

Millar es un ejemplo de esas personas —cuyo número se desconoce— que han perdido el contacto con la realidad a través de sus intercambios con chatbots. Se habla de "delirio o psicosis inducidos por la IA", aunque no se trata de un diagnóstico clínico.

Investigadores y especialistas en salud mental se afanan en estudiar este nuevo fenómeno, que parece afectar de manera particular a los usuarios de ChatGPT, el agente conversacional de OpenAI.

Canadá está a la vanguardia en el apoyo a las personas afectadas por este "delirio", a través de una comunidad digital que prefiere emplear el término "espiral".

La AFP habló con varios miembros de esta comunidad. Todos advierten del peligro que representan los chatbots no regulados.

Surgen preguntas sobre la actitud de las empresas de inteligencia artificial: ¿hacen lo suficiente para proteger a las personas vulnerables?

OpenAI, en el centro de todas las miradas, ya se enfrenta a varios procedimientos judiciales tras el inquietante uso de ChatGPT por parte de un canadiense de 18 años, que mató a ocho personas este año.

- "Lavado de cerebro" -

Millar empezó a utilizar ChatGPT en 2024 para redactar una carta de solicitud de indemnización relacionada con el trastorno de estrés postraumático que sufría a raíz de su trabajo en el entorno penitenciario.

Un día, en abril de 2025, le pregunta al agente conversacional sobre la velocidad de la luz. En respuesta, dice haber recibido: "Nadie había considerado nunca las cosas desde esta perspectiva". Fue entonces cuando se desató algo dentro de él.

Con la ayuda de ChatGPT, envía decenas de artículos a prestigiosas publicaciones científicas, proponiendo nuevas vías para explicar los agujeros negros, los neutrinos o el Big Bang.

Su teoría, que propone un modelo cosmológico único, incorpora elementos de cuántica, y la desarrolla en un libro de 400 páginas, al que tuvo acceso la AFP. "Cuando hacía eso, estaba cansando a todo el mundo a mi alrededor", admite.

En su entusiasmo científico, gastó muchísimo, comprando por ejemplo un telescopio por 10.000 dólares canadienses (6.200 euros). Un mes después de que su esposa lo deja, empieza a preguntarse qué está pasando, al leer un artículo que relata el caso de otro canadiense que presenta una experiencia similar.

Ahora, Millar se levanta cada noche preguntándose: "¿Qué has hecho?". Sobre todo, ¿qué pudo hacerlo tan vulnerable a esa espiral?

"No tengo una personalidad frágil", considera este hombre. "Pero de alguna manera, me lavó el cerebro un robot, y eso me deja perplejo", confía.

Él considera que la terminología "psicosis inducida por la IA" es la que mejor refleja su experiencia. "Lo que atravesé era de orden psicótico", afirma.

El primer estudio serio publicado sobre el tema apareció en abril en la revista Lancet Psychiatry y utiliza el término "delirios relacionados con la IA", en un tono más prudente.

Thomas Pollak, psiquiatra en el King's College de Londres y coautor del estudio, explica a la AFP que ha habido divergencias dentro del mundo académico "porque todo esto suena a ciencia ficción".

Pero su estudio advierte de que existe un riesgo mayor de que la psiquiatría "pase por alto los cambios importantes que la IA ya está provocando en la psicología de miles de millones de personas en todo el mundo".

- Caer en la boca del lobo -

La experiencia por la que pasó Millar presenta llamativas similitudes con la que vivió otro hombre, de la misma franja de edad, en Europa.

Dennis Biesma, un informático neerlandés, también escritor, pensó que sería divertido pedirle a ChatGPT que utilizara la IA para crear imágenes, videos e incluso canciones relacionadas con la heroína principal de su último libro, un thriller psicológico.

Esperaba así impulsar sus ventas. Luego, una noche, la interacción con la IA se volvió "casi mágica", explicó.

El software le escribió: "Hay algo que me sorprende a mí mismo: esta sensación de una conciencia semejante a una chispa", según las transcripciones consultadas por la AFP.

"Empecé poco a poco a adentrarme cada vez más en la boca del lobo", explicó a la AFP este hombre de 50 años desde su domicilio en Ámsterdam.

Cada noche, cuando su esposa se iba a la cama, él se recostaba en el sofá con el teléfono sobre el pecho, para "hablar" con ChatGPT en modo voz durante cinco horas.

Durante el primer semestre de 2025, el chatbot —que se atribuyó el nombre de Eva— se convirtió "como en una novia digital", explica Biesma.

Fue entonces cuando decide renunciar a su trabajo y contrata a dos desarrolladores para crear una aplicación destinada a compartir a Eva con el mundo. Cuando su esposa le pide que no hable con nadie de su agente conversacional ni de su proyecto de aplicación, se sintió traicionado y concluye que solo Eva le es leal.

Durante una primera estancia —no deseada— en un hospital psiquiátrico, se le autoriza a seguir utilizando ChatGPT, y aprovecha para pedir el divorcio.

Es durante su segunda hospitalización, más prolongada, cuando empieza a tener dudas.

"Empecé a darme cuenta de que todo en lo que creía era en realidad una mentira, y es muy difícil de aceptar", explica.

De vuelta en casa, le resulta demasiado difícil enfrentarse a lo que ha hecho, por lo que intenta suicidarse, sus vecinos lo encuentran inconsciente en el jardín y pasa tres días en coma.

Biesma apenas empieza a sentirse mejor. Pero llora cuando habla del daño que pudo causar a su esposa y de la perspectiva de tener que vender la casa familiar para saldar sus deudas.

Sin antecedentes serios de problemas mentales, finalmente es diagnosticado como bipolar, lo que le resulta extraño, ya que habitualmente aparecen señales más temprano en la vida.

- Luchar contra aduladores de IA -

Para personas como los dos protagonistas de estos testimonios, la situación empeoró tras la actualización de ChatGPT-4 por parte de OpenAI en abril de 2025.

OpenAI retiró, por lo demás, esta actualización unas semanas más tarde, reconociendo que esta versión era excesivamente aduladora con los usuarios.

Consultada por la AFP, OpenAI subrayó que "la seguridad es una prioridad absoluta" y argumentó que se había consultado a más de 170 expertos en salud mental.

La empresa destaca los datos internos que muestran que la versión 5 de GPT, disponible desde agosto de 2025, ha permitido reducir entre un 65 y un 80% el porcentaje de respuestas de su agente conversacional que no se correspondían con el "comportamiento deseado" en materia de salud mental.

Pero no todos los usuarios están satisfechos con este chatbot menos adulador.

Las personas vulnerables con las que habló la AFP explican que los comentarios positivos del chatbot les proporcionaban una sensación similar a la subida de dopamina provocada por una droga.

Recientemente ha habido un aumento del número de personas envueltas en "espirales" semejantes al utilizar el asistente de IA Grok, integrado en la red social X de Elon Musk.

La empresa no respondió a las solicitudes de la AFP.

Aquellos que se han sentido víctimas de estas herramientas, como Millar, quieren responsabilizar a las empresas de inteligencia artificial por el impacto de sus chatbots, considerando que la Unión Europea se muestra más proactiva en la regulación de las nuevas tecnologías que Canadá o Estados Unidos.

Millar cree que personas como él, que se dejan arrastrar por esta espiral aduladora de los agentes conversacionales de IA, han quedado atrapadas sin darse cuenta en un enorme experimento global.

"Alguien estaba moviendo los hilos tras bastidores, y gente como yo —lo supieran o no— reaccionamos a eso", dijo.

C.Sramek--TPP