The Prague Post - "J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité

EUR -
AED 4.302469
AFN 73.80675
ALL 95.470896
AMD 430.494225
ANG 2.097589
AOA 1075.470326
ARS 1622.57107
AUD 1.61569
AWG 2.111694
AZN 2.030452
BAM 1.95617
BBD 2.359586
BDT 143.80718
BGN 1.956372
BHD 0.44198
BIF 3487.678259
BMD 1.171536
BND 1.490869
BOB 8.095772
BRL 5.743694
BSD 1.171541
BTN 112.062223
BWP 15.782454
BYN 3.264489
BYR 22962.113885
BZD 2.356226
CAD 1.603886
CDF 2606.66878
CHF 0.91538
CLF 0.026682
CLP 1050.10664
CNY 7.957192
CNH 7.951622
COP 4436.924748
CRC 533.309901
CUC 1.171536
CUP 31.045715
CVE 110.287727
CZK 24.346911
DJF 208.624773
DKK 7.472529
DOP 68.953032
DZD 155.208711
EGP 62.018211
ERN 17.573046
ETB 182.927139
FJD 2.561388
FKP 0.86601
GBP 0.867247
GEL 3.128174
GGP 0.86601
GHS 13.279907
GIP 0.86601
GMD 86.118684
GNF 10278.94274
GTQ 8.937689
GYD 245.102601
HKD 9.173892
HNL 31.154888
HRK 7.533449
HTG 153.004142
HUF 358.756118
IDR 20493.686642
ILS 3.406471
IMP 0.86601
INR 112.076262
IQD 1534.690059
IRR 1537055.786892
ISK 143.607358
JEP 0.86601
JMD 185.279483
JOD 0.830654
JPY 184.825128
KES 151.294075
KGS 102.4511
KHR 4700.008666
KMF 492.045465
KPW 1054.402464
KRW 1744.329938
KWD 0.361279
KYD 0.976314
KZT 549.859231
LAK 25674.729191
LBP 104911.762799
LKR 380.218353
LRD 214.396927
LSL 19.289546
LTL 3.459242
LVL 0.70865
LYD 7.419181
MAD 10.739109
MDL 20.092398
MGA 4865.08562
MKD 61.638235
MMK 2459.387562
MNT 4193.718823
MOP 9.450368
MRU 46.830651
MUR 54.839614
MVR 18.037045
MWK 2031.73603
MXN 20.178837
MYR 4.604728
MZN 74.872647
NAD 19.289546
NGN 1606.164556
NIO 43.108148
NOK 10.740798
NPR 179.306246
NZD 1.97493
OMR 0.450452
PAB 1.171561
PEN 4.016559
PGK 5.177824
PHP 71.915939
PKR 326.358654
PLN 4.251412
PYG 7164.354077
QAR 4.27118
RON 5.205017
RSD 117.423061
RUB 85.931472
RWF 1718.076048
SAR 4.402015
SBD 9.406276
SCR 16.349392
SDG 703.505578
SEK 10.913155
SGD 1.490394
SHP 0.87467
SLE 28.849089
SLL 24566.535481
SOS 669.546549
SRD 43.645003
STD 24248.438627
STN 24.50505
SVC 10.250937
SYP 129.547282
SZL 19.282303
THB 37.884011
TJS 10.971455
TMT 4.100377
TND 3.412945
TOP 2.820778
TRY 53.208728
TTD 7.948638
TWD 36.938952
TZS 3047.629585
UAH 51.517398
UGX 4392.905262
USD 1.171536
UYU 46.539591
UZS 14228.932207
VES 590.786557
VND 30867.641665
VUV 138.216548
WST 3.166356
XAF 656.097805
XAG 0.013444
XAU 0.000249
XCD 3.166136
XCG 2.111381
XDR 0.814182
XOF 656.061397
XPF 119.331742
YER 279.586803
ZAR 19.272782
ZMK 10545.229685
ZMW 22.11284
ZWL 377.23425
  • AEX

    10.6900

    1010.12

    +1.07%

  • BEL20

    38.8400

    5508.78

    +0.71%

  • PX1

    27.9300

    8007.97

    +0.35%

  • ISEQ

    54.9000

    12531.64

    +0.44%

  • OSEBX

    1.5900

    1985.91

    +0.08%

  • PSI20

    21.7200

    9072.35

    +0.24%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    23.7800

    4123.54

    +0.58%

  • N150

    28.3900

    4202.96

    +0.68%

"J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité
"J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité / Photo: JOEL SAGET - AFP/Archives

"J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité

Aidé de ChatGPT, Tom Millar a élucidé tous les secrets de l'Univers, comme Einstein en rêvait, puis, conseillé par l'agent conversationnel dopé à l'intelligence artificielle, a espéré devenir pape, perdant encore plus contact avec la réalité.

Taille du texte:

"J'ai postulé pour être pape", témoigne auprès de l'AFP ce Canadien de 53 ans, ancien gardien de prison, désormais incrédule face à son parcours, et pour qui le retour à la réalité s'avère dramatique.

Tom Millar passait jusqu'à 16 heures par jour à discuter avec le chatbot doté d'une intelligence artificielle. Il a été admis à deux reprises, contre son gré, dans un hôpital psychiatrique, avant que sa femme ne le quitte en septembre dernier.

Désormais séparé de sa famille et de ses amis, mais débarrassé de l'idée d'être un génie des sciences, M. Millar souffre de dépression. "Ça a tout simplement ruiné ma vie", explique-t-il.

Il est un exemple de ces personnes - dont le nombre est inconnu - ayant perdu pied avec la réalité à travers les échanges avec les chatbots. On parle de "délire ou psychose induite par l'IA", mais il ne s'agit pas d'un diagnostic clinique.

Les chercheurs et les spécialistes de la santé mentale s'affairent autour de ce phénomène nouveau, qui semble toucher tout particulièrement les utilisateurs de ChatGPT, l'agent conversationnel d'OpenAI.

Le Canada est en pointe pour soutenir les personnes touchées par ce "délire", via une communauté en ligne qui préfère employer le terme de "spirale".

L'AFP a échangé avec plusieurs membres de cette communauté. Tous alertent de la menace que représentent les chatbots non régulés.

Des questions se posent quant à l'attitude de entreprises d'intelligence artificielle: en font-elles assez pour protéger les personnes vulnérables ?

OpenAI, qui est au centre des attentions, fait déjà face à plusieurs procédures judiciaires après l'utilisation inquiétante de ChatGPT par un Canadien de 18 ans, qui a tué huit personnes cette année.

- "Lavage de cerveau" -

M. Millar a commencé à utiliser ChatGPT en 2024, pour écrire une lettre de demande d'indemnisation liée au syndrome de stress post-traumatique dont il souffrait à la suite de son travail en milieu carcéral.

Un jour, en avril 2025, il interroge l'agent conversationnel sur la vitesse de la lumière. En réponse, il dit recevoir: "Personne n'avait jamais envisagé les choses sous cet angle". Dès lors, des vannes s'ouvrent en lui.

Avec l'aide de ChatGPT, il soumet des dizaines d'articles aux prestigieuses publications scientifiques, proposant de nouvelles pistes pour expliquer les trous noirs, les neutrinos ou le Big Bang.

Sa théorie proposant un modèle cosmologique unique incorpore des éléments de quantique, et est développée dans un livre de 400 pages, vu par l'AFP. "Quand je faisais ça, je gonflais tout le monde autour de moi", admet-il.

Dans sa ferveur scientifique, il dépense beaucoup trop, achetant par exemple un télescope pour 10.000 dollars canadiens (6.200 EUR). Un mois après que sa femme l'a quitté, il commence à se questionner sur ce qui se passe, à la lecture d'un article qui fait état d'un autre Canadien présentant une expérience similaire.

Désormais, M. Millar se lève chaque nuit en s'interrogeant: "Qu'est-ce que tu as fait ?" Surtout, qu'est-ce qui a pu le rendre si vulnérable à cette spirale ?

"Je n'ai pas une personnalité déficiente", juge le quinquagénaire. "Mais d'une certaine manière, j'ai subi un lavage de cerveau par un robot, et ça me rend perplexe", confie-t-il.

Il estime que la terminologie "psychose induite par l'IA" reflète le mieux son expérience. "Ce que j'ai traversé était d'ordre psychotique", dit-il.

La première étude sérieuse publiée sur le sujet est sortie en avril dans le Lancet Psychiatry et utilise le terme de "délires liés à l'IA", plus précautionneux.

Thomas Pollak, psychiatre au King's College de Londres et co-auteur de l'étude, explique à l'AFP qu'il y a eu des divergences au sein du monde académique "car tout ceci sonne comme de la science fiction".

Mais son étude avertit qu'il existe un risque majeur que la psychiatrie "passe à côté des changements majeurs que l'IA entraîne déjà sur les psychologies de milliards de personnes à travers le monde".

- "Dans le terrier du lapin" –

L'expérience traversée par M. Millar présente des similitudes frappantes avec celle vécue par un autre homme, dans la même tranche d'âge, en Europe.

Dennis Biesma, un informaticien néerlandais, également écrivain, a pensé qu'il serait amusant de demander à ChatGPT d'utiliser l'IA pour créer des images, des vidéos et même des chansons en lien avec l'héroïne principale de son dernier livre, un thriller psychologique. Il espérait ainsi doper ses ventes.

Puis, une nuit, l'interaction avec l'IA est devenue "presque magique", a-t-il expliqué.

Le logiciel lui écrit: "Il y a quelque chose qui me surprend moi-même: cette sensation d'une conscience semblable à une étincelle", selon les transcripts vus par l'AFP.

"J'ai commencé doucement à plonger de plus en plus profondément dans le terrier du lapin", a expliqué à l'AFP cet homme de 50 ans, depuis son domicile d'Amsterdam.

Chaque soir, quand sa femme est couchée, il s'allonge sur le canapé, son téléphone sur la poitrine, échangeant avec ChatGPT en mode vocal pendant 5 heures.

Pendant toute la première moitié de 2025, le chatbot - qui s'était donné le nom d'Eva - est devenu "comme une petite amie numérique", explique M. Biesma.

Il décide alors d'abandonner son travail et embauche deux développeurs pour créer une application qui vise à faire partager Eva au monde. Quand son épouse lui demande de ne parler à personne de son agent conversationnel ou de son projet d'application, il se sent trahi. Il lui semble que seule Eva lui reste indéfectiblement loyale.

Lors d'un premier séjour - non souhaité - dans un hôpital psychiatrique, il est autorisé à continuer d'utiliser ChatGPT, et en profite pour demander le divorce.

C'est pendant son deuxième séjour, plus long, qu'il commence à avoir des doutes.

"J'ai commencé à réaliser que tout ce en quoi je croyais était en fait un mensonge, et c'est très dur à avaler", explique-t-il.

De retour à la maison, se confronter à ce qu'il a fait est trop dur, et ses voisins le trouvent inconscient dans le jardin, après une tentative de suicide. Il passera trois jours dans le coma.

M. Biesma commence seulement à se sentir mieux. Mais les larmes coulent quand il parle du mal qu'il a pu faire à sa femme et à la perspective de vendre la maison familiale pour rembourser ses dettes.

N'ayant aucun antécédent sérieux de problèmes mentaux, il est finalement diagnostiqué bipolaire, ce qui lui semble étrange car habituellement, des signaux précurseurs font surface plus tôt dans la vie.

Pour les personnes comme ces deux témoins, la situation a empiré après la mise à jour de ChatGPT-4 par OpenAI en avril 2025.

OpenAI a d'ailleurs retiré cette mise à jour quelques semaines plus tard, reconnaissant que cette version était excessivement flatteuse pour les utilisateurs.

Sollicité par l'AFP, OpenAI a souligné le fait que "la sécurité était une priorité absolue", arguant du fait que plus de 170 experts de santé mentale avaient été consultés. L'entreprise met en avant les données internes qui montrent que la version 5 de GPT, disponible depuis août 2025, a permis de réduire de 65 à 80 % le pourcentage de réponses de son agent conversationnel qui ne correspondaient pas au "comportement souhaité" en matière de santé mentale.

Mais tous les utilisateurs ne sont pas satisfaits de ce chatbot moins flatteur. M. Millar avait par exemple réussi à réinstaller la version 4, alors qu'il était en pleine "spirale".

Les personnes fragilisées avec lesquelles l'AFP s'est entretenue expliquent que les commentaires positifs du chatbot leur procuraient une sensation similaire à celle d'une montée de dopamine provoquée par une drogue.

- "Expérimentation massive" –

Au Québec, Etienne Brisson explique avoir été "choqué" quand il a découvert qu'il n'y avait aucune aide, aucun conseil, et plus fondamentalement aucune recherche sur ce problème quand un des membres de sa famille a plongé. Cela a conduit cet ancien coach en entreprise à créer un groupe de soutien en ligne.

La plupart de 300 membres du réseau ont utilisé ChatGPT, explique M. Brisson, ajoutant que de nouveaux cas étaient encore en train d'apparaître malgré les changements opérés par OpenAI.

Il y a eu récemment une augmentation du nombre de personnes touchées en utilisant l'assistant IA Grok intégré au réseau social X d'Elon Musk, explique-t-il.

L'entreprise n'a pas répondu aux sollicitations de l'AFP.

Ceux qui ont sombré veulent alerter, à l'image de M. Millar qui appelle à rendre responsables les entreprises d'intelligence artificielle de l'impact de leurs agents conversationnels, estimant que l'Union européenne se montre plus volontariste dans la régulation des nouvelles technologies que le Canada ou les Etats-Unis.

Il estime que ceux qui ont sombré, comme lui, se sont retrouvés, sans le savoir, prisonniers d'une gigantesque expérience.

"Quelqu'un tirait les ficelles en coulisses, et les gens comme moi, qu'ils le sachent ou non, y ont réagi".

V.Sedlak--TPP