The Prague Post - Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

EUR -
AED 4.241025
AFN 79.396131
ALL 97.193232
AMD 443.396204
ANG 2.06646
AOA 1058.805791
ARS 1567.418391
AUD 1.787121
AWG 2.08124
AZN 1.955468
BAM 1.951332
BBD 2.33146
BDT 140.767661
BGN 1.953664
BHD 0.435312
BIF 3442.627407
BMD 1.154641
BND 1.486757
BOB 7.996758
BRL 6.345166
BSD 1.154706
BTN 101.177575
BWP 16.503922
BYN 3.788062
BYR 22630.964184
BZD 2.319388
CAD 1.591961
CDF 3336.912549
CHF 0.935184
CLF 0.028437
CLP 1115.579221
CNY 8.288879
CNH 8.298093
COP 4732.0076
CRC 583.448823
CUC 1.154641
CUP 30.597987
CVE 110.015937
CZK 24.587737
DJF 205.620254
DKK 7.462422
DOP 69.489074
DZD 150.270947
EGP 55.942594
ERN 17.319615
ETB 160.060917
FJD 2.615957
FKP 0.869528
GBP 0.869641
GEL 3.117843
GGP 0.869528
GHS 12.12534
GIP 0.869528
GMD 83.714188
GNF 10015.804943
GTQ 8.862091
GYD 241.588887
HKD 9.063869
HNL 30.342993
HRK 7.532897
HTG 151.527773
HUF 399.135202
IDR 18906.32315
ILS 3.953373
IMP 0.869528
INR 101.383481
IQD 1512.736041
IRR 48639.253211
ISK 142.990862
JEP 0.869528
JMD 184.763716
JOD 0.818673
JPY 169.86389
KES 149.191393
KGS 100.97371
KHR 4630.236986
KMF 493.615716
KPW 1039.176927
KRW 1604.223511
KWD 0.353066
KYD 0.96228
KZT 623.970385
LAK 24981.713494
LBP 103460.509367
LKR 347.386481
LRD 231.541833
LSL 20.801167
LTL 3.409355
LVL 0.698431
LYD 6.308282
MAD 10.473308
MDL 19.744932
MGA 5123.179877
MKD 61.389427
MMK 2423.697739
MNT 4147.366962
MOP 9.33702
MRU 46.018428
MUR 53.806544
MVR 17.779732
MWK 2002.280369
MXN 21.82984
MYR 4.88471
MZN 73.851141
NAD 20.801707
NGN 1758.656995
NIO 42.491596
NOK 11.877319
NPR 161.871131
NZD 1.959455
OMR 0.443932
PAB 1.154756
PEN 4.137127
PGK 4.864734
PHP 66.498661
PKR 327.575013
PLN 4.275785
PYG 8648.820858
QAR 4.211765
RON 5.073844
RSD 117.125655
RUB 92.081096
RWF 1670.346203
SAR 4.33221
SBD 9.511208
SCR 16.964269
SDG 693.354907
SEK 11.180181
SGD 1.487264
SHP 0.907367
SLE 26.49905
SLL 24212.249631
SOS 659.877541
SRD 42.537193
STD 23898.738106
STN 24.443393
SVC 10.103689
SYP 15012.53592
SZL 20.801467
THB 37.371093
TJS 10.884043
TMT 4.05279
TND 3.404692
TOP 2.704285
TRY 46.975906
TTD 7.826942
TWD 34.540738
TZS 2895.892809
UAH 48.230623
UGX 4132.572764
USD 1.154641
UYU 46.435679
UZS 14694.351942
VES 145.62604
VND 30236.584647
VUV 139.233938
WST 3.204689
XAF 654.44707
XAG 0.030894
XAU 0.000343
XCD 3.120475
XCG 2.081099
XDR 0.813922
XOF 654.430105
XPF 119.331742
YER 277.51811
ZAR 20.724686
ZMK 10393.152073
ZMW 26.471238
ZWL 371.793941
  • AEX

    1.5100

    890.28

    +0.17%

  • BEL20

    73.7400

    4682.45

    +1.6%

  • PX1

    16.7900

    7649.13

    +0.22%

  • ISEQ

    102.3400

    11348.54

    +0.91%

  • OSEBX

    9.2100

    1625.52

    +0.57%

  • PSI20

    -4.6400

    7725.23

    -0.06%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    19.3300

    3241.06

    +0.6%

  • N150

    28.3800

    3666.87

    +0.78%

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions / Photo: Jason Redmond - AFP

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".

Taille du texte:

Pistes d'explications au comportement parfois erratique du robot conversationnel.

- Plus c'est long, moins c'est bon -

Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.

Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.

"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".

Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.

Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".

Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".

"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.

- Formé sur les forums -

"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.

Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.

Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.

Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.

"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.

"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.

Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".

Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.

- Arroseur arrosé -

En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.

Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.

"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.

En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.

"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.

Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".

Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.

Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".

"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.

"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".

S.Janousek--TPP