The Prague Post - Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai

EUR -
AED 4.28379
AFN 74.652987
ALL 96.184978
AMD 438.959313
AOA 1069.635991
ARS 1617.875056
AUD 1.657586
AWG 2.099612
AZN 1.985985
BAM 1.950285
BBD 2.34786
BDT 143.258125
BHD 0.440329
BIF 3464.943838
BMD 1.166451
BND 1.486053
BOB 8.054773
BRL 5.951125
BSD 1.165654
BTN 107.617593
BWP 15.6399
BYN 3.402476
BYR 22862.447141
BZD 2.34446
CAD 1.615704
CDF 2684.004517
CHF 0.922856
CLF 0.026592
CLP 1046.587354
CNY 7.974154
CNH 7.970584
COP 4257.290935
CRC 542.243343
CUC 1.166451
CUP 30.910962
CVE 110.638015
CZK 24.396215
DJF 207.302003
DKK 7.472256
DOP 70.745071
DZD 154.453218
EGP 62.107944
ERN 17.496771
ETB 181.528985
FJD 2.583049
FKP 0.867931
GBP 0.870692
GEL 3.131926
GGP 0.867931
GHS 12.848475
GIP 0.867931
GMD 85.151075
GNF 10241.443408
GTQ 8.917781
GYD 243.880919
HKD 9.138448
HNL 31.050973
HRK 7.533757
HTG 152.820632
HUF 376.821534
IDR 19916.049266
ILS 3.602422
IMP 0.867931
INR 108.001325
IQD 1528.051314
IRR 1533883.57139
ISK 143.788164
JEP 0.867931
JMD 183.501076
JOD 0.826994
JPY 185.154916
KES 150.937318
KGS 102.00596
KHR 4682.136126
KMF 495.161701
KPW 1049.752741
KRW 1725.065404
KWD 0.360655
KYD 0.971399
KZT 557.327208
LAK 25618.17449
LBP 104433.842725
LKR 367.440912
LRD 214.857224
LSL 19.380598
LTL 3.444228
LVL 0.705574
LYD 7.401153
MAD 10.853846
MDL 20.073117
MGA 4826.200023
MKD 61.613944
MMK 2449.291434
MNT 4170.355823
MOP 9.404621
MRU 46.770304
MUR 54.262985
MVR 18.033752
MWK 2026.125728
MXN 20.356562
MYR 4.64306
MZN 74.60658
NAD 19.374974
NGN 1605.04845
NIO 42.843276
NOK 11.172161
NPR 172.190894
NZD 2.000583
OMR 0.448417
PAB 1.165644
PEN 3.970309
PGK 5.027102
PHP 69.600972
PKR 325.439326
PLN 4.252258
PYG 7561.616457
QAR 4.25287
RON 5.093079
RSD 117.338004
RUB 91.61844
RWF 1703.602247
SAR 4.377367
SBD 9.388196
SCR 16.479368
SDG 701.03745
SEK 10.878308
SGD 1.486619
SLE 28.753228
SOS 666.62838
SRD 43.804935
STD 24143.188608
STN 25.008718
SVC 10.200155
SYP 128.955664
SZL 19.380631
THB 37.406944
TJS 11.079845
TMT 4.08258
TND 3.373326
TRY 51.899734
TTD 7.906303
TWD 37.105753
TZS 3018.195128
UAH 50.516427
UGX 4312.601022
USD 1.166451
UYU 47.356081
UZS 14265.700323
VES 553.384247
VND 30707.415929
VUV 139.43143
WST 3.230244
XAF 654.070901
XAG 0.015792
XAU 0.000247
XCD 3.152394
XCG 2.100896
XDR 0.815322
XOF 657.878104
XPF 119.331742
YER 278.286172
ZAR 19.180648
ZMK 10499.465125
ZMW 22.293808
ZWL 375.59687
  • AEX

    31.3000

    1003.2

    +3.22%

  • BEL20

    185.3800

    5392.71

    +3.56%

  • PX1

    355.1000

    8263.87

    +4.49%

  • ISEQ

    753.2700

    12844.24

    +6.23%

  • OSEBX

    -57.6300

    2022.97

    -2.77%

  • PSI20

    83.3600

    9450.19

    +0.89%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    104.7200

    3926.73

    +2.74%

  • N150

    108.7500

    4048.95

    +2.76%

Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai
Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai / Photo: Joel Saget - AFP

Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai

Une cour fédérale de Washington a refusé mercredi de suspendre le bannissement d'Anthropic par le Pentagone, un revers partiel pour la pépite californienne de l'IA qui avait obtenu fin mars une première victoire judiciaire à San Francisco contre l'administration Trump.

Taille du texte:

Mais les juges fédéraux ont reconnu que cette affaire sensible, mêlant des enjeux militaires, éthiques et économiques considérables, méritait une procédure accélérée, convoquant les deux parties à plaider dès le 19 mai.

"Nous sommes reconnaissants que la cour ait reconnu la nécessité de résoudre rapidement ces questions", a déclaré Anthropic.

De son côté, le gouvernement américain a salué la décision de mercredi comme une "victoire retentissante", par la voix du numéro 2 du ministère de la Justice, Todd Blanche.

Les décisions éthiques "appartiennent au commandant en chef" et non "pas à une entreprise technologique", a-t-il écrit sur X, ajoutant que l'"armée a besoin d'un accès total aux modèles d'Anthropic si sa technologie est intégrée dans nos systèmes sensibles".

La décision, consultée par l'AFP, maintient en vigueur une mesure qui vise à contraindre les sous-traitants du Pentagone à certifier qu'ils n'utilisent pas les technologies d'Anthropic, créateur du chatbot Claude.

Cette mesure, qui a désigné Anthropic comme un "risque pour la chaîne d'approvisionnement" du Pentagone, avait été annoncée le 27 février en réponse au refus de l'entreprise de voir ses outils d'intelligence artificielle utilisés pour la surveillance de masse des citoyens américains et pour rendre des armes totalement autonomes.

Jusqu'ici, seules des entreprises non-américaines avaient été visées par cette désignation, synonyme de ruptures de contrats publics en cascade.

- Informations classifiées -

L'effectivité de cette sanction, qui relève du code des achats publics fédéraux, fait toutefois débat, certains juristes estimant que les textes réglementaires nécessaires à sa mise en oeuvre font encore défaut.

Le 26 mars, dans un recours parallèle, Anthropic avait obtenu une première victoire contre une sanction similaire, prise cette fois sous l'autorité du code militaire. Dans ce volet, une juge de San Francisco a suspendu la directive du ministre de la Défense Pete Hegseth qui avait désigné Anthropic comme un "risque" pour les opérations classifiées du Pentagone.

La juge californienne, estimant que ces sanctions ont probablement violé la liberté d'expression d'Anthropic, a aussi suspendu une directive de Donald Trump qui ordonnait à toutes les agences fédérales de cesser d'utiliser leurs technologies.

Dans la foulée, la plateforme d'accès à l'IA des agences fédérales, USAi.gov, a rebranché le 3 avril l'accès aux modèles d'Anthropic, selon une source proche de l'entreprise.

Le Pentagone a informé Anthropic qu'il continuait d'utiliser ses modèles, les seuls autorisés à ce jour pour les informations classifiées de l'armée américaine, jusqu'au 3 septembre 2026 au plus tard, selon cette source.

Au moment où Anthropic se voyait désigné comme un risque pour la sécurité nationale, OpenAI avait annoncé avoir signé un contrat avec le Pentagone pour prendre le relais de son rival, assurant avoir obtenu les garanties éthiques suffisantes sur la surveillance de masse et les armes autonomes.

Le gouvernement a fait appel de cette décision californienne, mais l'audience n'aura pas lieu avant juin, au plus tôt.

- Bénéfice? -

Dans leur décision mercredi, les juges de Washington ont estimé que la balance des intérêts penchait en faveur du gouvernement: si Anthropic subit "vraisemblablement un préjudice irréparable", celui-ci est "principalement financier", tandis que l'enjeu pour le gouvernement touche à la sécurité des opérations du Pentagone "dans le cadre d'un conflit militaire actif".

Tout en admettant les contrats perdus par Anthropic, la cour suggère que l'entreprise a aussi pu en retirer un bénéfice.

Les juges citent des déclarations de Dario Amodei, le patron d'Anthropic, à ses employés - "le grand public et les médias nous voient comme les héros (nous sommes numéros 2 dans l'App Store !) -, et un article du média Digiday estimant que l'opposition d'Anthropic au Pentagone "pourrait s'avérer être le meilleur investissement marketing de la Silicon Valley depuis des années".

Lundi, Anthropic a annoncé une croissance "exponentielle" de ses revenus, multipliés par trois en un trimestre, revendiquant 30 milliards de dollars de revenus annualisés, pour la première fois au-dessus des performances affichées par OpenAI.

H.Vesely--TPP