IA gouvernementale • Contrats • Gouvernance
Accord OpenAI avec le Pentagone : contrats, craintes de surveillance et backlash « Cancel ChatGPT »
Une chronologie structurée et fondée sur les sources des engagements de défense et gouvernementaux autour d’OpenAI et d’Anthropic, du débat sur les clauses d’« usage légal », et de ce que les métriques de backlash à court terme prouvent réellement — ou non.
Résumé exécutif
L’« accord OpenAI avec le Pentagone » doit être compris comme un ensemble d’engagements liés à la défense et au gouvernement américains plutôt que comme un événement unique : un accord prototype avec un plafond de 200 M$ (juin 2025) avec l’appareil de défense américain ; le déploiement d’une instance personnalisée de ChatGPT sur la plateforme GenAI.mil du DoD pour du travail non classifié (février 2026) ; et un accord distinct pour déployer les systèmes d’OpenAI dans des environnements classifiés (fin février 2026) — suivi d’un amendement contractuel (2 mars 2026) clarifiant une interdiction de surveillance intérieure.
La controverse s’est accélérée rapidement parce qu’OpenAI et Anthropic négociaient avec l’appareil de défense américain autour d’une formulation contestée de type « any lawful use ». Le CEO d’Anthropic, Dario Amodei, a publiquement refusé des termes plus larges qui, selon lui, pourraient permettre une surveillance domestique de masse et des armes totalement autonomes — et a évoqué des menaces liées à une qualification de « supply chain risk » ainsi qu’à un possible recours au Defense Production Act.
- Pas de surveillance domestique de masse
- Pas de pilotage de systèmes d’armes autonomes
- Pas de décisions automatisées à forts enjeux (ex. « crédit social »)
Pour des acheteurs entreprise comme Daillac, le sujet concerne moins la politique partisane que la gouvernance fournisseur, le langage contractuel, l’architecture de déploiement, les contrôles de données et la résilience. Le risque ne se limite pas à la « qualité du modèle », mais inclut aussi les chocs de politique, les retombées réputationnelles et la concentration de la chaîne d’approvisionnement.
Chronologie des événements
Le tableau ci-dessous distingue les dates d’événements (ce qui s’est produit) des dates de publication (moment où l’information est sortie), car une grande partie de la controverse s’est jouée sur environ 72 heures.
| Date (événement) | Ce qui s’est passé (haut niveau) | Pourquoi c’était important | Sources primaires / crédibles clés |
|---|---|---|---|
| 24 fév. 2020 | Le DoD adopte des principes éthiques pour l’IA (Responsible, Equitable, Traceable, Reliable, Governable). | Établit le cadrage officiel de l’« IA responsable » dans les contextes de défense. | Voir la section des sources prioritaires. |
| 25 janv. 2023 | Le DoD met à jour la Directive 3000.09 sur l’autonomie dans les systèmes d’armes (discipline de test et « niveaux appropriés de jugement humain dans l’usage de la force »). | Devient un socle de politique régulièrement cité dans les débats ultérieurs sur l’IA dans la défense. | Voir la section des sources prioritaires. |
| 17 janv. 2024 | OpenAI évoque publiquement des domaines de collaboration avec le Pentagone (ex. cybersécurité) tout en soulignant que ses politiques interdisent encore le développement ou l’usage d’armes. | Fixe la ligne de base « pré-accord » : un cadrage limité et non militarisé. | Voir la section des sources prioritaires. |
| 4 déc. 2024 | OpenAI s’associe à Anduril sur des cas d’usage de défense anti-drones ; des reportages relèvent aussi des évolutions de politique autour du langage « militaire / bien-être ». | Montre que le travail lié à la défense existait déjà avant les contrats de 2025–2026. | Voir la section des sources prioritaires. |
| 16 juin 2025 | OpenAI lance « OpenAI for Government » et décrit un pilote avec le CDAO du DoD, plafonné à 200 M$, centré sur le prototypage. | Formalise une stratégie go-to-market public sector ; introduit les « modèles personnalisés pour la sécurité nationale » sur une base limitée. | Voir la section des sources prioritaires. |
| 16 juin 2025 | Attribution de contrat DoD : « OpenAI Public Sector LLC » reçoit une OTA prototype à montant fixe de 200 000 000 $, avec une échéance estimée à juillet 2026. | C’est le sens le plus littéral, du point de vue procurement, de l’« accord OpenAI avec le Pentagone ». | Voir la section des sources prioritaires. |
| 14 juil. 2025 | Anthropic reçoit une OTA prototype DoD plafonnée à 200 M$ ; la communication mentionne des prototypes et du fine-tuning sur des données DoD. | Confirme l’implication de plusieurs laboratoires frontier, et pas uniquement d’OpenAI. | Voir la section des sources prioritaires. |
| 9 déc. 2025 | Le DoD lance GenAI.mil ; des reportages indiquent qu’il intègre Google Gemini et sert le personnel du DoD via cette plateforme. | Crée le socle du futur déploiement personnalisé de ChatGPT. | Voir la section des sources prioritaires. |
| 9 fév. 2026 | OpenAI annonce le déploiement d’un ChatGPT personnalisé sur GenAI.mil pour le travail non classifié ; l’entreprise indique que les données restent isolées et ne sont pas utilisées pour entraîner les modèles publics. | Clarifie la trajectoire de déploiement non classifié en environnement entreprise. | Voir la section des sources prioritaires. |
| 26–27 fév. 2026 | Le CEO d’Anthropic publie son refus : pas de surveillance domestique de masse et pas d’armes totalement autonomes ; des reportages décrivent la pression politique et l’activisme autour du sujet. | Établit les « lignes rouges » qui alimentent les narratifs de boycott. | Voir la section des sources prioritaires. |
| 28 fév. 2026 | OpenAI annonce un accord pour des environnements classifiés (déploiement cloud-only, safety stack, personnel habilité) ; les critiques se concentrent sur la formule « any lawful use ». | Déclenche la vague « Cancel ChatGPT / boycott ». | Voir la section des sources prioritaires. |
| 2 mars 2026 | OpenAI publie une mise à jour ajoutant un langage explicite anti-surveillance domestique et des précisions sur les données personnelles/identifiantes achetées commercialement ; l’entreprise indique qu’un usage par la NSA exigerait un nouvel accord. | Durcissement après le backlash ; la suffisance de cette clarification reste débattue. | Voir la section des sources prioritaires. |
| 2–4 mars 2026 | Les analytics montrent une forte réaction consommateur à court terme (désinstallations, avis) et des gains pour les concurrents ; Reuters rapporte aussi une exploration côté OTAN. | Suggère des boucles de rétroaction réputationnelles et commerciales, tout en montrant la poursuite de l’expansion. | Voir la section des sources prioritaires. |
Acteurs clés et déclarations
La position d’OpenAI est que son accord pour les environnements classifiés comporte davantage de garde-fous que les accords antérieurs — et que l’entreprise peut faire respecter ses lignes rouges via l’architecture de déploiement (cloud-only), le maintien de son safety stack sous contrôle, la présence de personnel habilité dans la boucle, ainsi que des remèdes contractuels (y compris la résiliation si la contrepartie viole les termes).
Le versant défense américain apparaît surtout à travers les registres de procurement et les documents officiels de politique, tandis que de nombreux détails des négociations quotidiennes proviennent des reportages. Les publications de marchés publics indiquent que « OpenAI Public Sector LLC » a obtenu une OTA de 200 M$ pour prototyper des capacités frontier AI dans les « warfighting and enterprise domains », avec une date d’achèvement estimée à juillet 2026.
La déclaration du CEO d’Anthropic trace deux limites explicites : (1) pas de surveillance domestique de masse, et (2) pas d’armes totalement autonomes. Elle affirme aussi que le gouvernement insistait sur des termes de type « any lawful use » et a menacé de mesures punitives dans les achats publics.
Enjeux techniques et éthiques
1) Contraindre les capacités par l’architecture
Les termes publiés par OpenAI misent fortement sur la contrainte par l’architecture, et pas seulement sur la politique. L’accord décrit un déploiement cloud-only, rejetant explicitement les modèles « sans garde-fous » et refusant les déploiements en edge.
2) Safety stack + classificateurs + accès humain
OpenAI indique que cette architecture permet de vérifier de manière indépendante que les lignes rouges ne sont pas franchies, notamment via l’exécution et la mise à jour de classificateurs, et que des ingénieurs OpenAI habilités (ainsi que des chercheurs en sécurité et alignment) seront « dans la boucle » pour soutenir les déploiements.
- Quels signaux les classificateurs surveillent-ils, et quels sont les taux de faux positifs / faux négatifs ?
- Quels journaux d’audit existent, qui peut y accéder, et quelle est la durée de conservation ?
- Qui peut contourner les blocages, selon quel processus, et comment cela est-il revu ?
- Comment fonctionne la réponse à incident dans des environnements classifiés ?
3) Surveillance (le point le plus contesté)
Anthropic estime que les risques de « surveillance domestique de masse » sont amplifiés par la capacité de l’IA à assembler et interpréter des jeux de données fragmentés, y compris des données achetées auprès de data brokers. La mise à jour d’OpenAI du 2 mars 2026 tente de refermer une partie de cette brèche en interdisant la surveillance domestique intentionnelle des personnes américaines et en précisant que cela inclut l’usage d’informations personnelles / identifiantes acquises commercialement.
4) Armes autonomes
La politique du DoD (Directive 3000.09) met l’accent sur une vérification/validation/test rigoureuse et sur des « niveaux appropriés de jugement humain » dans l’usage de la force. L’extrait publié par OpenAI indique que son système d’IA « ne sera pas utilisé pour diriger de manière indépendante des armes autonomes » lorsque la politique exige un contrôle humain. Le CEO d’Anthropic va plus loin en affirmant que les armes totalement autonomes ne peuvent pas être soutenues de manière sûre aujourd’hui avec les systèmes frontier actuels.
5) Gestion des données et fine-tuning
OpenAI affirme que les données de GenAI.mil restent isolées et ne sont pas utilisées pour entraîner ou améliorer les modèles publics ou commerciaux. En contexte entreprise, OpenAI met en avant le principe de « pas d’entraînement sur les données business par défaut », ainsi qu’une rétention configurable (y compris la rétention zéro pour certaines organisations éligibles). Anthropic met également en avant des contrôles entreprise et un « no training by default », tandis que son travail prototype gouvernemental mentionne le fine-tuning sur des données du DoD.
6) Fiabilité et risque mission
Des reportages indiquent que certains responsables craignent que des restrictions contractuelles ou l’application stricte des politiques puissent perturber les opérations si les outils sont restreints en pleine mission. Pour les entreprises, il faut traiter les « politiques d’usage » et les « kill switches » comme des exigences de disponibilité, continuité et gouvernance, et non comme de simples questions abstraites d’éthique.
Preuves de backlash, comportements de boycott et signaux de migration
Principaux récits du backlash
Le récit du backlash s’est structuré autour de : (1) une trahison éthique perçue, (2) un scepticisme vis-à-vis du langage « all lawful purposes », et (3) une méfiance envers l’idée que les cadres juridiques suffisent à empêcher une surveillance assistée par l’IA.
Indicateurs mesurés à court horizon (des proxys, pas du churn)
Ce sont des métriques de « choc » à court horizon, pas des comptes de churn audités. Désinstaller ≠ annuler, et annuler ≠ cesser d’utiliser le web. Il faut rester prudent face à des chiffres précis de migration sans méthodologie transparente.
Graphique proxy du boycott et infographie
Implications business
L’accord OpenAI avec le Pentagone et la vague de « boycott ChatGPT » constituent un bon test de résistance pour un modèle opérationnel IA. Même sans clients défense, cela montre à quelle vitesse la posture d’un fournisseur peut devenir un sujet de procurement et de réputation.
Il faut traiter les fournisseurs de LLM comme des dépendances tierces critiques dont les contraintes peuvent évoluer : à la suite d’une mise à jour de politique, d’un changement de langage contractuel, d’une pression gouvernementale ou d’un backlash public.
Implications actionnables (acheteur expert)
Abstraire les appels modèles, garder les prompts portables et tester les bascules. L’accès fournisseur peut être politisé ou restreint très vite.
« Où tourne le modèle » et « qui contrôle l’application des règles » sont des facteurs de risque de premier plan (disponibilité, auditabilité, clauses de résiliation).
Ne comptez pas uniquement sur les politiques du fournisseur. Définissez ce que vous n’accepterez jamais de construire, même si cela est « légal » ou autorisé contractuellement.
Alignez les règles de rétention et d’entraînement des fournisseurs avec vos SOPs, surtout pour les workflows sensibles et les jeux de données réglementés.
Sources et liens prioritaires
Sources primaires (contrats / déclarations officielles)
- OpenAI — « Our agreement with the Department of War » (inclut la mise à jour du 2 mars 2026 + lignes rouges + extraits contractuels)
- OpenAI — « Bringing ChatGPT to GenAI.mil » (déploiement non classifié ; affirmation d’isolation des données)
- OpenAI — « Introducing OpenAI for Government » (cadrage programme ; pilote ; plafond à 200 M$)
- Déclaration du CEO d’Anthropic sur les négociations avec le DoW (surveillance domestique de masse + lignes rouges sur les armes totalement autonomes)
- Annonce de l’accord Anthropic–DoD (200 M$ ; fine-tuning sur données DoD)
- Directive DoD 3000.09 (PDF)
- Communiqué du DoD sur l’adoption de principes éthiques pour l’IA (2020)
Reportages / analyses indépendants de qualité (triangulation)
- Reuters — garde-fous de l’accord
- Reuters — restrictions contractuelles vs risque mission ; exploration OTAN rapportée
- The Verge — implications de surveillance et cadrage contractuel
- TechRadar — récit autour de la tendance « Cancel ChatGPT » et preuves sociales
- Axios — préoccupations de sécurité dans les termes OpenAI–Pentagone
- The Guardian — couverture du conflit de politique et de l’amendement contractuel
- TechCrunch — métriques de désinstallation / téléchargement / avis et lettre ouverte d’employés
Société civile + recherche / veille critique
Cadres consulting / gouvernance (modèle opérationnel entreprise)
- McKinsey — mise en œuvre de la GenAI avec rapidité et sécurité
- Boston Consulting Group — réduction des risques IA
- Bain — fonctions de contrôle et risques fournisseurs
Références produit / confidentialité / pricing
- Confidentialité entreprise d’OpenAI
- Données business OpenAI (« Your Data »)
- Tarification API OpenAI
- Tarification Anthropic
- Tarification API Anthropic
- Tarification Gemini Developer API
- Tarification Mistral
