La sénatrice Elizabeth Warren veut savoir comment un chatbot ayant apparemment généré des millions d’images deepfake — y compris des images compromettantes de mineurs — a pu obtenir des clés pour accéder aux systèmes les plus classifiés du Pentagone.
Dimanche, Warren a envoyé une lettre de quatre pages au secrétaire à la Défense Pete Hegseth, exigeant des réponses concernant la décision du Département de la Défense d’accorder à xAI d’Elon Musk l’accès à des réseaux militaires classifiés, décision qu’elle affirme avoir été prise alors que plusieurs agences fédérales émettaient des avertissements.
« Je m’inquiète de l’absence apparente de garde-fous adéquats pour Grok, ce qui pourrait poser de graves risques pour la sécurité des personnels militaires américains et pour la cybersécurité des systèmes classifiés », a écrit Warren.
« Surtout si Grok reçoit des informations militaires sensibles et un accès à des systèmes opérationnels. »
La lettre note que la National Security Agency (NSA) a « mené un examen classifié » et « déterminé que Grok présentait des préoccupations de sécurité particulières que d’autres modèles ne présentaient pas ». La General Services Administration (GSA) a également soulevé des alarmes similaires.
« Si Grok devait divulguer des informations gouvernementales, cela pourrait révéler des plans militaires sensibles, des efforts de renseignement américains, et potentiellement mettre en danger les membres du service », a écrit Warren.
Aucune de ces préoccupations ne semble avoir freiné le processus.
« Il n’est pas clair quelles garanties ou documents xAI a fournis au Département de la Défense concernant les mesures de sécurité de Grok, ses pratiques de gestion des données, ou ses contrôles de sécurité, ni si le DoD a évalué ces garanties avant d’autoriser l’accès de Grok aux systèmes classifiés », indique la lettre.
Le timing est difficile à ignorer. Le même jour où la lettre de Warren a été envoyée, trois mineurs du Tennessee ont déposé une plainte collective fédérale contre xAI, accusant Grok d’avoir généré du contenu de abus sexuels sur des enfants basé sur leurs photos réelles. La plainte dénonce le fait que xAI aurait délibérément lancé Grok sans respecter les normes industrielles de sécurité, qualifiant cela de « opportunité commerciale » pour profiter de l’exploitation de personnes réelles, y compris des enfants.
La semaine dernière, le Washington Post a rapporté qu’un employé du Department of Government Efficiency (DOGE), sous la supervision de Musk, avait copié des données sensibles de la Social Security Administration sur des centaines de millions d’Américains, et comptait utiliser ces données dans sa nouvelle startup technologique.
La lettre de Warren cite également l’historique de Grok en matière de génération de contenus antisémites, d’instructions pour commettre des meurtres et des attaques terroristes, ainsi que ses dérapages avec des deepfakes non consensuelles, malgré des promesses répétées de correction. Des centaines de milliers de conversations privées avec Grok ont également été indexées sur Google en août dernier.
Des tests gouvernementaux ont montré que Grok est plus vulnérable que d’autres modèles concurrents aux attaques de « poisoning » de données — où des données manipulées corrompent les résultats du système — une faiblesse grave pour un outil envisagé pour le développement d’armes et le renseignement sur le terrain. Le responsable de l’IA responsable du Pentagone a diffusé des mémos internes sur ces risques, puis a démissionné peu après.
L’accord lui-même s’est conclu dans des circonstances inhabituelles. xAI aurait été une addition tardive au pool de contrats d’IA du Pentagone, décrochant un contrat pouvant atteindre 200 millions de dollars en juillet dernier. L’accord d’accès classifié a suivi en février, alors que le DoD était en conflit public avec Anthropic concernant les garde-fous de sécurité.
Interrogé à ce sujet, un porte-parole du Pentagone a déclaré au Wall Street Journal que le département était « enthousiaste d’accueillir xAI, l’une des entreprises d’IA de frontières nationales américaines, et attend avec impatience de déployer Grok sur sa plateforme officielle d’IA GenAI.mil dans un avenir très proche ».
Ce contexte est important. Anthropic était la seule entreprise d’IA disposant de systèmes prêts pour le classifié, avec Claude déployé dans des opérations militaires réelles. Après qu’Anthropic a refusé la demande du Pentagone de rendre Claude disponible pour « tous les usages légaux » — notamment en s’opposant aux armes autonomes et à la surveillance de masse — le DoD a qualifié l’entreprise de risque pour la chaîne d’approvisionnement. xAI et OpenAI ont été annoncés comme remplaçants.
Il n’existe aucune trace indiquant que xAI ait remis en question la portée du standard « tous les usages légaux ». OpenAI a été plus diplomatique, en établissant certaines limites au niveau du serveur.
Warren demande à Hegseth de répondre d’ici le 30 mars avec le texte intégral de l’accord xAI, toutes les communications internes concernant l’accord, et des réponses sur d’éventuels tests ou évaluations effectués avant l’octroi de l’accès. L’une de ses 10 questions concerne directement l’existence de garde-fous pour garantir que Grok ne cause pas de « décisions erronées de ciblage » s’il est déployé dans des systèmes opérationnels critiques.