Selon BlockBeats news, le 2 mars, le PDG d’OpenAI, Sam Altman, a lancé hier une séance de questions-réponses publique sur X pour répondre aux questions de la communauté concernant la signature d’OpenAI avec le Département de la Défense des États-Unis, et le post initial a reçu plus de 6,6 millions de vues et plus de 7 500 réponses. Concernant la raison pour laquelle la transaction avait été si précipitée, Altman a expliqué qu’OpenAI n’avait négocié une coopération non classifiée avec le Département de la Défense américain que ces derniers mois et avait refusé des contrats dans le domaine confidentiel (plus tard pris par Anthropic), mais qu’après l’interdiction d’Anthropic, le département américain de la Défense a soudainement accéléré le déploiement classifié, et que la raison de la signature précipitée d’OpenAI était de « désamorcer la situation ». Il a également indiqué avoir négocié pour garantir que des conditions équivalentes soient ouvertes à tous les autres laboratoires d’IA.
Interrogé sur la raison pour laquelle il n’a pas pris la défense d’Anthropic, Altman a répondu que classer Anthropic comme un « risque de chaîne d’approvisionnement » était « très mauvais pour l’industrie, pour le pays et pour Anthropic », « c’est une très mauvaise décision du Département de la Défense des États-Unis, et j’espère qu’ils la retireront », mais il a aussi ajouté qu’Anthropic « semble se soucier davantage des interdictions spécifiques du contrat que de citer les lois actuelles, et pourrait vouloir plus de contrôle opérationnel que nous » lors des négociations.
Concernant la ligne rouge propre d’OpenAI, Altman a déclaré : « Si on nous demande de faire quelque chose d’inconstitutionnel ou d’illégal, nous nous retirerons. Veuillez venir me rendre visite à la prison. » En parlant de la surveillance à l’étranger, Altman a admis qu’il « n’aime pas » la surveillance des étrangers par l’armée américaine, affirmant que le principe de l’IA qui le tient le plus à cœur est la « démocratisation » et que la surveillance peut aller à l’encontre de cela, mais « je ne pense pas que ce soit à moi d’en décider. »
Dans sa conclusion, Altman pose une question « cachée derrière de nombreuses questions » mais que personne ne pose directement : Que se passerait-il si le gouvernement américain tentait de nationaliser OpenAI ou d’autres projets d’IA ? Il a déclaré qu’il « a longtemps cru que la construction de l’AGI devrait probablement être un projet gouvernemental. »