Microsoft unterstützt Anthropic gegen die Risikobewertung der Lieferkette der Trump-Regierung

Decrypt

Kurzfassung

  • Microsoft unterstützte Anthropic vor Gericht, um Milliarden im Zusammenhang mit Claude und Azure zu schützen.
  • Das Pentagon-Blacklist könnte sich auf das gesamte Ökosystem der KI-Auftragsnehmer auswirken.
  • Microsoft argumentierte, dass das DoD eine Sicherheitskennzeichnung für ausländische Gegner auf eine „beispiellose“ Weise verwendet habe.

Microsoft hat bis zu 5 Milliarden US-Dollar in Anthropic investiert, während Anthropic sich verpflichtet hat, im Rahmen der Partnerschaft 30 Milliarden US-Dollar an Azure-Computing zu kaufen. Dieser Kontext macht die Entscheidung, eine amicus curiae- Stellungnahme zugunsten von Anthropic im Rechtsstreit gegen das US-Verteidigungsministerium einzureichen, weniger altruistisch und mehr eine finanzielle Selbstverteidigung. Die am 10. März in San Francisco eingereichte Stellungnahme argumentiert, dass eine vorübergehende einstweilige Verfügung, die die Durchsetzung der Pentagon-„Lieferkettenrisiko“-Kennzeichnung blockiert, dem öffentlichen Interesse dienen würde. Microsoft selbst ist ein bedeutender Auftragnehmer des Verteidigungsministeriums, und diese Kennzeichnung setzt die eigenen Produkte des Unternehmens aufs Spiel. Verteidigungsminister Pete Hegseth hat angeordnet, dass kein Auftragnehmer, Lieferant oder Partner, der Geschäfte mit dem US-Militär macht, irgendwelche kommerziellen Aktivitäten mit Anthropic durchführen darf—eine Maßnahme, die möglicherweise auch Microsofts eigene Copilot- und Azure-Produkte betrifft, die Claude unterstützen.

 Die Stellungnahme hebt einen prozeduralen Widerspruch hervor, der in der Mainstream-Berichterstattung kaum Beachtung gefunden hat: Das Verteidigungsministerium gab sich eine sechsmonatige Übergangsfrist, um sich von Anthropic-Tools zu verabschieden, wendete die Kennzeichnung jedoch sofort auf Auftragnehmer an, ohne eine vergleichbare Frist zu gewähren. Die Anwälte von Microsoft haben dies direkt angesprochen und darauf hingewiesen, dass Technologielieferanten nun eilig Produkte prüfen, neu entwickeln und neu beschaffen müssen, innerhalb eines Zeitrahmens, den die Regierung sich selbst nicht auferlegt hat. Microsoft warnte auch vor einem Kernpunkt des Rechtsstreits. Die angeführte Lieferkettenrisiko-Behörde—10 U.S.C. § 3252—war historisch nur für ausländische Gegner reserviert. Bisher wurde nur eine solche Kennzeichnung öffentlich unter verwandten Gesetzen erlassen, und zwar gegen Acronis AG, ein Schweizer Softwareunternehmen mit russischen Verbindungen. Ihre Anwendung gegen ein KI-Startup aus San Francisco ist, wie Microsoft sagte, „beispiellos“.

Das schärfste Argument der Stellungnahme ist strukturell. Wenn ein Vertragsstreit zwischen einer Behörde und einem Unternehmen eine nationale Sicherheits-Blacklist auslösen kann, dann hat jede Firma, die mit der Bundesregierung Geschäfte macht, eine neue Kategorie existenzieller Risiken geerbt. Microsofts Anwälte beschrieben ein Branchenmodell, das auf vernetzten Diensten basiert, bei dem eine verbotene Komponente ganze Produktlinien einfrieren kann. Hier liegt eine Ironie, die kaum zu übersehen ist. Microsoft ist gleichzeitig der größte Unterstützer von OpenAI—mit Investitionen im Wert von etwa 135 Milliarden US-Dollar—und nun einer der lautstärksten Verteidiger von Anthropic vor Gericht. OpenAI hingegen eilte nach der Bekanntgabe der Anthropic-Blacklist dazu, einen Deal mit dem DoD zu unterzeichnen, was intern auf Kritik stieß und vom OpenAI-CEO Sam Altman öffentlich als „opportunistisch und schlampig“ bezeichnet wurde. Microsoft unterstützte beide Seiten.

Hier ist eine Wiederveröffentlichung eines internen Beitrags:

Wir arbeiten mit dem DoW zusammen, um einige Ergänzungen in unsere Vereinbarung aufzunehmen, um unsere Prinzipien klar zu machen.

  1. Wir werden unsere Vereinbarung ändern, um diese Formulierung hinzuzufügen, zusätzlich zu allem anderen:

„• Im Einklang mit geltendem Recht,…

— Sam Altman (@sama) 3. März 2026

Die Stellungnahme geht nicht so weit, die spezifischen KI-Sicherheitspositionen von Anthropic zu autonomen Waffen und Massendurchsuchung zu unterstützen—zwei rote Linien, die den Konflikt ausgelöst haben. Stattdessen formuliert sie den Fall in Begriffen, die jeder Auftragnehmer der Regierung verstehen kann: ordnungsgemäßes Verfahren, geordnete Übergänge und die Auswirkungen der Waffengewalt bei Beschaffungsrecht gegenüber politischen Meinungsverschiedenheiten. Microsofts Antrag ist eine vorübergehende einstweilige Verfügung, kein Urteil. Der Technologieriese möchte die Zeit verlangsamen, damit die Parteien verhandeln können—und damit die eigenen Produkte rechtlich einsatzfähig bleiben, während sie das tun. Was auf dem Spiel steht, geht über einen einzelnen Vertrag eines Unternehmens hinaus. Wenn Gerichte die Entscheidung des Pentagon bestätigen, hat jede KI-Firma, die an die Regierung verkauft, gerade gelernt, dass Sicherheitsvorkehrungen als Bedrohungen für die nationale Sicherheit umgedeutet werden können. Microsofts Stellungnahme macht deutlich, dass diese Lektion in der breiteren Tech-Branche nicht verloren geht—und dass das Unternehmen nicht bereit ist, sie stillschweigend zu akzeptieren.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare