AI Start-up Anthropic und die US-Regierung verschärfen ihren Konflikt. Laut Reuters hat das Pentagon kürzlich Anthropic als „Lieferkettenrisiko“ eingestuft und die Nutzung ihrer KI-Technologie in Militärverträgen eingeschränkt. Anthropic bezeichnet diese Einstufung als rechtswidrig und hat Klage beim Bundesgericht eingereicht, um die Entscheidung aufzuheben.
(Vorgeschichte: Anthropic und Pentagon nehmen Verhandlungen über KI wieder auf: Bemühen um Claude-Verteidigungskooperation, aber Festhalten an ethischen Grenzen)
(Hintergrund: Anthropic-CEO kontert: OpenAI und Pentagon-Verträge sind Lügen, Altman tarnt sich als Friedensbotschafter)
Inhalt
Toggle
Das KI-Unternehmen Anthropic befindet sich offiziell im Rechtsstreit mit der US-Regierung. Das Pentagon hat kürzlich bekannt gegeben, Anthropic als „Lieferkettenrisiko“ zu klassifizieren und die Nutzung ihrer KI-Modelle in militärbezogenen Verträgen zu beschränken. Anthropic widerspricht energisch und bezeichnet die Maßnahme als „beispiellos und rechtswidrig“. Das Unternehmen hat Klage beim Bundesgericht eingereicht, um die Einstufung aufzuheben und die Durchsetzung der Beschränkungen zu verhindern.
Laut Reuters hat das US-Verteidigungsministerium Anthropic offiziell darüber informiert, dass das Unternehmen und seine KI-Technologie als „Lieferkettenrisiko“ eingestuft wurden, was sofort wirksam ist. Diese Kennzeichnung wird üblicherweise genutzt, um Lieferanten zu beschränken, die potenziell die nationale Sicherheit gefährden, und kann den Einsatz ihrer Produkte in Verteidigungsausschreibungen oder Militärverträgen verbieten.
In der Praxis bedeutet dies, dass Auftragnehmer und Zulieferer, die mit dem US-Militär zusammenarbeiten, bei der Umsetzung von Verteidigungsprojekten möglicherweise keine Anthropic-KI-Modelle, wie das bekannte Claude-System, verwenden dürfen. Experten weisen darauf hin, dass dies eine äußerst seltene Maßnahme ist, da solche Labels meist für ausländische Firmen oder als Sicherheitsrisiko eingestufte Anbieter verwendet werden, nicht jedoch für US-internen KI-Unternehmen.
Der Kern des Streits liegt in den Beschränkungen für die Nutzung von Anthropic-KI. Mehrere Medien berichten, dass Anthropic klar ablehnt, ihre KI für zwei risikoreiche Anwendungsbereiche zu verwenden:
Das US-Verteidigungsministerium hofft jedoch bei Verhandlungen, dass die KI-Modelle „alle legalen Verwendungszwecke“ erlauben. Beide Seiten konnten sich in Sicherheitsfragen nicht einigen, was letztlich zu den gescheiterten Verhandlungen und der Einstufung als Lieferkettenrisiko führte.
Anthropic-CEO Dario Amodei erklärt, das Unternehmen halte die Entscheidung des Verteidigungsministeriums für „rechtlich unbegründet“ und warnt, dass diese Maßnahme eine gefährliche Präzedenz für staatliche Sanktionen gegen Unternehmen schaffen könnte. Das Unternehmen hat Klage beim Bundesgericht eingereicht, um die Einstufung aufzuheben und die Durchsetzung der Beschränkungen zu stoppen.
Anthropic argumentiert, dass die „Lieferkettenrisiko“-Kennzeichnung bisher vor allem für ausländische Wettbewerber genutzt wurde. Die Anwendung auf ein US-amerikanisches KI-Unternehmen könnte tiefgreifende Auswirkungen auf die gesamte Tech-Branche und die Zusammenarbeit mit der Regierung haben.
Experten sehen in diesem Fall ein Zeichen für die neuen Herausforderungen der KI-Industrie: Wenn große Modelle in militärische und sicherheitspolitische Bereiche vordringen, stellt sich die Frage, ob Unternehmen die Nutzung ihrer Technologien durch die Regierung einschränken können.
Einige Policy-Experten meinen, dass eine staatliche Bestrafung von Unternehmen, die Sicherheitsbeschränkungen setzen, die Autonomie der Firmen bei Fragen der KI-Sicherheit und Ethik schwächen könnte. Andererseits argumentiert das Militär, dass KI-Technologie für die nationale Sicherheit strategisch wichtig ist und nicht zu stark eingeschränkt werden sollte.
Das Ergebnis dieses Rechtsstreits könnte nicht nur darüber entscheiden, ob Anthropic die Zusammenarbeit mit der US-Regierung wieder aufnehmen kann, sondern auch einen wichtigen Präzedenzfall für zukünftige Kooperationen zwischen KI-Unternehmen und Regierungen schaffen.