Anthropic-CEO Dario Amodei wurde von Zanny Minton Beddoes, Chefredakteurin der Economist, interviewt und erklärte, warum Anthropic bestimmte Vertragsklauseln des Pentagon ablehnt. Er ist der Ansicht, dass Anthropics Haltung nicht nur auf demokratischen Werten beruht, sondern auch auf Bedenken hinsichtlich der Zuverlässigkeit aktueller KI-Modelle für militärische Verteidigungsanwendungen und darüber, wer letztlich die Kontrolle darüber haben sollte. Amodei äußerte zudem den Wunsch, mit der Regierung in Dialog zu treten, um klarere KI-Vereinbarungen zu verhandeln.
Amodei: Claude ist noch kein vollautomatisiertes Militärmodell
Nach dem Verbot der Trump-Regierung, das von Anthropic bereitgestellte Modelle für Bundesbehörden zu verwenden, weil Claude nicht für groß angelegte Überwachung oder autonome Waffen eingesetzt werden darf, wurde Claude von den USA als KI-Risikoanbieter eingestuft. Amodei betonte, dass Anthropic’s Hauptmodell Claude noch nicht bereit sei, in vollautomatisierten militärischen Szenarien eingesetzt zu werden. Als privater KI-Anbieter sei es schwierig, Regierungs-Kunden zu erklären, wie die Modelle sicher genutzt werden können, doch er hält dies für eine notwendige Sicherheitsmaßnahme.
Amodei stellte klar, dass Anthropic einen Vertrag mit begrenztem Umfang mit dem Pentagon abgeschlossen hat. Bisher gab es keine Probleme, aber die Sorge gilt der zukünftigen Nutzung. Vollautomatisierte militärische Systeme könnten Szenarien schaffen, in denen KI Hunderttausende von Drohnen steuert, ohne den traditionellen militärischen Vorschriften zu folgen. Ohne klare Grenzen wäre diese Anwendung unkontrollierbar.
Wie kann Anthropic die Begrenzung des Waffeneinsatzes als sinnvoll nachweisen?
Im Gespräch mit dem Economist erläuterte Amodei zwei Gründe, warum Claude nicht für den Einsatz in vollautomatisierten Waffensystemen zugelassen werden sollte: mangelnde Zuverlässigkeit und fehlender menschlicher Kontrollrahmen (Video 0:00-0:18, 5:48-5:58).
Mangelnde Zuverlässigkeit: Amodei meint, dass das Claude-Modell noch nicht ausreicht, um in vollautomatisierten militärischen Szenarien eingesetzt zu werden. Er vergleicht es mit der Aussage, dass Fluggesellschaften bestimmte Flugmanöver als unsicher deklarieren müssten (Video 0:05-0:49).
Fehlender menschlicher Kontrollrahmen: Er befürchtet, dass das Fehlen menschlicher Vorgaben zur Steuerung einer Drohnenarmee dazu führen könnte, dass eine einzelne Person Hunderttausende von Waffen kontrolliert, ohne die traditionellen militärischen Verantwortlichkeiten zu tragen (Video 5:48-6:55).
Wie soll man mit Meinungsverschiedenheiten bei militärischer KI umgehen?
Amodei äußerte im Gespräch mit dem Economist den Wunsch, dass Anthropic und die Regierung gemeinsam eine feinere Herangehensweise bei der Anwendung von KI entwickeln. Er betonte, dass KI-Anbieter und die Regierung die Zuverlässigkeit und Governance der Modelle sorgfältig diskutieren sollten, um die Risiken von KI zu minimieren. Er schlägt vor, zunächst einen begrenzten Vertrag für bereits vereinbarte Anwendungsfälle abzuschließen, um vor der Ausweitung auf kontroversere Aufgaben klare Betriebsrichtlinien zu entwickeln. Dabei müsse ein Gleichgewicht gefunden werden, das weder die Macht privater Unternehmen übermäßig stärkt noch die Regierung unüberwindbar macht.
Der Name Anthropic stammt von „Anthropologie“ und spiegelt die ursprüngliche Motivation von Amodei wider: ein menschenzentriertes KI-Unternehmen zu schaffen. Dieses Engagement macht ihn zu einem der wenigen CEOs, die offen gegen die US-Regierung Stellung beziehen und China des Diebstahls von Claude-Technologie beschuldigen. Wie Anthropic die Balance zwischen Prinzipien und nationaler Sicherheit hält, wird eine entscheidende Rolle in der Entwicklung der militärischen KI spielen. Wie kann dieser Konflikt um technologische Souveränität und ethische Grenzen gelöst werden? Die Welt beobachtet gespannt.
Diese Artikelüberschrift: „Anthropic-CEO: Claude ist für militärische Anwendungen ungeeignet, klare Vertragsklauseln werden angestrebt“ erschien zuerst bei ABMedia.