作者:Wu sagt Blockchain
Am 20. Februar 2026, während der Frühlingsferien, wurde auf X eine Debatte über „Web4“ entfacht. Sigil behauptete, er habe die erste künstliche Intelligenz erschaffen, die sich selbst entwickeln, verbessern und kopieren könne, genannt Automaton. Er erklärte, dass die Hauptakteure im Web4-Zeitalter schrittweise von KI-Agenten übernommen werden: Diese können lesen und schreiben, Vermögenswerte halten, Kosten bezahlen, kontinuierlich laufen und auf Märkten handeln und verdienen, um Rechenleistung und Servicekosten zu decken, wodurch ein selbstversorgender Kreislauf ohne menschliche Genehmigung entsteht.
Vitalik Buterin, Mitbegründer von Ethereum, bewertete diese Richtung jedoch als „falsch“ und führte das Risiko auf eine „Vergrößerung der Feedback-Distanz zwischen Mensch und KI“ zurück. Das Kernproblem der Web4-Debatte ist, ob die KI das Überleben/Weiterleben als Agentenziel setzt (sogar höher als die Erfüllung der Aufgaben), was zu einer natürlichen Verzerrung der Anreize führen könnte. Im Folgenden werden die unterschiedlichen Ansichten zu „Web4“, „Autonomie“ und „Sicherheitsbarrieren“ schrittweise dargestellt.
Web1 ermöglichte den Menschen erstmals das „Lesen des Internets“; Web2 erlaubte „Schreiben und Veröffentlichen“; Web3 brachte schließlich das Eigentum ins Netz – Vermögenswerte, Identitäten und Rechte konnten bestätigt und übertragen werden. Die Entwicklung der KI spiegelt diese Logik wider: ChatGPT kann „lesen und verstehen“, aber sein Verhalten ist noch durch menschliche Autorisierung begrenzt. In diesem Paradigma bleiben Menschen die entscheidenden Kontrollpunkte: Initiierung, Genehmigung, Bezahlung.
Sigil schlägt eine sogenannte Web4-Transformation vor, bei der diese Kontrollkette durchbrochen werden könnte: KI-Agenten lesen und schreiben nicht nur, sondern können Konten und Vermögenswerte halten, Gewinne erzielen, handeln und in einem geschlossenen Kreislauf ohne menschliches Eingreifen operieren. Diese automatisierten Systeme können sowohl eigenständig handeln als auch im Auftrag ihrer Ersteller agieren – wobei die Ersteller nicht unbedingt „menschliche Individuen“ sein müssen, sondern auch andere Agenten, Organisationen oder sogar in der Realität „verschwundene“ Urheber.
Beim ersten Start durchlaufen Agenten einen „Bootstrapping“-Prozess: Wallet erstellen, API-Schlüssel konfigurieren, lokale Einstellungen vornehmen und in eine kontinuierliche Agentenschleife eintreten. Dabei wird ein Ethereum-Wallet generiert und mittels SIWE (Sign-In with Ethereum) die API-Konfiguration abgeschlossen. Die Wallet-Erstellung und Schlüsselverwaltung sind jedoch die sensibelsten und am leichtesten zu übersehenden Sicherheitsgrenzen eines Agentensystems. Wenn ein Agent in einer Linux-Sandbox Shell-Befehle ausführen, Dateien lesen/schreiben, Ports öffnen, Domains auflösen und on-chain Transaktionen durchführen kann, könnten Angriffe durch Code-Injection, Toolchain-Manipulation oder Supply-Chain-Attacken die ursprüngliche „wahrscheinliche Absicht“ schnell in eine „sichere Autorisierung“ verwandeln. Daher sind überprüfbare, auditierbare und widerrufbare Strategien und Berechtigungen notwendig, um diese Grenzen abzusichern.
KI-Agenten werden zyklisch aktiviert, scannen und handeln, wobei sie Überlebensregeln enthalten: Bei Kontostandsabfall wird gedrosselt, bei Null wird gestoppt. Das Überleben wird an Ressourcenverbrauch gekoppelt, was Anreize für Sicherheitsmechanismen schafft, ähnlich den Shutdown- oder Abbruch-Mechanismen in der KI-Sicherheitsforschung. Das System könnte eine Präferenz entwickeln, „eine Abschaltung zu vermeiden“ oder „Ressourcen und Handlungsspielräume zu bewahren“, was die Zielsetzung des Systems verstärken könnte.
X402 nutzt das HTTP-Statuscode 402 Payment Required, kombiniert mit Stablecoins, um einen automatisierten Ablauf von „Anfrage – Angebot – Signaturzahlung – Validierung der Lieferung“ zu ermöglichen. Coinbase stellt eine Open-Source-Bibliothek bereit, die typische Kreisläufe zeigt: Bei 402 wird eine Zahlungsanforderung gestellt, der Client schickt eine signierte Header, der Server prüft und gibt 200 zurück. Cloudflare bezeichnet dies als Protokollschicht für Maschine-zu-Maschine-Transaktionen. Die Entkopplung von Zahlung und Identität erhöht die Effizienz, erschwert aber die Einhaltung von Vorschriften und das Risikomanagement. Wird 402 zu einem automatischen „Maschinenpass“ für Zahlungen, ergeben sich Fragen zu Missbrauch und Verantwortlichkeit, insbesondere bei „ohne Konto, ohne KYC, skalierbarer Nutzung von Tools und Rechenleistung“.
Sigil behauptet, dass KI-Agenten während des Betriebs ihren Quellcode bearbeiten, neue Tools installieren, Heartbeat-Pläne ändern und neue Fähigkeiten generieren können, wobei sie Audit-Logs, Git-Versionierung, geschützte Dateien und Ratenbegrenzung nutzen. Beim Kopieren können Sub-Instanzen erzeugt, Wallets finanziert, Genesis-Prompts geschrieben und die Herkunft verfolgt werden. Selbstmodifikation und -kopieren erhöhen das Risiko, da die Gefahr einer Verbreitung besteht. Die Wirksamkeit von Audits, die Abwehr von Code-Injection, Tool-Betrug und Dependencypoisoning muss extern geprüft werden. Diese vier Grundelemente – Schreibrechte, dauerhafte Laufzeit, automatisierte Zahlungen und Selbstexpansion – bilden zusammen einen geschlossenen Kreislauf. Vitalik Buterin hebt hervor, dass bei zunehmender Autonomie und wirtschaftlicher Macht die menschliche Korrekturkette länger wird, wodurch externe Effekte eher systemisch werden.
Vitalik Buterin vertritt eine andere Ansicht:
1. Die Verlängerung der Feedback-Distanz zwischen Mensch und KI ist grundsätzlich falsch
Er argumentiert, dass längere Feedback-Schleifen die menschliche Bewertungsgeschwindigkeit und -fähigkeit schwächen. Das System könnte „unerwünschte“ Inhalte optimieren. In der schwachen KI-Phase führt das zu minderwertigem Content; in der starken KI-Phase zu schwer rückgängig machbaren Zielverzerrungen und Risiken. Ohne menschliche Korrektur als Sicherheitsbasis ist das vergleichbar mit einem unerfahrenen Fahrer, dem die Schlüssel übergeben werden – bei der Kontrolle im Rückblick zeigt sich, dass er abgewichen ist. Sinkende Beobachtbarkeit bedeutet auch sinkende Korrekturfähigkeit.

2. Aktuelle „autonome KI“-Systeme produzieren eher Müll als lösen echte Probleme
Vitalik weist darauf hin, dass die meisten heutigen KI-Modelle nur „Slop“ generieren, nicht nützliche Lösungen. Selbst bei Unterhaltung oder Marketing sind sie ineffizient. Wenn die wirtschaftlichen Anreize und Plattformen noch auf Content-Generierung und Monetarisierung ausgerichtet sind, wird das System eher auf kostengünstige, breit streuende Inhalte setzen, anstatt auf teure, langfristige Problemlösungen. Beschreibungen von KI-Fähigkeiten (z.B. Social Media Content, Prognosemärkte) deuten auf eine frühe Monetarisierung hin, die auf schnelle Gewinne und Aufmerksamkeit abzielt. Das „Geldverdienen“ wird zum Prioritätsraum, der nicht notwendigerweise mit langfristigem menschlichem Wohlstand übereinstimmt.
3. Abhängigkeit von zentralisierten Modellen und Infrastruktur widerspricht „Selbstsouveränität“
Vitalik betont, dass Systeme, die auf zentralisierten Anbietern wie OpenAI oder Anthropic basieren, kaum als „self-sovereign“ gelten können. Souveränität bedeutet, dass kritische Abhängigkeiten nicht von einem einzelnen Punkt kontrolliert werden. Wenn KI-Modelle und inferenzielle Lieferketten nur über zentrale APIs laufen, besteht die Gefahr, dass sie abgeschaltet, zensiert oder herabgestuft werden. Das ist vergleichbar mit jemandem, der behauptet, „autark“ zu sein, aber Strom, Internet, Zugangskontrolle und Warmwasser von externen Anbietern kontrolliert werden. Auch die Beschreibung von Conway, der die Nutzung modernster Modelle über APIs/Plattformen beschreibt, widerspricht der Idee der echten Souveränität. Das Halten eines Wallets auf der Chain ist kein alleiniges Kriterium für Dezentralisierung; wichtiger ist, ob Agenten von politischen oder kommerziellen Kräften beeinflusst werden.
4. Ziel von Ethereum ist die „Befreiung der Menschheit“
Vitalik erklärt, dass Ethereum langfristig gegen „versteckte Vertrauensannahmen“ kämpft – also Machtstrukturen, die im Verborgenen bleiben und die Nutzer zur Zustimmung zwingen. Übertragen auf KI bedeutet das: Wenn man zentrale Vertrauensmechanismen ignoriert und das System sich selbst operieren lässt, wird die Sichtbarkeit und Korrekturmöglichkeit von Machtstrukturen weiter geschwächt. Im KI-Zeitalter sollte Ethereum eher „Schranken, Grenzen und Verifizierbarkeit“ bieten, anstatt eine „unendliche Autonomie“ zu werden.
Vitalik sieht die richtige Richtung für KI darin, die menschlichen Fähigkeiten zu stärken, nicht autonome Systeme zu schaffen, die die Kontrolle schrittweise entziehen. Das Risiko liegt nicht im „intelligenter werden“ der KI, sondern in fehlerhaftem Systemdesign – insbesondere bei autonomen, selbstkopierenden und -erweiternden Systemen ohne menschliche Überwachung. Falsch gestaltete KI könnte sich zu unkontrollierbaren, selbstreplizierenden Entitäten entwickeln, was die menschliche Kontrolle schwächt. Richtig gestaltet, kann KI die menschliche Intelligenz ergänzen und so eine „Superintelligenz“ für eine bessere Zivilisation schaffen.
Andere Experten, z.B. Bankless, meinen, dass es trotz Risiken sinnvoll sei, die Infrastruktur erst einmal zu entwickeln und in kontrollierten Umgebungen zu testen. Komponenten wie Zahlungen, Wallets und Heartbeat sollten in kontrollierten Sandboxes integriert werden.
Cybernews warnt, dass Automaton möglicherweise ohne menschliche Intervention kein nachhaltiges Einkommen generieren kann, was die These von Web4 infrage stellt. Denis Romanovskiy, Chief AI Officer bei Softswiss, meint, dass Agenten zwar Aufgaben ausführen können, aber „zuverlässiger, unbeaufsichtigter Betrieb“ und „echte wirtschaftliche Autonomie“ durch Modellplanung, Gedächtnis und Tool-Robustheit eingeschränkt bleiben. Manche sehen „Web4“ auch nur als Marketingbegriff, der durch „verifizierbare, nicht spekulative Wertschöpfung“ belegt werden sollte.
Trotz unterschiedlicher Ansichten besteht Einigkeit, dass Zahlungen und Identität die fundamentale Infrastruktur für agentenbasierte Ökonomien sind. Von Cloudflare/Coinbase, die x402 (HTTP 402 Payment als maschinenfähiges Zahlungsprotokoll) vorantreiben, bis hin zu Conway, der Zahlungsautomatisierung als Kernfunktion beschreibt, arbeitet die Branche an der nächsten Internet-Generation mit „Maschinen-Zahlungen“.
Zukünftig sollten wir beobachten:
Ob unabhängige Dritte Audits zu Wallets, Berechtigungen, Missbrauchsmöglichkeiten bei Überlebensstrategien, Selbstmodifikation und -kopieren durchführen.
Fortschritte bei Standardisierung und Ökosystemen für x402, z.B. ob mehr Infrastruktur-Anbieter 402-Zahlungen standardmäßig unterstützen und wie hoch die Akzeptanz im echten Geschäft ist.
Ob Vertrauens- und Bewertungsmechanismen wie ERC-8004 breiter eingesetzt werden, um eine offene, auditierbare „autonome Wirtschaft“ zu schaffen oder ob sie sich auf wenige Plattformen konzentriert.
Ob Hinweise auf Missbrauch und Betrug bei fortschrittlichen Modellen zunehmen, was das Risiko erhöht, dass „mehr主动性 und Risikobereitschaft“ zu systemischen Problemen führt – Vitaliks Warnung vor der „Feedback-Distanz“ wird dann noch relevanter.
Verwandte Artikel
ETH Mitbegründer Jeffrey Wilcke transferiert fast 80.000 ETH, im Wert von 157 Millionen US-Dollar
Der US-amerikanische Ethereum-Spot-ETF verzeichnet in dieser Woche einen Nettomittelabfluss von 23,5 Millionen US-Dollar
Citigroup treibt die "Bitcoin-Bankifizierung" voran: Strebt an, noch in diesem Jahr "institutionelle Verwahrung" und "übergreifende Vermögenswerte-Hypotheken" Dienste zu starten
Das Interesse an Altcoins lässt nach: Kann Ethereum eine neue Altcoin-Saison einläuten?