Gate News Nachricht: Am 10. April hat Musk in einer jüngsten Antwort auf der X-Plattform eine angeregte Debatte ausgelöst, in der es um die Schätzungen der Parametergröße des Flaggschiffmodells von Anthropic geht. Auf die Nachfrage eines Nutzers nach der Parameteranzahl von Grok 4.2 hin bestätigte Musk: „0,5 Billionen Gesamtparameter. Aktuell ist Grok die Hälfte von Sonnet, ein Zehntel von Opus. Angesichts seines Umfangs ist das ein sehr leistungsstarkes Modell.“ Wenn man Musks Aussage „Grok 4.2 ist ein Zehntel von Opus“ rückwärts ableitet, liegt die Parameteranzahl von Claude Opus bei etwa 5 Billionen und die von Claude Sonnet bei etwa 1 Billion. Dabei ist zu beachten, dass Anthropic die Parametergröße irgendeines seiner Modelle nie öffentlich offengelegt hat; die obigen Zahlen beruhen nur auf einer Rückrechnung aus Musks Aussagen und sind keine offiziellen Daten. Gleichzeitig verriet Musk, dass der KI-gestützte Supercomputer-Cluster Colossus 2 von SpaceX AI derzeit parallel 7 Modelle trainiert, wobei das größte Modell bis zu 10 Billionen Parameter erreicht, und ergänzte: „Es gibt noch einiges aufzuholen.“ Falls die Ableitung zutrifft, würde Claude Opus mit 5 Billionen Parametern ganz oben unter den derzeit bekannten eingesetzten Modellen liegen; das von xAI parallel trainierte Modell mit 10 Billionen Parametern wird dann eine wichtige Variable im nächsten Wettbewerb darstellen.