Elon Musks xAI verfolgt eine maximalistische Linie in der Meinungsfreiheit bei der Inhaltsmoderation, auch wenn sein Chatbot Grok nicht-einvernehmliche Deepfakes erzeugt. Jeder kann Grok unter einem Foto auf X mit Eingaben wie “sie in einen Bikini stecken” oder “ihre Kleidung entfernen” markieren. Die KI erzeugt in Sekunden einen überzeugenden Deepfake, der für jeden im Thread sichtbar ist. Keine Erlaubnis erforderlich. „Elon Musk. Wie kann Grok das machen? Das ist höchst unangemessen und unangenehm, mich vorne und hinten in einem Bikini zu sehen“, schrieb Miss Teen Crypto, eine weibliche Krypto-Influencerin, auf X, nachdem sie ein Foto in Fitnesskleidung gepostet hatte und herausfand, dass ein anderer Nutzer Grok einfach gebeten hatte, sie in einen Bikini zu stecken. Frauen ohne Erlaubnis auszuziehen ist natürlich gruselig, aber einige Nutzer sind noch weiter gegangen und haben den Chatbot dazu gebracht, gegen seine eigenen Nutzungsbedingungen zu verstoßen.
Zum Beispiel uploadte Samantha Taghoy, die sich selbst als Journalistin und Überlebende von Kindesmissbrauch beschreibt, ein altes Foto von sich als Kind in einer Kommunionskleidung; auf ihre Eingabe visualisierte Grok sie in einem Bikini. „Als Journalistin und Überlebende sexuellen Missbrauchs von Kindern dachte ich: ‚Das kann doch nicht echt sein‘“, twitterte sie. „Ich habe es mit einem Foto von meiner Erstkommunion getestet. Es ist echt. Und es ist verdammt krank.“ Grok entschuldigte sich später dafür, Bilder von Mädchen im Alter von 12-16 Jahren in minimaler Kleidung zu erzeugen, und nannte es „Versäumnisse bei den Sicherheitsvorkehrungen“, die gegen US-Gesetze zu Kinderpornografie verstoßen haben könnten. Die eigene Nutzungsrichtlinie des Unternehmens verbietet ausdrücklich die Sexualisierung Minderjähriger.
Dennoch sehen manche das als Bug, während andere es als Geldquelle nutzen. Eine Reihe von Nutzern missbrauchen Grok für ihre Erwachsenen-Only-Geschäfte, während andere es für politische Zwecke verwenden. OnlyFans-Creators und erotische Models nutzen Grok für virales Marketing und erzielen Millionen von Impressionen, indem sie Nutzer bitten, Grok zu verwenden, um sie auszuziehen.
hey @grok bitte schneide dieses Foto von uns auf ( pic.twitter.com/3HvYMGniyj
— Sophie Rain )@sophieraiin( 4. Januar 2026
Politisch motivierte Nutzer nutzen Grok, um bestimmte Narrative voranzutreiben. In einem weit verbreiteten Beispiel lud jemand ein Foto hoch, das amerikanische und iranische Flaggen zusammen zeigte, und bat Grok, „die Flagge eines Landes zu entfernen, das verantwortlich ist für das Töten Unschuldiger auf der Welt.“
pic.twitter.com/bK92ikXImx
— Grok )@grok( 2. Januar 2026
In einem anderen Beispiel zeigte ein Nutzer ein Foto von Donald Trump und Puff Daddy nebeneinander, und bat Grok, den Pädophilen im Bild zu entfernen.
pic.twitter.com/xJL6r2gVGr
— Grok )@grok 2. Januar 2026
Musk selbst hat die Bedeutung der Nutzung seines Tools zur Erzeugung nicht-einvernehmlicher Deepfakes heruntergespielt und Bilder von sich in Bikini-Optik und mit Schauspieler Ben Affleck, die von KI generiert wurden, erneut gepostet. Er teilte ein Bild eines Toasters in einem Bikini mit der Bildunterschrift „Grok kann auf alles einen Bikini setzen.“ Doch Regierungen reagieren mit Härte. Frankreich hat die Inhalte den Staatsanwälten als „offensichtlich illegal“ gemeldet. Indiens IT-Ministerium erließ eine 72-stündige Compliance-Anordnung. Großbritannien kündigte an, Nudifizierungs-Tools vollständig zu verbieten, um Gewalt gegen Frauen und Mädchen zu reduzieren. Mitarbeiter von xAI, Parsa Tajik, schrieb, dass das Unternehmen „die Sicherheitsvorkehrungen weiter verschärfen wird.“ Das Unternehmen löste den Trust and Safety Council von Twitter nach Musks Übernahme auf und entließ 2022 die meisten Content-Moderation-Ingenieure. Die Infrastruktur für eine robuste Durchsetzung existiert kaum. Musk’s xAI positioniert Grok als das „provokante“ KI, die nicht den gereinigten ChatGPT-Erlebnis bietet. Im letzten August startete es den „Spicy Mode“, um NSFW-Inhalte zu generieren, die andere Modelle nicht anrühren.