
X’s Public Announcement | X’s Blog PostAnnouncementGrok ist ein KI-Tool, das mit X verbunden ist. Anfang Januar 2026 stellten Nutzer fest, dass es durch einfache Eingaben sexualisierte Bilder realer Personen erzeugen konnte, darunter Frauen und Minderjährige.
Journalisten und Forscher konnten diese Ergebnisse reproduzieren. Ein Teil dieser Inhalte wurde öffentlich auf X geteilt. Innerhalb weniger Stunden verbreiteten sich Screenshots rasant. (Wie von Reuters und der Financial Times berichtet)
Die Verbreitung war so massiv, dass europäische Aufsichtsbehörden einschritten, weil:
- die Bilder reale Personen zeigten
- keine Einwilligung vorlag
- möglicherweise Minderjährige betroffen waren
- und das Tool in großem Maßstab verfügbar war
Am 12. Januar 2026 gab die britische Medienaufsicht Ofcom bekannt, eine formelle Untersuchung gegen X wegen der Generierung sexualisierter Bilder durch Grok eingeleitet zu haben. Die britische Datenschutzbehörde folgte mit einer eigenen Prüfung. (Reuters)
Kurz darauf verurteilte der britische Premierminister Keir Starmer die Inhalte öffentlich, nannte sie inakzeptabel und bestätigte, dass die Aufsichtsbehörden eingeschaltet seien.
Wenig später ordnete die Europäische Kommission an, dass X im Rahmen ihrer Prüfung nach den EU-Regeln zur digitalen Sicherheit alle Grok-bezogenen Dokumente sichern müsse.
Und erst vor drei Tagen, laut Reuters und Le Monde, schickten französische Staatsanwälte im Zuge einer Cybercrime-Untersuchung die Polizei in das Pariser Büro von X. Obwohl es keine Festnahmen gab, wurde Elon Musk zur Befragung vorgeladen.
Warum das eskalierte
Als Krisenkommunikationsberaterin, die diesen Fall eng verfolgt, sehe ich drei Gründe, warum sich daraus eine ausgewachsene Krise entwickelte.
1. Reaktionszeit Als das Thema öffentlich wurde, veröffentlichte X keine klare, zentrale Stellungnahme, die erklärte, was geschah, was geprüft wurde oder wer verantwortlich war.
2. Die Bühne war bereits bereitet Erst nach der öffentlichen Erklärung von Ofcom am 12. Januar 2026 reagierte X öffentlich und erklärte in einem Blogbeitrag, dass die Bildfunktionen von Grok eingeschränkt worden seien und man daran arbeite, die lokalen Gesetze einzuhalten
3. Musk sagte: „Ich wusste es nicht.“ Am 14. Januar 2026 schrieb Elon Musk in einem Beitrag auf X, dass er nicht gewusst habe, dass Grok Nacktbilder von Minderjährigen generiere.
Er sagte nicht: „Das ist nicht passiert.“ Er sagte, er habe davon nichts gewusst.
Zu diesem Zeitpunkt jedoch:
- hatten Journalisten bereits Beispiele dokumentiert
- hatten Nutzer bereits Inhalte geteilt
- reagierten Aufsichtsbehörden bereits
Entsprechend kam die Aussage schlecht an.
Wenn die Person an der Spitze sagt „Ich wusste es nicht“, nachdem andere es offensichtlich wussten, signalisiert das Kontrollverlust. Diese Kombination löste regulatorische Maßnahmen, politische Reaktionen und öffentliche Empörung aus.
Was das für Führung bedeutet
Grundsätzlich operiert heute jedes Unternehmen, ob mittelständisch oder groß, in einem Umfeld, in dem Probleme öffentlich werden, bevor sie intern sichtbar werden. Das macht Krisenvorbereitung zu einer grundlegenden betrieblichen Notwendigkeit, nicht zu einem Nice-to-have.
Diese Situation hätte begrenzt werden können, wenn:
- Ein Krisenhandbuch existiert hätte, das an aktuelle Risikoszenarien angepasst ist, sodass Entscheidungen nicht ad hoc getroffen werden mussten.
- Teams funktionsübergreifend Krisensimulationen geübt hätten, sodass Rollen und Eskalationswege klar gewesen wären.
- Monitoring-Systeme vorhanden gewesen wären, um Hochrisikosignale frühzeitig zu erkennen, bevor sie öffentlich wurden.
Die Haltung „Wir kümmern uns darum, wenn es passiert“ funktioniert nicht mehr.
Denn das Umfeld wartet nicht mehr.
Vorbereitung bedeutet nicht, für jedes Szenario einen Plan zu haben. Es bedeutet, zu wissen, wer spricht, wer entscheidet und wer handelt, wenn sich Dinge schneller bewegen als Gewissheit.
Das ist es, was Führungskräfte nachts ruhig schlafen lässt.