Lokaltermin Paris – Elon Musk blieb in den Staaten
Hearing in Paris – Elon Musk Stayed in the U.S.
20. April 2026 / April 20, 2026
Quelle / Source:
stern.de – Ermittlungen gegen X
🇬🇧 English Version
Today, Elon Musk and Linda Yaccarino were scheduled to testify in person in Paris as part of a hearing officially declared as voluntary. From my perspective, it is understandable that neither of them attended.
The Background of the Investigation
The French authorities are focusing on the following allegations:
- Distribution of sexualized deepfakes
- Aiding the distribution of child pornography
- Holocaust denial and far-right content on the platform
- Algorithm manipulation and fraudulent data extraction
My Perspective as a Long-Term User
I had an account on x.com for nine years. I deactivated my account on January 12, 2026 – primarily because of the new Terms of Service and the increasing number of fakes on the platform. Based on this long-term experience, I would like to address each point individually.
Sexualized deepfakes: I have not encountered publicly visible sexualized deepfakes on the platform during this time.
Child pornography: Likewise, I have not come across such content in nine years.
Holocaust denial: This issue mainly arose because Grok initially lacked sufficient safeguards. I have already covered this topic in detail:
GIGO instead of Grok – Why AI Errors Are Always Human Errors
Far-right content: Within the EU, I rarely see such content. When it does appear, EU users typically report the accounts consistently until x.com suspends them.
Algorithm manipulation and data extraction: This concerns the suspicion that X deliberately favors or suppresses certain content in order to influence public opinion. I cannot confirm this allegation in that form. What I have observed is that X favors accounts that pay monthly for the blue checkmark and verification. As a non-paying user, I experienced that even high-quality posts received little reach.
Loss of Neutrality?
The judiciary is examining whether X has abandoned its role as a neutral intermediary and has deliberately made disinformation or hate speech more visible. This does not match my experience either. Grok was initially configured incorrectly, but the main issues have largely been resolved.
What I find significantly more problematic is hate speech directed at EU citizens – often from accounts outside the EU. I have documented one specific example here:
December 20, 2025 – Archive Against X Hate
My post at the time was not politically motivated; it was a constructive proposal for combating fakes. Nevertheless, I was severely insulted by English-speaking accounts.
This raises the question: Which hate speech are we actually talking about? Are the investigations once again focused primarily on content affecting EU citizens – or also on the accounts that genuinely spread hate?
On the Allegation of Fraudulent Data Extraction
X introduced new Terms of Service on January 15, 2026, and April 4, 2026. Data processing is clearly regulated within them:
privacy.x.com – Updates to Terms of Service & Privacy Policy
Anyone still active on x.com on January 15, 2026, agreed to these terms. The changes were communicated extensively. For me personally, these new terms – combined with the growing number of fakes – were the reason I deactivated my account on January 12, 2026, three days before the new rules took effect.
Investigators are examining a possible violation of the Digital Services Act (DSA): they aim to determine whether X circumvented transparency obligations to gain a competitive advantage in AI development. I do not consider this allegation to be substantiated – the reasoning can be found in my blog.
Lack of Oversight and the Actual Fake Problem
A further allegation states that X has not done enough to prevent the misuse of data by AI, which has led to the creation of illegal content such as sexualized deepfakes.
My observation: I received deepfakes – including sexualized ones – primarily via Telegram and WhatsApp, not via X. Notably, these fakes mostly appeared under the name "Elon Musk," often in very poor quality. We are talking about hundreds of cases.
In this context, I see X more as a transit point. The actual fraud takes place on Telegram, WhatsApp, Signal, and similar services – but is apparently not prosecuted with comparable intensity. Why, then, is the focus exclusively on X?
Conclusion
What exactly do the French authorities want from X? I experienced the platform differently, and I see significantly more serious problems elsewhere.
I consider it acceptable that Elon Musk did not appear in person. However, he could have at least sent a lawyer.
What is not acceptable are the fakes – both on X and on other platforms. Fakes that, in some cases, only use X as a stepping stone to lure users onto Telegram, WhatsApp, or Signal.
No AI is flawless – all systems make mistakes, which is why they need to be monitored on a sample basis by human teams. What matters is that people work together rather than against each other. AI is uncharted territory for everyone, and it would be more productive to learn collectively. Combating fakes on the platforms must be a top priority.
An EU verification app alone will not solve this problem.
🇩🇪 Deutsche Version
Heute hätten Elon Musk und Linda Yaccarino in Paris persönlich aussagen sollen – im Rahmen einer als freiwillig deklarierten Anhörung. Dass beide nicht erschienen sind, ist aus meiner Sicht nachvollziehbar.
Die Hintergründe der Ermittlungen
Den französischen Behörden geht es im Kern um folgende Vorwürfe:
- Verbreitung sexualisierter Deepfakes
- Beihilfe zur Verbreitung kinderpornografischer Inhalte
- Holocaustleugnung und rechtsextreme Inhalte auf der Plattform
- Manipulation von Algorithmen und betrügerische Datenabschöpfung
Meine Einordnung als langjährige Nutzerin
Ich war neun Jahre lang mit einem Account auf x.com aktiv. Am 12. Januar 2026 habe ich meinen Account deaktiviert – vor allem wegen der neuen AGB und der zunehmenden Anzahl an Fakes auf der Plattform. Auf Grundlage dieser langjährigen Erfahrung möchte ich die Punkte einzeln einordnen.
Sexualisierte Deepfakes: Öffentlich sichtbare sexualisierte Deepfakes sind mir auf der Plattform in dieser Zeit nicht begegnet.
Kinderpornografie: Auch hier habe ich in neun Jahren keine entsprechenden Inhalte wahrgenommen.
Holocaustleugnung: Diese Problematik entstand vor allem dadurch, dass bei Grok zunächst keine ausreichenden Safeguards gesetzt waren. Ich habe das Thema bereits ausführlich behandelt:
GIGO instead of Grok – Warum KI-Fehler immer menschliche Fehler sind
Rechtsextremismus: Aus dem EU-Raum nehme ich entsprechende Inhalte kaum wahr. Wenn doch, melden EU-Bürgerinnen und -Bürger die betreffenden Accounts in der Regel so konsequent, bis x.com sie sperrt.
Manipulation von Algorithmen und Datenabschöpfung: Hier geht es um den Verdacht, dass X gezielt bestimmte Inhalte bevorzugt oder unterdrückt, um die öffentliche Meinung zu beeinflussen. Diesen Vorwurf in dieser Form kann ich nicht bestätigen. Was ich beobachtet habe: X bevorzugt Accounts, die monatlich für den blauen Haken und die Verifikation zahlen. Als nicht-zahlende Nutzerin habe ich erlebt, dass auch hochwertige Beiträge wenig Reichweite erhielten.
Verlust der Neutralität?
Die Justiz prüft, ob X seine Rolle als neutraler Vermittler aufgegeben und gezielt Desinformation oder Hassrede sichtbarer gemacht hat. Auch das deckt sich nicht mit meiner Erfahrung. Grok war anfangs nicht korrekt konfiguriert, die wesentlichen Fehler wurden jedoch weitgehend behoben.
Was ich als deutlich problematischer empfinde, sind Hassreden gegenüber EU-Bürgerinnen und -Bürgern – häufig von Accounts außerhalb der EU. Ein konkretes Beispiel habe ich hier dokumentiert:
20. Dezember 2025 – Archiv gegen X-Hass
Mein damaliger Beitrag war nicht politisch motiviert, sondern ein konstruktiver Vorschlag zur Bekämpfung von Fakes. Trotzdem wurde ich von englischsprachigen Accounts massiv beschimpft.
Daraus ergibt sich für mich die Frage: Von welcher Hassrede ist konkret die Rede? Richten sich die Ermittlungen wieder vorrangig gegen Inhalte, die EU-Bürger betreffen – oder auch gegen jene Accounts, die tatsächlich Hass verbreiten?
Zum Vorwurf der betrügerischen Datenabschöpfung
X hat zum 15. Januar 2026 und zum 4. April 2026 neue AGB eingeführt. Darin ist die Datenverarbeitung klar geregelt:
privacy.x.com – Updates zu AGB & Datenschutzerklärung
Wer am 15. Januar 2026 weiterhin auf x.com aktiv war, hat diesen Bedingungen zugestimmt. Die Änderungen wurden umfassend kommuniziert. Für mich persönlich waren genau diese neuen AGB – in Verbindung mit den zunehmenden Fakes – der Grund, meinen Account am 12. Januar 2026 zu deaktivieren, also drei Tage vor Inkrafttreten der neuen Regeln.
Die Ermittler prüfen einen Verstoß gegen den Digital Services Act (DSA): Es soll geklärt werden, ob X Transparenzpflichten umgangen hat, um sich Wettbewerbsvorteile bei der KI-Entwicklung zu verschaffen. Ich halte diesen Vorwurf für nicht stichhaltig – die Hintergründe dazu finden sich in meinem Blog.
Fehlende Kontrolle und das eigentliche Fake-Problem
Ein weiterer Vorwurf: X habe nicht ausreichend gegen die missbräuchliche Nutzung von Daten durch KI vorgegangen, was zur Entstehung illegaler Inhalte wie sexualisierter Deepfakes geführt habe.
Meine Beobachtung dazu: Die Deepfakes – auch die sexualisierten – habe ich überwiegend über Telegram und WhatsApp erhalten, nicht über X. Auffällig: Diese Fakes traten meist unter dem Namen „Elon Musk" auf, in zum Teil sehr schlechter Qualität. Es handelte sich um hunderte Fälle.
X ist in diesem Kontext aus meiner Sicht eher eine Durchgangsstation. Der eigentliche Betrug findet auf Telegram, WhatsApp, Signal und vergleichbaren Diensten statt – wird dort aber offenbar nicht in vergleichbarer Intensität verfolgt. Warum richtet sich der Fokus dann ausschließlich auf X?
Fazit
Was genau möchten die französischen Behörden von X? Ich habe die Plattform anders erlebt, und ich sehe an anderen Stellen deutlich gravierendere Probleme.
Dass Elon Musk nicht persönlich zum Termin erschienen ist, halte ich für vertretbar. Einen Anwalt hätte er allerdings entsenden können.
Nicht in Ordnung sind die Fakes – sowohl auf X als auch auf anderen Plattformen. Fakes, die X teilweise nur als Sprungbrett nutzen, um Nutzerinnen und Nutzer auf Telegram, WhatsApp oder Signal abzugreifen.
Keine KI ist fehlerfrei – alle machen Fehler, weshalb sie auch stichprobenartig von menschlichen Teams überwacht werden müssen. Entscheidend ist, dass Menschen zusammenarbeiten statt gegeneinander. KI ist für alle Beteiligten Neuland, und es wäre sinnvoller, gemeinsam zu lernen. Die Bekämpfung von Fakes auf den Plattformen muss dabei oberste Priorität haben.
Eine EU-Verifizierungsapp allein wird dieses Problem nicht lösen.