Sexualisierte Deepfakes im Internet: Warum sie verboten werden müssen

Sexualisierte Deepfakes verbreiten sich rasant im Internet – oft ohne Zustimmung der abgebildeten Personen. Sie verletzen Privatsphäre, Würde und können schwerwiegende psychische Folgen haben. Ein klares Verbot solcher KI-generierten Bilder ist daher überfällig, um Betroffene zu schützen und digitale Räume sicherer zu machen.

Sexualisierte Deepfakes im Internet: Eine Gefahr im digitalen Raum für Frauen und Kinder

Was ist passiert?

Beim aktuellen Skandal um Grok, den KI-Chatbot von Elon Musks Unternehmen xAI, handelt es sich um die massenhafte Erzeugung und Verbreitung sexualisierter Deepfakes auf der Plattform X. Ende 2025 bis Anfang 2026 konnten Nutzer Grok einfach dazu bringen, realistische Bilder realer Personen – vor allem Frauen und sogar Kinder – zu manipulieren, etwa indem Kleidung entfernt oder Posen sexualisiert wurden, was zu Millionen solcher Inhalte führte. NGOs wie das Center for Countering Digital Hate schätzen, dass allein zwischen dem 29. Dezember 2025 und 8. Januar 2026 rund 4 Millionen Bilder generiert wurden, davon etwa 3 Millionen sexualisiert und 23.000 mit Kindern.

Dies löste weltweite Empörung aus: Prominente wie Taylor Swift, Selena Gomez oder Kamala Harris wurden betroffen, und Politiker nannten es „widerlich“ oder „industrialisierte sexuelle Belästigung“. X reagierte verspätet, indem es die Bildfunktion zunächst Premium-Nutzern beschränkte und am 14. Januar 2026 weiter einengte, wodurch der Anteil sexualisierter Bilder auf unter 10 Prozent sank.

Am 25. Januar 2026 leitete die EU-Kommission ein Verfahren gegen X nach dem Digital Services Act (DSA) ein, um zu prüfen, ob Risiken vor der Grok-Integration bewertet wurden – hohe Bußgelder drohen. Ähnliche Untersuchungen laufen in Großbritannien (Ofcom), Frankreich und Indonesien, während das EU-Parlament über strengere Regeln gegen KI-Deepfakes debattierte und deutsche Justizministerin Strafen für solche Fakes forderte. 

Was sind Deepfakes?

Deepfakes sind täuschend echte Fälschungen von Videos, Bildern oder Tonaufnahmen, die mithilfe von Künstlicher Intelligenz entstehen. Dabei wird das Gesicht, die Stimme oder der Körper einer realen Person in eine völlig andere Szene gesetzt – oft ohne deren Wissen oder Zustimmung. Durch immer leistungsfähigere KI und leicht zugängliche Tools kann heute fast jede*r solche Fälschungen erstellen, ganz ohne technisches Know-how. Das macht Deepfakes zu einem der gefährlichsten Trends.

Besonders sexualisierte Deepfakes – also gefälschte Nacktbilder oder Pornos – verbreiten sich rasant. Apps, Webseiten und KI-Chatbots wie Grok ermöglichen es, in wenigen Sekunden realistische, aber komplett manipulierte Bilder zu erzeugen. Verwendet werden dafür meist Fotos aus Social Media, die unbemerkt weiterverarbeitet werden. Betroffen sind vor allem Frauen, Influencerinnen, Journalistinnen, Politikerinnen und zunehmend auch Minderjährige. Ihre Gesichter oder Körper werden in entwürdigenden Szenen dargestellt und millionenfach im Netz geteilt.

Gefahren von Deepfakes

  • Digitale Gewalt: Sexualisierte Deepfakes (z. B. Deepnudes) schädigen Ruf wie aktuell im Grok-Skandal, verursachen psychischen Stress und ermöglichen neue Arten von Erpressung.
  • Betrug: Gefälschte Videos/Audios täuschen Menschen zu Geldüberweisungen oder Datenpreisgabe, indem durch Deepfakes von Unternehmen und bekannten Personen vertrauen zu den Opfern hergestellt wird.
  • Desinformation: Fake News manipulieren Wahlen, Meinungen oder öffentliche Debatten.
  • Rufschädigung: Personen werden lächerlich gemacht oder falsch belastet. Die Deepfakes werden dabei so gut aufbereitet, dass ihre Echtheit von dritten Personen nicht mehr hinterfragt wird.
  • Cyberangriffe: Unternehmen verlieren Millionen durch imitierte Chefs in Calls.
  • Misstrauen: Gesellschaft traut Medien und Realität weniger und beginnen, sie miteinander zu verwechseln.

Mehr Schutz in digitalen Räumen

Sexualisierte KI-Bilder stellen eine ernsthafte Belastung für Betroffene dar und erfordern sofortige und klare gesetzliche Rahmenbedingungen sowie effektive technische Maßnahmen. Durch ein Verbot solcher Inhalte lassen sich Hass, Missbrauch und Ausbeutung eindämmen und die digitale Freiheit wird sicherer.

Es braucht Aufklärung, verbindliche Standards für KI-Generatoren und Programme, sowie Investitionen in Präventions- und Hilfsangebote. Gemeinsam schaffen wir digitale Räume, in denen Schutz vor Missbrauch Priorität hat.