Täuschend echt: Wie Deepfakes Persönlichkeitsrechte und Demokratie gefährden
Künstliche Intelligenz verändert unsere Welt in rasantem Tempo – und mit ihr auch die Art und Weise, wie Informationen geschaffen und verbreitet werden.
Deepfakes sind ein besonders beunruhigendes Beispiel:
Durch ausgeklügelte KI-Technologien werden Bilder, Videos und Tonaufnahmen manipuliert oder komplett neu erzeugt – so realistisch, dass selbst geschulte Augen kaum noch zwischen Fälschung und Wahrheit unterscheiden können. Was früher als technische Spielerei galt, entwickelt sich zunehmend zu einer ernsthaften Bedrohung für Persönlichkeitsrechte, demokratische Prozesse und die Glaubwürdigkeit digitaler Kommunikation. Wie können Betroffene sich gegen diese Form der Täuschung schützen? Und welche rechtlichen Mittel gibt es, um der Ausbreitung von Deepfakes wirksam entgegenzutreten? Dieser Beitrag beleuchtet die aktuellen Herausforderungen und zeigt auf, welche Handlungsmöglichkeiten Ihnen heute und in Zukunft zur Verfügung stehen.
Grundlagen und Relevanz
Deepfakes bezeichnet insbesondere im Wege des sog. Deep Learnings – einer Methode maschinellen Lernens – erzeugte oder durch künstliche Intelligenz veränderte Inhalte, wobei diese Inhalte oft so realitätsnah sind, dass selbst geschulte Beobachter Schwierigkeiten haben, zwischen Original und Fälschung zu unterscheiden. Diese Authentizität ist auch zugleich die große Gefahr an diesen Phänomen. Denn Sie ermöglichen im besonders hohen Maße die Verbreitung von gezielter Desinformation und Manipulation.
Aus rechtlicher Sicht ist hier besonders brisant, wie sich der Einzelne vor einer solchen Manipulation schützen kann und wie sich – neben der rein rechtlichen Komponente – die diesbezügliche Rechtsdurchsetzung derzeit (und künftig) entwickelt.
Persönlichkeitsrechtsschutz, Urheberrecht und Namensrecht
Deepfakes berühren im Zivilrecht vor allem Fragen des allgemeinen Persönlichkeitsrechts, des Urheberrechts und des Namensschutzes. Im Zentrum steht das Allgemeine Persönlichkeitsrecht, abgeleitet aus Art. 2 Abs. 1 und Art. 1 Abs. 1 GG, das unter anderem das Recht am eigenen Bild, am gesprochenen Wort und auf informationelle Selbstbestimmung schützt. Hiernach gilt im Grundsatz: Jeder Mensch entscheidet grundsätzlich selbst, wie und wo er gezeigt wird. Diese Rechte werden durch Deepfakes regelmäßig verletzt, insbesondere, wenn Personen in Videos Aussagen gemacht werden, die sie nie getätigt haben, oder wenn ihr Bildnis in diffamierenden, pornografischen oder sonstwie missbräuchlichen Kontexten verwendet wird. Schon und auch die Verwendung von Namen kann zu sogenannten Zuordnungsverwirrungen führen und namensrechtliche Ansprüche nach § 12 BGB begründen.
Urheberrechtlich problematisch sind Deepfakes insbesondere dann, wenn geschützte Werke – etwa Musik, Fotos oder Filmsequenzen – ohne Zustimmung der Rechteinhaber verwendet werden. Zwar erlaubt das Urheberrecht Ausnahmen wie Parodien oder Pastiche, diese werden bei Deepfakes, die auf Täuschung abzielen, jedoch meist nicht erfüllt.
Rechtlich stehen Betroffenen umfangreiche zivilrechtliche Ansprüche zu: Unterlassung und Löschung der rechtsverletzenden Inhalte, Gegendarstellung zur Richtigstellung falscher Tatsachen, Schadensersatz oder Geldentschädigung bei schwerwiegenden Persönlichkeitsverletzungen.
Strafrechtliche Einordnung
Das deutsche Strafrecht kennt bislang kein eigenes Verbot zur Erstellung von Deepfakes – jedenfalls nicht pauschal. Dennoch können Deepfakes je nach Inhalt und Zweck eine Vielzahl strafrechtlich relevanter Tatbestände erfüllen. Wird etwa das Ansehen einer Person massiv beschädigt, kann dies eine Verletzung des höchstpersönlichen Lebensbereichs nach § 201a StGB darstellen. Kommt es zu Täuschungshandlungen – etwa zur Erschleichung von Zahlungen oder zur Verbreitung fingierter politischer Aussagen – stehen Betrug (§ 263 StGB), Verleumdung (§ 187 StGB) oder sogar Urkundenfälschung (§ 267 StGB) im Raum. Besonders schwer wiegen Inhalte, die falsche Verdächtigungen oder volksverhetzende Aussagen enthalten.
Wichtig ist: Nicht jede Falschinformation ist strafbar. Strafrechtlich relevant wird es erst dann, wenn durch den Deepfake Persönlichkeitsrechte oder andere geschützte Rechtsgüter verletzt werden. Genau an dieser Stelle setzt auch die politische Debatte an.
Die aktuelle Bundesregierung erkennt den wachsenden Handlungsbedarf: Im Koalitionsvertrag 2025 ist die Einführung eines Digitalen Gewaltschutzgesetzes angekündigt. Auch der Schutz vor Desinformation und gezielter Informationsmanipulation soll gestärkt werden. Noch ist offen, welche konkreten Maßnahmen folgen – fest steht jedoch: Der gesetzgeberische Druck steigt, und der Strafrahmen für digitale Täuschung dürfte sich in den kommenden Jahren spürbar verschärfen.
Europarechtliche Vorgaben
Auch die europäische Gesetzgebung setzt zunehmend auf präventive Maßnahmen gegen Deepfakes und Desinformation. Mit der neuen KI-Verordnung verpflichtet die EU Anbieter entsprechender Systeme dazu, künstlich erzeugte Inhalte klar und eindeutig zu kennzeichnen – mit wenigen Ausnahmen, etwa für künstlerische oder journalistische Werke. Diese Transparenzpflicht soll Nutzer in die Lage versetzen, Fälschungen besser zu erkennen und einzuordnen.
Ergänzend sieht der Digital Services Act vor, dass insbesondere sehr große Plattformen verpflichtet sind, Risiken durch manipulative Inhalte aktiv zu minimieren. Dazu gehören unter anderem wirksame Meldeverfahren für Nutzer sowie der Ausbau von Moderation und Kontrollmechanismen.
Auch datenschutzrechtlich sind Deepfakes problematisch – insbesondere dann, wenn reale Personen erkennbar dargestellt werden. In solchen Fällen handelt es sich um die Verarbeitung personenbezogener Daten, für die eine rechtliche Grundlage nach der DSGVO erforderlich ist. Ohne Einwilligung oder berechtigtes Interesse ist die Erstellung und Verbreitung entsprechender Inhalte regelmäßig unzulässig.
Praktische Durchsetzbarkeit und technische Herausforderung
So umfassend die rechtlichen Ansprüche gegen rechtsverletzende Deepfakes auch sein mögen – die tatsächliche Durchsetzbarkeit bleibt oft eine Herausforderung. Deepfakes verbreiten sich in rasanter Geschwindigkeit über soziale Netzwerke. Ihre Urheber agieren häufig anonym, aus dem Ausland und lassen sich nur schwer identifizieren. Auch Plattformbetreiber reagieren oft verzögert oder gar nicht – und agieren selten proaktiv.
Zwar bestehen grundsätzlich Auskunftsansprüche gegenüber Plattformen zur Identifizierung der Verbreitenden. Doch deren Durchsetzung scheitert in der Praxis häufig an hohen rechtlichen Hürden – insbesondere an der Erforderlichkeit gerichtlicher Anordnungen. Für viele Betroffene ist dieser Weg weder zeitlich noch finanziell zumutbar.
Um Deepfakes effektiv bekämpfen zu können, sind technische Werkzeuge zur frühzeitigen Erkennung und Dokumentation unverzichtbar. Moderne forensische Analyseverfahren prüfen etwa Bildrauschen, Lichtverhältnisse oder unnatürliche Bewegungsmuster. Ergänzt werden sie zunehmend durch spezialisierte KI-Tools, die gezielt Manipulationen erkennen und rechtssicher dokumentieren können. Die technischen Möglichkeiten entwickeln sich zwar schnell – sind aber noch längst nicht flächendeckend verfügbar oder ausgereift genug, um in jedem Fall eine vollständige Beweisführung zu ermöglichen. Die Identifikation des tatsächlichen Urhebers bleibt oft schwierig.
Fazit: Deepfakes erkennen – Rechte aktiv durchsetzen
Mit der wachsenden Verbreitung von Deepfakes steigt der rechtliche Handlungsbedarf – für Betroffene, Rechteinhaber und Plattformbetreiber gleichermaßen. Die EU trägt dieser Entwicklung Rechnung und nimmt mit dem Digital Services Act und neuen Verhaltenskodizes gegen Desinformation die großen Plattformen verstärkt in die Verantwortung. Ziel ist es, rechtswidrige Inhalte effektiver zu erkennen, zu entfernen und künftige Verstöße zu verhindern. Dabei gilt: Kunstfreiheit endet dort, wo bewusste Irreführung beginnt – insbesondere, wenn sie Persönlichkeitsrechte verletzt oder demokratische Prozesse gefährdet.
Zugleich schreiten technische Möglichkeiten zur Erkennung von Deepfakes rasant voran. Entsprechende Tools können Unternehmen und Privatpersonen helfen, gefälschte Inhalte frühzeitig zu identifizieren und Gegenmaßnahmen einzuleiten – sei es zur Prävention von Betrug oder zur Beweissicherung im Streitfall.
Unsere Empfehlung: Handeln Sie entschlossen und strukturiert. Wer von einem Deepfake betroffen ist, sollte keine Zeit verlieren. Schnelles Handeln, rechtliche Beratung und saubere Beweisdokumentation sind entscheidend, um wirksam gegen die Verbreitung vorzugehen.
Konkret bedeutet das:
- Beweise sichern: Fertigen Sie Screenshots, Videoaufnahmen und sichern Sie Kommunikationsverläufe. Auch Zeugenaussagen können im Streitfall eine wichtige Rolle spielen.
- Unterstützung hinzuziehen: Ein erfahrener Anwalt für IT- oder Medienrecht kann Ihre rechtliche Position fundiert bewerten, Plattformen zur Löschung auffordern und rechtliche Schritte – etwa Abmahnung oder einstweilige Verfügung – einleiten.
- Schnell reagieren: Verzögerungen können zur weiteren Verbreitung führen und die Rechtsdurchsetzung erschweren. Jede Minute zählt – auch im Hinblick auf die Sicherung digitaler Spuren.
Deepfakes sind kein rechtsfreier Raum. Es bestehen klare zivilrechtliche Ansprüche – insbesondere auf Unterlassung, Richtigstellung und in schweren Fällen auch auf Schadensersatz. Greift die Störerhaftung, können auch Plattformen rechtlich in Anspruch genommen werden – spätestens ab Kenntnis der Rechtsverletzung. Allerdings bleibt die Gesetzeslage im Detail herausfordernd. Zwar gibt es rechtliche Instrumente, um gegen Deepfakes vorzugehen – doch diese greifen oft nur punktuell. Eine wirksamere Regulierung, etwa auch der Deepfake-Erstellung selbst, ist politisch angekündigt, lässt aber in Teilen noch auf sich warten.
Der Autor bedankt sich bei Herrn Rechtsreferendar Konrad Terporten herzlich für die Unterstützung bei der Erstellung dieses Beitrags.