Künstliche Intelligenz macht es heute leicht, täuschend echte Bilder und Videos von realen Personen zu erzeugen – auch von Prominenten. Was technisch beeindruckend ist, wirft rechtlich jedoch altbekannte Fragen neu auf: Dürfen Unternehmen KI-generierte Darstellungen von Personen für Marketingzwecke nutzen?
Sind KI-Deepfakes „Bildnisse“?
Aus rechtlicher Sicht ist entscheidend: Auch KI-generierte Darstellungen gelten regelmäßig als Bildnisse im Sinne von § 22 Kunsturhebergesetz (KUG), sobald eine reale Person erkennbar ist. Dabei spielt es keine Rolle, dass die Person nicht „wirklich“ fotografiert wurde. Schon lange ist anerkannt, dass auch Zeichnungen, Gemälde, animierte Figuren oder digital bearbeitete Darstellungen das Recht am eigenen Bild berühren können. Das Ziel des Bildnisschutzes ist immer dasselbe: Jede Person soll grundsätzlich selbst entscheiden dürfen, ob und wie sie öffentlich dargestellt wird. Dass KI-Bilder aus Datensätzen „neu generiert“ werden, ändert daran nichts. Rechtlich werden sie nicht anders behandelt als andere künstlerische oder technische Darstellungen.
„Virtuelle Doubles“ ändern nichts an der Rechtslage. Mitunter wird argumentiert, KI-Bilder seien lediglich eine Art „virtueller Schauspieler“. Auch das überzeugt rechtlich nicht. Maßgeblich ist nicht die Technik, sondern die Wirkung: Wenn Betrachter die dargestellte Person wiedererkennen, liegt ein Bildnis vor. Die Rechtsprechung unterscheidet zwar zwischen der Eigenpersönlichkeit eines Darstellers und der Identität des Dargestellten. Bei Deepfakes fehlt jedoch eine eigene Persönlichkeit vollständig – das KI-Abbild „spielt“ niemanden, sondern reproduziert allein das Erscheinungsbild der realen Person. Genau deshalb greift der Bildnisschutz.
Insbesondere die Nutzung für Werbung bleibt heikel. Zwar erlaubt § 23 KUG unter bestimmten Voraussetzungen auch eine Nutzung ohne Einwilligung, etwa bei Personen der Zeitgeschichte. Diese Ausnahme greift jedoch regelmäßig nicht bei Werbung. Der Grund: Bei werblichen Beiträgen steht nicht das Informationsinteresse der Öffentlichkeit im Vordergrund, sondern das wirtschaftliche Interesse des Unternehmens. Prominente müssen es nicht hinnehmen, gegen ihren Willen für Produkte oder Marken vereinnahmt zu werden – unabhängig davon, ob das Bild „echt“ oder KI-generiert ist. Gerade bei KI-Inhalten besteht zusätzlich die Gefahr eines Imagetransfers: Es kann der Eindruck entstehen, die dargestellte Person unterstütze das beworbene Produkt oder identifiziere sich mit der Marke. Das macht solche Kampagnen rechtlich besonders angreifbar.
Satire, Memes und Deepfakes – ein schmaler Grat
Anders kann die Lage bei satirischen, parodistischen oder künstlerischen Inhalten aussehen. Hier lässt das Gesetz Ausnahmen zu, wenn erkennbar nicht die Werbung, sondern die inhaltliche Auseinandersetzung im Vordergrund steht. Allerdings gilt auch hier: Je stärker ein KI-Bild die reale Person verfremdet oder entstellt, desto sensibler wird die rechtliche Abwägung. Problematisch wird es vor allem dann, wenn die Manipulation nicht auf den ersten Blick erkennbar ist oder der Eindruck entsteht, die dargestellte Szene sei „wirklich passiert“. Für Unternehmensaccounts und Markenkommunikation sind diese Ausnahmen in der Praxis kaum belastbar. Social-Media-Memes mit Prominenten mögen unterhaltsam sein – rechtlich bewegen sie sich jedoch häufig in einer Grauzone oder darüber hinaus.
Transparenz hilft – löst aber nicht alles
Die neue KI-Verordnung der EU (Verordnung (EU) 2024/1689) verpflichtet dazu, Deepfakes als solche kenntlich zu machen.
Artikel 50 KI-Verordnung
Absatz 4
Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein Deepfake sind, müssen
offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Diese Pflicht gilt nicht, wenn die Verwendung zur
Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines
offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich
die in diesem Absatz festgelegten Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten
Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.
Das kann helfen, Täuschungen zu vermeiden. Eine Kennzeichnung ersetzt jedoch keine Einwilligung, wenn Persönlichkeitsrechte oder wirtschaftliche Interessen der abgebildeten Person betroffen sind.
Foto von Maximalfocus auf Unsplash
Weitere Beiträge:
Deepfakenews: Desinformationen mittels KI
Stimmenklonen durch KI – Ein rechtlicher Überblick