Deepfakes durch KI – Ein neues Zeitalter digitaler Bedrohungen.

Berlin, München 06.11.2024. Deepfakes sind täuschend echt wirkende, manipulierte Bild-, Audio- oder Videoaufnahmen, die mit Hilfe von künstlicher Intelligenz erzeugt werden. Mit der dazugehörigen Software lassen sich leicht Gesichter oder Stimmen in Echtzeit tauschen. Deepfakes stellen damit eine signifikante Eskalation im Bereich des Cybercrimes dar und werfen spannende rechtliche und sicherheitstechnische Fragen auf.

Wie sieht es mit der Arbeitnehmerhaftung aus, wenn der Arbeitnehmer auf einen angeblichen Anruf des CEOs reingefallen ist? Wer haftet, wenn bspw. auf Facebook ein Video von Elon Musk auftaucht, welcher angeblich eine Verdoppelung für überwiesene Kryptos verspricht? Und welche Rechte haben geschädigte Opfer, deren biometrische Gesichtsdaten missbraucht wurden?

Der Umfang der Haftung des Arbeitnehmers bestimmt sich nach dem Grad der Fahrlässigkeit. Das BAG hat bei normaler bzw. mittlerer und grober Fahrlässigkeit eine Aufteilung der Haftung zwischen Arbeitnehmer und Arbeitgeber nach bestimmten Haftungsquoten eingeführt. Für eine vollständige Bewertung der Fahrlässigkeit, spielt die Qualität des Deepfakes aber auch präventive Maßnahmen des Arbeitgebers eine entscheidende Rolle. Einem nicht geschulten Arbeitnehmer, welcher auf ein täuschend echtes Deepfake hereinfällt, wird ein geringerer Vorwurf zu machen sein.

Ein wesentlicher Aspekt ist, ob das Unternehmen oder im Falle von Facebook die Plattform technische Maßnahmen ergriffen hat, um Deepfakes entgegenzuwirken. So kann eine Deepfake-Detektionssoftware eingesetzt werden, die darauf spezialisiert ist, Manipulationen in audiovisuellen Materialien zu identifizieren, um gefälschte Inhalte proaktiv zu erkennen und zu blockieren. Derartige Tools sind bereits auf dem Markt etabliert. Hier stellt sich daher auch die Frage der Haftung nach der DSGVO, denn so kann der Vorwurf erhoben werden, dass durch unzureichende technische Maßnahmen der Schaden eingetreten ist, was einen Anspruch gem. Art. 82 DSGVO begründen kann.

Personen, deren biometrische Gesichtsdaten missbraucht worden sind, können ebenso auf den Schutz durch die DSGVO bauen. Denn es handelt sich um eine Verarbeitung personenbezogener Daten. Im Falle von verunglimpfendem Material, insbesondere sog. Rachepornos, kommen auch hohe Schmerzensgelder in Betracht. Daneben hat die betroffene Person Unterlassungsansprüche, dass das Material gelöscht und die Verbreitung unterbunden wird und kann den Deepfake bei den Datenschutzbehörden anzeigen.

Gegen die Täter selbst sollte eine Strafanzeige bei einem Fachdezernat für Cybercrime erhoben werden.

Die Kanzlei CLLB welche auf eine langjährige Erfahrung im Bereich des Datenschutzes und der Bekämpfung von Cyberkriminalität zurückblicken kann, steht Opfern von Deepfakes mit Rat und Tat zur Seite.

Unsere Themenseite zum Fall

Haben Sie Fragen zum Fall?

    Anrede

    Vorname

    Nachname

    E-Mail

    Telefonnummer – optional

    Ihre Nachricht

    bekannt aus
    icon-angle icon-bars icon-times