Ein Anwalt in San Francisco hat Klage gegen 16 sogenannte "Nudify"-Websites und -Apps eingereicht. Diese nutzen angeblich künstliche Intelligenz, die die Erstellung von nicht einvernehmlichen Deepfake-Inhalten mit echten Frauen ermöglicht.
Die Klage, die sich gegen Websites und Apps mit US-amerikanischen und internationalen Adressen richtet, wurde von Rechtsanwalt David Chiu bekannt gegeben. Den Websites wird vorgeworfen, gegen das kalifornische Gesetz gegen unlauteren Wettbewerb sowie gegen einzel- und bundesstaatliche Gesetze in den USA und Kalifornien zu Deepfake-, Rache- und Kindesmissbrauchsinhalten verstoßen zu haben.
In der Klage werden 16 Websites oder Anwendungen und 50 nicht identifizierte Personen genannt. Neben den erwähnten zivilrechtlichen Strafen wird in der Klage die Schließung der Websites und Anwendungen sowie die Einführung einer einstweiligen Verfügung gefordert, um den Eigentümern die Entwicklung ähnlicher Dienste in Zukunft zu untersagen.
Da sich die Gesetze, die sich mit nicht einvernehmlicher KI-Deepfake-Erwachsenenpornografie befassen, wesentlich langsamer entwickeln als die Technologie selbst, gibt es im US-Rechtssystem manchmal Grauzonen in Bezug auf diese Praxis. Nichtsdestotrotz hat der US-Senat im Juli 2024 eine weitere Anti-Deepfake-Gesetzgebung verabschiedet.
Trotzgesetz
Wenn das neue Defiance-Gesetz als Bundesgesetz verabschiedet wird, haben die Einwohner das Recht, gegen jeden vorzugehen, der wissentlich und ohne Zustimmung sexuell eindeutige Inhalte auf digitalem Wege herstellt, verbreitet oder empfängt".
"Die Gesetze haben mit der Verbreitung dieser anstößigen Inhalte nicht Schritt gehalten", erklärten US-Gesetzgeber, die den überparteilichen Defiance Act in den Senat einbrachten. Der Preventing Deepfakes of Intimate Images Act, der darauf abzielt, die Weitergabe von Deepfake-Pornos ohne Zustimmung illegal zu machen, wurde 2023 eingebracht, also noch vor der Einführung dieses Gesetzes.
Der Klage aus San Francisco zufolge produzieren einige der 16 beklagten Websites oder Anwendungen "nur" Deepfakes mit Erwachsenen, während andere dazu verwendet werden können, Deepfakes mit Minderjährigen zu erstellen.
Der Strafverteidiger David Chiu erklärte, das FBI habe die Öffentlichkeit vor einer Zunahme von Erpressungsversuchen gewarnt, bei denen es um nicht einvernehmlich erstellte KI-Pornografie gehe. Wie bei allen neuen Technologien sei "generative KI sehr vielversprechend, aber es gibt auch unbeabsichtigte Folgen und Kriminelle, die diese neue Technologie ausnutzen wollen".
Chiu fügte hinzu: "Wir alle müssen eine Rolle dabei spielen, bösen Akteuren das Handwerk zu legen, die KI nutzen, um echte Menschen, einschließlich Kinder, zu missbrauchen und auszubeuten."
Nicht einvernehmliche KI-Porno-Deepfakes
Tatsächlich hat das Thema der nicht einvernehmlichen KI-Porno-Depfakes im Jahr 2024 an Aufmerksamkeit gewonnen, insbesondere seit eine Reihe von weiblichen Prominenten entdeckt hat, dass pornografische Deepfakes von ihnen ohne ihr Wissen oder ihre Zustimmung online geteilt wurden.
Google hat kürzlich seine Funktionalität geändert und Ergebnisse für gefälschte Nacktfotos aus seiner Hauptsuchmaschine ausgeschlossen. Anstatt Deepfake-Nacktheit zu zeigen, will das Unternehmen seine Suchmaschine nun nutzen, um nachprüfbare Nachrichten über die Auswirkungen von Deepfake-Pornos zu fördern.
Auch andere Länder außerhalb der USA ergreifen strenge Maßnahmen gegen unfreiwillige Deepfake-Pornografie. In England und Wales wird die Produktion solcher Dinge bald verboten sein.
Die italienische Ministerpräsidentin Giorgia Meloni hat eine Verleumdungsklage gegen zwei Personen eingereicht, die angeblich Deepfake-Pornografie mit einer veränderten Version von ihr erstellt haben sollen.