Der US-Technologiekonzern Meta hat den App-Entwickler Joy Timeline HK Limited aus Hongkong verklagt. Das Unternehmen vertreibt die App CrushAI, die mit Hilfe künstlicher Intelligenz entkleidete Deepfakes von realen Personen erzeugt. Meta wirft dem Entwickler vor, gezielt seine Plattformrichtlinien verletzt und über ein Netzwerk gefälschter Konten verbotene Anzeigen verbreitet zu haben.
Tarnsystem verbreitet zehntausende verbotene Anzeigen
Mit über 170 gefälschten Geschäftskonten auf Facebook und Instagram gelang es Joy Timeline, rund 87.000 Anzeigen zu veröffentlichen. Ein Team von mindestens 55 Personen steuerte mehr als 135 Seiten, um die Inhalte gezielt an Nutzer in den USA, Kanada, Großbritannien, Australien und Deutschland zu richten. Trotz bestehender Regeln bewarben die Anzeigen das digitale Entfernen von Kleidung mithilfe künstlicher Intelligenz.
Werbung verspricht KI-gestützte Nacktdarstellungen
Die App CrushAI nutzte Werbeslogans wie „Zieh jede Frau mit einem Klick aus“ oder „Foto hochladen und sofort nackt sehen“. Die KI erzeugte täuschend echte Bilder, ohne Einverständnis der abgebildeten Personen. Meta betont in seiner Klage, dass solche Inhalte im Widerspruch zu den allgemeinen Nutzungsbedingungen und ethischen Standards der Plattformen stehen.
Öffentlicher Druck wächst nach Enthüllungen
Berichte mehrerer Tech-Medien zeigten auf, dass die App fast ihren gesamten Datenverkehr über Facebook und Instagram generierte. Trotz interner Richtlinien erschienen massenhaft Anzeigen mit sexualisiertem Inhalt. In Reaktion auf diese Erkenntnisse forderte US-Senator Dick Durbin von Meta-CEO Mark Zuckerberg eine Erklärung zu den Versäumnissen bei der Überwachung.
Gesetzgeber reagieren auf zunehmende Deepfake-Bedrohung
Zahlreiche öffentliche Persönlichkeiten, darunter Taylor Swift und Alexandria Ocasio-Cortez, wurden bereits Opfer derartiger Bildfälschungen. Auch Minderjährige sind betroffen. Die US-Regierung verabschiedete daraufhin den „Take It Down Act“, der nicht-einvernehmliche Deepfakes verbietet und Tech-Unternehmen verpflichtet, solche Inhalte schnell zu entfernen.
Meta entwickelt neue Schutzmaßnahmen mit KI
Um das Problem in den Griff zu bekommen, hat Meta ein Erkennungssystem eingeführt, das verdächtige Begriffe, Phrasen und Emojis identifiziert – selbst wenn keine expliziten Bilder enthalten sind. Die Software wurde gemeinsam mit externen Experten entwickelt und soll helfen, betrügerische Anzeigen frühzeitig zu blockieren.
Täter umgehen Filter durch Domainwechsel und harmlose Bilder
Laut Meta wechseln die Anbieter regelmäßig ihre Webseiten und verwenden unverdächtige Motive, um Erkennungssysteme zu überlisten. Der Konzern beschreibt diesen Bereich als besonders schwierig, da die Akteure finanziell motiviert seien und ihre Taktiken ständig weiterentwickelten.
Tech-Allianz Lantern soll Plattformen beim Austausch unterstützen
Durch die Initiative „Lantern“, gegründet von der Tech Coalition, teilt Meta sicherheitsrelevante Informationen mit anderen Unternehmen. Ziel ist es, sexualisierte KI-Inhalte netzwerkübergreifend zu erkennen und gemeinsam zu bekämpfen. Die Kooperation soll besonders Kinder und Jugendliche besser vor digitalen Übergriffen schützen.
Eingeschränkte Moderation ruft neue Kritik hervor
Meta hat seine automatisierte Inhaltsprüfung im Frühjahr auf schwerwiegende Fälle wie Terrorismus oder Kindesmissbrauch beschränkt. Andere Inhalte werden erst nach Nutzerbeschwerden untersucht. Fachleute aus dem Bereich Onlinesicherheit kritisieren diese Entscheidung scharf und fordern umfassendere Maßnahmen gegen Deepfakes.
Klage soll weitere Regelbrüche verhindern und Schaden kompensieren
Die Klageschrift beziffert Metas Aufwand für die internen Ermittlungen, technische Gegenmaßnahmen und behördliche Kommunikation auf 289.000 US-Dollar. Durch die Klage will der Konzern verhindern, dass Joy Timeline erneut Anzeigen auf seinen Plattformen platziert – und damit ein klares Signal gegen KI-Missbrauch und digitale Entwürdigungen setzen.