Die Kontroverse rührt daher, dass die Apps gegen die Richtlinien des App Stores verstoßen, was Apple zunächst übersehen hatte. Erst nach der Intervention von 404 Media hat das Unternehmen diese Anwendungen entdeckt und entfernt. Dieser Vorfall hat Zweifel daran geweckt, ob Apple in der Lage ist, Apps, die gegen seine Richtlinien verstoßen, unabhängig zu erkennen.

Nacktbilder mit KI genrieren: Darf man das?

Nudify-Apps entkleiden Leute

Dank der jüngsten Fortschritte in der KI-Technologie, die eine realistische Bildmanipulation ermöglicht, erfreuen sich "Nudify"-Anwendungen wachsender Beliebtheit. Diese Apps locken Nutzer oft durch Werbung in den sozialen Medien an, eine Praxis, die in die Kritik geraten ist. 404 Media hat Meta speziell für die Werbung für solche Apps auf Plattformen wie Instagram kritisiert.

Während sich die Maßnahmen von Apple auf die im Apple Store verfügbaren Apps beziehen, besteht das Problem bei ähnlichen Diensten, die ausschließlich als Webdienste funktionieren, weiter. Diese Dienste können nach wie vor in sozialen Netzwerken beworben werden, was zu Bedenken hinsichtlich ihrer Zugänglichkeit und ihres möglichen Missbrauchs führt.

Die zunehmende Raffinesse von KI-generierten Bildern bedeutet, dass es immer schwieriger wird, gefälschte Nacktfotos von echten Fotos zu unterscheiden. Diese technologische Fähigkeit könnte zu ernsten sozialen Problemen führen, einschließlich Mobbing und Belästigung in verschiedenen Umgebungen wie Schulen und am Arbeitsplatz. Der Vorfall unterstreicht, wie wichtig es ist, dass Tech-Unternehmen die Inhalte, die sie über ihre Plattformen und Dienste verbreiten, genau überwachen.