Otevřete webovou stránku jednoho explicitního deepfake generátoru a zobrazí se vám nabídka hrůz. Pouhými několika kliknutími vám nabízí možnost převést jednu fotografii na osmisekundový explicitní videoklip a vložit ženy do realisticky vypadajících grafických sexuálních situací. „Převeďte jakoukoli fotografii do nahé verze pomocí naší pokročilé technologie umělé inteligence,“ uvádí text na webu.
Možnosti případného zneužití jsou široké. Mezi 65 video „šablonami“ na webových stránkách je řada „svlékacích“ videí, kde zobrazené ženy svlékají oblečení – ale jsou zde také explicitní video scény s názvem „fuck machine deepthroat“ a různá videa „semen“. Každé video stojí malý poplatek za vytvoření; přidání zvuku generovaného umělou inteligencí stojí více.
Webová stránka, kterou WIRED nejmenuje, aby omezila další expozici, obsahuje varování, že lidé by měli nahrávat pouze fotografie, u kterých mají souhlas k transformaci pomocí AI. Není jasné, zda existují nějaké kontroly, které by to vynutily.
Grok, chatbot vytvořený společnostmi Elona Muska, byl použit k vytvoření tisíců nekonsensuálních obrázků „svlékání“ nebo „nahození“ bikin – dále industrializoval a normalizoval proces digitálního sexuálního obtěžování. Ale je to jen nejviditelnější – a zdaleka ne nejvýraznější. Po celá léta roste hluboce falešný ekosystém, který zahrnuje desítky webových stránek, robotů a aplikací, což usnadňuje automatizaci sexuálního zneužívání založeného na obrázcích, včetně vytváření materiálů pro sexuální zneužívání dětí (CSAM), než kdykoli předtím. Tento ekosystém „nahození“ a škody, které způsobuje ženám a dívkám, jsou pravděpodobně sofistikovanější, než mnozí lidé chápou.
„Už to není příliš hrubý syntetický pás,“ říká Henry Ajder, expert na deepfake, který tuto technologii sleduje více než půl desetiletí. „Hovoříme o mnohem vyšším stupni realističnosti toho, co je skutečně generováno, ale také o mnohem širším rozsahu funkcí.“ Dohromady tyto služby pravděpodobně vydělávají miliony dolarů ročně. „Je to společenská pohroma a je to jedna z nejhorších a nejtemnějších částí této revoluce umělé inteligence a revoluce syntetických médií, které jsme svědky,“ říká.
Během minulého roku WIRED sledoval, jak několik explicitních deepfake služeb zavedlo nové funkce a rychle se rozšířilo, aby nabídlo tvorbu škodlivého videa. Modely z obrázku na video nyní obvykle potřebují k vytvoření krátkého klipu pouze jednu fotografii. Recenze WIRED více než 50 „deepfake“ webových stránek, které pravděpodobně získávají miliony zhlédnutí měsíčně, ukazuje, že téměř všechny nyní nabízejí explicitní, vysoce kvalitní vytváření videí a často uvádějí desítky sexuálních scénářů, ve kterých mohou být ženy zobrazeny.
Mezitím na Telegramu desítky sexuálních deepfake kanálů a botů pravidelně uvolňují nové funkce a aktualizace softwaru, jako jsou různé sexuální pozice a pozice. Například v červnu loňského roku jedna deepfake služba propagovala „sexuální režim“ a inzerovala jej vedle zprávy: „Zkuste jiné oblečení, své oblíbené pózy, věk a další nastavení.“ Další zveřejnil, že brzy přibudou „další styly“ obrázků a videí a uživatelé budou moci „vytvářet přesně to, co si představujete s vlastními popisy“ pomocí vlastních výzev pro systémy AI.
„Není to jen: ‚Chceš někoho svléknout.“ Je to jako: ‚Tady jsou všechny ty jeho různé fantasy verze.‘ Jsou to různé pózy. Jsou to různé sexuální polohy,“ říká nezávislý analytik Santiago Lakatos, který spolu s médiem Indicator zkoumal, jak služby „nudify“ často využívají infrastrukturu velkých technologických společností a pravděpodobně přitom vydělaly velké peníze. „Existují verze, kde můžete někoho udělat.“ [appear] těhotná,“ říká Lakatoš.
Kontrola WIRED zjistila, že více než 1,4 milionu účtů bylo přihlášeno k 39 robotům a kanálům pro vytváření deepfake na Telegramu. Poté, co se WIRED zeptal Telegramu na služby, společnost odstranila nejméně 32 deepfake nástrojů. „Nekonsensuální pornografie – včetně deepfakes a nástrojů používaných k jejich vytvoření – je přísně zakázána podle podmínek služby Telegramu,“ říká mluvčí Telegramu a dodává, že když je detekován, odstraní obsah a v loňském roce odstranil 44 milionů kusů obsahu, který porušoval jeho zásady.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com