Deepfake Nudes Krize ve školách je mnohem horší, než jste si mysleli



Přesto se objevují jasné vzory. Téměř ve všech případech jsou za vytvoření obrázků nebo videí údajně zodpovědní dospívající chlapci. Často jsou sdíleny v aplikacích sociálních médií nebo prostřednictvím rychlých zpráv se spolužáky. A jsou pro oběti nesmírně škodlivé. „Bojím se, že pokaždé, když mě vidí, vidí ty fotky,“ řekla jedna oběť v Iowě začátkem tohoto roku. „Plače. Nejedla,“ řekla další rodina.

V mnoha případech oběti často nechtějí chodit do školy nebo se setkávají s tím, že vidí ty, kteří vytvořili explicitní obrázky nebo videa s nimi. „Cítí se beznadějně, protože ví, že se tyto obrázky pravděpodobně dostanou na internet a dostanou se k pedofilům,“ říká právník Shane Vogt a tři studenti právnické fakulty Yale, Catharine Strong, Tony Sjodin a Suzanne Castillo, kteří zastupují jednoho nejmenovaného teenagera z New Jersey v soudním řízení proti službě nudizování. „Je vážně znepokojena vědomím, že tyto obrázky jsou venku, a bude muset po zbytek života sledovat internet, aby se nešířily.“

V Jižní Koreji a Austrálii daly školy žákům možnost nemít své fotografie v ročenkách nebo přestaly zveřejňovat obrázky studentů na svých oficiálních účtech na sociálních sítích s odkazem na jejich použití k potenciálnímu falešnému zneužití. „Po celém světě se vyskytly případy, kdy byly školní obrázky převzaty z veřejných stránek sociálních médií, upraveny pomocí umělé inteligence a přeměněny na škodlivé deepfakes,“ uvedla jedna škola v Austrálii. „Snímky budou místo toho obsahovat boční profily, siluety, zadní části hlavy, vzdálené skupinové záběry, kreativní filtry nebo schválené fotografie.“

Sexuální deepfakes vytvořené pomocí AI existují přibližně od konce roku 2017; jak se však generativní systémy umělé inteligence objevily a staly se výkonnějšími, vedly k temnému ekosystému technologií „nahození“ nebo „svlékání“. Desítky aplikací, robotů a webů umožňují komukoli vytvářet sexualizované obrázky a videa ostatních pomocí několika kliknutí, často bez technických znalostí.

„Umělá inteligence se mění v rozsahu, rychlosti a dostupnosti,“ říká Siddharth Pillai, spoluzakladatel a ředitel nadace RATI Foundation, organizace se sídlem v Bombaji, která pracuje na prevenci násilí na ženách a dětech. „Technická bariéra výrazně klesla, což znamená, že více lidí, včetně dospívajících, může produkovat přesvědčivější výstupy s minimálním úsilím. Stejně jako u mnoha škod způsobených umělou inteligencí to má za následek přebytek obsahu.“

Amanda Goharian, ředitelka výzkumu a postřehů ve skupině pro bezpečnost dětí Thorn, říká, že její výzkum naznačuje, že existují různé motivace, které se podílejí na tom, že teenageři vytvářejí falešné zneužívání, od sexuálních motivací, zvědavosti, pomsty nebo dokonce dospívajících, kteří se navzájem odvažují vytvářet snímky. Studie zahrnující dospělé, kteří vytvořili falešné sexuální zneužívání, podobně ukazují řadu různých důvodů, proč mohou být obrázky vytvořeny. „Cílem není vždy sexuální uspokojení,“ říká Pillai. „Záměrem je stále více ponižování, očerňování a sociální kontrola.“

„Není to jen o technologiích,“ říká Tanya Horeck, feministická profesorka mediálních studií a výzkumnice zaměřená na genderově podmíněné násilí, která se zabývala sexualizovanými deepfakes na britských školách na Anglia Ruskin University. „Je to o dlouhodobé genderové dynamice, která tyto zločiny usnadňuje.“


Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

Hledám Holky na sex v Praze * Hledám Erotické masáže v Praze * Hledám Holky na sex v Brně * Hledám Erotické masáže v Brně *

Recenze na sexuální služby v ČR - Noření.cz
DotekSlova.cz