Pro-Ruská dezinformační kampaň používá bezplatné nástroje AI k podpoře „exploze obsahu“







Pro-Ruská dezinformační kampaň využívá nástroje pro umělé inteligence spotřebitelů, které podporují „explozi obsahu“ zaměřené na zhoršení stávajícího napětí kolem globálních voleb, Ukrajiny a imigrace, podle nového výzkumu zveřejněného minulý týden.

Kampaň, známá mnoha jmény, včetně Operation Overload a Matryoshka (jiní vědci ji také svázali s Storm-1679), působí od roku 2023 a je v souladu s ruskou vládou několika skupinami, včetně Microsoftu a Institutu pro strategický dialog. Kampaň šíří falešné vyprávění vydáváním mediálních médií se zjevným cílem divize setí v demokratických zemích. Zatímco kampaň se zaměřuje na publikum po celém světě, včetně USA, jejím hlavním cílem byla Ukrajina. Stovky AI-manipulovaných videí z kampaně se pokusily podpořit proruské vyprávění.

Zpráva nastiňuje, jak se od září 2024 a května 2025 množství obsahu vytvořeného těmi, kteří vede kampaň, dramaticky zvýšil a dostává miliony zhlédnutí po celém světě.

Ve své zprávě vědci identifikovali 230 jedinečných kusů obsahu propagovaných kampaní mezi červencem 2023 a červnem 2024, včetně obrázků, videí, QR kódů a falešných webových stránek. Během posledních osmi měsíců však operace přetížila celkem 587 jedinečných kusů obsahu, přičemž většina z nich byla vytvořena pomocí nástrojů AI, uvedli vědci.

Vědci uvedli, že nárůst obsahu byl poháněn nástroji AI na úrovni spotřebitelů, které jsou k dispozici zdarma online. Tento snadný přístup pomohl podpořit taktiku kampaně „Amalgamation obsahu“, kde ti, kteří provozují operaci, byli schopni díky nástrojům AI vyrábět více kusů obsahu a prosazují stejný příběh.

„To znamená posun směrem k škálovatelnějšímu, vícejazyčnému a stále sofistikovanějšímu propagandistickému taktice,“ napsali ve zprávě vědci z neziskové organizace Reset Tech, londýnské neziskové organizace, která sleduje dezinformační kampaně a nejprve zkontroluje finskou softwarovou společnost. „Kampaň v posledních osmi měsících podstatně zvýšila výrobu nového obsahu a signalizovala posun směrem k rychlejším a škálovatelnějším metodám vytváření obsahu.“

Vědci byli také ohromeni řadou nástrojů a typů obsahu, které kampaň sledovala. „Co mě překvapilo, byla rozmanitost obsahu, různé typy obsahu, který začali používat,“ říká Aleksandra Atanasová, vedoucí open-source zpravodajství ve společnosti Reset Tech, Wired. „Je to, jako by diverzifikovali svou paletu, aby zachytili tolik podobných různých úhlů těchto příběhů. Vyvrhují různé typy obsahu, jeden po druhém.“

Atanasova dodal, že kampaň se zdá, že k dosažení svých cílů nepoužívá žádné vlastní nástroje AI, ale používala generátory hlasových a obrázků poháněných AI, které jsou přístupné všem.

I když bylo obtížné identifikovat všechny nástroje, které pracovníci kampaně používali, vědci se mohli zúžit zejména na jeden nástroj: Flux AI.

Flux AI je generátor textu na obraz vyvinutý společností Black Forest Labs, německá společnost založená bývalými zaměstnanci stability AI. Pomocí nástroje pro analýzu obrázků SightEngine zjistili vědci pravděpodobnost 99 procent, že řada falešných obrázků sdílených kampaní přetížení – z nichž některé tvrdily, že ukazují muslimské migranty vzpoury a zapalování požárů v Berlíně a Paříži – bylo vytvořeno pomocí generování obrázků z Flux AI.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

Holky na privát z celé ČR najdete na NaPrivat.net Recenze na sexuální služby v ČR - Noření.cz