Detekce AI-Fakes selhává u voličů na globálním Jihu







Nejde ale jen o to, že modelky nedokážou rozpoznat akcenty, jazyky, syntaxi nebo obličeje, které jsou v západních zemích méně obvyklé. „Mnoho počátečních nástrojů pro detekci deepfake bylo vyškoleno na vysoce kvalitních médiích,“ říká Gregory. Ve velké části světa, včetně Afriky, však trhu dominují levné čínské značky smartphonů, které nabízejí okleštěné funkce. Fotografie a videa, které jsou tyto telefony schopny produkovat, jsou mnohem méně kvalitní, což dále matou modely detekce, říká Ngamita.

Gregory říká, že některé modely jsou tak citlivé, že dokonce i hluk na pozadí v kusu zvuku nebo komprimace videa pro sociální média mohou vést k falešně pozitivnímu nebo negativnímu výsledku. „Ale to jsou přesně okolnosti, se kterými se setkáváte v reálném světě, drsná a nešťastná detekce,“ říká. Bezplatné nástroje pro veřejnost, ke kterým bude mít pravděpodobně přístup většina novinářů, ověřovatelů faktů a členů občanské společnosti, jsou také „extrémně nepřesné, pokud jde o řešení nespravedlnosti toho, kdo je zastoupen v datech školení. a o výzvách spojených s tímto materiálem nižší kvality.“

Generativní umělá inteligence není jediným způsobem, jak vytvářet manipulovaná média. Takzvané levné padělky neboli média zmanipulovaná přidáváním zavádějících označení nebo jednoduše zpomalením či úpravou zvuku a videa jsou na globálním Jihu také velmi běžné, ale mohou být mylně označeny jako AI manipulované vadnými modely nebo neškolenými výzkumníky.

Diya se obává, že skupiny používající nástroje, u kterých je pravděpodobnější, že označují obsah mimo USA a Evropu jako generovaný umělou inteligencí, by mohly mít vážné dopady na politické úrovni a povzbuzovaly zákonodárce, aby zakročili proti imaginárním problémům. „Existuje obrovské riziko, pokud jde o nafouknutí takových čísel,“ říká. A vývoj nových nástrojů je stěží otázkou stisknutí tlačítka.

Stejně jako každá jiná forma umělé inteligence vyžaduje budování, testování a provozování detekčního modelu přístup k energetickým a datovým centrům, která ve velké části světa prostě nejsou dostupná. „Pokud zde mluvíte o umělé inteligenci a lokálních řešeních, je téměř nemožné, abychom bez výpočetní stránky vůbec provozovali jakýkoli z našich modelů, o kterých uvažujeme,“ říká Ngamita, který sídlí v Ghaně. Bez místních alternativ zbývá výzkumníkům jako Ngamita jen málo možností: zaplatit za přístup k běžně dostupnému nástroji, jako je ten, který nabízí Reality Defender, jehož náklady mohou být neúnosné; používat nepřesné bezplatné nástroje; nebo se pokuste získat přístup prostřednictvím akademické instituce.

Ngamita zatím říká, že jeho tým musel spolupracovat s evropskou univerzitou, kam mohou posílat části obsahu k ověření. Ngamitův tým sestavoval datovou sadu možných deepfake instancí z celého kontinentu, což je podle něj cenné pro akademiky a výzkumníky, kteří se snaží diverzifikovat datové sady svých modelů.

Posílání dat někomu jinému má ale i své nevýhody. „Doba zpoždění je poměrně významná,“ říká Diya. „Trvá to alespoň několik týdnů, než někdo může s jistotou říci, že toto je generovaná umělou inteligencí, a v té době je tento obsah již způsoben.

Gregory říká, že společnost Witness, která provozuje svůj vlastní program pro detekci rychlé reakce, dostává „obrovské množství“ případů. „Už teď je náročné zvládnout je v časovém rámci, který novináři v první linii potřebují, a v objemu, se kterým se začínají setkávat,“ říká.

Diya však říká, že tolik zaměření na detekci by mohlo odvést financování a podporu od organizací a institucí, které vytvářejí celkově odolnější informační ekosystém. Místo toho je podle ní třeba financovat zpravodajství a organizace občanské společnosti, které mohou vyvolat pocit důvěry veřejnosti. „Nemyslím si, že tam jdou peníze,“ říká. „Myslím, že to jde více do detekce.“





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com