Davy Rally Kamaly Harris nejsou generovány umělou inteligencí. Zde je návod, jak to můžete říct







Stačí říci, že tato hora důkazů z přímých zdrojů má větší váhu než označené obrázky od konzervativních komentátorů, jako je Chuck Callesto a Dinesh D’Souzaoba byli v minulosti přistiženi při šíření volebních dezinformací.

Pokud jde o obvinění z falešné umělé inteligence, čím více různorodých zdrojů informací máte, tím lépe. Zatímco jeden zdroj může snadno vygenerovat věrohodně vypadající obrázek události, více nezávislých zdrojů zobrazujících stejnou událost z více úhlů je mnohem méně pravděpodobné, že budou zapojeny do stejného podvodu. Fotografie, které se shodují s důkazy videa, jsou ještě lepší, zejména proto, že vytváření přesvědčivých dlouhých videí lidí nebo složitých scén zůstává pro mnoho nástrojů umělé inteligence výzvou.

Je také důležité vystopovat původní zdroj jakéhokoli údajného obrázku AI, na který se díváte. Pro uživatele sociálních sítí je neuvěřitelně snadné vytvořit obrázek vygenerovaný umělou inteligencí, tvrdit, že pochází ze zpravodajské zprávy nebo živého záznamu události, a pak použít zjevné nedostatky na tomto falešném obrázku jako „důkaz“, že událost samotná byla zfalšována. Odkazy na originální snímky z vlastní webové stránky původního zdroje nebo ověřeného účtu jsou mnohem spolehlivější než snímky obrazovky, které mohly vzniknout kdekoli (a/nebo byly kýmkoli upraveny).

Výmluvné znaky

Zatímco sledování původních a/nebo potvrzujících zdrojů je užitečné pro významné zpravodajské události, jako je prezidentské shromáždění, potvrzení pravosti obrázků a videí z jednoho zdroje může být složitější. Nástroje jako Winston AI Image Detector nebo IsItAI.com tvrdí, že používají modely strojového učení, aby zjistily, zda je obrázek AI. Ale zatímco detekční techniky se neustále vyvíjejí, tyto druhy nástrojů jsou obecně založeny na neprokázaných teoriích, které se v žádných rozsáhlých studiích neprokázaly jako spolehlivé, takže vyhlídka na falešně pozitivní/negativní výsledky je skutečným rizikem.

Profesor UC Berkeley Hany Farid ve svém příspěvku na LinkedIn citoval dva modely GetReal Labs, které na fotografiích z rally Harris zveřejněných Trumpem nevykazují „žádný důkaz o generaci AI“. Farid dále citoval konkrétní části obrazu, které poukazují na jeho autenticitu.

„Text na značkách a letadle nevykazuje žádné z obvyklých známek generativní AI,“ píše Farid. „Ačkoli nedostatek důkazů o manipulaci není důkazem, obraz je skutečný. Nenašli jsme žádné důkazy, že tento obraz byl vytvořen AI nebo digitálně pozměněn.“

A i když se části fotografie zdají být nesmyslnými známkami manipulace AI (à la zdeformované ruce u některých obrazových modelů AI), zvažte, že pro některé zdánlivé optické iluze může existovat jednoduché vysvětlení. BBC poznamenává, že nedostatek odrazu davu na letadle na některých fotografiích z rally Harris by mohl být způsoben velkou prázdnou plochou mezi letadlem a davem, jak je znázorněno v obrácených úhlech scény. Pouhé zakroužkování podivně vypadajících věcí na fotce červenou značkou nemusí být samo o sobě nezbytně silným důkazem manipulace AI.







Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com