Video Deepfake podvody v reálném čase jsou tady. Tento nástroj se je pokouší zap







Toto oznámení není prvním případem, kdy technologická společnost sdílí plány, jak pomoci odhalit deepfakes v reálném čase. V roce 2022 Intel představil svůj nástroj FakeCatcher pro detekci deepfake. FakeCatcher je navržen tak, aby analyzoval změny v prokrvení obličeje a určil, zda je účastník videa skutečný. Nástroj Intelu také není veřejně dostupný.

Akademičtí výzkumníci také zkoumají různé přístupy k řešení tohoto specifického druhu hluboce falešné hrozby. „Tyto systémy se stávají tak sofistikovanými, že vytvářejí hluboké padělky. Nyní potřebujeme ještě méně dat,“ říká Govind Mittal, doktorand počítačových věd na New York University. „Když budu mít na Instagramu 10 svých fotek, může to někdo vyfotit. Mohou se zaměřit na normální lidi.“

Hluboké fake v reálném čase se již neomezují pouze na miliardáře, veřejné osobnosti nebo ty, kteří mají rozsáhlé online zastoupení. Mittalův výzkum na NYU s profesory Chinmay Hegdem a Nasirem Memonem navrhuje potenciální přístup založený na výzvě k blokování AI-botů před videohovory, kde by účastníci museli před připojením projít určitým typem testu video CAPTCHA.

Zatímco Reality Defender pracuje na zlepšení přesnosti detekce svých modelů, Coleman říká, že přístup k většímu množství dat je kritickou výzvou, kterou je třeba překonat – což je běžný útlum současné série startupů zaměřených na umělou inteligenci. Doufá, že více partnerství vyplní tyto mezery a bez upřesnění naznačuje, že příští rok pravděpodobně přijde několik nových obchodů. Poté, co bylo ElevenLabs spojeno s hlubokým falešným hlasovým hovorem amerického prezidenta Joe Bidena, AI-audio startup uzavřel dohodu s Reality Defender, aby zmírnil potenciální zneužití.

Co můžete právě teď udělat, abyste se ochránili před podvodnými videohovory? Stejně jako základní rada WIRED o zamezení podvodům z hlasových hovorů AI, je důležité nenechat se nafoukat, zda dokážete odhalit hluboké fake videa, abyste nebyli podvedeni. Technologie v tomto prostoru se i nadále rychle vyvíjí a jakékoli náznaky, na které se nyní spoléháte, abyste odhalili AI deepfakes, nemusí být tak spolehlivé s příštími upgrady základních modelů.

„Nežádáme mou 80letou matku, aby v e-mailu označila ransomware,“ říká Coleman. „Protože není expert na počítačové vědy.“ V budoucnu je možné, že autentizace videa v reálném čase, pokud se detekce AI bude i nadále zlepšovat a bude spolehlivě přesná, bude považována za samozřejmost, jako by měl být skener malwaru tiše bzučící na pozadí vaší e-mailové schránky.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com