Někteří lidé skutečně druh milují Deepfakes







Poradenská společnost Accenture před měsícem představila potenciálnímu klientovi neobvyklý a poutavý výběr nového projektu. Namísto obvyklého slide decku klient viděl deepfakes několika skutečných zaměstnanců stojících na virtuální scéně a nabízel dokonale podané popisy projektu, na kterém doufal pracovat.

„Chtěl jsem, aby se setkali s naším týmem,“ říká Renato Scaff, vrchní ředitel společnosti Accenture, který s tímto nápadem přišel. „Je to pro nás také způsob, jak se odlišit od konkurence.“

Hluboké fake byly vytvořeny – se souhlasem zaměstnanců – společností Touchcast, do které Accenture investovala a která nabízí platformu pro interaktivní prezentace s avatary skutečných nebo syntetických lidí. Avataři Touchcastu mohou reagovat na psané nebo mluvené otázky pomocí modelů umělé inteligence, které analyzují relevantní informace a generují odpovědi za běhu.

„Je v tom prvek strašidelného,“ říká Scaff o svých hluboce falešných zaměstnancích. „Ale je tu větší prvek cool.“

Deepfakes jsou silnou a nebezpečnou zbraní dezinformací a poškození pověsti. Stejnou technologii však přebírají společnosti, které ji místo toho považují za chytrý a chytlavý nový způsob, jak oslovit zákazníky a komunikovat s nimi.

Tyto experimenty se neomezují pouze na firemní sektor. Monica Arés, výkonná ředitelka Laboratoře pro inovace, digitální vzdělávání a analýzu na Imperial College Business School v Londýně, vytvořila deepfakes skutečných profesorů, o kterých doufá, že by mohly být poutavější a efektivnější způsob, jak odpovídat na otázky studentů a dotazy mimo ni. třída. Arés říká, že tato technologie má potenciál zvýšit personalizaci, poskytnout nové způsoby řízení a hodnocení studentů a zvýšit zapojení studentů. „Stále máte podobu člověka, který k vám mluví, takže to působí velmi přirozeně,“ říká.

Jak už to v dnešní době bývá, za toto odhalení reality musíme poděkovat AI. Pro hollywoodská studia bylo již dlouho možné pomocí softwaru kopírovat hlasy herců, tváře a způsoby chování, ale v posledních letech AI učinila podobnou technologii široce dostupnou a prakticky zdarma. Kromě Touchcastu nabízejí společnosti včetně Synthesia a HeyGen podnikům způsob, jak vytvářet avatary skutečných nebo falešných jednotlivců pro prezentace, marketing a služby zákazníkům.

Edo Segal, zakladatel a generální ředitel společnosti Touchcast, věří, že digitální avataři by mohli být novým způsobem prezentace a interakce s obsahem. Jeho společnost vyvinula softwarovou platformu s názvem Genything, která každému umožní vytvořit si vlastní digitální dvojče.

Hluboké padělky se zároveň stávají velkým problémem, protože v mnoha zemích, včetně USA, se blíží volby. Minulý měsíc byly robotické hovory generované umělou inteligencí s falešným Joe Bidenem použity k šíření volebních dezinformací. Taylor Swift se také nedávno stala terčem hluboce falešného porna generovaného pomocí široce dostupných obrazových nástrojů AI.

„Deepfake obrázky jsou určitě něco, co nás znepokojuje a znepokojuje,“ řekl Ben Buchanan, zvláštní poradce Bílého domu pro AI, v nedávném rozhovoru pro WIRED. Swift deepfake „je klíčovým datovým bodem v širším trendu, který neúměrně ovlivňuje ženy a dívky, které jsou v drtivé většině terčem online obtěžování a zneužívání,“ řekl.

Nový americký institut pro bezpečnost umělé inteligence, vytvořený na základě výkonného nařízení Bílého domu vydaného loni v říjnu, v současné době vyvíjí standardy pro vodoznaky médií generovaných umělou inteligencí. Meta, Google, Microsoft a další technologické společnosti také vyvíjejí technologii navrženou tak, aby odhalila padělky umělé inteligence v závodech ve zbrojení s vysokými sázkami.

Některá politická použití deepfakery však zdůrazňují dvojí potenciál této technologie.

Imran Khan, bývalý pákistánský premiér, pronesl minulou sobotu projev ke stoupencům své strany, přestože byl uvězněn za mřížemi. Bývalá kriketová hvězda, uvězněná v tom, co jeho strana charakterizovala jako vojenský převrat, přednesl svůj projev pomocí deepfake softwaru, který vykouzlil přesvědčivou kopii toho, jak sedí za stolem a mluví slova, která ve skutečnosti nikdy nevyslovil.

S tím, jak se manipulace s videem využívající umělou inteligenci zdokonaluje a snáze se používá, pravděpodobně poroste zájem podniků a spotřebitelů o legitimní použití této technologie. Čínský technologický gigant Baidu nedávno vyvinul způsob pro uživatele jeho aplikace chatbot k vytváření deepfakes pro posílání lunárních novoročních pozdravů.

Dokonce ani pro ty, kteří si jej brzy osvojili, není možnost zneužití zcela mimo mísu. „Není pochyb o tom, že bezpečnost musí být prvořadá,“ říká Scaff společnosti Accenture. „Jakmile budete mít syntetické dvojče, můžete je přimět dělat a říkat cokoli.“







Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com