Odpovíte a náhodný telefonát od člena rodiny a bez dechu vysvětlují, jak došlo k hrozné autonehodě. Potřebují, abyste jim hned poslal peníze, jinak půjdou do vězení. V jejich hlase můžete slyšet zoufalství, když prosí o okamžitý převod hotovosti. I když to zní jako oni a hovor přišel z jejich čísla, máte pocit, že něco není v pořádku. Takže se rozhodnete zavěsit a hned jim zavolat zpět. Když váš rodinný příslušník zvedne váš hovor, řekne, že nedošlo k autonehodě, a že netuší, o čem mluvíte.
Gratulujeme, právě jste se úspěšně vyhnuli podvodnému volání umělé inteligence.
S tím, jak jsou generativní nástroje umělé inteligence stále schopnější, je pro podvodníky snazší a levnější vytvářet falešný, ale přesvědčivý zvuk hlasů lidí. Tyto hlasové klony AI jsou trénovány na existujících zvukových klipech lidské řeči a lze je upravit tak, aby napodobovaly téměř kohokoli. Nejnovější modely mohou dokonce mluvit v mnoha jazycích. OpenAI, tvůrce ChatGPT, nedávno oznámil nový model převodu textu na řeč, který by mohl dále zlepšit klonování hlasu a učinit jej širším přístupným.
Špatní herci samozřejmě používají tyto klonovací nástroje AI, aby přiměli oběti, aby si myslely, že mluví s milovanou osobou po telefonu, i když mluví do počítače. I když hrozba podvodů s umělou inteligencí může být děsivá, můžete zůstat v bezpečí tím, že budete mít na paměti tyto odborné tipy, až příště dostanete naléhavý, nečekaný hovor.
Pamatujte, že AI Audio je těžké zjistit
Není to jen OpenAI; mnoho technologických startupů pracuje na replikaci téměř dokonale znějící lidské řeči a nedávný pokrok je rychlý. „Kdyby to bylo před několika měsíci, dali bychom vám tipy, co byste měli hledat, jako jsou těhotenské pauzy nebo projevy nějaké latence,“ říká Ben Colman, spoluzakladatel a generální ředitel Reality Defender. Stejně jako mnoho aspektů generativní umělé inteligence za poslední rok je nyní AI zvuk přesvědčivější imitací skutečného. Jakékoli bezpečnostní strategie, které spoléhají na to, že po telefonu slyšitelně odhalíte podivné vtípky, jsou zastaralé.
Zavěste a zavolejte zpět
Bezpečnostní experti varují, že pro podvodníky je docela snadné, aby to vypadalo, jako by hovor přicházel z legitimního telefonního čísla. „Mnohokrát podvodníci zfalšují číslo, ze kterého vám volají, aby to vypadalo, že vám volá z vládní agentury nebo banky,“ říká Michael Jabbara, globální vedoucí služeb pro podvody ve společnosti Visa. „Musíte být proaktivní.“ Ať už je to z vaší banky nebo od blízké osoby, kdykoli obdržíte hovor s žádostí o peníze nebo osobní údaje, požádejte je o zavolání zpět. Vyhledejte číslo online nebo ve svých kontaktech a zahajte následnou konverzaci. Můžete jim také zkusit poslat zprávu prostřednictvím jiné ověřené komunikační linky, jako je videochat nebo e-mail.
Vytvořte tajné bezpečné slovo
Populárním bezpečnostním tipem, který několik zdrojů navrhlo, bylo vytvořit bezpečné slovo, o které byste mohli požádat po telefonu, o kterém vědí pouze členové rodiny. „Dokonce si můžete se svými blízkými předem vyjednat slovo nebo frázi, kterou by mohli použít, aby dokázali, kým skutečně jsou, pokud jsou v nátlakové situaci,“ říká Steve Grobman, technologický ředitel společnosti McAfee. I když je nejlepší zavolat zpět nebo ověřit pomocí jiného komunikačního prostředku, bezpečné slovo může být užitečné zejména pro mladé nebo starší příbuzné, které může být obtížné kontaktovat jinak.
Nebo se jen zeptejte, co měli k večeři
Co když jste se nerozhodli pro bezpečné slovo a snažíte se zjistit, zda je znepokojující hovor skutečný? Zastavte se na chvíli a položte osobní otázku. „Mohlo by to být dokonce tak jednoduché, jako položit otázku, na kterou by odpověď zná pouze milovaná osoba,“ říká Grobman. „Mohlo by to být: ‚Hej, chci se ujistit, že jsi to opravdu ty.“ Můžeš mi připomenout, co jsme měli včera k večeři?’“ Ujistěte se, že otázka je dostatečně konkrétní, aby podvodník nemohl správně odpovědět na základě kvalifikovaného odhadu.
Pochopte, že jakýkoli hlas lze napodobit
Deepfake audio klony nejsou vyhrazeny jen pro celebrity a politiky, jako jsou hovory v New Hampshire, které používaly nástroje AI, aby zněly jako Joe Biden a odradily lidi od účasti k volbám. „Jedno nedorozumění je: ‚Mně se to stát nemůže. Nikdo nemůže naklonovat můj hlas,“ říká Rahul Sood, produktový ředitel společnosti PinDrop, bezpečnostní společnosti, která objevila pravděpodobný původ zvuku AI Biden. „Lidé si neuvědomují, že s pouhými 5 až 10 sekundami vašeho hlasu na TikTok, který jste možná vytvořili, nebo na videu YouTube z vašeho profesního života, lze tento obsah snadno použít k vytvoření vašeho klonu.“ Pomocí nástrojů AI může odchozí hlasová zpráva na vašem smartphonu dokonce stačit k replikaci vašeho hlasu.
Nepodléhejte emocionálním výzvám
Ať už se jedná o podvod s porážkou prasat nebo telefonát s umělou inteligencí, zkušení podvodníci si dokážou vybudovat vaši důvěru, vytvořit pocit naléhavosti a najít vaše slabá místa. „Dávejte si pozor na jakoukoli zakázku, kde zažíváte zvýšený pocit emocí, protože nejlepší podvodníci nemusí být nutně nejšikovnější techničtí hackeři,“ říká Jabbara. „Ale opravdu dobře rozumí lidskému chování.“ Pokud se na chvíli zamyslíte nad situací a zdržíte se impulzivního jednání, může to být okamžik, kdy se vyhnete podvodu.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com