Zůstaňte o krok napřed před hackery, pokud jde o AI







Pokud jste se v poslední době plížili po podzemních technologických fórech, možná jste viděli reklamy na nový program s názvem WormGPT.

Tento program je nástroj pro kyberzločince využívající umělou inteligenci k automatizaci vytváření personalizovaných phishingových e-mailů; ačkoli to zní trochu jako ChatGPT, WormGPT je ne vaše přátelské sousedství AI.

ChatGPT byl spuštěn v listopadu 2022 a od té doby generativní AI vzala svět útokem. Málokdo však uvažuje o tom, jak jeho náhlý vzestup utváří budoucnost kybernetické bezpečnosti.

V roce 2024 je generativní umělá inteligence připravena usnadnit nové druhy nadnárodní – a translingvální – počítačové kriminality. Například velkou část kybernetické kriminality řídí podzaměstnaní muži ze zemí s nedostatečně rozvinutou technologickou ekonomikou. Skutečnost, že angličtina není v těchto zemích primárním jazykem, zmařila schopnost hackerů podvádět lidi v anglicky mluvících ekonomikách; většina rodilých mluvčích angličtiny dokáže rychle identifikovat phishingové e-maily podle jejich unidiomatického a negramatického jazyka.

Ale generativní AI to změní. Kyberzločinci z celého světa mohou nyní používat chatboty, jako je WormGPT, k psaní dobře napsaných, personalizovaných phishingových e-mailů. Tím, že se chatboti učí od phishermanů na celém webu, mohou vytvářet podvody založené na datech, které jsou obzvláště přesvědčivé a účinné.

V roce 2024 také generativní AI usnadní biometrické hackování. Až dosud bylo obtížné (a nákladné) vydávat se za biometrické autentizační metody – otisky prstů, rozpoznávání obličeje, rozpoznávání hlasu; není snadné předstírat otisk prstu, obličej nebo hlas.

AI však učinila deepfaking mnohem méně nákladným. Nemůžete se vydávat za hlas svého cíle? Řekněte chatbotovi, aby to udělal za vás.

A co se stane, když se hackeři začnou zaměřovat na samotné chatboty? Generativní AI je právě to – generativní; vytváří věci, které tu dříve nebyly. Základní schéma umožňuje hackerům vložit malware do objektů generovaných chatboty. V roce 2024 se každý, kdo používá AI k psaní kódu, bude muset ujistit, že výstup nebyl vytvořen nebo upraven hackerem.

Další špatní aktéři také začnou přebírat kontrolu nad chatboty v roce 2024. Ústředním rysem nové vlny generativní umělé inteligence je její „nevysvětlitelnost“. Algoritmy trénované pomocí strojového učení mohou vracet překvapivé a nepředvídatelné odpovědi na naše otázky. I když lidé navrhli algoritmus, nevíme, jak funguje.

Zdá se tedy přirozené, že budoucí chatboti budou fungovat jako věštci pokoušející se odpovědět na obtížné etické a náboženské otázky. Například na Jesus-ai.com můžete klást otázky uměle inteligentnímu Ježíšovi. Je ironií, že není těžké si představit, že by programy, jako je tento, byly vytvořeny ve zlé víře. Aplikace s názvem Krišna už například radil zabíjet nevěřící a podporovat indickou vládnoucí stranu. Co zabrání podvodníkům požadovat desátky nebo podporovat kriminální činy? Nebo, jak to udělal jeden chatbot, řekl uživatelům, aby opustili své manželky?

Všechny bezpečnostní nástroje mají dvojí použití – lze je použít k útoku i k obraně – takže v roce 2024 bychom měli očekávat, že AI bude využívána jak pro útok, tak pro obranu. Hackeři mohou použít AI k oklamání systémů rozpoznávání obličejů, ale vývojáři mohou použít AI ke zvýšení bezpečnosti svých systémů. Strojové učení se skutečně používá k ochraně digitálních systémů již více než deset let. Než se začneme příliš obávat nových útoků AI, měli bychom si pamatovat, že budou existovat také nové obrany AI, které se budou vyrovnat.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com