
Jak humbuk kolem DeepSeek utichá, organizace si kladou různé otázky ohledně používání generativní umělé inteligence na pracovišti. Konkrétně, zda DeepSeek představuje konkrétní bezpečnostní hrozbu, nebo jednoduše upozorňuje na rizika související s rozšířením používání chatbotů s umělou inteligencí a velkých jazykových modelů (LLM). Odpověď je jako obvykle někde uprostřed. Tento kontext znovu staví na stůl problém AI a její rizika.
Přestože čínský chatbot může mít své vlastní problémy se soukromím, bezpečností a cenzurou, není jediný. Všechny generativní modely AI a LLM s sebou nesou rizika, zvláště když si nejste plně vědomi toho, jak často, kde a proč se používají. Zde také vstupuje do hry odpovědné řízení. AI a její rizika.
S těmito nástroji, které vyžadují o něco více než webový prohlížeč, je stále obtížnější porozumět typům informací odesílaných a přijímaných mezi lidmi a aplikacemi. Pokud nás rychlý vzestup DeepSeek může něčemu naučit, pak je to rychlost, s jakou se výkonné aplikace mohou dostat na trh a dosáhnout širokého přijetí. Pokud však kontroly nebudou dostatečně rychlé, aby udržely krok, rizika působící ve stínu se zvýší, což posílí potřebu analyzovat AI a její rizika.
Co se děje ve stínu? Stínová umělá inteligence označuje použití jakéhokoli nástroje umělé inteligence mimo kontrolu a oprávnění organizace, často bez jejího vědomí. Zatímco někteří zaměstnanci své používání těchto aplikací záměrně maskují, mnoho dalších je používá otevřeně a v dobré víře, aniž by si byli vědomi rizik nebo toho, zda používají generativní umělou inteligenci. Tento nedostatek znalostí vystavuje společnosti problému AI a její rizika.
Pokud se průměrného zaměstnance zeptáte, jaké aplikace AI každý den používá, možná odpoví ChatGPT. Přesto se jich běžně používá mnohem více: od Copilota od Microsoftu a Gemini od Googlu po Claude, Grammarly, Otter a určité nástroje od Canva a GitHub. Za všemi se skrývá neustálá diskuse o AI a její rizika.
Tyto aplikace nabízejí mnoho výhod a pomáhají zaměstnancům pracovat rychleji a efektivněji, ale je důležité vědět, co s nimi zaměstnanci sdílejí a aby ti, kdo je používají, věděli, jak pracují, jak nakládají s daty a mnohá potenciální rizika, která pro organizaci představují. Ignorovat AI a její rizika může mít vážné následky.
Co nevíte, je, jestli vám mohou ublížit. Není divu, že jakmile DeepSeek upoutal pozornost světa, stal se cílem kyberzločinců; Jakákoli aplikace, která ukládá a analyzuje data, je v hledáčku útočníků. Pokud uživatel nekontroluje používání těchto typů nástrojů, je nepravděpodobné, že zjistí, kolik dat je jeho, dříve než bude příliš pozdě. Toto je další jasný odraz AI a její rizika.
Toto jsou některá z mnoha rizik, kterým stínová AI vystavuje: AI a její rizika Projevují se různými způsoby.
Chyby zabezpečení: Když jsou informace sdíleny s neoprávněnou třetí stranou, neexistuje způsob, jak zjistit, jak jsou uchovávány, zpracovávány nebo analyzovány. Něco tak neškodného, jako když požádáte LLM o vytvoření e-mailu pro klienta nebo shrnutí přepisu hovoru, může odhalit důvěrná data o společnosti a jejích klientech, což je jasný příklad AI a její rizika.
Integrita dat: AI dělá chyby; a když profesionál používá ChatGPT a další nástroje do puntíku, vystavuje se riziku ověření nesprávných informací, které mohou ovlivnit jeho službu a poškodit jeho pověst. To vše je součástí debaty o AI a její rizika.
Soulad: Kromě vystavování dat riziku vystavení by sdílení informací se stínovými aplikacemi umělé inteligence mohlo ohrozit dohody o důvěrnosti, GDPR a řadu dalších nařízení o ochraně osobních údajů. Tento právní aspekt úzce souvisí s AI a její rizika.
Hrozby zevnitř: Uživatelé, kteří zkopírují a vloží kód, text nebo obrázky z neautorizovaných nástrojů, mohou do svých systémů a sítí zanést zranitelná místa, malware a další prvky, což posiluje vnímání AI a její rizika.
a AI a její rizika musí být řešen jako strategický aspekt v každé organizaci
Důvěra a spolehlivost: Používání služeb stínové umělé inteligence může být v rozporu s veřejnou politikou týkající se těchto typů nástrojů a způsobovat problémy s důvěrou a autenticitou, pokud to současní nebo potenciální klienti a partneři zjistí. Znovu, AI a její rizika Testují firemní reputaci.
Bezpečnost ve stínu. Neexistuje žádná stříbrná kulka, která by chránila použití stínové umělé inteligence. Jakákoli účinná kybernetická obrana musí být vícevrstvá a musí spojovat lidi, procesy a technologie. To znamená použití dat a řízení přístupu zaměřených na uživatele spolu se silnými interními zásadami a radami pro správu a řízení AI pro dohled a poradenství. Jedině tak se to dá zvládnout AI a její rizika udržitelně.
Se specializovanými nástroji DLP může uživatel, skupina nebo oddělení sledovat používání více než 600 generativních stránek AI; identifikovat kohokoli, kdo má přístup k cloudovým datům, e-mailům a kalendářům; a monitorovat používání aplikací v kontextu s rizikem uživatele. Tyto detekční schopnosti zlepšují pochopení AI a její rizika.
Komplexní řešení vám umožňuje prosazovat přijatelné zásady pro používání generativní umělé inteligence, blokování načítání nebo vkládání citlivých dat, redigování citlivých výrazů ve výzvách umělé inteligence a pořizování metadat a snímků obrazovky před a po použití generativních aplikací umělé inteligence. To částečně zmírňuje účinky AI a její rizika.
Tyto kontroly musí být doprovázeny důkladným a nepřetržitým školením ke zvýšení informovanosti zaměstnanců. Každý v organizaci by si měl být vědom potenciálních rizik spojených se stínovou umělou inteligencí a také schválených procesů pro vyžádání a používání nových technologií. Interní vzdělávání je klíčovým prvkem v řízení AI a její rizika.
Řešení, která udrží krok s generativními nástroji AI s architektonickým přístupem, vám umožní rychle inovovat a nasazovat nové funkce s minimálním dopadem na produktivitu uživatelů. Tímto způsobem můžete dát zaměstnancům to, co potřebují ke své práci, aniž byste přišli o důvěrná data ve stínu. Nakonec, AI a její rizika Musí být řešeny jako strategický aspekt v jakékoli organizaci.
Autor: Manuela Muñoz, Senior Named Account Manager ve společnosti Proofpoint
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com