AI a její rizika v organizacích



AI a její rizika v organizacích 1
Manuela Muñoz, Senior Named Account Manager ve společnosti Proofpoint

Jak humbuk kolem DeepSeek utichá, organizace si kladou různé otázky ohledně používání generativní umělé inteligence na pracovišti. Konkrétně, zda DeepSeek představuje konkrétní bezpečnostní hrozbu, nebo jednoduše upozorňuje na rizika související s rozšířením používání chatbotů s umělou inteligencí a velkých jazykových modelů (LLM). Odpověď je jako obvykle někde uprostřed. Tento kontext znovu staví na stůl problém AI a její rizika.

Přestože čínský chatbot může mít své vlastní problémy se soukromím, bezpečností a cenzurou, není jediný. Všechny generativní modely AI a LLM s sebou nesou rizika, zvláště když si nejste plně vědomi toho, jak často, kde a proč se používají. Zde také vstupuje do hry odpovědné řízení. AI a její rizika.

S těmito nástroji, které vyžadují o něco více než webový prohlížeč, je stále obtížnější porozumět typům informací odesílaných a přijímaných mezi lidmi a aplikacemi. Pokud nás rychlý vzestup DeepSeek může něčemu naučit, pak je to rychlost, s jakou se výkonné aplikace mohou dostat na trh a dosáhnout širokého přijetí. Pokud však kontroly nebudou dostatečně rychlé, aby udržely krok, rizika působící ve stínu se zvýší, což posílí potřebu analyzovat AI a její rizika.

Co se děje ve stínu? Stínová umělá inteligence označuje použití jakéhokoli nástroje umělé inteligence mimo kontrolu a oprávnění organizace, často bez jejího vědomí. Zatímco někteří zaměstnanci své používání těchto aplikací záměrně maskují, mnoho dalších je používá otevřeně a v dobré víře, aniž by si byli vědomi rizik nebo toho, zda používají generativní umělou inteligenci. Tento nedostatek znalostí vystavuje společnosti problému AI a její rizika.

Pokud se průměrného zaměstnance zeptáte, jaké aplikace AI každý den používá, možná odpoví ChatGPT. Přesto se jich běžně používá mnohem více: od Copilota od Microsoftu a Gemini od Googlu po Claude, Grammarly, Otter a určité nástroje od Canva a GitHub. Za všemi se skrývá neustálá diskuse o AI a její rizika.

Tyto aplikace nabízejí mnoho výhod a pomáhají zaměstnancům pracovat rychleji a efektivněji, ale je důležité vědět, co s nimi zaměstnanci sdílejí a aby ti, kdo je používají, věděli, jak pracují, jak nakládají s daty a mnohá potenciální rizika, která pro organizaci představují. Ignorovat AI a její rizika může mít vážné následky.

Co nevíte, je, jestli vám mohou ublížit. Není divu, že jakmile DeepSeek upoutal pozornost světa, stal se cílem kyberzločinců; Jakákoli aplikace, která ukládá a analyzuje data, je v hledáčku útočníků. Pokud uživatel nekontroluje používání těchto typů nástrojů, je nepravděpodobné, že zjistí, kolik dat je jeho, dříve než bude příliš pozdě. Toto je další jasný odraz AI a její rizika.

Toto jsou některá z mnoha rizik, kterým stínová AI vystavuje: AI a její rizika Projevují se různými způsoby.
Chyby zabezpečení: Když jsou informace sdíleny s neoprávněnou třetí stranou, neexistuje způsob, jak zjistit, jak jsou uchovávány, zpracovávány nebo analyzovány. Něco tak neškodného, ​​jako když požádáte LLM o vytvoření e-mailu pro klienta nebo shrnutí přepisu hovoru, může odhalit důvěrná data o společnosti a jejích klientech, což je jasný příklad AI a její rizika.

Integrita dat: AI dělá chyby; a když profesionál používá ChatGPT a další nástroje do puntíku, vystavuje se riziku ověření nesprávných informací, které mohou ovlivnit jeho službu a poškodit jeho pověst. To vše je součástí debaty o AI a její rizika.

Soulad: Kromě vystavování dat riziku vystavení by sdílení informací se stínovými aplikacemi umělé inteligence mohlo ohrozit dohody o důvěrnosti, GDPR a řadu dalších nařízení o ochraně osobních údajů. Tento právní aspekt úzce souvisí s AI a její rizika.

Hrozby zevnitř: Uživatelé, kteří zkopírují a vloží kód, text nebo obrázky z neautorizovaných nástrojů, mohou do svých systémů a sítí zanést zranitelná místa, malware a další prvky, což posiluje vnímání AI a její rizika.

Důvěra a spolehlivost: Používání služeb stínové umělé inteligence může být v rozporu s veřejnou politikou týkající se těchto typů nástrojů a způsobovat problémy s důvěrou a autenticitou, pokud to současní nebo potenciální klienti a partneři zjistí. Znovu, AI a její rizika Testují firemní reputaci.

Bezpečnost ve stínu. Neexistuje žádná stříbrná kulka, která by chránila použití stínové umělé inteligence. Jakákoli účinná kybernetická obrana musí být vícevrstvá a musí spojovat lidi, procesy a technologie. To znamená použití dat a řízení přístupu zaměřených na uživatele spolu se silnými interními zásadami a radami pro správu a řízení AI pro dohled a poradenství. Jedině tak se to dá zvládnout AI a její rizika udržitelně.

Se specializovanými nástroji DLP může uživatel, skupina nebo oddělení sledovat používání více než 600 generativních stránek AI; identifikovat kohokoli, kdo má přístup k cloudovým datům, e-mailům a kalendářům; a monitorovat používání aplikací v kontextu s rizikem uživatele. Tyto detekční schopnosti zlepšují pochopení AI a její rizika.

Komplexní řešení vám umožňuje prosazovat přijatelné zásady pro používání generativní umělé inteligence, blokování načítání nebo vkládání citlivých dat, redigování citlivých výrazů ve výzvách umělé inteligence a pořizování metadat a snímků obrazovky před a po použití generativních aplikací umělé inteligence. To částečně zmírňuje účinky AI a její rizika.

Tyto kontroly musí být doprovázeny důkladným a nepřetržitým školením ke zvýšení informovanosti zaměstnanců. Každý v organizaci by si měl být vědom potenciálních rizik spojených se stínovou umělou inteligencí a také schválených procesů pro vyžádání a používání nových technologií. Interní vzdělávání je klíčovým prvkem v řízení AI a její rizika.

Řešení, která udrží krok s generativními nástroji AI s architektonickým přístupem, vám umožní rychle inovovat a nasazovat nové funkce s minimálním dopadem na produktivitu uživatelů. Tímto způsobem můžete dát zaměstnancům to, co potřebují ke své práci, aniž byste přišli o důvěrná data ve stínu. Nakonec, AI a její rizika Musí být řešeny jako strategický aspekt v jakékoli organizaci.

Autor: Manuela Muñoz, Senior Named Account Manager ve společnosti Proofpoint


Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

Holky na privát z celé ČR najdete na NaPrivat.net Recenze na sexuální služby v ČR - Noření.cz