AI, rizika a etika: regulace







Regulace umělé inteligence získala v posledních 18 měsících velký význam, a to díky vzestupu této technologie samotné. Evropská unie se chopila iniciativy při vytváření předpisů, které stanoví pokyny pro jeho vývoj a používání. Předpisy, o kterých se bude hlasovat v Evropském parlamentu 10. a 11. dubna, se snaží zaručit etické a právní působení umělé inteligence v našem každodenním životě. Po hlasování vstoupí zákon v platnost za 20 dní.

Předpisy stanoví klasifikaci AI na základě rizika, které představuje. Některé aplikace s „nepřijatelným rizikem“ budou zakázány šest měsíců po schválení. Povinnosti pro modely jako ChatGPT budou platit po jednom roce a ostatní pravidla po dvou. V praxi se očekává plná implementace do konce roku 2026.

Poté, co zákon vstoupí v platnost, budou muset organizace a vývojáři vyhodnotit své systémy umělé inteligence a zařadit je do jedné ze čtyř definovaných úrovní. V závislosti na kategorii budou různé odpovědnosti spadat na vývojáře nebo uživatele.

V lednu letošního roku se během setkání v Davosu řešila možná rizika AI, zejména generativních modelů, vzhledem k jejich širokému uplatnění. Byli varováni před jejich potenciálem pro dezinformace související se zaujatostmi, které mohou nastat, když je trénujeme širokými a neobjektivními informacemi. Nový zákon však kromě jiných, jako je uhlíková stopa, kterou tyto systémy zanechávají, zvažuje i tato možná rizika a snaží se předvídat možné dlouhodobé socioekonomické dopady, které jsou zatím nejisté. Předpisy tedy stanoví opatření ke zmírnění těchto rizik.

Co vyžaduje regulace, aby byl zaručen odpovědný vývoj a používání umělé inteligence?

  • Lidský dohled: Pro zmírnění potenciálních rizik při používání této technologie budou zavedena opatření pro dohled nad lidmi. Nástroje poskytnou rozhraní a mechanismy, které umožní lidský dohled a zajistí, že vše funguje správně podle zákona. Tato lidská kontrola je základním aspektem ke zmírnění rizik
  • Přehlednost a srozumitelnost: Nové nařízení vyžaduje, aby vývojáři modelů hlubokého učení vysvětlili společnostem a občanům, jak jejich systémy fungují. Aby vývojáři vyhověli předpisům, budou muset poskytnout technickou a funkční dokumentaci podrobně popisující algoritmy použité v jejich modelech. Kromě toho budou muset zajistit, aby údaje používané pro školení respektovaly autorská práva.
  • Ochrana osobních údajů: Evropské právo v oblasti umělé inteligence se bude řídit obecným nařízením o ochraně osobních údajů (GDPR) Evropské unie s cílem chránit občany. Toto nařízení, které je povinně uplatňováno na celém evropském území, stanoví řadu pravidel, která mají zaručit ochranu osobních údajů na celém světě.
  • Sledovatelnost a auditovatelnost: Nařízení vyžaduje vést vyčerpávající záznamy o vývoji systémů, aby byla zajištěna sledovatelnost a auditovatelnost algoritmu za všech okolností, zejména v případě nedostatečného provozu.
  • Detekce a kontrola zkreslení: Fáze návrhu algoritmu podléhá řadě povinností, které zahrnují jak čištění a kvalitu dat, tak proces školení, ověřování a testování systému. V tomto smyslu norma vyžaduje, aby použité datové soubory byly reprezentativní, úplné a bez chyb. Stejně tak je zásadní návrh a implementace softwaru pro detekci zkreslení v datech.

Co si o tom myslí SAS?

„Po třech letech se legislativa definující povinnosti a standardy pro umělou inteligenci brzy stane realitou. Tato technologie s nebývalou transformační silou je již přítomna v různých odvětvích a v každodenním životě milionů lidí. Je však realitou, že tato inovace může mít tolik možností jako rizik, pokud není správně vyvinuta a používána.

Nové nařízení usiluje o podporu odpovědné a etické umělé inteligence, která zaručuje soukromí a bezpečnost evropských občanů. Tyto pokyny vyžadují, aby dodavatelé AI měli větší kontrolu nad procesem vývoje svých systémů.

Více než jen technologická změna, organizace nyní čelí kulturní a procesní změně. K dosažení tohoto cíle bude nezbytné školení zaměstnanců v oblasti etického používání technologií. Je důležité si pamatovat, že předsudky přítomné v kultuře společnosti mohou být zesíleny umělou inteligencí, což vytváří riziko, které je třeba zmírnit.

Je možné dosáhnout vysvětlitelné, transparentní a sledovatelné umělé inteligence. Ve společnosti SAS již léta uplatňujeme přístup etika by design, který nám umožňuje zajistit odpovědné inovace a vytváření bezpečných řešení pro naše klienty. Nemůžeme zapomenout, že spolehlivá umělá inteligence začíná dříve, než je napsán první řádek kódu. Kromě toho je trvalým závazkem přijetí AI governance, která je v souladu s hodnotami organizace a která se dokáže přizpůsobit technologickým změnám a pokroku.

Stále více společností vytváří výbory pro umělou inteligenci, aby zajistily kontrolu a dodržování předpisů. Kombinace procesních změn, nástrojů pro měření a monitorování a komplexních zpráv, které demonstrují vhodné použití modelů umělé inteligence, umožní organizacím dodržovat zákony a zároveň zajistit, že jejich systémy jsou provozovány správně, etické a odpovědné.“

Autor: Jesús Aguilera, manažer předprodeje umělé inteligence a analytiky pro SAS na Iberii




Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com