Potřebujeme nové právo na opravu umělé inteligence







Existuje rostoucí trend lidí a organizací, kteří odmítají nevyžádané zavedení umělé inteligence do svých životů. V prosinci 2023 The New York Times zažaloval OpenAI a Microsoft za porušení autorských práv. V březnu 2024 podali tři autoři v Kalifornii hromadnou žalobu proti společnosti Nvidia za údajné školení její platformy AI NeMo o jejich dílech chráněných autorskými právy. O dva měsíce později herečka ze seznamu A Scarlett Johansson poslala právní dopis OpenAI, když si uvědomila, že její nový hlas ChatGPT je „děsivě podobný“ jejímu.

Technologie zde není problém. Dynamika výkonu je. Lidé chápou, že tato technologie je postavena na jejich datech, často bez našeho svolení. Není divu, že důvěra veřejnosti v AI klesá. Nedávná studie společnosti Pew Research ukazuje, že více než polovina Američanů je z umělé inteligence více znepokojena, než nadšená, což je sentiment, který odráží většina lidí ze zemí Střední a Jižní Ameriky, Afriky a Blízkého východu v průzkumu World Risk Poll.

V roce 2025 uvidíme, že lidé budou požadovat větší kontrolu nad tím, jak se používá AI. Jak toho bude dosaženo? Jedním z příkladů je red teaming, praxe vypůjčená od armády a používaná v kybernetické bezpečnosti. V červeném týmovém cvičení jsou externí experti požádáni, aby „infiltrovali“ nebo rozbili systém. Funguje to jako test toho, kde se vaše obrana může pokazit, takže je můžete opravit.

Red teaming používají velké společnosti s umělou inteligencí k nalezení problémů ve svých modelech, ale zatím není rozšířený jako praxe pro veřejné použití. To se změní v roce 2025.

Například advokátní kancelář DLA Piper nyní využívá červeného týmu s právníky k přímému testování, zda jsou systémy umělé inteligence v souladu s právními rámci. Moje nezisková organizace, Humane Intelligence, vytváří červená týmová cvičení s netechnickými odborníky, vládami a organizacemi občanské společnosti, aby testovala umělou inteligenci na diskriminaci a zaujatost. V roce 2023 jsme provedli 2200 červené týmové cvičení, které podpořil Bílý dům. V roce 2025 budou naše červené týmové akce čerpat ze zkušeností běžných lidí při hodnocení modelů umělé inteligence z hlediska islamofobie a jejich schopnosti umožnit online obtěžování žen.

Převážně, když pořádám jedno z těchto cvičení, nejčastější otázkou, kterou dostávám, je, jak se můžeme vyvinout od identifikace problémů k řešení problémů sami. Jinými slovy, lidé chtějí právo na opravu.

Právo AI na opravu může vypadat takto – uživatel by mohl mít možnost spustit diagnostiku AI, nahlásit jakékoli anomálie a zjistit, kdy je společnost opraví. Skupiny třetích stran, jako jsou etičtí hackeři, mohou vytvářet záplaty nebo opravy problémů, ke kterým má kdokoli přístup. Nebo si můžete najmout nezávislou akreditovanou stranu, aby vyhodnotila systém umělé inteligence a přizpůsobila jej pro vás.

I když je to dnes abstraktní myšlenka, připravujeme půdu pro to, aby se právo na opravu stalo skutečností v budoucnosti. Převrátit současnou, nebezpečnou dynamiku moci bude vyžadovat nějakou práci – jsme rychle nuceni normalizovat svět, ve kterém společnosti AI jednoduše vloží nové a nevyzkoušené modely AI do systémů reálného světa, přičemž vedlejšími škodami jsou obyčejní lidé. Právo na opravu dává každému člověku možnost kontrolovat, jak se v jeho životě používá AI. Rok 2024 byl rokem, kdy se svět probudil do všudypřítomnosti a vlivu umělé inteligence. Rok 2025 je rokem, kdy se domáháme svých práv.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com