na hranici etiky







Vzhledem k tomu, že modely umělé inteligence (AI) pokračují vpřed, je snadné předpokládat, že poskytnout nástroji určitou kontrolu je jen otázkou času. Tyto modely jsou však až příliš často černými skříňkami a jsou vyvíjeny bez ohledu na interpretovatelnost, etiku nebo bezpečnost. Proto pevně věřím, že pro organizace, které chtějí budovat důvěru v používání modelů umělé inteligence, je nezbytné dodržovat odpovědné postupy umělé inteligence.

Scott Zoldi, ředitel analytiky ve společnosti FICO

Zodpovědná umělá inteligence zahrnuje vývoj modelů umělé inteligence, které jsou robustní, vysvětlitelné, etické a kontrolovatelné. Odpovědné standardy umělé inteligence definují požadavky na nezbytný lidský dohled a zavádějí kontroly k zajištění souladu. Bezpochyby věřím, že by se neměl používat žádný model umělé inteligence k rozhodování ovlivňujícím zákazníky bez lidského dohledu – do procesu by měl být vždy zapojen člověk.

Konflikt AI

Organizace by měly přijmout podnikový standard pro modely AI, který diktuje vhodné algoritmy AI, spolu s procesy, které umožňují role člověka ve smyčce. To často zahrnuje použití interpretovatelné umělé inteligence, která lidem umožňuje zkontrolovat a pochopit, co se umělá inteligence naučila, a zajistit její použitelnost, etické použití a bezpečnost.

Auditovatelná AI zase kodifikuje lidská rozhodnutí a pokyny pro provozní využití AI, když začne ovlivňovat zákazníky.

Každý den vidíme, že rozhodnutí řízená umělou inteligencí jsou potlačována nebo rušena lidmi. To zahrnuje schvalování nebo odmítání použití dat, eliminaci naučených neetických datových vztahů (jako jsou proxy pro zakázaná data pro určitá rozhodnutí, jako je rasa a pohlaví v záležitostech lidských zdrojů nebo rozhodnutí o poskytnutí úvěru v bance), správa falešných poplachů a zajistit, aby byly splněny regulační standardy AI.

Jedním z nejlepších způsobů, jak zajistit, aby byly dodržovány zodpovědné postupy umělé inteligence, je použít blockchain k zaznamenávání každého kroku vývoje modelu umělé inteligence, k pochopení požadavků a schválení testování a k analýze umělé inteligence v provozu, která definuje rozhodovací pravomoci lidských operátorů. To může zahrnovat podmínky, kdy jsou rozhodnutí AI přepsána a uchýlí se k „skromnému modelu AI“, často pomocí standardního modelu (nezaloženého na AI), když je model AI nespolehlivý kvůli nedostatku dat v nové aplikaci oblast nebo jiné faktory.

I ty nejvýkonnější modely umělé inteligence generují velké množství falešných poplachů (chyb). Proto je nezbytné zacházet s každým rozhodnutím opatrně a definovat strategie pro ověření, potlačení a podporu fungování AI. A to znamená, že role Chief Analytics/AI Officer je kritická. Budou řídit zodpovědné standardy umělé inteligence, pomohou vyvážit pokrok v inovacích s obchodními a regulačními riziky a stanoví hranice pro monitorování umělé inteligence.

Jsme tedy připraveni na umělou inteligenci bez dozoru? Moje odpověď je rozhodné ne.

Autor: Scott Zoldi, ředitel analytiky ve společnosti FICO




Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com