Generativní umělá inteligence opakuje všechny chyby Webu 2.0







Jestliže byl rok 2022 rokem, kdy začal boom generativní umělé inteligence, rok 2023 byl rokem generativní paniky v oblasti umělé inteligence. Jen něco málo přes 12 měsíců od doby, kdy OpenAI vydala ChatGPT a vytvořila rekord pro nejrychleji rostoucí spotřebitelský produkt, se zdá, že také pomohla vytvořit rekord pro nejrychlejší vládní zásah do nové technologie. Americká federální volební komise se zabývá podvodnými reklamami v kampani, Kongres požaduje dohled nad tím, jak společnosti s umělou inteligencí vyvíjejí a označují školicí data pro své algoritmy, a Evropská unie schválila nový zákon o umělé inteligenci s úpravami na poslední chvíli, aby reagovala na generativní umělou inteligenci.

Ale přes všechnu novinku a rychlost jsou problémy s generativní AI také bolestně známé. OpenAI a její soupeři, kteří se snaží uvést na trh nové modely umělé inteligence, čelí problémům, které již téměř dvě desetiletí pronásledují sociální platformy, které dříve formovaly novou technologii. Společnosti jako Meta nikdy nedostaly navrch nad dezinformacemi a dezinformacemi, útržkovitými pracovními praktikami a nekonsensuální pornografií, abychom jmenovali jen některé z jejich nezamýšlených důsledků. Nyní tyto problémy získávají nový náročný život s obratem AI.

„Jsou to zcela předvídatelné problémy,“ říká Hany Farid, profesor na UC Berkeley School of Information, o bolestech hlavy, kterým čelí OpenAI a další. „Myslím, že se jim dalo předejít.“

Dobře prošlapaná cesta

V některých případech jsou generativní společnosti AI přímo postaveny na problematické infrastruktuře zavedené společnostmi sociálních médií. Facebook a další se začaly spoléhat na nízko placené externí pracovníky pro moderování obsahu – často na globálním Jihu –, aby udrželi obsah jako nenávistné projevy nebo obrázky s nahotou nebo násilím na uzdě.

Stejná pracovní síla je nyní využívána, aby pomohla trénovat generativní modely umělé inteligence, často s podobně nízkou mzdou a obtížnými pracovními podmínkami. Vzhledem k tomu, že outsourcing staví klíčové funkce sociální platformy nebo společnosti s umělou inteligencí administrativně vzdálenou od jejího ústředí a často i na jiném kontinentu, výzkumníci a regulátoři mohou mít problém získat úplný obrázek o tom, jak je systém umělé inteligence nebo sociální síť budována a řízena.

Outsourcing může také zakrýt, kde skutečně leží skutečná inteligence uvnitř produktu. Když část obsahu zmizí, byla odstraněna algoritmem nebo jedním z mnoha tisíc lidských moderátorů? Když chatbot zákaznických služeb pomáhá zákazníkovi, kolik kreditu připadá na AI a kolik na pracovníka v přehřátém outsourcingovém centru?

Existují také podobnosti v tom, jak společnosti a sociální platformy AI reagují na kritiku jejich špatných nebo nezamýšlených účinků. Společnosti zabývající se umělou inteligencí hovoří o zavedení zásad „ochrany“ a „přijatelné použití“ na určité generativní modely umělé inteligence, stejně jako platformy mají své smluvní podmínky týkající se toho, jaký obsah je a není povolen. Stejně jako u pravidel sociálních sítí se ukázalo, že zásady a ochrany AI lze poměrně snadno obejít.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com