Tento týden Sam Altman, generální ředitel OpenAI, a Arianna Huffington, zakladatelka a generální ředitelka zdravotnické společnosti Thrive Global, publikovali v Time článek o Thrive AI, startupu podporovaném Thrive a OpenAI Startup Fund. Článek naznačuje, že umělá inteligence by mohla mít obrovský pozitivní dopad na veřejné zdraví tím, že by lidi přiměla ke zdravějšímu chování.
Altman a Huffington píší, že Thrive AI pracuje na „plně integrovaném osobním kouči umělé inteligence, který vám nabízí pošťuchování a doporučení v reálném čase, která jsou pro vás jedinečná a která vám umožní přijmout opatření na základě vašeho každodenního chování a zlepšit své zdraví“.
Jejich vize klade pozitivní vliv na to, co se může ukázat jako jedna z nejostřejších dvojhran AI. Modely umělé inteligence jsou již zběhlé v přesvědčování lidí a my nevíme, o kolik silnější by se mohly stát, když pokročí a získají přístup k většímu množství osobních údajů.
Alexander Madry, profesor sabbaticalu z Massachusettského technologického institutu, vede tým na OpenAI s názvem Připravenost, který pracuje právě na tomto problému.
„Jedním z proudů práce v Připravenosti je přesvědčování,“ řekl Madry WIRED v květnovém rozhovoru. „V podstatě přemýšlet, do jaké míry můžete tyto modely použít jako způsob, jak přesvědčit lidi.“
Madry říká, že ke vstupu do OpenAI ho přitahoval pozoruhodný potenciál jazykových modelů a protože rizika, která představují, byla sotva prozkoumána. „Neexistuje doslova téměř žádná věda,“ říká. „To byl impuls pro úsilí o připravenost.“
Přesvědčivost je klíčovým prvkem v programech jako ChatGPT a jednou ze složek, díky kterým jsou chatboti tak přesvědčiví. Jazykové modely jsou trénovány v lidském psaní a dialogu, který obsahuje nespočet rétorických a suazivních triků a technik. Modely jsou také obvykle vyladěny tak, aby se chybovaly směrem k výrokům, které uživatelé považují za přesvědčivější.
Výzkum zveřejněný v dubnu Anthropicem, konkurentem založeným exulanty OpenAI, naznačuje, že jazykové modely se staly lepšími v přesvědčování lidí, protože rostly ve velikosti a sofistikovanosti. Tento výzkum zahrnoval poskytnutí prohlášení dobrovolníkům a následné sledování, jak argument vygenerovaný umělou inteligencí změní jejich názor na ně.
Práce OpenAI se rozšiřuje na analýzu AI v konverzaci s uživateli – něco, co může odemknout větší přesvědčivost. Madry říká, že práce je prováděna na souhlasných dobrovolnících a odmítá prozradit dosavadní zjištění. Ale říká, že přesvědčovací síla jazykových modelů sahá hluboko. „Jako lidé máme tuto ‚slabost‘, když s námi něco komunikuje přirozeným jazykem [we think of it as if] je to člověk,“ říká v narážce na antropomorfismus, díky kterému mohou chatboti vypadat živější a přesvědčivější.
Článek Time tvrdí, že potenciální zdravotní přínosy přesvědčivé umělé inteligence budou vyžadovat silné právní záruky, protože modelky mohou mít přístup k tolika osobním informacím. „Tvůrci politik potřebují vytvořit regulační prostředí, které podporuje inovace AI a zároveň chrání soukromí,“ píší Altman a Huffington.
To není vše, co budou muset politici zvážit. Může být také klíčové zvážit, jak by mohly být zneužity stále přesvědčivější algoritmy. Algoritmy umělé inteligence by mohly zvýšit rezonanci dezinformací nebo generovat obzvláště přesvědčivé phishingové podvody. Mohou být také použity k propagaci produktů.
Madry říká, že klíčovou otázkou, kterou musí OpenAI nebo jiní ještě prostudovat, je, o kolik přesvědčivější nebo nátlakové programy umělé inteligence, které komunikují s uživateli po dlouhou dobu, mohou být. Řada společností již nabízí chatboty, které hrají roli romantických partnerů a dalších postav. Přítelkyně s umělou inteligencí jsou stále populárnější – některé jsou dokonce navrženy tak, aby na vás křičely – ale jak návykoví a přesvědčiví tito roboti jsou, je velkou neznámou.
Vzrušení a humbuk vytvořený ChatGPT po jeho vydání v listopadu 2022 viděl OpenAI, externí výzkumníky a mnoho politiků, aby se zaměřili na hypotetičtější otázku, zda by se umělá inteligence mohla někdy obrátit proti svým tvůrcům.
Madry říká, že to riskuje ignorování jemnějších nebezpečí, která představují algoritmy se stříbrným jazykem. „Obávám se, že se zaměří na špatné otázky,“ říká Madry o dosavadní práci politiků. „Že v určitém smyslu každý říká: ‚Ach ano, řešíme to, protože o tom mluvíme,‘ i když ve skutečnosti nemluvíme o správné věci.“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com