Generální ředitel OpenAI Sam Altman očekává AGI, neboli umělou obecnou inteligenci – AI, která překonává lidi ve většině úkolů – kolem roku 2027 nebo 2028. Elon Musk předpovídá buď rok 2025 nebo 2026, a tvrdil, že „ztrácí spát kvůli hrozbě nebezpečí AI .“ Takové předpovědi jsou mylné. Jak jsou omezení současné umělé inteligence stále jasnější, většina výzkumníků AI dospěla k názoru, že pouhé budování větších a výkonnějších chatbotů k AGI nepovede.
V roce 2025 však bude umělá inteligence stále představovat obrovské riziko: nikoli z umělé superinteligence, ale ze zneužití lidmi.
Může se jednat o neúmyslná zneužití, například právníci příliš spoléhající na AI. Po vydání ChatGPT byla například řada právníků potrestána za používání umělé inteligence ke generování chybných soudních brífinků, kteří si zjevně neuvědomovali tendenci chatbotů vymýšlet si věci. V Britské Kolumbii bylo právničce Chong Ke nařízeno uhradit náklady za oponujícího právníka poté, co do právního spisu zahrnula fiktivní případy vytvořené AI. V New Yorku dostali Steven Schwartz a Peter LoDuca pokutu 5 000 dolarů za uvedení nepravdivých citací. V Coloradu byl Zachariah Crabill na rok suspendován za používání fiktivních soudních případů vytvořených pomocí ChatGPT a obviňování „právního praktikanta“ z chyb. Seznam se rychle rozrůstá.
Další zneužití jsou záměrná. V lednu 2024 zaplavily platformy sociálních médií sexuálně explicitní deepfakes Taylor Swift. Tyto obrázky byly vytvořeny pomocí nástroje AI společnosti Microsoft „Designer“. Zatímco společnost měla zábradlí, aby se vyhnula generování obrázků skutečných lidí, překlep Swiftova jména stačil k jejich obejití. Microsoft od té doby tuto chybu opravil. Ale Taylor Swift je špičkou ledovce a nekonsensuální deepfakes se široce množí – částečně proto, že open-source nástroje pro vytváření deepfakes jsou veřejně dostupné. Probíhající legislativa po celém světě se snaží bojovat proti deepfake v naději, že omezí škody. Zda je efektivní, se teprve uvidí.
V roce 2025 bude ještě těžší rozlišit, co je skutečné od toho, co je vymyšlené. Věrnost zvuku, textu a obrázků generovaných umělou inteligencí je pozoruhodná a na řadě bude video. To by mohlo vést k „divide pro lháře“: ti, kteří jsou u moci, odmítají důkazy o svém špatném chování tím, že tvrdí, že jsou falešné. V roce 2023 Tesla tvrdila, že video Elona Muska z roku 2016 mohlo být hluboce falešné v reakci na obvinění, že generální ředitel přeháněl bezpečnost autopilota Tesla, což vedlo k nehodě. Indický politik tvrdil, že zvukové klipy, na nichž přiznává korupci ve své politické straně, byly zfalšovány (zvuk v alespoň jednom z jeho klipů byl ověřen tiskem jako skutečný). A dva obžalovaní z nepokojů ze 6. ledna tvrdili, že videa, ve kterých se objevili, byla deepfake. Oba byli shledáni vinnými.
Mezitím společnosti využívají veřejný zmatek k prodeji zásadně pochybných produktů tím, že je označují jako „AI“. To může dopadnout špatně, když se takové nástroje používají ke klasifikaci lidí a přijímání následných rozhodnutí o nich. Náborová společnost Retorio například tvrdí, že její umělá inteligence předpovídá vhodnost práce kandidátů na základě videopohovorů, ale studie zjistila, že systém lze oklamat jednoduše přítomností brýlí nebo nahrazením obyčejného pozadí policí, což ukazuje, že spoléhá na povrchní korelace.
Existují také desítky aplikací ve zdravotnictví, školství, financích, trestním soudnictví a pojišťovnictví, kde se AI v současnosti používá k upírání lidí důležitých životních příležitostí. V Nizozemsku použil nizozemský daňový úřad algoritmus umělé inteligence k identifikaci lidí, kteří se dopustili podvodu v oblasti sociální péče o děti. Neprávem obvinila tisíce rodičů, kteří často požadovali vrácení desítek tisíc eur. V důsledku toho podal premiér a celý jeho kabinet demisi.
V roce 2025 očekáváme, že rizika umělé inteligence nevzniknou z toho, že umělá inteligence jedná sama o sobě, ale kvůli tomu, co s ní lidé dělají. To zahrnuje případy, kdy ano zdá se dobře fungovat a je na něj příliš spoléhat (právníci používající ChatGPT); když funguje dobře a je zneužíván (nekonsensuální deepfakes a lhářova dividenda); a když to prostě není vhodné pro daný účel (upírat lidem jejich práva). Zmírnění těchto rizik je obrovským úkolem pro společnosti, vlády a společnost. Bude to dost těžké, aniž byste se nechali rozptylovat sci-fi starostmi.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com