Bylo by příliš rušivé, kdyby protesty uspořádaly sit-ins nebo se připoutaly ke dveřím vývojářů AI, zeptal se jeden člen Discordu. „Asi ne. Nakonec děláme, co musíme, pro budoucnost s lidstvem, dokud ještě můžeme.“
Meindertsma se po přečtení obával následků AI superinteligence, kniha z roku 2014 od filozofa Nicka Bostroma, která popularizovala myšlenku, že velmi pokročilé systémy umělé inteligence mohou představovat riziko pro lidskou existenci. Podobně se inspiroval Joseph Miller, organizátor protestu PauseAI v Londýně.
Bylo to spuštění velkého jazykového modelu Chat-GPT 3 OpenAI v roce 2020, kvůli kterému se Miller začal obávat trajektorie AI. „Najednou jsem si uvědomil, že to není problém vzdálené budoucnosti, je to něco, kde se AI nyní opravdu zlepšuje,“ říká. Miller se připojil k neziskové organizaci zabývající se výzkumem bezpečnosti AI a později se zapojil do PauseAI.
Bostromovy myšlenky měly vliv na komunitu „efektivního altruismu“, široké sociální hnutí, které zahrnuje stoupence dlouhodobého horizontu: myšlenka, že ovlivňování dlouhodobé budoucnosti by dnes mělo být morální prioritou lidí. Přestože mnoho organizátorů PauseAI má kořeny v efektivním altruistickém hnutí, chtějí sáhnout za hranice filozofie a získat pro svou věc větší podporu.
Ředitelka Pause AI US Holly Elmore chce, aby hnutí bylo „širokou církví“, která zahrnuje umělce, spisovatele a vlastníky autorských práv, jejichž živobytí je ohroženo systémy AI, které mohou napodobovat kreativní díla. „Jsem utilitarista.“ Nakonec přemýšlím o důsledcích, ale nespravedlnost, která mě skutečně vede k tomuto druhu aktivismu, je nedostatek souhlasu společností vyrábějících modely umělé inteligence, říká.
„Nemusíme si vybírat, které poškození AI je nejdůležitější, když mluvíme o pozastavení jako řešení. Pauza je jediné řešení, které je všechny řeší.“
Miller zopakoval tento bod. Říká, že mluvil s umělci, jejichž živobytí bylo ovlivněno růstem generátorů umění AI. „Toto jsou problémy, které jsou dnes skutečné a jsou znamením mnohem nebezpečnějších věcí, které přijdou.“
Jeden z londýnských demonstrantů, Gideon Futerman, má hromadu letáků, které se pokouší rozdat státním zaměstnancům, kteří opouštějí budovu naproti. Se skupinou protestuje od loňského roku. „Myšlenka možné pauzy se od té doby skutečně zakořenila,“ říká.
Futerman je optimistický, že protestní hnutí mohou ovlivnit trajektorii nových technologií. Poukazuje na to, že potlačování geneticky modifikovaných organismů pomohlo Evropě v 90. letech vypnout technologii. Totéž platí o jaderné energii. Není to tak, že by tato hnutí měla nutně správné myšlenky, říká, ale dokazují, že lidové protesty mohou zhatit pochod i technologií, které slibují nízkouhlíkovou energii nebo bohatší úrodu.
V Londýně se skupina demonstrantů přesune přes ulici, aby nabídla letáky proudu státních zaměstnanců opouštějících vládní úřady. Většina se tváří vytrvale bez zájmu, ale někteří si vezmou prostěradlo. Dříve toho dne Rishi Sunak, britský premiér, který šest měsíců předtím hostil první bezpečnostní summit o AI, pronesl projev, kde přikývl na obavy z AI. Ale po tomto přechodném odkazu se pevně zaměřil na potenciální výhody.
Vedoucí představitelé Pause AI WIRED uvedli, že zatím neuvažují o rušivějších přímých akcích, jako jsou sit-in nebo tábořiště poblíž kanceláří AI. „Naše taktika a metody jsou ve skutečnosti velmi mírné,“ říká Elmore. „Chci být umírněnou základnou pro mnoho organizací v tomto prostoru. Jsem si jistý, že bychom násilí nikdy neschvalovali. Také chci, aby Pause AI šla ještě dál a byla velmi důvěryhodná.“
Meindertsma souhlasí a říká, že další rušivé akce nejsou v tuto chvíli opodstatněné. „Opravdu doufám, že nebudeme muset podnikat další kroky. Nečekám, že to budeme potřebovat. Necítím se jako typ člověka, který by vedl hnutí, které není zcela legální.“
Zakladatel Pause AI také doufá, že jeho hnutí se může zbavit nálepky „AI doomer“. „Doomer je někdo, kdo se vzdává lidskosti,“ říká. „Jsem optimistický člověk; Věřím, že s tím můžeme něco udělat.“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com