Diktatury budou zranitelné vůči algoritmům







Umělá inteligence je často považována za hrozbu pro demokracie a za dobrodiní pro diktátory. V roce 2025 je pravděpodobné, že algoritmy budou nadále podkopávat demokratickou konverzaci šířením pobouření, falešných zpráv a konspiračních teorií. Algoritmy budou i v roce 2025 nadále urychlovat vytváření totálních sledovacích režimů, ve kterých je celá populace sledována 24 hodin denně.

A co je nejdůležitější, umělá inteligence usnadňuje koncentraci všech informací a výkonu do jednoho centra. Ve 20. století fungovaly distribuované informační sítě jako USA lépe než centralizované informační sítě jako SSSR, protože lidští aparátčíci v centru prostě nedokázali efektivně analyzovat všechny informace. Nahrazení aparátčíků AI by mohlo učinit centralizované sítě sovětského typu lepšími.

Nicméně AI není pro diktátory dobrá zpráva. Za prvé je tu notoricky známý problém kontroly. Diktátorská kontrola je založena na teroru, ale algoritmy nelze terorizovat. V Rusku je invaze na Ukrajinu oficiálně definována jako „zvláštní vojenská operace“ a označování jako „válka“ je zločin, za který lze uložit až tři roky vězení. Pokud to chatbot na ruském internetu nazývá „válkou“ nebo zmiňuje válečné zločiny spáchané ruskými jednotkami, jak by mohl režim tohoto chatbota potrestat? Vláda by ho mohla zablokovat a snažit se potrestat jeho lidské tvůrce, ale to je mnohem obtížnější než ukáznit lidské uživatele. Navíc si autorizovaní boti mohou sami vyvinout nesouhlasné názory, jednoduše tím, že objeví vzorce v ruské informační sféře. To je problém zarovnání, na ruský způsob. Ruští lidští inženýři se mohou ze všech sil snažit vytvořit AI, které jsou zcela v souladu s režimem, ale vzhledem ke schopnosti AI se učit a měnit sama sebe, jak mohou inženýři zajistit, aby AI, která získala pečeť schválení režimu v roce 2024, nevstoupíte v roce 2025 na nelegální území?

Ruská ústava velkolepě slibuje, že „každému bude zaručena svoboda myšlení a projevu“ (článek 29.1) a „cenzura bude zakázána“ (29.5). Sotva žádný ruský občan je natolik naivní, aby bral tyto sliby vážně. Ale roboti nerozumí doublespeaku. Chatbot, který je instruován k dodržování ruského práva a hodnot, by si mohl přečíst tuto ústavu, dojít k závěru, že svoboda slova je základní ruskou hodnotou, a kritizovat Putinův režim za porušování této hodnoty. Jak mohou ruští inženýři vysvětlit chatbotovi, že ačkoli ústava zaručuje svobodu slova, chatbot by ve skutečnosti neměl ústavě věřit ani by se nikdy neměl zmiňovat o propasti mezi teorií a realitou?

Z dlouhodobého hlediska budou autoritářské režimy pravděpodobně čelit ještě většímu nebezpečí: namísto kritiky by nad nimi mohly AI získat kontrolu. V průběhu historie největší hrozba autokratům obvykle pocházela od jejich vlastních podřízených. Žádný římský císař ani sovětský premiér nebyli svrženi demokratickou revolucí, ale vždy jim hrozilo nebezpečí, že je svrhnou nebo promění jejich vlastní podřízení v loutky. Diktátor, který v roce 2025 uděluje AI příliš mnoho pravomocí, se může stát jejich loutkou.

Diktatury jsou vůči takovému algoritmickému převzetí mnohem zranitelnější než demokracie. I pro super-machiavelistickou AI by bylo obtížné shromáždit moc v decentralizovaném demokratickém systému, jako jsou Spojené státy. I když se AI naučí manipulovat s americkým prezidentem, může čelit odporu Kongresu, Nejvyššího soudu, guvernérů států, médií, velkých korporací a různých nevládních organizací. Jak by se algoritmus vypořádal například s pirátem Senátu? Převzít moc ve vysoce centralizovaném systému je mnohem jednodušší. K hacknutí autoritářské sítě potřebuje umělá inteligence zmanipulovat pouze jednoho paranoidního jedince.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com