Takzvané oddělení efektivity vlády Elona Muska (DOGE) funguje na základním předpokladu: Spojené státy by měly být provozovány jako spuštění. Doposud to většinou znamenalo chaotické střelby a dychtivost na předpisy pro parníku. Ale žádná paluba rozteče v roce 2025 není úplná bez předávkování umělou inteligencí a Doge se neliší.
Samotná AI si nezaslouží reflexivně Pitchforks. Má skutečná použití a může vytvářet skutečné efektivitě. Není ze své podstaty nevhodné zavést AI do pracovního postupu, zejména pokud jste si vědomi a schopni zvládnout jeho omezení. Není však jasné, že Doge přijala žádnou z toho nuance. Pokud máte kladivo, všechno vypadá jako hřebík; Pokud máte co nejcitlivější údaje v zemi, všechno vypadá jako vstup.
Kamkoli DOGE odešel, AI byla v závěsu. Vzhledem k neprůhlednosti organizace zůstává mnoho neznámé o tom, jak přesně se používá a kde. Dvě zjevení tento týden však ukazují, jak rozsáhlé – a potenciálně zavádějící – jsou aspirace AI AI.
Na Katedře bydlení a rozvoje měst byl vysokoškolský undergrad úkol používat AI k zjištění, kde mohou předpisy HUD překročit nejpřísnější interpretaci základních zákonů. (Agentury mají tradičně širokou interpretační pravomoc, když je legislativa vágní, ačkoli Nejvyšší soud nedávno přesunul tuto pravomoc do soudní pobočky.) Toto je úkol, který skutečně dává smysl pro AI, který může syntetizovat informace z velkých dokumentů mnohem rychlejší než člověk. Existuje určité riziko halucinace – konkrétně, že model vyplivl citace, které ve skutečnosti neexistují – ale člověk musí tyto doporučení schválit bez ohledu na to. To je, na jedné úrovni, v tom, co je generativní AI právě teď docela dobré: dělat únavu systematicky.
Existuje však něco zhoubného, když požádá model AI, aby pomohl rozebrat administrativní stav. (Kromě toho, že je to fakt; váš počet najetých kilometrů se tam bude lišit v závislosti na tom, zda si myslíte, že bydlení s nízkými příjmy je společenské dobro, nebo jste spíše v žádném typu dvorek.) AI vlastně „neví“ nic o předpisech nebo o to, zda se jedná o nejpřísnější čtení zákonů, něco, o čem by dokonce vysoce zkušení právníci odhodili. Je třeba jej nakrmit výzvou, která podrobně popisuje, co je třeba hledat, což znamená, že můžete nejen pracovat s rozhodčími, ale napsat pro ně knihu pravidel. Je také výjimečně dychtivé potěšit, až do té míry, že to s jistotou vyrábí věci, než aby odmítla reagovat.
Pokud nic jiného, jedná se o nejkratší cestu k maximalistickému vylučování autority hlavní agentury s možností rozptýleného kecy hozeného pro dobrou míru.
Alespoň je to případ srozumitelného použití. Totéž nelze říci o další úsilí AI spojené s Doge. Jak hlásil Wired v pátek, časný náborář DOGE znovu hledá inženýry, tentokrát „navrhnout benchmarky a nasazovat agenty AI napříč živými pracovními postupy ve federálních agenturách“. Jeho cílem je odstranit desítky tisíc vládních pozic a nahradit je za agentickou AI a „osvobození“ pracovníků za zdánlivě „vyšší dopady“ povinností.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com