Demokraté požadují odpovědi na Dogeovo použití AI







Demokraté ve výboru pro dohled nad dohledem vystřelili ve středu ráno dva desítky žádostí o přiměřené představy federální agentury o informace o plánech na instalaci softwaru AI v celé federální agentury uprostřed probíhajících škrtů na pracovní sílu vlády.

Harba dotazů se řídí nedávným vykazováním Wired a Washington Post týkající se úsilí tzv. Ministerstva vládní efektivity Elona Muska (DOGE) automatizovat úkoly s různými proprietárními nástroji AI a citlivými údaji o přístupu.

„Američané svěřují federální vládě citlivé osobní údaje týkající se jejich zdraví, financí a dalších biografických informací na základě toho, že tyto informace nebudou zveřejněny nebo nesprávně použity bez jejich souhlasu,“ četly žádosti, „včetně použití neschváleného a nezodpovědného softwaru AI třetích stran.“

Ústředním účelem žádostí je tlačit agentury, aby prokázaly, že jakékoli možné využití AI je legální a že jsou podniknuty kroky k ochraně soukromých údajů Američanů. Demokraté také chtějí vědět, zda nějaké použití AI bude finančně prospěch Musk, který založil Xai a jejíž problémovou společností Electric Car, Tesla, se snaží otočit směrem k robotice a AI. Demokraté se dále obávají, Connolly říká, že Musk by mohl využívat svůj přístup k citlivým vládním údajům pro osobní obohacení a využívat údaje k „překonanému“ vlastnímu proprietárnímu modelu AI, známý jako „Grok“.

Žádosti, poprvé získané společností Wired, podepsají Gerald Connolly, demokratický kongresman z Virginie.

V žádostech Connolly poznamenává, že federální agentury jsou „vázány několika zákonnými požadavky při používání softwaru AI“, což ukazuje hlavně na federální program řízení rizik a autorizace (FEDRAMP), který pracuje na standardizaci vládního přístupu k cloudovým službám a zajišťuje, že nástroje založené na AI jsou správně posouzeny pro bezpečnostní rizika. Poukazuje také na pokročilý americký zákon AI, který vyžaduje, aby federální agentury „připravily a udržovaly soupis případů agentury umělé inteligence“ a „zpřístupnily inventáře agentur veřejnosti“.

Dokumenty získané společností Wired minulý týden ukazují, že pracovníci Doge nasadili proprietární chatbot s názvem GSAI přibližně 1 500 federálním pracovníkům. GSA dohlíží na nemovitosti federální vlády a dodává služby informačních technologií mnoha agenturám.

Memorandum, které získalo kabelové reportéry, ukazuje, že zaměstnanci byli varováni před krmením softwaru jakékoli kontrolované nezařazené informace. Podle dokumentů, které sledovaly Wired, zvažovaly jiné agentury, včetně oddělení ministerstva financí a zdravotnictví a lidských služeb, zvažovaly pomocí chatbota, i když ne nutně GSAI.

Společnost Wired také uvedla, že armáda Spojených států v současné době používá software nazývaný „Camogpt“, aby prohledal své záznamové systémy pro jakékoli odkazy na rozmanitost, spravedlnost, začlenění a přístupnost (DEIA). Mluvčí armády potvrdil existenci nástroje, ale odmítl poskytnout další informace o tom, jak ho armáda plánuje používat.

V žádostech Connolly píše, že ministerstvo školství má osobně identifikovatelné informace o více než 43 milionech lidí spojených s federálními programy pomoci studentům. „Vzhledem k neprůhledným a frenetickým tempu, kterým se zdá, že Doge funguje,“ píše, „jsem hluboce znepokojen tím, že studenti, rodiče, rodiče, manželé“, rodinné příslušníky a všechny ostatní dlužníky se zabývají tajnými členy týmu DOG Washington Post dříve uvedl, že Muskovo tzv. Ministerstvo vládní efektivity začalo krmit citlivá federální data z rekordních systémů na ministerstvu školství, aby analyzovala jeho výdaje.

Ministr školství Linda McMahon v úterý uvedla, že postupuje s plány na vystřelení více než tisíc pracovníků na oddělení a připojila se ke stovkám dalších, kteří minulý měsíc přijali doge „výkup“. Oddělení vzdělávání ztratilo téměř polovinu své pracovní síly – první krok, říká McMahon při plném zrušení agentury.

„Použití AI k vyhodnocení citlivých údajů je plné vážných rizik nad nesprávným zveřejněním,“ píše Connolly a varuje, že „použité vstupy a parametry vybrané pro analýzu mohou být chybné, mohou být chyby zavedeny prostřednictvím návrhu softwaru AI a zaměstnanci mohou nesprávně vykládat doporučení AI, mezi ostatními.“

Dodává: „Bez jasného účelu za použití AI, zábradlí k zajištění vhodného zpracování údajů a přiměřeného dohledu a transparentnosti je aplikace AI nebezpečná a potenciálně porušuje federální zákon.“





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com