Podle zdrojů s přímými znalostmi společnost Jancso zveřejnila, že Acceleratex v roce 2024 podepsal dohodu o partnerství s Palantirem. Podle LinkedIn někoho, kdo je popsán jako jeden ze spoluzakladatelů Acceleratex, Rachel Yee, se zdá, že společnost obdržela finanční prostředky od OpenAi’s Converge 2 Accelerator. Další ze spoluzakladatelů Acceleratesf, Kay Sorin, nyní pracuje pro OpenAI, když se ke společnosti připojil několik měsíců po tomto hackathonu. Sorin a Yee neodpověděli na žádosti o komentář.
Spoluzakladatel Jancso, Jordan Wick, bývalý inženýr Waymo, byl aktivním členem Doge, který se objevil v několika agenturách v posledních několika měsících, včetně Úřadu pro finanční ochranu spotřebitelů, národní rady pro pracovní vztahy, ministerstva práce a ministerstva školství. V roce 2023 se Jancso zúčastnil hackathonu pořádaného Scaleai; Wired zjistil, že stejný hackathon se také zúčastnil dalšího člena Doge, Ethan Shaotran.
Od svého vytvoření v prvních dnech druhé správy Trumpů tlačí Doge používání AI napříč agenturami, i když se snažila snížit desítky tisíc federálních pracovních míst. Na ministerstvu pro záležitosti veteránů navrhl doge spolupracovník pomocí AI k psaní kódu pro webové stránky agentury; Ve správě General Services Administration zavedla Doge Chatbot GSAI; Skupina se snažila automatizovat proces vypálení vládních zaměstnanců nástrojem zvaným Autorif; A doge, který pracuje na Katedře bydlení a rozvoje měst, používá nástroje AI k prozkoumání a navrhování změn předpisů. Odborníci však tvrdí, že nasazení agentů AI k práci 70 000 lidí by bylo složité, ne -li nemožné.
Federální zaměstnanec se znalostí vládních smluv, který hovořil s zapojením o podmínku anonymity, protože nebyli oprávněni mluvit s tiskem, říká: „Mnoho agentur má postupy, které se mohou velmi lišit na základě jejich vlastních pravidel a předpisů, a tak by nasazení agentů AI napříč agenturami v rozsahu bylo pravděpodobně obtížné.“
Oren Etzioni, spoluzakladatel společnosti AI Startup Vercep, říká, že zatímco agenti AI mohou být dobří v některých věcech – jako je používání internetového prohlížeče k provádění výzkumu – jejich výstupy se mohou stále velmi lišit a být velmi nespolehlivé. Například agenti zákaznických služeb AI vynalezli při pokusu o řešení problémů uživatelů neexistující zásady. Dokonce i výzkum, jak říká, vyžaduje, aby člověk skutečně ujistil, že to, co AI plivá, je správné.
„Chceme, aby naše vláda byla něčím, na co se můžeme spolehnout, na rozdíl od něčeho, co je na absolutním krvácení,“ říká Etzioni. „Nepotřebujeme, aby to bylo byrokratické a pomalé, ale pokud to korporace ještě nepřijaly, je vláda opravdu tam, kde chceme experimentovat s špičkou AI?“
Etzioni říká, že agenti AI nejsou také skvělí 1-1 hodí pro náhradu pracovních míst. AI je spíše schopna provádět určité úkoly nebo zefektivnit ostatní, ale myšlenka, že by tato technologie mohla vykonávat práci 70 000 zaměstnanců, by nebyla možná. „Pokud nepoužíváte vtipnou matematiku,“ říká, „v žádném případě.“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com