Jak by vítězství Trumpa mohlo rozpoutat nebezpečnou AI







Požadavky na hlášení jsou zásadní pro upozornění vlády na potenciálně nebezpečné nové schopnosti ve stále výkonnějších modelech umělé inteligence, říká vládní úředník USA, který se zabývá problematikou umělé inteligence. Úředník, který požádal o anonymitu, aby mohl svobodně mluvit, poukazuje na přiznání OpenAI ohledně „nekonzistentního odmítání žádostí o syntézu nervových látek ve svém nejnovějším modelu“.

Úředník říká, že požadavek na podávání zpráv není příliš zatěžující. Argumentují tím, že na rozdíl od regulací AI v Evropské unii a Číně odráží Bidenův EO „velmi široký, lehký přístup, který nadále podporuje inovace“.

Nick Reese, který v letech 2019 až 2023 působil jako první ředitel pro vznikající technologie na ministerstvu vnitřní bezpečnosti, odmítá konzervativní tvrzení, že požadavek na podávání zpráv ohrozí duševní vlastnictví společností. A říká, že by to mohlo skutečně prospět startupům, protože by je povzbudilo, aby vyvíjely „výpočtově efektivnější“, méně datově náročné modely umělé inteligence, které spadají pod prahovou hodnotu pro vykazování.

Síla umělé inteligence vyžaduje, aby byl vládní dohled nezbytný, říká Ami Fields-Meyer, která pomohla navrhnout Bidenův EO jako technický úředník Bílého domu.

„Mluvíme o společnostech, které říkají, že budují nejvýkonnější systémy v historii světa,“ říká Fields-Meyer. „První povinností vlády je chránit lidi. ‚Věř mi, máme to‘ není zvlášť přesvědčivý argument.“

Odborníci chválí bezpečnostní pokyny NIST jako zásadní zdroj pro zabudování ochrany do nové technologie. Poznamenávají, že chybné modely umělé inteligence mohou způsobit vážné sociální škody, včetně diskriminace v oblasti pronájmu a půjček a nepatřičné ztráty státních výhod.

Trumpova vlastní objednávka AI v prvním funkčním období vyžadovala, aby federální systémy AI respektovaly občanská práva, což bude vyžadovat výzkum společenských škod.

Průmysl AI do značné míry přivítal Bidenovu bezpečnostní agendu. „To, co slyšíme, je, že je velmi užitečné mít tyto věci vysvětleny,“ říká americký úředník. U nových společností s malými týmy „rozšiřuje kapacitu jejich lidí řešit tyto problémy.“

Vrácení Bidenova EO by vyslalo alarmující signál, že „americká vláda dá ruce pryč od přístupu k bezpečnosti umělé inteligence,“ říká Michael Daniel, bývalý prezidentský kybernetický poradce, který nyní vede Cyber ​​Threat Alliance, neziskovou organizaci pro sdílení informací.

Pokud jde o konkurenci s Čínou, obránci EO říkají, že bezpečnostní pravidla skutečně pomohou Americe zvítězit tím, že zajistí, aby americké modely umělé inteligence fungovaly lépe než jejich čínští rivalové a byly chráněny před pekingskou ekonomickou špionáží.

Dvě velmi odlišné cesty

Pokud Trump příští měsíc vyhraje Bílý dům, očekávejte zásadní změnu v tom, jak vláda přistupuje k bezpečnosti AI.

Republikáni chtějí předcházet škodám způsobeným umělou inteligencí uplatněním „stávajících deliktů a zákonných zákonů“ na rozdíl od uzákonění rozsáhlých nových omezení na technologii, říká Helberg, a upřednostňují „mnohem větší zaměření na maximalizaci příležitostí, které AI nabízí, než přílišné zaměřování se na riziko. zmírnění.“ To by pravděpodobně znamenalo zkázu pro požadavek na podávání zpráv a možná i některé pokyny NIST.

Požadavek na podávání zpráv by také mohl čelit právním problémům, když Nejvyšší soud oslabil respekt, který soudy používaly k tomu, aby agenturám při hodnocení jejich předpisů poskytovaly.

A odmítnutí GOP by mohlo dokonce ohrozit dobrovolná partnerství NIST v oblasti testování AI s předními společnostmi. „Co se stane s těmito závazky v nové administrativě?“ ptá se americký úředník.

Tato polarizace kolem AI frustrovala technology, kteří se obávají, že Trump podkope hledání bezpečnějších modelů.

„Kromě slibů AI jsou rizika,“ říká Nicol Turner Lee, ředitelka Centra pro technologické inovace Brookings Institution, „a je životně důležité, aby příští prezident pokračoval v zajišťování bezpečnosti a zabezpečení těchto systémů.“





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com