OpenAI podporuje zákon státu Illinois, který by chránil laboratoře AI před odpovědností v případech, kdy jsou modely AI používány ke způsobení vážných společenských škod, jako je smrt nebo vážné zranění 100 nebo více lidí nebo škoda na majetku ve výši nejméně 1 miliardy dolarů.
Zdá se, že toto úsilí znamená posun v legislativní strategii OpenAI. Až dosud OpenAI hrála převážně obranu a postavila se proti zákonům, které mohly způsobit, že laboratoře AI budou odpovědné za škody způsobené jejich technologií. Několik odborníků na politiku AI říká WIRED, že SB 3444 – který by mohl stanovit nový standard pro průmysl – je extrémnějším opatřením než účty, které OpenAI v minulosti podporovala.
Návrh zákona, SB 3444, by chránil vývojáře hraniční umělé inteligence před odpovědností za „kritické škody“ způsobené jejich hraničními modely, pokud takový incident nezpůsobili úmyslně nebo z nedbalosti a na svých webových stránkách zveřejnili zprávy o bezpečnosti, zabezpečení a transparentnosti. Definuje hraniční model jako jakýkoli model umělé inteligence vyškolený za použití více než 100 milionů dolarů ve výpočetních nákladech, které by se pravděpodobně mohly vztahovat na největší americké laboratoře umělé inteligence, jako jsou OpenAI, Google, xAI, Anthropic a Meta.
„Podporujeme přístupy, jako je tento, protože se zaměřují na to, na čem nejvíce záleží: Snížení rizika vážného poškození ze strany nejpokročilejších systémů umělé inteligence a zároveň umožňuje, aby se tato technologie dostala do rukou lidí a podniků – malých i velkých – z Illinois,“ uvedl mluvčí OpenAI Jamie Radice v e-mailovém prohlášení. „Pomáhají také vyhnout se spleti pravidel jednotlivých států a směřují k jasnějším a konzistentnějším národním standardům.“
V rámci definice kritických škod zákon uvádí několik společných oblastí zájmu průmyslu umělé inteligence, jako je špatný hráč využívající umělou inteligenci k vytvoření chemické, biologické, radiologické nebo jaderné zbraně. Pokud se model umělé inteligence sám o sobě zapojí do chování, které by v případě, že by ho spáchal člověk, představovalo trestný čin a vedlo by k těmto extrémním výsledkům, znamenalo by to také kritickou újmu. Pokud by se model AI dopustil některého z těchto akcí podle SB 3444, laboratoř AI za modelem nemusí být zodpovědná, pokud to nebylo úmyslné a zveřejnila své zprávy.
Federální a státní zákonodárné sbory v USA musí ještě přijmout žádné zákony konkrétně určující, zda vývojáři modelů umělé inteligence, jako je OpenAI, mohou být odpovědní za tyto typy škod způsobených jejich technologií. Ale jak laboratoře umělé inteligence pokračují ve vydávání výkonnějších modelů umělé inteligence, které přinášejí nové výzvy v oblasti bezpečnosti a kybernetické bezpečnosti, jako je Claude Mythos od Anthropic, tyto otázky se zdají být stále předvídavější.
Ve svém svědectví na podporu SB 3444 členka týmu OpenAI Global Affairs, Caitlin Niedermeyer, také argumentovala ve prospěch federálního rámce pro regulaci AI. Niedermeyer zasáhl zprávu, která je v souladu s tvrdým zásahem Trumpovy administrativy proti státním bezpečnostním zákonům AI, a tvrdí, že je důležité vyhnout se „směsi nekonzistentních státních požadavků, které by mohly způsobit třenice, aniž by se smysluplně zlepšila bezpečnost“. To je také v souladu s širším pohledem na Silicon Valley v posledních letech, který obecně tvrdil, že je prvořadé, aby legislativa AI nebrzdila pozici Ameriky v globálním závodě AI. Zatímco SB 3444 je sám o sobě bezpečnostním zákonem na úrovni státu, Niedermeyer tvrdil, že mohou být účinné, pokud „posílí cestu k harmonizaci s federálními systémy“.
„V OpenAI věříme, že North Star pro hraniční regulaci by měla být bezpečným nasazením nejpokročilejších modelů způsobem, který také zachová vedoucí postavení USA v oblasti inovací,“ řekl Niedermeyer.
Scott Wisor, ředitel politiky pro projekt Secure AI, řekl WIRED, že věří, že tento návrh zákona má mizivé šance na schválení, vzhledem k pověsti Illinois jako agresivní regulační technologie. „Dotázali jsme se lidí v Illinois a zeptali jsme se, zda si myslí, že společnosti s umělou inteligencí by měly být osvobozeny od odpovědnosti, a 90 procent lidí je proti. Neexistuje žádný důvod, proč by stávající společnosti s umělou inteligencí měly čelit snížené odpovědnosti,“ říká Wisor.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com