Singapurská vize pro AI Safety Bridges Divize USA-Čína







Vláda Singapur dnes zveřejnil plán pro globální spolupráci o bezpečnosti umělé inteligence po setkání vědců AI z USA, Číny a Evropy. Dokument stanoví sdílenou vizi pro práci na bezpečnosti AI spíše prostřednictvím mezinárodní spolupráce než na konkurenci.

„Singapur je jednou z mála zemí na planetě, která se dobře vydává s východním i západem,“ říká Max Tegmark, vědec na MIT, který minulý měsíc pomohl svolat setkání AI Luminaries. „Vědí, že se nebudou stavět.“ [artificial general intelligence] sami – budou jim to udělat – takže je velmi v jejich zájmech, aby země, které si ho budou stavět, spolu mluví. “

Země se domnívají, že s největší pravděpodobností budou stavět AGI, jsou samozřejmě USA a Čínou – a přesto se zdá, že tyto národy se více v úmyslu navzájem vyrábějí než spolupracovat. V lednu, poté, co čínský startup Deepseek vydal špičkový model, prezident Trump nazval „probuzením pro naše průmysly“ a uvedl, že USA musí být „zaměřeny na laser při soutěži o vítězství“.

Singapurský konsenzus o globálních prioritách výzkumu bezpečnosti AI vyžaduje, aby vědci spolupracovali ve třech klíčových oblastech: studium rizik, která představují modely Frontier AI, zkoumá bezpečnější způsoby, jak tyto modely budovat, a vyvíjet metody pro kontrolu chování nejpokročilejších systémů AI.

Konsenzus byla vyvinuta na schůzce konané 26. dubna spolu s Mezinárodní konferenci o učebních reprezentacích (ICLR), premiérové ​​události AI, která se letos konala v Singapuru.

Vědci z OpenAI, Antropic, Google Deepmind, Xai a Meta se zúčastnili bezpečnostní akce AI, stejně jako akademici z institucí včetně MIT, Stanfordu, Tsinghua a Čínské akademie věd. Zúčastnili se také odborníci z bezpečnostních ústavů AI v USA, Velké Británii, Francii, Kanadě, Číně, Japonsku a Koreji.

„V době geopolitické fragmentace je tato komplexní syntéza špičkového výzkumu o bezpečnosti AI slibným znamením, že globální společenství se spojuje se společným závazkem utvářet bezpečnější budoucnost AI,“ uvedl Xue Lan, děkan univerzity Tsinghua.

Vývoj stále schopnějších modelů AI, z nichž některé mají překvapivé schopnosti, způsobil, že se vědci starají o řadu rizik. Zatímco některé se zaměřují na krátkodobé škody včetně problémů způsobených zkreslenými systémy AI nebo potenciálu zločinců využívat technologii, značné množství se domnívá, že AI může představovat existenciální hrozbu pro lidstvo, protože začne překonat lidi v více doménách. Tito vědci, někdy označovaní jako „AI Doomers“, se obávají, že modely mohou klamat a manipulovat s lidmi, aby si mohli usilovat o své vlastní cíle.

Potenciál AI také vyvolal rozhovor o zbrojní závodě mezi USA, Čínou a dalšími mocnými národy. Tato technologie je v politických kruzích považována za kritickou pro hospodářskou prosperitu a vojenskou dominanci a mnoho vlád se snažilo vydat své vlastní vize a předpisy upravující, jak by měla být rozvíjena.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

Holky na privát z celé ČR najdete na NaPrivat.net Recenze na sexuální služby v ČR - Noření.cz