Měla by AI získat zákonná práva?







V jednom zveřejněném článku Eleos AI nezisková organizace argumentuje za hodnocení vědomí AI pomocí přístupu „výpočetní funkcionalismus“. Podobný nápad byl kdysi bojován nikdo jiný než Putnam, i když to kritizoval později ve své kariéře. Teorie naznačuje, že lidské mysli lze považovat za specifické druhy výpočetních systémů. Odtud můžete zjistit, zda jiné výpočetní systémy, jako je chabot, mají ukazatele sentience podobné těm člověka.

Společnost Eleos AI v příspěvku uvedla, že „hlavní výzvou při uplatňování“ tohoto přístupu „je to, že zahrnuje významné úsudky, a to jak při formulaci ukazatelů, tak při hodnocení jejich přítomnosti nebo nepřítomnosti v systémech AI“.

Model blahobyt je samozřejmě rodící se a stále se vyvíjející pole. Má spoustu kritiků, včetně Mustafa Suleyman, generálního ředitele společnosti Microsoft AI, který nedávno vydal blog o „zdánlivě vědomé AI“.

„To je jak předčasné, tak upřímně nebezpečné,“ napsal Suleyman a odkazoval obecně na oblast výzkumu sociálního zabezpečení. „To vše zhoršuje bludy, vytvoří ještě více problémů souvisejících s závislostí, kořistí na našich psychologických zranitelnosti, zavede nové dimenze polarizace, komplikují stávající boje o práva a vytvoří pro společnost obrovskou novou chybu kategorie.“

Suleyman napsal, že „dnes neexistuje nulové důkazy“, že vědomá AI existuje. Zahrnoval odkaz na papír, který v roce 2023 byl spoluautorem, který navrhl nový rámec pro vyhodnocení, zda systém AI má „indikátorové vlastnosti“ vědomí. (Suleyman neodpověděl na žádost o komentář od Wired.)

Krátce poté, co Suleyman zveřejnil svůj blog, jsem si povídal s Longem a Campbell. Řekli mi, že i když souhlasili s většinou toho, co řekl, nevěří, že by výzkum sociálního zabezpečení měl přestat existovat. Spíše tvrdí, že odkazované na újmy, na které se Subeleyman odkazuje, jsou přesné důvody proč Chtějí toto téma studovat na prvním místě.

„Když máte velký, matoucí problém nebo otázku, jedním ze způsobů, jak zaručit, že to nevyřešíte, je vyhodit ruce nahoru a být jako“ oh wow, to je příliš komplikované, „říká Campbell. „Myslím, že bychom měli alespoň zkusit.“

Testování vědomí

Vědci z modelu sociální péče se především zabývají otázkami vědomí. Pokud dokážeme dokázat, že jste si vědomi, argumentují, pak by stejná logika mohla být aplikována na modely velkých jazyků. Abych to bylo jasné, ani dlouhý, ani Campbell si nemyslí, že AI je dnes při vědomí a také si nejsou jisti, že to někdy bude. Chtějí však vyvinout testy, které by nám to umožnily prokázat.

„Ilusy pocházejí od lidí, kteří se zabývají skutečnou otázkou:“ Je to AI, vědomé? “ A mít vědecký rámec pro přemýšlení o tom, myslím, je prostě robustně dobré, “říká Long.

Ale ve světě, kde lze výzkum AI zabalit do senzačních titulků a videí v sociálních médiích, lze snadno snadno vyložit opojné filozofické otázky a experimenty s ohýbáním mysli. Vezměte si, co se stalo, když antropic zveřejnil zprávu o bezpečnosti, která ukázala, že Claude Opus 4 může za extrémních okolností podniknout „škodlivé kroky“, jako je vydírání smyšleného inženýra, aby se zabránilo jeho vypnutí.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

Holky na privát z celé ČR najdete na NaPrivat.net Recenze na sexuální služby v ČR - Noření.cz