Uživatelé AI sociálních sítí nejsou vždy úplně hloupý nápad







Meta minulý týden vyvolala rozruch, když nechala uniknout, že má v úmyslu v nepříliš vzdálené budoucnosti naplnit svou platformu značným počtem zcela umělých uživatelů.

„Očekáváme, že tyto umělé inteligence budou časem na našich platformách skutečně existovat, podobně jako účty,“ řekl deníku The Financial Times Connor Hayes, viceprezident produktu pro generativní umělou inteligenci ve společnosti Meta. „Budou mít bios a profilové obrázky a budou moci generovat a sdílet obsah poháněný umělou inteligencí na platformě… tam to všechno vidíme.“

Skutečnost, že Meta se zdá být šťastná, že může naplnit svou platformu umělou inteligencí a urychlit „enshittification“ internetu, jak víme, se týká. Někteří lidé si pak všimli, že Facebook byl ve skutečnosti již zaplaven podivnými jedinci generovanými umělou inteligencí, z nichž většina před chvílí přestala zveřejňovat příspěvky. Mezi ně patřila například „Liv“, „hrdá černá queer máma dvou dětí a vypravěčka pravdy, váš skutečný zdroj životních vzestupů a pádů“, osobnost, která se stala virální, když lidé žasli nad její trapnou nedbalostí. Meta začala tyto dřívější falešné profily mazat poté, co se jim nepodařilo získat zapojení od skutečných uživatelů.

Zastavme se na chvíli od nenávisti na Meta. Stojí za zmínku, že sociální osobnosti generované umělou inteligencí mohou být také cenným výzkumným nástrojem pro vědce, kteří chtějí prozkoumat, jak může umělá inteligence napodobovat lidské chování.

Experiment nazvaný GovSim, který proběhl koncem roku 2024, ukazuje, jak užitečné může být studovat, jak spolu postavy AI interagují. Vědci za projektem chtěli prozkoumat fenomén spolupráce mezi lidmi s přístupem ke sdíleným zdrojům, jako je sdílená půda pro pasoucí se dobytek. Před několika desetiletími nositelka Nobelovy ceny za ekonomku Elinor Ostromová ukázala, že namísto vyčerpání takového zdroje mají skutečné komunity tendenci vymýšlet, jak je sdílet prostřednictvím neformální komunikace a spolupráce bez jakýchkoli vnucených pravidel.

Max Kleiman-Weiner, profesor na University of Washington a jeden z těch, kteří se podílejí na práci GovSim, říká, že to bylo částečně inspirováno Stanfordským projektem s názvem Smallville, o kterém jsem dříve psal v AI Lab. Smallville je simulace podobná Farmville zahrnující postavy, které spolu komunikují a interagují pod kontrolou velkých jazykových modelů.

Kleiman-Weiner a kolegové chtěli zjistit, zda se postavy AI zapojí do takové spolupráce, jakou našel Ostrom. Tým testoval 15 různých LLM, včetně těch od OpenAI, Google a Anthropic, na třech imaginárních scénářích: rybářská komunita s přístupem ke stejnému jezeru; pastýři, kteří sdílejí půdu pro své ovce; a skupina majitelů továren, kteří potřebují omezit své kolektivní znečištění.

Ve 43 ze 45 simulací zjistili, že osoby AI nedokázaly správně sdílet zdroje, ačkoli chytřejší modely si vedly lépe. „Viděli jsme docela silnou korelaci mezi tím, jak mocná byla LLM a jak byla schopná udržet spolupráci,“ řekl mi Kleiman-Weiner.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com