OpenAI se ptá dodavatelům třetích stran, aby nahráli skutečná zadání a úkoly ze svých současných nebo předchozích pracovišť, aby mohla data použít k vyhodnocení výkonu svých modelů umělé inteligence nové generace, podle záznamů z OpenAI a školicí datové společnosti Handshake AI získaných společností WIRED.
Zdá se, že projekt je součástí snahy OpenAI vytvořit lidskou základní linii pro různé úkoly, které pak lze porovnat s modely AI. V září společnost zahájila nový proces hodnocení, který má měřit výkon svých modelů umělé inteligence v porovnání s lidskými profesionály v různých odvětvích. OpenAI říká, že je to klíčový ukazatel jejího pokroku směrem k dosažení AGI, neboli systému umělé inteligence, který překonává lidi ve většině ekonomicky cenných úkolů.
„Najali jsme lidi z různých profesí, aby nám pomohli shromažďovat úkoly v reálném světě modelované podle těch, které jste dělali ve svých zaměstnáních na plný úvazek, takže můžeme měřit, jak dobře si modely AI v těchto úkolech vedou,“ stojí v jednom důvěrném dokumentu od OpenAI. „Vezměte si existující kusy dlouhodobé nebo složité práce (hodiny nebo dny+), které jste dělali ve svém povolání, a proměňte je v úkol.“
OpenAI žádá dodavatele, aby popsali úkoly, které dělali ve své současné práci nebo v minulosti, a nahráli skutečné příklady práce, kterou dělali, podle prezentace OpenAI o projektu, kterou si prohlížel WIRED. Každý z příkladů by měl být „konkrétním výstupem (nikoli souhrnem souboru, ale skutečným souborem), např. Word doc, PDF, Powerpoint, Excel, obrázek, repo,“ uvádí prezentace. OpenAI říká, že lidé mohou také sdílet vymyšlené pracovní příklady vytvořené k demonstraci toho, jak by reálně reagovali v konkrétních scénářích.
OpenAI a Handshake AI odmítly komentovat.
Úkoly v reálném světě mají podle prezentace OpenAI dvě složky. Je zde požadavek na úkol (to, co člověku řekl jeho manažer nebo kolega, aby udělal) a úkolový úkol (skutečná práce, kterou vytvořili v reakci na tento požadavek). Společnost v pokynech několikrát zdůrazňuje, že příklady, které dodavatelé sdílejí, by měly odrážet „skutečnou práci na pracovišti“, kterou daná osoba má „vlastně hotovo.“
Jeden příklad v prezentaci OpenAI nastiňuje úkol „Senior Lifestyle Manager v luxusní concierge společnosti pro jednotlivce s ultra vysokým čistým jměním“. Cílem je „připravit krátký dvoustránkový návrh PDF přehledu 7denního výletu jachtou na Bahamy pro rodinu, která tam pojede poprvé.“ Obsahuje další podrobnosti týkající se zájmů rodiny a toho, jak by měl vypadat itinerář. „Dodávka zkušeného člověka“ pak ukazuje, co by v tomto případě dodavatel nahrál: skutečný itinerář Baham vytvořený pro klienta.
OpenAI instruuje dodavatele, aby odstranili podnikové duševní vlastnictví a osobní identifikační informace z pracovních souborů, které nahrávají. V části označené „Důležitá upozornění“ říká OpenAI pracovníkům, aby „odstranili nebo anonymizovali jakékoli: osobní informace, vlastnická nebo důvěrná data, podstatné neveřejné informace (např. interní strategie, podrobnosti o nevydaných produktech).“
Jeden ze souborů zobrazených v dokumentu WIRED zmiňuje nástroj ChatGPT s názvem „Superstar Scrubbing“, který poskytuje rady, jak odstranit důvěrné informace.
Evan Brown, právník v oblasti duševního vlastnictví ve společnosti Neal & McDevitt, říká WIRED, že laboratoře AI, které přijímají důvěrné informace od dodavatelů v tomto rozsahu, by mohly být předmětem stížností na zneužití obchodního tajemství. Dodavatelé, kteří nabízejí společnosti s umělou inteligencí dokumenty ze svých předchozích pracovišť, i když jsou skartované, mohou být vystaveni riziku porušení dohod o mlčenlivosti svých předchozích zaměstnavatelů nebo odhalení obchodního tajemství.
„Laboratoř AI vkládá velkou důvěru do svých dodavatelů, aby rozhodli, co je a co není důvěrné,“ říká Brown. „Pokud něco nechají proklouznout, opravdu si AI laboratoře dávají čas na to, aby určily, co je a co není obchodní tajemství? Zdá se mi, že se AI laboratoř vystavuje velkému riziku.“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com