Zaměstnanci OpenAI varují před kulturou rizik a odvetných opatření







Skupina současných a bývalých zaměstnanců OpenAI vydala veřejný dopis s varováním, že společnost a její konkurenti budují umělou inteligenci s nepřiměřeným rizikem, bez dostatečného dohledu a přitom umlčují zaměstnance, kteří by mohli být svědky nezodpovědných aktivit.

„Tato rizika sahají od dalšího zakořenění existujících nerovností přes manipulaci a dezinformace až po ztrátu kontroly nad autonomními systémy umělé inteligence, která může mít za následek vyhynutí lidí,“ stojí v dopise zveřejněném na righttowarn.ai. „Dokud neexistuje účinný vládní dohled nad těmito korporacemi, jsou současní a bývalí zaměstnanci jedni z mála lidí, kteří je mohou pohnat k odpovědnosti.“

Dopis vyzývá nejen OpenAI, ale všechny společnosti AI, aby se zavázaly, že nebudou trestat zaměstnance, kteří mluví o svých aktivitách. Vyzývá také, aby společnosti zavedly „ověřitelné“ způsoby, jak pracovníkům poskytovat anonymní zpětnou vazbu o jejich činnostech. „Běžná ochrana oznamovatelů je nedostatečná, protože se zaměřuje na nezákonnou činnost, zatímco mnoho rizik, kterých se obáváme, ještě není regulováno,“ píše se v dopise. „Někteří z nás se důvodně obávají různých forem odplaty, vzhledem k historii takových případů v celém odvětví.“

OpenAI se minulý měsíc stala terčem kritiky poté, co článek Vox odhalil, že společnost pohrozila zpětným získáním kapitálu zaměstnanců, pokud nepodepíší dohody o neznevažování, které jim zakazují kritizovat společnost nebo dokonce zmiňovat existenci takové dohody. CEO OpenAI, Sam Altman, řekl nedávno na X že o takových ujednáních nevěděl a společnost nikdy nezískala zpět něčí kapitál. Altman také řekl, že klauzule bude odstraněna a zaměstnanci budou moci mluvit.


Máte tip?

Jste současným nebo bývalým zaměstnancem OpenAI? Rádi bychom od vás slyšeli. Pomocí nepracovního telefonu nebo počítače kontaktujte Willa Knighta na adrese will_knight@wired.com nebo bezpečně na Signal na adrese wak.01.


OpenAI také nedávno změnila svůj přístup k řízení bezpečnosti. Minulý měsíc byla výzkumná skupina OpenAI odpovědná za hodnocení a boj proti dlouhodobým rizikům, která představují výkonnější modely umělé inteligence společnosti, účinně rozpuštěna poté, co několik prominentních osobností odešlo a zbývající členové týmu byli začleněni do jiných skupin. O několik týdnů později společnost oznámila, že vytvořila výbor pro bezpečnost a zabezpečení, vedený Altmanem a dalšími členy představenstva.

Loni v listopadu byl Altman vyhozen představenstvem OpenAI za to, že údajně nezveřejnil informace a úmyslně je uvedl v omyl. Po velmi veřejné tahanici se Altman vrátil do společnosti a většina představenstva byla vyloučena.

„Jsme hrdí na to, že poskytujeme nejschopnější a nejbezpečnější systémy umělé inteligence a věříme v náš vědecký přístup k řešení rizik,“ uvedla v prohlášení mluvčí OpenAI Liz Bourgeois. „Souhlasíme s tím, že vzhledem k významu této technologie je zásadní důsledná diskuse, a budeme i nadále jednat s vládami, občanskou společností a dalšími komunitami po celém světě.“

Mezi signatáře dopisů patří lidé, kteří pracovali na bezpečnosti a správě v OpenAI, současní zaměstnanci, kteří podepsali anonymně, a výzkumníci, kteří v současné době pracují v konkurenčních společnostech využívajících umělou inteligenci. Bylo také podpořeno několika významnými výzkumníky AI včetně Geoffreyho Hintona a Yoshuy Bengia, kteří oba získali Turingovu cenu za průkopnický výzkum AI, a Stuarta Russella, předního odborníka na bezpečnost AI.







Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com