Když historie Když je napsáno AI, Steven Adler může skončit jako jeho Paul Revere – nebo alespoň jeden z nich – pokud jde o bezpečnost.
Minulý měsíc Adler, který strávil čtyři roky v různých bezpečnostních rolích v OpenAI, napsal článek pro The New York Times s poměrně alarmujícím názvem: „Vedl jsem bezpečnost produktů na OpenAI. Nevěřte jeho tvrzením o ‚Erotice‘.“ V něm popsal problémy, kterým OpenAI čelilo, když uživatelům umožnilo erotické konverzace s chatboty a zároveň je chránila před jakýmkoliv dopadem na jejich duševní zdraví. „Nikdo nechtěl být mravnostní policií, ale chyběly nám způsoby, jak pečlivě měřit a řídit používání erotiky,“ napsal. „Rozhodli jsme se, že erotika s umělou inteligencí bude muset počkat.“
Adler napsal svůj komentář, protože generální ředitel OpenAI Sam Altman nedávno oznámil, že společnost brzy povolí „erotiku pro ověřené dospělé“. V reakci na to Adler napsal, že má „hlavní otázky“ o tom, zda OpenAI udělala dost, aby, slovy Altmana, „zmírnila“ obavy o duševní zdraví spojené s tím, jak uživatelé komunikují s firemními chatboty.
Po přečtení Adlerova díla jsem s ním chtěl mluvit. Vlídně přijal nabídku přijít do kanceláří WIRED v San Franciscu a na této epizodě Velký rozhovormluví o tom, co se naučil během čtyř let v OpenAI, o budoucnosti bezpečnosti umělé inteligence a o výzvě, kterou stanovil pro společnosti poskytující světu chatboty.
Tento rozhovor byl z důvodu délky a srozumitelnosti upraven.
KATIE DRUMMOND: Než začneme, chci si ujasnit dvě věci. Za prvé, vy bohužel nejste ten samý Steven Adler, který hrál na bicí v Guns N‘ Roses, že?
STEVEN ADLER: Naprosto správně.
Dobře, to nejsi ty. A za druhé, máte za sebou velmi dlouhou kariéru v oblasti technologií, konkrétněji v oblasti umělé inteligence. Než se tedy pustíme do všech věcí, řekněte nám něco o své kariéře a minulosti a na čem jste pracovali.
Pracoval jsem v celém odvětví AI, zejména se zaměřením na bezpečnostní úhly. Naposledy jsem čtyři roky pracoval v OpenAI. Pracoval jsem v podstatě se všemi dimenzemi bezpečnostních problémů, které si dokážete představit: Jak vylepšíme produkty pro zákazníky a vyloučíme rizika, která se již vyskytují? A když se podíváme trochu dále, jak budeme vědět, zda jsou systémy umělé inteligence skutečně extrémně nebezpečné?
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com