Ve svém polarizujícím „Techno-optimistickém manifestu“ v loňském roce uvedl venture kapitalista Marc Andreessen řadu nepřátel technologického pokroku. Mezi nimi byly „technická etika“ a „důvěra a bezpečnost“, což je termín používaný pro práci na moderování online obsahu, který byl podle něj používán k vystavení lidstva „masové demoralizační kampani“ proti novým technologiím, jako je umělá inteligence.
Andreessenovo prohlášení vyvolalo veřejnou i tichou kritiku od lidí pracujících v těchto oblastech – včetně společnosti Meta, kde je Andreessen členem představenstva. Kritici viděli jeho potěr jako zkreslení jejich práce, aby byly internetové služby bezpečnější.
Ve středu Andreessen nabídl určité vysvětlení: Pokud jde o online život jeho 9letého syna, je pro mantinely. „Chci, aby se mohl přihlásit k internetovým službám, a chci, aby měl zážitek jako v Disneylandu,“ řekl investor v rozhovoru na pódiu na konferenci pro výzkumný ústav Human-Centered AI Stanfordské univerzity. „Miluji internet zdarma pro všechny. Jednou bude také milovat internet zdarma pro všechny, ale chci, aby měl obezděné zahrady.“
Na rozdíl od toho, jak mohl znít jeho manifest, Andreessen dále řekl, že vítá technologické společnosti – a potažmo jejich týmy pro důvěru a bezpečnost –, které nastavují a prosazují pravidla pro typ obsahu povoleného v jejich službách.
„Společnost od společnosti existuje mnoho možností, jak o tom rozhodnout,“ řekl. „Disney zavádí v Disneylandu jiné kodexy chování, než jaké se děje v ulicích Orlanda.“ Andreessen narážel na to, jak mohou technologické společnosti čelit vládním sankcím za povolení zobrazování sexuálního zneužívání dětí a některých dalších typů obsahu, takže nemohou být zcela bez týmů důvěry a bezpečnosti.
Jaké moderování obsahu tedy Andreessen považuje za nepřítele pokroku? Vysvětlil, že se obává, že dvě nebo tři společnosti dominují kyberprostoru a budou „spojeny“ s vládou způsobem, který činí určitá omezení univerzálními, což způsobí to, co nazval „silné společenské důsledky“, aniž by specifikoval, jaké by to mohly být. „Pokud skončíte v prostředí, kde je všudypřítomná cenzura, všudypřítomné kontroly, pak máte skutečný problém,“ řekl Andreessen.
Řešení, jak jej popsal, zajišťuje konkurenci v technologickém průmyslu a rozmanitost přístupů k moderování obsahu, přičemž některé mají větší omezení řeči a jednání než jiné. „Co se stane na těchto platformách, opravdu záleží,“ řekl. „Co se děje v těchto systémech, opravdu záleží. Na tom, co se v těchto společnostech děje, opravdu záleží.“
Andreessen nevychoval X, sociální platformu provozovanou Elonem Muskem a dříve známou jako Twitter, do které jeho firma Andreessen Horowitz investovala, když na konci roku 2022 převzal vedení Tesly. Musk brzy propustil velkou část zaměstnanců společnosti pro důvěru a bezpečnost. , vypnul tým Twitteru pro etiku umělé inteligence, uvolnil pravidla pro obsah a obnovil uživatele, kteří byli dříve trvale zakázáni.
Tyto změny spojené s Andreessenovou investicí a manifestem vytvořily určité vnímání, že investor chce jen málo omezení svobody projevu. Jeho objasňující komentáře byly součástí rozhovoru s Fei-Fei Li, spoluředitelem Stanford’s HAI, s názvem „Odstranění překážek robustního inovativního ekosystému AI“.
Během zasedání také Andreessen zopakoval argumenty, které uvedl v uplynulém roce, že zpomalení rozvoje umělé inteligence prostřednictvím nařízení nebo jiných opatření doporučených některými zastánci bezpečnosti umělé inteligence by zopakovalo to, co považuje za chybné americké omezení investic do jaderné energie před několika desetiletími. .
Jaderná energie by byla „stříbrnou kulkou“ mnoha dnešním obavám z uhlíkových emisí z jiných zdrojů elektřiny, řekl Andreessen. Místo toho se USA stáhly zpět a změna klimatu nebyla zvládnuta tak, jak by mohla být. „Je to v drtivé většině negativní rámec averze k riziku,“ řekl. „Předpoklad v diskusi je, že pokud existují potenciální škody, měly by existovat předpisy, kontroly, omezení, pauzy, zastavení, zmrazení.“
Z podobných důvodů, řekl Andreessen, chce vidět větší vládní investice do infrastruktury a výzkumu umělé inteligence a volnější uzdu experimentování s umělou inteligencí, například tím, že nebude ve jménu bezpečnosti omezovat modely umělé inteligence s otevřeným zdrojovým kódem. Pokud chce, aby jeho syn měl zkušenosti s umělou inteligencí v Disneylandu, mohou být také nezbytná určitá pravidla, ať už od vlád nebo týmů důvěry a bezpečnosti.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com