Rok 2024 je rokem generativních voleb AI







Odborníci vědí, že generativní umělá inteligence je připravena drasticky změnit informační prostředí a problémy, které již dlouhou dobu sužují technologické platformy – jako jsou dezinformace a dezinformace, podvody a nenávistný obsah – budou pravděpodobně zesíleny, a to navzdory mantinelům, které společnosti tvrdí, že setřít.

Existuje několik způsobů, jak zjistit, zda bylo něco vyrobeno nebo zmanipulováno pomocí umělé inteligence: Lidé nebo kampaně mohou potvrdit její použití; ověřovatelé faktů možná analyzovali a odhalili něco, co se šíří po světě; nebo se možná obsah AI jasně používá pro něco jako satiru. Někdy, když máme štěstí, je opatřen vodoznakem, což znamená, že je tam něco, co naznačuje, že jej vytvořila nebo změnila AI. Ale realita je taková, že to pravděpodobně odpovídá jen některým z toho, co už tam je. Dokonce i naše vlastní datová sada je téměř jistě podhodnocena.

A to nás vede k dalšímu problému: Jak řekl britský novinář Peter Pomerantsev: „Když nic není pravda, je možné všechno. V informačním ekosystému, kde cokoli může být generativní umělou inteligencí, je pro politiky nebo veřejné osobnosti snadné říci, že něco skutečného je falešné – to, co je známé jako „dividenda lháře“. To znamená, že lidé mohou méně pravděpodobně věřit informacím, i když jsou pravdivé. Co se týče ověřovatelů faktů a novinářů, mnozí nemají snadno dostupné nástroje k posouzení, zda něco bylo vyrobeno nebo zmanipulováno umělou inteligencí. Ať už letošní rok přinese cokoliv, pravděpodobně to bude jen špička ledovce.

Ale to, že je něco falešné, neznamená, že je to špatné. Deepfakes našli domov v satiře, chatboti dokážou (někdy) poskytovat dobré informace a díky personalizované kampani se lidé mohou cítit, že je vidí jejich političtí zástupci.

Je to odvážný nový svět, ale proto ho sledujeme.

Chatovací místnost

V rámci našeho projektu umělé inteligence žádáme čtenáře, aby zaslali jakékoli případy generativní umělé inteligence, se kterými se v tomto volebním roce ve volné přírodě setkáte.

Chcete-li získat lepší představu o tom, jak budeme vyhodnocovat příspěvky (nebo dokonce věci, které najdeme) a odeslat je vlastní cestou, podívejte se na tento odkaz zde. Pokud si nejste jisti, zda bylo něco vyrobeno z generativní umělé inteligence, nebo jen obyčejný laciný padělek, přesto to pošlete a my se na to podíváme.

💬 Zanechte komentář pod tímto článkem.

WIRED Čte

Chcete více? Přihlaste se k odběru pro neomezený přístup k WIRED.

Co dalšího čteme

🔗 TikTok říká, že odstranil vlivovou kampaň pocházející z Číny: Společnost TikTok minulý týden uvedla, že na svých platformách odstranila tisíce účtů spojených s 15 kampaněmi čínského vlivu. (The Washington Post)

🔗 Ramaswamy naléhá na BuzzFeed, aby zrušil pracovní místa, vysílal konzervativnější hlasy: Vivek Ramaswamy, bývalý republikánský prezidentský kandidát, je nyní aktivistickým investorem v BuzzFeed. Chce, aby se publikace dvořila konzervativním čtenářům a řekla, že ve svých zprávách o Donaldu Trumpovi a Covidovi mimo jiné „lhala“. (Bloomberg)

🔗 OpenAI vytváří dozorčí radu se Samem Altmanem po rozpuštění bezpečnostního týmu: Nová rada vydá doporučení týkající se bezpečnosti a zabezpečení a bude mít 90 dní na „další rozvoj procesů a zabezpečení OpenAI“, uvádí blog společnosti. (Bloomberg)

The Download

Poslední věc! Tento týden jsem na podcastu mluvil s naší redaktorkou a hostitelkou Leah Feiger o volebním projektu AI. Poslechněte si to!

Kromě povídání o novém projektu (můžete říct, že jsem nadšený?) se ke mně a Leah připojil Nilesh Christopher, který informoval o roli deepfakes v indických volbách pro WIRED. Největší závěr: Indické volby se brzy chýlí ke konci a mnoho rozvíjejících se generativních společností AI v zemi hledá nové trhy, které by mohly mít zájem o jejich nástroje – možná se dokonce blíží k volbám ve vašem okolí.

To je pro dnešek vše. Ještě jednou děkuji za přihlášení k odběru. Můžete mě kontaktovat prostřednictvím e-mailu a X.

Zdrojový obrázek: Getty Images







Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com