V pondělí a zbrusu nový účet Reddit se objevil na široce čteném fóru r/AmItheAsshole, kde uživatelé nechávají své osobní spory rozhodovat cizí lidé. Tento konkrétní uživatel se zeptal, zda překročili hranici tím, že „odmítli hlídat děti mé nevlastní matky, protože mám svou vlastní práci a povinnosti“. Příspěvek sám o sobě byl stručný, přímočarý a gramaticky čistý a vysvětloval situaci, kdy nevlastní matka a otec dotyčné osoby často očekávali, že poskytnou péči o děti v malém předstihu, což nakonec vedlo k hádce.
„Teď je doma napětí a začínám přemýšlet, jestli jsem to nezvládl špatně,“ uzavřel redditor. „Chápu, že výchova dětí je stresující, ale také cítím, že bych neměl být povinen přebírat tuto odpovědnost, když to není moje role.“ Odpovědi tohoto jednotlivce byly z velké části podpůrné: děti nebyly jejich, aby se o ně starali, odpovědělo mnoho lidí a odstěhovat se z domu by bylo nejlepší řešení.
Ale podle softwaru pro detekci umělé inteligence vyvinutého společností Pangram Labs – který uvádí míru přesnosti 99,98 procenta a míru falešné pozitivity pouze jeden z 10 000 – byl původní příběh rodinných neshod vygenerován umělou inteligencí.
Viděl jsem, že je to označeno jako obsah AI při posouvání stránky díky nejnovější verzi rozšíření Pangram pro Chrome, která se tento týden představí veřejnosti; na placené úrovni 20 $ měsíčně tento nástroj v reálném čase skenuje příspěvky na sociálních sítích včetně Reddit, X, LinkedIn, Medium a Substack a označí je jako napsané lidmi, vytvořené umělou inteligencí nebo vytvořené s pomocí AI. Analýza také zahrnuje míru důvěry Pangramu v závěr: nízká, střední nebo vysoká.
Výzkumníci zjistili, že umělá inteligence je všude online. Podkopává žurnalistiku i sociální platformy. Text generovaný alespoň částečně umělou inteligencí tvoří více než třetinu všech nových webových stránek od roku 2025, podle studie, kterou tento měsíc zveřejnili vědci ze Stanfordské univerzity, Imperial College of London a Internet Archive. (Výzkumníci použili dřívější nástroje Pangram, aby dospěli ke svým zjištěním.)
Právě tento nepořádek chce Max Spero, generální ředitel společnosti Pangram a samozvaný „uklízeč šmejdů“, pomoci uklidit. Říká WIRED, že přidání okamžité analýzy do firemního rozšíření prohlížeče nabízí lidem hladší způsob kontroly obsahu AI na navštěvovaných webech.
„Poskytováním proaktivních kontrol to může být mnohem užitečnější pro lidi, kteří se obecně starají o to, aby neviděli slop,“ vysvětluje Spero. „Je to velká výzva vložit nějaký text do externího nástroje. Lidé to prostě neudělají.“
Vymyšlené scénáře samozřejmě nejsou nic neobvyklého na subredditech, jako je r/AmItheAsshole, kde je známo, že trollové posílají zásnubní návnadu sestávající z obzvláště absurdních fikcí. Přesto ani náročný čtenář nemusí mít podezření, že relativně nevýrazný příběh, jako je ten, který je popsán výše, může být falešný. (Redditor, který jej sdílel, neodpověděl na žádost o komentář ohledně toho, zda použili AI nebo čeho chtěli dosáhnout pomocí příspěvku, který později smazali.)
Zatímco žádný systém detekce umělé inteligence není dokonalý, Pangram’s je výzkumnými pracovníky třetích stran na několika univerzitách považován za nejkonzistentnější a nejpřesnější; Studie University of Chicago z roku 2025, která auditovala software pro detekci umělé inteligence, dala Pangramu nejvyšší hodnocení a poznamenala, že míra falešně pozitivních výsledků byla téměř nulová, zejména při delších pasážích. Spero říká, že jedním z důvodů, proč překonává konkurenty, je to, že je částečně trénováno na „tvrdších příkladech, které jsou blíže k hranici mezi umělou inteligencí a člověkem“. Při testování na článcích publikovaných v WIRED se mi nepodařilo dosáhnout falešně pozitivního výsledku.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com