Žaloba proti zmatenosti vyvolává halucinace falešných zpráv







Perplexity nereagovala na žádosti o komentář.

V prohlášení zaslaném e-mailem na WIRED, výkonný ředitel News Corp Robert Thomson přirovnal Perplexity nepříznivě k OpenAI. „Tleskáme zásadovým společnostem, jako je OpenAI, které chápou, že integrita a kreativita jsou nezbytné, pokud chceme realizovat potenciál umělé inteligence,“ stojí v prohlášení. „Perplexity není jedinou společností zabývající se umělou inteligencí, která zneužívá duševní vlastnictví, a není jedinou společností s umělou inteligencí, které se budeme s vervou a důsledností věnovat. Dali jsme jasně najevo, že bychom si raději namlouvali než žalovali, ale v zájmu našich novinářů, našich spisovatelů a naší společnosti musíme zpochybnit obsahovou kleptokracii.“

OpenAI však čelí vlastním obviněním z ředění ochranné známky. V New York Times v. OpenAITimes tvrdí, že ChatGPT a Bing Chat připisují Timesům vymyšlené citace, a obviňují OpenAI a Microsoft z poškození jejich reputace ředěním ochranných známek. V jednom příkladu citovaném v žalobě Times tvrdí, že Bing Chat tvrdil, že Times nazval červené víno (s mírou) „srdci zdravým“ jídlem, i když ve skutečnosti tomu tak nebylo; The Times tvrdí, že jejich skutečné zpravodajství vyvrátilo tvrzení o prospěšnosti střídmého pití.

„Kopírování zpravodajských článků za účelem provozování substitučních, komerčních generativních produktů umělé inteligence je nezákonné, jak jsme jasně uvedli v našich dopisech společnosti Perplexity a v našich soudních sporech proti Microsoft a OpenAI,“ říká ředitel externí komunikace NYT Charlie Stadtlander. „Tleskáme této žalobě společnosti Dow Jones a New York Post, což je důležitý krok k zajištění ochrany obsahu vydavatelů před tímto druhem zpronevěry.“

Pokud vydavatelé zvítězí v argumentu, že halucinace mohou porušovat zákon o ochranných známkách, mohou společnosti AI čelit „obrovským potížím“ podle Matthewa Saga, profesora práva a umělé inteligence na Emory University.

„Je absolutně nemožné zaručit, že jazykový model nebude halucinovat,“ říká Sag. Podle jeho názoru je způsob, jakým fungují jazykové modely předpovídáním slov, která znějí správně v reakci na výzvy, vždy typem halucinace – někdy to prostě zní věrohodněji než ostatní.

„Halucinací tomu říkáme pouze tehdy, když to neodpovídá naší realitě, ale proces je naprosto stejný, ať už se nám výstup líbí nebo ne.“





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com