Jedinou výjimkou je UMG v. Antropický protože přinejmenším na začátku starší verze Anthropic generovaly texty písní ve výstupu. To je problém. Současný stav toho případu je takový, že zavedli ochranná opatření, aby se tomu pokusili zabránit, a strany se tak nějak dohodly, že do vyřešení případu jsou tato ochranná opatření dostatečná, takže už nehledají předběžné opatření.
Těžší otázka pro společnosti AI nakonec není je legální účastnit se školení? Jeho co děláte, když vaše umělá inteligence generuje výstup, který je příliš podobný konkrétnímu dílu?
Očekáváte, že většina těchto případů půjde před soud, nebo vidíte na obzoru vyrovnání?
Mohou tam být nějaké osady. Očekávám, že osady uvidím u velkých hráčů, kteří mají buď velké množství obsahu, nebo obsah, který je obzvlášť cenný. The New York Times by mohly skončit urovnáním a licenční dohodou, možná tam, kde OpenAI platí peníze za používání obsahu New York Times.
V sázce je dost peněz, že se pravděpodobně dočkáme alespoň nějakých rozsudků, které nastaví parametry. Soudní žalobci, mám pocit, že mají hvězdy v očích. Existuje mnoho skupinových žalob a můj odhad je, že obžalovaní se jim budou bránit a doufat, že vyhrají ve zkráceném rozsudku. Není zřejmé, že jdou před soud. Nejvyšší soud v Google v. Oracle případ velmi silně šťouchl do zákona o fair-use, aby byl vyřešen na základě souhrnného rozsudku, nikoli před porotou. Myslím, že společnosti s umělou inteligencí se budou velmi snažit, aby se o těchto případech rozhodlo na základě souhrnného rozsudku.
Proč by pro ně bylo lepší vyhrát v souhrnném rozsudku oproti verdiktu poroty?
Je to rychlejší a levnější než jít na soud. A společnosti s umělou inteligencí se obávají, že nebudou považovány za populární, že si mnoho lidí bude myslet, Oh, udělal jsi kopii díla, které by mělo být nelegální a nehrabat se v detailech doktríny fair-use.
Mezi společnostmi zabývajícími se umělou inteligencí a médii, poskytovateli obsahu a dalšími držiteli práv došlo k mnoha dohodám. Většinu času se zdá, že tyto nabídky jsou více o vyhledávání než o základních modelech, nebo alespoň tak mi to bylo popsáno. Je podle vás licenční obsah pro použití ve vyhledávačích AI – kde odpovědi získává rozšířená generace nebo RAG – něco, co je ze zákona povinné? Proč to dělají tímto způsobem?
Používáte-li rozšířené generování načítání u cíleného a konkrétního obsahu, pak bude váš argument o spravedlivém použití náročnější. Je mnohem pravděpodobnější, že vyhledávání generované umělou inteligencí bude generovat text převzatý přímo z jednoho konkrétního zdroje ve výstupu, a to je mnohem méně pravděpodobné, že to bude spravedlivé použití. Chci říct, to mohl být – ale rizikovou oblastí je, že je mnohem pravděpodobnější, že bude konkurovat původnímu zdrojovému materiálu. Pokud místo toho, abych lidi nasměroval na příběh New York Times, dám jim výzvu AI, která používá RAG k vyjmutí textu přímo z příběhu New York Times, vypadá to jako náhrada, která by mohla poškodit New York Times. Právní riziko je pro společnost AI větší.
Co chcete, aby lidé věděli o generativních bojích o autorská práva AI, o kterých možná ještě nevěděli, nebo o nich mohli být špatně informováni?
Věc, kterou slyším nejčastěji, že je z technického hlediska špatná, je koncept, že se jedná pouze o stroje na plagiáty. Všechno, co dělají, je, že vezmou moje věci a pak je vymílají zpět ve formě textu a odpovědí. Slyšel jsem, že to říká hodně umělců a slyším to říkat hodně laiků, a jako technická záležitost to prostě není správné. Můžete se rozhodnout, zda je generativní AI dobrá nebo špatná. Můžete se rozhodnout, zda je to zákonné nebo nezákonné. Ale je to skutečně zásadně nová věc, kterou jsme ještě nezažili. To, že je potřeba trénovat na hromadě obsahu, aby pochopilo, jak fungují věty, jak fungují argumenty a porozumělo různým faktům o světě, neznamená, že je to jen takové kopírování a vkládání věcí nebo vytváření koláže. Opravdu generuje věci, které nikdo nemohl očekávat nebo předvídat, a dává nám to spoustu nového obsahu. Myslím, že je to důležité a cenné.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com