Snižte halucinace AI s tímto elegantním softwarovým trikem







Pro začátek, ne všechny RAG jsou stejného kalibru. Přesnost obsahu ve vlastní databázi je rozhodující pro solidní výstupy, ale to není jediná proměnná. „Nejde jen o kvalitu samotného obsahu,“ říká Joel Hron, globální šéf AI ve společnosti Thomson Reuters. „Je to kvalita vyhledávání a načtení správného obsahu na základě otázky.“ Zvládnutí každého kroku v procesu je kritické, protože jeden chybný krok může model zcela vyhodit.

„Každý právník, který se někdy pokusil použít vyhledávání v přirozeném jazyce v rámci jednoho z výzkumných nástrojů, uvidí, že často existují případy, kdy vás sémantická podobnost vede ke zcela irelevantním materiálům,“ říká Daniel Ho, profesor ze Stanfordu a vedoucí pracovník institutu pro Umělá inteligence zaměřená na člověka. Hoův výzkum právních nástrojů AI, které se spoléhají na RAG, zjistil vyšší míru chyb ve výstupech než společnosti vytvářející nalezené modely.

Což nás přivádí k nejožehavější otázce v diskusi: jak definujete halucinace v rámci implementace RAG? Je to pouze tehdy, když chatbot generuje výstup bez citací a tvoří informace? Je to také případ, kdy nástroj může přehlédnout relevantní data nebo nesprávně interpretovat aspekty citace?

Podle Lewise se halucinace v systému RAG scvrkají na to, zda je výstup konzistentní s tím, co model našel během získávání dat. Stanfordský výzkum nástrojů umělé inteligence pro právníky však tuto definici trochu rozšiřuje tím, že zkoumá, zda je výstup založen na poskytnutých datech a zda je fakticky správný – vysoká laťka pro právní profesionály, kteří často analyzují komplikované případy a pohybují se ve složitých hierarchiích. precedentu.

I když systém RAG naladěný na právní otázky je zjevně lepší v odpovídání na otázky týkající se judikatury než ChatGPT od OpenAI nebo Gemini od Googlu, stále může přehlédnout jemnější detaily a dělat náhodné chyby. Všichni odborníci na umělou inteligenci, se kterými jsem mluvil, zdůrazňovali trvalou potřebu promyšlené lidské interakce v průběhu celého procesu, aby bylo možné zkontrolovat citace a ověřit celkovou přesnost výsledků.

Právo je oblastí, kde je kolem nástrojů umělé inteligence založených na RAG mnoho aktivit, ale potenciál procesu není omezen na jedinou, bílou límeček. „Vezmi si jakoukoli profesi nebo podnikání. Potřebujete získat odpovědi, které jsou zakotveny ve skutečných dokumentech,“ říká Arredondo. „Takže si myslím, že RAG se stane základem, který se používá v podstatě ve všech profesionálních aplikacích, alespoň v blízkém až střednědobém horizontu.“ Vedoucí pracovníci, kteří se vyhýbají riziku, se zdají být nadšeni vyhlídkou na použití nástrojů umělé inteligence k lepšímu porozumění jejich proprietárním datům, aniž by museli nahrávat citlivé informace do standardního veřejného chatbota.

Je však důležité, aby uživatelé pochopili omezení těchto nástrojů a aby se společnosti zaměřené na umělou inteligenci zdržely přílišného slibování přesnosti svých odpovědí. Každý, kdo používá nástroj AI, by se přesto měl vyvarovat úplnému důvěřování výstupu a měl by k jeho odpovědím přistupovat se zdravým pocitem skepticismu, i když je odpověď vylepšena pomocí RAG.

„Halucinace tu zůstanou,“ říká Ho. „Zatím nemáme připravené způsoby, jak skutečně odstranit halucinace.“ I když RAG snižuje výskyt chyb, lidský úsudek je rozhodující. A to není lež.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com