Tento model AI se nikdy nepřestane učit







Moderní velký jazyk Modely (LLMS) mohou psát krásné sonety a elegantní kód, ale postrádají i základní schopnost poučit se ze zkušenosti.

Vědci na Massachusetts Institute of Technology (MIT) nyní vymysleli způsob, jak se LLMS neustále zlepšovat vyladění svých vlastních parametrů v reakci na užitečné nové informace.

Práce je krokem k budování modelů umělé inteligence, které se neustále učí-dlouhodobý cíl pole a něco, co bude zásadní, pokud mají stroje stále věrně napodobují lidskou inteligenci. Mezitím nám může poskytnout chatboty a další nástroje AI, které jsou schopny lépe začlenit nové informace včetně zájmů a preferencí uživatele.

Schéma MIT, nazývané modely jazykových adaptovacích jazyků (SEAL), zahrnuje, že se LLM naučí generovat vlastní data syntetického tréninku a aktualizovat postup na základě vstupu, který přijímá.

„Původní myšlenkou bylo prozkoumat, zda tokeny.“ [units of text fed to LLMs and generated by them] Mohlo by to způsobit silnou aktualizaci modelu, “říká Jyothish Pari, student PhD na MIT, který se podílí na vývoji Seal. Pari říká, že myšlenkou bylo zjistit, zda by výstup modelu mohl být použit k jeho tréninku.

Adam Zweiger, vysokoškolský výzkumný pracovník MIT zapojený do budování Seal, dodává, že ačkoli novější modely mohou „uvažovat“ k lepšímu řešení tím, že provádí složitější inference, samotný model z tohoto zdůvodnění z dlouhodobého hlediska nemá prospěch.

Naproti tomu těsnění generuje nové poznatky a poté je složí do vlastních hmotností nebo parametrů. Například vzhledem k prohlášení o výzvách, kterým čelí vesmírný program Apollo, model generoval nové pasáže, které se snaží popsat důsledky prohlášení. Vědci to porovnali s tím, jak lidský student píše a kontroluje poznámky, aby pomohl jejich učení.

Systém poté model aktualizoval pomocí těchto dat a testoval, jak dobře je nový model schopen odpovědět na sadu otázek. A konečně to poskytuje signál učení, který pomáhá vést model k aktualizacím, které zlepšují jeho celkové schopnosti a které mu pomáhají pokračovat v učení.

Vědci testovali svůj přístup na malých a středních verzích dvou modelů s otevřeným zdrojovým kódem, Meta’s Llama a Alibaba’s QWEN. Říká se, že přístup by měl pracovat i pro mnohem větší hraniční modely.

Vědci testovali přístup těsnění na textu a měřítko zvaný ARC, který měří schopnost modelu AI řešit abstraktní problémy s uvažováním. V obou případech viděli, že SEAL umožnila modelům pokračovat v učení daleko za jejich počáteční trénink.

Pulkit Agrawal, profesor na MIT, který dohlížel na práci, říká, že projekt SEAL se dotýká důležitých témat v AI, včetně toho, jak přimět AI, aby si zjistila, co by se měla pokusit naučit. Říká, že by to mohlo být použito k tomu, aby se modely AI více přizpůsobily. „LLM jsou mocné, ale nechceme, aby se jejich znalosti zastavily,“ říká.

Těsnění ještě není způsob, jak se AI zlepšit donekonečna. Jednak, jak poznamenává Agrawal, testované LLMS trpí tím, co se nazývá „katastrofické zapomínání“, což je znepokojivý účinek, který je vidět při požití nových informací, což způsobuje, že starší znalosti jednoduše zmizí. To může poukazovat na základní rozdíl mezi umělými neuronovými sítěmi a biologickými sítěmi. Pari a Zweigler si také poznamenávají, že SEAL je výpočetně intenzivní a zatím není jasné, jak nejlépe nejúčinněji naplánovat nová období učení. Jeden zábavný nápad, zmiňuje Zweigler, je, že stejně jako lidé by možná LLMS mohl zažít období „spánku“, kde jsou nové informace konsolidovány.

Přesto je pro všechna svá omezení SEAL vzrušující novou cestou pro další výzkum AI – a může to být něco, co se dostane do budoucích modelů Frontier AI.

Co si myslíte o AI, která je schopna pokračovat v učení? Zašlete e -mail na hello@wired.com a dejte mi vědět.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

Holky na privát z celé ČR najdete na NaPrivat.net Recenze na sexuální služby v ČR - Noření.cz