GlobalFoundries, společnost, která vyrábí čipy pro ostatní, včetně AMD a General Motors, již dříve oznámila partnerství s Lightmatter. Harris říká, že jeho společnost „spolupracuje s největšími polovodičovými společnostmi na světě a také s hyperscalery“, přičemž odkazuje na největší cloudové společnosti jako Microsoft, Amazon a Google.
Pokud Lightmatter nebo jiná společnost dokáže znovu vynalézt propojení obřích projektů umělé inteligence, klíčová překážka ve vývoji chytřejších algoritmů by mohla odpadnout. Použití většího počtu výpočtů bylo zásadní pro pokroky, které vedly k ChatGPT, a mnoho výzkumníků AI považuje další rozšiřování hardwaru za zásadní pro budoucí pokrok v této oblasti – a pro naděje, že někdy dosáhneme nejasně specifikovaného cíle umělého obecná inteligence neboli AGI, tedy programy, které se mohou ve všech směrech vyrovnat biologické inteligenci nebo ji předčí.
Spojení milionu čipů se světlem by mohlo umožnit algoritmy o několik generací za dnešní špičkou, říká generální ředitel společnosti Lightmatter Nick Harris. „Passage umožní AGI algoritmy,“ sebevědomě navrhuje.
Velká datová centra, která jsou potřebná k trénování obřích algoritmů umělé inteligence, se obvykle skládají ze stojanů naplněných desítkami tisíc počítačů se specializovanými silikonovými čipy a špagetami převážně elektrických spojení mezi nimi. Udržování školení pro umělou inteligenci v tolika systémech – všechny propojené kabely a přepínači – je obrovským inženýrským úkolem. Převod mezi elektronickými a optickými signály také klade zásadní limity na schopnosti čipů provádět výpočty jako jeden.
Přístup Lightmatter je navržen tak, aby zjednodušil složitý provoz uvnitř datových center AI. „Normálně máte spoustu GPU a pak vrstvu přepínačů a vrstvu přepínačů a vrstvu přepínačů a musíte procházet tímto stromem“, abyste mohli komunikovat mezi dvěma GPU, říká Harris. Harris říká, že v datovém centru propojeném Passage by každý GPU měl vysokorychlostní připojení ke každému jinému čipu.
Práce Lightmatter na Passage je příkladem toho, jak nedávný rozkvět AI inspiroval velké i malé společnosti, aby se pokusily znovu objevit klíčový hardware za pokroky, jako je ChatGPT od OpenAI. Nvidia, přední dodavatel GPU pro projekty AI, uspořádala minulý měsíc výroční konferenci, kde generální ředitel Jensen Huang představil nejnovější čip společnosti pro trénink AI: GPU s názvem Blackwell. Nvidia bude GPU prodávat v „superčipu“ sestávajícím ze dvou GPU Blackwell a konvenčního CPU procesoru, všechny propojené pomocí nové vysokorychlostní komunikační technologie společnosti nazvané NVLink-C2C.
Čipový průmysl je známý tím, že nachází způsoby, jak z čipů vyždímat více výpočetního výkonu, aniž by byly větší, ale Nvidia se rozhodla tomuto trendu bránit. GPU Blackwell uvnitř superčipu společnosti jsou dvakrát výkonnější než jejich předchůdci, ale jsou vyrobeny spojením dvou čipů dohromady, což znamená, že spotřebovávají mnohem více energie. Tento kompromis spolu se snahami Nvidie slepit své čipy pomocí vysokorychlostních spojení naznačuje, že upgrady na další klíčové komponenty pro superpočítače s umělou inteligencí, jako je ten, který navrhuje Lightmatter, by se mohly stát důležitějšími.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com