Pro nVidiu určitě ano - já například právě kvůli CUDA a složitosti konfigurace (v přepočtu na čas = peníze) raději šel do nVidia - místo Arcu (16GB RAM skoro zadara) nebo AMD - pořád to není úplně ono - podpora např. v Tensorflow atd...Jinak by mě zajímalo, kde autor nabral těch 30 karet Nvidia A100, bo to klidně člověk může trénovat už třeba na RTX 3060 :D
Odpovědět0 0
mam pocit, ze ste to nepochopili.
30 tisic kariet A100 asi potrebuje aktualne znamy a priebezne vyvijajuci sa ChatGPT, ktory asi musi "preluskat" (spracovat) vela dat... a nie nejaku diplomku o neuronke s max milion itemov.
Odpovědět0 0
Tam chybělo to slůvko "tisíc", které jsem před chvíli doplnil. Čímž tímto děkuju za opravu.
Odpovědět0 0
Možná jo, jestli to je automaticky, třeba jednou denně neustále trénováno s novými inputy. To, o čem mluvím je třeba GPT-J s 6B datasetem - šest miliard "itemů" ;-) Každopádně GPT-3 je extrémně neefektivní, těším se co zveřejní Meta... Jasně, neběží to na jedné kartě třeba půl dne, ale trošku víc dnů :D
Odpovědět0 0