Jádra jako v GPU to asi být nemají, pokud mají zvládat 8 instrukcí za takt a mít 192 Kb L1 a kdo vá kolik L2 cache. Pořád mi to přijde jako pohádka. A tunel na prachy.
Odkdy se výpočetní výkon udává ve spotřebě? Když už tak mělo být nápsáno "o příkonu" ideálně rovnou "o elektrickém příkonu". Ani ten výkon by pak tolik nevadil. Začínám o odbornosti místních redaktorů pochybovat.
Jedna věc mne zajímá, proč tu kapacitu neudávají jako 15 Ah? Proč tam musí být tři nuly a "mili" navíc. Nebo by lidi nevěděli, kolik to je? Pak to asi nebude pro ně...
Vše to bude otázka SW na kterém testovali. U velkých instalací se stejne jako u superpočítačů dělá SW na míru. Superpočítače se testují už desítky let linpackem, ale ale AI servery se testují čím?
Když už si Pan Amerika myslí, že Čínu porazí sankcemi, já jim to přeju. Zbytek světa tedy dostane, co chtěl, na Číně jsme nevydělali, ale ona vydělává na nás. Je to v pořádku. ..
"Pokud jde ale o výkonné modely se Zen 6, tam se prozatím zmiňuje maximum 96 jader, což je zvláštní, uvážíme-li, že Zen 5 je i ve 128jádrových variantách."
Nic zvláštního na tom není. ZEN 6c mají dosahovat tak vysokých taktů, že při tom počtu jader už by mezi ZEN 6 a ZEN 6c nebyl rozdíl. Ovšem zabírají menší plochu a to u serverového CPU rozhoduje.
"Spíše než to, jak je nová generace dobrá, to ale ukazuje to, jak byla ta předchozí špatná." Architektura x86 se datuje od roku 1978, kdy byl uveden i8086 a na dlouho kompletní byla od uvedení koprocesoru i8087 v roce 1980. To je opravdu hodně velký náskok, který konkurence dohání. Řekl bych, že jim to jde slušně.
To se týká jen aplikací, kde je důležitý jenovláknový výkon, ale určitě ne tam, kde jde o zátěž všech jader. Tam je typicky níž, někde mezi základním a boost taktem. Navíc navýšená cache se netýká jen her i některé aplikace z ní můžou těžit, taky proto se větší cache objevila nejdřív u serverových EPYC a obecně u serverových procesorů už v historii (u Intelu u Pentia Pro a poté u Xeonů PII a PIII).
To je komplikovanější. Udělal někdy v posledních letech test CPU, kde by spotřeba byla zamčena na ten samotný základ? Já ho neviděl. Pokud si dobře pamatuji, Turbo kdysi opravdu bylo omezeno na několik vteřin. A co se pak stalo? Lidé píšící benchmarky to zjistili a dobu zátěže prodloužili a začal dnes známý proces. Procesor většinou běží v iddle něbo lehčí zátěži. Mimo skutečnou práci - kompilace, komprimace, zpracování videa nebo vědecké výpočty, či u domácích uživatelů ve hře, je 100 % zátěž dost neobvyklá. Vlastně ani u těch her není běžná. Co mi ale přijde vtipné je ukazovat efektivitu mimo optimální pásmo v režimu, kde vlastně CPU většinou neběží. Ale jak měřit efektivitu v částečné zátěži? Není to tak jednoduché.
Co se klidové spotřeby týká. Jde i chiplet proti monolitu, to hraje roli, možná že Intel má klidové takty ještě o něco níž, to nevím. U teploty taky žádná záhada, tady hraje roli malá procha chipletů AMD. Takže nikde nic divné.
Možná by neškodilo napsat, že Telum jsou procesory do TOP mainframů, jaké kupují velké banky, firmy nebo letiště. S obrovskou robustností a schopností za běhu nejen hot-swap výměny dílů ale i upgradu za běhu, schopné bez restartu běžet 10 let a víc.
Ty "speciální" verze jednoduše vychází z profesionálních grafik. AMD Radeony Pro w7800 a w7900 mají taky 32 a 48 GB. Navíc u Nvidie už bych se nedivil ničemu. Prachy nikdy nesmrdí asi.