Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od kutil05 (6)
Já tam jasně vidím toto: 2x ALU
ALU, MUL, DIV, CRC
FADD, FMA, INT vec ALU, INT vec MUL, convert
FADD, FMA, INT vec ALU, crypto

https:­/­/i0.wp.com­/chipsandcheese.com­/wp­-content­/uploads­/2021­/10­/neoverse_n1.drawio1.png?ssl=1

A to hodnocení, které jsem jen převzal, najdu taky.
Odpovědět0  0
Na schématech to je vždy jako 4x256 i v materiálech o tom tak Fujitsu píše.
Odpovědět0  0
Až na to že tyto rozdíly se dávno setrřely od chvíle, kdy dekodér mikroinstukcí mají i RISC procesory, tak šup hezky zas do školy. Možná jen to srovnání bych trochu změnil protože je vidět, že ani ARM v serverech neumí totéž co zavedené x86­-64. ARM se ty velké turbodiesely snaží nahradit větším počtem menších. Ale neumí je dobře spojit. To co jim v mobilech při 8 jádrech funguje se v 64. a více jádrech dusí a nedokáže ten teoretický výkon ukázat.
Odpovědět0  0
Když čtu architektonické změny jednotlivých generaci ARM, všímám si jedné věci. Zlepšují dekodéry, predikci ­(to asi všechny CPU obecně­) a někdy přidají ALU. Ale na FPU ­/ vektory sáhnou málokdy. Co se ale zpravida a narozdíl od x86 nebo i Fujitsu či IBM nedočtu, jsou šířky sběrnic, výkony Load­/Store jednotek a reálně se stává, že ten papírový výkon tam je jen za ideálních podmínek, ale v reálu spíš tak napůl. Ta jádra jsou úsporná, protože někde na něčem šetří a už dávno ten rozdíl v dekodérech, kterým se rádi ohání příznivci ARM ohání není tak důležitý ­- třeba 8 dekodérů ARM proti 4 u x86, nevím, o kolik může těch osm být jednodušších, aby zabraly méně tranzistorů... ARM jádro pro telefon a ARM jádro superpočítače není totéž a jeho okolí ­- cache, sběrnice a RAM už vůbec ne, to je jiný svět. Procesor aby to široké jádro využil optimálně musí takříkajíc volně dýchat, jinak se dusí a plný výkon dá jen chvilkama. A právě to rozbor Altry jasně ukázal. Na papíře by pomocí ALU Fujstsu A64FX s jeho 48 jádry na 2 GHz měla altra 64 jader na 3 GHz roztrhat. Ale v reálu se to nestane, protože A64FX má na jádro 4x256 bit vektory a tomu uzpůsobenou komunikaci po sběrnici. Altra jen 2x128 bit.
Odpovědět0  0
Prostě ARM i x86­-64 jsou doma někde jinde a z toho důvodu moc nejde je přímo porovnávat. Za stejných podmínek tedy tentýž ale optimalizovaný a překompilovaný SW na míru a při stejné porci energie už by něco srovnat šlo. Ale ne jiné světy. To je jako srovnávat kamion a závodní auto jen proto, že mají stejných 500 koní výkonu. Ale reálně ho podají úplně jinak. Kamion není tak rychlý, ale utáhne desítky tun nákladu. A tady to je stejné.
Odpovědět2  0
"Taková AMD zvedla TDP z 125W ­­(Zen 3­­) na pěkných 170W ­­(Zen 4­­). Jo to je úplnej vzor úspornosti :D­" Bylo by taky fajn porovnat to s nárůstem výkonu. Jinak mlátíš prázdnou slámu.

AMD Ryzen™ 9 7950X­-16 ­/ 32­-Up to 5.7GHz­/4.5GHz­-170W­-DDR5­-5.2GHz­(6.0GHz­)
AMD Ryzen™ 9 5950X­-16 ­/ 32­-Up to 4.9GHz­/3.4GHz­-105W­-DDR4­-3.2GHz

už jen na pouhých základních taktech 1,32x větší MT výkon ­- na ST díky turbu 1,163x a propustnost 1,625x ­(5,2 GHz­) nebo 1,875x. To jsou solidní nárůsty. Reálně v tom není započítané IPC nebo AVX512.
Odpovědět0  0
Hezké srovnávat ALU jednotky a takty. Jenže v CPU jsou i FPU ­/ vektorové jednotky a v těch má ZEN4 těžce navrch + takty které žádný ARM ještě neměl. ARM je efektivní, má­-li vyladěný SW. Ale to je vše. Četl jsem celé obsáhlé recenze Aplere Altra, což jsou ARM Neoverse N1 ­- tedy 5 ALU na jádro, jenže pouze 2x 128 bit vektory a zabili to malou L3 která má pro 64 a 80 Q verze 32 MB tedy 0,5 a 0,4 MB na jádro a pro M 96 a 128 jader pouze 16 MB tedy 0,1666 a 0,125 na jádro. Cože je komické, když obě varianty mají 2 MB L2 na jádro tedy víc než kolik vychází L3. A to ten výkon zabilo. Kde se víc počítá a méně přenáší data, umí to ZEN 2 EPYC 64 jader porazit. Pokud ale jsou třeba datové toky, je to přesně naopak. Ta architektura ja tak na 32 jader na taktu řekneme 3,5 GHz, tam by to výkon mělo lepší a využitelný. Ale 32 jádrová varianta ­(je na tom nejlíp z hlediska L3 i RAM­) má jediné provedení 1,7 GHz. Procesor k doplnění ceníku asi, jinak nanic. Celý potenciál promrhali blbě organizovanou cache. A 96 a 128 jádrové verze úplně postrádají smysl. Ten výkon je použitelný jen na cloud, ale na HTPC se nehodí, tam doslova jádra navíc překáží.
Odpovědět0  0
A co se týká těch M3 už ten základ je vycucaný z prstu, zatím nikdo mimo Apple, neví, jaký bude mít výkon a ten zbytek automaticky počítá se stejnými takty a 100 % škálování, což se nikdy neděje a vícejádrové CPU ani nemají stejné takty, pokud mají třeba 4x a víc jader. Takže možná tak vlhký sen.
Odpovědět0  0
Rozbor toho výkonu jsem četl a víceméně u té grafiky odpovídá nárůstu počtu jednotek. U CPU nikdo neví, protože Apple podrobnější popis jádra neuveřejnilo. A ten RT není moc s čím srovnat, napsali jen, že doposud u Apple jel RT na shaderech a nyní má své jednotky a měl by být 4x rychlejší. Ale co vím, nikdo jiný RT na telefonech nemá, takže moc není s čím srovnávat.
Z logiky věci herní grafiky jsou násobně efektivnější než CPU a přotom si berou desítky a stovky Wattů, takže telefon nemůže být výkonnější než desktop i než NTB běžné konstrukce, nemá na to dost energie, ani by se neuchladil.
Odpovědět1  0
Jsou různé kategorie úsporných CPU. Úsporný procesor znamená něco jiné v mobilu, desktopu či serveru. V desktopu je důležitý jednovláknový výkon do 8 až 16 jader což je hi­-end, v serveru je dnes 16 jader low­-end. A od toho se odvíjí odlišné takty a porce energie na jádro.
Odpovědět0  0
To je pravda, šířku jádra a další věci z toho popisu vyčíst nejde. Já to uvedl hlavně proto, aby bylo vidět a upřímně jsem byl sám překvapený, kolik variant jde licencovat. Ta šíře záběru je veliká. A tím víc mne mrzí, jak pomalu se rozšiřuje. A tou podobností či snadností myslím to, že je určitě jednodušší přepsat kód z ARM než z x86­-64.
Odpovědět0  0
Berkley RISC architektur vzniklo celkem kolem 20. O většině z nich lidi od počítačů vesměs nikdy ani neslyšeli. Co se týká ARMu ano je starší ale v té době se objevily další i z rodiny Berkley a rychle se z nich staly výkonné architektury, což pro ARM neplatilo. RISC­-V nemá k dispozici tolik financí, to je jasné, ale zase vstoupla do světa rovnou už jako modernější a se zkušenostmi z návrhu předešlých. Tím že je tedy ARM dost podobná, by portace neměla být větší problém.

Z existujícich jader k licenci:
Andes Technology Corporation nabízí několik různých sérií jader s volitelným rozšířením instrukční sady, včetně možností pro návrh vícejádrových systémů:
Série N­(X­) zahrnuje jak 32bitová jádra ­(N­), tak i 64bitová ­(NX­). Délka pipeline ­(zřetězené linky­) je různá, od dvoustupňové u jádra N22 až po osmistupňovou u N45. Jádro NX27V podporuje vektorové rozšíření RISC­-V neboli sadu “V”.
Série D­(X­) nabízí jádra s instrukční sadou “P”, která podporuje operace SIMD, a na výběr jsou opět jádra 32bitová ­(D­) i 64bitová ­(DX­).
Série A­(X­) se zaměřuje na aplikační procesorová jádra s podporou Linuxu a délkou pipeline od pěti do osmi stupňů. Dále nabízí podporu operací s plovoucí desetinnou čárkou a jednotku pro správu paměti ­(MMU­).

Původem česká společnost Codasip s.r.o. ­(dnes součást skupiny Codasip GmbH­) v lednu 2016 uvedla na trh historicky první komerční jádro založené na RISC­-V ­(Codix­) a dnes má v nabídce několik sérií vestavěných i aplikačních procesorových jader RISC­-V. Jádra od Codasipu jsou navržena v proprietárním jazyce CodAL a firma je vyvíjí s pomocí patentované technologie a vlastního návrhového nástroje zvaného Codasip Studio.
Série L nabízí minimalistická 32bitová jádra s nízkou spotřebou, pipeline o délce tří nebo pěti stupňů a volitelným rozšířením pro operace s plovoucí desetinnou čárkou.
Série H nabízí 64bitová vestavěná jádra s vysokým výkonem. Volitelně je opět k dispozici rozšiřující sada pro operace s desetinnou čárkou.
Série A obsahuje 64bitová jádra, která podporují Linux a lze je rozšířit o instrukční sadu “P”. Jádra mají sedmistupňovou pipeline, podporu operací s desetinnou čárkou ­(FPU­) a správu paměti ­(MMU­). Verze jader rodiny A s příponou ­-MP navíc obsahují cache ­(vyrovnávací paměti­) L1 a L2 a nabízejí podporu pro vícejádrový systém o maximálním počtu čtyř jader.
Jádro uRISC­-V, které je součástí nástroje Codasip Studio, slouží ke vzdělávacím a výukovým účelům.

Společnost SiFive začala prodávat v květnu 2017 jednodeskový počítač kompatibilní s Arduinem a postavený na RISC­-V procesoru Freedom E310. Táž společnost oznámila v říjnu 2017 dokončení návrhu čtyřjádrového 64bitového procesoru U54­-MC Coreplex, který je navržen pro taktovací kmitočet 1,5 GHz a na kterém bude možné spustit plnohodnotný desktopový operační systém, například Linux. V únoru 2018 tato společnost spustila prodej jednodeskového počítače HI­-Five Unleashed. Společnost SiFive momentálně nabízí tři hlavní řady produktů:
Série E zahrnuje 32bitová vestavěná jádra s dvou­- až osmistupňovou pipeline. Nejpokročilejší z této série je čtyřjádrový procesor E76­-MC.
Série S zahrnuje 64bitová vestavěná jádra s dvou­- až osmistupňovou pipeline. Nejpokročilejší z této série je S76­-MC.
Série U představuje nabídku 64bitových aplikačních jader o délce pipeline 5–12 stupňů. Varianty U54 a U74 jsou k dispozici ve vícejádrové verzi. Superskalární jádro U84 nabízí nejvyšší výkon z této série.
Intelligence X280 je aplikační jádro odvozené ze série U, které navíc podporuje vektorové rozšíření „V“.

Otevřená jádra RISC­-V
Kalifornská univerzita v Berkeley vyvinula řadu procesorových jader RISC­-V s využitím jazyka Chisel:
64bitové jádro Rocket vhodné pro kompaktní zařízení s nízkou spotřebou, jako je přenosná osobní elektronika.
64bitové superskalární jádro Berkeley Out of Order Machine ­(BOOM­) s instrukční sadou RV64GC, určené jak pro osobní počítače, tak i pro superpočítače a databázové servery.
Pět návrhů 32bitového procesoru Sodor, které slouží primárně pro studentské projekty.
PULPino ­(Riscy a Zero­-Riscy­), projekt Spolkové vysoké technické školy v Curychu ­/ Boloňské univerzity. Jádra PULPino implementují jednoduchou instrukční sadu RV32IMC pro mikrokontroléry ­(Zero­-Riscy­) nebo výkonnější sadu RV32IMFC s rozšířením pro zpracování digitálního signálu ­(DSP­).

Společnost Western Digital vyvinula několik vlastních RISC­-V jader pod názvem SweRV Cores a poskytla je volně pod otevřenou licencí prostřednictvím CHIPS Alliance. Komerční podporu těchto jader poskytuje ve spolupráci s Codasipem. Jádra SweRV cílí na výkonné vestavěné systémy a implementují základní sadu RV32IMC:
SweRV Core EH1 je dvouvláknové superskalární jádro s devítistupňovou pipeline.
SweRV Core EH2 je superskalární jádro se dvěma hardwarovými vlákny a devítistupňovou pipeline.
SweRV Core EL2 je minimalistické jednovláknové jádro se čtyřstupňovou pipeline.

Na výběr tedy je. Osobně bych zrovna této architektuře úspěch přál. Ale zatím to je slabota, na to kolik variant vlastně existuje.
Odpovědět0  0
Děkuji až tak hluboko do tajů nových CPU nevidím, ale už z názvu je jasné, k čemu je. Zrovna toto u odlišných architektur moc srovnávat nejde.
Odpovědět0  0
Ale zajímalo by mne ještě jedno, marně zjišťuji, co je míněno ROB
Odpovědět0  0
Patrně jen tapetuje bezduše informace a nepočítá. A když počítá, tak jen to co vyznívá z jeho hlediska dobře.
Odpovědět1  0
Protože tam, kde nestačí argumenty, si někteří ohýbají realitu.
Odpovědět1  0
RISC­-V je otevřenější, ale tím pádem taky chybí dobré návrhy jader. Ani tu práci na ISA nikdo zadarmo neudělá. Jen ISA nestačí a jádra RISC­-V v opravdu výkonné variantě prostě nejsou. A to nezmiňuji Open­-RISC, o kterém ani většina vůbec neví.
Odpovědět0  0
Potom ale nechápu, jak je možné, že ve srovnání CPU výkonu M2 ultra dosahuje jen na AMD 5950X. Něco tady nesedí.
Odpovědět1  0
Nebudu druhým říkat, co mají dělat. Pokud se mne přímo nezeptají, nebo mne neomezují či neohrožují... To na okraj. Kačdý má jiné priority. Někomu stačím malé rozlišení, ale trvá na max detailech. A pro takové moc vhodných grafik není, aby měly i rezervu do budoucna. A měnit grafiku i obgenereci je při nárůstech výkonu u posledních generací dikutabilní. Ale větší paměť by mohla být argument.
Odpovědět0  0
To je fakt. Já pamatuji na doby kdy fandové kombinace Intel ­/ Nvidia, si museli vyloženě vymýšlet ­(v případě Intelu­) proč je jejich P4 lepší A­-XP. A jeden z argumentů, který ale víc vypovídal o jejich nešikovnosti byly ulomené rožky. Některé z nich vydržely i v době Athlonů 64, kdy už fakt dávno neplatily. Někdo prostě přijímal jen novinky u Intelu a konkurenci komplet ignoroval. V dnešní době toto až na naprosté vyjímky už naštěstí vymizelo.

Když budu upřímný jakékoliv fičury ala DSLL mne nezajímají stejně jako RT. A co se spotřeby týká, hraju tak málo, že mi vrásky nedělá a v desktopu je srovnatelná. Spíš mne zajímá, jak dlouho mi můžou komponenty sloužit a tady se projeví velikost paměti a s tou Nvidia šetří.
Odpovědět0  0
Velice jednoduše. Tím že CPU a GPU spolupracují dosahují větší efektivity a kód na superpočítačích je dost dobře optimalizovaný. Ti programátoři nejsou tupci a ví, co má která část supercomputeru zpracovávat. Ostatně, kdyby byl přístupu Fujitsu tak výhodný, proč by byl přístup kombinací CPU­/GPU v tomto segmentu tak rozšířený? Kromě toho jsem si jistý, že vědecké masivně paralelní výpočty jsou velmi vzdáleny běžné domácí zátěži i tomu, co běží na pracovních stanicích nebo serverech.
Odpovědět0  0
Taky proto klasické kompresní algoritmy nikdo na GPU nespouští. Možná by patřičně upravit ten kód šel, ale nikdo to nedělá. Obecně jsou algoritmy, které jdou dobře paralelizovat a současně nemusí vyhodnocovat moc podmínek. Případně prostě jen hrubou silou zpracovávají kvanta dat a proti tomu jsou takové, kterým lépe sedí víc klasických procesorových jader. Proto superpočítače kombinují CPU a GPU. Ještě lépe na tom budou APU varianty MI300, kdy v jedné patici jsou tři chiplety akcelerátoru a jeden s 24. CPU jádry ZEN4.
Odpovědět0  0
To šetření na paměti jsem taky úplně nepochopil.
Odpovědět0  0
Celkem by mne zajímal, pokud by to bylo opačně, zda by tak mluvil fanda Nvdie. Nebo aktuálně Intelu...
Odpovědět0  0
Fukagu je na dnešní dobu dost specifické řešení ­- pouze z CPU. Z tohoto pohledu je na tom dobře, ale pro soupeření s nejvýkonnější konkurencí se to nehodí z hlediska nákladů na chlazení a napájení.
Odpovědět2  0
Já se nepřu o efektivitě, ale o příčině.
Odpovědět0  0
Motat do hromady GPU a CPU to už je hezky mimo...
Odpovědět0  0
Já bych řekl, že výrobce zajímají jen prodeje a zisk. Proto cení podle výkonové úrovně srovnatelně s konkurencí.
Odpovědět0  0
A proč by nemohli?
Odpovědět0  0
Je to složitější, tím že je v těch čipech někde chyba, která si vyžádala SW opravu a takty neškálují jak mají, je i ta efektivita nižší, než měla být. To je prostě riziko, když se dělá v architektuře víc změn najednou. A rozdíly ve výrobních procesech se taky zmenšují, takže tady nemůže být jediný důvod.
Odpovědět2  1
Právě o to jde, že laděním jde snížit. Takže kdo porovnává grafiky jen podle udávaného TDP....
Odpovědět0  1
Zajímavé je, že RadeonPro W7500 si vystačí se 70W. Rodina RadeonPro W se rozrůstá, k 7900 a 7800 přibyly 7600 a 7500.
Odpovědět0  0
Protože nemají CO ukázat, pokud se opravdu zasekli na licencích, které nedostali a musí je získat jinde, ztratili několik let. Postupně ten projekt odumře. Nikdo nechce sypat peníze do černí díry a nevidět výsledek.
Odpovědět0  0
Všiml jsem si ještě jedné věci RISC neznamená automaticky Out­­-of­­-Order. Takže použití techniky RISC a VLIW skutečně nevylučuje. Stejně si myslím, že Danilákovi postupně dojdou sponzoři, protože zatím nic reálné nepředvedl. A s tím, jak dlouho na projektu pracuje, ho určitě už musel aspoň jednou předělat nebo rozšířit, jinak by ztratil konkurenceschopnost.
Odpovědět0  0
To je marné, narcis nikdy svou nemoc nepřizná a tak se logicky nikdy léčit nezačne.
Odpovědět3  1
A proč bych to dělal? Fukagu jsem taky hledal odshora. Druhá věc, nezajímá mne, jak by dopadl superpočítač jen na x86­-64 procesorech, protože takové už pár let nikdo nestaví. Ty co bych našel by tak byly na horší architektuře než Japonský Fukagu.
Odpovědět0  0
Kdyby mne ta diskuse nebavila, či přímo rozčilovala, dávno bych ji nesledoval.
Odpovědět0  0
Není můj problém, že Fujitsu od té doby další stroj nepostavila, ale komponenty s A64FX nadále prodává...
Odpovědět0  0
OK mobilní trh jsem podcenil. Ale nelžu, kdybych to věděl, nenapsal by ch to.
Odpovědět0  0
Podařilo se mi najít pozici Fukagu v Green 500 je na 49. pozici.

1 ­- Frontier ­- HPE Cray EX235a, AMD Optimized 3rd Generation EPYC 64C 2GHz, AMD Instinct MI250X, Slingshot­-11, HPE
DOE­/SC­/Oak Ridge National Laboratory, United States, 8,699,904 ­- 1,194.00 ­- 1,679.82 ­- 22,703

2 ­- Supercomputer Fugaku ­- Supercomputer Fugaku, A64FX 48C 2.2GHz, Tofu interconnect D, Fujitsu, RIKEN Center for Computational Science, Japan ­- 7,630,848 ­- 442.0 ­- 537.21 ­- 29,899

Rank ­- System ­- Cores ­- Rmax ­(PFlop­/s­) ­- Rpeak ­(PFlop­/s­) ­- Power ­(kW­)

Je vidět, že výkon je 2,7x ­- 3,13x menší, ale spotřeba 1,317x větší.
Odpovědět0  0
Fukagu něco drtí? Možná tak spotřebou. V kategorii čistě CPU strojů by mohl být první, ale proti hybridním architekturám s akcelerátory nemá šanci. Zde je žebříček GREEN 500 ­- prvních deset strojů podle výkonu na watt, taky stojí za povšimnutí ­- ´žádný ARM a většinu výkonu dodává AMD:


Top 10 positions of GREEN500 in June 2023­[12­]
Rank ­- Performance per watt ­(GFLOPS­/watt­) ­- Name ­- Model ­- Processors, GPU, Interconnect ­- Vendor Site ­- Country, year Rmax ­(PFLOPS­)

1 ­- 65.396 ­- Henri ­- Lenovo ThinkSystem SR670 V2 ­- Intel Xeon Platinum 8362 2.8 GHz ­(32C­), Nvidia H100 80 GB PCIe, InfiniBand HDR Lenovo, Flatiron Institute, United States, 2022 ­- 2.88

2 ­- 62.684 ­- Frontier TDS ­- HPE Cray EX235a ­- AMD Optimized 3rd Generation EPYC 64C 2 GHz, AMD Instinct MI250X, Slingshot,11 Hewlett Packard Enterprise, OE­/SC­/Oak Ridge National Laboratory, United States, 2022 ­- 19.20

3 ­- 58.021 ­- Adastra ­- HPE Cray EX235a ­- AMD Optimized 3rd Generation EPYC 64C 2 GHz, AMD Instinct MI250X, Slingshot­-11 Hewlett Packard Enterprise, Grand Equipement National de Calcul Intensif ­- Centre Informatique National de l­'Enseignement Superieur ­(GENCI­-CINES­), France, 2022 ­- 46.10

4 ­- 56.983 ­- Setonix – GPU ­- HPE Cray EX235a ­- AMD Optimized 3rd Generation EPYC 64C 2 GHz, AMD Instinct MI250X, Slingshot­-11 Hewlett Packard Enterprise, Pawsey Supercomputing Centre, Australia, 2022 ­- 27.16

5 ­- 56.491 ­- Dardel GPU ­- HPE Cray EX235a ­- AMD Optimized 3rd Generation EPYC 64C 2 GHz, AMD Instinct MI250X, Slingshot­-11, Hewlett Packard Enterprise, KTH Royal Institute of Technology, Sweden, 2022 ­- 8.26

6 ­- 52.592 ­- Frontier ­- HPE Cray EX235a ­- AMD Optimized 3rd Generation EPYC 64C 2 GHz, AMD Instinct MI250X, Slingshot­-11, Hewlett Packard Enterprise OE­/SC­/Oak Ridge National Laboratory, United States, 2022 ­- 1,194.00

7 ­- 51.382 ­- LUMI ­- HPE Cray EX235a ­- AMD Optimized 3rd Generation EPYC 64C 2 GHz, AMD Instinct MI250X, Slingshot­-11, Hewlett Packard Enterprise EuroHPC­/CSC, Finland, 2022 ­- 309.10

8 ­- 51.343 ­- amplitUDE ­- ­(GPU Partition­) MEGWARE D50DNP ­- Xeon Platinum 8480 56C 2 GHz, NVIDIA H100 80 GB PCIe, InfiniBand NDR, MEGWARE, University of Duisburg­-Essen, Germany, 2023 ­- 1.95

9 ­- 46.543 ­- Goethe­-NHR ­- Supermicro AS­-4124GS­-TNR,AMD EPYC 7452 32C 2.35 GHz, AMD Instinct MI210 64GB, Mellanox InfiniBand EDR, MEGWARE Supermicro Goethe University Frankfurt, Germany, 2023 ­- 9.09

10 ­- 41.411 ­- ATOS THX.A.B ­- BullSequana XH2000, Xeon Platinum 8358 32C 2.6 GHz, NVIDIA A100 SXM4 40 GB, Quad­-rail Nvidia HDR100 InfiniBand, Atos ­- Atos, France, 2021 ­- 3.50
Odpovědět0  0
"60% peněz z gamingu jde z ARM zařízení, mobilní telefony jsou 5x větší trh než servery­" možná co do počtu prodaných kusů, ale určitě ne z pohledu příjmů, byť se to dělí mezi víc výrobců, ale to je i u těch mobilů.

A co se týká AMD, díky němu vůbec vzniklo rozšíření na 64 bitů. Protože Intel měl představu, že 64 bit bude jen na Itaniu, ale nějak se nesnažil o levnější modely.

X86 není jediná žijící CISC. Když pominu, že Power je na hraně RISC a CISC, tak ty úplně nejvyšší mainframy IBM jsou také na CISC procesorech řady Z ­- aktuálně procesory Telum.

Proč o tom píšu? Protože jak svět X86 tak IBM mají dlouhou zpětnou kompatibilitu ­- Mainframy do roku 1964 ­- System­/360. A Power josu na tom podobně. Je to jeden z důvodů, proč si IBM drží zákazníky.
Odpovědět1  1
Tento človíček brečící nad koncem Alpha architektury, která by vinou samotného DIGITAL stejně skončila a který se rozplývá nad EV8, který nikdy nepřekročil stádium návrhu, prostě z nějakého důvodu nesnáší x86­-64 procesory. Nicméně ani prodejní počty v s počítačích, NTB, serverech, pracovních stanicích a superpočítačích ho nepřesvědčí o tom, která architektura ve výkonnějších sestavách jasně vede. A to tady ani nepřekrucoval čísla, to taky umí. Alpha na svou dobu byly skvělé procesory, ale jsou dávno pohřbené.
Odpovědět1  2
Opět ty údajné 2048 bit vektory. Až na to že 2048 bit široké jednotky neexistují. Takže to jako argument neberu. Ale jako mantra asi dobrý.
Odpovědět0  0
On si takové CPU někdo kupuje na náročnější práci nebo krypto? Vesměs na tom jede web a nenáročná kancelářská práce, na kterou stačí.
Odpovědět0  0
Ve skutečnosti se na tom desítky let pracuje, celou dobu, co je ten princip známý. Za nejnebezpešnější považuji vynesení na oběžnou dráhu, přesněji stav kdyby něco v tu chvíli selhalo a raketa spadla.
Odpovědět0  0
Proto píšu mohla a ne že má, mezi tím je velký rozdíl a proto jsem ukazoval na neúspěch i860 a Itania.
Odpovědět2  0
IPC by právě díky širokému jádru mohlo být vysoké. Ale velká závislost na kompilátoru zůstane problém. Jinak se jádro bude chovat při plné zátěži s jedním vláknem a jinak s několika. Pokud to nedokáže HW efektivně řídit, budou mít problém.
Odpovědět0  0
Pořád si nejsem jistý, zda to není je drahý generátor náhodných výsledků, protože nevím, co se stane, když stejný vstup zadají víckrát.
Odpovědět0  0
Jenže VLIW má vždy problém s kompilátore, zjistil to intel s i860 ­- ten se nejlépe hodil pro silně optimalizované často opakované kódy. Například Silicon Graphics na nich stavěla část grafického subsystému. Ale pro universální CPU se nehodí. Podruhé se spálil Intel s Itaniem. A to měl daleko víc peněz.
Odpovědět1  0
Zatím jsou kvantové stále víc experimentální než prakticky použitelné.
Odpovědět1  0
Jde o to, že těch několik let jen chystají programovací model a tedy ISA. Ne že by to nebylo důležité, ale mají aspoň představu, jak to finálně realizovat? Aby se neukázalo, že jejich teoretický model, nejde v původní formě vyrobit a nebo, že sice jde ale s menším výkonem, či nějak očesaný. Protože ty bombastické řeči o tom, že výkonem nahradí jak CPU tak GPU nebo akcelerátor, zněly až moc neuvěřitelně.
Odpovědět0  0
Kdo ví, co z toho co říká, je pravda a co kecy pro získání peněz. Ale měli by konečně začít s fyzickým návrhem.
Odpovědět4  0
Mám pocit, že to už krachlo. Měli jen simulátor jednoho jádra, dál se nedostali, pořád řešili programovací model.
Odpovědět0  0
Já bych jim spíš říkal důvěřivci.
Odpovědět1  0
A to Intel hlásí zdražení počínaje Core i12... až po neuvedené CPU, váznou jim příjmy i když ruší divizi za divizí. Mají velký problém.
Odpovědět0  0
Jasně takže CAD, nebo 3D VR nikdo nepotřebuje... Chci vidět DLSS na Quadru. Tam snad jde o přesné zobrazení a ne o dokreslené snímky nebo dopočítané rozlišení. Asi máme odlišné představy o tom co vše se dělá na profi sestavách. Podívejte se třeba na konstruktéry ve Škodovce nebo Tatře, k čemu grafický výkon potřebují. Asi jste zapomněl, proč vůbec řada Quadro původně vznikla.

"Vždyť ty AI a RT obvody v GeForce RTX už dnes využívá např. Adobe Premiere Pro, Lightroom, Autodesk, Blackmagic DaVinci Resolve, Blender, SolidWorks a mnoho dalších­". Ano, ale úplně jinak než DLSS kvůli kterému tady diskutujeme.

Jestli pořád tápete, já nepíšu o generování statických snímků ve velkém rozlišení.
Odpovědět1  0
Nemůžete stavět to, ­"že to nikdo nechce a nepoužívá­". To jsem přece nikde nenapsal.

Celá myšlenka je stavěna na tom, že to je specifická záležitost jen pro hráče a to ještě ne pro ty, kdetým záleží na maximálně rychlé odezvě. Progamer si patrně DLSS nezapne a ještě si nastavení vykreslování specificky upraví.
Druhá skupina, kterou celou dobu ignorujete a o které od začátku píšu jsou profi uživatelé. Když pominu, že DLSS takové aplikace vůbec neumožňují a v ovladačích příslušných karet ani není, je celý pokrok celé generace vlastně naprosto minimální v grafickém výkonu a totéž se týká progamerů. Ty zajímá jen čistý grafický výkon v rasterizaci a případně výpočetní výkon. Obvody pro raytracing a AI jsou jim k ničemu.
Odpovědět2  0
80% z těch co můžou, nám ale přece neřekne, kolik ze všech hráčů jich reálně může být. A tak jak to původně bylo napsáno, to skutečně vyznělo tak, jako by 80% hráčů DLSS používalo. Proto celá ta diskuse. Jinak 24% je daleko realističtější než mých silně optimistických maximálně 50%.
Odpovědět2  0
Pokud má 80% hráčů HW podporující DLSS a pokud si 80% z těch, co tu možnost mají DLSS aktivuje, je to celkově 64%, není to složitý výpočet. Jenže to pořád jsou jen jen předpoklady, že někdo uvažuje podobně. V každém případě to je méně než 80% a možná i výrazně. Protože spousta hráčů provozuje i starší HW, bych typoval, že 50% bude dost optimistický odhad.
Odpovědět2  0
Krásně překrouceno. Tou menšinou jsem myslel ty, co ty ­"vylepšováky­" nepoužívají. A stále mne zajímá, kde pak mají vzít výkon profesionální aplikace, kde žádné DLSS není a nikdo by ho ani nechtěl?
Odpovědět3  0
Kromě toho, ne všichni hráči DLSS či FSR používají stejně jako RT. Bude jich třeba menšina, ale stále jich je dost. Tedy v rámci těch, co mají generaci karet, co to umí. Nebudu spekulovat, kolik hráčů má generace starší.
Odpovědět4  0
Problém je ten, že Nvidia kvůli tomu osazuje další AI jednotky ­- ta plocha by šla využít jinak a taky v tom, že odvozené profi modely pro pracovní stanice ten hrubý rasterizační výkon potřebují, tam DLSS ani FSR nefunguje. U AMD ten rozdíl není tak velký jako u Nvidie. Berte to tak, žen kdyby nebylo profi segmentu, pokroky v herním by byly s generacemi daleko menší.
Odpovědět3  0
Je úplně jedno jak široké vektory softwarově umí. Podstata je, že to běží na HW který širší než 512 bit vektory neumí, takže těch 2048 bitů musí jít na 4 průchody. Nebo ti to pořád nedochází. Hážeš tady novými instrukcemi, ale o HW na kterém běží jako bys nevěděl nic. A když x86­-64 svět přidá nové instrukce, tak jen podle tebe lepí starou arch...
Jak už jsem jednou psal, až ARM bude opravdu mít 2048 bit jednotky...
Odpovědět3  0
Je větší a těžší, ale velmi dobrý příklad telefonu s výborným poměrem výbavy a ceny.
Odpovědět2  0
Možná že samotný iOS potřebuje méně RAM, ale jsou aplikace, které si bez oledu na platformu vezmou při stejné činnosti stejnou porci a tam už to pak poznat bude. Apple takto uměle tlačí zákazníky do vyšších modelů daleko víc, než Android, u kterého jsou i levnější modely dobře použitelné. Třeba Motorola Moto G60 má 6GB GB 128GB úložného 6,8­" IPS 2460 × 1080 ­(120Hz­) a 6000 mAh baterii a stojí do 5000 kč.
Odpovědět4  0
Pravda, 4060 a přímé konkurence to tak bude. A kdo má na vyšší level, má i na spotřebu.
Odpovědět4  1
Sice jen oddělili řadiče RAM spolu s chache, ale i to ušetří kus křemíkové plochy. Tady se nabízí paralela čipy Kentaur u IBM Power řady 8 a 9.
Nicméně mají i opravdu dvoučipové řešení ovšem jen u výpočetní CDNA ­- MI 250 a MI 250 X. A pokračuje to ještě složitější řadou MI 3xx.
U těch grafik je to komplikovanější, ještě si snad pamatujete CrossFire a podobné techniky, které někde fungovaly a jinde přinášely jen komplikace, ale časem to snad vyřeší.
Odpovědět2  0
Ačkoliv jsem fanda AMD, nemyslím si, že to při pár hodinách hraní denně není rozdíl. Nicméně je tu jedna věc. Pokud bychom srovnali stroje AMD ­/ AMD proti Intel ­/ Nvidia. Kdy AMD CPU naopak mají spotřebu menší než Intel, rozdíl by opravdu minimální být mohl.
Odpovědět2  2
Chtěl bych vidět gamera, jak se spokojí s lagem 20 ms. Hodně štěstí... A těch 75Mbit je tak na FHD nebo spíš jen HD a to když nevadí horší kvalita obrazu.
Odpovědět4  0
podíl desktopu klesá, to ano, ale primárně na úkor notebooků na stejné platformě. Navíc I když je poměrně vysoký podíl ARM, není to ve stejné kategorii to že lidé můžou víc telefonů než PC nebo NTB automaticky neznamená, že ARM x86 nahrazuje. Jediný segment kde to platí, jsou servery, ale tam je procentní podíl stále cednociferný.
Odpovědět3  0
Nikdy nemůže být odezva stejná, jako přímo u počítače. Zvláště, když ty servery jsou v jiné zemi. I když máte rychlé optické spojení. Samotná rychlost nestačí, vy zmáčknete tlačítko ­- příkaz letí přes několik routerů a serverů ­- tam se zpracuje a zase zpět letí obraz... To z principu nemůže být bez velkého zpoždění.
Odpovědět4  1
Nezlobte se na mne, ale co Nvidia začala používat dopočítávání obrazu a pak i celých snímků, se stalo to, že nárůst hrubého rasterizačního výkonu šel trochu stranou a z generace na generaci je dost malý. Udělejte si srovnávací test, kde tyhle vymyšlenosti vypnete a uvidíte to. Obě společnosti jak AMD tak Nvidia narazily na jistý strop a výkonové rozdíly jaké byly možné dřív, už asi za přijatelné peníze a spotřebu nejsou možné. Jen ty důvody a přístupy k řešení zvolily odlišně. RDNA 3 měly být silnější, ale vloudila se chyba. U Nvidie je to buď záměr a nebo něco, o čem otevřeně nemluví.
Odpovědět5  1
Obvykle se měření dělá tak hodinu. Takto měřenou spotřebu už jsem viděl, ale rozdíl nevycházel tak velký, takže se mi zdá, že je zde vybrán nejhorší scénář pro AMD. Asi jako když Intel dělá marketingové materiály.
Odpovědět3  0
Pokud něco chcete měřit, tak ne nějakou okamžitou spotřebu, ale průběh a z něj pak odběr ve Watt Hodinách ­- v těch měří i elektroměr, pokud to nevíte. Rozdíly tam jsou, ale až takto zjistíte, jak velký nebo malý opravdu je. A ideální je měřit spotřebu celých a samozřejmě stejných sestav, protože účinnost zdroje má taky na reálný odběr vliv. Leda že vliv účinnosti zdroje započítáte dodatečně, pokud ho znáte. A bacha, se zátěží se účinnost zdroje mění.
Odpovědět4  2
Ne každý má rychlý monitor, někdo preferuje rozlišení s kvalitním obrazem a počítač nemá jen na hry. Tam pak omezení FPS logické. Taky ne u všech her FPS přes 60 znamená reálný přínos.
Odpovědět2  0
Ty desky vyrábí přímo AMD? Tak přestaˇn kecat. A nová patice byla potřeba z vícero důvodů. Zůstaň si u svých úsporných ARM a čekej hezky na výsledek výpočtu. Nebo piš někam, kde to lidi zajímá. Třeba na root.cz bys mohl mít úspěch.
Odpovědět2  0
AMD je jediná firma která zvládá konkurovat a velice Intelu v x86 procesorech a současně konkuruje i Nvidi v grafikách. Umí i výkonné APU a spolupracuje na serverových SSR, díky Xilinx pokrývá téměř všechny potřeby od NTB po superpočítače. A přitom je z těchto tří nejmenší. Tedy zatím.
Odpovědět3  0
Ale proč bych ho musel mít i v počítači?
Odpovědět2  0
Do RDNA 3 přišlo víc změn než se zdá a bohužel i chyba, která znemožnila dosáhnout plného výkonu.
Odpovědět2  0
A vy jako myslíte, že tohle byl plán? Prostě se něco nepovedlo. Nebo vy znáte výrobce, který má vždy 100% úspěch? Samozřejmě dlouhodobě.
Odpovědět3  0
Na základě čeho paušálně řeknete o 20 % nižší spotřeba? Máte změřeny aspoň několikahodinové odběry? Nebo jen hádáte podle udávaný TDP a nějak předpokládáte stále maximum?
Odpovědět1  1
To je otázka taky ovladačů, nejen samotného HW je to vidět na tom, že Intel potřebuje 2x tolik shaderů a 2x širší sběrnici k RAM. Teoretický výkon má velký, prakticky čip určený pro Hi­-End prodává jako mainstream.
Odpovědět0  0
Přímo vodu jsem nemontoval nikdy, ale zákazníkům i kamarádům jsem předělával grafiky na tišší a lépe chlazené. Tehdy to společně s dobře řešeným vzduchem na CPU a ventilací skříně stačilo.
Odpovědět0  0
Custom je lepší volba, když je počet vodou chlazených komponent větší než 1 a nebo, když z nějakého důvodu žádný hotový komplet nevyhovuje. Právě variabilita je velká výhoda spolu s možností servisu, což u hotových až tak nejde.
Odpovědět1  0
Retail je jiný trh, tam se Nvidia bát nemusí, ale v OEM by mohla, pokud Intel Battlemage nezruší, když likviduje jednu divizi za druhou...

Ješetě detail, on kromě Intelu někdo dělal A770 s 16GB pamětí? Já jen, že Intel už ty svoje zrušil s okamžitou platností.
Odpovědět1  0
To je šílenství na úrovni těžké zamilovanosti. Při tom má člověk taky růžové brýle a vidí věci zkresleně, tady ale navíc v kombinaci s nenávistí ke konkurenci.
Odpovědět0  0
ARM mají aktuálně celkový podíl v serverových CPU 8,1 % a AMD lehce přes 20 % Takže by mne fakticky zajímalo, jak jsi přišel na 30 % pro Graviton a 10 % pro AMD. To jsou tak překroucené a z prstu vycucaná čísla... A já jsem lhář, to jsou věci asi tak po dvou deci něčeho silného...
Odpovědět0  0
A co jsem asi napsal? Že se rozdíly mezi RISC a CISC procesory stírají. A to včetně LOAD ­/ STORE jednotek. Teď bych je chtěl vidět na schématu nějakých opravdu starých x86 cpu hezky vedle ALU, tak jak je to třeba u ZENU. Třeba na takové 486... Jen duchem mdlý člověk nevidí, jak velký vývoj ta architektura za ty roky udělala. Při tom jaké problémy dokázala překonat. A nebo nevidí ty podobnosti ve věcech, které mají procesory s tak odlišnou ISA společné.
Odpovědět0  0
A vy jste viděl výkonové a další charakteristiky těch K12..? A mohl bych je taky vidět? Tady je zase někdo chytřejší než lidé, co to měli na starosti. Určitě nějaký dobrý důvod měli.
Jenže vy jste na svůj vychvalovaný ARM tak vysazený, že to jejich rozhodnutí nedokážete spolknout.
Odpovědět0  0
"Proč myslíš že AMD zrušili již hotový ARM K12­" někdo z AMD vám to přímo řekl? ARM AMD neživil, zatímco x86 ano. A rozšířenost u serverů jak na úrovni HW tak SW byla v té době mizivá. AMD si tehdy ztrátové projekty nemohlo dovolit, pokud to náhodou nevíte. Proto v průběhu času prodali i mobilní grafickou divizi, nebo se zbavili továren, asi by se příkladů našlo ještě víc. Taky se tomu říká restrukturalizace.
Odpovědět0  0
Sranda je, že první komerčně dostupný procesor, který měl SMT využívat byl Alpha EV 8, který celé jádro proti předchozímu EV7 zdvojnásobil ­(8 alu a 4 FPU, vektory byly v plánu pro vylepšenou modifikaci stejně jako nativní dvoujádro­) a měl umět 4 vlákna na jádro. Když vezmu v úvahu že už předchozí EV 6 byl právem považován za nejvýkonnější procesor své doby, něco na to vaší teorii těžce skřípe.

K licenci se, bohužel dostal Intel, který koncepci SMT zkriplil společně s celým Pentiem 4. Nicméně všechny výkonné RISC architektury buď existují, nebo plánovaly a vyvíjely SMT variantu. Power od IBM je nejznámější, další MIPS, SPARC, ARM taky a další i některé méně známé. Takže pláčete na opravdu špatném hrobě. Vytrhávat věci z kontextu je docela snadné a v naprosté většině i ´úplně špatně.
Odpovědět2  0
ZEN 3 Epyc možná a to pouze v masivní vícevláknové zátěži. Někdo tu tvrdil, že jedno vlákno ZEN 3 odpovídá jádru ARM. Potom ovšem proti 96. jádrům ZEN 4 nic ARM nemá. A proti 128 jádrům ZEN 4c už vůbec ne. Jenže to by platilo při ± porovnatelných taktech. Ty má ovšem už i EPYC 9004 vyšší a adekvátní ZEN 4 Threadripper může jít ještě výš. Stále se bavíme o multivláknové zátěži. Jenže jak víme, ne vše jde ideálně paralelizovat a při aktivním menším počtu vláken bude takt AMD ještě výš. Tady by přímé srovnání nedopadlo pro ARM moc dobře, ty procesory pro pracovní stanice a osobní stolní počítače prostě nejsou dělané. Nehledě na množství nativního software. A emulace na rozdíl od dost vymakané ovšem proprietární Rosety je fakt bída.
Odpovědět1  0
Toto není příspěvek, ale kecy fanatického fanouška. O inteligenci pisatele spekulovat nebudu. To by bylo pod úroveň, na kterou klesnout nechci.
Odpovědět0  0
Jenže všechny architektury jak přidávají instrukce tak dělají změny v jádře i okolo jádra procesoru. Takže touto logikou všechny zavedené architektury udržují různě staré dinosaury při životě doplňováním a změnami v ISA.
Odpovědět0  0
Až na to, že RISC ­(reduced instruction set computer­) and CISC ­(complex instruction set computer­). Rozdíly klasickým pojetím čistých RISC, které původně dekodér mikroistrukcí a CISC, silně setřely. A například o IBM Power se tak říká, že je vlastně napůl mezi RISC a CISC. Ale existují i procesory brané mezi CISC, které jsou touto středu blízko. Takže dnes je ve skutečnosti rozdíl spíš v tom jestli mají pevnou nebo variabilní délku instrukce. Protože v komplexnosti isntrukční sady moc rozdíly reálně už nejsou. Další tradiční rozdíl je v tom, že CISC mohly načítat data pro vykonání instrukce přímo z paměti ­- rozumí se tím cache L1 až v nejhorším RAM, zatímco tradiční RISC jsou LOAD­-STORE. Tedy ALU či FPU ­/ vektrorová jednotka může číst a zapisovat jen z registrů a přenosy mezi registry a pamětí a opačně provádí pouze LOAD­-STORE jednotky. Jenže to už taky tak úplně neplatí u CISC procesorů.
Odpovědět0  0
Apple ani není první. Akcelerátory dává IBM do Power 9 a 10. U osmičky si nejsem jistý. A Intel to chystá do Xeonů.
Odpovědět0  0
To je fakt zajímavé: ­"SMT v podstatě pomáhá špatným CPU s vytížením výpočetních jednotek. Dobré CPU s vymakaným OoO enginem tohle SMT nepotřebuje.­"

Až na to že SMT od začátku používal vždy ty nejlepší designy CPU, když pominu Intel, tak Alpha EV8, řada procesorů IBM
v četně Power, SUN Sparc. A existují i projekty SMT ARM a MIPS.

Ten důvod je prostý, tím že využívá jednotky, které jedno vlákno nemůže plně vytížit, stoupá jak výkon tak efektivita. Proto v padesátých letech na SMT v IBM začali pracovat.
Odpovědět1  0
Aktuálně to vypadá jednoznačně že na úkor Intelu. Ostatně ARM taky ukusuje Intelu. Nenapadá mne nic, čím by Intel v daném segmentu mohl konkurovat. Na slibované produkty fakt nesázím u této firmy.
Odpovědět0  0