Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od kutil05 (7)
Srovnávat mocnost instrukční sady na součtu dvou čísel, to je tedy opravdu náročný výkon. Jde o naprosto základní instrukci, podobně jako třeba bitový posun... Zkus něco daleko složitějšího, tam už může být docela rozdíl v celkové délce vykonávání.

Fakt nevím, kdo je tu na léčebnu. A pro tvou informaci. Aspoň základy jak procesor uvnitř funguje mám, i když mne to neživilo a neznám to víc do hloubky, učil jsem se to a taky je to jedna z věcí, které mne zajímají. Ale vyloženě tím nežiju, mám víc zájmů než jen počítače, třeba by jsi to taky mohl zkusit a osvěžit si mozek, prý to pomáhá.
Odpovědět2  0
Myslím, že teď s novými Bergamo procesory od AMD to zase až tak snadné nebude. AMD nabírá na síle, to co s jádrem ZEN4 udělali si patrně u Intelu můžou maximálně představovat. A pokud fakt platí, že jedno vlákno AMD je jako jádro ARM, je to silná konkurence a s ZEN 5c přijde 192 jader...
Odpovědět0  0
V tom článku se statistikou na Anandtech.com nebyla nikde zmínka, že se jedná je o Cloud. Servery pro datová centra můžou znamenat poněkud víc.

Vše si upravujete tak, aby váš milovaný ARM vypadal silnější. Ale tím že budete ohýbat realitu, ničemu nepomůžete.
Odpovědět1  0
To mne špatně chápete. Z tohoto hlediska to úspěch je. Aktuálně lehce přes 8 % snad už. Ale bylo tu psáno a je mi jedno kým, že ARM x86­-64 v serverech drtí. A z tohoto hlediska to prostě není pravda. Jo a nemá AMD kolem 25 %?

ARMu se daří hlavně v cloudu a tam teď má AMD taky lepší hračku než dřív. Ten souboj bude ještě zajímavý. A hádám, že Intel ještě bude dál ztrácet. Oracle už Intel vůbec v aktuální řade nemá, jen ARM a AMD. Dell jednosocketové pouze s AMD. A kdybych to lépe sledoval, je toho možná víc.
Odpovědět2  0
Tady dlužím trochu omluvu. Cell je opravdu něco jiné. Fujistsu A64FX navazuje na SPARC64 XIfx.

SPARC64 XIfx měl dva clustery po 16+1 jádrech každé jádro umělo 2x256 bit FMA. RAM realizovaná HMC.

A64FX má čtyři clustery po 12+1 jádro uvnitř clusteru ring bus, FMA 2x512 bit a 4 ALU ­(ale vykonávají další funkce­), RAM HBM2. Cache L2 je celkem 32 MB ­- tedy 8 MB sdílené na cluster. L3 žádná není.

V obou případech 32 GB RAM na patici.

Ta plus jádra vyhrazena pro OS, zbytek mají k dispozici aplikace. Je evidentní, že jde o CPU silně zaměřeno právě na vektorové operace. Výkon ALU je v pozadí, tedy až tak universální taky není.
Odpovědět1  0
To odpovídá tomu, co jsem našel. Stále jednociferný celkový podíl.
Odpovědět1  0
Přímo ze stránek Fujitsu:
Computational node: 48 cores + 2 assistant cores
I­/O and computational node: 48 cores + 4 assistant cores
Odpovědět0  0
Oprava. O 2048 bitech Fujitsu nepíše. Pouze, že ta výkonná jádra zpracovávají 512 bitů vektory. Ovšem řídící jádra můžou být taky jen dvě.
Odpovědět0  0
Motat do toho x86 to už je tedy něco. V těch IBM strojích to fungovalo tak, že na dva Cell­/BE byl jeden AMD Opteron. Patrně řídící jádro nemělo tolik výkonu. A pravděpodobně by bylo lepší, kdyby ty Celly řídily jiné Power procesory. I tak s touto kombinací byl RoadRunner tehdy nejvýkonnější.
Ale jak moc bylo to řídící jádro až tak slabé, když ořezaná 32 bit varianta v Sony Play Station 3 jako hlavní procesor stačilo?

A to srovnání jsem si nevymyslel já. Popravdě řečeno bych si při čtení popisu Fujistsu A64FX na nějaký IBM Cell ani nevzpomněl. Tedy znovu Cell ­- 1 jádro řídící a 8 výkonných vektorových. A64FX 4 řídící a 48 výkonných. Vychází to na 12 výkonných na jeden řídící. A patrně ta výkonná umí spolupracovat spojováním a právě proto ten procesor umí tak široké vektory ­- 2048 bitů.

Jinak spolupráci více jader dohromady pro zpracování vektorů vymysleli u některé ze starších generací IBM Power, takže to až tak nové či divné není.
Odpovědět0  0
Tak jsem si to nakonec musel najít sám. V prvním kvartálu roku 2022 byl celkový podíl ARM v serverech 7,1 % tedy stále jednociferný.
Ty nárůsty se můžou i tak zdát velké, protože to dělalo 2,2% v roce 2020 a 5,4% na konci roku 2021. Aspoň podle společnosti Omdia.

Takže z roku 2020 na 2021 to bylo 2,455x víc. To vypadá přece fantasticky, ale v absolutních číslech už to tak super nevypadá.


Odpovědět1  0
U těch serverů by stálo za to přidat i čísla a zdroj.
Odpovědět1  0
Řekl bych že konkrétní řešení aspoň trochu víc do hloubky se stejně nedozvíme, proč by radil konkurenci? Ale ISA není jediná, která nějak trochu víc má vliv na výkon. Jde taky o to, do jakých mikroinstukcí vlastně dekóduje. Tedy kolik práce může jedna mikroinstukce vykonat. Ale i opačně na kolik mikroinstukcí může být jedna velká instukce dekódována. Proto menší počet ALU u x86­-64 nemusí tolik vadit, pokud vykonávají mocnější mikrointrukce. Stejně tak ve vektorové ­/ FPU sekci ­- tam může být rozdíl i větší. Patrně to Jim Keller myslel tím, že x86­-64 stačí na stejnou část kódu třeba 100 intrukcí a ARM potřebuje až 300. Tím pádem CISC x86­-64 nemusí mít stejně výkonný dekodér jako RISC x64 ARM.

PS: Už se těším, jak to někdo překroutí...
Odpovědět2  0
Tak jo bitový synečku jsi schopen na 100% doložit, jakou plochu zabírá dekodér instrukcí v ZEN4 a ZEN4c výpočetních chipletech v procentech a ideálně i na celkovou plochu křemíku konkrétních procesorů a totéž potom u posledního gravitonu? Aby bylo zjevné, jak moc vlastně je zpětná kompatibilita škodlivá. Hádam, že nic takového nedokážete předložit.
Odpovědět3  0
Srandovní je, že x86­-64 se v podobě AMD EPYC 9004 stále drží a jedné, co vadí je x86­-64 v podobě Intelu. Kdyby byly ty ARM Gravitony tak super, zařízli by taky AMD měli vše na jedné platformě. Tím pádem i menší náklady na vše včetně podpory. Někde ta teorie poněkud skřípe, když Oracle dává AMD stále zelenou.
Odpovědět1  0
"když ARM pořád roste a x86 ztrácí­" Tak zrovna toto by asi bylo vhodné doložit...
Energetická efektivita nezáleží jen a pouze na ISA, když se podívám jen na EPYC procesory, jsou zde dost rozdíly, když udělám prostý výpočet, kolik wattů vychází na jedno jádro jen podle TDP. A tady stojí za připomenutí, že u serverových CPU platí, že jde opravdu o maximum včetně všejádrového boostu. Navíc TDP bývá konfigurovatelné takže 400 W CPU může být nastaven na 320 W.

Ten all core boost, což je u AMD novinka, dělá docela dost. např. u 96 jader ­/ 192 vláken AMD EPYC 9684X je základní takt 2,55 GHz a všejádrový 3,42 GHz. Maximální při tom 3,7 GHz. To pro všechna jádra dělá 1,34x víc výkonu. A to jde o model s V­-Cache tedy 1152 MB L3.

Pro 128 jader ­/ 256 vláken AMD EPYC 9754 dokonce all core boost je shodný s maximem 3,1 GHz proti základu 2,25 GHz.
Odpovědět0  0
Tak udělejte vlastní rozbor a analýzu. Možná že lidi, co píšou články o procesorech něčemu úplně nerozumí... Spíš si myslím, že se vám takové srovnání prostě nelíbí. Já navíc popisoval pouze poměry vektorových a řídících jednotek z dostupných informací. To v žádném případě neznamená, že s takovým časovým odstupem budou mít ty procesory stejné problémy. I když některé charakteristiky asi podobné budou. Dost velký rozdíl bude určitě v šířce vektorů a instrukční sadě. I řídící jádra budou patrně o dost výkonnější. Cell je srovnáván s Power 4, ze kterého vycházela řídící část.
Odpovědět1  0
To s možností vypínání a zapínání je dost teorie, žádné EV8 CPU, totiž nepřekročilo fázi návrhu. Ale pokud byl stávající SW psaný pro užší jádra, proti EV4 násobně, pokud se nepletu tak pouze u poslední vydané generace na samotné jádro nesáhli EV7 proti EV6 změnila sběrnici, přístup k RAM ­(přešli na RAMBUS­) a L2 cache. Jinak byly generační rozdíly dost velké a jádro se hodně rozšiřovalo. Takže vypnutí SMT na EV8 by dost výrazně omezilo využitelnost toho jádra, tedy by to nemělo moc smysl. Proti EV7 a tedy i EV6 bylo 2x širší. Proti EV5 4x širší. Navíc na EV7 už neexistovala žádná primárně pracovní stanice pouze servery u EV8 by to asi nebylo jiné.
Odpovědět1  0
Tak to bych takto jednoduše neřekl, protože žádný SW nativně nedokáže vytížit tak masivní počet jader. Tedy SW pro superpočítač stejně musí být napsán a zkompilován na míru. Tím spíš, že Fukagu používá variantu ARM, která do té doby jaksi jinde neexistovala, tudíž ten SW logicky museli napsat tak, aby optimálně využili možnosti těch CPU.

Nehledě na jeden podstatný detail: Fujitsu A64FX nejsou běžné ARM CPU, mnohem víc připomínají IBM Cell ­(kromě 32 bit verze pro Sony byla i 64 bit verze pro superpočítače­) Funguje to tak, že jsou zde 4 řídící jádra a 48 vektorových. U Cell byl jeden řídící Power a 8 vektorových.

Takže opravdu doporučuji víc přemýšlet a když nevíte, tak si doplnit vzdělání, pak opět raději déle přemýšlet a až potom ventilovat názory vežejně.
Odpovědět1  0
ARM Ampere Altra jako universální odpověď. Jiné argumenty by nebyly? Toto je ohrané.
Odpovědět2  0
Víc fér by bylo udělat taky testy s vypnutým SMT a 16. jádry. Pak by bylo možné srovnání jak moc SMT funguje. Protože, co vím, tak prakticky nikde neplatí že každé vlákno opravdu vytíží 50% jádra ani 40 ku 60 nebo 30 ku 70. Ale samozřejmě dost záleží i na typu zátěže.

Nějaké reálné CPU? Tabulka sice krásná, ale tu se bavíme s názvem architektury.
Odpovědět0  0
"A to je přesně oblast kde silné IPC čistě 64­­-bit ARMů na nízké frekvenci ­­(a tedy násobně nízkou spotřebou­­) totálně rozdrtí nenažrané x86 i s jejich slavným SMT­".

Zajímavé od někoho kdo tak oplakává Alpha EV8 s čtyřcestným multithreadingem. A ještě drobnost, kterou snad každý, kdo se pohybuje ve světě IT HW, určitě chápe. Nastavením skladby testů se dá výsledek ohnout žádaným směrem. Kromě toho ARM jsou nejvhodnější pro Cloud, pro masivní výpočty se až na opravdu speciální případy jako je Fukagu s namíru vyvinutými CPU, prostě nehodí, proto má Intel a AMD i Nvidia stále takový podíl v serverech i superpočítačích. A to co dnes zajímá zákazníky je celkový poměr výkonu a spotřeby a právě v tom je kombinace CPU a GPU stále nejlepší.
Odpovědět1  1
Znovu pro ty méně chápavé, běžný kód NIKDO na superpočítači nespouští. Superpočítače jsou používány na zpracování obrovských balíků dat. Něco jako když na běžném PC jedou masivní výpočty na GPU. Taky jsem už napsal, proč Fukagu jede jen na CPU.
Odpovědět0  0
Ukažte mi katalogový list procesoru, který má 512 jader nejlepšího jádra ARM. Jinak jste za kecala a lháře. Asi jako u toho testu, kde srovnávali 16 jader AMR a 8 jader ­(16 vláken­) AMD a Intel.
Odpovědět0  0
Superpočítače zpracovávají obrovské balíky dat, moc vyhodnocování podmínek ­(ano jde to napsat i česky...­) tam není v poměru na objemy dat. Takže to podmíněné větvení není až takový problém. A jeden z důvodů proč Japonci šli cestou samotných CPU je poměrně snadno pochopitelný. Vývoj samotných CPU je o dost snadnější, než k tomu řešit ještě výpočetní akcelerátor. Ale velké firmy jako AMD a Nvidia prodají řádově víc všeho než Fujitsu, takže u nich se ten vývoj snadněji zaplatí. Navíc samotné výpočetní uzly řeší jiné firmy, např. HPE ­- Cray Shasta a tyto samotné uzly jsou komerčně dostupné pro projekty různých velikostí a výkonů.
Odpovědět0  0
Vtip je v tom, že ten test je nastavený tak, že srovnává procesory se stejným počtem vláken, tedy Gravitony mají 16 jader, Intel a AMD 16 vláken, tedy 8 JADER. A o taktech není nikde ani zmínka, tedy aspoň v té tabulce, kde jsou parametry jako počty jader, velikost RAM a podobně. Kromě toho, tesů je tam víc, samozřejmě a test od testu se výsledky liší. Srovnání odlišných architektur a ISA je komplikované, test od testu se výsledky můžou násobně lišit.
Odpovědět0  0
Kolovrátek jede dál a nevidí neslyší, hezky úzké tunelové vidění dopředu a co je vlevo a vpravo, těžký nezájem. Fugaku supercomputer je proti AMD řešení CPU + GPU energeticky dost neefektivní.
Odpovědět0  0
Díval jsem se na test ­- klasické herní i pracovní grafiky AMD, Nvidia a Intel... A když pominu tragický Intel tak záleží na aplikaci, někde je na tom líp Nvidia a někde AMD, ale u AMD vyzdvihovali nižší cenu, čímž je v průměru výhodnější. Fakt záleží tedy na nasazení.

https:­/­/techgage.com­/article­/amd­-radeon­-pro­-w7800­-w7900­-workstation­-performance­-review­/1­/

Test zaměřený na AI jsem ještě nenašel. Nato typuji má AMD právě spíš řadu MI200 a 300, podobně jako Nvidia má čistě výpočetní a AI modely.

Co se mi na W7900 ale líbí je max 300 W spotřeba při dvojnásobku RAM proti výchozímu Radeonu. A W7800 má 70 CU při 260 W, to dává hernímu 7800 docela šance.
Odpovědět0  0
To nevím, nezáleží tam náhodou i na velikosti paměti. Kromě toho AMD má i Radeon Pro W 7800 a W 7900 ty mají 32 a 48 GB paměti. 3090 má jen jen 24 GB. I když asi jsou spíš určené na matematický výkon v plovoucí řádové čárce od 16. po 64 bitů. Ale zase jsou levnější než Quadra ­- 2.500 a 4.000 USD. MI 210 je za 16.000 USD. Budu se muset podívat na udávané výkony aktuálních řešení obou firem... Tohle mne zajímá.
Odpovědět0  0
Pokud jde o velké projekty to se programuje přece na míru. Nevím jak moc se to prodává třeba do pracovních stanic nebo jako podnikové řešení. Tam asi nic lepšího než MI 210 nepůjde. MI 250 už není řešení pro PCIe slot, takže to vyžaduje speciální základní desku a vůbec to připomíná víc část superpočítače než běžný server a to i rozměry celého řešení. Podobně u Nvidie. Spíš jsem zvědavý, zda bude i nějaký levnější model v řadě MI 300.
Odpovědět0  0
Nějaké současné srovnání by nebylo? Epyc 7571 má 32 jader ZEN 1 na základním taktu 2,2 a turbu 3 GHz. To je fakt pár let zpět. Kde je nějaké srovnání z aktuální Epyc řady 9004 a tou vychválenou X4?
Odpovědět0  0
To je dost levné a je to celá sestava nebo barbie tedy deska CPU a skriň se zdrojem a chladičem?
Odpovědět0  0
To je docela sranda, dát víc peněz za ARM a pak na tom pouštět x86­-64 aplikace pomaleji než na levnějším PC nativně... Speciálně ARM Windows je low­-end produkt primárně pro mobilní CPU a podle toho SW podpora vypadá. Když už něco takového, tak na Linuxu nebo BSD a s nativními aplikacemi. Ampere Altra jsou serverové CPU a podle toho stojí. A jedna věc, 6 kanálů RAM vypadá proti AMD nějak málo. ZEN 4 EPYC mají 12 ­(workstation desky jen 8, protože by nezbylo místo na PCIe 5.0 sloty­) a Thread Rippery PRO 8. Pouze max 64 jádrové Thread Rippery ­(levnější řady­) v nové menší patici budou mít 4 kanály, ale zase by mohly běžet na 6 GHz jako v desktopu místo 4,8 GHz.
Odpovědět0  0
PA­-RISC Intel mohl dost těžko zaříznout, když to byl CPU HP, které se samo rozhodlo k přechodu na Itanium. A Alpha servery vydávala ještě taky HP ­(stanice vyráběl naposledy Compaq­), vy jste ten článek zcela evidentně nečetl a plácáte ty svoje kraviny furt dokola. Když se Alpha dostala do Intelu, byla to prakticky mrtvá platforma.

Co se AMD týká, máte představu, jak dlouho tlak Intelu na výrobce, aby nenakupovali CPU AMD trval? Věděl jste například, že první dual CPU platformu mělo AMD už za doby Athlonu XP?

Máte o historii počítačů zkreslené představy. Hector Ruize se do AMD dostal, když už mělo problémy a bylo to hodně zlé řešení.

A k tomu zaříznutému K8 ­- ta architektura se vyráběla mezi roky 2003 až 2014, pak byl potenciál vyčerpaný a přišla K10.
Odpovědět0  0
Souhlas, někdo vymýšlí neskutečné myšlenkové konstrukce, aby podpořil svou teorii.
Odpovědět0  0
To je složitější. Ano Intel se mohl víc snažit, ale prostě konkurenci moc neměl. Dokonce Intel CPU začaly nahrazovat RISC procesory v pracovních stanicích. To je jeden z dalších důvodů, proč DIGITAL zkrachoval. Dnes nikdo klasické RISC ­/ UNIX pracovní stanice nevyrábí. Jedině snad Talos II, ale tam je primární zaměření taky jiné. ARM v té době neměl sílu ani pořádný odbyt, musel se nejdřív vyvinout a dokud se hodil jen pro mobilní a nízko­-odběrové aplikace, nebyl moc důvod dělat lepší jádra. Všechny ty techniky se postupně vyvíjí až následně je používá víc výrobců, ať šlo o vykonávání mimo pořadí, vektorové jednotky, multi­-threading a tak dál. Co se Intelu týká, daleko víc zazlívám, že utlumil nekale AMD a tomu pak dlouho trvalo, než se zase zvedlo. Velké RISC procesory tehdy byly obecně na útlumu. MIPS taky přežily jen v síťových a embedded aplikacích. SPARC se džel dlouho a taky umírá. Jen IBM POWER, což byl první RISC vůbec, se stále daří, byť na specifickém trhu.
Odpovědět0  0
Pokud vedoucí pracovník nemá přirozenou autoritu, řevem si ji nezíská. Na mě někdo řvát, tak si to líbit nenechám. Pokud neumíte s lidmi jinak jednat, tak ty podřízené lituji. A s tím že pravda se nenosí... No pokud podle toho i uvažujete, je lepší se vám obloukem vyhýbat.
Nevím co to řvaní reálně ušetří, až se lidé z toho pracovního prostředí psychicky sesypou, může se to i prodražit. Upřímně nejste jen psychopat, je to daleko horší.
Odpovědět1  0
Dokud si nepřečteš ten článek a nepochopíš, co se vlastně tehdy stalo, je další diskuse zbytečná.

Je tam jak celý vývoj Alpha, tak stručně DEC, i dostatečně rozebraný konec. Mimochodem Intel měl nejen na Alphu s DEC podepsanou crosslicenční smlouvu na 10 let, ale DEC už to nedokázal využít, dokonce se měly Alpha procesory u Intelu vyrábět.

StrongARM skončil proto, že když ho Intel od DEC koupil, tak sice měl všechny podklady, ale neměl na tom kdo pracovat, inženýři kteří ho u DEC měli na starosti, šli jinam. To tam je vše popsané.

http:­/­/alasir.com­/articles­/alpha_history­/dec_collapse.html
Odpovědět0  0
S ohledem na to, že v té době měl vlastní x86 a vyvíjel Itanium, si moc neumím představit, že by současně pracovali i na Alphě. A s ohledem na situaci Compaqu by Alpha procesory stejně skončily. Bylo to logické. Já chápu, že tě konec této architektury žere, ale pokud by jsi znal situaci DIGITALu, tak by ti bylo jasné, že konec by tak jako tak přišel. Taky jsem ty procesory obdivoval, ale zabila je obchodní politika vlastní firmy.
Odpovědět0  0
Compaq ještě vyvíjel Alpha, ale HP koupil Compaq. V tom textu to o jasně je, včetně důvodů proč DIGITAL skončil krachem. A HP měl svůj PA­-RISC a ten skončil kvůli Itaniu. Ale mám dojem, že pořád dokola opakuješ totéž. Co si ten článek nejdřív přečíst? Ani není nutno číst vše...
Odpovědět0  0
Jak PA­-RISC, tak Alpha skončily kvůli společnému vývoji Itania ­(Intel & HP­). EV 8 zůstal jen na papíře, ale v plánu byla další dvě vylepšení: Jednak fyzické dvoujádro a taky vektorová jednotka. Jeden z rozdílů mez EV 6 a EV 7 byla menší L2 cache ovšem už nebyla externí. A násobně rychlejší operační paměť RAMBUS. Jinak HP neměl ani tak moc důvodů Alpha dál vyvíjet, když zařízli i vlastní RISC procesory kvůli spolupráci na Itaniu, samozřejmě si nejdřív počkali na první výsledky Itania.

Aby zas nebyly dohady, zde je historie i konec Alpha procesorů dobře popsaný: http:­/­/alasir.com­/articles­/alpha_history­/index.html
Odpovědět0  0
Napsal jsem to proto, že se tu bavíme o klasických CPU a ty prostě ta data i instrukce pro výkonné jednotky nějak připravit musí ASIC bych do toho fakt netahal protože proti němu jsou i GPU a patrně i digitální signálové procesory násobně universálnější. Původní myšlenka RISC ještě bez dekodérů, zpracovávající opravdu jednoduché instrukce byla asi nejčistší, ale jak je vidět, nevydržela.
Dokonce jeden z nejlepších RISC ­- procesor Alpha 21264 ­/ EV6 přišel jako první s vykonáváním mimo pořadí a když pominu postupné přidávání výkonných jednotek, tak právě nové instrukce převážně vektorové a v poslední době maticové přidávají největší porci výkonu na jádro při stejném taktu. Takže výkonný CPU se ještě dlouho bez ISA neobejde.
Odpovědět0  0
Aha takže struktura cache, registrů, prediktor větvení, vykonávání mimo pořadí ­- nic z toho tam asi k ničemu není, jen to seřazuje mikroinstrukce ­(v čistých RISC přímo intrukce­) do optimálního pořad, aby procesor dal optimální výkon. K registrům a cache ještě partří Load­-Store jednotky, samozřejmě výpočet adres a řadiče pamětí, cache a sběrnic. Ale podle vás to moc práce nedá a nastrkat paralelně klidně dva tucty výkonných jednotek by tedy mělo být snadné. Řídit vše přímo programem moc nefunguje, říká se tomu VLIW ­(anglicky very long instruction word­), Intel to zkoušel 2x. Poprvé jako i860, ten se nejvíc uplatnil v grafické části SGI pracovních stanic a možná v některých laserových tiskárnách a pak známé Itanium. Ani jeden moc jako samotný CPU nefungoval.
Odpovědět0  0
Že se něco Intelu nepodařilo, neznamená, že by se to někomu jinému podařit nemohlo. Vždy když se porovnávají odlišné architektury, jsou tam výsledky, které líp sedí jednomu procesoru, jiné zas dalšímu. Zrovna jsem si vyhledal srovnání AMD, XEON a EPYC a je velice těžké jednoznačně určit, která architektura je lepší, zda ARM nebo x86­-64. Jediné co jednoznačné je, že v tom, na co se zrovna dívám, je jednosocket 24 jader EPYC lepší než dva sockety XEON po 28 jádrech. ARM 32 jader je někde lepší a někde horší. Jenže ty rozdíly oběma směry jsou i násobné. Pokud by z toho někdo udělal průměr a tím stanovil IPC, může být výsledek dost zkreslený. ˇÚ plně totéž bylo vidět i kdekoliv jinde, kde byly testy dost podrobné. A je jedno, co srovnáváme, jestli Intel, AMD, ARM nebo POWER. Nikdy nejde jednoznačně říct a nějak zobecnit, který procesor je celkově lepší. Softwarová optimalizace může někdy udělat víc, než změna hardware, ale není to vždy pravidlo. Spotřební SW na PC má k dobré optimalizaci daleko. Testy pod Linuxem, ale zase uživateli Windows moc neřeknou...
Odpovědět0  0
Jenže Bulldozer je úplně odlišně konstruován, jsou to vlastně dvě jádra se společnou FPU částí. A pokud si dobře pamatuji, největší problém byl právě s to sdílenou částí. Ta poslední jádra, která už dávali jen do APU byla lepší než původní Bulldozer, ale ten si lidé nejvíc pamatují. Navíc to jádro bylo primárně určeno do serverů a to byla ta největší chyba v desktopu. Proto to pak hnali do vysokých taktů, aby to dokázalo nějak konkurovat intelu.
Odpovědět0  0
Latence není dána pouze vzdáleností, ostatně u všech grafik jsou paměti blízko jádru. Latence jsou dány taky primárním určením Graphic Double Data Rate a samozřejmě taktem, není možné držet kombinaci vysokých taktů a nízkého časování. To se přece řeší pokaždé při přechodu na novější typ DDR, že má vyšší časování než předešlé RAM a že se přechod vyplatí až od jistého taktu nahoru.
Odpovědět0  0
To že je u AMD psáno 400 W, neznamená, že odebírá 400 W trvale, navíc TDP je konfigurovatelné ­(320 až 400 W­) a týká se to jen některých modelů ne všech ­- 64 jádrové modely začínají na 240 až 300 W ­- psáno 280 W. A EPYC řady 9004 ­(tedy ZEN 4­) má 12 kanálů RAM ­- 460 GB­/s.
Odpovědět0  0
Podle toho co vím, nejvíc redukovali FPU­/vektory. Ale znovu pro ty, co moc nechápou. Vysoký počet ALU je k ničemu, když je nedokážete nakrmit daty nebo mikroinstrukcemi.
Odpovědět0  0
Pokud by jsi četl ten článek s rozhovorem s panem Kellerem, pochopil by jsi, že takto jednoduché to není. Navíc Pokud má X4 2x tolik ALU, ale IPC jen o 33 % vyšší, něco podle tvé teorie nehraje.
Odpovědět0  0
Mám tady něco pro Son_of_the_bit ale i další. Rozbor rozdílů a společných prvků procesorů ZEN 2, jsou tam i nějaké Intely a různých ARM. A dělali to s Jimem Kellerem. Někteří se asi budou divit.

https:­/­/chipsandcheese.com­/2021­/07­/13­/arm­-or­-x86­-isa­-doesnt­-matter/
Odpovědět0  0
Branch unit počítá skoky programu, je to tedy obdoba AGU.

"Třeba se jim rozsvítí u Zen 5 a udělají 4x FMA­" Tak o tom dost pochybuji. Protože už jsem viděl spoustu schémat procesorových jader a prakticky vždy je to tak, že jednotky v dané sekci mají rozdělenou funkčnost. Pravděpodobně se při tom vychází z toho, jak často je daná funkce potřeba a jaké funkce s ní společně počítány. Pouze pokud by daná jednotka byla jediná, tak by musela umět vše, to je případ POWER procesorů, kde v každém půljádře je vše důležité 4x, tak aby vlákna mohla běžet odděleně a jen některé části jsou sdílené. Procesor pak může fungovat s plným počtem čtyřvláknových jader, nebo polovičním osmivláknových...

A důvod proč při vyšším počtu ALU ­/ FPU ­/ vektorových či maticových jednotek na jádro nejsou stejné, je velice jednoduchý. Je za tím úspora tranzistorů a tedy výsledné plochy, navíc takové jednotky můžou funkce vykonávat s menším počtem cyklů a jsou tak rychlejší a navíc jich při vyřešení dekodéru a předpovědi programových skoků může být víc paralelenlě.

Odpovědět0  0
Já na nikoho neplivu, Jim Keller toho udělal hodně, ale ty jsi o něm psal, jako kdyby ten všechny procesory na kterých kdy pracoval, navrhnul sám. A asi by ses divil spíš ty, ale všechny výkonné procesory mají spoustu věcí společných, prostě proto, že to tak nejlépe funguje. Nejvíc je to vidět u moderních RISC procesorů. Když pominu POWER, což je čistě dílo IBM, tak ty ostatní včetně MIPS, PA RISC, SPARC, Alpha ­(na něm Keller taky pracoval­) a právě ARM pochází z university Berkley ­(ve skutečnosti jich bylo a je násobně víc­). takže logicky mají společné prvky. AMD taky mělo RISC 29000 i Motorola měla řadu 88000 a dokonce Intel i960, ­(i860 je opravdu něco jiné RISC, VLIW­).

Samozřejmě současné procesory Intel a AMD mají víc podobných prvků, protože pracují se stejnou instrukční sadou... Je to jako porovnávat automobily různých značek a tvrdit, že si jsou nějak moc podobné, prostě za ty desítky let už konstruktéři ví, co funguje a co ne... Je i lepší srovnání slavný Concorde a Tupolev Tu­-144 o kterém se tvrdilo, že je kopie s některými změnami. A pak přišli na to, že to tak není, protože dělali simulace a zjistili, že obě letadla mají jediný možný tvar pro dané rychlosti letu.

Počáteční nápad je důležitý, ale bez podpůrného týmu by žádný velký projekt vzniknout nemohl. Druhá věc, víme o lidech, kteří ten nápad měli první a nebo ho jako první úspěšně realizovali, ovšem může být řada lidí, co měli podobný ­(možná i lepší­) nápad taky, ale neměli možnost ho úspěšně zrealizovat. Vždy se mluví jen o těch prvních.
Odpovědět0  0
Ještě takový detail, IPC není dáno pouze počtem a hrubým výkonem ALU a FPU­/FMA jednotek, ty pokud nenají dost dat, tak výkon logicky trpí. Dekódování instrukcí a předpověď větvení programu v tom dost hraje roli. Proto není vůbec jednoduché udělat široké jádro. Proto není možné s jistotou tvrdit předem bez otestování, jaký výkon přesně bude a ten se navíc liší i podle zpracovávaného programu...
Odpovědět0  0
On jako jeden člověk dokáže sám navrhnout něco tak složité jako celý procesor, nebo aspoň jeho jádro sám? A pokud vede tým inženýrů, tak jasně že řekne, že ten procesor navrhnul.
Odpovědět0  0
Co to je za blábol 8+3 ALU? AGU se nepoužívá pro běžné výpočty. A právě jste si naběhl, protože jádro X4 z těch 8 ALU, je 6 jednoduchých ADD, takže toto zahrnout do plnohodnotných ALU, ale u ZENu ze stejného důvodu nepočítat polovinu FMA je hodně velká prasárna. Blokové schéma ARM X4 je k dispozici úplně stejně jako pro AMD. A ještě k té AGU ­- Address generation unit, z toho je snad patrné, co dělá a že není možné ji považovat za Arithmetic logic unit.
Odpovědět0  0
To ale pak není typický low end uživatel při tom výdělku...
Odpovědět2  0
Co se Bulldozeru týká. Ten procesor měl původně vypadat úplně jinak ­- měl být daleko výkonnější ­- celé jádro mělo být širší, ale nebylo dost peněz na vývoj. Kdybych si měl do někoho kopnout, je to Intel. S tím, kolik peněz mají, je to současné plácání na místě ostuda.
Odpovědět0  0
Na procesoru nebo grafickém čipu se od počátečního návrhu po uvedení na trh pracuje 4­-5 let, řekl bych tedy, že ten vliv na dení v AMD Mistr Keller už před lety ztratil.

K tomu IPC ARM když letošní X4. Pokud jde o celočíselné aritmetické a logické operace, tam ARM možná navrch má, ale pokud vím, jde jen o teorii. Nevím o tom, že by to reálné měření potvrdilo, protože žádný procesor s tímto jádrem zatím vyroben nebyl. Ale ve výpočtech v plovoucí řádové čárce a vektorových počtech už ARM X4 tak silný nebude. Reálně samozřejmě bude záležet i na implementaci dalších prvků, pouze jádro procesor nedělá ­- vnitřní propojení a konektivita.

S ohledem na zastoupení ARM v serverech se zatím AMD nemá čeho bát.
Odpovědět0  0
Záleží na ploše. Typický 4k monitor proti typickému FHD má podstatně větší úhlopříčku a tedy plochu. Při FHD rozlišení na 4k monitoru tedy vychází daleko větší pixely. To už by mohl rovnou mít na stole 32­" full HD televizi...
Odpovědět0  0
Možná vám to ještě nedošlo, ale u obecného procesoru je kromě propustnosti důležitá taky latence a pokud chcete srovnávat, tak aktuální generace. Navíc ZEN 4 EPYC je možno osadit až 3 TB RAM, ZEN 3 EPYC 2 TB RAM na patici. To u serveru a často i pracovní stanice důležitější. O tom se zase Apple ani nesnilo a taky proto museli základní cenu Mac Pro proti starší generaci s Intel Xeon snížit. 192 GB na pracovní stanici fakt nestačí.
Odpovědět0  0
Tak jak je to napsané, to zní jako by po jeho odchodu už inženýři v AMD neměli žádnou práci. Pokud vím, tak v době návrhu ZEN 1 byl šéfinženýr, tedy jen rozhodoval, co budou dělat lidé pod ním a i kdyby byl do vývoje nějak víc zapojený, od té doby na dalších generacích bylo odvedeno hodně další práce a třeba centrální chiplet je něco, s čím se v návrhu ZEN 1 vůbec nepočítalo. Přitom v současnosti se pracuje jak na ZEN 5 tak i ZEN 6. Procesorové týmy jsou dva a troufám si tvrdit, že silnější než za jeho působení. Ten chlap má za sebou spoustu dobré práce, pracoval i na procesorech DEC Alpha ostatně z toho pak těžil i při práci na K8 a Athlonu 64, ale až tak bych jeho vliv na současné procesory AMD nepřeceňoval.
Odpovědět1  0
4k monitor opravdu v low­-endu není právě typický. Navíc člověk, který nad výdaji přemýšlí, si nebude kupovat monitor, na který mu low­-end grafika nebude stačit, nehledě na rozdíl ceny u těch monitorů...
Odpovědět1  0
"AMD má skvělé inženýry, ale ve vedení jsou naprostí pitomci.­" Zajímavé AMD od situace, kdy mělo zkrachovat stále roste, ale vládnou mu pitomci. Možná jen vidí trh jako celek a ví na čem kolik vydělají...
Odpovědět1  2
"natrhne trenky i serverovému Zen 3 Epycu­" a kterému? Smím­-li to vědět. Většinou vychází nastejno s desktopem v podobě AMD Ryzen 9 7950X...
Odpovědět0  0
A vy myslíte, že je to problém těch firem, tedy podle vás spolupracují s vládou dobrovolně a nebo proto že musí. Napadlo vás, co by třeba mohly dokázat, kdyby mohly víc spolupracovat se západem? Nebo jste si nevšiml, kam se dostaly výrobci čínských telefonů, než je americká vláda stopnula?

Nadáváte jen na čínskou vládu, nebo na Číňany obecně?

Pokud se mi něco líbí a jde o ukázku dobré inženýrské práce, je mi celkem jedno, kdo a kde to vymyslel a vyrobil. Hodnotím pouze, jak je to udělané.
Odpovědět0  0
Čína nemá vůbec šanci se k technologiím dostat legálně. To je jedna věc. Další je to, že už opravdu tak moc nekopírují, ale už mají vlastní vývoj. Ano jsou třeba v něčem pozadu, ale západ se na dnešní úroveň dostával desítky let, možná ze za nějakou dobu budeme divit a nebo taky ne, ale předjímat nic nejde.
Odpovědět0  0
Threadripper do patice AM5? Zajímavé.
Odpovědět0  0
Myslím, že velké investory stejně tak jako země, které poskytují dotace, mají na starosti úplně jiní manažeři než běžné spotřebitele a i o ty se stará někdo jiný než o korporát a OEM.
Odpovědět2  0
Jenže v té době zrovna AMD v nejlepší kondici fakt nebyla.
Odpovědět0  1
Možná si nepamatuji všechno, ale určitě úmyslně nelžu. Jen už je to dlouho, co jsem si o tom četl.
Odpovědět0  0
Alphu zabil přímo Digital, když firma začala krachovat, koupil ji Compaq, který sám byl v problémech a ten byl potom koupený HP, které ale měl vlastní PA RISC a navíc začínalo vývoj Itania s Intelem. Tam nebyla šance, že by Alpha procesory přežily. Kromě toho je otázka, jak dlouho by se dařilo držet náskok. Alpha procesory měly ručně optimalizovaný návrh ­(v době kdy ostatní používali automatický­) a díky tomu dosahovaly vyšších taktů, jenže kvůli tomu byly taky velmi drahé.
Odpovědět0  0
I tak má ten hybrid dost vysokou spotřebu. A ještě taková vtipná poznámka. Výpočty na GPU nevymyslela Nvidia ale AMD. Ovšem Nvidia na tom nyní vydělává. Já jsem taky nepsal, že je to lepší řešení, pouze to že je energeticky efektivní, protože dostat se na stejný výkon jen s CPU znamená větší spotřebu.
Odpovědět0  2
Srovnávání IPC u různých architektur CPU může být problematické. Měří se nějakým algoritmem a ideálně by těch algoritmů mělo být co nejvíc. Protože jinak se může stát, že máme dva procesory a oba vypadají stejně výkonně nebo je rozdíl do pár procent, ovšem v jiné zátěži je jeden lepší a v další je zas pomalejší a klidně v násobcích. Takže to že má ARM Neoverse V2 IPC o 19% větší než Zen 4 nemusí nic znamenat.
ARM má čistější architekturu než x86­-64, ale vývojáři s x86 zase pracují déle a znají dobře slabiny i silné stránky a umí s nimi pracovat. Navíc v reálném světě o úspěchu nerozhoduje pouze lepší výrobek. Hodně dělá i samotný trh a přechod na ARM pro někoho může být moc drahý.
Odpovědět1  1
To je tedy docela zajímavé, že prakticky všichni dělají superpočítače s GPU. Asi takový problém nebude a nejspíš ten stroj počítá natolik masivní množství dat, že software optimalizovat jde a patrně je těch dat tolik, že potřebného rozhodování nebude tak moc. A nebo je to prostě jen tím, že energetická efektivita naroste natolik, že větší nároky na datové přenosy prostě nevadí. Ostatně to že Nvidia i AMD kombinují CPU přímo do akcelerátoru, bude asi funkční řešení celého problému. A ještě drobnost, určitě nikdo nedělá superpočítač za desítky milionů dolarů, jen aby na něm pouštěl benchmark.
Odpovědět0  0
Fujitsu FX64 není úplně dobrý příklad, sice spočítá vše bez pomoci GPU ale za cenu násobné spotřeby. A ta u superpočítače může rozhodnout o tom, zda se takový stroj vůbec vyplatí.
Odpovědět2  0
To je sice fakt, ale hostitelský server už občas důvod k restartu mít může. I kdyby jen kvůli updatu.
Odpovědět0  0
Četli jste to celé? Týká se to úsporného stavu C6, stačí ho vypnout a je po problému.
Odpovědět0  0
Tak patrně jsou ty převodníky sériové, tedy jeden na víc pixelů. Přesněji po třech ­- máme tři barevné subpixely a někde ještě čtvrtý na samotné podsvícení. Ale u větších ploch nebo vyšších obnovovacích taktů bych hádal sérioparalelní rozdělením na menší plochy. Fakt nevím, jak rychlé ty převodníky můžou být, ale asi tam bude i limit v rozlišení, že ty přesnější možná budou pomalejší.
Odpovědět0  0
Ani nevím, jak by mohli. Pokud je víc variant a výrobci si to dělají podle sebe a standardu se nedrží ­(ani neexistuje­), tak to je nereálné. Za problémy můžou výrobci konektorů a zdrojů tím, že ty konektory používají a ne výrobce karty. Proto snad existují standardy, aby se takové věci nestávaly.
Odpovědět0  0
Pro mne je to jedno. Píši o některých, ne o všech. A jak je v článku uvedeno, jedná se o konektory které ani nejsou standardizovány.
Odpovědět0  0
Konektory se dávají blízko napájecích kaskád a ty zase blízko míst s velkým odběrem ­- CPU, GPU nebo RAM. Nebudou kvůli dizajnu předělávat celou desku plošných spojů, ty se optimalizují úplně jinak.
Odpovědět1  0
Problém není přímo v konektorech v tomto případě ale v tom, že zákazníci kupují HW i podle designu, aby to dobře vypadalo s průhlednou bočnicí a pak výrobci magoří a dělají na karty a desky kryty, které často přímo na funkci nemají vliv, ale zhoršují zacvaknutí napájecích konektorů, to je celé. Neděla bych z toho vědu.
Odpovědět4  0
S tím kolik projektů v poslední době Intel zrušil, včetně CPU a GPU, je otázka jak to celé reálně dopadne. Ale bylo by komické, kdyby superpočítač roky odkládaný byl hotový později než nově ohlášený od stejného dodavatele...
Odpovědět0  0
Pořád jedna odpověď zůstává. Co ty dlouhé cesty mimo civilizaci?

"neexistuje řešení pro všechny­", jsem napsal já a víte proč, aby jste odpověděl na zbytek otázek. Protože z vás mám pocit velikého podporovatele elektromobility.

Z nějakého důvodu, i když v rámci Evropy mají jeden z nejvyšších životních standardů je nejhustší síť MHD a vlaků ve Švýcarsku. To je snad jediná země, u které věřím, že by ten přechod zvládla bez potíží. Tam ani ředitelé neříkají socka MHD. To je na zamyšlení.

Tohle by měl být náš cíl a ne elektroauto do každé rodiny nebo dvě. To co předvádíme je: ­"Hele já mám větší barák a lepší auto­"

Je to o přístupu k životu a s tím elektromobilita neudělá nic, nijak nám nepomůže. A ty kecy o CO2 už mi lezou krkem. Zkusil jste ten výpočet, jak jsem psal? Určitě ne.
Odpovědět0  0
Energii na 50km výjezd ­(což už je dost nadprůměr­) nabijete 50kW nabíječkou asi za půl hoďky, na 22 kW ­- no chudák akumulátor. Elegantnější by to bylo výměnou s možností pomalého nabíjení. Nicméně fakt dlouhé cesty mimo nabíječky pořád vyřešené nejsou, neříkám, že to trápí víc než 0,5 % uživatelů v Evropě, ale jsou takoví a ti budou dělat co? Dokud nejsou odpovědi na vše a dokud není dořešena distribuční síť, třeba nabíjení aut lidí, co žijí v paneláku, ti asi mají smůlu. Vidíte to celé pořád jen z jednoho úhlu, neexistuje řešení pro všechny. Ostatně proto Tatra vyvíjí stále spalovací motory, asi ví něco co vy ne.
Odpovědět0  0
Problém je v tom, že hvězdy na to tak vysokou teplotu vůbec nepotřebují. Tam totiž ta reakce vzniká působením tlaku jaksi přirozeně díky gravitaci. Ale takový tlak na zemi nevytvoříme.
Odpovědět1  0
Už u dnešní generace jsou vodou chlazené servery. Kdyby to měl být problém, asi by to nikdo nechystal. Serverový trh je zásadní jak pro Intel tak pro AMD, určitě o tom výrobci serverů ví mnohem déle než mi tady.
Odpovědět0  0
Akumulátory se vyvíjí, to je jasné. Ale srovnávat laboratorní a provozní podmínky, to asi úplně nejde. A pokud píšete: Pohybuje se to okolo 60­­-80 %, tak bych u toho zatím zůstal.

Co se CO2 týká, to se asi dost přeceňuje. Stálo by za to spočítat, kolik ho celkově v atmosféře je a kolik ho lidé spalování fosilních paliv vyprodukují. Možná se budete divit.

Ani samotné oteplování není úplně potvrzeno, protože Země má své vlastní cykly, je jich víc a jsou různě dlouhé, takže pokud nevíme přesně co se se Zemí děje, nedělal bych závěry. A vědci se nedokážou shodnout.

Takže celé mi to zakazování všeho možného přijde jako zelený terorismus ještě případně urychlovaný lobby velkých výrobců. Stále totiž na přechod k plné elektromobilitě není spousta věcí připravena. Vím jen to, že solární šílenství s tím, jak těžko je výkon odhadnutelný předem už i v naší zemi musel být řešen odstávkou, aby nedošlo k přetížení sítě a blackoutu. Dokud toto nebude vyřešeno, je zákaz spalovacích motorů předčasný.

A dalšímu jste se raději úplně vyhnul. Myslím ty offroady, hasiče, armádu a další.
Odpovědět0  0
Přes 80% se mi u rekuperace moc nezdá. Měniče můžou pracovat s účinností 99 %, to beru. Účinnost elektromotoru v režimu alternátoru nevím, ale účinnost akumulátorů se 80 % ani neblíží. Celková účinnost elektrovozu je sice vyšší než u spalovacího, patrně i díky tomu, že nepotřebuje převodovku, ale když vezmu celý řetězec od výroby elektřiny, až tak velký rozdíl v tom nebude. Mě osobně přijdou hybridy především pro některé aplikace asi nejlepší. Neumím si představit klasický offroad pro cestu někam mimo civilizaci čistě v elektřině. A pro hasiče nebo armádu případně pohotovost, čili auta, která na nabíjení nemusí mít dost času taky.
Odpovědět0  0
20% není značná část, je to 1­/5. Ale to je pro vás asi jen slovíčkaření.
Odpovědět0  0
Ale ona ta účinnost rekuperace zas není taková, ostatně účinnost akumulátoru obecně není kdovíjaká. Takže ano nějaká část energie se sice vrátí rekuperací...
Odpovědět0  0
MHD by byla ekologičtější, kdyby jí jezdila většina cestujících. Ale tím, že dost lidí v autech fakticky ucpává provoz, není provoz tak plynulý. A právě zastavování a znovu rozjezdy dost zvyšují spotřebu i dobu průjezdu daným úsekem. Někde to řeší samostatné pruhy, koleje ­(i když tramvaj je zase těžká­) a podobně.
Odpovědět0  0
Já jedu na 3­-2200 G a zatím stačí. Jen jsem ho posílil externí grafikou.
Odpovědět0  0
Až na to že ME nepatří do rodiny NT, byly poslední na DOSu, navazovaly na 98SE, ale měly sjednotit prostředí s 2000. Taky byly podporovány nejkratší dobu.
Odpovědět1  0
Nehledejte na YouTube, snad umíte číst. Normálně hledám na webu a vždy vyskočí dost recenzí, které si můžu přečíst.
Odpovědět1  0
a to si ale můžete sám, jen blázen si myslí, že levný model umí totéž co Top. Vždy si čtu hodnocení toho, co jsem si vybral a nejlépe z více zdrojů. Jen tak vím předem, co kupuji.
Odpovědět0  0
Myslím že ne, je to vidět na vrstvené Cache, která na jeden čiplet vyžaduje, pokud si dobře pamatuji 36 tisíc spojů. Navíc Cache, je fakt citlivá na latence a prodloužení spojů už by mohl být problém. Co je reálnější, že by L3 vůbec nebyla na čipletech a zůstala jen na druhé vrstvě, o tom se uvažuje jako o jedné variante pro další generaci zmenšených jader, takže ten poměr už by nemusel být 96 ku 128 klasika a C verze , ale třeba dvojnásobek. Ale zda by se to vyplatilo i spotřebitelské CPU mimo servery, fakt nevím.
Odpovědět0  0
To je jasné, ale pokud ke komunikaci je třeba vyšší napětí ­- sběrnice ­- tak s tím už řadič pracovat musí. Každopádně to už je jedno, ukázalo se, že BIOSy umožnily bez vědomí uživatele do CPU pustit víc, než bylo přípustné.
Odpovědět0  0
To je vážně absurdní představa, nicméně tu někdo potvrdil, že existují RAM, které pracují na vyšším napětí než vrstvená cache zvládne. Nicméně příčina odpálení těch procesorů už je známá, MSI a ASUS to přiznaly.
Odpovědět0  0
Ten článek jsem taky viděl, je to dost neobvyklá kombinace, tohle napětí je na DDR5 už celkem dost.
Odpovědět0  0