Zpět na článek

Diskuze: AMD uvedlo nové EPYCy Genoa-X s 3D V-Cache

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Rychlé přihlášení přes:

sonofthebit
sonofthebit
Level Level
14. 6. 2023 19:41

Komentáře tohoto uživatele máš zablokované.

Musím uznat, že AMD předstihlo serverovou plaformu ARM. Ta umožňuje pouze 512 MB L3 cache. 1152 MB je víc jak dvojnásobek.

snajprik
snajprik
Level Level
14. 6. 2023 22:27

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Hlavne tie ARM CPU nevedia ani polovicu inštrukcii čo AMD spracuvaju menej operacii za cilkus ako AMD a hlavne žeru viac pri niššich taktoch.
Intel zaspal dobu, už mal mať na trhu 2nm vyrobu, ale nevie odladiť ani 7nm...

akulacz
akulacz
Level Level
Procesor: AMD
Grafická karta: AMD
Operační systém: Linux
14. 6. 2023 23:31

Komentáře tohoto uživatele máš zablokované.

@snajprik A u jablečných opráší staré šasi a vrátí se štěrbina na CD. Budou se tam strkat řízky ( v případě veganů kus zelí) když to tak žere, aby to nezdechlo... Nebo jestli je v armu taková banda debilů, aby jim trvalo zpracovat jednodušší instrukce déle než u x86?

sonofthebit
sonofthebit
Level Level
15. 6. 2023 09:27

Komentáře tohoto uživatele máš zablokované.

@snajprik Fakta:
- ARMv9 umí mnohem víc instrukcí než x86 (NEON, SVE, SVE2, SME, SME2)
- ARMv9 má výkonější nstrukce, umí totiž 2048-bit vektory
- dnes má SVE2 každý mobil
- x86 ani po 7 letech nemá AVX512 každý CPU, a SW téměř neexistuje.... a hlavně jen 512-bit
- SVE je Scalable, tedy stejný SW může běžet na superpočítači s 2048-bit SIMD SVE ale taky v mobilu na little jádře se 128-bit SIMD
- x86 pořád jede fixní délky SIMD stejně jako v ˇdevadesátkách MMX, 30 let za vopicema

- ARM CPU s SVE vektory umí porazit Nvidia GPU
- nejrychlejší superpočítač na světě 2020: CPU-only Fugaku používající instrukční sadu ARM/SVE

- ARM i Apple zahodil 32-bit ARMv7 kompatibilitu
- tedy každý tranzistor je pro max výkon v moderním 64-bit SW
- x86 pořád drží 16-bit a 32-bit humus.

- CISC = komplexní instrukce = splácnutých několik instrukcí dokupy = variabilní délka kódování = úspora pár kB v roce 1978 = brutální problém s paralelním dekodováním instrukcí v 2023 když jedna instrukce může mít 1 bajt až 15 bajtů.
- RISC = oddělené instrukce s fixní délkou 4 bajty, potřebuje jádro X4 dekodovat 10 inst/takt? Není problém, 10. instr. leží na 40. bajtu. U x86 může 10. instrukce ležet na 127 různých místech, celkově všech deset na 639 místech.
- ARM binárka je asi o 15% větší než x86, tolik k té ohromné úspornosti CISC a rozdílu počtu instrukcí
- ve skutečnosti je počet instrukcí stejnej, protože jak CISC tak RISC se musí rozložit na atomické microOPs(RISC), a teprve ty mOPs se zpracovávají na výpočetních jednotkách s každým taktem CPU.

- všechny CPU jsou dnes RISC, jen ty s x86 musí navíc překládat x86 CISC instrukce do vnitčních RISCových microOPs
- proto x86 bude vždy žrát víc energie a mít víc tranzistorů na stejný výkon, musí tam být ten HW překlad CISC->RISC.
- logicky RISC má jen minimální dekodér, kde probíhají jen nějaké fúze (třeba shift který tě nestojí ani takt si ALU jednotka načte data posunuté, ale ten shift musí mít vlastní instrukci o kolik se má posunout), takže super efektivita a minimální overhead
.
.
.
Co si myslí 99% uživatelů PC:
- CISC má komplexní instrukce a to musí být přece něco extra když to má v názvu to X, že jo mámo, taky Franta říkal že když dá v traktoru redukovanou dvojku tak jede pomaleji, takže ty redugované RISC instrukce musí být pomalejší.

Reklama
Reklama