Zpět na článek

Diskuze: Vychází recenze GeForce RTX 4060: o 18 % rychlejší než RTX 3060, překoná RX 7600?

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Rychlé přihlášení přes:

unreall
unreall
Level Level
3. 7. 2023 16:31

Komentáře tohoto uživatele máš zablokované.

Ale veď nvidia už nejakú dobu predsa žiadne GK nepredáva. Predáva technológie a k nej pribaluje nejaký ten Hardware.

A každá ďalšia generácia bude samozrejme zvládať novú verziu DLSS, ktorá už ale nepojde na generácii predošlej… Pekne si to vymysleli a evidentne im to aj vychádza…

tombominos
tombominos
Level Level
1. 7. 2023 13:26

Komentáře tohoto uživatele máš zablokované.

Koukam, ze jak jablecny, tak ALU evangelista jsou tady v plne pilni :))

kutil05
kutil05
Level Level
30. 6. 2023 22:16

Komentáře tohoto uživatele máš zablokované.

Mám tady něco pro Son_of_the_bit ale i další. Rozbor rozdílů a společných prvků procesorů ZEN 2, jsou tam i nějaké Intely a různých ARM. A dělali to s Jimem Kellerem. Někteří se asi budou divit.

https://chipsandcheese.com/2021/07/13/arm-or-x86-isa-doesnt-matter/

sonofthebit
sonofthebit
Level Level
1. 7. 2023 15:39

Komentáře tohoto uživatele máš zablokované.

@kutil05 Chips&cheese tradičně kope do ARMu, to je celkem známá věc. Stačí si přečíst rozbor ARM Graviton 3 alias V1 jádra, které v IPC dorovnalo Zen 3.

To že vytrhávají z kontextu Kellerova slova, že na ISA nezáleží, aby v zápětí citovali Kellera jak říká že kdyby stavěl výkonný CPU tak by si vybral RISC-V který nemá žádný historický balast. Takže vlastně na ISA záleží co? Ale ARM je fuj, protože je stejně starej jako x86 a má hromadu balastu.

Akorát zapomínají záměrně nebo z neznalosti, že 64-bit ARMv8 je úplně nová ISA která je binárně nekompatibilní, používá jiné kodovaní Opcode, zahodila to zbytečné predikování větvení v Opcodu, to uvolnilo bity pro rozšíření registrů z 16 na 32 (mimochodem 32-bit x86 má jen 8 registrů a 64-bit jen 16), používá jiné instrukce, a třeba už nemá Programm Counter namapovaný na GP registr jako to měla 32-bit ARMv7. Shrnout se to dá slovy, že 32-bit a 64-bit ARM ISA jsou tak rozdílné, že v CPU musí být defaktro dva separátní dekodéry. To byla nevýhoda, ale dnes to umožnilo ARMu zahodit komplet 32-bit a uvolnit tranzistory pro výpočetní jednotky a maximální výkon v 64-bit. Ale tohle se tam samozřejmě nedočteš, že od X2 z roku 2021 už ARM má čistě 64-bit jádra a 32-bit zahodil do záchodu. Tohle x86 udělat nemůže protože 16-bit 286, 32-bit 386 i 64-bit x86-64 používá to samé binárně kompatibilní kodování. To byla výhoda protože to bylo zpětně kompatibilní a CPU nemusel mít zdvojené dekodéry, ale dnes je to koule na noze která nejde zahodit.

Další lži ohledne microOp cache, která od A77 až po X2 je i v ARM jádrech a má dokazovat, že dekodování ARMv8 je stejně naprd jako x86. Opět ti zatají, že nejvýkonnější ARMy, tedy ty od Apple nepoužívají microOp cache vůbec. Není to lež, ale úplně jasně to manipuluje a uvádí to čtenáře v omyl. Vrchol absurdity je, že X3 microOP cache zredukovala na minimum a nová X4 už žádnou microOP cache nemá vůbec po vzoru Apple.

A jako poslední věc je ten profesor z MIT na YT jak vysvětluje polynomickou explozi kombinací kterou trpí CISC x86, protože každá instrukce může být zakodována do 1 bajtu až max 15 bajtů. Matematika základní školy stačí na to, aby si člověk v excelu udělal tabulku kolik kombinací mám pro každou další instrukci kterou chci dekodovat paralelně. Dekodér pro 10 intrukcí/takt musí řešit 639 různých kombinací kde ty instrukce od 2 až po 10 můžou začínat. A světe div se, ARM nemusí řešit žádnou kombinaci, proto každá instrukce má fixní délku 4 bajty. Chceš 20 instrukcí / takt? Není problém, 20. instrukce leží přesně na 77. bajtu. U x86 může 20. instrukce ležet na 267 různých místech a celkově by CPU pro všech 20 instrukcí musel řešit 2680 různých kombinací. Je asi každému jasné že tohle není triviální problém už jenom proto, že inženýři musí plýtvat svým časem na řešení tohodle zbytečného problému místo aby makali na zvyšování výkonu.

A ty lži, že x86 může být stejně úsporný nebo dokonce ještě lepší než ARM to úplný vrchol. Mobilní telefony jsou 400 miliardový USD trh kdežto servery jsou 50 miliard USD. Intel se pokusil vstoupit s Atomy do tabletů a mobilních telefonů a víme jak to dopadlo - prodělal miliardy a byl rád že ty Atomy upíchnul alespoň do Asus Eee. Taky víme jak dopadl GPU akcelerátor s x86 jádry aneb Intel Larabee. Až budou x86 v telefonech a budeou porážet ARMy výkonem a úsporností tak klidně smeknu klobouk a přiznám že x86 může být stejně dobrá jako RISC. Inženýři nejsou pitomci a moc dobře ví že x86 z principu nikdy nemůže být stejně efektivní jako RISC. Protože každej x86 CPU vnitřně funguje jako RISC, takže každému studentovi musí dojít že ten překlad instrukcí CISC-to-RISC je zbytečně stojí tranzistory a energii.

kutil05
kutil05
Level Level
1. 7. 2023 16:17

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Že se něco Intelu nepodařilo, neznamená, že by se to někomu jinému podařit nemohlo. Vždy když se porovnávají odlišné architektury, jsou tam výsledky, které líp sedí jednomu procesoru, jiné zas dalšímu. Zrovna jsem si vyhledal srovnání AMD, XEON a EPYC a je velice těžké jednoznačně určit, která architektura je lepší, zda ARM nebo x86-64. Jediné co jednoznačné je, že v tom, na co se zrovna dívám, je jednosocket 24 jader EPYC lepší než dva sockety XEON po 28 jádrech. ARM 32 jader je někde lepší a někde horší. Jenže ty rozdíly oběma směry jsou i násobné. Pokud by z toho někdo udělal průměr a tím stanovil IPC, může být výsledek dost zkreslený. ˇÚ plně totéž bylo vidět i kdekoliv jinde, kde byly testy dost podrobné. A je jedno, co srovnáváme, jestli Intel, AMD, ARM nebo POWER. Nikdy nejde jednoznačně říct a nějak zobecnit, který procesor je celkově lepší. Softwarová optimalizace může někdy udělat víc, než změna hardware, ale není to vždy pravidlo. Spotřební SW na PC má k dobré optimalizaci daleko. Testy pod Linuxem, ale zase uživateli Windows moc neřeknou...

sonofthebit
sonofthebit
Level Level
1. 7. 2023 17:32

Komentáře tohoto uživatele máš zablokované.

@sonofthebit HW výpočetní jednotky jsou KING (ALU a FPU). Všechno ostatní i ta ISA je nutné zlo, které pomáhá ty výpočetní jednotky krmit. Nejlepší ISA je žádná ISA - to je důvod proč ASIC encodéry videa jsou mnohem efektivnější než enkodování přes SW. Ale zase na tom nespočítáš nic jiného. Lidský mozek taky žádnou ISA nemá a přesto je milionkrát výkonnější než sebelepší počítač. Z toho plyne že dobrá ISA nebrzdí HW výpočetní jednotky tak moc jak ta špatná. Cache taky výkon nezvyšuje, protože nic nepočítá, jen když je jí málo, tak nestíhá zásobovat výpočetní jednotky. Stejně tak každá ISA víceméně brzdí výpočetní výkon.

Vem si že ISA neumožňuje běh více vláken na více procesorech a tento nedostatek musí oklikou řešit OS a programátoři to musí ručně řešit vytvářením vícevláknových programů. Přitom by ISA mohla mít instrukce pro spuštění paralelního vlákna a tedy CPU by mohl sám rozhodnout zda to spočítá přes ALU, vektory nebo to pošle vedlejším CPU - to vše automaticky/dynamicky podle toho jak kolik výpočtů/instrukcí to vlákno má. Nízké desítky instrukcí hodí jen na ALU, stovky instrukcí se už vyplatí hodit na vektory a desítky tisíc instrukcí se vyplatí poslat na ostatní CPU. Tady vidíš že ani ten ARM nebo jakýkoliv současný RISC není úplně dokonalý a jsou tam fundamentální problémy, které ještě čekají na vyřešení od nějakého nového Kellera, Muska či někoho podobného.

Osobně si myslím, že co se týče ISA tak ještě uvidíme hodně zajímavé věci. Ono totiž neuronové sítě alias AI produkují výsledky jaké umí spočítat algoritmy přes ISA, ale přitom AI žádnou ISA nemají, jsou mnohem výkonnější protože nemají onu ISA a zároveň umí řešit mnohem složitější problémy než sebelepší člověkem vytvořený algoritmus. Dá se říct že neuronové sítě mají do těch svých matic/neuronů zakodované jak data tak i samotný algoritmus, což opravdu obchází onen klasický počítač s ISA. Navíc neuronové sítě dělají výpočty paralelně (proto se používají na trénování GPU karty), což je obrovské plus oproti striktně seriovému vykonávání instrukcí u všech současných ISA.

Ten kdo vynalezne hybrid RISCu a neuronových sítí, ten bude asi hodně bohatý člověk. To by mohlo posunout výkon o několik řádů nahoru a zároveň masivně zjednodušit programování (tedy snížit náklady). Obrovská výhoda AI je ono učení, což je vytváření algoritmů automaticky bez jediného programátora. Vymyslet chytrou ISA která by dokázala ušetřit třeba 50% času prográmatora, tak to se bavíme o stovkách miliard ušetřených ročně. Kdybys z toho měl třeba 1% za prodej licencí, tak je to docela slušnej ranec.

kutil05
kutil05
Level Level
1. 7. 2023 18:19

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Aha takže struktura cache, registrů, prediktor větvení, vykonávání mimo pořadí - nic z toho tam asi k ničemu není, jen to seřazuje mikroinstrukce (v čistých RISC přímo intrukce) do optimálního pořad, aby procesor dal optimální výkon. K registrům a cache ještě partří Load-Store jednotky, samozřejmě výpočet adres a řadiče pamětí, cache a sběrnic. Ale podle vás to moc práce nedá a nastrkat paralelně klidně dva tucty výkonných jednotek by tedy mělo být snadné. Řídit vše přímo programem moc nefunguje, říká se tomu VLIW (anglicky very long instruction word), Intel to zkoušel 2x. Poprvé jako i860, ten se nejvíc uplatnil v grafické části SGI pracovních stanic a možná v některých laserových tiskárnách a pak známé Itanium. Ani jeden moc jako samotný CPU nefungoval.

sonofthebit
sonofthebit
Level Level
1. 7. 2023 21:08

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Opakuji znova:

1) ASIC encodéry žádnou ISA, ani Load/Store jednotky ani nic co je v běžném CPU nemají. A přesto jsou výkonnější a efektivnější než CPU. Veškeré algoritmy mají pevně zadrátované a jediné co potřebují je vstupní a výstupní buffer pro zpracované data.

2) Neuronové sítě jako třeba lidský mozek nemá ani ty buffery ani žádnou paměť. Každý neuron je jedna velice výkonná ALU jednotka se svou vlastní pamětí. A ta ALU jednotka umí zpracovat tisíce paralelních vstupů za jediný takt (neuronové synapse). Neurony v lidském mozku mají v průměru 7000 spojení na jiné neurony, což je pořádná dávka dat na zpracování. Přesto, nebo spíš právě proto, lidský mozek má větší výkon než všechny počítače na světě dohromady.

Takže ano, lidský mozek prakticky dokazuje že můžeš mít 100 miliard super výkonných ALU jednotek s vlastní malou pamětí a žádou ISA, žádné dekodéry ani cache, ani jádra, ani re-order buffer, ani nic jiného nepotřebuješ.

VLIW je dobrá myšlenka na explicitní paralelní zpracování, ale velmi špatně provedená. VLIW je ISA přímo na míru HW, což porušuje univerzálnost/abstraktnost ISA, takže to neumožňuje škálovat výkon (počet ALU a jiných jednotek v CPU) nezávisle na ISA. Má to výhody pro jednoduchá GPU jádra, která jsou schovaná za GPU driverem s vlastním kompilátorem, ale pokud chceš změnit počet ALU jednotek tak musíš změnit ISA, což opravdu je u CPU naprd, nehledě na to že OoO engine v CPU si umí extrahovat daleko větší paralelismus díky spekulativnímu vykonávání (VLIW je vlastně in-order palelismus stanovený při kompilaci). Ten kdo vymyslí hybridní ISA co bude mít výhody RISCu a zachová myšlenku o paralelním zpracování z VLIWu, ten bude hodně ve vatě. Snad si nikdo nemyslí že CISC nebo RISC je konečná a nikdo už nevymyslí nic lepšího.

kutil05
kutil05
Level Level
1. 7. 2023 21:40

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Napsal jsem to proto, že se tu bavíme o klasických CPU a ty prostě ta data i instrukce pro výkonné jednotky nějak připravit musí ASIC bych do toho fakt netahal protože proti němu jsou i GPU a patrně i digitální signálové procesory násobně universálnější. Původní myšlenka RISC ještě bez dekodérů, zpracovávající opravdu jednoduché instrukce byla asi nejčistší, ale jak je vidět, nevydržela.
Dokonce jeden z nejlepších RISC - procesor Alpha 21264 / EV6 přišel jako první s vykonáváním mimo pořadí a když pominu postupné přidávání výkonných jednotek, tak právě nové instrukce převážně vektorové a v poslední době maticové přidávají největší porci výkonu na jádro při stejném taktu. Takže výkonný CPU se ještě dlouho bez ISA neobejde.

sonofthebit
sonofthebit
Level Level
2. 7. 2023 10:20

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Myšlenka původního čistého RISCu přece vydržela dodnes - microOps nejsou nic jiného než jinak nazvaný původní čistý RISC.

Dnešní RISC se evolucí postupně vyvinul ke stejné komplexnosti jako CISC, ale bez nevýhod CISCu. To bych připisoval spíš chytrému kódování a snaze snížit velikost binárky (zvýšit kompresi informace) kdy se nejčastěji používané instrukce sfůzují dohromady (viz ten LDADD co zmiňovali na CHips&cheese). Jeden ze způsobů co ARM zkoušel byla ISA zvaná Thumb a Thumb2, což umožňovalo u těch nejčastěji používaných instrukcí použít 16-bit kodování místo 32-bit takže binárka mohla teoreticky dvakrát menší a tedy překonávala v hustotě i x86 CISC. Dodnes se to používá v mikrokontrolérech od ARMu a používá to i konkurence v ESP32 od Tensilica. Ale u velkých OoO CPU se to nikdy nepoužilo, protože ta variabilní délka komplikuje dekodování skoro jako u toho hrozného CISCu x86 (byť 2 možné délky instrukce jsou pořád lepší než 15 možných délek u x86). Prostě inženýři nakonec přišli na to, že pro HW je lepší fůzovat instrukce a přidávat funkcionalitu do 32-bit než pak složitě řešit polynomickou explozi u dekodérů.

Myslím že první OoO byla EV5 a nejlepší byla EV8 která uměla jako první SMT a to rovnou 4 vlákna na jádro. Taky měla brutální 8xALU a 4xFPU, což by byla v 2003 naprostá pecka a Pentia 4 a K8 Athlony by to rozesekalo na maděru. Intel Alphu koupil, vytuneloval patenty použité k vývoji EV8 a zrušil to komplet (třeba memory disambiguation technika pro EV8 byla použita v Core 2 Duo a proto to byl tak obrovský IPC skok proti P-M a P4). Tragické je že teprve po dlouhých 20-ti letech přišel ARM s 8xALU jádrem X3, takže díky Intelu vývoj CPU 20 let stagnoval. Jinak poslední vydaná byla EV7 která byla revoluční tím, že měla jako první integrovaný paměťový řadič (což AMD okopčilo do K8 protože spousta inženýrů z DECu přešla k AMD). A to nemluvím o tom že Intel přemluvil HP aby zrušilo vývoj vlastních CPU na bázi PA-RISC ISA. Prostě x86 je zlo, které napáchalo a stále páchá obrovské škody díky svému monopolu. Jim Keller vývojem AMD K12 na ARM ISA chtěl AMD z toho x86 humusu vyvázat, ale Lisa Su chěla zůstat u monopolního lizu co nejdýl a K12 zrušila. Dnes by mohlí mít víc peněz z mobilů než z PC, ale vysvětluj chamtivé manažerce z IBM že s x86 mobilní telefon udělat nejde.

Asi každý kdo se zajímá o CPU si někdy vytvořil vlastní ISA. Já mám 3 verze různě modifikového RISCu, ale kromě zábavy to moc užitečné není. Vytvořit novou ISA není problém, viz ten Danilák ze Slovenska a jeho Tachyum Prodigy CPU. Problém je aby byla lepší než ty současné a to je sakra těžké. Mimochodem je spousta ISA které si nadšenci/studenti navrhli sami:
https://www.youtube.com/watch?v=HyznrdDSSGM&list=PLowKtXNTBypGqImE405J2565dvjafglHU
https://oldcomp.cz/viewtopic.php?f=138&t=12053

kutil05
kutil05
Level Level
2. 7. 2023 12:19

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Jak PA-RISC, tak Alpha skončily kvůli společnému vývoji Itania (Intel & HP). EV 8 zůstal jen na papíře, ale v plánu byla další dvě vylepšení: Jednak fyzické dvoujádro a taky vektorová jednotka. Jeden z rozdílů mez EV 6 a EV 7 byla menší L2 cache ovšem už nebyla externí. A násobně rychlejší operační paměť RAMBUS. Jinak HP neměl ani tak moc důvodů Alpha dál vyvíjet, když zařízli i vlastní RISC procesory kvůli spolupráci na Itaniu, samozřejmě si nejdřív počkali na první výsledky Itania.

Aby zas nebyly dohady, zde je historie i konec Alpha procesorů dobře popsaný: http://alasir.com/articles/alpha_history/index.html

sonofthebit
sonofthebit
Level Level
2. 7. 2023 12:57

Komentáře tohoto uživatele máš zablokované.

@sonofthebit HP Alphu nikdy nevyvíjel. Ta byla prodána Compaqu a následně Intelu, kterej ji zařízl, což v tom článku chybí. Ale prodejní čísla měla teda úžasný, to jsem ani nevěděl. Škoda že se toho DEC o pár let nedožil, možná by pak nezkrachoval a byl by tu dodnes.

Mimochodem Intelu spadla do klína spolu s Alphou i další nejlepší architektura na světě, tentokrát nejlepší mobilní CPU StrongARM (DEC). Intel to přejmenoval na XScale a dlouhé roky dodával čipy pro hromadu mobilních zařízení od Palmů až po high-end WindowsCE komunikátory. Pak dostal sebevražený nápad nahradit ARM za x86, XScale prodal a následně prodělal miliardy na pokusu dostat x86 Atomy do mobilních telefonů. Chamtivost se jim vymstila, protože dnes z mobilního trhu 8x většího než servery mají přesně 0,-USD. Stejně jako AMD po zrušení ARM K12. A dobře jim tak tydýtům, nakonec si sami naběhli na svoje vlastní vidle.

Dnes ikdyby chtěl Intel nebo AMD vyvíjet ARM nebo RISC-V, tak už je pozdě protože i ty obyč licenční X4 mají o 33% vyšší IPC než Zen 4. A to je konečná pro AMD a Intel. Jediné co jim zbývá je vyrábět GPU a k tomu dávat licenční ARMy.

kutil05
kutil05
Level Level
2. 7. 2023 13:29

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Compaq ještě vyvíjel Alpha, ale HP koupil Compaq. V tom textu to o jasně je, včetně důvodů proč DIGITAL skončil krachem. A HP měl svůj PA-RISC a ten skončil kvůli Itaniu. Ale mám dojem, že pořád dokola opakuješ totéž. Co si ten článek nejdřív přečíst? Ani není nutno číst vše...

sonofthebit
sonofthebit
Level Level
2. 7. 2023 14:37

Komentáře tohoto uživatele máš zablokované.

@sonofthebit To že HP fůzoval s Compaqem nic nemění na faktu, že HP nikdy Aplhu nevyvíjel. Intel Alphu včetně StrongARMu koupil od Compaqu, ikdyž to už bylo po fůzi.

Důležité je že Intel úmyslně zlikvidoval konkurenční Alphu, která jako zbrusu nový 64-bit RISC bez jakéhokoliv balastu (předchůdce byl 32-bit CISC VAX od DECu) byla prostě na míle daleko před 32-bit x86, i před budoucí x86-64 aka AMD64.

Naštěstí je x86 taková strašná sračka, že v mobilech nemá žádnou šanci. I kdyby tu sračku nastříkali zlatou barvou, nikdy z toho zlato nebude.

kutil05
kutil05
Level Level
2. 7. 2023 16:29

Komentáře tohoto uživatele máš zablokované.

@sonofthebit S ohledem na to, že v té době měl vlastní x86 a vyvíjel Itanium, si moc neumím představit, že by současně pracovali i na Alphě. A s ohledem na situaci Compaqu by Alpha procesory stejně skončily. Bylo to logické. Já chápu, že tě konec této architektury žere, ale pokud by jsi znal situaci DIGITALu, tak by ti bylo jasné, že konec by tak jako tak přišel. Taky jsem ty procesory obdivoval, ale zabila je obchodní politika vlastní firmy.

kutil05
kutil05
Level Level
2. 7. 2023 17:01

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Dokud si nepřečteš ten článek a nepochopíš, co se vlastně tehdy stalo, je další diskuse zbytečná.

Je tam jak celý vývoj Alpha, tak stručně DEC, i dostatečně rozebraný konec. Mimochodem Intel měl nejen na Alphu s DEC podepsanou crosslicenční smlouvu na 10 let, ale DEC už to nedokázal využít, dokonce se měly Alpha procesory u Intelu vyrábět.

StrongARM skončil proto, že když ho Intel od DEC koupil, tak sice měl všechny podklady, ale neměl na tom kdo pracovat, inženýři kteří ho u DEC měli na starosti, šli jinam. To tam je vše popsané.

http://alasir.com/articles/alpha_history/dec_collapse.html

sonofthebit
sonofthebit
Level Level
3. 7. 2023 19:50

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Mně vadí, že Intel svými nekalými obchodními praktikami zašpuntoval vývoj CPU na 20 let.
Až po 20 letech tu máme ARM X3 jádro s 8xALU a 4xFPU jako ta EV8.
Ale pořád ani ta X3 neumí SMT4 aneb 4 vlákna na jádro jako ta EV8.

Takže ani po 20 letech nejsme tam kde mohla být EV8 v roce 2003. To je ta tragédie.

kutil05
kutil05
Level Level
3. 7. 2023 21:16

Komentáře tohoto uživatele máš zablokované.

@sonofthebit To je složitější. Ano Intel se mohl víc snažit, ale prostě konkurenci moc neměl. Dokonce Intel CPU začaly nahrazovat RISC procesory v pracovních stanicích. To je jeden z dalších důvodů, proč DIGITAL zkrachoval. Dnes nikdo klasické RISC / UNIX pracovní stanice nevyrábí. Jedině snad Talos II, ale tam je primární zaměření taky jiné. ARM v té době neměl sílu ani pořádný odbyt, musel se nejdřív vyvinout a dokud se hodil jen pro mobilní a nízko-odběrové aplikace, nebyl moc důvod dělat lepší jádra. Všechny ty techniky se postupně vyvíjí až následně je používá víc výrobců, ať šlo o vykonávání mimo pořadí, vektorové jednotky, multi-threading a tak dál. Co se Intelu týká, daleko víc zazlívám, že utlumil nekale AMD a tomu pak dlouho trvalo, než se zase zvedlo. Velké RISC procesory tehdy byly obecně na útlumu. MIPS taky přežily jen v síťových a embedded aplikacích. SPARC se džel dlouho a taky umírá. Jen IBM POWER, což byl první RISC vůbec, se stále daří, byť na specifickém trhu.

sonofthebit
sonofthebit
Level Level
5. 7. 2023 09:55

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Máš to dost pomotaný.

AMD se utlumilo samo svým demetním managementem, začalo to zrušením Kellerova K8 Hammeru a jeho odchodem z AMD, pak angažováním Hectora Ruize kterej přivedl AMD do permanentní ztráty a Ruiz ještě začal vývoj Bulldozeru než rezignoval a nastoupil šašek Dirk Meyer, kterej místo aby BD zrušil, tak AMD dovel téměř do krachu. Intelovy podrazy byly nic proti tomu co si AMD způsobilo samo.

Do toho Intel zařízl nejen DEC Alphu a HP PA-RISC, ale i vlastnímu x86 přestal dával licence na vývoj CPU. Žádnej novej NexGen, Cyrix, UMC, TI, ST, IBM nebo Rise MP6 CPU už nemohl vzniknout, protože Intel jako majitel x86 udělal z otevřené ISA monopol. Zbyla jen totálně neschopná VIA a polomrtvé AMD.

MIPS, PowerPC a jiné uzavřené ISA dojeli na svoji uzavřenost, stejně jako na ni dojede x86 a všechny ostatní uzavřené ISA. Každý přechází na 64-bit ARM a RISC-V protože to jsou otevřené moderní ISA, a navíc aktivně vyvíjené, viz revoluční SVE/RVV vektory. Žádná velká věda v tom není.

RISC-Unix Worskationy jsou tu pořád. Třeba tato se 128-jádrovým ARM a Win10/Linuxem:
https://youtu.be/ydGdHjIncbk

kutil05
kutil05
Level Level
5. 7. 2023 13:09

Komentáře tohoto uživatele máš zablokované.

@sonofthebit PA-RISC Intel mohl dost těžko zaříznout, když to byl CPU HP, které se samo rozhodlo k přechodu na Itanium. A Alpha servery vydávala ještě taky HP (stanice vyráběl naposledy Compaq), vy jste ten článek zcela evidentně nečetl a plácáte ty svoje kraviny furt dokola. Když se Alpha dostala do Intelu, byla to prakticky mrtvá platforma.

Co se AMD týká, máte představu, jak dlouho tlak Intelu na výrobce, aby nenakupovali CPU AMD trval? Věděl jste například, že první dual CPU platformu mělo AMD už za doby Athlonu XP?

Máte o historii počítačů zkreslené představy. Hector Ruize se do AMD dostal, když už mělo problémy a bylo to hodně zlé řešení.

A k tomu zaříznutému K8 - ta architektura se vyráběla mezi roky 2003 až 2014, pak byl potenciál vyčerpaný a přišla K10.

kutil05
kutil05
Level Level
5. 7. 2023 14:15

Komentáře tohoto uživatele máš zablokované.

@sonofthebit To je docela sranda, dát víc peněz za ARM a pak na tom pouštět x86-64 aplikace pomaleji než na levnějším PC nativně... Speciálně ARM Windows je low-end produkt primárně pro mobilní CPU a podle toho SW podpora vypadá. Když už něco takového, tak na Linuxu nebo BSD a s nativními aplikacemi. Ampere Altra jsou serverové CPU a podle toho stojí. A jedna věc, 6 kanálů RAM vypadá proti AMD nějak málo. ZEN 4 EPYC mají 12 (workstation desky jen 8, protože by nezbylo místo na PCIe 5.0 sloty) a Thread Rippery PRO 8. Pouze max 64 jádrové Thread Rippery (levnější řady) v nové menší patici budou mít 4 kanály, ale zase by mohly běžet na 6 GHz jako v desktopu místo 4,8 GHz.

Milan Šurkala
Milan Šurkala
SHW SHW
Operační systém: PC
Procesor: AMD
Grafická karta: NVIDIA
5. 7. 2023 15:18

Komentáře tohoto uživatele máš zablokované.

@sonofthebit "Ampere Altra jsou serverové CPU a podle toho stojí."

Tak ona sestava s 32jádrovým Ampere Altra, 32 GB RAM vyjde na 3250 USD, což zas není až tak šílená cena. 128jádrová verze (celé PC i se 128GB DDR4) vyjde na 5660 USD. Co se dívám, tak 64jádrový Threadripper (tedy 128 vláken) sám o sobě vyjde na 4500-6500 USD.

kutil05
kutil05
Level Level
5. 7. 2023 15:55

Komentáře tohoto uživatele máš zablokované.

@sonofthebit To je dost levné a je to celá sestava nebo barbie tedy deska CPU a skriň se zdrojem a chladičem?

Milan Šurkala
Milan Šurkala
SHW SHW
Operační systém: PC
Procesor: AMD
Grafická karta: NVIDIA
5. 7. 2023 16:36

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Celá sestava (včetně RAM a SSD, byť velmi malého). Deska s CPU a chladičem začíná už pod 2000 USD. V sestavě máte 32jádrové CPU, 2×16GB DDR4, 128GB SSD, skříň, 750W zdroj, přípravu na vodní chlazení, 1GbE sí´tovku, předinstalované Ubuntu. A co se dívám, cena už klesla na 2666 USD za základní verzi, protože to teď už trochu pozměnili. 96jádro s 96GB RAM a 256GB SSD je od 3738 USD.

https://www.ipi.wiki/products/ampere-altra-developer-platform?variant=41995037868194

haunter
haunter
Level Level
30. 6. 2023 00:35

Komentáře tohoto uživatele máš zablokované.

Asi se tu někdo dívá na špatné recenze a Gamer Nexus asi nekecá... jinak ta paměť + šířka sběrnice + pcie x8 to totálně zabíjí...

bison
bison
Level Level
29. 6. 2023 20:14

Komentáře tohoto uživatele máš zablokované.

Nvidia musela vsadiť na nízku cenu a ak pridáme vysokú infláciu je to ok nikam inam by sa nedostali, na výkone tu aj tak nezáleží, nie je to pre hráčov ktorý chcú max výkon, je to ako konzola na hranie, minimum za minimálnu cenu, pre študentov ideálna karta , zarobí si na ňu za pár dní na brigáde.

unreall
unreall
Level Level
3. 7. 2023 15:32

Komentáře tohoto uživatele máš zablokované.

@bison To musí mat parádnu brigádu, keď mu za pár dni dajú polovicu platu väčšiny zamestnaných…

Inak súhlasím s tým, že je to karta na minimum, len s tou minimálnou cenou si skočil trochu vedľa…

JakubL
JakubL
Level Level
29. 6. 2023 11:50

Komentáře tohoto uživatele máš zablokované.

Pro úplný obrázek by bylo dobré doplnit ještě i cenovky a poměr cena/výkon.. Tam 4060 vychází oproti Radeonu a Arc zase hůř.

sonofthebit
sonofthebit
Level Level
29. 6. 2023 16:20

Komentáře tohoto uživatele máš zablokované.

@JakubL Ale příští rok tu 8 GB budeš moct vyhodit kvůli nedostatku VRAM.
Takže když už, tak už 16 GB ARC.

Ale upřímně je lepší koupit něco s ARM GPU s unifikovanou pamětí. Apple M2 Max má 8-kanálový RAM řadič a v propustnosti (400 GB/s) natrhne trenky i serverovému Zen 3 Epycu. 4060 má 288 GB/s takže o dost míň a ještě pouze 8 GB.

hoch
hoch
Level Level
29. 6. 2023 16:36

Komentáře tohoto uživatele máš zablokované.

@sonofthebit A co z běžně hraných her na tom jabku běhá ?

honza1616
honza1616
Level Level
Operační systém: PC
Procesor: AMD
Grafická karta: NVIDIA
29. 6. 2023 16:46

Komentáře tohoto uživatele máš zablokované.

@sonofthebit K čemu je ti 16GB na lowend grafice?
Máš lowend grafiku tak předpokládám že monitor máš přinejlepším 1080p
A pokud máš celkově slabší HW tak asi nebudeš chtít hrát s grafikou na max +zapnutý RT a s očekáváním minimálně 240fps

Já mám monitor 1440p
Grafiku 2080ti, výkonově tedy +- stejné, jen 11GB a i větší propustnost,
nicméně u menšího monitoru s celkově lowend sestavou je 8GB na grafice pořád odpovídající porce paměti, uvědom si že ještě pár let zpátky to byla poloviční porce pamětí,
Navíc je to prostě lowend, pokud highend má 20-24GB tak do lowend grafiky nemůžeš dat 16GB

sonofthebit
sonofthebit
Level Level
29. 6. 2023 17:00

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Mám 4K monitor už hodně let.

Před 4 roky jsem kupoval 8GB RX570 za 4500,-Kč. Nevím proč po 4 letech bych měl kupovat pořád 8GB GK ještě navíc za dvojnásobek ceny. To je úplně hlavu padlé, zvlášť když 32 GB RAM stojí 1400,-Kč.

Uměle špuntují kapacitu VRAM aby si za dva roky museli všichni koupit 16 GB karty, protože jim dojde VRAM. Přitom 16GB stojí o 350,- víc a to by si připlatil asi každej. Jenže nemůže ani kdyby chtěl, protože takové GK záměrně nenabízí. Jestli se ti tahle lumpárna líbí, tak seš divnej. Už kvůli ekologii, protože miliony GK kvůli tomu skončí předčasně na smeťáku.

PauloKP69
PauloKP69
Level Level
29. 6. 2023 19:07

Komentáře tohoto uživatele máš zablokované.

@sonofthebit To jako opravdu srovnáváš cenově grafické paměti GDDR6(X) s běžnýma RAMkama DDR4? Tohle srovnání je úplně mimo.
Stejně tak ohánění se nějakou propustností u M2, protože k čemu to je? Co si na tom reálně zahraješ a vůbec nějak tam tu propustnost poznáš? Nic a nijak, ale na papíře to vypadá hezky.

cdwN
cdwN
Level Level
29. 6. 2023 20:24

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Prakticky nic a v tom je ten fór....

hl.hl
hl.hl
Level Level
29. 6. 2023 21:09

Komentáře tohoto uživatele máš zablokované.

@sonofthebit A to je problém provozovat 4K monitor ve hrách na FHD rozlišení?

sroobik
sroobik
Level Level
29. 6. 2023 21:59

Komentáře tohoto uživatele máš zablokované.

@sonofthebit pises uplne odveci. *60 nikdy neboli lowend, az teraz sa nvidia snazi pretlacit ten tvoj lowend za 330€. Je to karta strednej triedy, vzdy to bola karta strednej triedy a vdaka slabej konkurencii stoji to, co stoji. *60 grafiky kupujem odkedy existuju, po vsetkych tych rivach TNT a gForcoch MX ked opustili AGP, prisla PCIe 6600gt. Mal som 7600GT, 9600GT, 260gtx, 1060 a vzdy to bola karta strednej triedy. Nvidia skusila trik s premenovanim na 4080_12, tam im to nepreslo.. v lowende ano 4060 mala byt 4050 za 200€ a bola by to dobra karta...

JakubL
JakubL
Level Level
30. 6. 2023 05:55

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Jen škoda, že Intel u 16GB ARC už ohlásil EOL a už nepřijmá další objednávky... Jo, jde sehnat od jiných výrobců, ale ten poměr cena/výkon už je fakt špatný. Jen o něco dráž se dá sehnat 12GB 6700XT, která je výkonově zase někde jinde.

JakubL
JakubL
Level Level
30. 6. 2023 06:06

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Jako taky bych ocenil v této třídě už trochu více VRAM, ale ten ARC prostě není dobrá karta a řešení. Ta 16GB verze je podstatně dražší a tedy už konkuruje spíše 12GB grafikám. Za těch 7-8 tis prostě ani s Intelem víc jak 8GB nedostaneš. Navíc ARC má jiný slabily - žere jak kráva a s výkonem do budoucna to taky nevidím, ten čip má očividně hodně much co už se ovladači zachránit nepovede.

haunter
haunter
Level Level
30. 6. 2023 08:40

Komentáře tohoto uživatele máš zablokované.

@sonofthebit And here we go again... takže mám koupit 12GB 3060 za 4500Kč, protože na ní mám bandwidth 422GBps? :-D Jinak kolik má Apple M2 Max maximální RAM? Takže to natrhnutí prdele se fakt nebude dít a servery nebudou nahrazovány Apply... :-D

akulacz
akulacz
Level Level
Procesor: AMD
Grafická karta: AMD
Operační systém: Linux
30. 6. 2023 08:55

Komentáře tohoto uživatele máš zablokované.

@sonofthebit No už jsme viděli na 60Ti že NV za ně chce příplatek 100$
Nákupní cena pro výrobce by měla být 24-32$, takže reálný minimální příplatek v krámě je tak 50$. To by asi docela zájem byl ale za 400$ by to hodnocení dopadlo ještě hůře.

haunter
haunter
Level Level
30. 6. 2023 09:31

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Jinak trošku pleteš jabka a hrušky... Epyc není výpočetní procesor, to je Threadripper, který dá na prdel všem Apple procesorům plus si tam můžeš dát daleko víc RAM a GPU taky kolik chceš (pro 192GB VRAM třeba 8x3090 za zlomek ceny jako ten Apple a násobně vyšším výkonem, btw bez nvlinku propustnost VRAM 1TBps). A to skoro levněji, než ten M2 Ultra :D S možností navyšování dle požadavků projektu...

sonofthebit
sonofthebit
Level Level
30. 6. 2023 09:43

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Ten příplatek za 16 GB si určí výrobce, kterých je mraky a vždycky se najde někdo kdo tam napálí minimální marži. Jenže AMD 16GB neumožňuje, takže smolík pacholík.

Je to zlodějina. Já mám 12 GB 3080Ti z těžby a zloději z AMD si 8GB 7600 můžou strčit kam se jim zlíbí. A většině lidem to evidentně taky došlo, když AMD brutálně spadly prodeje. Dobře jim tak.

sonofthebit
sonofthebit
Level Level
30. 6. 2023 10:02

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Paměťové buňky, které tvoří 90% plochy paměťového čipu jsou u DDR4 i u GDDR6 úplně stejné, identické.

Jediný rozdíl je sběrnice a tedy organizace a způsob přenosu dat, kdy GDDR6 si řekne paralelně o více dat z více buněk najednou. GDDR má taky mnohem delší burst, takže má menší overhead ale zase mnohem delší latence (což je ok pro GPU ale zase to vadí u CPU).

Kdybys vynalezl sběrnici se 4x vyšší přenosovou rychlostí (při stejné spotřebě), tak okamžitě můžeš vytvořit GDDR8 nebo DDR7, protože samotné paměťové buňky ti dodají jakoukoliv přenosovou rychlost. Klidně ti vysypou celý obsah RAM v jednom jediném taktu jestli chceš.

Proto se dělají 2-kanál řadiče v desktop PC a NTB, proto pracovní stanice mají 4-kanál, a servery mají 8 a 12 kanál. Ale taky to má větší spotřebu energie. Proto je potřeba vyvíjet nové a rychlejší sběrnice, protože to zvyšuje efektivitu na jeden pin a snižuje náklady na výrobu PCB atd. Samo někdo ten vývoj zaplatit musí, takže licenční poplatky, ale ty paměťové buňky jsou stejné DRAM.

sonofthebit
sonofthebit
Level Level
30. 6. 2023 10:12

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Přesně. NV s AMD špuntují kapacitu VRAM a ten 16GB ARC je zase první zabugovaná generace. To je výběr jak prase.

Ale já doufám, že 2 gen ARCu Battlemage už většinu těch bugů odstraní, takže 16 GB Battlemage by mohl být hodně solidní GK. A pokud jo, tak by tím solidně rozvířil zatuchlé vody kartelového dua. V životě by mne nenapadlo že Intel jednou bude svýma GK zachraňovat celý trh.

sonofthebit
sonofthebit
Level Level
30. 6. 2023 10:23

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Příští rok už má vyjít Battlemage, takže EOL 16GB Alchemistu je spíš předzvěst příchodu nástupce. No a ty 8GB Alchemisty půjdou vyprodat za levno do OEM, a tím Intel může dosáhout 50% prodejů AMD :D

Právě nyní Intel ladí hromadnou výrobu aby v zimě už jela výroba čipů. Pak to všechno osadit na PCB, zabalit do krabic no a taky měsíc až dva než to lodí dopluje v kontejnerech z Činy. No v polovině příštího roku to máme na krámě.

sonofthebit
sonofthebit
Level Level
30. 6. 2023 12:18

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Ty to nechápeš. Já neprosazuji Apple, ale poukazuji že když Apple M2 Max má brutální 8-kanálové APU pro notebooky, tak kde je alespoň 4-kanálové APU od AMD??? Nikde.

Proč to fut špuntují na 2-kanálu když dávno dělají 4-kanál APU pro PS5 a Xbox? Pak příjdou pitomý jabčáci a nathnou všem trenky s NTB které mají 4 a dokonce 8-kanál paměti.

AMD má skvělé inženýry, ale ve vedení jsou naprostí pitomci.

kutil05
kutil05
Level Level
30. 6. 2023 12:26

Komentáře tohoto uživatele máš zablokované.

@sonofthebit "natrhne trenky i serverovému Zen 3 Epycu" a kterému? Smím-li to vědět. Většinou vychází nastejno s desktopem v podobě AMD Ryzen 9 7950X...

kutil05
kutil05
Level Level
30. 6. 2023 12:29

Komentáře tohoto uživatele máš zablokované.

@sonofthebit "AMD má skvělé inženýry, ale ve vedení jsou naprostí pitomci." Zajímavé AMD od situace, kdy mělo zkrachovat stále roste, ale vládnou mu pitomci. Možná jen vidí trh jako celek a ví na čem kolik vydělají...

kutil05
kutil05
Level Level
30. 6. 2023 12:33

Komentáře tohoto uživatele máš zablokované.

@sonofthebit 4k monitor opravdu v low-endu není právě typický. Navíc člověk, který nad výdaji přemýšlí, si nebude kupovat monitor, na který mu low-end grafika nebude stačit, nehledě na rozdíl ceny u těch monitorů...

cdwN
cdwN
Level Level
30. 6. 2023 12:51

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Děkuju, vždycky se rád poučím :)

sonofthebit
sonofthebit
Level Level
30. 6. 2023 12:54

Komentáře tohoto uživatele máš zablokované.

@sonofthebit AMD zachránil jeden muž: legendární Jim Keller který má na svědomí architektury Zen 1, Zen 2 a Zen 3 (a tedy i z něj vycházející Zen 4) odešel z AMD v roce 2015, ale vedení AMD dodnes těží z jeho práce před 8 lety.

Na Youtube s ním je několik rozhovorů, jak přesvědčoval inženýry v AMD že je možné navrhnout Zen 1, přestože mu většina tvrdila že to možné není. A teď mi řekni kdys naposled četl nebo viděl že CEO Lisa Su zmínila jeho zásluhy nebo nedejbože mu poděkovala.

sonofthebit
sonofthebit
Level Level
30. 6. 2023 12:57

Komentáře tohoto uživatele máš zablokované.

@sonofthebit V paměťové propustnosti natrhne trenky Z3 Epycu, protože oboje má 8-kanál, ale Apple má DDR5 kdežto Z3 má jen DDR4. Co na tom nechápeš?

Je to ostuda že NTB naplácá naprdel serverovýmu Epycu za statisíce.

kutil05
kutil05
Level Level
30. 6. 2023 14:08

Komentáře tohoto uživatele máš zablokované.

@sonofthebit Tak jak je to napsané, to zní jako by po jeho odchodu už inženýři v AMD neměli žádnou práci. Pokud vím, tak v době návrhu ZEN 1 byl šéfinženýr, tedy jen rozhodoval, co budou dělat lidé pod ním a i kdyby byl do vývoje nějak víc zapojený, od té doby na dalších generacích bylo odvedeno hodně další práce a třeba centrální chiplet je něco, s čím se v návrhu ZEN 1 vůbec nepočítalo. Přitom v současnosti se pracuje jak na ZEN 5 tak i ZEN 6. Procesorové týmy jsou dva a troufám si tvrdit, že silnější než za jeho působení. Ten chlap má za sebou spoustu dobré práce, pracoval i na procesorech DEC Alpha ostatně z toho pak těžil i při práci na K8 a Athlonu 64, ale až tak bych jeho vliv na současné procesory AMD nepřeceňoval.

Reklama
Reklama