Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od kutil05 (5)
Nevšiml jsem si, že by x86 byla nějaká zombie, má se docela čile k světu.
Odpovědět1  0
Ten vývoj si spíš vyžádala situace, AMD ani Nvidia nechtějí nechat Qualcolmu, který doteď ­(a ještě do konce roku­) má výsadní postavení u MS v případě dodávek pro ARM Windows. Tak chystají své modely. Nic víc se neděje.
Odpovědět1  0
Tak mi pošli odkaz na samotné CPU nebo aspoň desku s CPU bez GPU.
Odpovědět1  0
Pokud nejsi úplný pitomec, znáš výsledy i v jiných testech. I když číst něco, co se ti nelíbí mohlo pro tebe být víc, takže samotné vysvětlení už jsi číst nemusel. V každém případě moc dobře víc, proč nikdy neuvádíš výsledky jiných testů, tady totiž výsledky potvrzují tvou teorii, ovšem jiné už moc ne. Chápu, že ti ten článek nadzvedl mandle, teď tě bude brát vážně ještě méně než to málo lidí.
Odpovědět1  0
Divné to není. RISC ­/ UNIX stanice a servery byly násobně dražší, přitom násobný výkon prostě neměly. přečti si něco o konstrukci těch strojů a pochopíš.
Odpovědět1  0
Srovnání v GeekBench:
Apple A16 ­- 7073
Ryzen 7 PRO 7730U ­- 5829
Pro tebe jasná výhra, jenže ouha.

Máme tady PassMark:
Ryzen 7 PRO 7730U ­- 20468
Apple A16 ­- 11128
Takže skóre se otočilo, jenže změnil se jaksi i poměr.

Používat benchmark pro mobily na velké počítačové čipy, určené pro jiný typ zátěže, je samozřejmě nesmysl.
Odpovědět0  0
Posledních pár dní máš asi hlavu někde v písku ­(to jsem mírný­). U testu Geek Bench bylo odhaleno, ne že by to tvůrci tajili, jak funguje a proč je pro srovnání čehokoliv než párwattových ultramobilních CPU zcela nevhodný a speciálně při srovnání výkonných procesorů dává zkreslené výsledky. On totiž neumožní kontinuální zátěž delší než několik milisekund. Když srovnáš Apple ARM a AMD v GB a jiném testu ­(třeba CB­), výsledky vypadají úplně jinak.
Odpovědět0  0
VIA někdy uměla výkonné CPU? Prostě jim došly peníze, protože trh který jejich CPU zajímal, byl moc malý.
Odpovědět0  0
RISC už dávno taky mají dekodéry, jen trochu jednodušší. Při tak široké instrukční sadě to jinak nejde. Ty procesory se ve skutečnosti liší o dost méně, než se zdá. Asi největší rozdíl je ve schopnostech x86 běhat na o dost vyšších taktech, což je dáno jinou délkou fronty. Druhá věc je, že ty nejlepší procesory pro servery a superpočítače, zatím s vyjímkou ARM Fujitsu A64FX dělá AMD. Běžné ARM sice umí taky 128 i víc jader na patici ovšem ne při stejně efektivním vnitřním propojení. Proto zatím neexistuje použitelná ARM pracovní stanice, není ji na čem udělat. Nejlepším ARM procesorem pro servery je již zmíněný A64FX se 48 jádry na max 2,2 GHz. Ten se ale od běžných ARM liší optimalizovaným programováním a je hodně drahý. Myslím fakt horně drahý, navíc má jen 32 GB HBM a neumožňuje žádnou jinou RAM.
Odpovědět1  0
Na serverech je ta konkurence jen v některých segmentech, tedy přesněji v cloudu, což je taky jedno z míst, kde se ještě drží i IBM Power.
Odpovědět0  0
Ty vypadáš na Esquire a podobně.
Odpovědět0  0
Každý lékař ti vysvětlí, že nebezpečný je jak nedostatek, tak přebytek. I voda je nebezpečná, když jí budeš pít moc. I vitamíny můžou způsobit otravu.
Odpovědět0  0
To je dobrá blbost. Muž samozřejmě nemá být tak citlivý jako ona, ale když s ní nebude vůbec cítit, ztratí s ní pouto a přijde o ni. Ale to je zbytečné vysvětlovat macho blbečkovi.
Odpovědět0  0
To neplatí obecně. Co ale zobecnit jde, je korelace mezi hladinou testosteronu a sklony k agresivitě. A takže aby se někdo choval jako větší blbec, vůbec nemusí brát steroidy, stačí uměle navyšovat onen testosteron. Nejhorší je, že takový člověk si myslí, že je v právu, protože on sám se cítí líp a nechápe reakce okolí na své chování.
Odpovědět0  0
Jen idiot si plete neexistenci vysokých škol s obecnou nevzdělaností. Takoví lidé měli soukromé vzdělání. Přesto se jednalo víc o všeobecné vzdělání, protože žádný obor nebyl na dnešní úrovni.
Odpovědět2  0
Jenže je daleko víc, co to fyzicky nezvládli, třeba v pubertě skončili a mají jen zničené dětství. A to mají kliku, protože velice často to končí zdravotními problémy a následky úrazů. To je ale věc, kterou lidi vidět nechtějí. Dnes i mladí umírají na sportovišti i při tréninku.
Odpovědět0  0
Ten se max stará o růst nějaké firmy, nebo hlídá výdaje. Nevím, ale nic zázračného, co by lidem vyloženě pomáhalo nevymysleli.
Odpovědět0  0
Jenže se vše vyvíjelo souběžně, první vodovod, kanalizaci a dokonce centrální vytápění měli už ve starověkém Římě a o vysokých školách žádná zmínka. Lidé nebyli blbí a spousta vynálezců žádné extra vzdělání neměla, další vynálezy vznikly nikoliv cíleně, ale náhodou. Inženýři mají větší význam tak posledních 100 ­- 150 let. Nehledě na to že stále spoustu věcí vynalézají i v jiných oborech a nejen ty léky. I když uznávám že daleko méně.
Odpovědět0  0
Nejsi ani schopný pochopit, na co jsem reagoval. Přínos profesí se snad nedá porovnávat jen podle toho, jaký má kdo titul. Toto svět neviděl takového zabedněnce urážlivého. Ty jsi určitě strašný nervák. Trochu se vzpamatuj.
Odpovědět1  0
A když vědec vytvoří nový lék, který pak pomáhá statisícům nebo milionům, tak je to méně? Ty by ses fakt měl léčit.
Odpovědět2  0
Aha, takže Číňani jako udělali super nové jádro, ale nebyli schopni k tomu udělat vlastní novou ISA? Tomu mám jako věřit? Oni využili MIPS, protože ta jádra jsou open source k dispozici. Díky tomu tu architekturu využívají na západě aspoň pro síťové prvky a podobné embeded řešení a není úplně mrtvá.
Odpovědět0  0
Jenže to, že má x86 teoreticky velkou nevýhodu, dokáží stále inženýři překonávat a dokud x86 opravdu nezačne viditelně ztrácet, trh nějak výrazněji reagovat nebude, možná proto že většina zákazníků tohle neví a patrně by je to ani nezajímalo. Obvykle kupují produkt, počítač, NTB, server nebo rovnou službu, která na tom běží a pokud to funguje a pokud pro tu architekturu budou vývojáři psát aplikace a OS, nebude mrtvá. Tek se přestaň chovat jak retardovaný kolovrátek.
Odpovědět1  0
Museli by ty zdroje UV nějak okopírovat. Nebo vyvinout. Protože si fakt nemyslím, že by výrobce který nestíhá poptávku na západním trhu měl nějaký zájem dodávat přes embargo a riskovat postih. To fakt nedává smysl.
Odpovědět0  0
To je vše pěkné, ale bez patřičných zdrojů tvrdého UV světla se na lepší výrobní proces nedostanou. A nevím, kdo má odvahu jim to přes embargo prodat, nehledě na to že jediný známý dodavatel ASML už tak nestíhá plnit poptávku.
Odpovědět0  0
Řekl bych že ano, výrobní proces je jejich největší slabina.
Odpovědět0  0
On miluje cokoliv, co nebude mít ty prokleté složité dekodéry....
Odpovědět1  0
MIPS i v 64 bit variantě jsou fakt hodně stará jádra, takže bych od nich slušný výkon nečekal. Čína je použila právě proto, že za jejich použití nemusí platit. Ale věřil bych tomu, že se na tom hlavně naučí a pak naváží už něčím vlastním.
Odpovědět0  0
Son_of_the_bit Že tě to baví, se pořád opakovat. Altra nejde přes 3 nebo 3,3 GHz podle varianty a když už tak 64 jádrovou max 80 jádrovou verzi z řady Q. Ty Max varianty jsou v jiné než lehké zátěži horší a pokud si dobře pamatuješ posílal jsem i odkazy na testy.
Odpovědět4  0
Nehodnotil bych RISC procesory jako celou skupinu, ARM a RISC­-V jsou rozšířené jako jádra s nízkou spotřebou a tak logicky nejsou na úrovni procesorů pro stolní počítače a servery. Ale v minulosti byly špičkové RISC jak Alpha, MIPS, PA­-RISC a další srdcem pracovních stanic a serverů a X86 stačily jen na kancelář a hry.
Odpovědět0  0
Připájené SSD se dá vyměnit, stačí ti na to horkovzdušná páječka co mají v kdejaké opravně mobilů.

Válím se smíchy po zemi.

Apple si opravy hlídá, u kdejakého čipu je kontrola SN a když to nesedí, systém nechodí, takže technik v opravně mobilů ty čipy sice přepájí, ale je velká loterie, jak to bude fungovat.

To že kvůli krátkým signálovým cestám mají RAM napájenou blízko APU je jedna věc, ale SSD napájené na desce je svinstvo. To obhájit nejde, ten konektor nijak drahý není. Dělají to proto, aby celou výrobu a servis měli pod palcem a nešlo to udělat levně. Zákazník si SSD nemůže vybrat a vyměnit sám za pár minut jako u PC. Proč by mne takový přístup měl lákat? Já sám mám plnou kontrolu nad SW i HW svého počítače a na tom nechci nic měnit.

Apple je ideální právě pro lidi, co HW řešit nechtějí a kupují výpočetní spotřební elektroniku.

Odpovědět1  0
Pokud má na pevno zapájené SSD, tak o dlouhé životnosti silně pochybuji, navíc to Apple dělá stále víc jako levné spotřební zboží, možná ne designem, ale po stránce elektroniky, Apple nepotřebuje, aby ty počítače dlouho vydržely, potřebuje stálé prodeje.

Stačí malinko přemýšlet a nebýt zalepený.

A trend není žádný, protože v USA byl Apple vždy silnější než PC. Uganda je mi ... zajímá mne Evropa.
Odpovědět1  0
1­­) podíl MacOS v USA 2023 stoupl na 31%, link zde: ­- Nezajímají mne USA ale celosvětový trh.

2­­) x86 CPU­­-only žádný superpočítač neexistuje. ­- Apple počítá náročné věci CPU only?

K tomu přechodu na Apple ­- dost záleží z čeho člověk přechází. Zbytek je škoda slov na koment.



Odpovědět1  0
5800X není 5800X3D. Spletl jsem to se 7700X a 7800X3D.

Zajímavé, tady má někdo informace o procesoru několik let před uvedním. Baví tě to stále psát? Podívej se na tržní podíl PC a Apple Mac, podívej se na trh serverů kolik x86 procesorů se prodá, podívej se na superpočítače. Fakt myslíš, že x86 umírá. Prober se z toho snu.
Odpovědět0  0
5800 má 3x větší L3 cache a AMD nikoho do ničeho nenutí, nabízí a zákazník se sám rozhodne.
Odpovědět0  0
A nejde čirou náhodou taky o cenu, kterou je třeba v těch sestavách započítat?
Odpovědět0  0
Pokud jsou jen pro Čínský a OEM trh, je matoucí název celkem bezpředmětný. Lidé, co kupují hotové sestavy, se řídí hlavně cenou a případně ještě procesorem, někdy kapacitou úložiště nebo RAM.
Odpovědět2  0
Já bych naopak řekl, že víc kanálů tak udělat půjde ale asi ne s LPDDR, protože se s tím počítá i pro servery ­(snad si to dobře pamatuji­).
Odpovědět0  0
I tak se tímto způsobem dá ušetřit dost místa a jako bonus i zvednout horní mez pro kapacitu.
Odpovědět0  0
Uniklo to z laboratoře, takže si můžeme tipnout.
Odpovědět2  0
Když vidím problémy u Intelu, tak bych to tak jednoduše neviděl.
Odpovědět1  0
Například IBM Power 9 a 10 ­(začalo to tuším už u Power 8­) má jádra dělena na 4 podčásti, tam by ani nebylo možné SMT nějak vypnout.
Odpovědět1  0
AMD technologii vypínání částí CPU ohlásila s prvním ZEN 1. Jen nějak neměla důvod ji od té doby připomínat.
Odpovědět3  0
K Altře jsem se vyjádřil už víckrát a k Apple taky. Najdi si jiné ARM lákadlo.
Odpovědět0  0
Ale na použití nových vektorů musí být SW tak jako tak přepsaný. Jedno zda AVX nebo SVE. SVE jsou pouze méně vázány na HW. Tedy pokud je umí ten procesor...
Odpovědět0  0
A nebo, jsem si to tehdy koupil a stále mi to stačí. Což tě nenapadlo.
Odpovědět0  0
Pravděpodobně jsi nikdy žádný test procesoru Altra nečetl celý. Jsou to procesory pro cloudovou zátěž tedy ne pro plnou pracovní zátěž s velkým datovým tokem. To je hodně velký rozdíl. Aby jsi to nemusel hledat, přečti si to tady, je to závěr z testu na Anandtech:

Conclusion & End Remarks
Our time with the new Altra Max has been interesting, as it­'s very much a chip design that quite polarising and pushing some aspects of core scalability to the very extreme.

When Ampere had talked about their plans to put to market a 128­-core variant of the Neoverse N1, a 60% increase in cores over their first generation 80­-core attempt, we were of course perplexed on how they would achieve this, especially considering the chip is meant to be used on the very same platform with same memory resources, and also on the same fundamental technology – same core microarchitecture, same mesh IP, and same process node.

The Altra Max is a lot more dual­-faced than other chips on the market. On one hand, the increase of core count to 128 cores in some cases ends up with massive performance gains that are able to leave the competition in the dust. In some cases, the M128­-30 outperforms the EPYC 7763 by 45 to 88% in edge cases, let­'s not mention Intel­'s solutions.

On the other hand, in some workloads, the 128 cores of the M128 don­'t help at all, and actually using them can result in a performance degradation compared to the Q80­-33, and also notable slower than the EPYC competition.



I think what we­'re seeing here is that Ampere is hyper­-optimising themselves into certain workloads. The Altra Max marketing is especially focused around cloud­-computing and hyperscaler deployments of the chip. Ampere­'s recent announcement earlier this summer, detailing that the company is working on their own custom CPU microarchitecture with specific plans to target such workloads, and abandon the general use case Neoverse Arm CPUs, with Ampere­'s description of “general use case” here being mentioned in a negative context, is telling that this is all a deliberate strategy.

What differs a cloud CPU from a regular CPU? I­'ll be frank here in mentioning that I don­'t have sufficient background on the matter other than to say that memory does not seem to be a focus­-point of such workloads. We­'re still working on expanding our test suite with more real­-world distributed systems workloads to cover such scenarios. By Ampere­'s wording of their announcement this summer, and by the very apparent direction of the new Mystique design performance characteristics, it seems we­'ll see even greater such extremes in the future.

On the competitive landscape, Ampere is carving out its niche for the moment, but what happens once AMD or Intel increase their core counts as well? A 50% increase in core counts for next­-gen Genoa should be sufficient for AMD to catch up with the M128 in raw throughput, and technologies such as V­-cache should make sure the HPC segment is fully covered as well, a segment Ampere appears to have no interest in. Intel now has an extremely impressive smaller core in the form of Gracemont, and they could easily make a large­-core count server chip to attack the very segment Ampere is focusing on.

Only time will tell if Ampere­'s gamble on hyper­-focusing on certain workloads and market segments pays out. For now, the new Altra Max is an interesting and very competent chip, but it­'s certainly not for everyone.
Odpovědět0  0
Nechci drahý upgrade a rozdíl spotřeby není takový, aby se to zaplatilo.
Odpovědět0  0
Jestli teď mám 4 jádra ZEN 1 na 3,5 GHz, tak to nepřekoná Cortex A76 na 2,4 GHz. Čili sice by spadla spotřeba, ale taky výkon. A kdybych chtěl víc výkonu, mám už smůlu.
Odpovědět0  0
To je ale k ničemu, když ty CPU nejdou normálně koupit. Dej odkaz na ARM CPU, který jde koupit a nahradí 16 jader AMD R9 7950X3D s jeho výkonem na jádro i propustností.
Odpovědět0  0
Víš že jsi poslal nefunkční odkaz?
https:­­/­­/forums.anandtech.com­­/proxy.php?image=https%3A%2F%2Fimages.anandtech.co­m%2Fdoci%2F16983%2FSPECi­nt­­-energy.png&hash=9b0de4a6bda0e483ddd3125d599375e­a
Odpovědět0  0
To je sice hezké, ale stále tu máme celkový počet jader, s přístupem do RAM a na sběrnici. A když je toto propojení pomalé, tak nemáme plný výkon těch jader, že? Co vím tak cloud CPU jsou stavěné na 50­-60% vytížení všech jader, zatímco zaostalé x86­-64 jsou dělané na 100%. Tak se z toho snu prober. Pokud bych měl ARM CPU nahradit výkonný desktop, není čím.
Odpovědět0  0
Orange Pi 5 uses Rockchip RK3588S new generation 8­-core 64­-bit processor, quad­-core A76+quad­-core A55, with 8nm process design, up to 2.4GHz. Takže výkon telefonu má nahradit desktop. To asi těžko.
Odpovědět0  0
Aha. Pak tedy by mělo být snadné udělat výkonnější grafiku jen z více chipletetů blbštajne.
Odpovědět0  0
Znovu pro Son of Stupid: výpočetní a grafický výkon neškáluje stejně. Tedy z výpočetního výkonu nelze odvodit výkon grafický.
Odpovědět0  0
Aha a poměr plochy dekodérů a prefetch vůči výkonným jednotkám se od té doby nijak nezměnil.
Odpovědět0  0
Pořád ti nedošlo, že nejde jen o architekturu jader samotných ale i o jejich propojení.
Odpovědět0  0
Prázdné poučování je určitě snadnější. A jen doplním, že mne to nezajímá z pohledu programátora, ale jak to proběhne uvnitř toho procesoru. Ale určitě zas nepíšeš něco, nač jsem se neptal místo přímé odpovědi.
Odpovědět0  0
Odkdy je možné přímo z výpočetního výkonu grafiky odvodit grafický? Tam jako nejsou žádné další jednotky mimo shaderů? A mimochodem výpočetní výkon 3090 měla i M2 Ultra, ale graficky je sotva na úrovni 3070.
Odpovědět0  0
Proti tvému údajnému dvacetinásobku...
Odpovědět0  0
Když mám čas, někdy mne to baví.
Odpovědět0  0
A tyhle serverové ARMy drtí x86 nejen úsporností a výkonem­­/IPC, ale hlavně výrobní cenou: Amazon si Graviton 3 vyrobí u TSMC za 500 USD kdežto AMD chce za EPYC přes 10 000 USD. Chápeš to? Výkonem horší, žere to nejmíň 2x víc, ale chtějí za to 20x vyšší cenu. Tohle vydírání ze strany x86 výrobců muselo jednou narazit. A to se děje nyní, všichni masivně přechází na ARM.

Ta cena fakt není 20x větší. Možná u Intelu, ale AMD je víc konkurenceschopná.

AMD 11,900 USD 9754 128c ZEN4c ­/ 14,756 USD 9684x 96c ZEN4 V­-cache ­/ 11,805 USD 9654 96c ZEN4

Proti tomu Altra Max 128­-30 5,800 USD

I HPC produkt nestojí ani celý trojnásobek a to v segmentu kam ARM nemíří.



Odpovědět0  0
Fujitsu věřím víc než Altře v tomto, ale přesto. AMD a Nvidia mají jednu obrovskou výhodu. Už desítky set se učí jak udělat efektivně multi jádrový procesor o dnes už více než desetitisíci malých jader a hlavně jak je efektivně řídit a spojit. IBM a Intel jsou u desítek jader, AMD jako jediné umí CPU 128 jader a současně i GPU. Ty zkušenosti jsou vidět. Při testu obou variant Altry se divili, jak je možné, že chipletové AMD má při komunikaci mezi jádry nižší latence než monolitická Altra. Bude to patrně tím, že AMD už to nějaký ten pátek dělá.
Fujitsu víc věřím i proto, že Aptra dělá CPU jen pro cloud, málo universální, ale Fujitsu umí jak běžné tak i superpočítačové čipy. A tam je propojení spousty jader v patici i spousty patic celkově kritické. Ale stejně nevěřím tomu, že hned na první pokus GPU překonají. AMD i Nvidia už mají druhou generaci čistě výpočetních GPU. Jen tedy AMD spíš pro HPC segment a Nvidia pro AI.
Odpovědět0  0
To o drogách sis mohl odpustit. Já bych tě třeba zas mohl školit v jiných věcech. Píšu, jak vím a nebo si myslím, jak to je. Dekodéry jsou sice společné, ale mezi dekodéry a přímo výkonnými jednotkami je přece ještě Dispatch. A pokud by se přehazovaly data, tak jak se tam dostanou ty instrukce? Teď se prostě ptám.
Odpovědět0  0
U socketu je to kvůli proudové rezevvě. Ale procesory pro desktop a ssrvery + pracovní stanice to u AMD mají jinak. U desktopu je to na základní frekvenci a turbo je výš, ale u velké patice je to maximum. Intel to má zase jinak. Aby nebyla nuda asi.
Odpovědět0  0
Závěr testu Altra M128­-30 jsi evidentě a možná i záměrně nečetl. Vypíchnout nejlepší scénář umím taky.

I tady je vidět, jak se pořadí výrazně mění podle podmínek testu: https:­/­/images.anandtech.com­/graphs­/graph16979­/126343.png

Zde přímo serverová zátěž Java:
https:­/­/images.anandtech.com­/graphs­/graph16979­/119882.png
Odpovědět0  0
To jádro až tak podrobně jsem na schématu neviděl.
Odpovědět0  0
Zjevně se na svou paměť už tolik spolehnout nemůžu. Ale aspoň tu celkovou šířku 1024 jsem si pamatoval dobře. Možná jsem vycházel z toho, že jde o ARM v8.2 a fyzickou implementaci SVE už jsem neřešil.
Odpovědět0  0
A jak jsi přišel na 450 W? TDP 400 W má jediná verze a další má 360 W. Žádná deska oficiálně víc jak 400 W CPU neumí.
Odpovědět0  0
Dnes i tak dekodéry procentuálně tolik plochy nezabírají protože. Vektorová část je stále širší, jsou tam jednotky pro změny pořadí instrukcí, velké cache, nepočítám do toho řadiče sběrnic. Jak se celý CPU chiplet z hlediska počtu tranzistorů zvětšuje je zrovna dekodér stále menší žrout energie. Ale chápu, že to je oblíbená mantra RISC fanatiků.
Odpovědět0  0
Oborem jsem mechanik elektronik pro číslicové a řídící sytémy. Hned po střední jsem klusal do práce, takže nic víc. Maximum co nás zkoušeli naučit, byly základy Basicu. Víc o CPU už je čistě můj osobní zájem.
K těm registrům, mám pocit, že přesun dat by nestačil, FPU ­/ vektorová část má své dekodéry.
A poznámka, ještě jinak to mají Power procesry, tam každé vlákno má skalární ­- ALU, binární FPU, dekadickou FPU. Pak vektory ­- Altivec a nově Power 10 matice. Plus sdílené akcelerátory pro kompresi a šifrování.
Odpovědět0  0
Ty stovky mW jsou hodně relativní. U toho Altra Q80­-33 máte 80 jader na 3,3 GHz a TDP 250 W. Dělit umíte, že?
Odpovědět0  0
Řekl bych že ty širší vektory jsou SW záležitost a procesor je podobně jako ZEN 4 umí i na užších jednotkách. Co ve světě procesorů nějak výjimečné není. Řešeny tak byly už některé první koprocesory, které plnou šířkou řešily jen často užívané instrukce a ty další dělily do více průchodů. Tedy reálně v FPU všechny výpočetní operace trvají víc taktů a týká se to i ALU, jen některé širší trvají déle. V podstatě ti inženýři ví které instrukce se vyplatí udělat na méně taktů a které ne.
Odpovědět0  0
https:­/­/www.anandtech.com­/show­/16315­/the­-ampere­-altra­-review

Dělali i test 128 jádrové verze, ta dopadla blbě právě z uvedených důvodů.

https:­/­/www.anandtech.com­/show­/16979­/the­-ampere­-altra­-max­-review­-pushing­-it­-to­-128­-cores­-per­-socket

Závěr je asi takový, že pro velké ARM procesory je potřeba dobře optimalizovaná zátěž a nehodí se na vše, zatímco x86­-64 jsou univerzální ale za cenu větší spotřeby.
Odpovědět0  0
Já tam jasně vidím toto: 2x ALU
ALU, MUL, DIV, CRC
FADD, FMA, INT vec ALU, INT vec MUL, convert
FADD, FMA, INT vec ALU, crypto

https:­/­/i0.wp.com­/chipsandcheese.com­/wp­-content­/uploads­/2021­/10­/neoverse_n1.drawio1.png?ssl=1

A to hodnocení, které jsem jen převzal, najdu taky.
Odpovědět0  0
Na schématech to je vždy jako 4x256 i v materiálech o tom tak Fujitsu píše.
Odpovědět0  0
Až na to že tyto rozdíly se dávno setrřely od chvíle, kdy dekodér mikroinstukcí mají i RISC procesory, tak šup hezky zas do školy. Možná jen to srovnání bych trochu změnil protože je vidět, že ani ARM v serverech neumí totéž co zavedené x86­-64. ARM se ty velké turbodiesely snaží nahradit větším počtem menších. Ale neumí je dobře spojit. To co jim v mobilech při 8 jádrech funguje se v 64. a více jádrech dusí a nedokáže ten teoretický výkon ukázat.
Odpovědět0  0
Když čtu architektonické změny jednotlivých generaci ARM, všímám si jedné věci. Zlepšují dekodéry, predikci ­(to asi všechny CPU obecně­) a někdy přidají ALU. Ale na FPU ­/ vektory sáhnou málokdy. Co se ale zpravida a narozdíl od x86 nebo i Fujitsu či IBM nedočtu, jsou šířky sběrnic, výkony Load­/Store jednotek a reálně se stává, že ten papírový výkon tam je jen za ideálních podmínek, ale v reálu spíš tak napůl. Ta jádra jsou úsporná, protože někde na něčem šetří a už dávno ten rozdíl v dekodérech, kterým se rádi ohání příznivci ARM ohání není tak důležitý ­- třeba 8 dekodérů ARM proti 4 u x86, nevím, o kolik může těch osm být jednodušších, aby zabraly méně tranzistorů... ARM jádro pro telefon a ARM jádro superpočítače není totéž a jeho okolí ­- cache, sběrnice a RAM už vůbec ne, to je jiný svět. Procesor aby to široké jádro využil optimálně musí takříkajíc volně dýchat, jinak se dusí a plný výkon dá jen chvilkama. A právě to rozbor Altry jasně ukázal. Na papíře by pomocí ALU Fujstsu A64FX s jeho 48 jádry na 2 GHz měla altra 64 jader na 3 GHz roztrhat. Ale v reálu se to nestane, protože A64FX má na jádro 4x256 bit vektory a tomu uzpůsobenou komunikaci po sběrnici. Altra jen 2x128 bit.
Odpovědět0  0
Prostě ARM i x86­-64 jsou doma někde jinde a z toho důvodu moc nejde je přímo porovnávat. Za stejných podmínek tedy tentýž ale optimalizovaný a překompilovaný SW na míru a při stejné porci energie už by něco srovnat šlo. Ale ne jiné světy. To je jako srovnávat kamion a závodní auto jen proto, že mají stejných 500 koní výkonu. Ale reálně ho podají úplně jinak. Kamion není tak rychlý, ale utáhne desítky tun nákladu. A tady to je stejné.
Odpovědět2  0
"Taková AMD zvedla TDP z 125W ­­(Zen 3­­) na pěkných 170W ­­(Zen 4­­). Jo to je úplnej vzor úspornosti :D­" Bylo by taky fajn porovnat to s nárůstem výkonu. Jinak mlátíš prázdnou slámu.

AMD Ryzen™ 9 7950X­-16 ­/ 32­-Up to 5.7GHz­/4.5GHz­-170W­-DDR5­-5.2GHz­(6.0GHz­)
AMD Ryzen™ 9 5950X­-16 ­/ 32­-Up to 4.9GHz­/3.4GHz­-105W­-DDR4­-3.2GHz

už jen na pouhých základních taktech 1,32x větší MT výkon ­- na ST díky turbu 1,163x a propustnost 1,625x ­(5,2 GHz­) nebo 1,875x. To jsou solidní nárůsty. Reálně v tom není započítané IPC nebo AVX512.
Odpovědět0  0
Hezké srovnávat ALU jednotky a takty. Jenže v CPU jsou i FPU ­/ vektorové jednotky a v těch má ZEN4 těžce navrch + takty které žádný ARM ještě neměl. ARM je efektivní, má­-li vyladěný SW. Ale to je vše. Četl jsem celé obsáhlé recenze Aplere Altra, což jsou ARM Neoverse N1 ­- tedy 5 ALU na jádro, jenže pouze 2x 128 bit vektory a zabili to malou L3 která má pro 64 a 80 Q verze 32 MB tedy 0,5 a 0,4 MB na jádro a pro M 96 a 128 jader pouze 16 MB tedy 0,1666 a 0,125 na jádro. Cože je komické, když obě varianty mají 2 MB L2 na jádro tedy víc než kolik vychází L3. A to ten výkon zabilo. Kde se víc počítá a méně přenáší data, umí to ZEN 2 EPYC 64 jader porazit. Pokud ale jsou třeba datové toky, je to přesně naopak. Ta architektura ja tak na 32 jader na taktu řekneme 3,5 GHz, tam by to výkon mělo lepší a využitelný. Ale 32 jádrová varianta ­(je na tom nejlíp z hlediska L3 i RAM­) má jediné provedení 1,7 GHz. Procesor k doplnění ceníku asi, jinak nanic. Celý potenciál promrhali blbě organizovanou cache. A 96 a 128 jádrové verze úplně postrádají smysl. Ten výkon je použitelný jen na cloud, ale na HTPC se nehodí, tam doslova jádra navíc překáží.
Odpovědět0  0
A co se týká těch M3 už ten základ je vycucaný z prstu, zatím nikdo mimo Apple, neví, jaký bude mít výkon a ten zbytek automaticky počítá se stejnými takty a 100 % škálování, což se nikdy neděje a vícejádrové CPU ani nemají stejné takty, pokud mají třeba 4x a víc jader. Takže možná tak vlhký sen.
Odpovědět0  0
Rozbor toho výkonu jsem četl a víceméně u té grafiky odpovídá nárůstu počtu jednotek. U CPU nikdo neví, protože Apple podrobnější popis jádra neuveřejnilo. A ten RT není moc s čím srovnat, napsali jen, že doposud u Apple jel RT na shaderech a nyní má své jednotky a měl by být 4x rychlejší. Ale co vím, nikdo jiný RT na telefonech nemá, takže moc není s čím srovnávat.
Z logiky věci herní grafiky jsou násobně efektivnější než CPU a přotom si berou desítky a stovky Wattů, takže telefon nemůže být výkonnější než desktop i než NTB běžné konstrukce, nemá na to dost energie, ani by se neuchladil.
Odpovědět1  0
Jsou různé kategorie úsporných CPU. Úsporný procesor znamená něco jiné v mobilu, desktopu či serveru. V desktopu je důležitý jednovláknový výkon do 8 až 16 jader což je hi­-end, v serveru je dnes 16 jader low­-end. A od toho se odvíjí odlišné takty a porce energie na jádro.
Odpovědět0  0
To je pravda, šířku jádra a další věci z toho popisu vyčíst nejde. Já to uvedl hlavně proto, aby bylo vidět a upřímně jsem byl sám překvapený, kolik variant jde licencovat. Ta šíře záběru je veliká. A tím víc mne mrzí, jak pomalu se rozšiřuje. A tou podobností či snadností myslím to, že je určitě jednodušší přepsat kód z ARM než z x86­-64.
Odpovědět0  0
Berkley RISC architektur vzniklo celkem kolem 20. O většině z nich lidi od počítačů vesměs nikdy ani neslyšeli. Co se týká ARMu ano je starší ale v té době se objevily další i z rodiny Berkley a rychle se z nich staly výkonné architektury, což pro ARM neplatilo. RISC­-V nemá k dispozici tolik financí, to je jasné, ale zase vstoupla do světa rovnou už jako modernější a se zkušenostmi z návrhu předešlých. Tím že je tedy ARM dost podobná, by portace neměla být větší problém.

Z existujícich jader k licenci:
Andes Technology Corporation nabízí několik různých sérií jader s volitelným rozšířením instrukční sady, včetně možností pro návrh vícejádrových systémů:
Série N­(X­) zahrnuje jak 32bitová jádra ­(N­), tak i 64bitová ­(NX­). Délka pipeline ­(zřetězené linky­) je různá, od dvoustupňové u jádra N22 až po osmistupňovou u N45. Jádro NX27V podporuje vektorové rozšíření RISC­-V neboli sadu “V”.
Série D­(X­) nabízí jádra s instrukční sadou “P”, která podporuje operace SIMD, a na výběr jsou opět jádra 32bitová ­(D­) i 64bitová ­(DX­).
Série A­(X­) se zaměřuje na aplikační procesorová jádra s podporou Linuxu a délkou pipeline od pěti do osmi stupňů. Dále nabízí podporu operací s plovoucí desetinnou čárkou a jednotku pro správu paměti ­(MMU­).

Původem česká společnost Codasip s.r.o. ­(dnes součást skupiny Codasip GmbH­) v lednu 2016 uvedla na trh historicky první komerční jádro založené na RISC­-V ­(Codix­) a dnes má v nabídce několik sérií vestavěných i aplikačních procesorových jader RISC­-V. Jádra od Codasipu jsou navržena v proprietárním jazyce CodAL a firma je vyvíjí s pomocí patentované technologie a vlastního návrhového nástroje zvaného Codasip Studio.
Série L nabízí minimalistická 32bitová jádra s nízkou spotřebou, pipeline o délce tří nebo pěti stupňů a volitelným rozšířením pro operace s plovoucí desetinnou čárkou.
Série H nabízí 64bitová vestavěná jádra s vysokým výkonem. Volitelně je opět k dispozici rozšiřující sada pro operace s desetinnou čárkou.
Série A obsahuje 64bitová jádra, která podporují Linux a lze je rozšířit o instrukční sadu “P”. Jádra mají sedmistupňovou pipeline, podporu operací s desetinnou čárkou ­(FPU­) a správu paměti ­(MMU­). Verze jader rodiny A s příponou ­-MP navíc obsahují cache ­(vyrovnávací paměti­) L1 a L2 a nabízejí podporu pro vícejádrový systém o maximálním počtu čtyř jader.
Jádro uRISC­-V, které je součástí nástroje Codasip Studio, slouží ke vzdělávacím a výukovým účelům.

Společnost SiFive začala prodávat v květnu 2017 jednodeskový počítač kompatibilní s Arduinem a postavený na RISC­-V procesoru Freedom E310. Táž společnost oznámila v říjnu 2017 dokončení návrhu čtyřjádrového 64bitového procesoru U54­-MC Coreplex, který je navržen pro taktovací kmitočet 1,5 GHz a na kterém bude možné spustit plnohodnotný desktopový operační systém, například Linux. V únoru 2018 tato společnost spustila prodej jednodeskového počítače HI­-Five Unleashed. Společnost SiFive momentálně nabízí tři hlavní řady produktů:
Série E zahrnuje 32bitová vestavěná jádra s dvou­- až osmistupňovou pipeline. Nejpokročilejší z této série je čtyřjádrový procesor E76­-MC.
Série S zahrnuje 64bitová vestavěná jádra s dvou­- až osmistupňovou pipeline. Nejpokročilejší z této série je S76­-MC.
Série U představuje nabídku 64bitových aplikačních jader o délce pipeline 5–12 stupňů. Varianty U54 a U74 jsou k dispozici ve vícejádrové verzi. Superskalární jádro U84 nabízí nejvyšší výkon z této série.
Intelligence X280 je aplikační jádro odvozené ze série U, které navíc podporuje vektorové rozšíření „V“.

Otevřená jádra RISC­-V
Kalifornská univerzita v Berkeley vyvinula řadu procesorových jader RISC­-V s využitím jazyka Chisel:
64bitové jádro Rocket vhodné pro kompaktní zařízení s nízkou spotřebou, jako je přenosná osobní elektronika.
64bitové superskalární jádro Berkeley Out of Order Machine ­(BOOM­) s instrukční sadou RV64GC, určené jak pro osobní počítače, tak i pro superpočítače a databázové servery.
Pět návrhů 32bitového procesoru Sodor, které slouží primárně pro studentské projekty.
PULPino ­(Riscy a Zero­-Riscy­), projekt Spolkové vysoké technické školy v Curychu ­/ Boloňské univerzity. Jádra PULPino implementují jednoduchou instrukční sadu RV32IMC pro mikrokontroléry ­(Zero­-Riscy­) nebo výkonnější sadu RV32IMFC s rozšířením pro zpracování digitálního signálu ­(DSP­).

Společnost Western Digital vyvinula několik vlastních RISC­-V jader pod názvem SweRV Cores a poskytla je volně pod otevřenou licencí prostřednictvím CHIPS Alliance. Komerční podporu těchto jader poskytuje ve spolupráci s Codasipem. Jádra SweRV cílí na výkonné vestavěné systémy a implementují základní sadu RV32IMC:
SweRV Core EH1 je dvouvláknové superskalární jádro s devítistupňovou pipeline.
SweRV Core EH2 je superskalární jádro se dvěma hardwarovými vlákny a devítistupňovou pipeline.
SweRV Core EL2 je minimalistické jednovláknové jádro se čtyřstupňovou pipeline.

Na výběr tedy je. Osobně bych zrovna této architektuře úspěch přál. Ale zatím to je slabota, na to kolik variant vlastně existuje.
Odpovědět0  0
Děkuji až tak hluboko do tajů nových CPU nevidím, ale už z názvu je jasné, k čemu je. Zrovna toto u odlišných architektur moc srovnávat nejde.
Odpovědět0  0
Ale zajímalo by mne ještě jedno, marně zjišťuji, co je míněno ROB
Odpovědět0  0
Patrně jen tapetuje bezduše informace a nepočítá. A když počítá, tak jen to co vyznívá z jeho hlediska dobře.
Odpovědět1  0
Protože tam, kde nestačí argumenty, si někteří ohýbají realitu.
Odpovědět1  0
RISC­-V je otevřenější, ale tím pádem taky chybí dobré návrhy jader. Ani tu práci na ISA nikdo zadarmo neudělá. Jen ISA nestačí a jádra RISC­-V v opravdu výkonné variantě prostě nejsou. A to nezmiňuji Open­-RISC, o kterém ani většina vůbec neví.
Odpovědět0  0
Potom ale nechápu, jak je možné, že ve srovnání CPU výkonu M2 ultra dosahuje jen na AMD 5950X. Něco tady nesedí.
Odpovědět1  0
Nebudu druhým říkat, co mají dělat. Pokud se mne přímo nezeptají, nebo mne neomezují či neohrožují... To na okraj. Kačdý má jiné priority. Někomu stačím malé rozlišení, ale trvá na max detailech. A pro takové moc vhodných grafik není, aby měly i rezervu do budoucna. A měnit grafiku i obgenereci je při nárůstech výkonu u posledních generací dikutabilní. Ale větší paměť by mohla být argument.
Odpovědět0  0
To je fakt. Já pamatuji na doby kdy fandové kombinace Intel ­/ Nvidia, si museli vyloženě vymýšlet ­(v případě Intelu­) proč je jejich P4 lepší A­-XP. A jeden z argumentů, který ale víc vypovídal o jejich nešikovnosti byly ulomené rožky. Některé z nich vydržely i v době Athlonů 64, kdy už fakt dávno neplatily. Někdo prostě přijímal jen novinky u Intelu a konkurenci komplet ignoroval. V dnešní době toto až na naprosté vyjímky už naštěstí vymizelo.

Když budu upřímný jakékoliv fičury ala DSLL mne nezajímají stejně jako RT. A co se spotřeby týká, hraju tak málo, že mi vrásky nedělá a v desktopu je srovnatelná. Spíš mne zajímá, jak dlouho mi můžou komponenty sloužit a tady se projeví velikost paměti a s tou Nvidia šetří.
Odpovědět0  0
Velice jednoduše. Tím že CPU a GPU spolupracují dosahují větší efektivity a kód na superpočítačích je dost dobře optimalizovaný. Ti programátoři nejsou tupci a ví, co má která část supercomputeru zpracovávat. Ostatně, kdyby byl přístupu Fujitsu tak výhodný, proč by byl přístup kombinací CPU­/GPU v tomto segmentu tak rozšířený? Kromě toho jsem si jistý, že vědecké masivně paralelní výpočty jsou velmi vzdáleny běžné domácí zátěži i tomu, co běží na pracovních stanicích nebo serverech.
Odpovědět0  0
Taky proto klasické kompresní algoritmy nikdo na GPU nespouští. Možná by patřičně upravit ten kód šel, ale nikdo to nedělá. Obecně jsou algoritmy, které jdou dobře paralelizovat a současně nemusí vyhodnocovat moc podmínek. Případně prostě jen hrubou silou zpracovávají kvanta dat a proti tomu jsou takové, kterým lépe sedí víc klasických procesorových jader. Proto superpočítače kombinují CPU a GPU. Ještě lépe na tom budou APU varianty MI300, kdy v jedné patici jsou tři chiplety akcelerátoru a jeden s 24. CPU jádry ZEN4.
Odpovědět0  0
To šetření na paměti jsem taky úplně nepochopil.
Odpovědět0  0
Celkem by mne zajímal, pokud by to bylo opačně, zda by tak mluvil fanda Nvdie. Nebo aktuálně Intelu...
Odpovědět0  0
Fukagu je na dnešní dobu dost specifické řešení ­- pouze z CPU. Z tohoto pohledu je na tom dobře, ale pro soupeření s nejvýkonnější konkurencí se to nehodí z hlediska nákladů na chlazení a napájení.
Odpovědět2  0
Já se nepřu o efektivitě, ale o příčině.
Odpovědět0  0
Motat do hromady GPU a CPU to už je hezky mimo...
Odpovědět0  0