Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
4.12.2018, Jan Vítek, aktualita
Lisa Su obdržela dotaz ohledně toho, jak se její AMD vypořádá s novými grafickými kartami NVIDIE. Je zřejmé, že jde o otázku týkající se již příštího roku a odpověď byla povzbudivá. AMD chce zaútočit i v hi-endu. Jak to provede?
snajprik (1641) | 4.12.201816:33
Treba čitať medzi riadkami, AMD hovorilo že vyroba multi jadroveho CPU s viac kremikoch bola lahšia ako vyroba multi jadroveho GPU s viac kremikoch.
To do normalnej reči preložene AMD ma nielen CPU zložene s viacerich kremikoch. ale i GPU zloženu s viac kremikoch.
tak že NAVI s vykonom GTX1080 nieje nič moc, ale NAVI zložena s 2­-4 kremikoch to už je ina pesnička.
Odpovědět3  2
del42sa (249) | 4.12.201816:52
AMD určitě nic takového nemá, práve Wang oficiálně za AMD potvrdil, že Navi bude monolitické GPU a poměrně jednoznačně vysvětlil, že multidie systém který lze realizovat u CPU nelze jen tak jednoduše aplikovat na GPU.

AMD bude mít novou GPU architekturu v roce 2020 a teprve tehdy budou moci postavit nějakého ­(high ­-end­) konkurenta Nvidii.

Velice pochybuju, že by se o cokoliv podobného pokoušeli s NAVI, která je poslední generací GCN



Odpovědět3  2
snajprik (1641) | 4.12.201817:12
GPU je zložena napriklad 2500 jadier, mysliš že je to až tak problem rozdeliť do viac kremikoch? Crosfire a SLI to je s vlasnim napajanim vlasnou doskou proste dve samostatne dosky, ale na jednom plošaku že by to nefungovalo?
Odpovědět2  2
del42sa (249) | 4.12.201817:24
už to bylo vysvětleno několikrát, problém je software :

https:­/­/www.pcgamesn.com­/amd­-navi­-monolithic­-gpu­-design?tw=PCGN1

není problém dát dva kousky křemíku na substrát a spojit je pomocí IF, ale nebude to fungovat, protože software uvidí pořád dva samostatné čipy... Jak potom synchronizovat jednotlivé části čipu, texturing, rendering, Z­-buffer ? Pokud to nemá fungovat jako SLI nebo Crossfire, je potřeba aby se to řešení z pohledu software tvářilo jako jediný monolitický čip
Odpovědět2  0
asip80 (1175) | 4.12.201818:30
no nevim ten clanek je dost stary
mame tu jasna fakta
- NV i AMD tlaci smerem MCM GPU ! ­(i sama NV tvrdi ze je tam vetsi narust vykonu nez s nejvetsim monolitckym GPU ktere jsou schopni vyrobit ! az o cca 46% a vs. multi GPU cca 26% ­) a to nemaji doresene deadlocks ..a maji atrapu IF ci EMIB ­(a i to vylepsili v posledni generaci a budou tlacit dal na pilu prostredky na to maji .. ­) >> BTW dle meho se da ocekvat ze touhle cestou vyvoje se davno ubira i Intel a muzeme ocekavat i GPU na podobne bazi :­)

- dalsi fakt AMD dokaze skalovat HERNI vykon i s mGPU cca 100% ­(pri dobre optimalizaci­) a IF ­(vc. externi varianty­) je papirove i v praxi nejlepsi ­(zatim­)

tohle vse je soucast bezneho vyvoje v podstate nezajimave fakta >>> co me zarazi ze NAVI ­"mela­" byt skalovatelna­(v jakem smeru?­) a pocitalo se s MCM resenim ..pak prijde prohlaseni ze se kvuli dalsim skrtum upousti od vyvoje MCM pro NAVI ­(i kdyz dilci technologie pro MCM reseni se zkousi uz 5­-6 generaci­) a chvili po tomto prohlaseni se do graficke divize zacnou nalevat neuveritelne sumy nekolikanasobne vyssi v porovani s predeslym obdobim >> v tomto bode se mi neco hodne nezda bud se AMD konecne naucila drzet zobak a upustila od zbytecneho dlouhotrvajici Hypu ­(kvuli zklidneni akcionaru­) tzv NV like kdy do ­"posledni­" chvile u NV poradne nevime s cim prijdou a pak to prijde jak rana z cisteho nebe :­)

dokazu si MCM NAVI predstavit v profi segmentu tam v podstate nevadi ze se netvari jako jedno GPU ­(v nekterych pripadech je to i vhodnejsi ­):­) a v herni oblasti se nechame prekvapit s cim prijde AMD a kdo splnohodnotnym hernim MCM resenim prijde driv jestli NV nebo AMD :­)




Odpovědět4  2
del42sa (249) | 4.12.201820:24
jo jo, máš pravdu, je to úplně starý článek , plný zastaralých informací. AMD určitě vytáhne z rukávu multi NAVI složené z 10 čipletů a rozdrtí Nvidii na prach .....
Odpovědět3  4
asip80 (1175) | 6.12.201810:28
když by to mělo smysl proč ne ;­) dnes se staví systemý s xx samostatnými kartami proč nepostavit levněšjší a výkonné systémy s xx samostatnými MCM kartami ?

ty jsi pořád nějak zaujtý proti AMD :­) přitom je úplně jedno kdo s tím přijde dřív pracuje na tom jak AMD tak NV a nejspíš i Intel :­) to že se před škrty s podobným řešením u NAVI počítalo je fakt to že NAVI bude malý čip cca na úrovni výkonu VEGY je taky fakt >> jak tedy chtějí konkurovat v profi segmentu než slepencem ? no nechme se překvapit možná zůstanou u mGPU řešení podobně jako s VEGOU a veškeré finance které tam nalili po ohlášení škrtů jdou do post­-NAVI
Odpovědět2  1
del42sa (249) | 6.12.201815:09
já vůbec nejsem zaujatý, to si teda pleteš :­-D Já AMD fandím, ale realita je taková že by AMD muselo prosadit zcela radikální změny v softwarovém ecosystému, na kterém v současné době funguje celý herní herní trh, což s jejich podílem na trhu vůbec není snadný úkol. Vzpomeň si na celou snahu s Mantle , jak dlouho to vše trvalo, kolik her bylo ze začátku dostupných pro toto rozhraní ? a nakonec jediná cesta jak celou práci nezahodit do koše byla udělat z toho standart a nabídnout to Khronosu, který na tom postavil nový Vulkan API. Vzpomeň na Primitive Shader u Vegy, který doteď nefunguje. A proč ? právě kvůli softwarovému ecosystému, který obklopuje současné grafické karty. Navíc na tom trhu není AMD samo, je zde mnohem dominantnější Nvidia, ktera když bude chtít, tak celou věc zatrhne ve prospěch vlastního řešení.

Nikdo nepochybuje o tom, že do budoucna to bude ­(možná­) jediné řešení, ale celý ten nápad je teprve ­(co se GPU týče­) v plenkách a oba výrobci musí ještě vyřešit spoustu problémů, které pouhým nalepením malých čipů na interposer nezmizí..... Pak sem napíše příspěvek nějakej fanatik, kterej ti řekne, že MCM je budoucnost a že u NAVI se s tím počítalo, ačkoliv o něčem takovém neexistuje jediný důkaz :­-D No a když tohle někomu napíšeš v diskuzi a vlastně se snažíš jen poukázat na fakt, že lidi záměrně přehlížejí tyhle dost podstatné zádrhele, že tak tě začnou obviňovat, že seš zaujatej :­-D
Odpovědět1  2
asip80 (1175) | 7.12.201816:06
vzpomen si jak dlouho existovali x86_64 CPU jak dlouho existovali vicejadrove CPU jak dlouho ... takhle by jsme mohli argumentovat do aleluja ....a hlavne nezapomen za na MCM maka i NV ;­)
ok tak budeme tvrdit ze MCM neni budoucnost a dal vscihni pojedem na jednojadrovych CPU a monolitickych GPU a bude zazracne rust vykon do nebeskych vysin jen zvetsovanim plochy a taktu ;­) to ze ti ty dukazy unikaji a meles si napric vsemi diskuzemi porad to stejne stale dokola nic nezmeni ...leda ze bys by ta povestna posledni kapka nerozumu a zaslepenosti ;­)
Odpovědět2  0
del42sa (249) | 8.12.20187:50
jasně, ono totiž CPU a GPU je uplně to samé ...... :­-D

hlavně že sis sám nakliknul plus pod svůj příspěvek a meleš něco o zaslepenosti
Odpovědět0  0
asip80 (1175) | 8.12.201811:55
boha proc meles takove sracky :­) tvrdim nekde ze je to stejna vec ?
tech hlupaku kteri tvrdili ze neco neni mozne a pak se to realizovalo je v historii plno a ty se radis mezi ne :­))
Odpovědět1  1
asip80 (1175) | 8.12.201812:02
btw diky za upozorneni tak jsem si naklikal plus taky proc ne vsak mam pekne prispevky proc se kladne neohodnotit ;­)
Odpovědět1  1
del42sa (249) | 8.12.201820:10
hlavně že z tebe padají perly.... :­-D
Odpovědět0  0
asip80 (1175) | 9.12.201812:28
dekuji za uznani ;­)
Odpovědět0  0
del42sa (249) | 11.12.20189:07
to nebyl kompliment
Odpovědět0  0
wrah666 (6205) | 4.12.201819:55
Nechci být ošklivý, ale software dneska vůbec nevidí čip. Jediné co vidí je rozhraní directX nebo vulcan, kam zadává požadavek.
Odpovědět2  2
del42sa (249) | 4.12.201820:23
a to rozhraní DirectX nebo Vulkan ­( což je právě ten software ­) komunikuje s čím ? že by s hardware ?
Odpovědět1  4
tombominos (1349) | 4.12.201822:17
V obecne rovine ­(mozna terminologicky nespravne­) bude volana DX funkce komunikovat s driverem graficke karty. Driver pak bude volat interni funkce karty. Tudiz teoreticky z pohledu volani DX API, ktere nezna interni strukturu karet, tak ji muze byt celkem jedno, jestli je to monolit nebo ne, protoze tohle by mel resit driver. Tolik k teorii, pokud to funguje, jako napr u jinych softwarovych reseni a myslim ze i u DX11, protoze imho v driverech byla­/je podpora pro Crossfire :­)
Jak je to u low level API nevim, jestli ty API volani volaji spis uz interni namapovane funkce toho driveru a tim padem je potreba hlidat vic veci..
Odpovědět3  1
del42sa (249) | 5.12.20188:22
no ale zrovna Crossfire který zmiňuješ z hlediska software přiznává že jde o dva ­( nebo více ­) samostatné kousky hardware :­-­)

AFR, aneb alternate frame rendering a další techniky staví právě na tom faktu, že jeden sníme renderuje jeden čip a další čip renderuje druhý snímek. Software tedy nevidí jeden ­"monolitický­" čip, ale dva čipy ­(karty­). Jenže právě tohle řešení má spousty neduhů, které vyplývají z toho jak to celé funguje. V podstatě je to jen synchronizace dvou grafických karet aby fungovaly ­"jakože­" jedna. To celé v dobách DX9 a DX11. Dneska máme low level API, které k hardware přistupují přece jen poněkud odlišně.

Takže řešení o kterém mluví Wang a které vzpomenul Snajprik ve svém přízpěvku má fungovat zcela jinak. Software DX nebo Vulcan zatím nedokáží s GPU chiplet fungovat protože prostě software takové GPU nevidí jako monolitické. Zatímco operační systemy umí běžně pracovat s vice CPU a tohoto faktu AMD využila při návrhu EPYC­/Ryzen u GPU je situace zcela odlišná. Není problém takový hardware postavit, problém je že nebude z pohledu současných API fungovat. Dalším faktem je to, že AMD nemá zatím ani žádný pilotní prototyp takového řešení, neexistuje žadný ­(veřejný­) research na toto téma, ze kterého by finální produkt mohl vycházet. Takže máme jen vlhké sny nadšených AMD fanoušků a nebo nejasné hypotézy. Až AMD představí novou GPU generaci, tak pak třeba budeme všichni o něco chytřejší :­-­)

Odpovědět1  2
del42sa (249) | 5.12.20188:51
PS: jen doplním jestli má takové multi GPU řešení k něčemu být, tak určitě nemůže fungovat na principech SLI­/Crossfire
Odpovědět0  2
tombominos (1349) | 5.12.201810:53
To jsme se spatne pochopili.. ja netvrdim, ze by to melo fungovat jako Crossfire. Tim jsem jen chtel ­'podporit­' to, ze developer vola funkce DX API a za to jestli jsou zpracovavana jednim chipem nebo dvema, nese odpovednost driver.
Neco jako kdyz mas treba webovou applikaci na serveru, ktera slouzi k tomu, ze rozhazuje pozadavky na dalsi servery. Nicmene ty zvenku vidis jen ten jeden vystrceny server a ze jich tam je dalsich 20 schovanych za nim, uz nevidis. :­)
Odpovědět2  0
del42sa (249) | 5.12.201811:02
ja tomu přirovnání rozumím, jen říkám že u GPU to takhle evidentně nefunguje :­-)
Odpovědět1  2
tombominos (1349) | 5.12.201811:48
Nerikam, ze nemas pravdu, neznam architekturu GPU a divam se na to ­(mozna chybne­) podobne, jak funguje CPU, kde jednotliva jadra jsou spojena pres nejaky druh sbernice. Ryzen to pak dovedl do dalsiho levelu, ze jejich IF je dalsi sbernici mezi jadry, ktere jsou na ­"ruznych­" chipech. Takze tay moje teorie ­"driveru­" funguje :­)­) Jestli je to aplikovatelne na grafiky nevim...
Odpovědět3  0
XyM (193) | 4.12.201817:47
heh... Pokud AMD neporazí výkonem 10%+ ­(Kdyby jen výkonem, cena by byla myslím při tom výkon asi neřešitelná co? :D­), 2080 Ti tak je diskuse zbytečná a AMD si mohlo odpustit nějaké sliby.. U Vegy byl jaký hype, a přitom to dopadlo, tragicky kde výkon byl stova někde mezi 1080 ­/ Ti... Za cenu a TDP, pche.. pokud nejsem nějakej fakt Radeon fanboy, nebo cryptobaron tak nemá AMD High­-end co řešit, no a co si myslím, že kdyby AMD neodkoupilo ATi tak by nemusela trnout těh 5 let s Bulldozerem apod. a mohla nabídnout to co dnes. Chápu, že tehdy na to nebyly technologie jako 14 popř. 12nm proces ale i tak, si myslím, že odkupem ATi si AMD zavařilo. Ale to jsou spekulace do nah.. se mi nechce.. :D
Odpovědět1  7
wrah666 (6205) | 4.12.201820:42
náhodou, Vega je výborná karta. jen panu Kodurimu nějak při menedžování vývoje ušlo, že by měla sloužit i hráčům. Pro profesionální účely, nebo jako výpočetní karta je vynikající, se zcela bezkonkurenšním poměrem cena výkon. Ano, spotřebu má trochu vyšší ­(oproti plně zatížené výpočetní NVidii opravdu jen trochu­) ale elektřina je v zásadě levná. ­(Zjednodušeně, když na kartě děláte třeba úpravy filmu a za obsluhu platíte pár set USD za den, tak vás naprosto nezajímá, jestli sežere elektřinu za 7 nebo za 10 dolarů..

PPS: na české poměry: kamarád je zvukař. Když maká, tak za den práce na tom PC vytlačí fakturu za 3­-5 tisíc kč.. Jediné co ho zajímá je, když zadá vyrenderovat výsledek, za kolik MINUT bude. Jestli celodenní provoz stál 50 nebo 100 kč, je mu naprosto, naprosto víte kde.. Zato jestli bude čekat místo minut hodinu, tak má problém. ­(ano grafika kupodivu hraje roli)
Odpovědět3  0
tombominos (1349) | 4.12.201822:18
Vea je nedotazeny kockopes..proto je takova jaka je.. jako vsichni kockopsi ;)
Odpovědět1  2
del42sa (249) | 5.12.20188:59
Problémem Vegy je hlavně spotřeba, Vega umí být úsporna při nižších taktech tak okolo 1200MHz, ale s rostoucí frekvencí žere jako tank. Jenže AMD se potřebuje na vyšší frekvence dostat, aby bylo výkonem alespoň trochu konkurenceschopné, když nedokáží navrhnout širší GPU co má vice jak 4SE a 4096SP. Nvidia dosáhla už teď v podstatě u svých GPU poloviční spotřebu proti tomu co předvádí AMD s GCN. Přes všechny tweaky a vylepšení má Vega stále hodně bottlenecků že ani nedokáže naplno využít všechny SP a nejsmutnější na tom je fakt, že ty nejzajimavější featury vlastně nefungují.....
Odpovědět1  2
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.