Podiel AMD je cca 1/5 nvidie, a ked Nvidia predala za mesiac 160 000ks GPU tak to AMD bude trvať 5 mesiacov kym vypreda RX7900.
Hlavny utok AMD na zakaznika počitam začiatkom buduceho roka s NAVI32 len o malo menej SP ale podstatne vyšie takty 3GHz+ počitam len o cca 10% menej vykonu ako 7900 ale za cenu cca 500-600dolarov čo už je ovela zaujimavejši produkt pre masi ako RTX4090 za 2500€ :)
Odpovědět0 4
Jenze u AMD je hlavni segment CPU. Nvidea jede jen GPU segment AMD jeden CPU i GPU coz ve vysledku je na tom o neco lip nez Nvidea.
Odpovědět0 1
200 tisíc ks není zrovna malé číslo... No Jak se to vezme. 200 tisíc GPU prodá třeba NVIDIA za dva dny. AMD vzhledem k podílu na trhu to prodá třeba za týden. Ale jsou to vyšší řady, takže těch se samozřejmě tolik neprodá, ale 200k ks bych bral jako takovou maximálně měsíční zásobu, zvláště pak na launch, kde jsou prodeje obecně nejvyšší.
Odpovědět1 11
"No Jak se to vezme."
A o tom se také píše v článku. Nvidia těch dvou nejvyšších řad udělala za měsíc asi 160 tisíc. Takže v případě AMD je 200 tisíc na něco přes půl měsíce poměrně dost (byť je nutné uznat, že míří na trochu nižší cenovou hladinu).
Odpovědět6 0
Prave čo pozeram do obchodu RTX4090 ma cenovku 2400€, RTX4080 1500€ a testy ukazujú že 7900XTX je vykonejšia ako 4080 a to ešte AMD nema odladene ovladače. Ak sa AMD bude držať kolo 1200€ = vyšši vykon, nišia cena, nišia spotreba + kludny spanok že nevyhorim...
Ale tiež si myslim že potencial AMD je 1/4 s Nvidie = 40 000GPU RX7900 za mesiac.
Odpovědět1 2
Já tedy vidím výkon v rasterizaci max. stejný, v RT výrazněji nižší, nepodpora DLSS. Spotřeba při hraní v průměru až o 50W vyšší.
A krásný graf měli na techpowerup(?) kde měří můj herní scénář = V-Sync, 60Hz. Tam má 7900XT v podstatě 2x vyšší spotřebu než RTX4080. 7900XTX 127W, RTX4080 68W. To je dokonce méně než žere moje RTX3060Ti, ta je v průměrnu někde lehce nad 80W.
Tak jak tak v AMD navrhli pěkné karty a své kupce jistě najdou. Kdybych měl vybírat 1000 dolarovou 7900XTX a 1200 dolarovou RTX4080, upřednostnil bych RTX, jenak kvůli poloviční spotřebě (V-Sync, 60Hz = nižší provozní hluk, s 68W spotřeby je to na hranici pasivního provozu = značka ideál), lepšímu výkonu RT a DLSS.
Odpovědět3 6
No podpora DLSS k čemu by byla když amd má FSR a po novém roce uvedou verzy 3,0 prakticky srovnatelnou s DLSS. Rasterizaci jak kde někde se výkonem dotahuje až na 4090 třeba Farcry 6 ano RT je o 16% pomalejší otázka je když člověk RT nevyužije připlácet 200 za kartu která je o trošku horší nedává smysl. Pokud ovšem RT využijete tak ten příplatek smysl má. To si musí každý zvážit sám. Já co sem si RT vyzkoušel tak jediná hra kde to bylo opravdu super a mělo to výrazný vliv na herní zážitek byl minecraft. Tam to bylo fakt dělo. Ale u většiny ostaních her nejvíc vidím jen ten pokles výkonu. Mnohdy je to vidět pomalu jen na statických scénách no věřím že třeba za 5 let to bude mít smysl ale to budou na trhu jiné karty s jiným výkonem.
Odpovědět3 1
"No podpora DLSS k čemu by byla když amd má FSR a po novém roce uvedou verzy 3,0 prakticky srovnatelnou s DLSS."
FSR si zapnu na NVIDIA kartě, DLSS si na AMD kartě nezapnu a her které mají DLSS + FSR je minimum, kdežto těch s DLSS mám v knihovně docela dost.
FSR 3.0 možná bude vyžadovat HW AMD, ale.. pak to zase bude který titul dostane DLSS a který FSR. A zda vůbec FSR nebo DLSS pro daný titul bude potřeba (potřebu vidím jen u RT titulů) a zda vubec za tu dobu vyjde něco, co mě zaujme natolik že to budu muset mít hned. Obvykle nemám problém počkat s hrou i pár let a pak si ji zahrát na novém HW který to zvládne lépe. Aktuálně hraju tituly vydané 2018-2019.
"když člověk RT nevyužije"
to je na rozhodnutí každého, opro mě je RT jasná volba
"vidím jen ten pokles výkonu"
nevidím vůbec žádnou ztrátu výkonu, jestli RT off nebo RT on, pořád mám 60FPS, většinou tomu ale musí pomoct DLSS:. Kupuji si grafické karty tak, aby mi zvládaly V-Sync 60Hz s max detaily (pro letecké simy stačí 30FPS)
127W u 7900XTX je šíleně velká spotřeba ve srovnání s 68W u RTX4080 (připomínám Vsyc, 60Hz).. Aktuální 3060Ti mi v nejhranějším titulu dělá průměr cca 80W, tzn. ventilátory na grafice se občas zastavují, občas spouští a točí 1000rpm, v PC jde slyšet proudění vzduchu. při cca 60-70W běží pasivně. Takže 4080 se spotřebou pod 70W s největší pravděpodobností bude celou dobu v pasivním režimu = ticho. Ventilátory ve skříni (ty i s cpu chladičem točí 400rpm = inaudible) což zajistí průtok vzduchu, takže teplo se ve skříni nehromadí.
Už jen ten tišší provoz mi za těch pár stovek dolarů navíc stojí, navíc se část vrátí levnějším provozem, celé PCčko se tak krásně vejde do 200W na zdi.
Odpovědět1 3
Hele já ti teď nevím, ale AMD tam má evidentně nějaký bug v ovladačích a na některých nastaveních monitoru nebo v multi zapojení monitorů to teď žere nesmysl, jenže to si myslím opraví hnedka, protože na to nadává každý, tak bych s tímhle chvíli počkal.
Odpovědět4 1
Ano při více monitorech to jde na nějakých 100W protože to tu kartu vyboostí, to udělá i hra. Vyboostěná karta v idlle je nesmysl a určitě půjde o bug, stejně jako u přehrávání videa, vyboostěná karta ve hře ale nesmysl není a takhle to funguje zcela normálně. ta grafika v plné herní zátěži žere o cca 50W více než RTX4080, Podobně víc to žere i s tím VSync, 60.
Ale i kdyby ne, i kdyby to byl bug v ovladači, posuzuju to v době kdy bych to kupoval, a do budoucnosti nevidím, tudímž musím hodnotit to co je teď ne to co se AMD uráčí třeba po roce uznat jako chybu a po dvou opravit. Když kupuju produkt dnes, nebudu se řídit domněkou jak to s tím bude zítra. Navíc zítra to AMD DLSS nenaučí a RT výkon také nezvedne, o CUDA, NVENC nebo RTX (tRTX tech není jen RT ve hrách) AMD taky neumí, byť tohle pro mě dneska už není klíčové protože na práci používám laptop a herní PC je prostě jen herní konzole na stereoidech.
Odpovědět1 3
Jako máš pravdu, už to mělo být vyladěné.
Nicméně 50W jako těžký problém? Tady se neřeší 100W u procesorů Intel, protože to nikomu přece nevadí a najednou tady budeme řešit 50W u AMD? Achjo... ať žije fér jednání.
Odpovědět2 1
Ano 50W je problém protože to znamená aktivní chlazení. když vím že tu je karta co to dá s 60-70W, tak ze zkušenosti vím že to už stačí chladit pasivně. To je přesně 100% rozdíl v provozním hluku.
Jestli někdo řeší spotřebu Intel procesorů nebo ne? Já se svým Intel procesorem při hrách mívám spotřebu mezi 25-50W, ve strestesstu nejde nad 65W a chtít větší bednu tak ho klidně můžu chladit pasivně. Ekvivalentní AMD procesor v herní zátěži má o 40-50% vyšší spotřebu
V Laptopu mám 12 jádrovou 1240P a ten procesor při práci v průměru žere 7W, měl jsem tu AMD které při tom samém žralo 6W, ale v tom laptopu při stejné hmotnosti byla o 8Wh nižší baterie, takže reálná výdrž byla stejná, navíc to AMD bylo daleko hlučnější a když člověk zapl performance režim 35W 5800H běželo na 64W a větráky jely na 7000 otáček. Tak špatný laptop jsem nikdy doma neměl a to jsem svůj první laptop kupova v roce 2003. Po tom co se to rozjelo na těch 7 tisíc jsem to dal do továrního, zabalil a vrátil, tohle fakt ne. Zvláště když to nahrazovla pasivně chlazený laptop
Odpovědět1 2
"Ano 50W je problém protože to znamená aktivní chlazení."
.. no jo demagogu, ale to je problem, kdyz mas 10W vs 60W, kde to dela 6x nebo to nemusi byt uplne ok, kdyz mas 100W vs 150W, kde je to 1,5nasobek.. ale jestli mas 300 nebo 350W je rozdil 15%..coz je primarne daleko mensi problem, nez se z neho snazis za kazdou cenu demagogicky udelat.
Ale tak na to je kazdy zvykly, kdo te trochu uz zna :D
Odpovědět0 1
tak maji chybu v driverech.. kup si NV. Nic vic se na to neda rict.
Odpovědět0 1
Když ti jde jen o to, aby se neroztočil větrák a to považuješ za výhru, tak proč ne....
Odpovědět1 1
Ber to tak že AMD uviedlo zbrusu novu čipletovu technologiu ktoru ešte potrebuje 1-2 mesiace ladiť aby fungovala ako ma, proste AMD tutlala novu GPU do poslednej chvile a nedalo sa ju ladiť niak až teraz.
Nvidia u RTX4000 len zmenila vyrobny proces a pridalo SP tak že vela ladenia im to nezabralo.
Tak že ano AMD to blbne, je to silne neodladene, ale to neznamena že je to zla karta o 1-2mesiace možeš čakať 10-20% vykonu na vyše a už teraz cena/ vykon je vyhodnejšia ako Nvidia, tak že...
Odpovědět3 2
Co udělali v NVIDIA nebo AMD je mi naprosto u zadele, to mi jako kupci nic nedá, já potřebuju produkt který nějak funguje a jak se vyrábí to se můžeme přít maximálně tady v diskuzi, i když, upřímně, mě je to opravdu buřt, já potřebuju produkt používat a ne ho vyrábět.
" to neznamena že je to zla karta o 1-2mesiace možeš čakať 10-20%"
Ano můžu čekat, třeba týden, nebo třeba rok než někdo uzná chybu a další rok než ho opraví, případně se taky opravy dočkat nemusím protože problém vůbec nemusí být v ovladači. Upřímně, netuším o jakém problému vůbec píšeš. Protože já žádné problémy ve svém komentáři nezmínil.
Spotřebu AMD při multi monitoru a videu kde karta zbytečně boostuje je jistě chyba, ale aby snížila o polovinu spotřebu při hraní? Těžko. Že by magicky vytáhla 50-60% RT výkonu? Těžko. A že by ji snad ovladače naučily DLSS? To asi také ne, že.
Ovladače sice v různých hrách tu a tam něco zlepší, ale světe div se, to se děje u všech výrobců grafik. U AMD to prej zraje jak víno, u NV prý kryplí výkon, u Intelu netuším Ale že všichni ten výkon zlepšíjí laděním ovladačů v čase je známá věc a krásně svědčí třeba testy po 2-3 letech od vydání, kde uzrálé AMD karty a zpomalené NV karty pořád drží v širokém herním průměru stejné pozice a relativní výkon +- 1%.
Odpovědět1 4
Ne prej, zraje. Běžně za rok útočí na vyšší model konkurence než pro uvedení. Ale to zjistíš jen tak, že průběžně sleduješ IT, ne jen po vydáni, často s dost divokými testy ?
Jinak AMD prostě vydala svou "4080", jen o 5-10k levněji. Není co řešit, nákup je jasný.
Odpovědět3 1
Prosím pěkně ukaž mi nějaký takový výsledek, najdi mi ty 2-3 roky staré srovnání třeba na HW Unboxed, kteří se tomu věnují a to co vídávám, tak v průměru se vzájemný poměr sil změnil třeba o 1-2%
Ukaž mí prosím takové porovnání u něčeho co se dá považovat za nekompromisní FHD, nenáročnou QHD grafiku, tzn bavíme se řekněme o RTX2070S vs RX5700XT
https://www.bing.com/videos/search?q=rtx2070S+vs+5700XT+hw+unboxed s rokem 2019 je výkonový rozdíl karet stejný, najdi si pak launch test a uvidíš že ty rozdíly jsou v podstatě stejné po dobu X let.
Navíc v mnou nalinkovaném videu koukni na DLSS perfromance, 5700XT deklasuje i 2060S a 2070S ji má zcela na háku, v W:YB je výkon s DLSS de facto dvojnásobný.
A přesně, jak píšeš, není co řešit, 20% navíc za 30-60% RT výkonu navíc (rasterizace má až zbytečně moc) + podpora DLSS, k tomu poloviční spotřeba na úrovni možnosti pasivního chlazení je jasná výhra NVIDIA.
Nejsem tak bohatej abych si kupoval levné věci, tak to bylo v té reklamě, že... Ale samozřejmě si kup co ti vyhovuje víc, jsou to tvé peníze.
Rozdíl pár tisícovek na grafice na X let, kterou si můžu v pohodě koupit z výplaty fakt nebudu řešit. Kdybych to měl kupovat každý měsíc, už bych to řešil
Odpovědět1 4
"Rozdíl pár tisícovek na grafice na X let, kterou si můžu v pohodě koupit z výplaty fakt nebudu řešit. Kdybych to měl kupovat každý měsíc, už bych to řešil"
a proto máte 3060ti jak píšete v komentářích výše ? Navíc 4080 je pomalu třikrát dražší a sakra overkill na 60fps Vsync...docela nesmyslný případný nákup takovéto karty. Ale očividně uživatelé jsou schopni asi všeho.
Pokud má člověk peníze na 4080 nebo tedy XTX 7900. tak by měl mít peníze i na pořádný monitor, alespoň qhd 120hz, a to spíš 4k aby takovou kartu využil, pak tedy nechápu nějaké "trápení a brblání" nad 50W.... :D :D
Odpovědět1 0
To, ze AMD tu kartu netestovalo lebo chcelo utajit informacie okolo nej, je uplny nezmysel. Samozrejme, ze ju testovali a ladili k nej ovladace uplne rovnako ako konkurencia. To, ze nestihli vsetko doriesit je uz druha vec. A ze NV iba zmenila vyrobny proces a navysila SP a nebolo teda tolko ladenia, kde na tieto hovadiny chodis? To fakt niekde citas alebo si tieto informacie vymyslas za pochodu?
Odpovědět1 1
To posledné platí.
Odpovědět0 1