Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
3.5.2024, Milan Šurkala, aktualita
Nová generace grafických karet AMD Radeon RX 8000 s architekturou RDNA 4 má podle posledních informací přinést přepracovaný engine pro ray-tracing. To by mělo výrazně zvýšit dosahovaný výkon.
x3m (160) | 9.5.202412:45
AMD drzim palce, ale obavam sa ze to skonci tak, ze ich nova generacia akurat tak dobehne tu sucasnu a ked pride NV 5xxx, tak im to zase natrie.
Odpovědět0  0
honza1616 (3726) | 5.5.202412:34
Přepracované jednotky RT......

Takže i AMD už jde cestou úzce zaměřených výpočetních jednotek? 🤣
Že by opět po vzoru Nvidie?🤣
Odpovědět0  3
Bison (891) | 4.5.202413:43
AMD upravila RT aby mohli používať v podstate totožnú technológiu ako Nvidia DLSS, trvalo im dlho kým pochopili , že cesta inam nevedie len dobehnúť konkurenciu. Vlastné nápady z dielne AMD sú detské triky pre konzoly. Výkon novej RX8000 generácie bude však na trhu GK trapas a karty budú na trhu len do počtu a nie ako konkurencia.
Odpovědět0  11
Tech-boy.lukas (1577) | 5.5.202413:08
Co máte neustále proti tomu amd, zato rt od nvidie je bomba, můžu si jej užít na celých 50* hrách
Odpovědět3  0
tik-tak (113) | 4.5.202410:42
Grafiky od AMD zaostávajú len v RT .
Poskytujú dostatok pamatí , slušný výkon jadra , a nie sú až tak žravé ako konkurencia.
A to hlavné ­- žiadne experimenty s napájacími konektormi ......
Nechápem Nvidiu prečo sa neustále drží problematických redukcií , prečo sa drží 12 GB pamatí.
Topové karty od nich sú neprekonateľvé ale .......Pozeral som viac stránok s testami AMD vs Nvidia . A naozaj len ten vrchol od zelených je naozaj top.
A hlavne v mainstreeme asi vedie AMD , ceny majú priaznivejšie a málo kto si kúpi grafiku za 1000€++.
Len tí čo naozaj na to majú a ten ­"talíř­" im chýbať nebude......
Ale každému to na čo má , a čo mu chutí.......
Odpovědět6  0
MilionAJedenAcc (40) | 4.5.202411:09
Proč? Protože ovce tomu nerozumí a s další generací her budou brečet, že jejich hry běží hůř než mohly a budou muset kupovat další generaci grafiky, aby ty hry běžely lépe... A s další generací znova. Koupit si AMD, tak vydrží ta karta díky větší paměti déle, když je někdo ovce, holt si musí zaplatit třikrát tolik 🤷 jen kvůli zbytečné nálepce ­"nViDiA gEFoRcE"
Odpovědět0  8
komplikator (826) | 4.5.202412:02
Kdo bude brečet?

NV grafiky mají stejně paměti jako AMD grafiky, nebo když si koupím 16GB grafiku od AMD a 16GB grafiku od NV, tak mají NV grafiky paměti méně? To snad ne.

Teď jsem procházel grafiky, pro případný upgrade fousaté 3060Ti a jediné co mi z toho vylezlo je RTX4070 nebo 4070 Super. Za cenu 4070 můžu mit srovnatelně výkonnou 7800XT v rasterizaci ­(těch pár procent navíc není nezmění herní zážitek­), daleko výkonnější v heavy RT se superior upscalingem a funkčním framegen. To samé je 7900GRE vs 4070 Super, za stejnou cenu srovnatelný výkon v rasterizaci, daleko horší v RT, bez podpory DLSS a samozřejmě dalších featur jako Tensor, Reflex, Broadcast, superior media engine...

Hlavně to celé NV zvládá za výrazně nižší spotřebu. Ano GRE má 16GB paměti a 4070S jen 12GB, ale dřív než ty grafiky narazí na limit VRAM narazí na limit výkonu a na ten naráží už teď.

https:­/­/www.youtube.com­/watch?v=TLEIDfO6h2E&t=422s můžu mít krásných 24FPS AVG a 11 1%low v QHD, nebo můžu mít 44 FPS a 34 1%low s použitím upscalingu ­- FSR na Radeonu, DLSS na NV, s framegenem si ale můžu užít 73 FPS avg, ano Radeon může přes drive ve hře také framegen zapnout, ale jak to asi dopadne s latencí když je základ 24 a když je základ 44 a jak to ve finále dopadne. navíc při o 40% vyšší spotřebě Radeonu.

Někdo třeba vychvaluje RTX3060 s 12GB paměti a nadává na 3060Ti s 8GB, ale 3060Ti má o cca třetinu vyšší výkon. Ano přišly jednotky her, kde se ta 3060Ti propadne na nebo i pod výkon 3060 protože má nedostatek paměti, ale je to s 3060 výhra když hra běží 28 FPS a 3060Ti 25FPS? Nebudeš tak hrát ani na jedné z nich, takže v takové hře stejně ubereš detaily­/zapneš upscaling, čímž snížíš nároky na paměť a v tu chvíli se zase ta 3060Ti dostane na vyšší výkon a celkově bude zážitek na té 3060Ti lepší

Klidně si kupuj více paměti s tím že možná v budoucnu budeš mít lepší výkon, normální člověk si koupí něco kde má výkon už dnes a až přestane stačit tak si koupí novou.
Odpovědět2  12
MilionAJedenAcc (40) | 4.5.202412:23
WoooooW. Kdo by to byl čekal, že grafika od AMD nebude podporovat proprietární odpad od nVidie 🤣 a sračky jako dlSS a Frame gen nikoho nezajímá 🤷

A rozhodně bys měl přestat vybírat čísla podle toho, jak se ti hodí. RTX 4070 nemá 16 GB, zatímco RX 7800xt ano.
Mimochodem. Ukaž mi kartu, co adekvátně konkuruje pamětí RX 7900 XTčku, která má 20 GB. Aha, žádná. Buď máme odpad jménem RTX 4080­(Shit­) s jen 16 GB nebo rovnou RTX 4090, která má až 24. Kde je mezistupeň? Aha, nikde. Proč? Aby si ovce kupující si 4080­(Shit­) mohly s další generací koupit další odpadní grafiku 5080 s ­(kdo by to byl čekal­) OPĚT 16 GB 🤣 a s další generací to bude určitě stejný. Naproti tomu AMD ti nabízí adekvátní nárůst paměti, tudíž ti stačí koupit RX 7900 XT a pak můžeš počkat na přespříští generaci, která bude mít třeba až 32 GB, kdy přejdeš na 8K rozlišení.

Mimochodem. RT žádný terno není. Ani v tom posraným Cyberpunku nemá 85% času žádný extra viditelný rozdíl proti rasterizaci 🤣
Odpovědět6  3
komplikator (826) | 4.5.202416:19
S AMD si musíš vystačit s FSR nebo XeSS, které je typicky lepší než FSR. S NVIDIA si můžeš vybrat i DLSS, případně máš hry, které FSR ani XeSS nepodporují a pak na AMD a Intel grafice holt nemáš nic. Raději za stejnou cenu budu mít něco navíc než méně, tedy kromě spotřeby, tam jednoznačně volím za stejnou cenu méně než více. A téhle definici bophužel vyhovuje NVIDIA, takže v AMD grafice vidím jen negativa.

Samozřejmě ty si kupuj co uznáš za vhodné, když ti vyhovuje AMD, tak dobře pro tebe, stejně jako dobře pro mě že mi vyhovuje NV.

RX 7900XT je nejhorší karta 7000 řady, v podstatě se neprodává a to i přes price drop, protože kdo si kupuje grafiku v tomhle cenovém segmentu, už chce obvykle to nejlepší a když najdu zbytných 1000 dolarů, tak 200 na XTX s lepším poměrem cena­/výkon v kapse najdu taky. I když pak už najdu i těch dalších 400 dolarů na 4090. 400 dolarů víc normálně vydělávajícího člověka, který může vyhodit 12 set dolarů za zbytnou věc. už nevytrhne.

A proč by si někdo koupil 4080 a pak si kupoval 5080 o které navíc zatím nic nevíme? Až bude známo co bude 5080 zač, pak můžeme zvážit možnost upgrade, ale pokud člověku bude stačit 4080, tak proč by upgradoval, taky jedu na stejném grafickém výkonu už 5 let, na CPU výkonu jsem byl 6 let. CPU jsem sice před pár týdny vyměnil, ale reálně jsem to potřeboval pro možná 1% případů pro které bych mohl mít workaround a nebyl by potřeba, ale čas od času si člověk musí udělat radost.

A řešit 20GB, když ve střední třídě dnes v pohodě stačí 12GB. Až ve střední třídě bude 12GB problém tak jak dnes 8GB, tak zase ty karty nebudou mít výkon a paměť je nikam neposune. Viz ten příklad s 3060 a 3060Ti a aplikovatelné je to vlastně i na současné 4060Ti 8 vs 16GB, reálně 16GB má smysl jen pro pracovní účely.

Navíc střední třída grafik je dnes srovnatelná se střední třídou mobilu, takže normální spotřebák, ani kvalitní židle k počítači nebude levnější než ta grafika.
Odpovědět1  11
kutil05 (1045) | 6.5.202418:03
Krása jak jsi z 1000 USD udělal 1200 a nakonec 1600 USD s tím, že to přece není rozdíl. Demagog jako prase.
Odpovědět1  0
Tech-boy.lukas (1577) | 4.5.202412:58
"Teď jsem procházel grafiky, pro případný upgrade fousaté 3060Ti­" pokud je tadle dle vás fousatá, jak by jste označil mou 2070 super?
"s framegenem si ale můžu užít 73 FPS avg­"
smím vědět co máte za monitor? Já si říkal že další mé gpu bude amd, bo s tím jak se nvidia urvala se spotřebou by to můj seasonic nezvládnul, a pak se mi nelíbí vypálený konektor na gpu 😜
Odpovědět1  0
komplikator (826) | 4.5.202415:52
2070 Super jsem měl a kdybych na začátku 21 v době peeku cen GPU neprodal výhodně celý počítač, tak bych ji měl dodnes. On je tam rozdíl kolem 15%, takže žádný game changer ta 3060Ti není, jen je o trošku úspornější. 15% rozdílu stěží pocítím, buď to má výkonu víc než dost, nebo je ho nedostatečně tak jak tak.

Monitor 34­" Philips 346B1C UWQHD, USB­-C připojení, LAN, Hub, KVM Switch... Normální low end monitor. Zvažuji to časem nahradit za 40­" 5k­/2k Ultrawide, kdybych musel ukázat tak asi na 39,7­" LG UltraWide 40WP95CP, ale jeto jen IPSka s nízkým jasem, takže žádné viditelné HDR a má jen USB­-C připojení, další monitor už budu chtít MiniLed nebo OLED a s Thunderbolt připojením abych z něj mohl připojit druhý monitor daisy chainem. Ale třeba to dopadne jinak, chtěl bych na tom ultrawide ideálně 220PPI, to by znamenalo 7k­/3k rozlišení na 34­" ale takové se zatím nedělají, možná to zaparkuju na 32­" 6k nebo 27­" 5k. S 200% škálováním to má dokonalé vykreslení textu se kterým hodně pracuji a běžných 109PPI je prostě vidět, když si člověk zvykne na vyšší.


"jak se nvidia urvala se spotřebou­"
Jako že v rastru 7900GRE žere 280­-290W a srovnatelné 4070 Super má 200­-220W, tedy tak jak ta 2070S ­(215­)?

Pokud teď zdroj zvládá 215W 2070S tak zvládne 220W 4070S s dvojnásobným výkonem. A určitě zvládne i stejně výkonné AMD s 290W.

Právě spotřeba AMD grafik je pro mě ještě větší zabiják než absence DLSS a FG. O 4070 uvažuji delší dobu ne kvůli výkonu, ale právě kvůli spotřebě, jestliže mi dnes v některých hrách může běžet 3060Ti část herní doby pasivně nebo se spotřebou pod 150W, tak 4070­/4070S budou ještě níž a pasivně poběží delší dobu­/ve více titulech.

Aby to bylo jasnější hraju s monitorem na 60Hz a V­-Sync, v leteckých simulátorech pak V­-Sync half refresh rate. A zrovna třeba v tom MSFS bych mohl mít zapnutý framegen, z 30 se dostanu na 60 aniž by to mělo nějaký viditelný dopad na spotřebu. Zlepší se smoothness a grafika se bude krásně tiše flákat.
Odpovědět0  1
Bespi (174) | 5.5.20241:42
Staci porovnat s odstupem let jak si vedou grafiky AMD a nVidie, ktere si v dobe vydani konkurovaly. Pro nVidii dost smutne. Ale kdyz to lidi kupuji, je to jejich vec.
Odpovědět2  2
Neverminde (372) | 6.5.202414:40
Zajimave a ja jsme porad na 1080ti :D Proc asi nekupuju novou grafickou kartu :D
Odpovědět0  0
Milan Šurkala (5126) | 4.5.202418:56
"a nie sú až tak žravé ako konkurencia. ­"

A není náhodou vysoká spotřeba naopak nevýhodou AMD? Co se dívám na poměry spotřeby a výkonu, tak v tomto má náskok spíše Nvidia než AMD.
Odpovědět3  2
vaclav2211 (412) | 5.5.202411:34
AMD funs idu fizyka nefizyka. Uz mi to pripomina Helter Skelter :P
Odpovědět0  1
tik-tak (113) | 8.5.202410:38
Možno som neznalý , ale sme systém napájania GK preberali s elekto­-špecialistami , nadšencami do PC a prevracali sme problém konektorov 12 pin od Nvidie.
Mám modulárny zdroj a teda si popripájam na zdroj čo potrebujem , a v ­"skrini­" mám len to nutné.
Napájanie GK od Nvidie je za pomoci 12 pin redukcie , aký to má význam , keď na túto redukciu sa pripájajú štandardné 8 pin konektory napájania zo zdroja ?
Podľa elektrikárov je viac pinové napájanie výhodné pre rozdelenie záťaže na jeden pin.
Dobre ale potom je lepšie to spraviť ako napájaciu vetvu priamo od zdroja , nie len redukcia na vstupe do GK....
Teda na jeden 12 pin konektor sa pripája 2x8 pin zo zdroja ? u mňa je 12 menej ako 16 ......
Tak že za mňa , zase niečo čo ťahá peniaze od zákazníkov celkom zbytočne. Pokiaľ ovšem nie je tento systém podporovaný aj výrobcami zdrojov , ale aj tak za mňa úplne zbytočné.
Ale asi inžinieri od zelených určite vedia čo robia a ja , ja som len bežný užívateľ čo uvažuje o nákupe novej GK a zvažujem pre a proti......na ďalšiu GK ak sa niečo pos... hneď tak mať nebudem .
Odpovědět0  0
kutil05 (1045) | 8.5.202415:28
12 klidně může být víc než 16 pokud budou kontakty robustnější, protože jde o styčnou plochu a přechodový odpor. Ale ten konektor je málo odolný.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.