Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
25.9.2022, Milan Šurkala, aktualita
I když se od grafických karet GeForce RTX 4000 sice čekal extrémní výkon, ale při hodně vysoké spotřebě, ta není tak špatná. Efektivita narostla tak výrazně, že ve srovnání s RTX 3000 jde docela o spořílky, což ukazují výsledky DLSS 3 v Cyberpunku 2077.
Bertram (31) | 29.9.20227:35
Problém je v tom, že ten ­"extrémní­" výkon je jen po zapnutí dlss. Bez něj ten skok už zase není extrémní. Nějakých 69%. Jo je fajn, ale rozhodně ne 2­-4x výkon v ray tracingu jak nvidia prohlašovala.
Odpovědět1  0
snajprik (1687) | 5.10.202216:04
Aj moj setabox za 20€ dokaže Dlss :D v pohode nakrmi 4K TV bez sekania :D dnes aj tak je každy druhy človek slepi a unscaping si nevšimne :D
Odpovědět0  0
mareknr (270) | 5.10.202217:51
Ani ked to povies milionkrat, nebude to pravda. Pocitacova hra nie je to iste ako film. Ked stale nevies aky je medzi tym rozdiel a aky je rozdiel medzi setopoboxom a grafickou kartou, tak je to usmevne po tolkych rokoch. Ale je to tvoj boj. :­-)
Odpovědět0  0
wrah666 (6205) | 5.10.202218:17
Při hraní je ten lag citelně optravný i při single playeru. A v multiplayeru je člověk opravdu velmi slušně znevýhodněn. Tuplem, pokud má ještě navíc ne zrovna zázračný net a sečte se to s horším pingem.
Odpovědět0  0
honza1616 (3729) | 26.9.202223:46
To říkám pořád od prvnich neoficiálních leaku, že se jim tato generace povedla
On i výkon bez DLSS 3.0 je pěkný skok na těch 60 fps
Předchozí generace to musí dohánět s DLSS 2.0 na podobné hodnoty FPS

Ta efektivita 0,489 fps­/W, pokud byl tedy test v nastavení pro kvalitu, to je opravdu úctyhodný výkon
Zajímalo by mě kolik fps by bylo kdyby se DLSS 3.0 nastavilo na ­"výkon­" to by FPS bylo 300­-400...❓
a efektivita stoupla na nějakých 0,9 fps­/W?
To se pak není čemu divit když nVidia se chlubí až 4­-nasobnym výkonem, i to je tedy zcela reálné

Tohle bude pro AMD hodně velký oříšek, spíš si myslím že titul nejrychlejší grafiky pro rok 2022 zůstane pořád u Nvidie
Odpovědět1  4
Leon1464 (10) | 26.9.202215:13
Technicky vzato nVidia znovuobjevila kolo. Technologii interpolace pohybu umí většina televizí již několik let. nVidia má proti nim výhodu. Herní engine dodá DLSS potřebné motion vektory a AI algoritmus vyčistí případně artefakty. Výsledek je tak mnohem čistší než to co jsou schopny poskytnout high end modely TV. Je tu jen jeden problém a to je latence. To je ten důvod proč se to lidem zdá divné. Technologie je to zajímavá, je otázkou zda se masivně rozšíří. Vzhledem k cenám a dostupnosti nových karet si nedělám příliš velké iluze. Tedy přinejmenším pokud nepůjde aktivovat na starších kartách.
Odpovědět3  0
Maw2100 (104) | 26.9.202215:27
NVidia tvrdí, že právě díky mezisnímku nemusí GPU čekat na CPU a sníží se propady. Samozřejmě praxe ukáže.
Odpovědět0  0
mareknr (270) | 26.9.202215:41
Praveze by som to nezrovnaval s TV. Obsah videa je jasny od zaciatku do konca. TV maju k dispozicii vsetky obrazove informacie pre interpolaciu. U hier sa prostredie dynamicky meni, na co musi v realnom case vediet GPU zareagovat pri dopocitavani snimkov. Pride mi to ovela komplexnejsie.
Odpovědět3  0
Leon1464 (10) | 26.9.202216:25
To není úplně pravda, když hrajete na konzoli připojené k televizi tak se obsah taky dynamicky mění a neznáte obsah od začátku do konce :­)
Odpovědět0  0
mareknr (270) | 26.9.202216:36
Mate pravdu. Ja som si pri dopocitavani snimkov v TV automaticky spojil prehravanie videa a nie hranie hier. :­-)
Odpovědět1  0
smartspam (67) | 26.9.202216:37
tyhle fičurky ale TV vypne automaticky, když zjistí že je tam konzole nebo grafika od kompu. Říká se tomu herní režím nebo taky optimalizace PC. V životě by mě nenapadlo tam v TV zapínat tyhle blbiny na dopočítávání obrazu, to si řeší konzole nebo komp. Hlavně lepší TV mají freesync, takže pokud máte dobrou konzoli nebo GPU, jede to jak víno.
Odpovědět2  0
Leon1464 (10) | 26.9.202216:46
Ona je ta televize vypíná právě kvůli zvýšené latenci. Ale záleží, já mám třeba tyhle věci na televizi zapnuté, tedy v rozumné míře, protože vyšší input lag mi vadí mnohem méně než nízký framerate. Pokud máte kvalitní televizi tak to není vůbec špatné.
Odpovědět0  0
Leon1464 (10) | 26.9.202216:42
Naopak televize jsou na tom o něco hůř. Mají dva snímky, mezi ně mají vytvořit potřebné mezisnímky aby dosáhly plynulosti pohybu, ale analýzu a výpočet pohybových vektorů si musejí dělat samy. S větším či menším úspěchem, dle hardware, algoritmu, implementace atd.
GPU má výhodu v tom že pohybové vektory dostane přímo od enginu díky integraci. Problém je v tom že odezva bude přinejlepším stejná jako u nativního framerate a přinejhorším se navýší o vytvoření mezisnímků a jejich úpravu AI algoritmem. Sám jsem zvědavý na reálné testy. Osobně mě třeba více vadí nízký framerate než input lag.
Odpovědět0  0
mareknr (270) | 26.9.202217:14
DLSS3 ma mat implementovany v sebe rovno aj NVIDIA Reflex, ktory by mal v urcitej miere korigovat latenciu z dopocitavanych snimkov. Uvudime ako to bude pocitovo v praxy.
Odpovědět0  1
shaolin_81 (278) | 29.9.202212:13
Vsetky moderne kodeky maju pohybove vektory v sebe, TV si ich berie z tade.
Odpovědět0  0
Leon1464 (10) | 29.9.202215:40
Ve streamu nejsou přímo pohybové vektory, ale jejich komprimovaná podoba. Při dekódování videa se pak samozřejmě pohybové vektory počítají a díky nim pak dojde k rekonstrukci kódovaného snímku, jen si nejsem jistý jestli tyto vektory přímo využije algoritmus v TV. Na PC existuje program SVP, který dělá interpolaci pohybu stejně jako televize. Tento program je poměrně náročný na výkon procesoru, protože využívá procesor právě k počítání pohybových vektorů a generování mezisnímků. Pokud by to bylo jak píšete, pak by žádná analýza nemusela být potřeba. Proč dělat složitě algoritmus k výpočtu vektorů, když už je máte k dispozici? Máte nějaký zdroj? Rád bych se o tom dozvěděl více.
Odpovědět0  0
Maw2100 (104) | 26.9.202210:29
DLSS 3 posouvá možnosti grafiky o pořádný kus dál. Tahle technologie se bude vyvíjet a zdokonalovat a hlavně bude zásadní pro efektivitu. Je to geniální počin Nvidie. Více zapojit AI. Tohle AMD nedorovná! Baví mě inovativní myšlení téhle firmy.
Jo a připravuje se nový Cyberpunk s úplně novou úrovní RT přímo pro RTX4000 karty.
Odpovědět0  11
smartspam (67) | 26.9.202210:39
je vidět že marketingová masáž funguje:­-D. Výkon v rasterizaci se posunul o 50­-70 % cca co se ví, zbytek je výmysl DLSS 3. Výkon k dobru připadá spíš na vylepšený 5nm proces TSMC. Uvidíme co testy, každopádně zatím nic moc. Uvidím co AMD a pak se rozhodnu jestli to bude stát za upgrade z 6900xt.
Odpovědět4  1
Maw2100 (104) | 26.9.202210:59
Marketing?! Co vedlo AMD k začlenění RT jader do architektury NAVI21? Co vedlo AMD neplánovaně k vytvoření FSR? nVidia určuje směr ať se vám to líbí nebo ne. Vše nemůžou počítat obyčejně shadery.
Odpovědět2  6
FabledWarrior (223) | 26.9.202211:44
Komentáře takových lidí, jako jste vy. Protože když někdo začne hanit dobrý produkt jen proto, že tam nejsou RT jádra, tak nemá cenu se stavět na hlavu a prostě je tam dám taky. Nicméně tam jsou, fungujou, ale AMD je to asi fuk... nikde to nepropaguje a nedělá z toho nějakou absolutní bombu jako vy a nVidia.

DLSS jako takové bylo původně dobrý nápad, na což reagovalo i AMD. Nicméně provedení nVidie je samozřejmě pitomé a omezené, AMD to prostě udělala lépe. Vlastně jako vždycky že? G­-Sync vs FreeSync a pod... To co předvádí nVidia s DLSS teď je ale ubohé a celou tu technologii jen kazí.

Rozdíl mezi AMD a nVidia dnes je ten, že AMD se stále snaží ty snímky doopravdy vykreslit co nejrychleji, kdežto nVidia už je bude jen odhadovat či jinak ochcávat, ale hlavně že budeme trvat na přesném nasvícení scény, odrazech a stínech pomocí RT. Docela paradox a hlavně to není žádné udávání směru... mohlo být, ale tohle fakt ne.
Odpovědět5  2
mareknr (270) | 26.9.202212:41
Nikto vas nenuti DLSS pouzivat. Neviem preco z toho robis nieco zle. Uplne ako Honza Stach. AMD neurobilo FSR lepe. Kvalitativne je to proste horsie riesenie. To, ze je to otvorene a ide aj na kartach konkurencie, tak to neznamena, ze je to lepsie. Ci pri AMD sa na kvalitu nepozera? To iste Freesync. S GSync mas jasne danu funkcionalitu, ktoru mas k dispozicii. Ako adaptivnu synchronizaciu od 30Hz do hornej hranice monitora. U Freesync si musis dobre davat pozor kde ti bude adaptivna synchronizacia fungovat a kolko mas takych monitorov s FS, ktore funguju tak ako GSync? Ten modul tam nie je zi srandy alebo na oklamanie zakaznikov ako si fanusikovia AMD domyslaju. A tak je to s vela ficurami od AMD.

"Rozdíl mezi AMD a nVidia dnes je ten, že AMD se stále snaží ty snímky doopravdy vykreslit co nejrychleji, kdežto nVidia už je bude jen odhadovat či jinak ochcávat­"

Nvidia snad tie snimky bude vymyslat. Este raz. DLSS je moznost. Nie povinnost. Tvarite sa tersz ako keby NV grafiky uz ani nepocitali obraz tak ako doteraz. To, ze NV sa snazi zlepsit framerate aj inym sposobom je jej pridana hodnota. Ziadna ochcavka. Ked este vidim aky clanok Stach, tak ta vojna AMD fanbojs sa pekne rozbieha.
Odpovědět1  4
wrah666 (6205) | 26.9.202212:54
On i ten freesync je možnost a ne povinnost. A vida, zajímavé je, že se pak ukázalo, že ani NV vlastně superdrahý čip nepotřebuje. A dneska jede na stejném monitoru. Jo, jen mi to zaječelo, že to není v oficiálním seznamu podporovaných, a tím veškeré problémy skončily.
Odpovědět3  0
mareknr (270) | 26.9.202213:20
Skor sa ukazalo, ze ho realne NV potrebovala. Tym, ze drviva vacsina monitorov s Freesync stale nedosahuje moznosti GSync. Ide hlavne o lacnejsie alternativy, ktore v prvej generacii boli dokonca otrasne. S obmedzeniami ako fungovanie adaptivnej synchronizacie od 60 do 90 Hz na 120 Hz monitore. Este aj teraz ked uz sa to ustalilo a je v tom vacsi poriadok, si rad za to, ze zacinas na minime 40Hz. Ale normalne je to skor 48Hz. Kolko monitorov s Freesync podporuje adaptivnu synchronizaciu od 30Hz? Dobre je hlavne to, ze NV bola donutena podporovat aj Freesync, takze je viac moznosti na vyber. S GSync akurat nemusis riesit spominane kompromisy.
Odpovědět0  1
FabledWarrior (223) | 26.9.202213:50
Prosímtě kdo tady bude řešit synchronizaci při 40 snímcích? To jako někoho zajímá nebo tak někdo hraje? Já bych řekl, že asi těžko a jestli ano, tak mu je i ta synchronizace i řiti. Navíc pravděpodobně to tak bylo někdy v počátcích a dávno to už není ani pravda.

nVidia cpe do těch monitoru svůj předražený speciální procesor, který tam je prostě úplně zbytečně a každý moderní FreeSync monitor umí úplně to samé, co G­-Sync a navíc je levnější, protože do toho nikdo necpe nesmyslný HW, který je zvyšuje cenu a zisky nVidii.
Odpovědět3  1
mareknr (270) | 26.9.202214:10
GSync umoznuje adaptivnu synchronizaciu od 30Hz a vyssie. Kolko Freesync monitorov umoznuje to iste ked uz podla teba kazdy freesync monitor je ako GSync? Drviva vacsina z nich nevie. A to su este aj monitory co nepodporuju FS do ich hornej frekvencnej hranice. Ved to sa neda potom zrovnavat a tvarit sa, ze je to to iste. A normalne ludia hraju aj pri 40 a menej FPS. Nie kazdy ma alebo je ochotny minat peniaze na PC HW. A tiez ti mozu klesat minima pod tuto hranicu. To, ze pod 48Hz to nikto nepotrebuje, je len obhajoba Freesync. Pricom ja tu Freesync nekritizuje. Sam mam 2 Freesync monitory, s ktorymi som spokojny. Ale nebudem sa tvarit, ze oproti GSync nemusim riesit ziadne kompromisy. Pri GSync mi stacilo drzat FPS nad 30. Teraz si musim davat pozor, aby to bolo 48 a viac a podla toho riesit nastavenia hier. U GSync som to takto robit nemusel resp. bola tam vacsia volnost.
Odpovědět0  1
Tomcat2 (653) | 3.10.20220:09
Při 30 FPS už to má takový lagy na myši, že se to nedá hrát. Těch 48FPS je fakt použitelný minimum...
Odpovědět0  0
mareknr (270) | 3.10.20229:33
Byval som zvyknuty hravat pri 35FPS a nejak extra mi to nevadilo. Samozrejme iba single player hry. Multaky som nehraval. Bola to cena za 4K a GSync vtedy vyrazne pomohol. Na to, aby som mal aj s GTX1080 v 4K vo viacerych hrach minimum na 48 a viac FPS, musel by som az prilis znizovat detaily. Nie kazdy ide po 60 a viac FPS. Preto pisem, ze GSync ma stale svoje vyhody a nie je zbytocny, ako to tu niektori stale tlacia. A to som tiez spokojny s dvomi Freesync monitormi co pouzivam. Akurat, ze teraz som siel do vysokofrekvencnych 2K, kde som s novym notebookom v pohode nad 48 FPS aj s RT, kde ale je potrebne niekedy zapnut DLSS.
Odpovědět0  0
Bertram (31) | 29.9.20228:34
Nejsem AMD, intel nebo nvidia fanboy.
To co nám naservírovala nvidia znělo až neuvěřitelně. 2­-4 násobný výkon oproti řadě rtx 3000. Kromě dlss 3.0 i možnost, jak oživit staré hry a vdechnout jim nový život např. v ukázaném Morrowin. Z toho jsem si sedl na zadek.
Jenže se pomalu ukazuje, že ten nárůst nebude až tak vysoký, aby obhájil ten brutální cenový skok u rtx 4080 a 4070 alias 4080 12gb.
Osobně čekám co naservíruje AMD s rx 7000 a jaké budou reálné výsledky a doufám, že cenový nárůst nebude kopírovat nvidii.
Z ryzenů 7000 jsem si nesedl na zadek. Pro mě plus by bylo igpu, ale upgradovat z AM4 na AM5+ddr5 nehodlám. To už můžu jít zrovna do Raptora.
Odpovědět0  0
wrah666 (6205) | 29.9.20228:50
REálný mezigenerační rozdíl cca +50% výkonu je docela dost. A upgrade AMD 7xxx z 5xxx moc smysl nemá, ­(ale to obvykle ani u konkurence­) ale strašná spousta lidí má trojkové nebo dvojkové řady. A tam už to smysl zatraceně má.
Odpovědět1  0
Bertram (31) | 29.9.202210:12
Ano 50% je dost v případě, že cena bude stejná popř. vyšší o 15­-25%. Jenže $899 za ořezanou 4080 12g alias 4070 vs $499 3070 a $1199 za 4080 16gb vs $649 3080 je fakt brutál.
Dát u nás 38 tisíc+ za 4080 16gb nebo 47 tisíc + za 4090 je návrat do mining horečky, kdy gpu stála nelidské ceny.
Tolik peněz dá někdo, koho ten hardware živí nebo má peněz, že neví co s nima.
Odpovědět0  0
Tomcat2 (653) | 3.10.20220:12
Já mám Freesync Premium Pro 4K 144Hz monitor na RX 6750TX a běhá to jako víno...
Odpovědět0  0
mareknr (270) | 3.10.20229:36
Ked si s detailami v podporovanom frekvencnom rozsahu, tak samozrejme Freesync funguje ako ma. To je jasne. S tou kartou, ale asi ides s detailami v 4K uz dost dolu, nie?
Odpovědět0  0
Tomcat2 (653) | 3.10.202211:29
To nejdu, když to nejede ve 4K, tak dám nižší rozlišení, 3800x3200 nebo 3072x1728, to vypadá prakticky stejně dobře, jako 4K...dokonce i 1440p je úplně v pohodě, trochu míň detailní, ale zkoumal jsem to a při běžným hraní je to čistý...
Odpovědět0  0
mareknr (270) | 3.10.202212:55
Je to zrejme o tom, ako to vnimame. Ja som nechcel hrat v inom ako nativnom rozliseni a ani v nizsich detailoch. Teraz mam 1440p monitory so 144Hz a 165Hz a s Freesync Premium. Framerate okolo 90FPS a vsetko funguje teraz v pohode.
Odpovědět0  0
Tomcat2 (653) | 3.10.202216:18
Já jsem se toho taky bál, ale ukázalo se, že 28­" 4K display už je tak jemnej, že když se na tom zobrazí 1440p, tak to je úplně v pohodě. Od 4K nativu trochu míň detailní, ale fakt malej rozdíl, naprosto použitelný...
Odpovědět0  0
mareknr (270) | 26.9.202213:02
A este k tomuto:

"Protože když někdo začne hanit dobrý produkt jen proto, že tam nejsou RT jádra, tak nemá cenu se stavět na hlavu a prostě je tam dám taky. Nicméně tam jsou, fungujou, ale AMD je to asi fuk... nikde to nepropaguje a nedělá z toho nějakou absolutní bombu jako vy a nVidia.­"

Nvidia nie je jedina. To iste robi MS aj Sony v konzolach. Aj tak AMD s aktualnym riesenim zaostava za konkurenciou tak je jasne, ze propagovat to nebudu. Nie ze im to je fuk, ale nemaju co ukazat, kde by boli lepsi v RT ako je NV. BTW kazdy kto vie co RT je v pocitacovej grafije, tak vie, ze jeho zaclenenie do realtime grafiky je bomba. Nie, ze nie. :­-)
Odpovědět0  2
FabledWarrior (223) | 26.9.202213:47
Co robí MS a Sony? Když běží na HW AMD, tak přesně to, co robí AMD. To že používají adaptivní rozlišení ještě neznamená, že si vymýšlí snímky, které vypadají otřesně a ještě zvyšují odezvu. Pak tam běží snad už i FSR.

Začlenění možná vypadá efektně ­(to že se to dneska s odrazy přehání a vše vypadá jak vyleštěné psí kulky už řešit nebudu­) je sice jedna věc, druhá věc je ta, že i rasterizací se tento efekt dá napodobit ­(neřikám přesně, ale do značené míry ano­) s mnohem nižšími nároky na výkon a díky tomu pak nepotřebujeme na zbytek scény upscaling s vymýšlením každého druhého snímku, který pak vypadá jak vyblitý.
Odpovědět0  0
mareknr (270) | 26.9.202213:59
MS a Sony propaguju raytracing na konzolach docela slusne vzhladom na to, aky vykon tam pre to je a este k tomu ze je to podla teba u AMD fuk. A to, ze teraz bude NV v DLSS dopocitavat cele obrazky ­(opat ak si to pouzivatel zvoli a nie bez moznosti inej volby­) doteraz predsa nebolo. Bez DLSS3 ti bude aj NV GPU pocitat obrazky tak ako doteraz a teda aj tak ako AMD. Co sa tyka odozvy a aj kvality obrazkov, tak to sa bude postupne ladit a zlepsovat. Neviem preco sa hned chytat toho tak, ako keby to uz nikdy nemalo byt lepsie. Ved sa dalo picitat s urcitymi kompromismy. U AMD ti ocividne obmedzenia resp. kvalita nevadia. Napriklad u Freesync vs GSSync alebo FSR vs DLSS. Naopak ich vyzdvihujes a ani ta nenapadne v nich hladat chyby. Staci, ze je to free a hned je to lepsie.
Odpovědět0  2
Bertram (31) | 29.9.20229:20
Bavímeli se o ray tracingu, tak titulů s jeho podporou bylo před dvěma lety tolik, že by se daly spočítat ­"na jedné ruce­". Z těch nejzajímavějších mě napadá Cyberpunk 2077, Metro Exodus enhanced edition, Watch dogs Legion. Bylo evidentní, že AMD tam podporu RT dalo jen proto, aby remcalům zacpalo pusu.
Za ty dva roky se situace změnila a RT se objevuje i u her, ve kterých původně nebyl­(Minecraft, Doom Eternal, WoW apod.­) . To je důvod, proč AMD bere ray tracing víc vážně, než u série 6000.
Odpovědět0  0
Maw2100 (104) | 26.9.202215:14
Váš pohled je neskutečně mimo. Víc o emocích než konstruktivní úvaze. Nejvíce mě zaujal slovní obrat ­"ochcává­". Koho kdo ochcává? Jakože chytrá technologie, která zdvojnásobuje a v budoucnu i vícenásobně navýší FPS ve hrách ochcává AMD nebo dokonce vás? Až teď jste pochopil potenciál DLSS? AI má praktický nekonečné možnosti a Tensor jádra nenahradíte.
Odpovědět0  2
rizecek (277) | 26.9.20227:41
170FPS v Cyberpunku jo ? To bych chtěl vidět. Vždyť ani 3090 + 12900K nezvládnou tu hru stabilně na 144FPS.
V tom DLSS 3.0 bude opět nějaké ALE! Podobně jako z počátku prezentovali DLSS a ve finále kvalita obrazu za nic nestála.
Odpovědět3  0
Pyroraptor (2) | 4.10.202221:53
PS5 to normalne dava a to ma jen grafiku nekde kolem 2070 takze zadnej extrem :­)
Odpovědět0  0
Bison (897) | 25.9.202222:45
spotreba extrémna, to že tam nesvieti 1KW má na svedomí TSMC4N , optimalizácia architektúry ma na spotrebe 0% vplyv, Nvidia v podstate nič nespravila len sa bavili a plánovali dodávať farmám GK.
Odpovědět2  0
smartspam (67) | 25.9.202218:36
Z te latence se mi dela spatne, nova gpu a stejne to nerozjede slušně cyberpunk na max bez dlss blbustek:­-D
Odpovědět2  0
Choakinek (1673) | 25.9.202221:11
A Vy byste tam během hraní poznal rozdíl?

Pochopte, že to je docela rozdíl mezi tím zkoumat např. nějaké screenshoty a tím hru prostě normálně hrát.
Odpovědět1  3
wrah666 (6205) | 26.9.20225:51
Btw, jenže tohle je ­"jen­" 1440p. U 4k je ještě víc než dvojnásobný počet pixelů. A bum, už se dostáváte na hodnoty, které vážně nechcete. 35 fps není zool. Tuplem, když to patrně v náročné scéně dropne někam ke 20..
Odpovědět3  0
FabledWarrior (223) | 26.9.20227:24
První lidé, co si to mohli vyzkoušet to poznali... po internetu se šíří informace o tom, že hraní pod takovým DLSS 3 je divné a hra i divně reaguje. Je snímcích lze vidět, že vymyšlený snímek je příšerně rozblurovaný a ikdyž to není na první pohled vidět, člověku to prostě přijde divné při tom hraní. Další věc jsou ty odezvy... pokud se nepletu, tak nVidia tvrdila, že budou menší.. nicméně asi tomu tak nebude. ono z logiky věci, když zareagujete ve hře a DLSS zrovna vymýšlí snímek ve kterém vaše reakce nebyla zahrnuta, prostě to pocítíte. Ale hlavně že máte o 175% lepší výkon ne? :D
Odpovědět7  0
wrah666 (6205) | 26.9.20227:40
Ona se holt chybějící informace dá ­"odhadnout­" jen s jistou mírou přesnosti, ne přesně. A nějakou dobu to trvá. A výkon na to, aby se to spočítalo poctivě prostě nestačí.
Odpovědět3  0
smartspam (67) | 26.9.20228:25
U DLSS 2 v pohybu na nejvyšší kvalitu ten rozdíl tak patrný není. U té DLSS 3 to ale bude k zblití si myslím. Jak říkám, i kdyby ten obraz vypadal jakž takž, tak to čarování nových snímků půjde poznat. Nejhorší u rychlý her bude ale ta latence. Stačilo mi jen když ukázali to rozmazané video CP na prezentaci a šel jsem blejt velebnosti. Dopočítávání snímků u filmu je něco jiného než u her. U filmu je ti jedno, jaké je tam zpozdění, jelikož ho nevnímáš, u her je to o hráči co příští pikosekundu udělá a tam vidím dost velkej problém. Navíc ten flusanec do ksichtu pro všechny, co kupovali RTX 3000, no škoda mluvit, ale ono asi stejně není s tím DLSS 3 o co stát.
Odpovědět3  0
wrah666 (6205) | 26.9.20229:20
U multiplayeru se to navíc sečte s odezvou serveru a budeš v solidní nevýhodě. Zbytečných kolik desítek ms navíc.
Odpovědět4  0
Pyroraptor (2) | 4.10.202222:04
Poznat to kazdy nemusi, tady jde o ten tzv podvod. Ja bych to zkusil popsat. Mame tu treba konzole Playstation 5 a pisou tam Play has no limit. U toho to zdobi nalepka 8K. Hry ze lidi budou v poho hrat ve 4K a 120fps! Ptam se, hrajou to realne? Neni to klamani? Realne to nejde. Hra jde casto tak leda 4K a 30fps a to jeste sotva, casto lze v menu najit polozku neco jako Dynamicke rozliseni :D To je tam proto zrejme, abych nemohl Sony zalovat za podvod. Takze mi tam neda treba ze to jede v 1440p. Proste to nedava ten hw s GPU asi jako 2070. Filmy to stejne, taky chlubi se to 4K a potom po internetu je to v brutalni kompresi tj z filmu co ma 80GB de udela treba 10GB film. Jenze to nechceme. Proste 4K ma byt dle meho nekompromisni kvalita. Chci film 90GB 2160p. To stejne cekam u her, chci hrat na GPU co mi nabidne alespon 4K a 60fps! Ne vecne toto obchazeni. Pritom u toho firmy volaj, ne ne, tady uz je 8K! Haha, a co mi tam pusti? Jednak uz to ani nepoznam, rada lidi ani nebude mit na to uhlopricku. 8K jedine... a ktera GPU jim to da? Po letech co to sleduji, i dnes je celkem problem aby ty grafiky bezne davali nativne 4K a 60fps. Hura mozna ted za ty penize se dockam u te 4090 to to trvalo ufff. Driv bude asi duchod :D Pozor a to mam monitor, tedy TV u PC co je 55 Sony a ma 4K a Dolby Vision. Uplne v poho jsem zvykl, nevadilo by mi mit ani 65 palcu. Kdyz se to nauci pouzivat, tak jako ten monitor to nevadi. Problem je same nedodelky. Takze chybi HDMI 2.1 dalsi porty, horsi synchronizace s receiverem. Vyrobci byse ted meli zamerit radsi na ten HW a poradne to doladit aby to chodilo nativne a ne vymejslet blbosti.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.