Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
6.8.2020, Jan Vítek, recenze
NVIDIA si pro nás připravila vylepšenou technologii DLSS 2.0, která má za úkol v konečném důsledku zajistit vyšší výkon při vysoce kvalitním zobrazení. My se nyní podíváme na to, jak funguje v praxi.
madpavel (375) | 6.8.202012:08
"Dále se firma chlubí, že už není třeba specializovaná AI vytrénovaná pro konkrétní hru a že DLSS 2.0 využívá obecnou neuronovou síť, která funguje napříč hrami. To je sice pěkné, ovšem v praxi jsme si zatím nevšimli, že by bylo možné tuto technologii zapnout pro všechny hry a stále se objevují tiskovky, že ta a ta konkrétní hra ­(nedávno např. Death Stranding­) přichází s podporou DLSS 2.0.­"
To, že DLSS2 využívá obecnou neuronovou síť, která funguje napříč hrami, ještě neznamená, že to uvidíme v každé hře.
Já to chápu tak, že u každé hry musí Nvidia nechat data ze hry projít přes tu sít na svém superpočitači a tím získat nějaká natrénovaná data pro tu konkrétní hru. Jde o to, že ta neuronová síť lze použít na jakoukoliv hru, s DLSS1 to podle mě nešlo a v tom je ten rozdíl.
A jelikož čas strávený tím trénovámím nebude zadarmo, tak si Nvidia vybírá hry, kde DLSS2 nasadí, pokud to po ní nechtějí přímo vývojáři­/vydavatel.
Odpovědět0  0
batmaster (699) | 6.8.20208:28
Moc pěkný článek. Díky.

RT je určitě krok správným směrem. Jen si myslím, že měli v AMD pravdu, že na to není hardware ještě připraven. ­(Jinak jsem majitelem NVidia ;­) ­)

Chtělo by to udělat kvalitní ­"software­" rendering v knihovnách DirectX, Vulcanu a pod. a pak jen nechat na výrobcích GK, kolik HW výkonu poskytnou na své kartě. Zbytek by dopočítal procesor. A kdyby to nestíhalo, tak smůla kupte si lepší kartu, nebo vypněte RT. Takhle RT implementuje každý zvlášť ­(někdy s podivnými výsledky­) a vývojáři her místo obsahu a příběhu řeší technické problémy a násilnou implementaci RT ­(viz odraz jen některých objektů atd..­).
Když k tomu připočítáme to, že DLSS je potřeba nejprve vytrénovat ­(alespoň pro zatím­), aby podávala dobré výsledky, nemá podle mě RT + DLSS moc velký smysl. A to obzvláště ve světle ceny potřebného HW.

Snad bude v nových generacích GK dostatek výkonu a dojde ke sjednocení RT scény. Jinak hrozí, že si zase každý vymyslí svůj standart a my se budeme několik let ­"trápit­" než některý z nich zvítězí.
Odpovědět7  1
mareknr (270) | 6.8.20208:40
RT sa implementuje cez standardy v grafickych API ­- DXR alebo obdobne rozsirenie vo Vulkane. AMD nema pre toto ziadnu podporu. Zato NV ma jednak aj HW podporu pre RTX radu a aj ­"software­" podporu pre GTX Turingy a Pascaly. NV nepouziva ziadny svoj vlastny standard. Odkial sa zobral tento opakujuci sa nezmysel, ze NV pouziva nejake svoje vlastne API pre RT mimo standardov?
Takze tu vobec nejde o zjednotenie RT sceny, ale caka sa iba na AMD, kedy doda grafiky s HW podporou RT a pripadnou software podporou pre ostatne GPU.
Odpovědět3  1
batmaster (699) | 6.8.202012:05
Divil bych se, kdyby AMD a nVidia do těch standardů u DX nemluvili.

Jinak samozřejmě, že nVidia své API má ­(Nvidia Optix­) a Vulkán, pokud se něco nezměnilo má pouze rozšíření pro RT v podobě NVIDIA VKRay.
Odpovědět0  0
mareknr (270) | 6.8.202012:23
Dovolim si s istotou tvrdit, ze MS na vyvoji DirectX spolupracuje s oboma firmami. A to aj vratane DXR. V tom nie je ziadny problem. NV sa akurat poponahlala a implementovala DXR uz o generaciu skor, co nakoplo vyvoj dopredu. Do hier sa RT implementuje skrz DXR. Nie cez NVIDIA Optix. Kedze sme sa bavili o hrach, tak som nad Optix ani neuvazoval. Okrem toho NV uz zimplementovala do ovladacov aj SW podporu pre RT cez DXR. Takze aj GPU bez HW podpory mozu RT akcelerovat tak ako doteraz cez stream procesory. Vid GTX z generacii Turing a Pascal. Takze zjednoteny pristup k RT uz existuje, caka sa hlavne na AMD, aby urobila svoju implementaciu podpory RT.
Odpovědět0  0
komplikator (827) | 7.8.202011:15
Tady bych dodal že RT se do těch her, krom BFV implementuje přes RTX knihovny NV, nikoli přes DXR přímo. RTX knihovny jsou nadstavba DXR a mají vývojáři ulehčit práci s RT, podobně funguje třeba GameWorks, VRWorks atp..

AMD RTX samozřejmě nemá a kdyby chtěla, musí ho licencovat od NV. AMD ale může přijít s vlastními knihovnami pro vývojáře a vývojáři zase mohou a nemusí ty knihovny použít stejně jako u RTX od NV.

Nicméně za tu dobu tu máme nově DX12 Ultimate, to by měla být budoucnost. Grafické karty NV už DX12 plně podporují a nejde jen o RT ale třeba VRS.


Jinak AMD logicky RT na své karty pustit nemohla. Nedávalo by to smysl. NV to pustila na vybraných non RTX turingách a Pascalalech zcela záměrně. Lidi si to vyzkoušeli a jelikož výkon s RT je na těch kartích cca 3x nižší než na RTX, tak to lidi nabádá k upgradu na RTX. Kdyby RT bez HW akcelerace nabídlo AMD, logicky by posílalo zákazníky k NV.

Osobně jsem s RT velice spokojený i s jeho výkonem. jestli mám ve hře rt zapnuté nebo vypnuté nepoznám, pořád dostávám svých očekávaných 60FPS, jen v controlu tomu pomáhá DLSS
Odpovědět0  2
snajprik (1687) | 6.8.20206:27
To nieje žiadna novinka, toto robi aj moj satelitni prijmač, prijma FULL HD signal a prepočitava to na 4K telku.
Niesu to žiadne komplikovane vypočty, keď to zvladne aj satelitni prijmač za 27€ so spotrebou 5W prepočitať Full HD na 4K.
Ako mam s toho celkom dobru srandu ako niektory nadčenci Nvidie tento odrb na sprostych DLSS vychvaluju. Na druhej strane na čo nam je kvalitny obraz, keď dnes každy druhy ma problemi zo zrakom a su radi že rozoznaju farbu na semafore. Asi preto Nvidia spolieha na to že zhoršenu kvalitu obrazu si nožno nik nevšimne :D
Odpovědět2  12
mareknr (270) | 6.8.20208:31
Naozaj porovnavas to, co robi DLSS s nejakym primitivnym upscalingom z tvojho satelitneho prijimaca? Aspon si nastuduj o com to DLSS je a na akom principe funguje. To, ze tieto hluposti napises do X diskusii neznamena, ze sa z toho stane pravda.
Odpovědět3  0
tombominos (1375) | 6.8.202010:22
Jde videt, ze i DLSS2.0 ma jeste porad mouchy i pres obrovsky posun oproti mazanici DLSS 1.0. Kdyz jsem cetl clanek, tak na mne nektere pasaze delaly trochu dojem, ze to nekdy vylepsuje obraz az moc..to znamena, ze puvodne zamerne rozostreny predmet, muze byt ve verzi DLSS 2.0 dokonce ostry. Takze vizualne mame hezky obraz, ktery ale neodpovida originalu..coz je problem i jinych upscalovacich technik.
Schvlane jsem byl trochu hnidopich, protoze jsou fanousci, co z toho delaji svatou kravu a ona zatim uplne svata neni. Ale jinak palec nahoru za celkove dobre fungujici technologii a posun, ktery NV udelala.
Odpovědět4  1
mareknr (270) | 6.8.202010:41
Ono netreba nic glorifikovat v zmysle prehliadania chyb. DLSS 2.0 ma urcite svoje muchy, ale zaroven aj potencial do buducna. Vidiet to na priklade Death Stranding kde DLSS umoznilo aj na RTX 2060 hrat v 4K a 60 FPS. Myslim si, ze nieco taketo je dolezite aj do buducna pri zvysujucich sa narokoch na vykon grafik. Podobna technologia by urcite pomohla aj konzolam pripadne vykonu pre VR. Som zvedavy co vymysli NV u DLSS 3.0.
Odpovědět2  0
wendak (460) | 6.8.202013:41
Marku souhlasím, DLSS 2 je fakt obrovský posun dopředu a je to fíčura, která se mi moc líbí. Trojka by mohla být univerzálnější ce se tvorby her týče a pak by to by to dokonalý.
To, že výsledný obraz nemusí být úplně stejný jako originál v 99,99% případů nevadí ­- oproti příšernosti, které předvedla DLSS 1, je to prostě paráda
Odpovědět0  0
snajprik (1687) | 6.8.202015:54
V tomto smere je to super, na 8K 120Hz obraz, nebudeme potrebovať vykonnu GPU bude nam stačiť aj taky vykon ako ma 2060, nebudeme potrebovať ani vela pamati bohate nam postači aj 3GB. Uplne nam bude stačiť GPU čo zvladne FullHD a DLSS urobi zvyšok, obraz prepočita na 4K 8K 16K. A funguje to super mam to už 4 roky na satelitnom prijmači za 27€ ktory mi FullHD signal umelou inteligenciou zvyši na 4K 100Hz ako parada.
čo tam po kvalite obrazu, dnešny ludia maju problem rozoznať farbu na semafore :D
Len jednu vec nechapem, ked s tim pred cca 10 rokmi prišlo ATI že ich karty dokazali zvladnuť pri rovnakom vykone 2x viac fps, tak v tedy sa na ATI pľula sira že viac fps na ukor kvality obrazu, po 10 rokoch ked s tim prišla Nvidia nikto nič lepšie ešte nevymyslel :D
Odpovědět2  3
mareknr (270) | 6.8.202016:23
Prestan uz trolovat. To snad nemyslis vazne. :­-­) Vlastne teraz pozeram Babylon 5 so zdrojom s rozlisenim 640x400. A to na 4K TV. Vau. Nevedel som ze uz mam DLSS na TV. Hehe. Prosim ta prestan porovnavat upscale videa s tym co robi DLSS. Nie je to ani trochu v niecom podobne. Video ma jasne danu sekvenciu obrazkov na rozdiel od dynamickej sceny v hrach. Je to ina liga a uplne ina liga aj oproti akejkolvek upscale technike co doteraz bola v hrach pouzivana. Dopady na obraz su minimalne tak, ze si ich vacsina ludi ani nevsimne. A samozrejme zakladne rozlisenie nemoze byt iba FHD. Zavisi to ocividne od cieloveho rozlisenia ak si si to nevsimol doteraz. BTW naozaj sa doteraz umela inteligencia nepouzivala na rekonstrukciu obrazu. To nie je obycajny upscale akomna tvojom 27E satelitnom prijimaci.
Odpovědět1  1
komplikator (827) | 7.8.202011:23
Paráda, tak se koukej na svůj upscalovaný satelit v 8k, hrej upscalované hry bez použití AI, však ti nikdo nebrání.

Proč ty máš potřebu někomu kecat do toho zda chce používat raději AI rekonstruovaný obraz.

To je jako značka HW. Někdo má vehementně problém s tím že si někdo kupuje jinou značku HW, když on by si ji nikdy nekoupil, proboha proč mají lidi tak hovězípotřebu někomu kafrat do toho co si koupí.
Odpovědět2  0
Fakt si někdo myslí, že u střílečky, kdy máš několik setin vteřiny na reakci tě zajímá jestli nějakej flek na zdi někde kilometr za scénou je vykreslenej trošičku jinak než v originální textuře? OMFG, začni už používat trošičku mozek, pro FPS střílečky si nemáš šanci stihnout všimnout takových detailů, které tu pořád vytahujete. Ne každej hraje tahové strategie jak nějakej zamindrákovanej AMDčkař, kterýmu FPS hry na těch pomalých kartách od AMD nejedou.
Sorry jako, radši víc FPS abych viděl nepřítele včas v řádech nanosekund i kdyby to měla být jen rozmazaná čmouha, než překrasná slideshow na které bys lupou nenašel chyby s milisekundovým zpožděním.
Odpovědět0  1
asip80 (1191) | 11.8.202015:59
- říká ti něco soustava SI ?
- garantuji ti, že artefakty, mazanice atd. jsou rušivé a proč nemít kvalitnější zobrazení, když na to mám dostatek výkonu ?
- ­"Sorry jako, radši víc FPS abych viděl nepřítele včas v řádech nanosekund­" >> hlavně druhé pobízej k používání mozku­(co kdybys začal u sebe­) :D :D, ale aspoň jsi pobavil .. Jardo ty nikdy nezklameš :­)­))
Odpovědět0  0
batmaster (699) | 6.8.20208:38
Já vám nevím, ale srovnávat Upscaling videa, který se dá počítat několik snímků dopředu ze známých a předem načtených dat s DLSS, která se musí vypořádat s neustále se měnícím neznámým obrazem ...

Je to podle mě trošku jiná liga. Taky z DLSS nejsem zrovna unesený a jeho první adaptace byla vyloženě hrozná, ale pokud se nezlepší HW pro RT, tak asi jiná volba jak zrychlit vykreslování zatím nebude. :(
Odpovědět0  0
mareknr (270) | 6.8.20208:48
Podla mna nie iba kym sa nezlepsi vykon RT v grafickych kartach. Technologia ako DLSS bude uzitocna stale. Da sa pouzivat nezavisle od RT. Vid napriklad taky Death Stranding. V nom DLSS umoznilo aj na RTX 2060 hrat v 4K a 60 FPS. Ked sa bude postupne posuvat rozlisenie smerom k 8K, tak to bude treba este viac. Co sa tyka RT, bez ohladu na vykon GPU, stale mozes uprednostnit vyssiu kvalitu renderovaneho obrazu a pouzit DLSS na ziskanie casti FPS spat. A to sa tyka aj vseobecne grafiky v hrach.
Odpovědět0  0
snajprik (1687) | 6.8.202016:14
Samozrejme že je to ina liga satelitni prijmač za 27€ ešte aj s wifi jeho procesorovi čip ma hodnotu asi 4€ Nvidia ma na to čip 400€+
Tak že maju samozrejme prepočitavanie obrazu na vyššej urovni.
Napriklad aj s fotky FullHD sa da urobiť fotka 4K 8K ked sa na to človek nepozre detailnejšie su super.
Netvrdim že to nieje dobry napad, ako zdvojnasobiť fps, stači na to čip za 400€ ktory vykresli FullHD obraz a čip za 4€ ktory ho rozmaže na 4K 8K, Nvidia ma tu vyhodu že tam v tom čipe za 400€ ma aj samostatne nevyužite jadra, kore to na tych 4K rozmažu a ušetria kupu 4€ čipu.
Osobne v tom až taky zazrak nevidim, že mi niečo Full HD obraz roztiahne na 4K či 8K a spoliehať sa na to že ludstvo za tie roky u mobyloch oslepli jak krtko a nevšimnu si horši obraz je trochu utiahnute za vlasy.
Odpovědět1  2
hl.hl (297) | 6.8.202021:09
Jste naprosto mimo s tím srovnáním svého satelitního přijímače s DLSS.
Odpovědět1  0
komplikator (827) | 7.8.202011:26
DLSS nesouvisí s RT. Jsou DLSS tituly bez RT. Cíl je získat výkon navíc.
Odpovědět3  0
komplikator (827) | 7.8.202011:19
Opravdu ten satelitní přijímač používá umělou inteligenci na rekonstrukci obrazu?

On to není upscaling, však stačí kouknout a srovnat upscale + sharpening vs dlss, zostřený upscale trpí standardními problémy upscalingu, kdežto DLSS takové věci neobsahuje, protože chybějící data ­"vymyslí­"

Doporučuji kouknout například na Digital Foundry a jejich review Death Stranding kde je krásně vidět jak je upscaling se sharpeningem na nic.

kdyby to bylo stejné proč by NV plýtvala křemík na Tensor jádra, když upscale se sharpeningem umí léta.
Odpovědět2  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.