Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

SLI plus G-Sync způsobuje výkonnostní propad ve hrách

22.10.2018, Jan Vítek, aktualita
SLI plus G-Sync způsobuje výkonnostní propad ve hrách
Už nějakou dobu si lidé stěžují na to, že zapnutím technologií SLI a G-Sync se připraví o část výkonu ve hrách. Na toto téma se nyní zaměřil server Extremetech, který provedl své vlastní testy. Jak dopadly? 
Je zřejmé, že toto je problém, který budou řešit především ti majetnější hráči. Však pro SLI potřebujeme alespoň dvě grafické karty a monitory s technologií G-Sync také nejsou levné. Nicméně právě z toho důvodu, že za takovou kombinaci se obvykle platí velké peníze, by vše mělo co nejlépe šlapat. 
 
 
Tento problém se má objevovat právě a pouze při zapnutí obou technologií naráz a dle některých má trvat od ovladačů verze 391.xx a jiní říkají, že jde o problém už od nástupu generace Pascal, který je tak starý už téměř dva a půl roku. My se ale nyní podíváme na to, zda je to reálný problém. 
 
Takovéto výsledky udává jistý uživatel oticeps na fórech NVIDIE. V některých případech jde o skutečně mamutí propady výkonu. 
 
 
Server Extremetech pro vlastní testy využil dvě karty GTX 1080 a monitor Acer XB280HK s podporou G-Sync. Ten však má maximální obnovovací frekvenci 60 Hz, takže to znamená, že bylo třeba použít takové hry, v nichž dvě GTX 1080 přinejlepším nedokáží jít nad 60 FPS. 
 
 
V titulu Deus Ex: Mankind Divided se objevil asi 10procentní propad, ale pouze v DirectX 11. Ve Far Cry 5 byl pro zvýšení náročnosti využit supersampling 1,1 až 1,5 a ve všech případech  se po zapnutí G-Sync FPS propadly.
 
 
Podobné je pak v moderním Hitmanovi, ovšem opět pouze pod DirectX 11. Jenomže zde na rozdíl od Deus Ex je výkon pod DirectX 12 celkově velice chabý, že se nevyrovná ani FPS pod DirectX 11 se zapnutým G-Sync. 
 
Celkem se v těchto testech ukazuje, že daný problém opravdu existuje a NVIDIA by ho opravdu měla začít řešit, i když se očividně netýká mnoha lidí. Většinou to ale budou pro tuto firmu ti nejlepší zákazníci, kteří do své sestavy nalili i tisíce dolarů a pokud za to dostanou výkon, který neodpovídá možnostem jejich hardwaru kvůli jakési chybě, nedělá to NVIDII čest. Očekávat bychom mohli alespoň vysvětlení toho, co se za těmito potížemi ukrývá. Mezi hardwarovými servery by se také mohl najít nějaký, který by tuto věc vyzkoušel na nových kartách s čipy Turing, pokud to ovšem jejich ovladače aktuálně umožní. 
 


Doporučujeme náš velký přehled desktopových grafických čipů.