Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
11.10.2022, Milan Šurkala, aktualita
Nové grafické karty GeForce RTX 4000 se předváděly v dobrém světle už v únicích po jejich oficiálním představení, nyní tu však konečně máme i reálné testy. A výsledky jsou opravdu vynikající, přičemž zaujme především to, čeho se všichni báli. Spotřeba.
rizecek (278) | 13.10.202214:54
Hodně překvapila tahle karta. 1x takový výkon za stejnou spotřebu. Bohůžel 60 000Kč dá za grafiku jen naprostý šílenec. 4090­-4080­-4070 budou karty přimárně k hraní ve 4K, kde ještě minimálně 80% hráčů beží stále na podělaném 1920x1080.
Na 1440P stačí 3070 ­/ 3080 ­- Ti.
Ale popravdě nárust výkonu je absurdní s nárustem ceny. To si člověk už říká jako co nás v budoucnu vůbec čeká. Karty za 70­-90 000Kč ? Procesory za 20­-40 000 Kč ?
Člověk, který k tomu občas sedne a bude chtít novej pc, tak od toho uteče, protože dávat za RTX 4060 20­-25K? Za 13600K 10K ? To radši koupí několik generací starší čipy.
Docela děsivá představa s vyhledem do budoucna, kde před 5 lety jste koupili za 35­-40K pomalu jeden z nejvýkonějších strojů a dnes tu jsou karty za 60K. A to nevyšla ještě 4090 Ti.
Odpovědět0  0
Tomcat2 (654) | 13.10.202221:11
Vracíme se do ranných dob, kdy PC s 386 procesorem stálo 100 tisíc v době, kdy průměrná mzda byla 6 tisíc...
Odpovědět0  0
pidalin (1511) | 14.10.20226:35
Bohužel tyhle ceny nás nejenomže čekal, oni už tu jsou. Výkon HW ve stejný cenový kategorii už neroste pár let, takže pokud chceš něco silnějšího než máš teď, tak musíš koupit něco za výrazně víc peněz. Moorův zákon už totálně umřel.
Odpovědět0  0
pidalin (1511) | 14.10.20226:41
Jinak když tady napíšu že highendová grafika v roce 2009 stála 8 tisíc, tak mě tady lidi pomalu chtěj banovat že jsem lhář, lidi maj hrozně špatnou paměť. Tenkrát jsem si mohl na dost nabušenej komp našetřit i z brigád o prázdninách, dneska je to už zase jenom pro bohatý jako v 90. letech.
Odpovědět2  0
Tomcat2 (654) | 14.10.202221:46
High­-end stál tuším kolem 10­-12 tisíc, za 8 tisíc jsem kupoval v 2009 GTX 275, což byl nižší high­-end, ale je to tak, průměrná mzda byla 24 tisíc, takže ta high­-end grafika stála polovinu...dneska je průměrná mzda 40 tisíc a za 20 tisíc rozhodně high­-end člověk nekoupí, spíš za těch 40 tisíc, takže je to prakticky 2x dražší...
Odpovědět0  0
honza1616 (3730) | 14.10.202222:43
pravdu máš...
já to taky říkám pořád že HW se zdražuje s každou generací, pamatuji na moji první ne lowend ani mainstream ale highend grafiku, to byla GTX780 skoro rok po vydání, v Lednu 2014 za cca 14500 Kč, GTX1080 jsem koupil hned ze začátku za 19900Kč

že tedy současný highend bude za 28­-30 je zcela normální, co už bohužel normální není, je cenu na víc u nás ovlivněná inflací a kurzem nad prodejní cenu za velkou louží
Odpovědět0  0
pidalin (1511) | 14.10.202223:32
No dobře, tak dejme tomu vyšší mainstream. GTX 275 mi tady zrovna leží v PC po tátovi kterej teď používam na různý pokusy a retro hry, ta grafika je dneska celkem vzácná. Jinak v roce 2008 jsem kupoval 9800GTX za 5500 Kč a to rozjelo tenkrát skoro všechno na ultra. V roce 2019 jsem kupoval 2070 Super za asi 16 tisíc a to jsem si už řikal jestli jsem se nezbláznil dát takový prachy za grafiku, dneska se tomu směju. :­-D
Odpovědět0  0
Jardadoma (1576) | 12.10.202216:57
Hlavně neplést Adu a Lindu. Každá se proslavila jinak.
Odpovědět0  1
ANNDIR (34) | 12.10.20228:31
a to všichni hudrovali a prděli moudra jak to bude jako vždy o 20 max 30% vyšší výkon a hele ono to je jinak, rozhodně moc hezké a jsem zvědav na 4080, moc nedoufám že by amd dokázalo držet krok hlavně v RT tak snad brzy intel
Odpovědět0  0
honza1616 (3730) | 12.10.20228:06
Dle očekávání, ??????
potvrzují se čtvrt roku staré úniky i prezentace od Nvidie

Tato generace se povedla asi nejlépe co pamatuji od doby co aktivně sleduji HW.

Teď jsem zvědav co na to řekne AMD fanklub, hlavně jak se zde a nejen zde plakalo jak to bude mít spotřebu 1200W a výkon jen pár % nad RTX3000
.....­"žere to víc jak 150W...fuj fuj fuj....DLSS3.0?.... má to málo paměti, Radeon bude mít určitě 128GB gddr­-9x a GPU bude vyrobené 0,001nm procesem"
Odpovědět2  13
Mirek55 (602) | 12.10.20228:44
Tak to pamatuješ hodně málo.
Odpovědět5  0
pidalin (1511) | 12.10.20229:38
těch povedenejch generací bylo celkem hodně, například geforce 6000, pak 8000 a 9000, i když 9000 byla spíš jenom zefektivněná 8000, ale svojí 9800GTX jsem toho času měl dost rád, dále generace GTX400 byla dost povedená ­(moje stará GTX460 pořád slouží v záložnim PC­), pak 700 a 1000 ­(když pominu horší poměr cena­/výkon než u AMD, tenkrát jsem šel do R9 380­), v neposlední řadě ta předchozí byla taky slušná. Ono se to každý cca 2­-3 roky střídá, někdy je výhodnější nvidia a někdy zase AMD.
Odpovědět3  0
Mirek55 (602) | 12.10.20229:43
GTX 400? To jako GTX 480 aspol.? V té době jsem si jednu koupil jenom proto, že nebyl dostupný úspornější Radeon a spěchalo to. Jó tehdy marketingové oddělení nvidie prudilo s tou přehnanou teselací, dneska zase prudí se stejně overhypovaným raytracingem.
Odpovědět0  0
pidalin (1511) | 12.10.202210:07
RTX jako takovej nikoho nezajímá, ale potřebuješ RTX grafiku kvůli DLSS a DLSS 2.0 má lepší poměr obraz­/výkon než řešení od AMD a tak se dneska v moderních hrách decela vyplatí mít nvidii. GTX480 byla drahá, většina lidí měla 460 a to byla skvělá grafika se skvělym poměrem cena­/výkon a dobrym OC potenciálem.
Odpovědět0  5
Uni (221) | 12.10.202210:12
RTX nikoho nezajímá, ale je potřeba. Dobrá logika ?
Jinak ne, RTX nepotřebuješ kvůli DLSS, když tu máme FSR.
Odpovědět3  1
pidalin (1511) | 12.10.202210:16
Tak si to přečti celý co jsem psal, DLSS 2.0 má o dost lepší poměr výkon­/obrazová kvalita než FSR. I když záleží asi na implementaci a možná se to časem zlepší, hodnotim na základě toho jak to funguje v Cyberpunku kde DLSS skoro nejde rozeznat od nativního 4K ale FSR je dost mazanice.
Odpovědět1  3
Uni (221) | 12.10.202214:49
Jen pro jistotu, dnes nám moc smysl řešit FRS, ale FRS2.
A tam je to o hledání detailů, v podstatě srovnáno a bez vendor­/model lock­-in.
Odpovědět1  0
pidalin (1511) | 13.10.20227:14
do toho bohužel nevidim jaká verze FSR v těch hrách je
Odpovědět0  0
Mirek55 (602) | 12.10.202211:03
Skvělá grafika díky OC potenciálu, když žrala víc než průměr i bez OC? Fetuješ? Kdyby byla dostupná HD 6850, tak jsem na GTX 460 kašlal.
Odpovědět0  0
pidalin (1511) | 12.10.202211:58
HD6850 zrovna jednu taky mam, výkon GTX460 1GB v základu je o něco vyšší a ta HD6850 nefunguje v deskách s UEFI biosem, takže v počítačích po roce 2013 nepoužitelná a dneska naprosto bezcená grafika. A tak je to skoro se všema zázračnejma Hitl....AMDčkovejma zbraněma. Jediný co mě na tý GTX 460 tenkrát štvalo bylo že to oproti předchozí 9800GTX nebyl moc velkej výkonovej rozdíl, ale možná jsem to tenkrát měl bottlenecknutý procesorem, jinak na tý GTX 460 jsem ještě odehrál Zaklínače 3 i Dooma 2016, pak jsem přešel na R9 380, což byla super grafika, ale nebyl jsem spokojenej s tim co AMD dělalo za pokusy s ovladačema, přechod na Crimson drivery mě tak naštval že jsem se kousnul a řekl jsem si že AMD už znova fakt ne, nejde jenom o ty mega dlaždice 5x5 cm, jde o to že přidali nějakou funkci která v další verzi zase přestala fungovat a tak furt dokola. U nvidie aktualizuješ ovladače několik let a nemusíš ani jednou věci nastavovat znova pokud neuděláš čistou instalaci, u AMD při každý aktualizaci bylo všechno nastavení rozsekaný.
Odpovědět1  2
Mirek55 (602) | 12.10.202214:49
Nepindej.
Odpovědět2  0
pidalin (1511) | 13.10.20227:13
Tak hlavně jestli jsi tu GTX 460 někdy viděl, většina AMDčkářů totiž nvidia grafiku v životě neviděla a šíří akorát tu jejich propagandu.
Odpovědět0  1
pidalin (1511) | 12.10.20229:35
AMD fanclub na to řekne to co vždycky, že jsou všichni podplacený lháři. Ve skutečnosti je to ale spíš naopak, spousta recenzí hlavně AMD procesorů je uplně mimo realitu třeba s teplotama který jsou v praxi tak o 20 stupňů vejš než kolik ukazujou testeři co maj rádi AMD, protože už zapomenou zmínit že třeba udělali undervolt nebo něco. Najít recenze kdy recenzent nepodvádí a hodnotí fakt objektivně je dneska celkem problém a když už se někdo takovej najde, tak s tim maj AMDčkáři problém protože se jim opravdová realita už tolik nehodí do krámu.
Odpovědět1  11
cdwN (585) | 12.10.202211:28
Pro tebe platí totéž, co pro Honzu1616 ­- jsi AMD hater a já netuším, co vás k té okaté nenávisti vede...
Odpovědět4  0
pidalin (1511) | 12.10.202212:11
Nejsem AMD hater, sám mam Ryzen 3800X, nedávno jsem ještě měl R9 380 a za posledních 15 let jsem měl spoustu AMD­/ATI grafik. Jde o to že si všímam že spousta AMD lidí se chová jako nějaký náboženský fanatici, testovací metodiky si upravujou jak se jim to zrovna hodí a když je konfrontuješ s reálnejma číslama co jsem si sám doma změřil, tak ti řeknou že lžeš. Táta nedávno stavěl PC na intel 12. generaci a byl jsem v šoku po tom všem co jsem všude četl od AMD sekty že to vubec netopí a výkon je super, hlavně jednovláknovej, i ta nějaký pitomá i5 má vyšší jedovláknovej výkon než ten Ryzen 3800X. Samozřejmě neni uplně fér srovnávat 6 jádro s 8 jádrem s různejma TDP, ale ty provozní vlastnosti tý i5 jsou dost dobrý a herní výkon je lepší. Když někde napíšu že Ryzen 3800X potřebuje udělat undervolt aby se to dalo uchladit, tak mě pomalu chtěj AMDčkáři zabanovat, přitom to je prostě realita, tak to je, si to otestuj. Někde jsem tady zase mluvil o tom proč už nechci AMD grafiku, po HW stránce to jsou určitě super grafiky, ale dělaj hrozný pokusy s ovladačema a po přechodu na Crimson drivery jsem si prostě řekl že chci zase nvidii a mít klid. Nvidia ovladače vypadaj stejně už tak od roku 2008 a když si tam něco nastavim tak to tam zustane, ne že to nastavuju pokaždý aktualizaci znova jako u AMD nebo že některý funkce uplně přestanou fungovat ­(jako například zastropování FPS pomocí taktů grafiky­), tyhle věci u nvidie prostě fungujou na furt a nikdy to neselže. Jo jako, když mi bylo 18 tak jsem si rád hrál, teď je mi přes 30 a chci abych PC nějak sestavil, nastavil a dál neřešil, což u AMD prostě nejde, tam furt něco řešíš.
Odpovědět1  0
Pavel Matějka (1680) | 12.10.202212:45
Tak se chovají fanatici všech značek, ať je to AMD, Nvidia, Intel, Nikon, Olympus nebo BMW.
Normální člověk z toho má srandu, trol jako já je občas ještě popíchne.

A já mám PC AMD a nic jsem neřešil, všechno funguje. Ano, jedna věc mě štve, ale nevím, jestli za ni může AMD nebo Gigabyte. Po updatu BIOSu musím v UEFI všechno znova nastavit. No nic, mám na to chytrej papír a je to otázka tří minut, ale nikdy předtím jsem takovej opruz neměl. Na druhou stranu ­- aspoň vím, co tam mám nastavené...
Odpovědět2  0
pidalin (1511) | 12.10.202213:09
"Po updatu BIOSu musím v UEFI všechno znova nastavit­" no to je bohužel celkem normální a taky mi to pije krev, já mam desku MSI a AMDčkáři právě všechno házej na to že ­"no jo tak když má nějakou shit MSI desku, tak ať se nediví že musí dělat undervolt­" jenomže těch nesmyslnejch 1,4V to tam hází nejenom mně, to je napětí jak pro nějakou Pentium 4 :­-D
Odpovědět0  0
cdwN (585) | 13.10.202219:22
Tak promiň, hodně to znělo, že AMD jen tak ze sportu haníš. Pokud máš co říct, tak tě normální člověk vyslechne a můžete se konfrontovat, ale pokud je to fanatik, tak se nemá cenu s ním bavit a zkoušet mu zhasnout ty iluze, který o své milované značce má....
Odpovědět0  0
Tomcat2 (654) | 12.10.202210:24
Dočkej času, až přijde Radeon, něco mi říká, že nVidia nehnala tuhle grafiku na krev jen tak pro nic za nic ;)
Odpovědět5  0
cdwN (585) | 12.10.202211:14
Tady není vůbec problém s AMD fans...Problém je totiž s tebou. Ty jsi odpůrce AMD a podle toho se taky chováš. Už vidím, jak budeš radostně hýkat, až vyjdou AMD grafiky a budou topit jako kráva. Na to se těšíš, až si budeš moct kopnout. Všechno to dneska bude topení, protože ten výkon nejde jen tak vycucat z ničeho. Navíc tuhle grafiku si koupí opravdu jen malé procento lidí, stejně jako to bude s nejvýkonnější AMD grafikou. Já proti nVidii nic nemám, chci jen, aby ostatní nebyli takoví fandové a nebyli tak šíleně okatě zabarvení a neupozorňovali jen na fanatismus druhé strany, ale především si uvědomili ten svůj. To se ale nestane. Kdo není se mnou, je proti mě. Stejně jako ve všech ostatních aspektech. Příklad za všechny je Bison ­- ten je svou zaslepeností k modrým zde už znám a kopne si do čehokoli rád...
Odpovědět4  0
wrah666 (6205) | 12.10.202211:34
REálně to má výkon vyšší o 50 něco procent, víc je za cenu kažení kvality obrazu. Pravda, neříkám, že je to málo, zvednout výkon o víc jak polovic a současně spotebu snížit. Na druhou stranu, napájení je dimenzované na 450W a to patrně bude mít nějaký, dost pádný důvod. Zcela určitě výrobci nepoužáijí složitější PCB a více fází a dražší chladič a x dalšího proto, že by to nebylo zapotřebí. Spíše mi to smrdí nějakou vychytávkou, jako auta co ­"plní­" normu CO2... ­(podvodem­)
Odpovědět2  0
unreall (545) | 12.10.202215:23
Aké je to jednoduché, ukázať celému okoliu svoje rozumové nedostatky jedným momentom. ?
Odpovědět0  0
Tomcat2 (654) | 11.10.202221:48
Teď jsem dokoukal všechny video recenze na největších kanálech a mám z toho tyhle postřehy:

- Výkon oproti 3090 prakticky narostl 2x, první karta pro 4K­/144Hz displaye
- výkon ve 4K+RT takový, že to DLSS ani nepotřebujete
- spotřeba je v defaultu stejná jako 3090ti, ale když se nastaví o 20% nižší Power Limit, tak se přijde jen o pár jednotek % výkonu, ale spotřeba spadne o 100W i víc!! Klidně by mohla být ta karta menší, to chlazení je zbytečně předimenzované.
- blbý napájecí kabel, resp. jak je na boku, tak se sotva vejde i do těch největších skříní a budete ho lámat a brzo to odnese napájecí konektor na kartě
- absence PCIe v5 a Display Port 2.0 je u tak drahé a nové karty neomluvitelná

Jinak nevím, co všichni blbnou s tím DLSS a FSR. Sám mám na 4K LCD vyzkoušeno, že když se to nehejbe ve 4K, tak stačí nastavit 3200x1800 nebo 3072x1728 a oproti 4K to prakticky nepoznáte ­(zkoumal jsem to hodiny­) a výkon vzroste razantně. Ono i 1440p na 4K display vypadá naprosto v pohodě...
Odpovědět4  2
pidalin (1511) | 11.10.202222:10
DLSS dává mnohem lepší výsledky než si na LCD nastavovat nenativní rozlišení. Pokud ti nevadí mít nenativní rozlišení, tak bych doporučil návštěvu očaře. :­-D S DLSS se ti furt aspoň text a další věci renderujou v nativnim rozlišení a na ostrosti je to sakra vidět. Proto byla v dobách před DLSS i užitečná funkce dynamic resolution, protože na monitoru pořád zustávalo nastaveno 4K ale hra se v případě potřeby renderovala v menšim rozlišení ale text pořád zustával ostrej. Jinak DLSS třeba v Cyberpunku dává takový výsledky že to skoro nejde rozeznat od nativního 4K, nemá to žádnej ghosting, dokonce ani nejsou rozsypaný ploty a kabely v dálce, vypadá to fakt jako 4K a FPS je skoro dvojnásobný, takže je blbost to nezapnout. V Metru Exodus už to taková sláva neni, tam doporučuju DLSS nastavit na ­"kvalita­" jinak tam ten ghosting a rozsypaný ploty jsou.
Odpovědět3  4
Mirek55 (602) | 11.10.202222:37
Já bych raději hrál, než u každé hry zkoumat a zkoušet asi tak 50 možností, které se díky patchům a verzím ovladačů ještě můžou násobně zvýšit.
Odpovědět2  0
pidalin (1511) | 12.10.20227:02
tak si holt kup konzoli když tohle řešit nechceš, o tomhle bylo PC hraní vždycky že si to každej vyladí podle toho jak chce
Odpovědět2  2
Tomcat2 (654) | 11.10.202222:43
Očaře fakt nepotřebuju, zkoumal jsem to dost z blízka v několika hrách na různých objektech a scénách a jo pokud člověk ty rozdíly přímo porovnává, tak je vidí ve formě o trošičku ostřejšího obrazu, ale musí si to fakt přepínat mezi sebou. Ale z běžné vzdálenosti při hře ten rozdíl mezi 3K a 4K prostě není poznat. Schválně si to zkus, vím o čem mluvím...
Odpovědět4  2
pidalin (1511) | 12.10.20227:04
Zkoušel jsem to, ve hrách co DLSS nepodporujou a zároveň nativně ve 4k jedou se špatnym FPS to tak běžně dělam že si třeba v ovladačích vyrobim vlastní rozlišení jenom o trochu nižší, ale 2560x1440 už vypadá dost bídně na 4K displeji, 3K se celkem dá, ale nativní ostrost to prostě nemá a rozdíl ve výkonu zase tak velkej neni, to radši snížim detajly než sahat na nativní rozlišení. Většina dnešních her už žádný pořádný nastavení grafiky že by byl vidět rozdíl ani nemá, ale to že neni vidět neznamená že to grafika nepozná, kolikrát stačí pozakazovat pár efektů, nebo trocu snížit kvalitu ambient oclusion nebo něco a hned je FPS klidně trojnásobný aniž by to bylo zásadně vidět, takže proč sahat na rozlišení, změna rozlišení směrem dolů je vidět vždycky.
Odpovědět2  2
Tomcat2 (654) | 12.10.202210:26
Snížením rozlišení ze 4K na 3K navýšíš FPS o třetinu...
Odpovědět2  1
pidalin (1511) | 12.10.202210:30
Což za to ale nijak zvlášť nestojí, lepší je osekat pár efektů.
Odpovědět2  1
Tomcat2 (654) | 13.10.20229:17
Naopak, efekty zůstanou všechny a obraz prakticky stejně kvalitní jako na 4K...
Odpovědět1  0
pidalin (1511) | 13.10.20229:45
jestli budu mít nastaveno HBAO na medium nebo ultra mi zážitek ze hry nezmění, ale FPS to změní pořádně, takže znova řikam: proč snižovat rozlišení, to je to co má největší vliv na to jak pocitově ta hry dobře vypadá, to má vliv na aliasing a ostrost obrazu a to je to nejdůležitější, k čemu je mi mít efekty na ultra když je obraz rozplizlej?
Odpovědět0  0
wrah666 (6205) | 13.10.202210:04
Mě osobně přijde poněkud divné mít 4k monitor, a nechávat obraz extrapolovat z nižšího rozlišení. Podle mě by bylo skoro rozumnější normální full hd a pravý antialiasing, který nikdy nezpůsobí artefakty. A karta ho v pohodě utáhne.
Odpovědět1  0
pidalin (1511) | 13.10.202210:28
To jsem si dřív myslel taky, ale DLSS funguje skvěle že i já s tim nemam problém hrát, samozřejmě ve hrách co to podporujou. Antialiasing ­(ten pravej­) dnešní hry nepodporujou a FHD je mazanice na víc než 24,­" když si tam zapneš dnešní vejkovej AA ­(postprocessing­) tak to rozhodně neřeší rozsypaný pletivo a dráty ve hrách a reálnej AA při full hd ­(MSAA nebo SSAA­) by měl zase stejný nároky jako to nativní 4K. Jinak nvidia už umožňuje v ovladačích nastavit na 4K monitoru full hd rozlišení bez rozpatlání, stačí zapnout funkci ­"násobení celým číslem­" nebo tak nějak se to jmenuje tam jak se nastavujou poměry stran a tak, u fhd na 4K to vychází bezezbytku, takže je to pak zobrazený korektně, ale jak řikam na 27­-32­" je už FHD strašnej humus.
Odpovědět0  0
Tomcat2 (654) | 13.10.202221:20
Objektivně můžu říct, že i 1440p na 4K monitoru vypadá nesrovnatelně líp, než nativ FullHD na FullHD monitoru i s vyhlazováním. Předtím jsem měl FullHD monitor a dokonce jsem šel tak daleko, že jsem hru renderoval ve 4K a pak se to resiznulo na 1080p a vypadalo to super...nebo jsem si to aspoň v té době myslel, než jsem si koupil 4K monitor. Pak jsem zjistil, že na 4k má i to 1440p prostě víc detailů, než nativ. A jak říkám 3K na 4K monitoru nepoznáš, kdybych Ti to jen tak ukázal a řekl, že to je 4K nativ, tak to sežereš, věř mi..já to mám vyzkoušené na několika hrách, strávil jsem dost času porovnáváním, ten rozdíl tam je, pokud to přepínáš mezi sebou a zkoumáš do detailu, ano je to trošku čistější, ale jinak to během normálního hraní prostě nepoznáš...
Odpovědět1  0
pidalin (1511) | 14.10.20226:43
"že jsem hru renderoval ve 4K a pak se to resiznulo na 1080p a vypadalo to super­" tak lidi co pamatujou dobu tak před 15­-25 lety věděj že takhle má normálně fungovat antialiasing, ten reálnej, ne ty postprocessingy kterejm dneska řikaj antialiasing. Dneska se furt někde řeší nějakej antialiaising a přitom jsem novou hru která podporuje AA ­(ten reálnej, ne fejkovej­) neviděl tak 10 let.
Odpovědět0  0
Tomcat2 (654) | 14.10.202210:00
SSAA se moc nepoužívá, to je fakt, ale v hodně hrách se dá nastavit Super Sampling a když ani to ne, tak normálně ovladače grafiky umožňují nastavit Super Resolution a pak to umožní nastavit 4K i na 1080p monitoru...
Odpovědět0  0
pidalin (1511) | 14.10.202211:29
jo, ale výslednej efekt je stejnej jako SSAA, je škoda že dnešní hry nepodporujou MSAA, to mělo ne zas o tolik horší výsledek ale s menšíma nárokama
Odpovědět0  0
Bison (897) | 11.10.202219:40
RTX 4090 mierne pretočili a už bola nad 500W , ak príde Ti tá bude na 600W , ak by to vyrobil Samsung na svojej osmičke tak sme na 1KW , notebooky si pochrumkajú na úspornej Nvidii.
Odpovědět1  6
cdwN (585) | 12.10.202211:17
Tvůj koment bez náznaku nenávisti vůči všemu neintelovskému nepřekvapil :)
Odpovědět4  0
Mirek55 (602) | 11.10.202219:34
Už jsem v obchodě zahlédl Intel Arc A380!!!
Odpovědět1  1
pidalin (1511) | 11.10.202222:12
Jo, v CZC to maj a je to pěkně předražený na ten výkon co to má. 5 litrů bych za to fakt nedal.
Odpovědět3  0
coremar (433) | 12.10.20226:49
Však Bison už to určitě má dávno v počítači a čvachtá si blahem nad tím, jak se mu krásně sekají hry s tím jak skvělý má Intel ovladače :­-)
Odpovědět5  0
cdwN (585) | 12.10.202211:22
Koukám na ni...Vypadá tak trochu jako SSDčko s větrákem uprostřed. Naznačí mi někdo nějakej ekvivalent z dílny nVidie či AMD co se týče výkonu? Abych si udělal obrázek, nějak se v těch intelech nevyznám. Předpokládám, že s touhle cenovkou to nebude žádná sláva :(
Odpovědět2  0
Karel Polívka (1098) | 13.10.202221:01
Jedna věc je samotný výkon. Druhá věc jsou ovladače, což není jen otázka nějakých možných artefaktů v obraze, ale jde taky o stabilitu aplikací a toho výkonu ­(pro plynulý pohyb potřebujete mít nejen vysokou hodnotu FPS, ale také stabilitu v rychlosti vykreslování všech snímků, aby systém občas na nějaký 1 snímek nečekal násobně delší dobu­). Třeba se ty ovladače brzy výrazně zlepší, třeba taky ne – problémem jsou ale především starší hry, pro které ještě nejsou ovladače optimalizované ­(a pro některé tituly třeba ani nikdy nebudou­), což je tím pádem o to větší problém právě u karty této výkonnostní kategorie. Má smysl kupovat něco takového s tím, že se to možná za X měsíců zlepší?

Pokud někdo potřebuje koupit nějakou samostatnou grafickou kartu pro hraní her a nechce řešit případné technické problémy, s ohledem na aktuální situaci, kdy je v eshopech skladem plno modelů od Nvidie a AMD s bezproblémovými ovladači, nevidím smysl v tom, proč dnes kupovat Intel Arc vyjma 2 důvodů:
– chcete Intel Arc do své sbírky zajímavého HW
– chcete podpořit grafické karty s GPU od Intelu coby třetího hráče na trhu s GPU
Odpovědět1  0
Pavel Matějka (1680) | 11.10.202218:31
Dobré, no. Spotřeba milým překvapením, výkon se zdvojnásobit sice nepodařilo, ale nárůst je tady znatelný.

Uvidíme, s čím přijde konkurence. A uvidíme, s čím přijdou OC edice.
Odpovědět6  1
coremar (433) | 12.10.20226:46
Na oc edice a obecně karty od partnerů jsem taky zvědavej, co jsem tak pochopil, tak Nvidia má tentokrát velmi propracovaný chladič a nejsem si jistej, jestli ostatním nechali dost prostoru... Nevim jestli se to tentokrát dá ještě o dost vylepšit.
Odpovědět1  0
pidalin (1511) | 12.10.20227:07
chladič je stejnej jako u minulý generace, akorát má víc heat pipe, ale bohužel to co pak produkujou ostatní výrobci je často horší než co vymyslela nvidia
Odpovědět1  6
coremar (433) | 12.10.20227:33
Chladič možná zepředu stejně vypadá, ale reálně je na něm docela hodně změn, ne jen heatpipes. Ventilátory jsou větší s dost vylepšeným tvarem lopatek, že to ani chladiče je výrazně mohutnější apod.
Odpovědět5  0
coremar (433) | 12.10.20228:14
Oprava: *žebrování* chladiče je výrazně mohutnější.
Odpovědět1  0
pidalin (1511) | 12.10.20228:57
průměr větší asi o 5 mm a ­"vylepšený tvar lopatek­" je jenom marketing
Odpovědět0  2
Akulacz (317) | 12.10.202213:43
Ono těch 5mm=14% výkonu navíc, tvar lopatek dokáže udělat ještě větší rozdíly, ale tam už bych počítal, že jsou velmi blízko optima a tam bude rozdíl minimální. Spíš jen optimalizace tvaru, kvůli snížení počtu listů.
Odpovědět4  0
unreall (545) | 12.10.202215:36
Jasne marketing… Noctua s novými verziami vetrakov zmenila hlavne ten tvar lopatiek a ložiziek a hneď je tam vyšší chladiaci potenciál.
Odpovědět4  0
Akulacz (317) | 12.10.202222:01
Ono ten chladící potenciál dokáže ovlivnit hodně věcí.
Teď ještě koukám, že jsem se přepsal v minulém příspěvku, mělo být 24% navíc.
Nejvíce ovlivňuje výkon průměr, ten jde nahoru s pátou mocninou, pak otáčky ­- třetí mocnina, pak ještě plocha, tvar a stoupání listů, tvar kanálu. Velké stoupání=velký průtok, malé velký statický tlak a tam se musí najít správný kompromis s použitým radiátorem. Proto je potřeba na jiný větrák na chladič a jiný na vyhánění vzduchu z bedny.
Například když zvětšíme průměr 2x při polovičních otáčkách, tak dostaneme 4x větší ­"chladící výkon­" ­(ale i odběr motoru­) když otáčky necháme tak 32x větší, nebo při stejném výkonu stačí otáčky 3,2x nižší pokud zachováme ostatní parametry.
Odpovědět0  0
pidalin (1511) | 13.10.20227:12
Jenomže je zvykem s většim průměrem zase snižovat otáčky a s tim je taky potřeba počítat, větší větrák musí jet na menších otáčkách aby neřval, to mam otestovaný. u prťavýho větráku je 3000 otáček celkem v pohodě, u 120 mm by se to nedalo poslouchat. Od nějakejch 120 mm už kupování většího větráku skoro nemá žádnej reálnej efekt kvůli omezený nabídce na trhu.
Odpovědět0  0
Akulacz (317) | 13.10.20229:32
No ale když vezmeš 60mm a 3000ot tak 120mm větráku stačí těch otáček tisíc. Navíc nám to dost kazí aerodynamika a čím menší za vrtule, tím prasečťejší je tam proudění a tím horší je účinnost, proto když to jde, vždy se vyplatí použít co největší průměr. Tady nás samozřejmě omezí rozměry skříní a komponentů a nabídka jak píšeš.
A když je větrák na chladiči, tak aby překonal jeho odpor, je žádoucí vyšší tlak, čili nižší stoupání lopatek a tak může vycházet větrák nižší než u volně montovaného.
Ta fluidní ložiska se jako kluzná chovají jen než se větrák roztočí, nebo pokud jsou otáčky velmi nízké, mimo rozsah pro který byla navržena. Pak tam je místo kuliček vrstva oleje, ale opět to funguje jen když je rotor dobře vyrobený a vyvážený. Takže cvakání může značit že je nevyvážený rotor, nízké otáčky ­(kdy ještě nefunguje ložisko správně, nebo motor vypadává že synchronizace­), nebo čínské dítě blbě nalepilo magnety...
Odpovědět0  0
pidalin (1511) | 13.10.20229:47
Cvakání je způsobeno moc malou frekvencí PWM kdy motor spíná v takovejch intervalech že je možný to slyšet, dělaj to bohužel skoro všechny PWM větráky při otáčkách pod nějakejch cca 700.
Odpovědět0  0
pidalin (1511) | 13.10.20227:07
To je ale uplně jedno jestli je to Noctua nebo jinej solidní výrobce, Noctua má při stejnejch rozměrech a otáčkách vyšší výkon než noname Čína, to je jasný, ale v porovnání s jinym slušnějšim výrobcem tam prakticky žádnej rozdíl neni, takže je to taky hlavně marketing. Jinak od Noctuy mam docela dost větráků, takže je mam otestovaný, zas tak brutální kvalita to za ty prachy neni, při nízkejch otáčkách při PWM regulaci je někdy slyšet cvakání, nejradši jsem měl starý cooler mastery s kuličkovym ložiskem, ale to už dneska člověk nesežene, tam sice ložisko nějakej zvuk dělalo vždycky, ale aspoň ten zvuk byl furt stejnej, nehledě na orientaci ventilátory. Noctua a další používaj primitivní kluzný ložisko, akorát pro to maj vznešený názvy.
Největší vliv na výkon ventilátoru má jeho tloušťka, nízkoprofilovky jsou k ničemu, vždycky se vyplatí dát na grafiku klasickej tlustej 25mm větrák. Já výrobcům grafik hodně zazlívam to že oficiálně nepodporujou montáž standardních ventilátorů, to by nám dost usnadnilo život a i snížilo teploty.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.