Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
16.7.2010, Petr Štefek, recenze
Druhá část pohledu na zbrusu novou grafickou kartu GeForce GTX 460 nám přináší výkonnostní srovnání obou verzí s rivaly jako je Radeon HD 5830 a silnější verze Radeon HD 5850. Vše jsme okořenili testy se dvěma stupni anti-aliasingu.
TheRagstone | 27.10.201023:08
No tak jsi tezce za vodou, takto silny CPU je dost i pro krmeni GTX 480 nebo i SLI, no worry.
Odpovědět0  0
MarosF | 18.7.201023:14
Uvažujem o výmene mojej 9800 GTX+. Keďže do ATIny nechcem ísť a na druhej strane nechcem mať elektrárne ako GTX 470 ­- 480, rozmýšľam nad staršou GTX 280. Aký je ale výkon GTX 460 oproti 280­-tke? Chýba mi porovnanie.
Odpovědět0  0
TheRagstone | 1.8.201011:36
Ja jsem presel z 8800 GT na GTX 460 768 MB, puvodne jsem chtel jen do 1 GB modelu, ale prislo mi to zbytecne, rozdil je minimalni. Osobne bych investoval do novejsi karty, GTX 280 je docela stara a ac stale vykonna ­(GTX 460 je ale o neco vykonnejsi­), tak postrada nejmodernejsi technologie a navic i hodne topi ­(model pred 55 nm die­). Muj model od Asusu jsem hned pretocil na 800 Mhz jadro a 4000 Mhz pameti, teplota 1h Furmark 70c a vetracek bezi 50%, karta slyset neni.
Odpovědět0  0
HitmanCZ | 14.10.201014:47
mam 8800GTX uz 4tym rokem a premyslim o upgrade na gtx 460, o kolik je lepsi ? mas uz urcite zkusenosti z provozu. dik
Odpovědět0  0
Kapucin | 27.10.201016:44
Jsem na tom podobne. Mam Core 2 Duo E8400 + GF8800GT a rad bych grafiku nahradil prave touto GTX 460. Zajima mne narust vykonu a zda se nestane vyraznou brzdou procesor. Vyuziti karty je prave na obcasne hrani CoDu, Battlefieldu apod.
Odpovědět0  0
TheRagstone | 27.10.201020:08
Muj nazor je ten, ze na default frekvenci se bezesporu najdou hry, kdy to E8400 bude brzdit a vymenou gpu za 460 GTX asi moc nepomuzete, rozhodne ne o 50% vykonosti, kterou ta karta ma navrch papirove proti 8800 GT apod. Resim to same u jednoho PC s E8200 + Ati 4770 a nejlepsi vyrianta je jeste pockat a pak rovnou upgrade desky i CPU nebo E8200 pretocit alepson na 3,6 ­- 3,8 ghz. Dle mych testu Mafia 2 na E8200 2,66 ghz + 460 GTX 768 dala 52 FPS, Athlon X4 3,2 ghz dala 67 FPS, Athlon X3 3,2 ghz 62 FPS, Athlon X2 3,2 ghz 48 FPS, cili kazde jadro navic bylo znat. Pro srovnani E3300 3,0 ghz + GT 8800 OC cca. 44 FPS. Dalsi jsem s GTX 460 testoval Dirt 2, tam to take bylo dosti znat od procesoru. Zalezi od hry, u Modern Warfare 2 ten dopad podle mne bude minimalni, ale to je typ hry, na kterou v rozliseni 1680*1050 staci v pohode ta 8800 GT OC. Mrknete i zahranicni servery, tam jsem nekdy videl rozebrani.
Odpovědět0  0
Tomas Dvoracek | 27.10.201020:28
no ja mam Core i7 na @4GHz se 6GB ram, takze pro mne to aktualni asi bude...takze rikas ze +50% ?
Odpovědět0  0
Iron_Storm (30) | 16.7.201011:31
v clanku chybi 20% OC potencial 5850, coz z nej dela nedostiznou kartu a jasou volbu :­) jinak je ale gtx 460 konecne pouzitelna fermi a snad zahybe poradne s cenami :)
Odpovědět0  0
Petr Štefek (1098) | 16.7.201011:40
Schválně jsem tam tot nedával, protože se jedná o kartu v jiné cenovce a navíc je patrné, že OC GTX 460 je na úrovni HD 5850.
Odpovědět0  0
Iron_Storm (30) | 16.7.201012:19
jj pohodicka paradicka
Odpovědět0  0
boboe (123) | 16.7.201013:05
Ono už se to někde projevuje ­- ceny Radeonů HD5350 a HD5850 jdou už někde o pár stokorun dolů. Zatím je to jenom na straně obchodníků ­(jak kde­), očekává se i mírný pokles cen přímo u AMD.

Škoda, že tu tahle karta nebyla už před půl rokem. Teď se těším na odpověď AMD, zda to bude v podobě agresivnější politiky u HD5770, HD5830 a HD5850 ­(jinde stále nemá ­"zelenou­" konkurenci­) či zda popožene vývoj HD6000 ­(tahle řada se původně měl objevit už během podzimu, ovšem podle poslední šuškandy to bude až v lednu­).
Odpovědět0  0
docp0023 (3) | 16.7.201022:26
Agresivni moc nebudou, maximalne spadnou na ceny ze zari... tehdy stala 5770 necelych 3100,­- Ale tak dkyz se od zari jen zdrazovalo tak by se mohlo aji slevnovat konecne :­-)
Odpovědět0  0
Zdeněk Havel (45) | 16.7.201023:30
Nojo, když ona koruna oslabuje a zdražuje se... koruna posiluje a zase zdražuje se :­( ale asi opravdu bude ATI muset slevnit. I když momentálně to vypadá, že do republiky dorazí omezené množství GTX460 a zase bude na chvíli výpadek v dodávce. No ale co, konečně tu máme zase Fermi co nVidia slibovala! Tak teď už se jen rozhodnout, jestli si můj HD4890 nezaslouží vyměnit za GTX460 Cyclone 1GB od MSI a nebo jestli mi to na to občasný hraní pořád ještě stačí. A jinak diskuze opravdu výživná, zvláště ta pasáš o rozlišeních monitorů pobaví :­-­) Tož zdar všem a díky za pěknou recenzi.
Odpovědět0  0
juraj7 (5) | 16.7.20109:38
Celkom pekny clanok, avsak ked sa tie karty uz v OC testovali, tak by zaujimalo ako sa zmeni ich spotreba a teplota. Za pripadne doplnenie dakujem.
Odpovědět0  0
boboe (123) | 16.7.201010:14
No, možná kdybychom hezky poprosily, tak by mohli udělat test zaměřený na OC karty.
Odpovědět0  0
Petr Štefek (1098) | 16.7.201010:41
Zkusím něco vymyslet .. tento doudílný článek jsem dodělal jak se říká ­" s jazykem na vestě­":)
Odpovědět0  0
Boomy (13) | 16.7.20107:53
Je hezke ze ukazujete v testu kolik ma snimku normalni 460 a pretaktovana, bohuzel t srovnavate jen s nepretaktovanou atinou :(
Odpovědět0  0
Palec123 (12) | 16.7.20108:23
Ja tento krok vitam, alespon je videt realny narust vykonnu. Beznou praxi je kartu pretaktovat, v clanku pak uvest screenshot s takty, maximalne nove skore v 3D marku ­- ktere ti ale nerekne temer nic. Tady to muzes porovnat. Vykon pretaktovanych ATi ­- na to koukni do nejakeho starsiho clanku. Vis jaky by v tom byl bordel, kdyby se kumulovali vysledky vsech testovanych karet a jejich pretaktovanych vykonnu? Bylo by to necitelnne a malo kdo by byl ochoten v grafech hledat sveho favorita.
Odpovědět0  0
Palec123 (12) | 16.7.20108:26
omlouvám se za slovo výkonnů ­- nevím kde jsem vzal to, že tam patří dvě n. To je tak, když člověk hned po ránu sedí u počítače:­)

Ještě jednou, promiňte!
Odpovědět0  0
Petr Štefek (1098) | 16.7.20109:37
Přesně jak říká kolega ... museli bychom taktovat potom HD 5770, HD 5830 i HD 5850.
Odpovědět0  0
boboe (123) | 16.7.201010:09
Já se přikláním k názoru, že srovnávat PŘETAKTOVANOU kartu s nepřetaktovanými je VELICE ZAVÁDĚJÍCÍ. To, že se nějaká karta získá přetaktováním 10% výkonu a dotáhne silnější kartu ­(příp. výrazně uteče srovnatelné kartě­) má prakticky NULOVOU vypovídací hodnotu, neboť výkonnější­/srovnatelná karta může mít nakrásně taktovací potenciál 20%.

Když už z nějakého důvodu musíte míchat karty na referenčních taktech s OC verzemi, nebylo by třeba možné přidat někam grafík, kde by byly srovnány i nárůsty výkonu jednotlivých karet dosažené přetaktováním? Něco ve stylu:

Karta 1 ­(OC takt­): +20%
Karta 2:­(OC takt­): +15%
.
.

Mysli, že by to neměl být problém, protože ve většině případů máte testované karty i v OC, takže data asi k dispozici jsou.
Odpovědět0  0
boboe (123) | 16.7.201010:21
Jinak velice pěkný test. Supr výběr ostatních karet, snad jenom GTX465 tam chybí ­(podle některých testů to vypadá, že GTX460 1GB je výkonnější­).

A ještě jeden trochu obecnější dotaz ­- bude se v testech ještě někdy objevovat rozlišení 1280x1024 či podobné odpovídající 19­"LCD? Samozřejmě, u high­-endu či mainstreamu ­(tenhle test­) to asi nemá smysl, ale až někdy dojde na testy slabších grafik ­(typ HD5700 a nižší či až něco podobného vykutí i nVidia­)?
Odpovědět0  0
Petr Štefek (1098) | 16.7.201010:40
Původně měla být, ale nějak nedorazila zatím:­)... GTX 465 doměřím do samostatné rcenze až dojde.

1280x1024 už moc smyslu bohužel nemá ... snad s vysokým AA... dnes toto rozlišení zvládají i velmi levné karty.
Odpovědět0  0
boboe (123) | 16.7.201013:00
Jak jsem psal, je samozřejmě nesmysl v tomto rozlišení testovat karty jako HD5850 a více.

Na druhou stranu podle různých průzkumů a statistik je rozlišení 1280x1024 prakticky nejběžnější rozlišení na všech počítačích ­(ovšem nikoli jen herních­).

Sám sebe se považuji za ­"něco­" mezi hráčem a příležitostným hráčem a již několik let jsem s rozlišením 1280x1024 na kartách ­(Radeon 9200, HD2600XT resp. HD5750­) naprosto spokojen.

Proto bych se přimlouval, kdyby se v testech ­"nižšího­" segmentu grafik toto rozlišení objevilo.
Odpovědět0  0
Petr Štefek (1098) | 16.7.201013:40
U nižšího bývá ...pokud si pamatuju třeba u GT240, HD 5670 bylo určitě
Odpovědět0  0
CRYSIS (72) | 16.7.201014:06
Pomalu nemá smysl ani 1680­/1050. Mám 16:10 monitor, pak další zobr. zařízení 1920­/1080 ­- 16:9. Monitor je nechutně úzká a vysoká potvora, 16:9 je akorát. Optimum je 21:9 a více. Rozlišení 1280­/1024 je prehistorické, o zážitku se tedy rozhodně mluvit nedá. Já říkám toto: Tady to rozlišení netestovat, zbytečně budu muset scrollovat dolů.
Odpovědět0  0
boboe (123) | 16.7.201016:22
To je teda kvalitní názor: ­"Já mám vysoké, tak netestujte nízké­".

Takže až budou testovat GTX440­/430 vs Radeon HD5750­/5650, tak mají být testy plné výsledků typu min FPS 5 a avg FPS 10???

A co se týče přehistoričnosti rozlišení 1280x1024, je to stále podle statistik celosvětově nejpoužívanější rozlišení ­(vystřídalo loňského krále 1024x768. Bude to sice zkresleno neherními kancelářskými stroji, ale spoustě lidí stačí na paření 19­"LCD a karta za 3 tisíce.
Odpovědět0  0
CRYSIS (72) | 16.7.201018:36
Wide monitory jsou dnes za pár šupů, takže 19­" LCD je silně nenormální monitor. Takové fps, jak píšete výše, nebude u většiny her, karty za 3000 zvládají hry na max. detaily.
Odpovědět0  0
Argeleb | 16.7.201019:30
Ne kařdou hru zvládá karta za 3k na 1280x1024. Sám mám toto rozlišení a 5770 a jsou hry jako např. Stalker Clear Sky, Crysis atd., jejich fps se převaluje průměrně kolem 30. Jinak co se týče nenormálnosti monitorů 19­" a poměru 4:3; mě osobně vyhovuje ten to poměr stran a naopak se s despektem dívám na ty dnešní širokoúhlé nudle jako je 16:9, je to věc názoru a zvyku.
Odpovědět0  0
Martan67 (38) | 19.7.201015:00
Wide monitory jsou sice dnes za ­"pár šupů­" ale jsou to vesměs nepříliš kvalitní TN­-ka, navíc s poslední dobou všudypřítomným poměrem stran 16:9. Tento poměr stran je ­(zvláště v rozlišení FullHD­) celkem prima na sledování filmů, a obstojně použitelný i v současných hrách, ale to je tak asi všechno! Na práci je to na nic! Široká nízká nudle rozhodně není nejlepší řešení na ­"kancelářskou práci­" ­(práce s textovými dokumenty, tabulkami atp.­), na čtení webu, editaci fotografií, práci s grafikou, CAD aplikace, ... Mohl bych pokračovat dále. Když už širokoúhlý monitor, tak s poměrem stran 16:10 ­(1680x1050, 1920x1200, atd.­). Bohužel, nejen u nejlevnější kategorie monitorů, se stále víc rozšiřují ty příšerné úzké ­"nudle­" :­-­(.
K tomu rozlišení: Zdaleka nejen v kancelářích, ale i ve spoustě domácností jsou stále velmi rozšířené 19­" ­(ba i 17­") s rozlišením 1280:1024. Tohle rozlišení tak ještě dost dlouho nebude nějaké okrajové. V kombinaci střední a nižší třídy grafických karet, průměrně výkonných počítačů a nejnovějších her je navíc toto rozlišení mnohdy optimální pro zajištění bezpečné plynulosti hry.
Odpovědět0  0
docp0023 (3) | 16.7.201022:23
Testujou se dnesni hry, dnesni rozliseni, vzdyt dneska FullHD mam kazdy lcd za pakatel...ale ty atiny jste nataktovat mohli !!!­(meli)
Odpovědět0  0
CRYSIS (72) | 16.7.201023:56
Taktuje se většinou recenzovaný kus, každému je jasné, že další karty si přilepší o 10%, kdyby se přetaktovaly také. Mohlo to být ale přetaktovany všecko, to je fakt.
Odpovědět0  0
Jova_2010 | 16.7.20106:19
Pěkný dvojčlánek,ale postrádám nějaké porovnání výkonu v aplikacích využívajících CUDA.
Ne každý totiž hraje hry a třeba mě by zajímal rozdíl při použití pro renderování videa ­(např. TMPGEnc4XPress­).
Má velikost paměti, šířka sběrnice a počet renderovacích jednotek na výkon CUDA nějaký podstatný vliv?
Odpovědět0  0
Petr Štefek (1098) | 16.7.20109:36
Dle mého názoru nemá toto vliv ...
Odpovědět0  0
Pavel Kovač (1033) | 16.7.201011:43
Tak vliv to rozhodne ma. Nechapu jak tohle nekdo muze rict. Zkousel to v redakci nekdo? Nebo je to jen vystrel do tmy?
Mam to overeno na vic CUDA vypoctech od Matlabu, pres zminovany TMPGEnc4XPress az po napr. Arion nebo Octane render. Myslim ze napr. Arion render by bylo dobre zaradit jako testovaci aplikaci na CUDA. Arion je velmi povedeny a timhle smerem se budou vsechny rendery ubirat pristich par let. Scenu pro Arion klidne vytvorim ;­-)
Odpovědět0  0
Petr Štefek (1098) | 16.7.201012:22
A můžeš mi říct proč by měla šíře sběrnice ­(tady není úzké hrdlo pro GPGPU­) a počet renderovacích jednotek vliv na výpočty? ... jediné co teoreticky vliv mít může je velikost paměti pro specifické úlohy.
Odpovědět0  0
Milan Šurkala (5151) | 16.7.201016:59
Sice jsem uz nejaky ten mesic v CUDE neprogramoval, ale pokud je programator liny tvor a napise program jen s globalni pameti ­(tzn. vsechna data si nechava v te nejvetsi pameti­), pak bych ocekaval rozdil. Samozrejme pokud se to poradne zoptimalizuje a nesaha se pro kazdy bajt az do hlavni pameti, ale pekne se to natahne do sdilene, rozdil by nemusel byt dramaticky. Ale jak rikam, nejakou dobu jsem v tom uz nedelal a posledni grafarna, pro kterou jsem programoval, byla GF9600GT :­-)
Odpovědět0  0
Petr Štefek (1098) | 17.7.201010:00
V pohodě jak jsem si nepřečetl o jaké aplikace se jedná, tam to skutečně přínos jakýsi mít bude. Ale těžko teoretizovat, chtělo by to ten test.
Odpovědět0  0
Petr Štefek (1098) | 16.7.201012:24
A jo beru zpět je horko:­) ..tam kde používáš to smysl dává:­).
Odpovědět0  0
Pavel Kovač (1033) | 16.7.201012:55
JJ je :­-­) taky se lepim ke stolu pri renderech :­-­)
Ja to bral hlavne z praktickeho hlediska... kazdopadne urcite by byl dobry nejaky CUDA test ­(neherni­). Jak rikam, klidne scenu vytvorim, na vas je ­"pouze­" obstarat Arion render. Svoji licenci vam nedam :­-)
Odpovědět0  0
Petr Štefek (1098) | 16.7.201013:17
No ono to je u podobných testů problém, že Profi soft autoři obvykle nevlastní ... uvidíme, co by se s tím dalo dělat:D
Odpovědět0  0
Pavel Kovač (1033) | 16.7.201013:33
zkus napsat do RandomControl a uvidis jestli vam nepujci jednu licenci... oni jsou celkem vstricni ;­-)
Odpovědět0  0
Chytrák | 12.1.201119:09
Octane render neumí využívat CUDA.Dokonce se zapnutou CUDA technologií ti nevyrenderuje a primitivum jako je koule :D
Odpovědět0  0
Pavel Kovač (1033) | 12.1.201120:30
http:­/­/www.refractivesoftware.com­/faq.html
zvlastni ze je zde vyuzivana CUDA. Navic jsem to testoval na NVIDII a bez CUDA driveru to nebezi :­-­). Takze nevim kde jste prisel na to ze Octane render nevyuziva CUDA...
Odpovědět0  0
Alexein | 12.1.201122:52
Ještě sem nezažádal o novou verzi,ale ta co mám v nastavení přímo píše,abych deaktivoval CUDA.
Odpovědět0  0
Alexein | 12.1.201122:54
Aaaaaa blbnu tvl. :D Měl jsem namysli SLi zapojení.Sem dneska fakt unavenej:­)

sorry
Odpovědět0  0
Trunda | 16.7.201013:48
Taky by mě to zajímalo... v porovnání se stejně drahými Quadro FX grafikami.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.