Test pěkný, ale dost dobře nechápu, proč jako minus grafické karty je nedostatek DX11 her? Podle mě do +- patří věci, které přímo souvisí s grafikou (cena, spotřeba,....) ale né nedostatek her, to je nějaká chyba grafiky či tak něco? V tom případě jsem si nevšiml, proč třeba GTX 4x0 nemá jako minus nedostatek CUDA aplikací?
Nebo máte nějakou povinnost, že každá recenze musí něco mít v plus a minus?
Nebo máte nějakou povinnost, že každá recenze musí něco mít v plus a minus?
Odpovědět0 0
HD 5570 zatím reálně na trhu moc není, proto je cena uměle vyšroubovaná a za tuhle cenu to je opravdu propadák... ale to se zlepší.
Jinak za stávajích podmínek bych kupoval přesně jak píšete, 5450 do HTPC případně 5670 pro občasné lehké hraní. Ale skutečný propadák mi přijdou karty typu GT220, o herním výkonu se nedá mluvit, cena je vysoká a konkurence za stenou cenu nabízí výkonější, s lepší podporou technologií, eyefinity a v neposlední řadě spotřebu a ta je u HTPC důležitá...
Jinak za stávajích podmínek bych kupoval přesně jak píšete, 5450 do HTPC případně 5670 pro občasné lehké hraní. Ale skutečný propadák mi přijdou karty typu GT220, o herním výkonu se nedá mluvit, cena je vysoká a konkurence za stenou cenu nabízí výkonější, s lepší podporou technologií, eyefinity a v neposlední řadě spotřebu a ta je u HTPC důležitá...
Odpovědět0 0
Cena přes 4k je opravdu přemrštěná kvůli nedostupnosti-bohužel:(
že nemá výkonem výkonem na GTX260? To bych zrovna netvrdil, budou víceméně vyrovnané, ale technologie a spotřeba jednoznačně mluví pro HD5770. 4k byla vysoká cena, ale blbost si určitě neudělal. Nicméně jestli sis chtěl polepšit z GTX260, tak ve výkonu to nemůžeš poznat a pak si blbost udělal:)
že nemá výkonem výkonem na GTX260? To bych zrovna netvrdil, budou víceméně vyrovnané, ale technologie a spotřeba jednoznačně mluví pro HD5770. 4k byla vysoká cena, ale blbost si určitě neudělal. Nicméně jestli sis chtěl polepšit z GTX260, tak ve výkonu to nemůžeš poznat a pak si blbost udělal:)
Odpovědět0 0
tak tak, za tu cenu jedinečná volba:)
Odpovědět0 0
Nejsi sám a ani my dva nebudeme sami :D
Pokud chce dnes někdo kartu na hraní, tak tyhle low-end nemají smysl a ani co nabídnout. Vím že zatím DX11 hry nejsou, ale brzy budou a nebude jich málo a dle mého je zbytečné za pár měsíců kupovat novou kartu jenom kvůli DX11...?? Ikdyž dostupnost Radeonů HD 5xxx je děsná a to nehorázně vymrštilo ceny :(
Pokud chce dnes někdo kartu na hraní, tak tyhle low-end nemají smysl a ani co nabídnout. Vím že zatím DX11 hry nejsou, ale brzy budou a nebude jich málo a dle mého je zbytečné za pár měsíců kupovat novou kartu jenom kvůli DX11...?? Ikdyž dostupnost Radeonů HD 5xxx je děsná a to nehorázně vymrštilo ceny :(
Odpovědět0 0
Ubohý? Ubohý mi přijde váš příspěvek... Dejme tomu že má podobný výkon jako 4870 takže 5770 je sice o pár korun dražší ale nové technologie a mnohem nižší spotřeba - za rok ti ten cenový rozdíl srovná a pak jenom ušetříš:)
podle mě jasná volba...
podle mě jasná volba...
Odpovědět0 0
Připojuji se se stejným dotazem, beru že Intel je častější tak by měl v testu více modelů, ale alespoň pro představu zahrnout třeba Phenom II X2 a X4? To je vážně takový problém?
Odpovědět0 0
Nesedí mi výkony v téhle hře. CF tu vždy fungoval a SLI ne, proč mi připadá že to je obráceně? A pro HD5xxx očividně nejsou připravený ovladače...
Jinak díky za krásný test:)
Jinak díky za krásný test:)
Odpovědět0 0
ano na půl roku protože pak už budou aktuální DX11 hry a je škoda si to nevychutnat v plné kráse ne? Ano, 58x0 jsou poměrně drahé karty ale do měsíce tu budou levnější verze na které bych si počkal:)
Odpovědět0 0
Ano, určitě spadnou dolů ale nenapadá mě logický důvod je kupovat? Ano, za svoji cenu nabídnou opravdu hodně, ať už HD48xx tak GTX 2xx, ale kdo si bude takovou kartu kupovat na půl roku?? Osobně takovýho blázna neznám a ten kdo do grafiky šije prachy už ji dávno má a čeká na HD5xxx:) případně GT300 ikdyž bůhví jestli se vůbec dostanou do prodeje dřív než za půl roku?
Odpovědět0 0
HD4890 má jednoznačně (až na vyjímky) vyšší výkon než GTX260. Nicméně obě karty jsou dnes myslím trochu mimo hru díky nové řadě HD 5xxx. Neřikám že hned budou hry podporující DX11 (ikdyž třeba Dirt 2 :P ) ale má smysl tuhle kartu kupovat na čtvrt roku? Myslím že vůbec ne, kdo takovou kartu chtěl tak ji dávno má... dnes ji těžko někdo koupí, leda opravdový BUFU?
Odpovědět0 0
Realita je bohužel někde jinde, samozřejmě to jsou PR žvásty... ano v některých specifických odvětvích (viz medicína a rakovina) to je určitě vítané zvýšení výkonu, ovšem o to více se to vzdaluje použití v běžných počítačích a domácnostech. Je sice fajn, že v nějaké laboratoři jim to ušetří hromadu času, ale jaký to má význam pro obyčejné lidi? Uzavřenost programování pod CUDA... OpenCL má v tomhle směru mnohem větší potenciál, jakožto univerzální nástroj, ale to se v PR rozhovoru samozřejmě objevit nesmí...
Nicméně jako zajímavost to není špatné:)
Nicméně jako zajímavost to není špatné:)
Odpovědět0 0
Píšete že karta nejde moc dobře taktovat, co jsem viděl testy zahraničních serverů tak tam to zase dosti chválili. Jádro měli na 950Mhz a paměti na 4Ghz, někde i 4,2Ghz což mi přijde jako velmi solidní výsledek. O změně chladiče nepsali takže pravděpodobně měli původní. Nicméně sám jsem kartu v rukách neměl, takže netvrdím že to tak zaručeně musí být....
Odpovědět0 0
Mě přijde, že jde o naprosto zbytečné rýpání. Ten kdo trochu ví co to znamená to pochopí ať je to napsáno tak či tak...
Odpovědět0 0
Jistě že obě karty jsou vynikající, o tom se nehádám-sám nevím, kterou bych v případě nákupu zvolil.
Ale když teď napíšete, že by jste volil podle preferencí tak si protiřečíte nadpisu článku, kde máte označenou nejlepší nabídku trhu...??
Ale když teď napíšete, že by jste volil podle preferencí tak si protiřečíte nadpisu článku, kde máte označenou nejlepší nabídku trhu...??
Odpovědět0 0
"Tento rozdíl je ovšem roven zhruba 300korunovému rozdílu nejlevnějších značek ve prospěch Radeonu HD 4890."
Já podle zbozi.cz našel HD 4890 od 5200kč, GTX 275 od 5750kč což není rozdíl tří stovek ale pětikila (ikdyž o tyhle nejlevnější modely se nedá zrovna dobře opírat) takže tady má nVidia ztrátu. Dále jste měli v testu 9 her, GTX 275 "vyhrála" 4, takže HD 4890 zbývajících 5? Přijde mi, že obě kategorie vaše "nejvýhodnější nabídka na trhu" lehce projela..
Nebo jste porovnával 4890 a OC verzi GTX 275?? Jestli ano, tak by to chtělo porovnávat s OC verzí radeona, ale to už jsou zase o kus vyšší ceny.
Jste opravdu přesvědčen o "nejvýhodnější nabídka na trhu" nebo to nebyl zrovna čistý test??
Já podle zbozi.cz našel HD 4890 od 5200kč, GTX 275 od 5750kč což není rozdíl tří stovek ale pětikila (ikdyž o tyhle nejlevnější modely se nedá zrovna dobře opírat) takže tady má nVidia ztrátu. Dále jste měli v testu 9 her, GTX 275 "vyhrála" 4, takže HD 4890 zbývajících 5? Přijde mi, že obě kategorie vaše "nejvýhodnější nabídka na trhu" lehce projela..
Nebo jste porovnával 4890 a OC verzi GTX 275?? Jestli ano, tak by to chtělo porovnávat s OC verzí radeona, ale to už jsou zase o kus vyšší ceny.
Jste opravdu přesvědčen o "nejvýhodnější nabídka na trhu" nebo to nebyl zrovna čistý test??
Odpovědět0 0
Test vcelku pěkný, ale tento procesor mi tam CHYBÍ. Když tam je I7, měl by tam být i tenhle nejsilnější od AMD, i tak je o cca 1500kč levnější než I7 920
jinak grafy bych uvítal seřazené podle výkonu, né rozházený blok AMD a rozházený blok Intel...
jinak grafy bych uvítal seřazené podle výkonu, né rozházený blok AMD a rozházený blok Intel...
Odpovědět0 0
Kluku kde to prosimtě žiješ?
1) podívej se na prezentace nVidia a nové ovladače(bigbang nebudu zmiňovat), performance up to 10%, 15%, 20%... naprosto normální, prostě další vylepšení jako u všeho. Patche na hry, aktualizace systému.... Jestli si myslíš že si tak dokonalej tak si něco naprogramuj tak, ABY TO NIKDY NEŠLO ZLEPŠIT. To je prostě nesmysl, kor u takhle komplexního softwaru...
2) jestli máš namysli to, že u nVidie se posledníma ovladačem moc výkon nezvedá. Zkus přemýšlet čím to bude, lehká nápověda-že by už druhým rokem téměř stejné grafické jádro pod jiným názvem? Kdyby tu měla ATI řadu 4xxx druhým rokem, věř že by toho už taky moc ovladačema nezlepšovali :D
Ale pokud si zarytý fanda nVidie(což ti nemám za zlé, taky jsem byl) tak to nepochopíš, podívej se na to z nadhledu a né jenom z pohledu nVidia je super, nVidia je zlatá a všechno ostatní je na *ovno:)
1) podívej se na prezentace nVidia a nové ovladače(bigbang nebudu zmiňovat), performance up to 10%, 15%, 20%... naprosto normální, prostě další vylepšení jako u všeho. Patche na hry, aktualizace systému.... Jestli si myslíš že si tak dokonalej tak si něco naprogramuj tak, ABY TO NIKDY NEŠLO ZLEPŠIT. To je prostě nesmysl, kor u takhle komplexního softwaru...
2) jestli máš namysli to, že u nVidie se posledníma ovladačem moc výkon nezvedá. Zkus přemýšlet čím to bude, lehká nápověda-že by už druhým rokem téměř stejné grafické jádro pod jiným názvem? Kdyby tu měla ATI řadu 4xxx druhým rokem, věř že by toho už taky moc ovladačema nezlepšovali :D
Ale pokud si zarytý fanda nVidie(což ti nemám za zlé, taky jsem byl) tak to nepochopíš, podívej se na to z nadhledu a né jenom z pohledu nVidia je super, nVidia je zlatá a všechno ostatní je na *ovno:)
Odpovědět0 0
Určitě, krok dozadu to není a proč si trochu nepolepšit:) Nemůžeme od každé verze ovladačů čekat nárůst 20% :D
Odpovědět0 0
Vážně je to tak nepochopitelný? :O
Odpovědět0 0
Podle mě jsou grafy značeny dostatečně dobře na snadné pochopení, žádný problém tam nevidím....
problém bych viděl u ceny 2500kč za tuhle kartu, vždyť HD 4670 s pasivem se dá koupit vpohodě okolo 2000kč a jako bonus má o kapku nižší spotřebu
problém bych viděl u ceny 2500kč za tuhle kartu, vždyť HD 4670 s pasivem se dá koupit vpohodě okolo 2000kč a jako bonus má o kapku nižší spotřebu
Odpovědět0 1
Ty zase P... s velkým P;)
Odpovědět0 0
Předpokládám minimální a průměrný fps:)
Odpovědět0 0
Obchod je obchod a marketing v tom udělá své. Prakticky téměř každý obchod je svinsvto už samo o sobě, ale vše má někde hranice a tímhle přejmenováním je nVidia pokořila už víckrát....
Kluci by se tam měli vzpamatovat
Kluci by se tam měli vzpamatovat
Odpovědět0 0
Parádní článek s maximálním obsahem. Podobný přehled jsem ještě nikde nenašel...
Odpovědět0 0
tak v porovnání s tou 7050 budeš hoodně mile překvapen:) Mám v notesu integrovanou 6050 a už nikdy víc-brečím. Na tvém 19" monitoru bys měl zahrát úplně vše s vysokýma detailama a vyhlazováním:)
Odpovědět0 0
Souhlasím s příspěvkem předemnou, zdroj utáhne i HD 4850... Jinak před 9600 bych určitě taky dal přednost HD4830
Odpovědět0 0
Mám stejný názor, za tuhle cenu je to holý nesmysl:) ikdyž kdyby to byla pravda, tak je to jasná volba, jenomže kdo by tak podrazil cenu 9800? By se staly naprosto neprodejnými kousky...
Odpovědět0 0
Máš pravdu ty i DD, návrh jádra GT200 je vsuktu technologicky zaostalá věc, slibovali jak tím každýho posadí na p*del a ani GDDR5 to nepodporuje... a modely přeznačují že by dva brečeli... ale stejně tak tohle xx% lidí nemusí zajímat a nezajímá což máš jistě pravdu.... spoustě lidí určitě stačí vidět porovnání výkonu jako je v tomhle testu:) otázka vkusu...
Odpovědět0 0
Ano ATi je zde hodně znevýhodněná starou verzí ovladačů, s novými by byl žebříček karet trochu zamíchán.
A závislost CPU na výkon hry? Poměrně malý, ale i tak mi vadí že tam není ANI JEDEN CPU ze stáje AMD... snad příště
A závislost CPU na výkon hry? Poměrně malý, ale i tak mi vadí že tam není ANI JEDEN CPU ze stáje AMD... snad příště
Odpovědět0 0
Správné rozhodnutí. Ve většině her bys okem zlepšení z 3870 na 9800GT nepoznal si myslím(nemyslím fraps). 4850 má víceméně dvojnásobný výkon a cena není o tolik vyšší.
Odpovědět0 0
Velmi pěkný test, oceňuji i srovnání se staršíma kartama typu HD 3850 atd. Nevím jak máte/nemáte dostupnou GTX 295 která by se mi v testu docela líbila, ikdyž zatím asi utopie:) a stejně tak když máte SLI GTX280 tak bych uvítal trochu extrémní řešení CF 4870X2 jestli tam je nějaký nárůst výkonu nebo ne...? Sice by to bylo trochu dražší řešení než SLI GTX 280 ale zároveň se to dá říct obráceně v tomhle případě... ale to jsou víceméně drobnosti:)
Odpovědět0 0
Přesně tak, postavit tam dvě "děla" intelu a takovou vykopávku od AMD... Když už tak aspoň celeron 1,8Ghz kterej by to určitě prohrál xD Dát test kde by byl jednojádrový celeron proti X2 6000+ a proti Phenom X4 jak by to vypadalo? ...
Odpovědět0 0
Věřím že je to časově velmi náročné, ale X2 mi tam velmi chybí. Phenom by byla "zbytečnost", že více jader je v tomhle případě k ničemu je viděl na 4jádru od intelu. Ale X2 jsou hodně povedený procesory a zajímaly by mě rozdíly na stejným taktu oproti C2D..?
Odpovědět0 0
Já jsem zase ujištěn že jste až moc zelený. Sice jsem vždy fungoval na kartách nVidia-počínaje 5200FX a 7600GS konče, celkem asi 5karet. Ale s tím co píšete nemůžu souhlasit. Ano PhysX je určitě pokročilejší, vypadá malinko lépe ale upřímně kdo lupou prohlíží svojí 22" obrazovku? Možná zelení aby řekli že to vypadá lépe a přitom to z metru nikdo nepozná. PhysX těžko pojede na jiných platformách než PC a tam vládne velká míra pirátství takže nové GTA jde asi správnou cestou. Je třeba dělat univerzální soft a tím PhysX určitě není nehledě na velmi náročné programování... HAVOK je velmi univerzální a podpora, troufám si říct dnes nejlepších karet na světě firmy AMT ATi HD48xx zašlapává poprávu nVidia karty do země. Řada 9xxx není nic jiného než přejmenované 8xxx takže nevíte co kupujete, jenom se nVidia potřebuje zbavit starých čipů a řada 8xxx je mnohdy výkonnější než ta nastávající a o pěkně zdupaných GT200 nemluvě, kartu s tímto jádrem si může koupit pouze *** aneb fanda zelených. 4 karty z 5ti končí na reklamaci a výkon je o pár % vyšší než u HD 48x0 za poloviční cenu.
Takže po takovém článku tvrdím že máte od zelených zaplaceno víc než moc a taky dost silný střeva na napsání takových nesmyslů.
Havok má podporu AMD ATi, Intelu a Microsoft ho na 99% implementuje do DX11 ve kterém je budoucnost, to se o PhysX říct nedá ani OMYLEM. Tím nechci PhysX vyškrtnout ze seznamu, ale nedělal bych z toho něco co tu ještě nebylo...
Takže po takovém článku tvrdím že máte od zelených zaplaceno víc než moc a taky dost silný střeva na napsání takových nesmyslů.
Havok má podporu AMD ATi, Intelu a Microsoft ho na 99% implementuje do DX11 ve kterém je budoucnost, to se o PhysX říct nedá ani OMYLEM. Tím nechci PhysX vyškrtnout ze seznamu, ale nedělal bych z toho něco co tu ještě nebylo...
Odpovědět0 0