Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od boboe
Tak trochu jsem čekal komplexní srovnání jednotlivých dílů. Dočkal jsem se pouze srovnání grafiky prezentované na statických obrázcích se zaměřením na stromy podél trati.
Když pominu, že při hraní jsou tyto ­"detaily­" mimo pozornost hráče, resp. v rychlosti nemá oko šanci tyhle detaily zachytit, pořád je tu fakt, že kvalita hry se sestává z mnoha dalších aspektů. Asi nejdůležitějším je hratelnost, ale třeba nelze opomenout, že Underground díly byly inovátorské po stránce hudebního doprovodu.

Kdyby titulek specifikoval, že se článek bude věnovat pouze detailům v grafice, asi bych neřekl ani popel. Ovšem takhle jsem se stal obětí Cimrmanovy frustrační kompozice ­- pocit očekávání vystřídal pocit zklamání.
Odpovědět1  0
No, dočasně ­(snad­) jsem odsouzený používat 19­"monitor s rozlišením 1280x1024. A tady to jede ­"na plné peckyů i na celkem postarší sestavě Athlon X2 4400, 3GB RAM a Radeon HD5750. Nepozoruju ani nějaké záškuby, kromě těch, kdy je pomalá response ze serveru ­(a to naštěstí není moc často­).

Ad kvalita hry: Ze začátku ­(cca odpovídající veřejné betě­) jsem byl dost zklamaný, ovšem pak se to pořádně rozjelo a už bloumám Nightmare s barbarem na 38lvl.
Odpovědět0  0
Ano, v plánu je skutečně verze pro AMR platformu, ale ta rozhodně nevyjde letos, proslýchá se něco o polovině příštího roku.

Osobně si myslím, že na integraci mobilní a desktopové platformy je brzo ­(rozdíl v ovládání, využití a konečně i výkonostní rozdíl mezi x64 a AMR platformou­) a uživatelé se rozdělí na mobilní ­(co budou používat metro­) a desktopové ­(co pojedou na klasickém Aeru­).
Odpovědět1  1
Tuhle hru mám a musím říct, že ač je to graficky načančané, po herní stránce je propastně horší, než F1 2010.

nejhorší je fakt, že hra má buď směšně lehkou nebo drsně vysokou obtížnost, která se schovává za jedinou volbou v driving assists: ­"kontrola trakce­". Pokud nastavíte plnou, není problém celému startovnímu poli ujet během 10kol o více než minutu, kvalifikace vyhrávat s 2s náskokem a podobně ­(samozřejmě s Lotusem nebo HTR­). Naproti tomu už při volbě medium je umění projet zatáčku a to i při mravenčí práci s plynovým pedálem.
Úplně sparchantělá komunikace s boxy či nemožná změna strategie behem závodu jsou už jenom třešinou na dortu.
Odpovědět0  0
mám podobný pocit ­- Jednička super ­(ze začátku sice trochu zmatené, ale ke konci to opravdu mělo hutnou atmosféru­). Dvojka tak nějak podobně, trochu slabší, ale pořád stála za to.

Přiznám se, že smysl trojky jsem prostě nepobral. Přijde mi, že to nemá hlavu ani patu, o atmosféře nemluvě. Navíc styl nějakých bonusů se do hororové hry rozhodně nehodí.
Odpovědět0  0
to teda NEBYL! Pravda, příběh neměl ­(možná jenom náznak, ale rozhodně to bylo lepší, než současná za vlasy přitažená ptákovina­), mohl si hodit na hřbet tunu zbraní a ještě s sebou táhnout vagón munice. Po poměrně rozsáhlých levelech ­(na tu dobu pěkně a logicky navržených­) se muselo lítat sem a tam ...

zkrátka vývojáři si ze starého Duka vzali jenom povrchní pozlátko a zbytek předělali do zjednodušujícího a parchantizujícího kabátku.
Odpovědět2  0
Tahle hra je jedním slovem hloupá. Autoři se snažili Dika asi hodně ­"nahypovat­", ale výsledkem je oplzlý trapák trousící hlášky jedna za druhou. Pravda, polovina jich ke OK, druhá je ale ­(nemám jiné slovo­), trapná. Příběh je opravdu stupidní a hratelnost rozhodně nedosahuje orgií původního Duka.

Proč můžu nosit jenom dvě zbraně?? Proč ve všude tak málo munice?? Žádné secrety?? Žádné ­"keycard­" ­(máme místo nich dnes tak oblíbenou ­"tunelovou­" lineární cestu­)?? Proč?? Proč?? PRÓÓÓČ????
Odpovědět4  0
No nevím ­- na mojí HD5750 jedou všechny ovladače OK. Občas nějaká verze přinese malý nárůst výkonu ­- rozhodně od nákupu karty zhruba před rokem výkon díky ovladačům rozhodně narostl. Jináč zatím bez výše popisovaných problémů ...
Odpovědět0  0
To oceňuji. Vždyť mě znáte, jsem starý rejpal ...
Odpovědět0  0
No, nutno brát v úvahu, že se jedná o referenční model a ty nikdy nějakým úžasným chlazením neoplývaly. Renomovaní výrobci chladičů už jistě něco kutí ­(už jsem někde četl i o připravovaném vodníkovi­), jistě se objeví kousky, kde bude hlučnost úplně někde jinde.
Odpovědět0  0
Souhlasím s vámi v té spotřebě ­- tak je nežádoucí ­(byť je karta efektivnější, než konkurence, stále žere opravdu hodně­). Tady beru tu vaši tabulku jako korektní ­(byť ve mě stále hlodá červíček, proč obdobná výtka nebyla např. pod recenzí GTX580, která s o pár procent nižší spotřebou má někdy jen poloviční výkon­)

Co se týče ceny, tam bych ji rozhodně jako mínus neuváděl ­(v tabulce či textu­), a to vzhledem k faktu, že HD6990 má bezkonkurenčně nejlepší poměr cena­/výkon ze všech karet na trhu.

Odpovědět0  0
Tak nějak dumám, proč jsou spotřeba a cena uváděny jako mínus. Samozřejmě, sama o sobě je spotřeba i cena vysoká, ovšem pokud to porovnáme s ostatními high­-end kartami, přijde mi, že vzhledem k výkonu je to více než adekvátní. Z pohledu ceny a spotřeby je rozhodně výhodnější, než 2xGTX580 či 2xHD6970 ­(a podle prosakujících informací i než GTX590­).

Ale říkám, to je můj subjektivní dojem.
Odpovědět1  0
No uvidíme. V poslední době jsem zaregistroval minimálně 3 další firmy, které se na tento trh chystají ­(vícejádrový AMR procesor + grafické jádro­) a plány mají ještě ambicióznější než nVidia ­(vyšší výkon, vyšší frekvence, atd.­). Na druhou stranu, s platformou AMR mají daleko delší zkušenosti než nVidia.
Odpovědět0  0
Nevím nevím, ale jestli mi při hraní něco vadilo, tak to byla v některých situacích právě fyzika. Mnoho předmětů má tak nějak divnou setrvačnost, obrovský kus železa jakoby nic nevážil, obrovskou horu zmutovaného masa před sebou můžete bez problémů chůzí tlačit. Stejně tak interakce mrtvých těl s jinými pohyblivými částmi prostředí ­(třebas takové dveře­) je občas dosti podivná ­(různé pronikání, třepání, chrastění a čvachtání­).

Jináč co se týče náročnosti, na mojí HD5750 + Athlon X2 4400 to v rozlišení 1280x1024 sviští naplno bez sebemenšího problémů.
Odpovědět0  0
Blbe to vypadá, když fungl nová super truper nVidia GTX580 dostane naprdel od rok starého Radeony HD5970 :)
Odpovědět0  0
Proč je BF:BC2 v testech používána pouze jako DX10 a ne jako DX11?? V DX11 režimu sice neobsahuje tesselaci, ale pár pokročilých efektů a stínů tam je.
Odpovědět0  0
No, vzhledem k tomu, že vývoj a implementaci tesselace do HAWX2 platila nVidia ­(jiný DX11 prvek v HAWX2 není­) a je všeobecně známo, že implementace DX11 a tedy i tesselace v kartách nVidia není úplně přesně podle specifikace DX11, možná na tom něco pravdy bude. Ono se o tom šuškalo již hodně dlouho před vydáním HAWX2.
Odpovědět0  0
Protože píše DirectX9, je to samozřejmě bez tesselace
Odpovědět0  0
Všechno bude záležet na tom, jak rychle se Tegra2 dostane na trh v nějakých použitelných zařízeních. Vypadá to totiž, že je to právě ono pověstné stéblo pro nVidii ­- v ostatních segmentech ­(snad vyjma high­-end a profi grafik­) to s ní vypadá dost bledě.

A je tu taky otázka konkurence, která nikdy nespí :)
Odpovědět0  0
No, nic oficiálního zatím z AMD o HD6990 nevylezlo, snad jen šuškanda o vydání po novém roce.

Rozhodně bych si ale dovolil očekávat, že to nebude s větším zpožděním než u GTX480, která místo na vánoce 2009 vyšla někdy v květnu 2010 a reálně použitelná až v tomto měsíci pod názvem GTX580.
Odpovědět1  1
Je to celkem s podivem, že dokáží vydat na PC totálně neoptimalizovanou hru, která přitom běží na celkem starém a ozkoušeném enginu.

Docela by mě zajímalo, čím to je, že v poslední době vychází na PC dost her, kterým chybí jakékoli testování a u nichž musí do pár dnů od vydání vyjít patch. ­(AvP2010 počínaje a COD: BO konče­).
Odpovědět2  0
Ještě bych dodal, že to škubání se objevuje skrze celou hru ­- v menu, ve videích, cuttscénách ­- zkrátka hra jede 1­-5 vteřin plynule a pak na 0.2­-0.5 vteřin škub ­(obraz i zvuk­). Pár dní po vydání už vyšel patch, který to trochu vylepší ­(u mě osobně se škubání přestalo objevovat ve 100% spuštění hry, teď to škubá zhruba v 70%­). Taky pomáhá vypnout některé programy na pozadí ­(třeba Pidgin­).

No, stejně už se chystá další patch.
Odpovědět3  0
No, problém je v tom, na čem se nové CoD hraje. Pokud je to na 6jádru ­(možná i 4jádru­), není nikde žádný problém. Pokud však máte sebesilnější 2jádro, hra škubá ­(stejně na max i min detaily­) a to právě i v menu. Z nějakého nepochopitelného důvodu je totiž hra extrémně náročná na procesor a na grafické kartě až tak moc nezáleží.
Odpovědět4  1
Pozor, nesrovnávat přetaktovanou GTX580 s HD5970 na referenčních taktech!

Jak už jsem psal, když to rozložím na obě AA a jednotlivá rozlišení ­(celkem tedy 48 výsledků­), tak je poměr mezi kartami na referenčních taktech je 28:20 VE RPOSPĚCH HD5970. Vycházejíce pouze z VAŠICH testů, nemůže být zkrátka o převaze GTX580 ani řeč.

Co se týče cen, tam je opravdu GTX580 až o 2000Kč levnější. Navíc HD5970 je prakticky už výběhová karta a sehnat se téměř nedá.



Odpovědět0  0
Nefunkčnost dvojjádrového ­(či CF­/SLI­) řešená je dost pofidérní argument.

Navíc pokud bych měl volit mezi HD5970 a GTX580, nezvolím ani jednu ­(minimálně ne do příchodu HD6990­). HD5970 je už rok stará a GTX580 nenabízí oproti HD5970 ­(krom PhysX­) nic navíc.
Odpovědět1  1
bral jsem v potaz pouze 4xAA ­(pomýlilo mne to, že v jiných testech udává druhý sloupeček minimální fps­). V tomto případě skutečně vede GTX580 nad HD5970 v poměru 13:11.

Stále však, berouce v potaz výsledky jak 4xAA, tak 8xAA, nelze rozhodně říci, že by byla GTX580 výkonnější než HD5970.
Odpovědět1  0
Na druhé přečtení článku mě dostala tahle věta: ­"Optimalizace zde tedy jednoznačně proběhly a dovolím si říci, že velmi podobnou spotřebu budou mít také nové čipy AMD Cayman­-XT.­"

To, že po roce jsou provozní vlastnosti high­-end fermi karet konečně v akceptovatelných mezích je jistě fajn ­- i když v grafu je stále vidět, že konkurence je se srovnatelným výkonem méně žravá a topivá.

Ovšem věštit, že připravované Radeony HD6900 budou srovnatelné, tj. že vývoj ve spotřebě a teplotách bude u AMD přesně opačný než u nVidie, to mi přijde jako úlet.
Odpovědět0  0
O kvalitě a hlavně o nezaujatosti článku se dá dosti pochybovat. Ač v závěru autor tvrdí, že GTX580 je lepší než rok starý HD5970, testy v článku tvrdí naprostý opak ­(HD5970 vyhrává nad netaktovanou GTX580 v poměru 17:7­).

Prostým pohledem do grafů člověk zjistí, že GTX580 tak tak dotahuje HD5970, přičemž provozní vlastnosti ­(spotřeba, teplota­) jsou i po roce horší než u konkurence.
Odpovědět3  4
Rozhodně bych doporučil autorovi těsně před tím, než začne psát závěr, prohlédnout si alespoň letmo výsledky jeho vlastních testů. Žádný soudný člověk přeci nemůže napsat větu

­"Prvním je bezprecendentní výkon ­(GTX580­), který je v průměru stejný nebo mírně lepší než u Radeonu HD 5970.­"

vedle testů, kde souboj HD5970 vs GTX580OC prohrává Radeon v poměru 13:11 a souboj HD5970 vs. GTX580 vyhrává s přehledem Radeon v poměru 17:7!!!

Buď nevěříte vlastním testům nebo nevím ...
Odpovědět5  0
Přesně tak ­- zaklínadlo o jednočipové kartě je prostě marná shana nVidiotů, kterou v zoufalství přebírají i někteří ­(pro mne dříve v celku seriózní­) redaktoři.

Je zajímavé, že v recenzích procesorů se neobjevují hlášky, že 6­-tijádrové iCore je sice výkonné, ale že 4­-jádro ­(či dokonce 2­-jádro­) je zkrátka lepší.
Odpovědět3  2
1­) Rozlišení prakticky nemá vliv na FPS. Rozdíly v řádu jednotek FPS mezi rozlišeními 1900x1200 a 1280x1024 na plné detaily mi přijdou více než zajímavé.

2­) Já hraju na plné detaily na Athlonu X2 4400+, Radeonu HD5750 1GB. FPS jsem neměřil, ale vše je plynulé, normálně hratelné ­- žádné sekání či škubání, odezva normální.

3­) Když dám dohromady ty výsledky testu a na svoji osobní zkušenost, začínám mít podezření, že ta hra je nějak divně optimalizovaná ­- nevyužívá pořádně výkon procesoru i grafiky.

4­) A jen tak bokem ­- propad výkonu starších karet bude dán nejspíš tím, že nepodporují DX11. Ten se v téhle hře sice moc neprojevuje graficky, ale právě výkonem.
Odpovědět0  0
Souhlas. GF100 se nepovedlo a nVidia si prostě nemůže dovolit babrat se s ním neustále dokola. Co potřebují je co nejrychleji uvést nový konkurenceschopný čip, který konstrukčně opustí vše, co bylo na GF100 špatné. A vývoj takového čipu, to chce nějaký čas. Proto se mi jeví jakékoli snahy o přepracování GF100 jako nebezpečné plýtvání časem, který by potom mohl chybět. Zkrátka s příchodem 28nm výroby musí mít nVidia připravený nový čip, jináč nabere další zpoždění vůči AMD ­(to na další generaci na plánovaném 28nm procesu už dávno pracuje­).

Mimochodem, pár pokusů o 2xGTX470 už tu od některých výrobců bylo. Ovšem skončilo to jen na papíře, případně nějakých prototypem ­- skončilo to vždy na problémech cena, spotřeba teplota.
Odpovědět0  0
Musím říct, že jsem byl k informacím, které o kartách HD6000 slýchám už dva měsíce, značně skeptický. Tušil jsem, že HD6800 budou výkonnější než HD5700, ale to, že budou úspěšně šlapat na paty HD5800, to jsem nečekal.

Myslím, že v táboře zelených vládne smutek, protože proti AMD mohou postavit jen GTX460 a s hodně přimhouřenýma očima i GTX470. Karta GTX580 je spíše teoretická úvaha a těžko říct, zda by 2x470 mohlo vůbec fungovat na taktech umožňující konkurovat 2x6850 či budoucí dvojici Cypressů.
Odpovědět0  0
Já už jsem stran nVidie hodně opatrný. Přesně stejně se psalo o původní ­"Tegře­" a nakonec to byl celkem propadák.
Odpovědět0  0
Není ­- GTS450 má víkon prakticky identický s HD5750!!!

Testy nezávislých webů to jasně dokazují.
Odpovědět0  0
Na nezávislých webech se objevily testy GTS450 obsahující jak HD5770, tak HD5750 ­(1GB i 512MB verzi­). A výsledek?

Na základních SOTVA STAČÍ HD5750 ­(512M i 1GB­)!!!!

Teď už je mi jasné, proč zde v testu byla HD5750 opomenuta.
Odpovědět0  0
Také je zajímavé, že se tak nějak opomíjí HD5770 512MB a do srovnání s GTS460 786MB se bere právě ta 1GB verze. On totiž HD5770 512MB je opět o nějakých pár stokorun levnější a výkonově zaostává za 1GB verzí jen 0­-5% ­(menší paměť se projeví hlavně ve vysokých rozlišeních­).
Odpovědět0  0
To bych si mohl rovnou vyhledat celé testy a na SHW se úplně vyprdnout.

Trvám na svém, že v testu HD5750 prostě chybí, stejně tak jako tam přebývá HD5850. Ve správně sestaveném testu se testovaná karta pohybuje někde uprostřed ­(tedy pokud se nejedná o nějaký extrémní kousek­), aby bylo srovnání s přímými konkurenty.

Tvrzení, že GTS450 zapadne mezi Radeony HD5770 a HD5750 považuji za naprosto diletantský a ničím nepodložený výkřik.
Odpovědět0  0
Vy toho laskavě nechte. Jednoduchým použitím Googlu a prošmejděním několika obchodů snadno zjistíte, žr HD5770 s 1GB se dá sehnat už od cirka 3200Kč ­- což uznávám, že není o 1000Kč ale jenom o 800­-900Kč méně, než podle vás nejlevnější GTS460 s 768MB paměti.

A k výběru­/dostupnosti karet ­- podle mě je test, kde je testovaná karta téměř všude poslední, je naprd. Ukazuje totiž, kde karta výkonově NENÍ a ne to, kde ve skutečnosti JE. Neposkytuje zkrátka dostatečnou informaci o konkurenčních modelech. Stejně tak je pitomost zařazení HD5850 do stejného testu. Myslím, že se najde jenom málo bláznů, kteří budou při výběru grafiky zvažovat a srovnávat GTS450 a HD5850.

Až dodnes jsem myslel všechny svoje příspěvky jako konstruktivní kritiku. Ovšem když vidím vaši odezvu, přestanu si brát servítky.
Odpovědět0  0
Sice chápu, že ne každou kartu máte dostupnou, ale když testujete takovouhle kartu, o které dokonce píšete, že je výkonem mezi HD5770 a HD5750 a právě tu HD5750 v testu nemáte, přijde mi to docela divné. Absence téhle karty snižuje faktickou hodnotu testu minimálně o 50%, protože jestli má 450tka nějakého konkurenta, pak je to právě HD5750.

Také neustálé zmínky o ­"nepřesvědčivém­" výkonu 9 měsíců starého HD5770 jsou dle mého názoru trochu mimo. Na GTS460 786MB sice nemá, ale zase je o cca 1000Kč levnější.

Odpovědět0  0
Také se mi poslední dobou zdá, že se to jenom hemží kladnými recenzemi na cokoli od nVidie.

Tak nějak si pořád říkám, čím to je, že prodeje těmto pochvalným recenzím ani vzdáleně neodpovídají :)
Odpovědět0  0
Ke zlevňování jsou pádné důvody:
1­) Velice špatné prodeje
2­) Veliká spokojenost výrobců GK, kteří již mají k dispozici čipy HD6000
Odpovědět0  0
Nárůst celkového výkonu o 100% je samozřejmě blbost.Ovšem když si podobné zprávy přečtete nevytržené z kontextu, zjistíte, že se reálně hovoří o obrovském nárůstu třeba v oblasti tesselace, což je oblast, kde Radeony ztrácely ­- ovšem člověk musí přihlížet k tomu, že to jsou o více než půl roku starší karty než FERMI.
Odpovědět0  0
Je na místě být samozřejmě skeptický, ale tenhle článek mi přijde až moc.

1­) Proč by nemohl mít čip frekvenci přes 1GHz? Hranice taktů současných Radeonů je právě někde okolo 1GHz ­(ne rozdíl od zeleného topení­), takže proč ne?
2­) Proč by nemohla být přepracovaná geometrická část? Od uvedení RV870 uběhl již celý rok. Navíc AMD už pracuje na nové generaci, a už hodně dlouho se proslýchá, že v sérii HD6000 budou použity některé nové prvky.
3­) Proč by měl být výkon Juniperu dnes nepřesvědčivý? Vždyť nic jiného v této kategorii není, a to jak cenou, tak poměrem cena­/výkon. Navíc prodej grafik do 199USD tvoří údajně přes 80% trhu, takže Juniper ­(jako jediná rozumná karta v této kategorii­) musí být pro AMD zlatý důl.
4­) Řeči o HD5890 a porovnání s GTX470 SLI mě opravdu dostali. Testoval jste tu HD5890?? Jestli ano, pak jste asi jediný na světě, neboť, alespoň co vím, tak tahle karta neexistovala a existovat nebude. A ty dvě GTX470 jsou taky trochu mimo ­- čímpak se to chladá živí??
Odpovědět0  0
Tak to se netěš na to, co tě čeká zhruba od kapitoly 9.
Odpovědět0  0
Nápodobně. Athlon X2 4400, 3GB RAM, Sapphire HD5750 1GB. V 1280x1024 běží na plné detaily, s AA, bez PhysX, naprosto plynule.

To nic nemění na tom, že hra od poloviny ztrácí šťávu, začíná být nudná, z hlavního hrdiny se stane naprostý kretén, se kterým se může ztotožnit akorát asociál. Po dohrání jsem hru opravdu rád vypnul a odinstaloval.
Odpovědět0  0
Hmm, tak to mě čeká asi zklamání ­- ze začátku ty kapitoly jely jak po másle. Snad za hoďku jsem byl v kapitole 5. Tak jsem si tak říkal, že těch kapitol bude alespoň 25.

Desátou mám za sebou a jestli jich má fakt jenom 15, tak to budu za chvíli na konci a do hodnocení se vkradou první dvě negativa: Mafia 2 je: 1­) hodně krátká 2­) extrémně ­(až směšně­) lehká, a to hraju na střední úroveň.
Odpovědět0  0
Tak to jsme na tom stejně ­- Mafia 2 je prostě nářez. A nemyslím tím nějaké grafické orgie. Příběh, příběh a zase příběh ­- to je to co tuhle hru dělá výjimečnou. Zatím jsem na začátku, někde kolem 10.kapitoly, a dojmy jsou super, bomba, paráda. A to nejsem žádný velký fanoušek prvního dílu.
Odpovědět0  0
Navíc nechápu to, že když spotřeba celého systému je se dvěma kartami v zátěží cca 380W, proč je doporučen zdroj 650W??

Já ty měření výkonu­/příkonu­/TDP nemám moc rád, člověk neví, co kdo jak kdy čím měří.
Odpovědět0  0
Díky za připomínku ­- v první chvíli mi nedocvaklo, že je to spotřeba celé sestavy. To by mohlo ledasco vysvětlit

Ovšem stejně to nějak nesedí. když to vezmu selskou logikou, tak v zátěži žere jedna karta 88W ­(dvě tedy 176W­) a zbytek sestavy 204W. Za předpokladu, že v zátěži jedou ostatní komponenty stejně, nezávisle na přítomnosti jedné či dvou karet.

Pohledem na net jsem shledat, že spotřeba jedné normální GTX460 by se měla pohybovat okolo 150W, u nataktovaných modelů až 175W.

Testy většinou končí větičkou typu: ­"A second card requires you to add another ~200 Watts. You need a 650~700 Watt power supply unit.­" 88W na jednu kartu v zátěži je divných.

Odpovědět0  0
Na HD5750 1GB, Athlon X2 4400, 3GB RAM to v rozlišení 1280x1024 jede naprosto plynule v pohodě na vysoké detaily ­(nejsem si jistý, že jsem měl všechno na max, ale určitě jsem to neořezával­).

Nicméně to nemění nic na tom, že mě tahle hra vůbec nechytla. Přišla mi děsně nudná a stupidní.
Odpovědět0  0
V testech spotřeby ­(v zátěži­) je napsáno:
1x GFX460 = 292W
2x GFX460 = 380W

Tady zkrátka něco nehraje. Čekal bych, že pokud obě karty pojedou naplno, bude spotřeba odpovídat zhruba dvojnásobku spotřeby karty jedné. Tady je to něco kolem 1,3 násobku. přitom hrubý výkon je téměř dvojnásobný.

Buď jedou obě karty ve SLI zapojení jenom na cca 65% výkonu!!

Buď nVidia přišla na to jak zapojením více karet do SLI z nich dostat při menší o 30% spotřebě téměř 100% výkonu samostatné karty, nebo je v těch číslech prostě chyba.
Odpovědět0  0
mezi těmi posledními odastavci je samozřejmě ­"buď­" a ­"nebo"
Odpovědět0  0
No, ona se ta GTX460 na rozdíl od předešlých šíleností docela povedla. její devizou je kromě použitelných provozních vlastností taky slušný výkon a dobrá cena ­- tou cenou trafila nVidia přesně díru mezi mezi výborným HD5770 ­(zatím ze strany zelených bez konkurence­) a hodně nepovedeným a předraženým HD5830.
Odpovědět0  0
Vzhledem k tomu, že ještě není ­"dojetá­" ani řada 400, tak to bude přeci jenom o něco delší čekání. Lowend grafiky jako GTX450 založené na jádru gf106 by měly být představené někdy v září ­(možná začátkem října ­- proto tam AMD cíli představení lowendu řady HD6000­).

Takže čekání na řadu GTX500 bych neváhal přirovnat k čekání na Godota :)
Odpovědět0  0
Ty data, co jsem uváděl, byla data oficiálního oznámení a odhalení karet. K nám na pulty obchodů by se měly karty dostat zhruba za měsíc.
Odpovědět0  0
Počkej do listopadu, budou vycházet nové HD6870 a HD6850. Podle prvních uniklých testů to vypadá opravdu dobře.

Ovšem jestli chceš jenom nVidii, tak ti asi nic jiného, než ta 480 resp. 470 nezbude.
Odpovědět0  0
No, já mám informace úplně jiné:
1­) HD6700 by se mohly objevit už koncem října
2­) V listopadu by se pak měla objevit řada HD6800
3­) Na vánoce bychom měli dostat HD6900
Pro nevěřící, dá se to odhadnout i z toho, že srpnové ovladače už obsahují experimentální podporu těchto karet!

Už dokonce prosakují první testy Radeonu HD6870!!
Unigine heaven ­(1920x1200, 4XAA, vše high a tesselace extreme­): 36.6FPS 922 SCORE

V Crysis na max detaily, 1920x1200, 4xAA dává přý cca 43fps v průměru!

Jestli se někdy vyplatilo počkat na nové Radeony, je to právě nyní A nemusí se čekat dlouho.



Odpovědět0  0
O síle nataktované 460tky asi nemlůže být sporu. taky nemám pocit, že byste tady testy nějak ohýbaly. To, že se u různých redakci liší výsledky testů o jednotky fps, to snad každý považuje za normální.

Já mám tedy subjektivním pocit, že tu trochu straníte zeleným ­- ne že byste jim přidávali bodíky ve výsledcích testů, ale spíše mi přijde, že v testech vždy chybí nějaká výkonnější karta z opačné stáje, takže ­"zelení­" jsou vždy v grafech a tabulkách minimálně do třetího místa.

Třebas v tomto testu je zařazena HD5770, která samozřejmě na GTX460 nemá, natož na přetaktovanou verzi speciální edice. Naproti tomu HD5870 v něm chybí, ač zde by bylo srovnání jistě zajímavější.
Odpovědět0  0
Je mi jasné, že pokud karta fyzicky není, tak v testu není ­- tenhle důvod beru.

Moje reakce byla hlavně na to, že HD5970 by neměl být v testu ­"protože je to dvoujádrová grafika­" ­- to je zkrátka blbost, resp. argument používaný nVidioty ­(a PR oddělením nVidie­), kteří nemohou unést, že výkonnový trůn přináleží AMD.
Odpovědět0  0
Tak si to tak neber ­- prolez web a najdeš 100+1 test grafických karet a jejich srovnáním zjistíš, že se od sebe liší mnohdy i o desítky procent.

Jsou servery, kde tak nějak systematicky má ­"navrch­" nVidia, na jiných mají zase v testech tak nějak vyšší výkon karty od AMD­/ATi.
Odpovědět0  0
Podle mě je rozlišování grafik na jedno­- a dvouprocesorové naprosto zcestné. Uživatele zajímá cena, výkon a provozní vlastnosti ­- to, jestli je to jedno­- či deseti­-čipová grafika, to je úplně jedno. Pořád je to 1PCB s jedním chladičem co se strká do jednoho slotu.

To už byste mohl rovnou dělit karty podle velikosti čipu. RV870 má plochu 300mm2 zatímco GF100 má 529mm2, čili nVidie mají skoro o 76% větší čip. Dvě RV870 mají plochu rovných 600mm2, čili jenom o 13% větší než single jádro nVidie.

Čili tvrzení, že HD5970 je jiná karta, protože má dva čipy je blbost. Ona totiž celková plocha jádra na jedné GFX480 se blíží ploše dvou jader v HD5970 a na hony vzdálená jednomu jádru v HD5870.

Je to právě naopak ­- co do počtu tranzistorů by se měly karty GTX480 a GTX470 srovnávat právě s HD5970. To se ovšem rozhodně nehodí nVidii do krámu.
Odpovědět0  0
Jojo, je veliký rozdíl mezi benchmarkem, resp. tech­-demem a skutečnou hrou. Jednak bývají optimalizované do takové míry, jaká se v herním enginu objeví až po hodně dlouhé době a jednak je jejich vývoj úzce spjat s nějakou hardwarovou firmou a tak nějak preferuje vždy tu či onu značku.
Odpovědět0  0
Textura se samozřejmě nemění, ovšem s otexturovanými plochami se nadále pracuje ­(různé filtrování, vyhlazovaní, transformace, světlo ­- nedejbože vícenásobné odrazy, stín­), což jsou operace, jejichž paměťová náročnost roste s počtem ploch a hran.

Podle mě tam viditelný rozdíl bude, ovšem konkrétní test jsem zatím neviděl, takže netvrdím, že je můj názor směroplatný :)
Odpovědět0  0
Taky bych byl radši, kdyby se nové technologie prosazovaly rychleji. Ovšem máme tu i příklady opačného směru ­- Assasin Creed 1 podporoval i DX10.1, dvojka byla už jen DX9.

U toho Diabla 3 ­(které snad vyjde ještě v tomto desetiletí­) si pořád nedovedu představit smysluplné využití tesselace ­- ovšem DX11 efektů de daleko více. Ovšem u Blizzardu člověk nikdy neví, viz druhý StarCraft, kde mi ale nepřítomnost AA či DX11 efektů vůbec nechyběla.

PS: Teď jsem narazil na článek o DX11 v Crysis 2. Bude tam. Ač nativně bude engine ­(díky konzolím­) podporovat jen DX9, pro PC verzi k němu budou dodělány ­"přílepky­" umožňující využít i DX11 včetně tesselace ­(hurá!­). Ovšem právě díky tomuto postupu ­(ostatně použitém v Dirt2, Stalker CoP, Metro2033­) nečekám žádné větší DX11 orgie.
Odpovědět0  0
1­) V testu mi dost výrazně chybí Radeon HD5970 ­- je to koneckonců výkonový král, takže test, jak si poradí s tesselací by byl minimálně zajímavý. O 4GB verzi ani nemluvě.
2­) Zajímavá by taky bylo srovnání např s 2GB modely Radeonů. Zde májí totiž 1,2GB a 1,5GB nVidie výhodu jednak v šířce sběrnice a hlavně v totální velikosti paměti. Ony totiž ­"vytesselované­" plochy potřebují otexturovat, ­"vytesselované­" hrany vyhladit, což si nežádá jen výkon, ale i pořádnou porci paměti.
Odpovědět0  0
1­) Na nástup pořádné tesselace si ještě hodně dlouho počkáme. Důvody jsou dva ­- technická zastaralost konzolí ­(tam si na DX11 ještě hodně počkáme­) a potom nízký výkon současných DX11 grafik ­(při masovén nasazení tesselace půjdou výkonově do jednotek fps­)

2­) O zařazení tesselace do nových her ­(Diablo 3, Crysis 2­) se dá dosti pochybovat. Stačí si vzít třebas takový StarCraft2 ­- čistě DX9 hra, která dokonce nepodporuje ani AA. Crysis 2, pokud vím, také s DX11 nekoketuje a jestli tam nějaká DX11 nástavba pro PC nakonec bude, nebude to nic rozsáhlého. U Diabla 3 si nedovedu představit rozumný důvod, proč se s nějakou tesselací vůbec dělat ­- v tomto typu her je tesselace naprosto zbytečná.
Odpovědět0  0
To je teda kvalitní názor: ­"Já mám vysoké, tak netestujte nízké­".

Takže až budou testovat GTX440­/430 vs Radeon HD5750­/5650, tak mají být testy plné výsledků typu min FPS 5 a avg FPS 10???

A co se týče přehistoričnosti rozlišení 1280x1024, je to stále podle statistik celosvětově nejpoužívanější rozlišení ­(vystřídalo loňského krále 1024x768. Bude to sice zkresleno neherními kancelářskými stroji, ale spoustě lidí stačí na paření 19­"LCD a karta za 3 tisíce.
Odpovědět0  0
Ono už se to někde projevuje ­- ceny Radeonů HD5350 a HD5850 jdou už někde o pár stokorun dolů. Zatím je to jenom na straně obchodníků ­(jak kde­), očekává se i mírný pokles cen přímo u AMD.

Škoda, že tu tahle karta nebyla už před půl rokem. Teď se těším na odpověď AMD, zda to bude v podobě agresivnější politiky u HD5770, HD5830 a HD5850 ­(jinde stále nemá ­"zelenou­" konkurenci­) či zda popožene vývoj HD6000 ­(tahle řada se původně měl objevit už během podzimu, ovšem podle poslední šuškandy to bude až v lednu­).
Odpovědět0  0
Jak jsem psal, je samozřejmě nesmysl v tomto rozlišení testovat karty jako HD5850 a více.

Na druhou stranu podle různých průzkumů a statistik je rozlišení 1280x1024 prakticky nejběžnější rozlišení na všech počítačích ­(ovšem nikoli jen herních­).

Sám sebe se považuji za ­"něco­" mezi hráčem a příležitostným hráčem a již několik let jsem s rozlišením 1280x1024 na kartách ­(Radeon 9200, HD2600XT resp. HD5750­) naprosto spokojen.

Proto bych se přimlouval, kdyby se v testech ­"nižšího­" segmentu grafik toto rozlišení objevilo.
Odpovědět0  0
Jinak velice pěkný test. Supr výběr ostatních karet, snad jenom GTX465 tam chybí ­(podle některých testů to vypadá, že GTX460 1GB je výkonnější­).

A ještě jeden trochu obecnější dotaz ­- bude se v testech ještě někdy objevovat rozlišení 1280x1024 či podobné odpovídající 19­"LCD? Samozřejmě, u high­-endu či mainstreamu ­(tenhle test­) to asi nemá smysl, ale až někdy dojde na testy slabších grafik ­(typ HD5700 a nižší či až něco podobného vykutí i nVidia­)?
Odpovědět0  0
No, možná kdybychom hezky poprosily, tak by mohli udělat test zaměřený na OC karty.
Odpovědět0  0
Já se přikláním k názoru, že srovnávat PŘETAKTOVANOU kartu s nepřetaktovanými je VELICE ZAVÁDĚJÍCÍ. To, že se nějaká karta získá přetaktováním 10% výkonu a dotáhne silnější kartu ­(příp. výrazně uteče srovnatelné kartě­) má prakticky NULOVOU vypovídací hodnotu, neboť výkonnější­/srovnatelná karta může mít nakrásně taktovací potenciál 20%.

Když už z nějakého důvodu musíte míchat karty na referenčních taktech s OC verzemi, nebylo by třeba možné přidat někam grafík, kde by byly srovnány i nárůsty výkonu jednotlivých karet dosažené přetaktováním? Něco ve stylu:

Karta 1 ­(OC takt­): +20%
Karta 2:­(OC takt­): +15%
.
.

Mysli, že by to neměl být problém, protože ve většině případů máte testované karty i v OC, takže data asi k dispozici jsou.
Odpovědět0  0
Otázkou je, zda­-li se u BC2 používá na ta kola právě tesselace. U Crysis je to jasné, není to hra využívající DX11, tudíž žádná tesselace se nekoná.

U těch pár her, co DX11 podporují se tesselace využívá většinou okrajově a jen na něco. Tam, kde se vývojáři snažili přidat té tesselace trochu více, tam stejně při jejím využití na max, potřebuješ HD5970 či GFX480.
Odpovědět0  0
Podle mě bude záležet hlavně na výkonu ­- a ten ukáže až čas. Zatím může být člověk z dostupných testů spíše zmatený. Někde se GTX460 1GB prakticky dotahuje na HD5850, jinde spolehlivě zapadně právě mezi HD5850 a HD5830, zatímco GTX460 s 786MB někde dorovnává HD5830 a jinde zase padá až k HD5770.

S úsměvem pak člověk zjistí, že nejvyšší výkon ­(tedy na úrovni HD5850­) má GTX460 podle těch serverů, které uváděly GTX480 a HD5970 jako výkonově srovnatelné.

Odpovědět0  0
No, spíše bych řekl, že na pořádné využití tesselace nemají současné karty dostatečný výkon. Náročnost na ostatní věci, jako AF a AA roste s mírou tesselace téměř exponenciálně. Techdemo a hra je totiž dost podstatný rozdíl.

Dnešní ­"tesselace­" jak u ATi, tak u nVidie je taková ochutnávka, příslib do budoucna. V dnešních gameskách se lehce využije leda na pár nijak moc složitých objektů, které trošičku zreální. Až se tesselace bude používat ve větší míře, budou dnešní high­-end karty ­(GTX480, HD5970, HD5870­) dávat v obvyklých rozlišeních tak jednotky fps, o mainstreamu ­(GTX470,460, HD5850, HD5830­) ani nemluvě.

Na pořádnou tesselaci si počkáme tak na Radeony 7000­/8000 či GTX600­/700.

Zkrátka te
Odpovědět0  0
ty uvozovky kolem slova nové měli to slovo pouze zdůraznit.

S tou 470tkou jsem to trochu přestřelil, je to karta z jiné ligy ­(cenově i výkonově­). Ovšem vzhledem k tomu, že NOVÉ nVidie existují vlastně pouze tři ­(480, 470 a 465­), něco by se do testu dát mělo, ne?

Cenově je sice ta 465tka také mimo kategorii Radeonů 5770 ­(je dražší zhruba o 3 tisíce­), ale výkonově by to měla být poměrně blízká karta.
Odpovědět0  0
Přeci jenom srovnání s 260 a 250tkou už asi nejsou moc aktuální. Na druhou stranu chápu, že sehnat do testu GTX470 nebo ­(zatím asi jenom papírově existující­) GTX465 je problém.

Hlavně u té 465tky to bude zajímavé ­- její výkon by se měl pohybovat kolem výkonu ne moc povedeného HD5830, takže srovnání s přetaktovaným HD5770 by bylo určitě zajímavé.
Odpovědět0  0
Samozřejmě, druhý výskyt 465 v předchozím příspěvku má být nahrazen 460tkou.
Odpovědět0  0
vzhledem k tomu, že v určitých testech atakuje HD5770 jak GTX465, tak HD5830, jsem k tomu, že by měla být 465tka soupeřem pro 9 měsíců starý HD5770, velice skeptický.

Navíc známe, jak je to s FERMI při uvádění na trh ­- oficiálně se uvede v červenci, reálná dostupnost v obchodech minimálně za měsíc, spíše za dva.

Uvidíme, jestli nVidie stihne vydat celou FERMI řadu dříve, než AMD vyleze z řadou HD6000. Já tipuju, že ne.
Odpovědět0  0
Budiž. ještě jednou jsem si prostudoval odkaz http:­/­/www.oxyonline.cz­/svet­-hardware­-udelovana­-oceneni­-d488­/ .
Sice si stále myslím, že tomu vítěznému procesoru by slušela nálepka ­"BEST OF TEST­", ale chápu, že sehnat komisi redaktorů nemusí být úplně jednoduché.

Podmínky pro udělení ­"TREFY­" se dají vykládat různě, a to i tak, že do ně tenhle procák spadne. Ovšem, fakt, že má suverénně nejhorší poměr cena­/výkon, by asi pro většinu lidí trafu neznamenal.

Myslím, že by i ostatní čtenáři uvítaly zprůhlednění hodnocení, že by opravdu nálepka ­"BEST OF TEST­" znamenala z high­-end procesorů ten ­"nejhájendovatější­" bez ohledu na cenu a ­"TREFA­" high­-end procesor za rozumný peníz ­(takový high­-end pro každého, nebo ­"Kdo to koupí, neprohloupí, ...­")

Myslím, že jsme si tak nějak ujasnili své názory a pozice, ze kterých asi ani jeden neustoupíme. Už do nálepek a hodnocení nebudu rýpat ­- tedy až do doby, kdy se v testu grafických karet objeví s nálepkou ­"TREFA­" GTX480 :­)

Odpovědět0  0
Recenze ­(pokud možno objektivní­) není jenom o číslech, ale také o jakémsi realistickém zhodnocení, podle kterého si průměrný uživatel může udělat představu o konkrétních produktech ­- a právě proto je udělení placky pomalu to nejdůležitější z celé recenze.

Problém bude možná inkonzistence udělování placek zde na SHW. Já jsem tedy zvyklý, že nejlepší kousek v testu tady dostával placku ­"BEST OF TEST­" ­(což by bylo v tomto případě na místě­), kousek s nejlepším poměrem cena­/výkon ­(nebo z jiného důvodu stál za povšimnutí­) většinou dostával placku ­"TREFA­". Samotný pojem ­"TREFA­" totiž v českém jazyce evokuje výhodnou a rozumnou koupi.

Na druhou stranu, je to váš test, vaše recenze, vaše pravidla. Pokud jste jako autor spokojen s tím, že se vám pod článkem sejdou téměř samé nesouhlasné názory, je to také vaše věc. Pokud máte pocit, že na ­"nějaké udělené placce­" vůbec nezáleží, pak ji tam radši nedávejte.
Odpovědět0  0
Spíše bych řekl, že u AMD za srovnatelný výkon zaplatíme 3x­-5x méně.

Core i7­-980X samozřejmě výkonově kraluje, ovšem o ­"TREFĚ­" bych tedy rozhodně nemluvil.
Odpovědět0  0
No, myslím, že tady jsou otazníky u pojmu ­"TREFA­" rozhodně na místě. Kdyby byl ten Intelácký procesor jen o málo dražší nebo měl jen o trochu horší poměr cena­/výkon, asi by nikdo ani nemuknul.

Ale tohle je jako srovnávat nejnadupanějšího Superba s nejnadupanějším Mercedesem. Samozřejmě, že Meďour vyhraje na plné čáře ­- což je při 5x vyšší ceně i pochopitelné.

Nevím, proč místo hodnocení ­"TREFA­" ­(kteréžto i tak nějak evokuje, že je to výhodná koupě­) nepoužijete třeba ­"ABSOLUTE TOP­" nebo ­"KING OF THE HILL­" nebo něco takového. Také tak nějak postrádám kdysi tuším používanou kategorii ­"Výhodná koupě­".
Odpovědět0  0
Jajaj, tak teď už jsem to taky viděl ­- tomu říkám zhýralost!

Otázkou je, jaká je hloubka trhu takovýchto skvostů ­- kolik se jich tak prodá do roka.

V tomto případě ­- kombinace dvou GTX 480M ­- jsem ochotný uznat, že i tu 3D Vision celkem zvládne ­(tedy v kombinaci se 120Hz displejem)
Odpovědět0  0
Viděl to někdo někdy? A nebo všichni opisují pitomosti z propagandy nVidia?

3D Vision je de facto to samé.
Odpovědět0  0
Tak nějak nechápu volbu ­"soupeřů­" pro tuhle kartu. Srovnání s obyčejnou HD5770 je určitě na místě, o tom, že bude rychlejší než HD5750 snad nikdo nepochyboval. Srovnání s konkurencí od nVidie je také na místě.

Ovšem co opravdu citelně chybí, je srovnání s Radeonem HD5830 s výkonem mezi HD5770 a HD5850, čili v oblasti, kde působí i testovaná HD5770 HAWK.
Odpovědět0  0
Věrni tradici přejmenování grafických karet a vydávání jich za nové, nVidia uzavřela pro ni ne zrovna povedený rok 2010 tím, že ho přejmenovala na rok 2011. Tím se fakticky dostává do ročního předstihu před konkurenci!
Odpovědět0  0
Hodnoty FPS v jednotlivých hrách sice o něčem vypovídají, ale jako argument pro koupi grafické karty už asi nejsou nejdůležitější. Ne každý má neomezený rozpočet či chce dát za GK 10 tisíc. Podle mě je v tomto ohledu daleko relevantnější údaj CENA za 1FPS. Myslím, že tento údaj by některé karty okamžitě diskvalifikoval do kategorie předražené šílenosti.

A dotaz na redakci: Nešel by do závěru přidat graf, který by výkony v jednotlivých hrách nějak shrnoval? Myslím nějaké kompozitní hodnoty či všechny hodnoty v jednom grafu.
Odpovědět0  0
přesně tak, je to hodně diskutabilní kousek. Ani bych moc nevěřil, že se tahle ­"M480­" vbrzku objeví ­(rozdíl mezi objevením se na předváděčce a objevením se v obchodech je snad jasný­).

Jinak ani nevidím moc prostor, aby se tohle prodávalo ­- 100W grafika v notebooku? Asi stejná ptákovina, jako GTX480 QUAD SLI s příkonem přes 1200W ­(což je taková průměrná rychlovarná konvice­)!
Odpovědět0  0
Když už to karta má v názvu, nebylo by záhodno otestovat taky to Eyefinity? A nemusí to být hned na 6 monitorech, ale třebas jenom na třech.
Odpovědět0  0
Nemyslím si, že to bude nějaký výrazný redesign. Spíše to bude optimalizace některých částí čipu. Jestli FERMI grafiky v něčem vynikají ­(tedy krom spotřeby a provozních teplot­), tak je to výkon v tesselaci. Ta se sice ve hrách ve znatelné míře ­(tak aby v nich vynikaly GFX480­/470 nad Radeony­), ale marketingově to zní dobře.

Takže počítám s nárůstem reálného výkonu v průměru o těch cca 10% a takových 20­-25% v tesselaci ­(resp. v benchmarku Unigine Heaven)
Odpovědět0  0
2­) Zde má každý právo na svůj názor a až realizace ukáže, jak to je. Podle mě pokud 28nm proces ­(plánovaný v TSMC na polovinu roku 2011­) sníží zahřívání čipů obou výrobců zhruba o stejné procento. To ale neznamená, že oba výrobci budou moci zvýšit takty karet o toto procento. Mezi taktem a odpadním teplem ­(provozní teplotou­) není lineární vztah. Podle toho, jak GF100 zatím hřejí, to vypadá, že u nVidií rostou teploty v závislosti na taktech mnohem rychleji, než u ATin. Můj názor tedy je, že 28nm proces ­(pokud beru v úvahu současné grafické karty ­- bůh ví, co bude za rok­) nepomůže ani jednomu výrobci, tj, že výkon čipů vzroste u obou zhruba stejně.

3­) Nikde nepíšu, že by ­"mezigenerace­" u ATi měla přinést bůhvíjaký výkon navíc. Určitě nečekám vyšší nárůst výkonu než cca 10%. I to však bohatě stačí na dorovnání ­(možná i mírného překonání­) současného náskoku GFX4xx vůči Radeonům HD58xx. Takže platí to, co jsem napsal ­- že FERMI budou mít další konkurenci. ­(Zcela zaujatě bych totiž napsal, že o 5­-10% výkonnější karty s otřesnou spotřebou, nároky na chlazení a provozní teplotou 95°C za cenu o 10­-20% vyšší nejsou žádná konkurence.­)

4­) Co se týče mainstreamu a lowendu, ve svém příspěvku jsem psal pouze to, že nVidia zatím žádný nemá a že jeho příchod se čeká v létě. A to není z mé hlavy, to je ofiko vyjádření nVidie. Jejich konkurenceschopnost a hlavně dostupnost ukáže opravdu až realita.

Co se týče přetahování zákazníků, tam vůbec nejde o výrobu v GF. ATi už má vyrobeno nespočetně více čipů, než nVidia. Jednak má půlroční náskok a jednak ­(i díky menším čipům­) má výroba radeonů daleko vyšší výtěžnost. Četl jsem informace, že výtěžnost u ati čipů je momentálně 60% a u nVidie 20% ­(nemám to ale nijak ověřeno­). Tj. obě firmy budou vyrábět stejné množství čipů i v případě, že objem výroby bude 3:1 ve prospěch nVidie.


Abych to shrnul. V kombinaci s tragiským 40nm výrobním procesem je obří fermi čip prostě pro nVidii rána. Revize se nedaří ­(první funkční GF100 jsou už 3.revize!­), 28nm process až za rok! I kdyby nakrásně přišly na podzim revize zvyšující u FERMI grafik výkon, budou tu nové ­(nebo revidované­) Radeony, které také půjdou výše. Nevidím proto nikde žádný prostor, kde by si nVidia mohla spravit svou pošramocenou pověst ­- a tato situace tu bude nejspíš ještě celý rok.
Odpovědět0  0
Co vím, tak jedinou dvoujádrovou kartou od ATi je Radeon HD5970. Ostatní HD5xxx jsou ­"jednojádra­".
Odpovědět0  0
Podle mě JE architektura současného FERMI špatná. Možná, že je dobrá po ­"teoretické stránce­", tj. systém práce, jak na sebe navazují polymorfní jednotky, tesselátory, ­"texturátory­", antialiasiátory, ...

Rozhodně je však špatné její reálné provedení moc nepovedlo ­- rozmístění jednotlivých částí a tranzistorů po čipu, s čímž následně souvisí odpadní teplo a jeho ­"odvod­" z čipu, potažmo taktovací frekvence.

Skoro bych se vsadil, že ten půlrok zpoždění věnovala nVidia řešení problému, jak teoreticky pěkně vypadající FERMI nacpat do skutečného čipu tak, aby to rozumně fungovalo. Každý soudný člověk pak uzná, že se jim to moc nepovedlo.

Teoreticky může být současné FERMI opravdu špičkové a perfektní, ale realita je jiná ­- žravá a topící karta náročná na chlazení, bez valného potenciálu pro přetaktování, výkonem zhruba na úrovni konkurence.

Nadneseně bych to přirovnal k jaderné fúzi ­- teoreticky a v modelových laboratorních případech ­(které ale nemají praktické využití­) je to naprostá bomba a vše funguje. Reálný ­(použitelný­) fúzní reaktor však neexistuje.
Odpovědět0  0
Jak už jsem psal, použité ovladače plnou podporu FERMI karet mají. Oficiálně podporují modely GFX470 a GFX480.
Odpovědět0  0
Podle mě je chyba na straně architektury ­- FERMI, alespoň tato verze, potřebuje pro pořádný výkon veliký čip. Jinak by ho přeci dělali menší, ne?

Samozřejmě, už se pracuje na FERMI2, u kterého se budou snažit nedostatky první verze odstranit. Otázkou je, zda­-li to budou drobné úpravy ­(drobná evoluce­) nebo zásadní překopání ­(téměř nová architektura­).

Osobně si myslím, že půlroční spoždění FERMI bylo dáno právě snahou o drobné úpravy a vylepšení provozních vlastností, které se ale nepovedly.

nVidia teď nejspíš stojí před trojným dilematem, zda­-li se spolehnout na časově nejistý 28nm výrobní proces, nebo zda ­"pro sichr­" vylepšovat FERMIv1 a stavět FERMIv2 na ne zcela ideálním, ale reálně existujícím 40nm.
Odpovědět0  0
1­) 28nm proces má problémy a zpoždění. Má s tím problém i ATi, která na přelomu roku chtěla uvádět novou architekturu ­(své FERMI­) na 28nm výrobním procesu, ale jak se zdá, ten bude ­"použitelný­" nejdříve na konci 1Q2011.

2­) Jestli pomůže 28nm proces nVidii, pomůže také ATi. Sice půjde snížit teploty­/zvýšit frekvence u FERMI čipů, ale to samé logicky půjde i u konkurenčních Radeonů.

3­) Díky problémům 28nm procesu by měla na podzim přijít ­"mezigenerace­" ATin, která by měla vycházet z RV870, ale přidávat i některé prvky z plánované nové architektury. Pokud tedy nepřijde nVidia s něčím novým ­(a vypadá to, že nejspíš ne­), budou mít stávající FERMI asi další konkurenci.

4­) nVidia teď má nepřesvědčivý high­-end a zcela ji chybí lowend a mainstream ­(bude snad v létě­). Nová architektura, díky otřesným provozním vlastnostem, se určitě ještě dlouho neobjeví jako integrované řešení či mobilní grafiky.

Co tímhle vším chci říct? Že si myslím, že nVidia je v daleko větším průseru, než by se mohlo zdát. Pokud ATi nepohnojí svou novou architekturu stejně jako nVidia, má velikou šanci ­"přetáhnout­" spoustu věrných od nVidie. A to jak v segmentu domácím ­(hráčském­), tak profesionálním.
Odpovědět0  0
Co vím, tak ATi chtěla na přelomu roku uvádět ­"novou architekturu­" ­(takové své fermi­) vyráběnou porávě 28nm procesem. Protože v TSMC mají s 28nm problém ­(bude značně zpožděn­) a GF má AMD vyhrazeno pro jiný segment ­(příprava na FUSION­), nová architektura se odkládá minimálně o půl roku a místo toho přijde další vývojový stupeň RV870 ­- podle neoficiálních šeptand už někdy na podzim.
Odpovědět0  0
Podle mě 28nm proces sice zlepší provozní vlastnosti ­(sniží příkon, teploty a­/nebo umožní vyšší takty­), ovšem stejně tak tento proces pomůže konkurenci. Tj. kdyby byly současné Radeony produkovány 28nm procesem, mohly by být taktovány také daleko výše.

Čilo 28nm výrobní proces zlepší absolutní parametry GF100 čipu, ovšem v relativním srovnání s konkurencí se už moc zlepšení čekat nedá.
Odpovědět0  0