Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od Zdeněk Kabát (2)
Test se týkal grafických karet pro PCI Express, takže bohužel. Jinak po ruce by byl :­-)
Odpovědět0  0
Není problém, jdu na to.
Odpovědět0  0
Ano, s těmi pipelines máte pravdu, ale protože je počet pixel shaderů, TMUs a render back­-ends v pomeru 1:1:1, je to srovnání adekvátní. Co se týče Radeon X1300, tak ten bohužel zatím nemáme, ale nemyslím, že by to bylo o mnoho větší zázrak než Pro.
Odpovědět0  0
Radeon X1300Pro bude detailněji testován v zítřejším článku proti svým hlavním konkurentům, což je GeForce 6600 a Radeon X700. Doporučuji přečíst, protože testování mainstreamu na něj kladlo mnohem vyšší nároky, tak uvidíte, jak si s tím poradil.
Odpovědět0  0
Psal jsem to v článku hned několikrát, ale chápu, že je to velké množství textu ­- Radeon X1300Pro jsem zařadil proto, abyste viděli, jak si vede proti ostatním kartám, které mají také 4 pixel pipelines ­(shadery+TMU­). Jak vidíte, v hodnocení není vůbec zahrnut a naopak bude součástí hodnocení zítřejšího dílu, a to včetně testů FSAA­/AF.
Odpovědět0  0
Já to ještě neopravil? Jdu na to... :­-)
Odpovědět0  0
To je docela vtipná odpověď :­-­) Takto to vypadá, že se výrobci grafických karet z ničeho nic rozhodli, že AGP už nechtějí, a zavedli novou sběrnici, která je stejně rychlá, ale to nevadí, když je nová :­-­)

Ten skutečný důvod je, že PCI Express má mnohem jednodušší koncept. Na rozdíl od PCI používá sériový přenos dat pro každou linku ­(x16 má tedy 16 linek­), z čehož propustnost každé linky je 250MB­/s každým směrem ­(PCI 133MB­/s obousměrně­).
Odpovědět0  0
Budete se divit, ale Catalyst 5.10 ještě Radeon X1800XL nepodporují. Dostal jsem jen chybovou hlášku, že je nelze nainstalovat.
Odpovědět0  0
Ale no jo pořád :­-­) Tímto omlouvám veškeré další podobné překlepy, protože od získání karty do vydání této kompletní recenze uplynulo asi 40 hodin a uprostřed noci člověku místy vynechává mozek.
Odpovědět0  0
Day of Defeat: Source zatím k testování nemáme, ale také snad brzy bude. A ten překlep jsem opravil :­-)
Odpovědět0  0
Kromě toho, že demoverze raději netestuji, protože se mi to zatím neosvědčilo, tak se mi bohužel na testovací sestavě nepodařilo F.E.A.R. bez problémů rozchodit. Nešlo to ani na ATi ani na nVidii, takže problém nebude v ovladačích. Proto jsem se této hře radši vyhnout, ale snad bude brzy plná verze. Budeme testovat i v Call of Duty 2 a Serious Sam 2, jen čekáme.
Odpovědět0  0
1­)Ten chladič na GTO by měl uchladit dlouhodobě i přetaktovanou kartu, ale teploty nebudou ideální. Nicméně tuhnout nebude.

2­) dB jsou podle mě dost nicneříkající čísla. Ale je to silnější hluk, spíše šum, protožee větráček je menší. Do tichých sestav ta karta nepatří.

3­) Nepřijdete, když při reklamaci vrátíte původní chladič. Samozřejmě kdyby došlo k fyzickému zásahu, který je na první pohled vidět, tak by obchodník reklamaci nemusel uznat.

Stále si ale stojím za kombinací Ultimate + pomaloběžný 80 nebo 120mm větrák, protože pak je chladič nejen tichý, ale díky heatpipes i velmi účinný. Na druhou stranu je to dražší, takže kdyby normal GTO + Zalman VF700 vyšel levněji, vyplatí se spíše toto.
Odpovědět0  0
Dobrý den ­(příp. ráno­),

1­) Ano, GTO a GTO Ultimate se liší jen chladičem, ale ani jeden není nijak slavný. Konkrétně na GTO sice uchladí, ale je dost slyšet, na Ultimate pro změnu, jak jste se mohl dočíst, není na R423­/R480 dostatečný. Doporučil bych ale Ultimate + větrák.

2­) GTO je určitě výkonnější, protože má o 50% více pixel pipelines ­(tj. jednotek, které provádějí programy pro úpravu pixelů a nanášejí textury­), což se rozhodně projevuje. Když se k tomu přidá overclocking, není co řešit.

3­) Nevím, jaký chladič má HIS, ale je to asi jediná věc, ve které se ty karty mohou lišit. Samozřejmě je věcí náhody, jaké jádro budete na kartě mít.

4­) Souvislost nemá, takže bude.
5­) Postačí.

Zdeněk Kabát
Svět Hardware
Odpovědět0  0
Copak to tady někdo prezentuje jako objev? Jde prostě o recenzi pamětí, kterých se celkově dělá velmi málo... Ale někomu se člověk holt nezavděčí.
Odpovědět0  0
Od Sapphiru :­) Ale ještě prý není v Česku ani ten vzorek.
Odpovědět0  0
Ano, máte pravdu... Už jsem to opravil.
Odpovědět0  0
Bude, ale zatím se její vydání nějak protahuje. V každém případě bude o dost dříve než AGP verze Radeonu X1600, který by mohl případně konkurovat.
Odpovědět0  0
Tak ATITool prostestuje... V hodnotách CONFIG_DIE_FUSES a CONFIG_SUBSTRATE_FUSES má Ultimate na daných místech 7 a E, takže softwarové odemknutí fungovat nebude. Máme ale slíbený na test Radeon X800GTO2, kde se vše vyzkouší.
Odpovědět0  0
Příště si dám trochu pozor, myslel jsem jen srovnání Radeonů série X a GeForce 6. Problémy GeForce FX s DirectX 9 jsou známou záležitostí, protože tato architektura byla původně projektována pro DX8.1 a podpora SM2 byl dodána až dodatečně.. a špatně. Co se týče komplexnosti pixel shaderů, pokusím se tento problém trochu rozepsat v recenzi na Radeon X1800XL, jakmile se nám nějaký dostane do ruky.
Odpovědět0  0
Jo, byl... K manuálnímu taktování používám vždycky RivaTuner, ale TRIXX by v tomto případě splnil svůj účel taky. V každém případě je TRIXX záruka bezpečného přetaktování i pro méně zkušené uživatele.
Odpovědět0  0
Jak jsem psal výše, kartu jsem rozmontoval před testem a neměl jsem dostatek pasty na to, abych případně setřenou nahradil. Ale jestli tedy chcete vidět, že v článku nelžu, tak jdu jádro vyfotit...

Edit: Už ho tam máte, takže mi snad můžete věřit.
Odpovědět0  0
Ten postup platí pro GTO2, takže BIOSy se mohou trochu lišit. Nicméně to vyzkouším a případně napíšu další článek. Díky za připomínku.
Odpovědět0  0
Samozřejmě, že jsme testovali příkon celé sestavy, ostatně jak je zvykem na všech světových hardwarových webech. Za nic jiného to ani nevydávám... Důležité jsou rozdíly mezi jednotlivými kartami, nikoliv nějaké absolutní spotřeby.
Odpovědět0  0
A poradíte mi prosím jak? Na kartu nelze nahrát ledasjaký BIOS...
Odpovědět0  0
Jen jsem nechtěl stírat teplovodivou pastu, protože jsem momentálně neměl k dispozici tubičku s vlastní. Když se ale podíváte detailně, uvidíte malinký kousek setřený, kudy nápis R480 prosvítá. A kdyby vám to nestačilo, je tu důkaz sporem ­- R423 by měla na čipu známou čtveřici můstků ­(jejich přepálením se vypínají pipelines­) a R430 by byla o něco menší ­(110nm proces­) a nešla by ani náhodou přetaktovat přes 600MHz.

Edit: Fotka jádra kvůli druhému bezvěrci doplněna :­-)
Odpovědět0  0
Tak jsem si ještě informace ohledně sběrnice Radeonu X800GT zjišťoval a měly by se vyrábět jak 128­-bitové, tak 256­-bitové verze. Otázkou je, co se bude prodávat u nás.
Odpovědět0  0
Nemají a je to jeden z důvodů, proč jsem psal tento přehled. Radeony X800GT 128MB mají opravdu jen 128­-bitovou sběrnici, takže pozor na ně.
Odpovědět0  0
U Radeonu X800SE jsem původně uvedl omylem 16 pipelines a podle toho i v Excelu přepočítal. Omlouvám se a opravuji správný fillrate.
Odpovědět0  0
Fireblade snad bude dostupná společně s ostatními GTOčky, ale kdy přesně, to těžko říct.
Pipelines opraveny.
Odpovědět0  0
Stačí upilovat tu ­"zarážku­" na konci PCIe slotu. V době uvedení nForce4 se to dělalo u slotu PCIe x4 na deskách s nForce4 Ultra, protože čipset šel hardwarově modifikovat pro podporu SLI.
Odpovědět0  0
Bohužel na tohle univerzální odpověď neexistuje a všechno závisí na konkrétním řešení. Schooner je velmi dobrý pasiv a na kartu, která hodně hřeje, se možná hodí více než Aerocool VM­-101. Ale cirkulace vzduchu musí být hodně kvalitní, takže by bylo třeba osadit více větráků ve skříni ­(určitě oba 120mm, intake a outtake­). Přemýšlel bych i o nějakém podvoltovaném větráku, který by foukal zespodu na Schooner.
Odpovědět0  0
Tady jsou pravidla jasná. Informace získáváme z důvěryhodného, ale anonymního zdroje. Buď je můžeme psát bez zveřejnění zdroje, nebo je nemusíme psát vůbec. Teď si jen přeberte, která z těchto dvou variant je pro čtenáře přínosnější. U vás je zřejmé, že čtete SHW jen abyste ho zkritizoval a nikoliv pro získání informací...
Odpovědět0  0
Vy se klidně svým selským rozumem řiďte, já se řídím fakty, která mám k dispozici. A nevím, proč by naše zdroje nemohly být stejně informované než zdroje libovolného jiného serveru, myslíte si snad, že Lal Shimpi chodí na pivo s Davem Ortonem? Ostatně, já vám svoje informace nenutím, myslím, že v řadách čtenářů dopadnou na úrodnější půdu.
Odpovědět0  0
Nevlastním věšteckou kouli, ale mám důvěryhodné zdroje, které se nemusí spoléhat na drby na internetových serverech. Že má AnandTech jiné informace je docela možné a nikdo Vás nenutí, abyste věřil tomu, co píšu. Dokud nebudu vědět něco nového, tak si za PCIe­-only stojím.
Odpovědět0  0
12 pixel pipelines ­(+50%­)... Je to napsáno o novinku níže, ale doplním to i do této aktuality.
Odpovědět0  0
Zalman ji prodává zvlášť pod názvem Multi Connector 1, cena je asi 50Kč.
Odpovědět0  0
Abyste mohl sledovat teplotu, musí mít grafický čip teplotní čidlo. Pokud ho nemá, není šance teplotu monitorovat. Výjimkou je jen GeForce 6600, u které jde dodatečně aktivovat.
Odpovědět0  0
A to už jsem tyhle překlepy asi na třech místech eliminoval :­-­) Profesní deformace... No nic, díky za připomínku
Odpovědět0  0
Opraveno. Po kliknutí se můžete podívat na velkou verzi, která byla zadána OK ­(jen náhled byl špatně­).
Odpovědět0  0
Bez problémů... GeForce 7800GT­/GTX mají stejný návrh PCB jako 6800GT­/Ultra, takže na ně Zalman VF700 sedí a díky heatsinkům chladí i paměti.
Odpovědět0  0
A vida, díky za připomínku. Na tento problém jsem narazil, ale nějak jsem zapomněl ho napsat do recenze. Doplňuji do včerejšího a dnešního článku.
Odpovědět0  0
Chladiče testované na 5V měli tuto možnost danou svým příslušenstvím, konkrétně redukcí na Molex se dvěma 5V a dvěma 12V 3­-pin konektory pro větráky. U Arcticu by bylo třeba redukci dokoupit nebo zbastlit, tak jsem test nezahrnul.
Odpovědět0  0
Jak v podstatě píšete, mohl jsem si ze současných grafických karet vybrat na testy v podstatě jakoukoliv, která byla kompatibilní se všemi chladiči ­(tzn. všechny Radeony, GeForce 6600GT PCIe a GeForce 6800­). Kdybych chtěl chladičům ­"pořádně zatopit­", vybral bych Radeon X850XT PE, ovšem to nebylo účelem testu. Naopak jsem chtěl ukázat, jakého výkonu dosáhnou chladiče na typické mainstreamové grafice, pro kterou jsou de facto určeny. A jen musím zopakovat, že GeForce 6600GT ­(110nm, 143M tranzistorů, 500MHz­) a GeForce 6800 ­(130nm, 222M, 325MHz­) mají téměř stejnou spotřebu ­(a tedy i ztrátové teplo­), což jsem si potvrdil i několika testy.
Odpovědět0  0
Záleží na hře, ale určitě je na tom X800GT mnohem líp než X700Pro. Nicméně u Radeonu X800GT se k velikosti paměti váže i sběrnice, takže se prodává 128­-bit 128MB a 256­-bit 256MB ­- výběr je jasný :­-)
Odpovědět0  0
Oni mainstreamové karty nedokáží 256MB využít a stejně ukládají data o velikosti nejvíce 100MB. Kdyby se hra nastavila na tak vysoké detaily, že by jí bylo 128MB paměti málo, už by grafický čip stejně nezvládal vykreslovat scénu tak rychle, aby byla hra plynulá. Podrobně jsem psal o velikosti paměti v souvislosti s 512MB kartou zde ­- https:­/­/www.svethardware.cz­/art_doc­-D91FF1EDF7E21104C1257021007446FF.html
Odpovědět0  0
Díky za doplnění. Četl jsem toto také, ale problém je, že zdrojem je stále HKEPC. Nicméně je to psané tím stylem, jako by někdy opravdy ty karty viděl. Jen nechápu, že se ATi vyplatí vyrábět R520 s 32 pipelines, když jich bude u všech prodávaných verzí aktivních jen 16. Proto beru tuto informaci stále s rezervou.
Odpovědět0  0
R420 ­(AGP­) a R423 ­(PCIe­) ­- Radeon X800SE, X800Pro, X800XT, X800XT PE
R430 ­- Radeon X800, X800XL
R480 ­- Radeon X850Pro, X850XT, X850XT PE
"odpadova­" vyroba R423, R430 a R480 ­- Radeon X800GT a X800GTO

Takhle je to jedině správně a pokud některé obchody uvádějí jiné informace, mají v popisu chybu. Takže si stojím za tím, že otázka byla položená jednoznačně.
Odpovědět0  0
Bohužel, toto je Radeon X800XL a tedy jiný čip, než na který jsem se ptal. Je to sice hraní s písmenky, ale kdybych je nebral v úvahu, máme tu ještě X800SE, X800Pro, X800XT atd...
Odpovědět0  0
Já bych si tím datem nebyl tak jistý, protože o září není na DigiTimes ani zmínka. Vzhledem k tomu, že tenhle magazín píše hodně o bussiness záležitostech, půjde spíše o fiskální čtvrletí a to může končit někdy dejme tomu v říjnu. Ale určitě to nevím.
Odpovědět0  0
Mám tu na stole GeForce 6600GT AGP a AeroCool VM­-101. Když chladič nainstaluju, část pasivu přečnívá kartu na straně bracketu s konektory => do škříně se nevleze bez fyzického zásahu. Takže vím moc dobře, o čem mluvím..
Odpovědět0  0
Chladiče na procesory testujeme mimo case, aby byly jasnější rozdíly mezi nimi. V zahřáté skříni většinou nemají šanci ukázat, co zvládnou a kolikrát tam několik chladičů dopadne velmi podobně, ač se jejich schopnosti liší. Takže úkolem těchto recenzí není ukázat, jaká bude teplota ­(což ani pořádně nejde, protože každý má jinou skříň, počet větráků a procesor­), ale najít co nejlepší chladič v porovnání s ostatními.
Odpovědět0  0
Zajímavé zjištění, jestli jsou ově jádra přibližně stejně velká, znamenalo by to podstatně více tranzistorů, protože R480 je 130nm a R520 má být 90nm. Ale jestli má zůstat 16 pixel pipelines a 16 ROPs, pak budou muset ty tranzistory přibýt hlavně uvnitř jednotlivých pipelines... Ale je pravda, že rozšíření o Shader Model 3 taky nebude ­"zadarmo­".
Odpovědět0  0
V mailu s odpověďmi je nutné uvádět jen celé pravé jméno a nikoliv bydliště. Navíc výsledky budou vystaveny zároveň s rozesláním mailů výhercům, takže ono to ani pořádně zmanipulovat nejde. Ale kdyby vás napadlo jak, rádi se inspirujeme :­-­) Jo a Svět Hardware sídlí v Brně.
Odpovědět0  0
Nechci nijak předbíhat, ale ATi je teď trochu ve slepé uličce. Ono totiž nejde ­"jen tak­" u Radeonů přidat pixel pipelines, protože jsou prakticky hardwired k ROPs. Vyžádalo by si to hodně architektonických změn. Taková GeForce 6 už byla navržena s ohledem na budoucí větší paralelizaci. Nicméně, R520 by mohla mít pipelines výrazně upravené interně, takže nelze vyloučit tři pixel shadery na jednu jednotku, čímž by se výkon mohl výrazně pohnout. Stejně tak 90nm proces slibuje frekvence až přes 600MHz. Takže uvidíme.
Odpovědět0  0
Možná jsem to špatně formuloval, ale výherce bude losován jen z těch, kteří odpověděli na všechno správně, případně kdyby nikdo takový nebyl, tak alespoň na čtyři otázky. Případně to ještě nějak přepíšu.

Ad Slovensko ­- k tomu budu muset nechat vyjádřit se šéfredaktora, ale nic není nemožné. Nicméně nemohu nic slíbit.
Odpovědět0  0
Grafiky ATi používají klasicky pro 2x­/4x FSAA Rotated Grid Multisampling ­(RGMS­), tzn. antialiasing s pootočenou mřížkou, ale pro 6x FSAA pak sparse sample AA, který umisťuje vzorky ­"náhodně­" do mřížky 8x8 subpixelů ­(u každého pixelu samozřejmě stejně­). U Temporal AA se vždy používá sparse sample mřížka, a to tak, že sudé snímky jsou vzorky umístěny jedním způsobem, zatímco v lichých snímcích jinak. Když je hra dostatečně rychlá, oko vůbec změnu nezaregistruje a vyhlazování je na pohled kvalitnější ­(může ale docházet k jevu neklidných hran­).

Pokles výkonu na Radeonu 9800XT může být způsoben tím, že není použit klasický RGMS, ale sparse sample AA, což teoreticky zatěžuje GPU více. Navíc se každý snímek mění mřížka, což také může mít lehký dopad na výkon.
Odpovědět0  0
Vzhledem k zatížení shaderů v nejnovějších hrách bych těch 16 ROPs zatím nebral jako handicap, protože složitý shader stejně trvá několik cyklů, kdy by byla příslušená ROP idle. Když je jich ale jen polovina co pixel pipelines, už to začíná být hodně nahnuté. Třeba u Radeonů jsou ROPs v současné architektuře mnohem více svázané s pixel pipes, a proto si ATi nemůže dovolit nezávisle přidávat renderovací jednotky, aniž by přidala ROP. Je to možná jeden z důvodů, proč bude mít R520 jen 16 pixel pipelines.
Odpovědět0  0
No, je to tak půl na půl. Když si vezmeme čistě počet tranzistorů vs. výrobní proces vs. velikost čipu, spíš by to vypadalo na konfiguraci 8 vp + 6 quad. Když jsem srovnal 130nm vs. 110nm proces u ATi a nVidie, vyšlo mi, že u obou se plocha na 100 mil. tranzistorů zmenšila cca 1,17x. Z toho vyplývá, že nVidia v počtu tranzistorů G70 nelže a je jich opravdu 302M. Znamená to nárůst 80M oproti NV40 ­- když počítáme, že pipelines zabíraly už u NV40 kolem 80% čipu, tak na jednu jednotku ­(aproximuji pixel a vertex pipelines jako stejně velké­) vychází cca 8 milionů tranzitorů. U G70 by to znamenalo 10 jednotek navíc, tedy přesně 8 pixel a 2 vertex pipelines.

Jenže když se na to podíváme z pohledu výtěžnosti, tak je to podle mě naprosto nemožné. Na jeden 300mm wafer připadně asi 160 jader G70 a předpokládá se, že počet defektů je kolem 130­-160. To by znamenalo, že většina G70 by byla postižena a výtěžnost by se pohybovala velmi velmi nízko, tipoval bych kolem 20%. Kdyby nVidia z každého 300mm waferu vydělala jen pětinu, bylo by to hodně špatné. Jenže pokud má každé jádro další 2 quady a dejme tomu 2 vertex pipelines navíc ­(to nemluvím o ROPs­), hned by výtěžnost vylétla nahoru a vysvětlila i tak rychlou dostupnost GeForce 7800GTX a teď i 7800GT.
Odpovědět0  0
Omlouvám se, chyba nastala mezi židlí a klávesnicí ­(přesněji použitím kurzu Eura, nikoliv dolaru­). Správné ceny jsou o moc sympatičtější... Opravuji.
Odpovědět0  0
Trochu kompatibilnější by měl být ATITool, ale pokud není karta postavena na referenčním designu, nemusí fungovat ani ten.
Odpovědět0  0
áááno, díky. Já jsem ten change log četl jen zběžně a utkvělo mi hlavně ­" RivaTuner doesn­'t provide any patch scripts for 64­-bit drivers.­", takže aniž bych se nad tím více zamýšlel... Opravuji.
Odpovědět0  0
Dříve to byla hodně složita procedura ­- na ovladače se musely aplikovat 4 skripty z RivaTuneru ­(na soubory instalátoru, který se musel pomocí utility Windows opět zabalit­) a s trochou štěstí to prošlo. Většinou se ale hlavní skript nepodařil úspěšně provést, a tak bylo nutné flashovat BIOS, obcházet DeviceID apod. Teď už ale existují FreeFireGL drivery ­(http:­/­/downloads.rojakpot.com­/­), přes které by to mělo jakž takž fungovat.
Odpovědět0  0
Máte pravdu, už je to opraveno... Díky
Odpovědět0  0
U toho Voodoo2 se autor samozřejmě přepsal a protože je to druhá chyba na stejném místě, tak se autor začíná stydět :­-­) A 3dfx SLI je taky opraveno.
Odpovědět0  0
ad Voodoo2 SLI ­- máte pravdu, seknul jsem se o 2 roky, Rage Fury MAXX vyšla až 1999.

ad RAMDAC ­- tady jsem to spletl, samozřejmě jsem měl na mysli TMDS transmitér, který se stará o digitální výstup. Tou frekvencí jsem chtěl zdůraznit, že externě může protéct z karty mnohem více dat než přes PCI Express. Samozřejmě že to odpodívá i maximálním obnovovacím frekvencím, ale vše souvisí s propustností ­(proto jsou omezení i ze strany karty, ale to se týká jen analogu­).

ad koherence ­- no, nevím, jak by SuperTiling mohl ovlivňovat správnost dat, proto bych řekl, že ta moje myšlenka ohledně ­"roztroušenosti­" je správná. Jediný problém může nastat, když se používají efekty typu bloom, které mohou ovlivňovat i pixely zpracovávané druhou kartou. Přesto nevidím souvislost s koherencí dat. Ale můžeme o tom diskutovat.

a k poslednímu: To je jen myšlenka, o které se dá polemizovat.

No, snad tam těch nepřesností přeci jen ­"plno­" není...
Odpovědět0  0
Už chápu, špatně jsem se vyjádřil. 1:1 bylo za ten druhý bod jako takový, už jsem to opravil.. Ale musím se trochu smát, nad čím že to diskutujeme :­-)
Odpovědět0  0
Ten druhý bod týkající se propojení je ­"vyrovnáno­", tedy 1:1. Ale uvidíme, co výkon, třeba to bude jen Pyrrhovo vítězství.
Odpovědět0  0
Kousek nad tabulkou, ze které jste vyčetl, že RivaTuner nemá limit frekvencí, je návod, jak ho odemknout včetně screenshotu... :­-)
Odpovědět0  0
Díky za upozornění, tohle mi uniklo. Autor
Odpovědět0  0
Ohledně GeForce 6600GT nemáte pravdu, jádro verze pro PCIe běží stejně jako AGP na 500MHz ­(rozdíl je jen v pamětech­). A které to frekvence jsou nedosažitelné? Od toho jsem uváděl rozptyl kolem 50­-100MHz, aby si každý hned nemyslel, že mu GeForce 6600 poběží na 600MHz.
Odpovědět0  0
nVidia zpomaluje při teplotě kolem 90 °C, ale u ATi se přiznám, že si nejsem jistý ­(obecně hřejí méně a nikdy jsem s přehříváním problémy neměl­). Nicméně bych tipoval, že při přehřátí dojde asi k pádu hry a resetu frekvencí.
Odpovědět0  0
O odemykání pipelines jsem napsal článek před pár týdny, jedná se také o kompletní přehled toho, co zatím lze a nelze ­(odkaz doplním na první stránku­).

Ad voltage mods ­- o tom bych také rád něco napsal, ale problém je hlavně v tom, že nemáme možnost půjčit si X karet a pájet na ně dle libosti odpory. Takže půjde spíše o nějaký teoretický přehledový článek.
Odpovědět0  0
Sice ne přímo Omega, ale je to tam: ­"Dále je také možné použít přímo modifikované ovladače, které mají možnost odemčení Radeonu 9500 a 9800SE ve svém nastavení. Mezi ně patří např. ATi Radeon Softmod a jiné.­" :­-­)
Odpovědět0  0
Při testech byl monitor připojen přes DVI... Souhlasím s tím, že v této kategorii je HPčko jedním z nej monitorů, snažil jsem se to nějak napsal i pod závěrečnou tabulku s hodnocením. Ale také koukám koukám, že lidi často neznají nic jiného než Samsung 710T. A přitom nejde o žádnou špičku, když už nyní je na trhu mnoho monitorů s PVA nebo S­-IPS.
Odpovědět0  0
Ja vím, to byla reakce na kolegu :­-)
Odpovědět0  0
Možná to bude tím, že na rozdíl od jiných recenzí nepoužívám tolik eufemismů a píšu vše narovinu :­-­) Pak to vypadá mnohem negativněji. Navíc je v této době na hi­-endovém trhu několik monitorů, které mají opravdu vynikající parametry, takže ve srovnání s nimi je HP za 8,5 tisíce opravdu slabší.

Samsung 710T taky není, co se týče pozorovacích úhlů a zobrazovaných barev žádná špička, ale je o něco lepší. Nicméně L1740 je za ty peníze určitě dobrá koupě... Záleží na tom, jaké nároky má uživatel. Já bych sáhnul spíše k něčemu s technologií S­-IPS nebo PVA ­(o několik tisíc dražší­).
Odpovědět0  0
Skoro bych řekl, že je to kontrolní CRC součet ­(vypočítaný z celého obsahu BIOSu­).
Odpovědět0  0
Jo jo, nebudu chodit kolem horké kaše. Ty výsledky po přetaktování jsou trochu nevyzpytatelné, protože zde máme 10 grafik se stejným jádrem, ale jinými paměťmi ­(velikostí i časováním­). Občas nějaký výsledek ulétl, což může být způsobené nějakou prodlevou v měření nebo také tím, že některé hry jsou závislé více na jádře, jiné na pamětech. Někdy může karta s 256MB paměťmi být rychlejší, jindy pomalejší než zbytek. A drze se přiznám, že jsem to po sobě příliš nekontroloval, protože jsem tyto testy zařadil spíše okrajově ­- ostatně, výkon aní není zařazen v závěrečném hodnocení, jen je ­"opsán­" pomocí bodování za OC a nadstadardní frekvence.
Odpovědět0  0
V RivaTuneru si otevřete záložku Power User a v menu RivaTuner 2.0 RC 15.4 ­\ Overclocking ­\ Global zadejte vyšší hodnotu u položky MaxClockLimit. Já používáme 96 ­(hexadecimálně­), což je v desítkové soustavě 150 ­(přepíná se to pátým tlačítkem zleva dole v tomtéž okně­). Kdyžtak to doplním do článku.
Odpovědět0  0
Nezlobte se, ale to je hloupost. V podstatě po mě chcete, abych hodnotil grafiku s paměťmi na 300MHz stejně jako model s 580MHz, tedy s frekvencí skoro dvojnásobnou. Vždyť právě to, že má dány tyto parametry díky komponentům, ji odlišuje od ostatních karet a řadí výkonnostně o kategorii výše!

Navíc mi přijde logické, že karta postavená na vlastním designu PCB s paměťmi GDDR3 bude lepší než ostatní, což já MUSÍM nějak odrazit v hodnocení. A nemůžete ani tvrdit, že se neohlížím na cenu, proto uvádím tabulku cena­/výkon a zdůrazňuji ­"šílenou­" cenu v závěrečném hodnocení.
Odpovědět0  0
Přetaktování jádra o 116MHz a pamětí o 180MHz mi přijde jako solidní overclocking. Kdybych měl rozepsat hodnocení OC podrobněji, tak u jádra jsem hodnotil výslednou frekvenci nezávisle na původní a u pamětí naopak nárůst frekvence vzhledem k nepřetaktované kartě. A vzhledem k tomu, že nejlepší klasická GeForce 6600 přidala na pamětech 70MHz, zatímco MSI 2,5x tolik, přijde mi bonusový bod adekvátní.

Ad bonusy za nadstandardní frekvence ­- stále je zde velké množství lidí, kteří se přetaktovat neodváží ­(skoro bych řekl většina­), a tak jsem čtyřem kartám přidal za vyšší takty body. Konkrétně u MSI nevidím důvod, proč bych ji měl kvůli vyšší ceně znevýhodňovat v hodnocení... Pak by test ztratil hodně na objektivitě ­(přepočet Kč­/bod je uveden­).

Autor
Odpovědět0  0
Tento článek už připravuji, ale ještě nedorazila grafika... V každém případě bude.
Odpovědět0  0
Tak nějak... Náš distributor nemá GeForce 6600 non­-GT PCIe od Sparkle v ceníku a když jsem psal přímo výrobci, nedostal jsem ani po urgencích odpověď. Ale doufám, že je to jediný výrobce, který chybí. Možná ještě dorazí Point of View, ale tato firma zatím hledá distributora.
Odpovědět0  0
Nebojte, bude ve středu a s rozšířenou metodikou, takže se máte na co těšit.
Odpovědět0  0
No, umístění na konci článku mi přijde trochu logické, ale dobře. Nicméně když je recenze pojmenovaná ­"Velký test 10x GeForce 6600: popis karet­", dá se druhý díl předpokládat. Ne? :­-)
Odpovědět0  0
Drobná chyba v posteditaci :­-­) Jdu to opravit, díky za připomínku.
Odpovědět0  0
Nejspíš příští týden, už se na tom pracuje :)
Odpovědět0  0
Stačí trochu číst:

"Zítra se podíváme na celkové shrnutí, ve kterém naleznete nejen testy výkonu jednotlivých grafických karet, ale hlavně vzájemné srovnání v různých kategoriích hlučností chladiče počínaje a přiloženými hrami konče. Pokud Vás zajímá celkový vítěz testu a nejlepší karta v poměru cena­/výkon, zůstaňte naladěni!"
Odpovědět0  0
Dělají to kompresní algoritmy a frekvence paměti ­(225MHz vs. 275MHz­).
Odpovědět0  0
Díky za info, neměl jsem nejnovější NiBiTOR k dispozici, takže jsem to nezkoušel. Doplním to do článku co nejdříve. Každopádně, nejsložitější část s flashováním neodpadá.
Odpovědět0  0
Aha, tak se opravuji... nejnovější NiBiTOR opravdu obsahuje možnost zapnutí teplotního senzoru na GF6600. Nicméně část se stažením a zpětným nahráním BIOSu do karty do neodstraní, takže snad článek nebyl k ničemu.
Odpovědět0  0
Jak píše DavesMan, nejlepší je sehnat záložní PCI grafikua, ale stejně tak dobře jde naflashovat BIOS poslepu. Na připravené bootavací disketě stačí mít původní BIOS, počkat, až systém nastartuje ­(disketa přestane ­"chroupat­") a naťukat do klávesnice ­"nvflash ­-5 ­-6 6600.rom­", což jde bez překlepu docela dobře. Poté již jen ­"enter­" a ­"y­" ­(potvrzení­) a restartovat počítač.
Odpovědět0  0
Já se spíš divím, že na Diamond edici nemáte monitoring již zapnutý. Radši bych se nejdříve podíval do ovladačů ­(snad z vás nedělám blbce :­-­). Ale kdybyste ho potřeboval aktivovat, neměl by posunutý řetězec vadit. V nejhorším se stane to, že se monitoring nezapne a bude potřeba nahrát původní BIOS.
Odpovědět0  0
MSI v Diamond edici je jediná GeForce 6600, na které je monitoring zapnut defaultně, ostatní karty s GeForce 6200 a 6600 ho mají vypnutý. To samozřejmě neplatí pro 6800LE a 6600GT, které zmiňují dva další pisatelé.
Odpovědět0  0
NiBiTOR je k ničemu, protože neumí vyhledávat v integrovaném hexeditoru a potřebný řetězec byste museli hledat ručně... což není v 63 kB BIOSu žádná slast.
Odpovědět0  0
Uvedené BIOSy jsou pro PCI­-E verze, takže nezbývá než hledat. Ale vzhledem k tomu, že mvktech.com je nejlepší stránka zaměřená na BIOSy grafických karet, tak jinde asi nebude... Ale třeba ano.
Odpovědět0  0
Revize 1 ­- http:­/­/www.mvktech.net­/index.php?option=com_remository&
Itemid=26&func=fileinfo&parent=folde­r&filecatid=471
Revize 2 ­- http:­/­/www.mvktech.net­/index.php?option=com_remository&
Itemid=26&func=fileinfo&parent=folde­r&filecatid=787
Odpovědět0  0
Já ale také nejsem sám :­-­)

S přáním krásného zbytku večera,
Zdeněk Kabát
Odpovědět0  0