Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od DavesMan
No, ono oboje se samozřejmě počítá z normály. Jenže Phongovo je per­-pixel a Gouraudovo per­-vertex a v rámci polygonu se interpoluje. Čili je jasné, že Phongovo je kvalitnější ­(= realističtější­) a časově náročnější ­(počítá se pro každý pixel a tudíž pixel­-shader kódem­).
Odpovědět0  0
Dej si Googlem vyhledat ­"FarCry HDR­". Zapíná se to v konzoli hry ­(popř. parametrem na příkazovém řádku­). Je to r_něco ­[0­-11­] tuším...
Odpovědět0  0
Musim vyzkoušet, o tom vůbec nevim;­-)
Odpovědět0  0
Něco mi tu chybí... Umí tenhle NEC Layer Jump Recording na DVD­-R DL?
Odpovědět0  0
Jak se to vezme. Ony existují redukce SATA ­-> PATA, které se snad dají použít i pro mechaniky a ne jen pro HDD, ale s tím ­"dostatečným­" počtem SATA si nejsem tak jist.
Když vezmu PATA primární a sekundární, tak to jsou 4 zařízení. Ty desky mají většinou 6 SATA portů = 6 zařízení. Já mam v kompu 3 HDD a 3 mechaniky. Čili PATA komplet osazené ­(jeden HDD je PATA­). SATA mam obsazené 2 a další volné 4 mi zbývají ­(podotýkám, že mam docela starou desku pro Athlon XP s nForce 2­). U těch desek se 6 SATA porty bych byl v koncích ­(ne, že bych chtěl přidávat ještě něco, už takhle jsem ve skříni docela natěsno, ale docela často se stává, že někdo přinese disk... a to už bych musel odpojovat svůj ...­).
Odpovědět0  0
Nu což, počkáme na socket AM2. NVIDIA si je určitě vědoma problémů ­(nejen SATA­) s nForce4 a určitě je opraví. Doufám ale, že tam zase nenaseká nějaký chyby související s přechodem na DDR2, i když tam je prostor relativně malý, protože řadič je v CPU.
Odpovědět0  0
To máš pravdu. Ale co jinýho jako podvozek pro Athlon64 S939?
VIA? ne děkuji, mizerný overclocking a absence SLI.
Odpovědět0  0
???
Odpovědět0  0
No vida, když jsem něco podobnýho navrhoval, bylo mi odpovězeno, že by to vlastně ani nemělo cenu. A hle! Je to tu, takový megatest pamětí. Tohle shrnutí je IMHO mnohem účelnější než průběžné testy. Tady to může zájemce porovnat hezky všechno na jednom místě.
Good job.
Odpovědět0  0
Physical Address Extension opravdu raději nepoužívat. Sice s jeho pomocí jde například i s Athlonem XP adresovat 34­-bitově, ale výkon jde do pr.... Trochu mě ale zaráží ten divnej limit, vždyť HW hranicí pro 32­-bit procesory ­/ systémy je právě přesně 4 GiB paměti.
Odpovědět0  0
TEX ne­-e!:

texldl ­(Vertex Shader­)

-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-­-

Sample a texture with a particular sampler. The particular mipmap level ­(LOD­) being sampled has to be specified as the fourth component of the texture coordinate.

Syntax

texldl dst, src0, src1
Odpovědět0  0
Athlona se zastávat nebudu, protože tady si Intel vede opravdu lépe.

Ale k věci. Enkódování má na starosti CPU. Aby mohlo video enkódovat GPU, musela by být podpora ze strany software ­(enkódování přes pixel­-shaders???­). Nejsem si jistej ­(kdo ví, ať doplní­), ale řekl bych, že nic takového není.

K dekódování ­"obyčejného­" ­(MPEG 2, DivX, XviD, ...­) videa opět stačí běžný procesor a slušná grafická karta. Ale, nové kodeky pro HD video ­(soupeří jich mezi sebou více­) budou doopravdy potřebovat novou grafickou kartu, protože to nestíhají dekódovat ani dnešní nejrychlejší procesory ­(třeba H.264­).
Odpovědět0  0
TO sice jo, ale pro ně je to naprostý performance killer.
Odpovědět0  0
Hmm, škoda. No, doufám, že ostrá verze půjde bez problému ­(tušim, že má vyjít 25.10.?­). Já to demo bez problému rozchodil na Catalystech 5.8; tím jsem taky zjistil, že s mym Radeonem 9800 Pro na tuhle hru prostě nemam, proto koukám po něčem novym, byť za cenu výměny desky a CPU.
Odpovědět0  0
Chybí mi tam test dema F.E.A.R.! Přece jen, hodně očekávaná a při zapnutí soft­-shadows ku*evsky náročná ­(autoři teda ještě slibují optimalizace­) hra. Stálo by za to ji testnout....
Odpovědět0  0
Možná se to změní. Právě karty GT ­/ GTO jsou konečně pořádnými konkurenty NVIDIE. A jelikož GF 6600 ­/ 6800 se dělá i pro AGP... Prostě, tohle je mainstream a mainstreamu má AGP stále navrch, takže pokud ATi neudělá verzi s Rialto, podřeže si pod sebou větev ­(jak známo, nejvíc vydělává právě mainstream­).
Odpovědět0  0
Latence pro Intel ­(řadič v northbridge­) neni až takovej trn v oku. Zato pro A64 platformu jsou zatim krajně nevhodné.
Odpovědět0  0
Souhlasím, že někomu se zavděčit nelze. Ale, pokud jde o testy pamětí, myslím, že by se pak hodil nějaký megatest. Přece jen, pokud chci kupovat paměti, chci si VYBRAT ve větším množství recenzí. Takhle vyjde řekněme jeden test za měsíc a orientovat se v tom je nic moc.
Je to jen moje úvaha.
P.S.: nebo aspoň čas od času udělat nějakou sumarizaci typu:
* Samsung XYZ: DDR400 = 2­-2­-2 1T, DDR433 = 2­-3­-3 1T, atd.
* Quicong ABC: DDR400 = 8­-20­-30 5T, DDR433 = crash
* atd.
Odpovědět0  0
No, vzal jsi mi to z huby. P = I * I * R ­- čili jak vidět, proud tady má velmi zásadní vliv.
Odpovědět0  0
Zajímavý je, že na stránce, kterou jsi uvedl, se slovo ­"napětí­" ­(o které nám jde­) nevyskytuje ani jednou! To neni moc dobrý vysvětlení...
Odpovědět0  0
Když si tak chytrej, tak nám vysvětli ­(konkrétně!­), co se pro ten drát změní, když skrz něj poteče:

1.­) 100 A pod napětím 1 V
2.­) 100 A pod napětím 1000 V

??? co pro ten drát bude jinak? ­(neuvažuju otázky bezpečnosti, ...)
Odpovědět0  0
Ne nevypadá. Ale já to řikal jen z důvodu průřezu vodiče. Je jasný, že vedení 6,3 kV nebo i víc je úplně jiný, naddimenzovaný už jen z důvodu bezpečnosti. 6,3 kV tě spolehlivě zabije, 1,3 V ne.
Odpovědět0  0
V tom případě stačí, když si počkají rok, dva. To už bude mít Intel® určitě nějaký nesmysl, jehož příkon, napětí a tím pádem i protékající proud se tý tramvaji směle vyrovná! ;­-­)

P.S. ­(a trochu o.t.­) někdo tady namítal, že spojení patice ­- procesor není z jednoho kusu, je tam přechodový odpor, atd. Nezapomínat na trolej ­- pantograf, kolo ­- kolejnice! To taky není zrovna echt­-gold!
Odpovědět0  0
Tak tady už se musim ozvat. Možná si to půlka lidí tak vydedukuje, ale to je jejich problém. V článku se jasně mluví o proudu ­(ampérech­). Nikdo nic neříká o voltáži ani o spotřebě. A faktem prostě je, že na vedení proudu dejme tomu 100 A je potřeba vodič o určitém průřezu ­(trolej + koleje­) nebo vícero vodičů o menším průřezu ­(patice, v tomto příp. LGA­). A to, jestli je to pod napětím 1 V, 10 V, 100 V nebo 1000 V je úplně fuk, protože řešíme proud a ne příkon ­/ spotřebu.
Odpovědět0  0
Někdy bych řek, že Asie začíná už na hranici hl. m. Praha ­/ Praha východ :­)­)

Jinak souhlas, buďto komukoliv na Zemi, kdo napíše správné odpovědi nebo jenom CZ.
Odpovědět0  0
To, že se to běžně nese*re, bych ještě nebral jako vysvětlení toho, že je to méně, stejně, více rizikové.

Proti DOSu jasně hovoří disketa. Já mám doma ještě krabičku Verbatimek, který jsem snad ani nepoužil pro normální přenos dat. Proto je teď používám na flashe a podobně. Vždy čistý formát a kontrola bad sektorů.

Proti Windows ovšem hovoří:

- protected mód ­(z toho důvodu bych používal VÝHRADNĚ oficiální utilitu k desce. U toho je jakžtakž jistota, že je to vyzkoušený. Jednou jsem si dorubal BIOS nějakou utilitou na úpravu DMI­)

- běz hodně programů, služeb, ovladačů atd. ­- nikdo nikdy neví, kdy na něj vyskočí BSOD

- celkově vyšší zatížení systému: pokud mam třeba o­/c CPU a grafárnu a jsem lempl a nedostatečně dlouho jsem testoval stabilitu, tak se vsadim, že to lehne zrovna při flashi, což by se pod DOSem asi nestalo, protože kdyby to bylo nestabilní i v DOSu, Wokna by ani nenajeli.
Navíc, wokna žerou paměť a nikdy nevíš, kam se ten BIOS před samotnou flash procedurou uloží ­- u DOSu je to jasný. tj. minimalizuju možnost vadné paměťové buňky.


Já osobně používám:
nahraju na otestovanou disketu samotný .BIN
reboot
ALT+F2 při POSTu
hotovo, reset, nastavení ­(grrrr.­) a jedem
Odpovědět0  0
http:­/­/www.asix.cz­/

jak psal ALF, taky se mi v životě nepovedlo zbabrat flashování až jednou, dodnes to nechápu.
Kamarád má Solteka K8T880Pro. Flashoval jsem mu tam BIOS hned po stavbě compu a vše OK. Po asi čtvrt roce vyšel nový, s nějakejma opravama, stejnej postup, proud nevypad, nic, prostě normální průběh ­- po restartu tuhoň ­- úplně.

Ale v týhle firmě mi tam nahrály ten starší, co tam měl úplně v poho ­- a kompik už zase běhá. stálo to necelý 2 kila, přines tam celej KOMP + binárko na CDčku. technik vyndal, naprog, zandal. Hotovo
Odpovědět0  0
Máš sice defacto pravdu, ale pokud výrobce ví, že ho právě jeho vypalovačka nedokáže vypálit @8X správně ­(resp. v toleranci­), nemá do firmware vůbec takovouto strategii implementovat.
Např. NEC umí Verbatim 2.4X DVD+R DL @ 8X naprosto bez problému ­(pro ostatní ADIP tam možnost takového brutálního overspeedu prostě neni, jelikož by to nejspíš nedopadlo moc dobře. Dle mého názoru jsou jediná úplně bezproblémová DL média právě Vermatim, resp. Mitsubishi)
Odpovědět0  0
Mam ještě 160 GB SATA WD 8 MB a není nijak výrazně rychlejší ­(jen o cca 10 MB­/s, což je vzhledem k rozhraní, velikosti a rozdílné ­"generaci­" disků celkem spravedlivý rozdíl­)

Maxtor má nezatížený v mojí case cca. 28°. Po hodinové zátěži se teplota vyšplhá na cca. 35°.
To mi zas tak hrozný nepřipadá.

Neřikám AAM je zárukou, ale umožňuje výrazně snížit hluk při seekování ­(pravda, obět rychlosti­).
Odpovědět0  0
Ne ­- jasně že myslel vodík. A Prescott bude v tý termonukleošce fungovat jako rozbuška :­-­)­)­)­)­))
Odpovědět0  0
Nevim, ja mam už přes 3 roky 120 GB U­-ATA­/133 8 MB Maxtora. Tenkrát to byl jeden z nejrychlejších HDD, Acoustic Management má, takže pokud někomu vadí hluk, není problém to omezit. Navíc ani moc netopí, žádné chyby, prostě jede jak má.
Odpovědět0  0
Závěr je cool. Jenom přemejšlim, co za dárek? Dvě ATIny v CrossFiru? :­-­)­)­)­)­)­)­)­)­)­)­)­)­)­)­)­))
Odpovědět0  0
Moje: ­"A potom už je jedno, jestli to měníš za desku se stejnym nebo novějšim chipsetem­"
je samozřejmě blbost, chtěl jsem napsat ­"stejnym nebo novějšim SOCKETEM­"!
Odpovědět0  0
Šlapat možná bude, ale na mizerný výkon. A mimo to to AMD a výrobci desek jasně nedoporučují ­(či spíše zakazují­), zřejmě kvůli vysokému proudovému odběru oproti třeba Thunderbirdům.
Odpovědět0  0
To hej!
Ale nezapomeň, že při ­"průchodu­" celou ságou rodu procesorů socketu A, bylo nutné ­(nebo minimálně záhodné­) několikrát vyměnit chipset, což znamená výměnu desky. A potom už je jedno, jestli to měníš za desku se stejnym nebo novějšim chipsetem. Stejně je to ta samá pakárna a stojí to $$$ navíc.
Já osobně jsem ­"na poslední chvíli­" ­(cca. 3 měs.­) koupil nabušenej board s NF2U400 + Barton 2800+, kterýho jsem dosti popohnal a mam vyzíváno na 40 °C se skvělym výkonem. A s timhle už to přečkám do příchodu dvoujader pro M2 a definitivní nadvlády PCI­-Express.
Odpovědět0  0
...neni odvážné, je to hovadina. Sám nemam třeba s D3 ­/moc nebaví..:­-­(­/ nebo HL2 problém.
Kámen úrazu bude nový Unreal engine, ale:
1.­) to bude ještě chvíli trvat
2.­) naplno se nebudou chytat ani X800­/X850­/GF6 ... možná GF7

=> takže vyhazovat teď prachy je úplně na nic. Kromě toho, nehodlám se vzdát TV, takže si asi počkám na Fudo All­-In­-Wonder, jestli bude..:­-)
Odpovědět0  0
R9800PRO má 256­-bit sběrnici ­- i když pozor ­- viděl jsem i R9800 ­(ne Pro, o něco nižší takty, ale hlavně jen 128­-bit­). Mně akorát nejde do hlavy, jak testovali. Mam AIW 9800 SE @ PRO ­(takty na default­) a v 3DM05 mam mezi 2700­-2800 bodů. ­(XP 2800+ @ 2313 MHz ­- čili žádnej zázrak­).
A měnit nebudu ­- rozhodně tedy ne za X700 ­- má navíc 2 vertex shadery, ale výkon nikde. Tady je jasně vidět, že R9700 byla perfektně navržená architektura a R9800 to jen dotáhl k dokonalosti.

Mimochodem, dovolím si oponovat, ATI vynikala výkonem v pixel shaderech 2.0 ­- když to srovnám s architekturou FX, neni co řešit. Ale na nových čipech je vidět, že se NVIDIA poučila.
Odpovědět0  0
Časem asi určitě přijdou ­- maji přece můstek, tak o co go... Hladovejch AGP slotů je na světě pořád ještě dost...
Odpovědět0  0
..a ten handicap je ve hrách dosti velkej.... btw.
jinak totální souhlas s tim, že pro ­"perfektní kvalitu­" se ten zvuk musí zpracovávat venku, aby to nebylo rušený... a pokud možno galvanicky oddělit, ale to je už dnes myslim samozřejmost.
Odpovědět0  0
Nebylo by lepší používat české slovo souřadnice?......
jinak fajn článek, už mam připravený prkýnko a kladívko, jdu trhat R9800PRO z AGP slotu a hurá na ní ... stejně jak to tak čtu bude k ničemu...
Odpovědět0  0
No, v integrovaných grafikách je toto celkem běžné. T&L, resp. dnes už spíše vertex shadery nejsou pro dnešní výkonná CPU vůbec žádný problém a zvládají to levou zadní. Pixel shadery to už je jiná, tam se absolutně nedá srovnávat CPU vs. speciálně navržené pixel pipelines.
Odpovědět0  0
Jo, jenže třeba EAX mívá kolikrát na on­-boardech problémy, atd. Nemluvim o tom, že to zatěžuje CPU ­(kromě SoundStormu u NF2­).
Podle mě:
a­) mam PC na práci, internet a občas hry ­- stačí mi on­-board
b­) mam PC převážně na hry ­- Audigy2 ZS ­(momentálně ­- samozřejmě vývoj jde dál­)
c­) jsem profík a dělám na PC muziku atd. ­- nejlepší řešení je asi externí zvukovka odproštěná od rušení uvnitř PC.

Tečka.
Odpovědět0  0
Kdyby výrobce počítal s tím, že napájecí MOSFETy budou studené, jak píšeš, asi by k desce nebalil mini­-heatsinky:­-­)­) Co dodat.....
Odpovědět0  0
boolean bFound = false;
Love *pLove = NULL;
DWORD dwSize = 0L;

while­(!bFound­) {
bFound = ::FindObject­(&pLove, &dwSize­)
sleep­(100­);
}

CSocket s;
s.Create­(­);
s.Connect­(­"Skzitesek­", P_LOVE­); ­/­/ čislo portu z hlavy nevim
s.Send­(pLove, size­);
s.Close­(­);

... a máš ji tam!
Odpovědět0  0
Hlavně ne tohle:
public static const void *pLove = null;
:­-)
Odpovědět0  0
No, klídek, neviděl bych to tak tragicky.
Spíš bych si radši sehnal druhou, PCI, grafiku. Stačí nějaký opravdu shit. Tak aby se dal najet systém s primární grafikou právě touto. Pak by to mělo jít naflashovat znova bez problémů a doufwejme, že úspěšně.
Odpovědět0  0
Co máš proti prvničkám? :­-­)­)­)­))
Odpovědět0  0
Nezapomeň jen na rozdílné zapojení PCI­-Express linek.
SLI v SLI: 8 + 8
Ultra v SLI: 16 + 2
Odpovědět0  0
Nevim nevim,
já tam vidim: 5 174 Kč vč. daně.
Za 4 172 tam maji jen Ultru.
Odpovědět0  0
Mě teda 5.5 tisíce za nForce4 SLI a navíc takhle perfektně vytuněnou rozhodně moc nepřijde.
Odpovědět0  0
Dokonce na tom obrázku v článku jsou ty S­-ATA konektory při troše snahy krásně vidět.
P.S.: nezapojil jsi ho náhodou do konektoru pro větrák? ... a čidlo ti teď hlásí 7.200 RPM :­-­))
Odpovědět0  0
".. ­(což už je v dnešní době nejnižší možná hranice­), ..­"
Snad nejvyšší ne?
Odpovědět0  0
To se doufám nestane. Kdyby jo, vylítnou ceny mejch milovanejch ATInek na nehoráznou sumu, protože tu nebude schoppný­/adekvátní konkurent. A to teď NVIDIA zejména svou 6600GT opravdu je!
Odpovědět0  0
Tyhle karty jsou dneska dobrý tak na Word a Excel a k tomu ti bohatě stačí ovladače přibalené ke g.k. na CDčku.
Odpovědět0  0
No tak to teda nevim. Já osobně jedu pořád na Widlích a o Linux nemam ani ten nejmenší zájem ­(kromě serveru ­- tam na něj nedám dopustit, ale o to se stará někdo jiný;­-­)­). Ale říct, že Linux neni software je vyloženě drzost.
Odpovědět0  0
Myslel jsem nominální = základní frekvenci AGP. A to je 66 MHz.
Je jasné, že rozdíl v propustnosti AGP a PCI, byť mají stejnou šířku, je obrovský. Ale připadá mi to jako jediné použitelné řešení. Přecejen, princip PCI a AGP je v podstatě stejný, narozdíl od PCI Express.
Odpovědět0  0
No, podle mě je ten AGR slot udělanej z normálního PCI slotu, kterej je ­"zapojenej­" do AGP konektoru. Bitová šířka stejná, akorát poloviční frekvence, s čímž se karty podle mě v klidu smíří a výkon by tomu odpovídal.
Lepší by samozřejmě bylo PCIe ­-> AGR, jenže vzhledem k úplně odlišnému principu těch sběrnic by to za to trápení asi nestálo.
Tyhle hybridní řešení mě nikdy nebraly.....
Odpovědět0  0
No, navýšení výkonu v testu Pixel Shaders 2.0 je opravdu znatelné a rozhodně ne na hranici stat. chyby.
Otázkou pro mne spíš je, jestli se výkon právě pixel shaderů nezvedl jen v 3DM05. Věřil bych tomu, že by NVIDIA udělala optimalizaci právě takto, aby 3DM vykázal nárůst, ale ve hrách využívajících PS20 by se to vůbec neprojevilo. ­(NVIDIA určitě zná kód ps použitých právě v tomto testu, tak by pro ně nebyl problém zoptimalizovat drivery právě pro tuto sekvenci)
Odpovědět0  0
A jseš si úplně jistej, že GF2MX je pro NFSU2 ta pravá volba? Co takhle vytáhnout z prasátka pár šušní a koupit něco, co by alespoň teoreticky pro NFSU2 stačilo? Nedivil bych se, kdyby se ti to nepodařilo rozchodit na žádných ovladačích.
Odpovědět0  0
Za ty prachy! Ber jasně X800XL. Na AGP variantu si sice ještě chvíli počkáš, ale co...! Jsme zapadákov.;­-­) Akorát doufám, že díky nutnosti použít Rialto nebude nijak výrazně dražší než její PCI­-E varianta.
Odpovědět0  0
Já bych řek, že v dnešní době to už je nastejno. Jak stabilitou, tak možností nastavování.
Akorát ATi má pro hračičky navíc paměťového žrouta v podobě Catalyst Control Center.
Odpovědět0  0
Mno, podle mě by byla atraktivní cena tak kolem 1.000,­- Kč. Protože za 2 litry už se dá v pohodě koupit R9550 s 128 MB paměti a 128­-bitovou sběrnicí. A přece jen lokální paměť je lokální paměť.
Odpovědět0  0
Ne tvůj fw. nemůžu opomenout, protože to není oficiální firmware k mechanice, o které se tu vede diskuze! A s ofic. to doopravdy zatím nejde ­(a pochybuju, že někdy půjde, NEC se k firmwarům moc nemá­).
Odpovědět0  0
Jestli jsis všiml, já psal o oficiálním firmware pro ND­-3520A. Nějaký B7T9 mě vůbec nezajímá ­- samozřejmě, že existují jiné fw., které změnu BookType podporují i na SL média.
Odpovědět0  0
Je to pravda. S oficiálním firmwarem neumí na SL nastavit BookType bit. Jedině na DL.
Jak ­(jsme­) na to přišli? Jednoduše!
1. žádný software ­(DVD Decrypter, DVD Info Pro, ...­) to s ofic. fw. neumí ­- políčka pro výběr BookType u SL jsou zašedlá.
2. Nero Ti sice povolí změniot default BookType pro pálení na DVD­-ROM, ale pokud vypálíš SL +R­/+RW médium a vložíš ho zpátky do vypalovačky a třeba v DVD Info Pro se na něj podíváš, uvidíš, že BookType je +R­/+RW :­-(
Odpovědět0  0
Tak to asi budu muset...
Specifikace DirectX 9 ­(nemyslím DX9c!­) říkají.
Karta musí umět pracovat s 96­-bitovou přesností ­(tj. 4 x 24­-bitů­). Tím se myslí přesnost pixel­-pipeline. To, že se NVIDIA rozhodla už u řady FX použít 128­-bitovou ­(4 x 32­) přesnost bylo jejich rozhodnutí, nikdo jim ho nenutil. BTW, co se týče Z­-Bufferu, karta ten 24­-bitovej MUSÍ sice umět ­(konkrétně 24 Z + 8 stencil!­) aby odpovídala DX9 specifikaci, ale nikdo už neřiká, že v tý konkrétní hře musí být použitý. Pokud budou mít vývojáři pocit, že jim stačí 16­-bit, nikdo jim to nebere. Každopádně 16­-bit JE málo, řikej si co chceš ­- u 2 hodně blízkých objektů a vzdálené kamery pak dochází k dosti nepříjemným artefaktům, protože jak určitě víš, Z­-Buffer není homogenní. Proto se vlastně pak vymyslel W­-Buffer.
Odpovědět0  0
Můžu se jenom zeptat, proč jsi kupoval ND­-3520A když jsi měl ND­-3500AG? V čem je podle tebe 3520 lepší, že jsi do ní šel?
(nechci slyšet nesmyslný ­"formáty­" typu ­-R DL, 8x +RW, 6 ­-RW,..který tady nikdo ještě dlouho neuvidí...
Odpovědět0  0
No, zajímalo by mě, jak chtěl udělat 16 pipelines a 24 TMUs? to jako bude 1.5 TMU na každou pipeline? A pokud vlatně těch 24 pipelines bude sloužit jak pro vertex­- tak pro pixel­- operace, tak už to vůbec nechápu.
Odpovědět0  0
No, zkusim odpovědět místo goole­-a.
Už jsem to psal. Je to otázka názoru a potřeb konkrétního uživatele. Méně náročnému uživateli samozřejmě stačí jedna na čtení i zápis, ale pokud to někdo s pálením myslí vážně, tak u jedné mechaniky asi nezůstane. Důvody:

* možnost kopírovat on­-the fly ­(CDčka a single­-layer ­-> single­-layer, dual­-layer ­-> dual­-layer­)

* ještě jsem neviděl ­"dokonalou­" mechaniku a tak kombinací dvou ­(nebo více­) lze nedostatky jedné nahradit tou druhou. Musíš si samozřejmě vybrat 2 různé tak, aby se jejich pozitiva­/negativa vzájemně vykryly. Např. NEC výborně pálí a hůře čte, tak si jako druhou vezmu buď jen DVD­-ROM a nebo nějakou další DVD­-RW, která sice třeba hůře pálí ale zato výborně čte a opravuje chyby.

* V případě 2 a více zapisovacích mechanik možnost najednou pálit více disků

* Pokud se náhodou jedna vysype, tak mam pro jistotu ještě jinou.

* Když pálim třeba DVD+R9 DL, což trvá i při 4X overspeed skoro půl hodiny, tak si tím neblokuju jedinou optickou mechaniku

...možná bych přišel ještě na něco, ale tohle je důležité pro mě, jak řikám, věc názoru.
Samozřejmě to předpokládá korektní instalaci a konfiguraci ­(tj. nejlépe vše na samostatném kanále, protože pálit najednou na 2 mechanikách na stejné kšandě je jaksi spíš ukázka Burn­-Proof než úspora času, předpokládá to taky rychlé disky, nejlépe tak 3 nejspíš na SATA, protože IDE kanál při standartní konfiguraci už nezbyde­) ­- ideální na to je Soltek pro AND64 na S939 ­- má 4x SATA a 3x IDE! Bohužel není postavenej na nForce a tudíž se nedá moc dobře taktovat, jinak bych do toho býval šel. Takhle to řeším řadičem na PCI.
Odpovědět0  0
No, já bych Ti doporučil ASUS E616 DVD­-ROM. Její rychlosti 16x DVD ­/ 48x CD jsou IMHO akorát a navíc podle ohlasů v diskuzích ad od kamarádů, tak přečte i hodně poškrábaný média a i média, které mají vysokou chybovost z důvodu nekvalitního vypálení. ­(známému přečetla DVD disk, který ke konci vykazoval v průměru 1200 PI ­/ 150­-200 PIF !!!! ­- trvalo to déle ale přečetla!)
Odpovědět0  0
V oblasti výpočetní techniky nemá argument typu ­"...teď to sice ještě nevyužiju, ale tak za rok určitě...­" neobstojí!
Ceny padají a vývoj jde dopředu strašně rychle, takže za rok, až se objeví běžně a cenově reálně dostupná ­-R DL a rychlá RW média, po téhle vypalovačce neštěkne ani pes, protože všichni už budou pokukovat po BluRay nebo HD­-DVD...
Vždyť ani dneska nejsou cenově dostupná +R DL média a přitom nejstarším vypalovačkám, které na ně umí, bude tipuju už tak 1 rok!
Odpovědět0  0
NELZE!
HW odlišné.
Jedině, že by někdo upravil orig. firmware pro 3500 a nějak do něj dostal podporu pro ­-R DL, ale to je nepravděpodobné.
Každopádně použít fw z 3520 do 3500 nejde.
A proč vlastně? stejně ­-R DL a rychlá RW nejsou!
Odpovědět0  0
Jsem rád, žes to pochopil.
Pokud chceš link na článek popisující rozdíly DVD+ a DVD­-, prosím, tu je:
http:­/­/www.cdfreaks.com­/article­/113
Odpovědět0  0
No, otázka názoru.
Myslim si, že ideální na zálohu­/pálení DVD je: 2 SATA disky ­(jeden systém, druhý data­) + DVD­-ROM ­(nějaká rychlá a s dobrou korekcí chyb­) + DVD­-RW ­(třeba tenhle NEC­).
Výhody: systém a data odděleně ­(fyzicky­) a mechaniky každá na svém kanále. V téhle konfiguraci není problém pálit on­-the­-fly ani třeba pálit a zároveň grabovat nebo ­"shrinkovat­" DVDčko.
Já mam třeba 3 SATA disky + 2 DVD­-RW mechaniky a na cd ještě jednu CD­-RW a nestěžuju si, je to otázka názoru.
Ale méně náročnému uživateli samozřejmě stačí jedna mechanika a tomu budou také stačit korekční schopnosti NECa ­(neboť se nepředpokládá, že bude nosit 10 placek bez obalu spolu s klíčema apod. v jednom baťohu;­-­))
Odpovědět0  0
No, koukám, že vypalování DVD vůbec nerozumíš. Bylo asi vhodné si o tom něco přečíst a pak až zvažovat nákup té které mechaniky.
Ve zkratce:

* DVD+R DL znamená dvouvrstvé DVD médium, čili na něj zapíšeš 8.5 GB dat. Na normální DVD+R, DVD+RW, DVD­-R, DVD­-RW, která jsou jednovrstvá se vejde ­"jen­" 4.7 GB dat.

* výhoda DL je v tom, že filmy na DVD jsou většinou na dvouvrstvém lisovanám médiu a tudíž je na jednovrstvé nelze vypálit bez ořezání bonusů, jazykových verzí, zhoršení kvality obrazu, atd. Nevýhoda je, že DVD+R DL stojí v průměru 10x tolik co jednovrstvé DVD+R, tj. cca. 220 ­- 250 Kč. Na zálohu dat se tedy rozhodně vyplatí použití dvou jednovstvých médií.

* Každé vypálené médium ­(CD, DVD­) je v podstatě ­"akurat­";­-­), kromě toho, že pity jsou vypálené. Tím vlastně také ­"klame­" čtecí zařízení a tak třeba i CD­/DVD přehrávače, které o nějakém zapisovatelném formátu nemají ani potuchu, přehrají CD­-R ­(DVD­-R­), protože jsou prostě po vypálení fyzicky hodně podobné ­-ROM ­(lisovanému­) médiu.
BookType bit­-setting je o tom, že v hlavičce DVD se nachází bit, který určuje typ disku ­(čtecí mechaniky nedokáží poznat, zda­-li je to lisované nebo pálené­). U DVD­-ROM je tam vylisováno DVD­-ROM, u DVD­-R je tam ­"předpáleno­" DVD­-R ­(tj. nelze u DVD­- měnit!­) a u DVD+R a +RW a +R DL záleží, co tam zapíše mechanika. A tady je právě výhoda toho, že NEC umí zapsat bitsetting jako DVD­-ROM. Proč? Protože některý přehrávač třeba nezná DVD+R a když v hlavičce ­"uvidí­" DVD+R bitsetting tak to nepřehraje. Když tam ale bude bitsetting DVD­-ROM bude si myslet ­(jelikož to nedokáže poznat­), že v mechanice je DVD­-ROM ­(lisovaný­) disk a normálně to přehraje. Samozřejmě pokud má tedy alespoň slušnou optiku, které nevadí o trochu nižší odrazivost vypálených médií v porovnání s originálem.

Stačí? ... doufám, že je to aspoň trochu srozumitelný...;­-­)
Odpovědět0  0
No, ale musíme uznat, že se strašně zlepšily.
Protože třeba ND­-2500A dostal na CDR v hodnocení schopnosti přečíst poškozený DVD disk 0 bodů ­(tj. nebyl schopen přečíst ani ň­) a takový ND­-3500A už dostal 100 bodů ­(přečetl vše­). Ale stejně i přes těch 100 bodů není korekce nic moc, protože můj LiteON LDW­-411S dostal taky 100 bodů, ale přečte v pohodě i to, co ND­-3500A ­(mam taky­) už ne.
Odpovědět0  0
Kdo tady mluví obecně? Tahle recenze a diskuse je snad o NEC, ne? A ten by ještě zapracovat mohl i když už se hodně zlepšil ­(taková ND­-2500 byla katastrofa­).
No, myslim si , že většina lidí si vybírá palírnu podle toho, jak kvalitně pálí. Na čtení máme každej přece DVD­-ROM mechaniku ne?
Odpovědět0  0
Tady se musim taky ozvat.
Je pravda, že DVD palírny od NEC nejsou zrovna mistry ve čtení. Pokud je médium jen lehce poškozeno, je to OK, ale pokud jsou škrábance trošku trvdšího kalibru, tak se NEC většinou nechytá. Já mam např. ND­-3500AG a k tomu LiteON 411S a to, co třeba NEC už nepřečte mi LiteON vezme bez sebemenšího zaváhání.
Možná, že tvoje CD palírna je na čtení dobrá, ale DVD palírny mají ještě co zlepšovat. I když, DVD palírnu si většinou kupujeme na pálení a neničíme ji čtením a v oblasti pálení jsou nové NECy fakt špička. ­(myslim tim 3500 a 3520­).
Odpovědět0  0
Ne!
Možnost 500x změnit booktype platí pro permanentní nastavení, což většina uživatelů udělá jen jednou. Pak je tam možnost ještě ­"temporary­" nastevení a to je samozřejmě neomezené, ale jeho využití je poněkud sporné ­(proč jej vůbec používat ?­).
Čili změníš si default booktype pro DVD+R9 DL na DVD­-ROM a je to. Zbyde Ti ještě 499 změn, ale nevidim důvod, proč s tim pak ještě manipulovat ­(to nastavení samozřejmě přežije restart i vypnutí, podle mě je tam ten limit, aby chránil paměť EEPROM jelikož ta má omezené množství zápisů­).
Jínak to samozřejmě doopravdy funguje, na netu navíc najdeš i neoficiální firmwary, které umožňují změnu booktype i pro jednovrstvá DVD+ média.
Odpovědět0  0
DVD+R DL: 4×, 2× ­(CLV­)
DVD­-R DL: 4×, 2,4× ­(CLV­)
... ty rychlosti máte přeházené: 2.4X má být u + formátu.

A jinak nechápu, proč byl autor ­"nemile překvapen­" 16X zápisem na DVD+R tím, že se PIF dostalo 3x na hodnotu 5.
a­) ­- by to při druhém měření dopadlo nejspíš jinak ­(těžko budou 2 výsledky stejné ­- ať už horší či lepší­)
b­) ­- ta norma platí při čtení 1X CLV, což jak koukám jste neudělali a rychlost byla Max. CAV, což výsledky celkem degraduje. Chápu, že měřit @1X neni asi z časových důvodů možné, ale ustálila se taková ­"tradice­", že se měří 4X CLV.
Odpovědět0  0
1. tak to jsme si nerozuměli
2. protože to vypadá líp ­(na dobram monitoru­). A pokud se ti s rostoucím rozlišením zmenšujou jednotky v RTS, tak je to nějaká starší ­- novější v 3D už tímto netrpí ­(logicky­).
3. FSAA zlepšuje kvalitu textur ­(kromě toho, že vyhlazuje­) ­- alespoň u ATI
4. koukni se HL2 benchmarky a uvidíš, jak R9800PRO tu 6600GT rozdrtí ­- záleží na konkrétní hře­- v Doomu3 zas třeba vede NVIDIA. A za GF6600GT bych, jako spokojený majitel Radeonu X800XT, rád určitě nebyl!
Odpovědět0  0
"Radeon 9500PRO měl také 8 pipelinek na na svou dobu byl naprosto úžasný­" ­- plně souhlasim, hlavně s tim BYL ­- já ho měl taky. Dneska je prostě jiná doba a pokud chceš hrát všechno na max., tak nemáš jinou volbu, než jít do toho nejnašláplejšího.
P.S.: IMHO bych spíš za ­"nesmrtelnýho 8­-pip. krále­" považoval R9800PRO, ale tomu už dneska taky odzvonilo....fňuk;­-)
Odpovědět0  0
6600GT si můžeš přetaktovávat třeba až do prde**, ale s tou ubohou 128­-bit sběrnicí a pouho pouhými 8­-mi pixel pipelines tyhle karty nikdy netrhneš. Mluvim samozřejmě o největší zátěží jako je 1600x1200x32­-bit + 4x FSAA + 8x ­- 16x AF.
BTW. proč je 3D Mark 05 směšný? snad ne proto, že tam všechny dnešní karty trhaj....?!? Je to benchmark a právě proto těm kartám musí dát pěkně zabrat ­- pak se teprve projeví rozdíly!
Odpovědět0  0
Tyhle karty nejsou pro smrtelníky, ale pro hráče!
S john.donem nesouhlasim, 6800LE se nemusí podařit vždycky odemknout a máte po výkonu ­- a 8 pixel pipelines je pak k smíchu! :­-­)­))
Odpovědět0  0
No právě! Ony jsou samozřejmě i jiné free kontejnery, jenže u nich není žádná jistota, že budou přesně dodržovat specifikaci.
Co jsem měl nainstalovaný byl Resin. Byl o něco rychlejší než TomCat, ale měl jsem v něm problém rozchodit jednu aplikaci, která na TomCat normálně běžela, tak jsem se vrátil zpět k TomCat. Mně je to vcelku jedno, protože TomCat používám na testování, finální verze pro použití na intranetu běží přímo v kontejneru Oracle.
Odpovědět0  0
No jo. Referenční JSP kontejner TomCat nepatří zrovna mezi rychlíky:­-)
Odpovědět0  0
Jenom k těm DirectX.... záleží na tom, jak se na tu podporu díváš... pokud tím myslíš DirectX 8.1 kompatibilní drivery, tak OK, ale jinak rozhodně hardwarově DirectX 8.1 nepodporuje, protože základní podmínka pro DX >= 8.0 je hw implementace pixel shaderů ­(vertex se daji slušně emulovat softwarově­). Takže ­"oficiálně­" podporuje GF4MX jen DirectX7, jelikož má TnL jednotku. Ale kdybych to měl brát do detailu, tak ona nepodporuje HW úplně ani DirectX6, protože jí shází EMBM, ale jelikož ten se vté době využíval jen málo kde, tak se na to nebral moc ohled ...
Odpovědět0  0
Všechny karty řady GeForce MX jsou vhodné maximálně do muzea, nanejvýš do PC­-AT 286!
Jsou to totálně vyhozené peníze, za tu sumu se dají koupit daleko lepší grafiky ­(ATi­), i kdyby starší...
To není flame! na MX se vážně hrát NEDÁ!!! Jejich technologie je strašně zastaralá ­(GF4MX je technologicky na stejné úrovní jako zhruba GeForce 2!!!!)
Odpovědět0  0
...jestli dobře vaří no a hlavně ....Š*KÁ!!!! :­-­)­)­)­)­)­)­)­)­)­)­)­)­)­)­)­)­)­)­))
Odpovědět0  0
No jo, když někdo něco umí, tak se vždycky najde někdo, kdo mu to nepřeje. A to je i příklad tohodle FOXíka... Rozumný výběr komponent + kvalitní montáž a hned se najde někdo, kdo si rejpne jenom proto, že:

a.­) je od konkurence
b.­) a ­/ nebo má vztek a závidí, protože on sám by něco takovýho nesved ani omylem.

P.S.: co se týče O­/C, tak ten je krytej zárukou a navíc ta karta byla vybavena daleko lepším chlazením tak v tom nevidim problém. Stejně, 80% uživatelů, na které je tato sestava cílena by to přetaktovalo ­/ odemklo tak jako tak a s nějakym dodatečnym chlazenim by si hlavu nelámali.
Odpovědět0  0
Easy odpověď..... špatně!
Odpovědět0  0
No, já bych si to ještě rozmyslel, třeba bych vybral jiného výrobce...
Přece jen 256­-bitová sběrnice je 256­-bitová sběrnice.... I když, na druhou stranu, z testů celkem jasně vyplývá, že 128­-bitová v případě 6600 neni až zas tak na obtíž...ale co časem..?
Odpovědět0  0
No, ale jí ta 128­-bit sběrnice evidentně zrovna moc nevadí...
Odpovědět0  0
Cena bude určitě nižší a taky na 99% půjde skvěle přetaktovat, takže to GTčko ­(nebo alespoň něco hodně podobnýho­) z ní lehce uděláš...
Odpovědět0  0
Slušelo by tam spíše XTčko.... 16 pipin je 16 pipin a ne každej chce škrábat lak...
Odpovědět0  0
docela dost :­-)
Odpovědět0  0
Možná trochu přizvednout voltáž :­-­) Ale pomalinku !!! A hlídat teplotu! Ale vzhledem k tomu, že píšeš, že po startu už jede dobře, tak si myslim, že bude stačit přidat jen velmi málo. ­(0.05 ­- 0.1V)
Odpovědět0  0
No, ten ALC650 slouží jako codec ­(čili převod digital <-­-> analog­).SoundStorm je termín pro to, co je integrovaný v chipsetu.
Mimochodem, záleží na výrobci desky, může použít klidně jiný codec; do ALC650 ho nikdo nenutí.
Odpovědět0  0
Přesně.. pokud např. pustíš DVD a zvuk necháš jít digitální cestou přes S­/PDIF tak bude stejný, protože teče přímo z DVD po optice ­/ koaxu ven.
V opačném případě musí karta zvuk do AC3 enkódovat, což už samozřejmě dává prostor k rozdílům. Ale jak Audigy2 tak SoundStorm je certifikovaný od Dolby takže tam by až zas tak velké rozdíly být neměly...
Odpovědět0  0
Proboha co to meleš! 3D Mark je krásná věc a taky jsem byl nadšenej, když po roce a půl, co vyšel 3D Mark 03, jsem si koupil 9500Pro a viděl jsem ho konečně plynule. Ale tu kartu jsem si koupil proto, že už existovali hry , který ji využijí. Rozhodně bych si ji nekoupil předtim kvůli benchmarku.
A stejně ani teď ne ­- nevyhodim 20 litrů za kartu, abych se 3x plynule kouknul na 3D Mark 05 a pak co? Hry, fajn, ale jediná hra, která rozumně využije takovýhle výkon je Doom 3.... a toho sii v pohodě zahraju i teď .... nejvyšší detaily sice ne, ale 1024x768 na střední jo a vypadá stejně skvěle!
Odpovědět0  0