"dual-link DVI (DVI-D a DVI-I)" dual link prece oznacuje dve digitalni linky, s oznacenim I a D nema nic spolecneho.
single link - 3.7 Gb/s = 1920×1200 při 60 Hz
dual link - 7.4 Gb/s = 2560×1600 při 60 Hz
DVI-A - analog only
DVI-I - digital & analog
DVI-D - digital only
a DVI-I a DVI-D se pak jeste rozlisuje single a dual link
viz
http://cs.wikipedia.org/wiki/Digital_Visual_Interface
ze soucasne formulace mi to vyzniva, ze dual link = DVI-D a DVI-I
Odpovědět0 0
Takze S3 DX 10.1 podporuje, NVidia ne? ;)
Odpovědět0 0
A upřímě, využije někdy reálně této výhody? Nebo jinak, bude někdo vyvíjet něco, co bude vyžadovat DX 10.1, když řekněme cca 50% potenciálních uživatelů nemá Hw s podporou DX 10.1? No jo... A teď si představte, že by NVidia byla jedinným výrobcem grafických karet na světě... To by bylo teprv žůžo:)
Odpovědět0 0
Vyzadovat ne, ale pouzivat velmi pravdepodobne ano.
Moc se mi nechce verit tomu, ze by NVidie nebyla DX 10.1 schopna, jen nejspise hraje nejakou pochybnou politickou hru :/
Odpovědět0 0
nVidia je známá tím, že v tomto směru není inovátorem. Dělá HW podle toho, co je aktuálně nejrozšířenějšího. Proto je i celá řada 8xxx optimalizovaná pro DX9
Odpovědět0 0
tohle je ale nesmysl rozšířený některými fanatiky. každý kdo má byť jen minimální přehled o historii GK tak ví, že s drtivou většinou zásadních přechodů přišla nv (minimalně od doby co krachla 3dfx).
Kdo přišel S DX7(T&L)? DX8(SM1.x)? SM 3.0? DX10(SM 4.0)?
Jedinkrát ATI přišla dříve s DX9(SM 2.0). Jinak vždy jen půl roku po nv přišla s nějakým lehkým updatem(DX8.1, 10.1) a někdy vypilovaněji(R8500 se nedá upřít, že lépe zvládal SM1.x než gf3, ale přišel půl roku po GF3, to samé třeba X1xxx vs GF7 v SM3). U hardwaru pro změnu např. první použití DDR1,2,3.
Opravdu jen zatvrzelý fanatik upře společnosti, která z posledních 5 zásadních updatů DX přišla se čtyřmi z nich první, titul inovátora...
Odpovědět0 0
ASD_
|
1.6.20089:04
Tak si to ujasnime
T&L - ano tu nie je o com
SM1.x - Politicka hra MS a NV, shadery boli prvy krat predstavene v R100, ale v tom case mal MS nadstandradne vztahy z NV, preto nebol tento navrh podporeny v DX
SM3 - sprasena implementacia, ktoru NV neopravila ani pri rade 7 co bol celkom podraz na zakoznikov a slo len o marketing. Ale NV ma dobry marketing a tak sa techniky, kde bola ATI ovela rychejsia moc nerozsirili.
SM4 - Ano boli, prvy, ale teraz sa snazia svojim postavenim blokovat nastup SM4.1, ktory prinasa radikalne zrychlenie v niektorych oblastiach.
Ale veci ako SM2,3,4,5... nepovazujem za nic extra. Skoky su skor veci ako T&L(NV), prichod shaderov(bez ohladu na to co si myslis to bola ATI a nie NV). Dalej techniky AA, kde bol priekopnik 3Dfx, ale NV jaksi zanevrela na ich dedictvo a tak bola dlhe roky vpredu ATI. Toto su dolezite body a nie marketingove prechcavacky, kdo o den prv vyda nieco, co sa este aj tak pol roka nevyuzije. Tak isto nerobim vedu z toho za ATI uz ma SM4.1, ale nexapem preco ho nexce nasadit aj NV zmeny v jadre su male a pri nos je pomern velky, Vedsina ludi ma stele DX9 HW/SW tak preco neprejst rovno k SM4.1, kde idu niekore veci robit efektivnejsie a netreba tak velky hruby vykon.
Odpovědět0 0
S tím shaderem to byla nv ať tak, či onak.
Ostatně přečti si vyjádření inženýra od ATI(najdeš ho třeba tady na wikině(
http://en.wikipedia.org/wiki/Radeon_R100): R100 sice měl něco, co by se dalo nazvat shaderem, ale to samé se dá říct i o GF256/GF2. Jediný rozdíl byl v tom, že ati leaknula informace o pokusné cestě v ovladačích.
Takže ať už bereš první skutečné shadery (GF3) nebo první omezené shader (GF256,... tady by spíše byly profesionální karty, i když bavíme se o masových produktech), pokaždé narazíš v tomto ohledu dřív na nv, než na ati.
ad SM1: opět si přečti, co napsal inženýr od ATI - MS umožnilo 99% funkčních schopností shader jednotek prvního radeonu (pomocí JEDINÉ funkce D3D!). Takže žádné spiknutí, jen velice omezená schopnost těch shader jednotek.
ad SM3: jediné, co má GF6/7 horší u SM3 je branching. RX1xxx mají pro změnu u SM3 problémy s texturováním (pro účely shaderů) - jak výkon tak funkčnost. Ostatně je známo jakým způsobem tyto karty "dodržely" na papíře specifikaci, když u jedné takové vyžadované operace s texturou ji sice pro forma podporují, ale s prázdnou množinou texturovacích formátů... Navíc není pravda, že se branching nevylepšil mezi GF6 a GF7 - ja tam řádový rozdíl v granularitě.
Ad techniky 3dfx: ty byly pro použití v moderních akcelerátorech NEPOUŽITELNÉ. 3dfx používala totiž několikanásobný výpočet celé scény(s jitterem). To bylo zajímavé možná v době Voodoo 5(GF256, R100). Už GeForce 3 tento postup výkonově překonal(jedná se mi o procentuelní propad, ne absolutní výkon). Ale pokud se ti jedná o kvalitu(tzn použití rot. grid), tak tam skutečně nv do GF6 zůstala pozadu.
Odpovědět0 0
ASD_
|
2.6.200815:11
Ono aj prve "skutovne" shadery boli hodne primitivne, oproti tomu co mame dnes.
Ja viem, ze pri branchingu medzi 6 a 7 sa zmenila granularita, ale stale to bolo velmi slabe.
Pri tych technikach som mal na mysly, prave usporiadanie vzorkov.
Ale aj tak nepovazujem za dake extra prvenstvo ak niekdo uvedie nieco o par dni skor, to je proste len bezny vyvoj, len marketing z toho robi vedu(A ze NV si vedela vybrat ludi na marketing) roznimi velkohubimi prehlaseniami, ale naco mi je vlastnit VGA s DX10/10.1 ked este nie su hry ktore by vyuzili jej skutocne prednosti a nie len prilepili par novich efektov.
Odpovědět0 0