Tady pletete hrusky jabka dohromady. 1. CELL neni CPU zrovna vhodny do pocitace. 2. Apple pouzival PowerPC archytekturu kterou nakonec pomahal zakladat, ta je skutecne vykonejsi nez X86 presto Apple presel na X86 hadejte proc? Je to cena a dodavky. Intelu jsou mraky a PowerPC zase tolik neni a proto jsou o neco drazsi. Navic a to je pro Apple ted velka vyhoda i kdyz to neprizna, si MacOS X muze kazdy Franta pustit na svem PC a tim ma sanci prilakat dalsi zajemce o opravdovy Apple. 3. Navrhem jsou skutecne tyto RISC Procesory daleko pre Intelem. Nezapomente na Motorolu ktera se tohoto vyvoje take ucastni a rovnou vam muzu rici ze jejich navrhy byvaji velice dobre. 4. To co zminujete na konci je samozrejme jakasi strelba cisel. Ovsem zase CELL a X86 nelze takto porovnavat. Ale uvedu priklad: PowerPC G4 - pokud zapnu Altivac (neco jako MMX) vykon vzroste priblizne 2-4x u aplikaci, ktere ho vyuzivaji. Pokud to same udelam u Intelu tedy zacnu pouzivat napriklad MMX je narust vykonu ani ne dvojnasobny. RISC procesory jsou proste citlive na spravny kod. CELL je pomerne jednoucelovy procesor, ale IBM jde timhle smerem pomerne dobre, protoze ve vysledku lze poznatky aplikovat i na klasicke CPU typu PowerPC.
... ale dnes se programuje prevazne v C++ nebo podobnych vecech a tam jde spis o kompiler nez o programatora. Pokud bude diskuze o Assembleru tak potom ano. Malo kdo dokaze napsat spravne zretezene instrukce.
... nestiha dodavat, protoze to znamena ze je zajem. Na druhou stranu AMD neustale trpi nedostatkem kapitalu na rozsrovani vyrobnich kapacit. Presto je v soucasnosti stav o neco lepsi nez byl, precijen ma AMD jeste ATI, ktera taky lecos prinese.
No celkem tak :-). On DX10 muze mit lepsi vysledek, ale je to kvuli tomu ze napriklad nove grafiky maji misto 16 bitoveho registru 32 bitovy takze dokazou delat presnejsi vypocty. Proto muze DX10 kour vypada lepe. Coz ovsem nesouvisi s DX10, ale jen a pouze s presnosti vypoctu. Tohle by klidne mohlo fungovat i pod DX9.
@m_soldier
1. ATI kompletne prekopane jadro, ktere je plne unifikovane, v podstate se jedna o obrovske mnozstvi vektorovych jednotek. Tenhle navrh ma mnoho vyhod, ale i par nevyhod. SW napsany tak ze pocita s urcitym mnozstvim specialnich jednotek, tady proste nefunguje dobre a je potreba to v ovladacich doladit. Prvni testy, to jasne ukazaly ATI byla pomalejsi v DX9 nez v DX10.
2. POstup ala Nvidie, kdy se navrhl jakýsi polo DX10, ktery se sice na venek tvari jako hodne unifikovanych jednotek, ale uvnitr je na tom podobne. Navic kvuli tomu potrebuje dve jednotky na zpracovani obrazu (proto maji Nvidie tu divnou velikost pameti, protoze je tam napr 512 Mb ram pro hlavni GPU a 256 Mb pro cast ktera ma na starost filtrovani.
Zatimco u ATI delaji vsechny jednotky vsechno a maji spolecnou pamet. U Nvidie tomu tak neni. Jejich DX10 je takove no ne uplnene. Proto optimalizace her na Nvidi v tomto pripade zanmena uplne jiny postup programovani nez u ATI. Prestoze by to melo byt stejne (napriklad zretezeni instrukci je v obou pripadehc uplne jine). Proto Nvidie mela tak velkou prevahu, kterou ATI stahla, proto ma ATI lepsi pomer cena vykon. Jeji grafiky jsou levnejsi a presto mnohdy presahuji vykonem vyrazne drazsi Nvidii.
Taky je nejrychlejsi ATI o 150% levnejsi nez nejrychlejsi Nvidie ;-).
Presneji nez doladuje, by melo byt ze prepisuje ovladace tak aby odpovidali hram napsanym pro DX9 a nasledne patchnutym na DX10. Videt je to na te nove generaci proto protoze lze srovnavat dva rozdilne pristupy. 1. ATI kompletne prekopane jadro, ktere je plne unifikovane, v podstate se jedna o obrovske mnozstvi vektorovych jednotek. Tenhle navrh ma mnoho vyhod, ale i par nevyhod. SW napsany tak ze pocita s urcitym mnozstvim specialnich jednotek, tady proste nefunguje dobre a je potreba to v ovladacich doladit. Prvni testy, to jasne ukazaly ATI byla pomalejsi v DX9 nez v DX10.
2. POstup ala Nvidie, kdy se navrhl jakýsi polo DX10, ktery se sice na venek tvari jako hodne unifikovanych jednotek, ale uvnitr je na tom podobne. Navic kvuli tomu potrebuje dve jednotky na zpracovani obrazu (proto maji Nvidie tu divnou velikost pameti, protoze je tam napr 512 Mb ram pro hlavni GPU a 256 Mb pro cast ktera ma na starost filtrovani.
Zatimco u ATI delaji vsechny jednotky vsechno a maji spolecnou pamet. U Nvidie tomu tak neni. Jejich DX10 je takove no ne uplnene. Proto optimalizace her na Nvidi v tomto pripade zanmena uplne jiny postup programovani nez u ATI. Prestoze by to melo byt stejne (napriklad zretezeni instrukci je v obou pripadehc uplne jine). Proto Nvidie mela tak velkou prevahu, kterou ATI stahla, proto ma ATI lepsi pomer cena vykon. Jeji grafiky jsou levnejsi a presto mnohdy presahuji vykonem vyrazne drazsi Nvidii.
Presne tak to je. DX10 jsou jediny duvod proc by si Hrac mel koupit OS ktery mu sezere 30% vykonu jen svou existenci. Uz z toho duvodu nelze cekat ze na Viste (tedy pod DX10) bude neco samo od sebe rychlejsi. Navic DX nejsou to co urcuje samoosebe rychlost to je jen programatorske API, fakticky vliv na rychlost ma HW a jeho ovladace. Stejne tak na kvalitu grafiky, firmy osekavaji grafiku v ovladacich kvuli rychlosti. Ted u nove generace GFX je to desne videt! Nove karty od Nvidie jsou vic sprahnute se strym modelem naopak ATI udelal velky krok a postavila GPU vic variabilne. Nvidia je v navrhu GPU rekneme o dva kroky za ATI. Ve vysledku je to potom znat, ATI doladuje ovladace a jeji karty , urcene pro nizsi tridu, lezou vykonem nahoru. Prave proto, ze Karta je navrzena pro Unifikovane shadery SM4, ale system stale pocita se SM3 (i pod DX10 se to tak chova). Proto i hry pro DX10 jsou jen nepatrne hezci nez pro DX9 a to vetsinou proto ze se v DX9 neco nepouzije.
@JonSnih
Sleduj co pises! SM4 = SM3 s rychlejšími výpočty -Tohle tvrzeni je samozrejme blbost, vypocet je na stejnem HW vzdy stejne rychly, pokud upravym HW tak aby zvladal nejaky vypocet rychleji, stane se tak, ovsem pravdepodobne tim zbrzdim jiny vypocet. SM4 - je o Unifikaci Shaderu, presneji Drive umela jednotak jen jeden vypocet, dnes umi podobna jednotka vsechny druhy vypoctu. Jeji vypocty se tim samozrejme nezrychlily. Naopak. Ale dnesni GPU maji dalekovice techto jednotek takze v realu se jedna o narust vykonu.
Ale to všechno si žádá větší nároky na grafiky, s G100 a R700 už to pojede jako po másle. - Tady sam priznavas, ze stejna grafika bude potrebovat jeste vykonejsi kartu, aby byla plynula. V cem je teda problem? Karta s podporou DX9 neumi to co karta s DX10? Ale samozrejme ze umi, ale je pomalejsi takze nema tolik detailu. Ovsem pomala grafika s DX10 neni rychlejsi v DX9. Co z toho plyne? Ze DX10 a DX9 jsou na tom s vykonem a vubec zpracovanim v podstate stejne. Pouze je potreba nejak to prodat a tak to zabalime do recicek jakoze je to velky krok kupredu. To ze hra neumozni v DX9 neco a v DX10 ano, neni proto, ze to neumi. Je to proto ze je potreba prodavat.
Tak jak pises to deklaroval MS, ale realita je takova jak pisu ja ;-). Tzn. Hra pod DX bezi a vypada stejne (skoro) rozdily jsou minimalni, ovsem narocnost je znacne vyssi. MS tvrdil opak tzn. ze pod DX budou mit hry stejne efekty jako pod DX9, ale s mensima narokama.
DX 10 mel byt krok vpred protoze se zmenila archytektura GPU (U Nvidie tolik zase ne, ale u ATI docela vyznamne). Bohuzel DX 10, v podstate na tohle nema vliv, protoze oba vyrobci GPU, ladi ovladace na vykon tzn pomahaji si ruznymi triky ktere DX obchazi. Tady je taky znat ztrata ATI proti Nvidii kdy DX by meli hrat do karet ATI ale vlastne nehraji protoze Nvidia i s horsi archytekturou je rychlejsi (tohle uz skoro neplati, davam to jen jako priklad, protoze Uprava ovladacu ATi tohle sandno dohnala, ale prave na nutnosti upravit ovladace je jasne patrne ze DX 10 nejsou tim cim meli byt.) V kratkosti receno, DX10 a DX9 se lisi tim ze DX podporuje nekolik malo efektu primo takze se nemusi delat oklikou - ve vysledku se to projevuje tak, ze sice DX vypadaji (trosku) lepe ovsem vykonvy propad celeho systemu je tak velky, ze kdyby to nekdo radsi napsal na DX9 udelal by lip.
@ljelinek
Jak je to pro bezneho uzivatele nepouzitelne? Uzivatel psal ve Wordu pred desti lety a pise v nem porad! Mozna dokonce v tom samem Wordu. Stejne tak je Crysis stejne na Xpckach jako na Viste (odpustme si DX10 to ze DX10 nefungujena XP je jen politika MS), presto ma na Vista vetsi naroky. Proto si jeste jednou precti co jsi napsal a uvedom si ze takova argumentace je spatne.
@mech13
ignorujte Huhulana a pouzivejte rozum.. jiste ze SP1 bude. Nejak musi dostat do systemu veci ktere v nem uz meli byt a stale nejsou (treba ta podpora vice procesoru je stejna jako v XP tak ji predelaji a bude jeste o neco horsi ;-).