Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od vindicator5
Děkuji za tip. Určitě se na to podívám.
Odpovědět0  0
Otázkou je, zda by bez těchto kroků nVidie byl nějký rychlý vývoj kupředu. Mnoho z kroků v posledních letech bylo v provokováno existencí nějakého nVidia­-only řešení! Bez něj bychom takym mohli sedět pořád na místě, protože konkurenci by nic netlačilo kupředu, kromě obecného zvyšování výkonu.
Odpovědět0  0
Téma ATI, nVidia, Intel, AMD na běžných serverech nemá smysl vůbec číst. Kdejaký Franta z dolní horní má pocit že tomu rozumí a k tomu je ještě silně afektován sympatiemi k jedné z těchto korporací.

Méně příspěvků na SHW znamená, že tito idioti chodí jinam :­-)
Odpovědět0  0
Ano. O tomto stavu vím, konzultoval jsem ho s jedním vývojářem z ATI. Dokud ale nepředvedou něco na OpenCL, jsou ta ­(zatím­) jen řeči.

PS: když něco citujete, nebylo by od věci zdroj odkázat. Jistě je zajímavý a stojí za přečtení :­-)
Odpovědět0  0
O efektivitě ATI řešení můžeme mluvit až v momentě, kdy budou běžně rozšířená GPGPU řešení a volba VLIW se ukáže jako nijak nelimitující.

Do té doby můžeme jen spekulovat a jediné co je zřejmé je fakt, že pro herní grafiku ATI zvolila cenu s lepším poměrem cena­/výkon. Zda je tato cesta také dostatečně univerzální se teprve ukáže.
Odpovědět0  0
BOINC není Folding@home, že? :­-­) Zřejmě jste nepochopil, že pravdu můžeme mít oba, protože záleží na projektu, použitém výpočetním scénáři i kvalitě vlastního klienta.
Odpovědět0  0
MIMD má být především nVidia Fermi.
Odpovědět0  0
Problém je, že Sandra je teoretický nesmysl, u kterého bylo již v minulosti dokázáno u procesorů, že ­"měří blbě­". Když se kouknete na reálnou aplikaci typu Folding@home, vypadá to s Radeony dosti tragicky.
Odpovědět0  0
Zřejmě máte na mysli tento rozhovor s Ericem Demersem:

http:­/­/www.rage3d.com­/interviews­/atichats­/undertheihs­/

kde právě opravuje novináře, že správné označení je VLIW nikoli superskalární.

Bohužel Marketingové oddělení ATI vypouští tyhle hovadiny, protože když nVidia má skalární architekturu, tak ATI přece musí mít superskalární,aby se to lépe prodávalo.

Přitom je docela zajímavé, že jako celek se k definici pojmu ­"superskalární­" blíží více chip nVidie než ATI.
Odpovědět0  0
Neustále opakovaný nesmysl, který si zřejmě všichni oblíbili. Architektura ATI není supersklaární, ale VLIW. Superskalární architektura využívá HW dekodování závislostí mezi instrukcemi pakticky on­-fly. Toho jsou schopny pouze chipy nVidie a je to také důvod, proč jsou větší.

VLIW architektura Radeonů vyžaduje, aby jim byly instrukce předány již v předžvýkaném stavu, což je třeba zajistit compilerem. Protože chip nemusí řešit závislosti mezi instrukcemi, může být menší a levnější, ale tento přístup klade vysoké nároky na compiler a použitý scénář. Například při čistě skalární povaze úlohy bude mít VLIW architektura Radeonů problémy s efektivitou.

Existuje jistá minoritní skupina definic, které architekturu VLIW zahrnují do pojmu superskalární. Protože je tento přístup výrazně menšinový, bylo by záhodno, když už chceme používat termín superskalární, nazývat Radeony jako VLIW static superscalar.
Odpovědět0  0