Tak moment? - To si nerozumíme.
O nástroji jsem mluvil v souvislosti s prostředím LabView. Jaká je tam podpora CUDA a OpenCL? Potřebuji řešit problémy pomocí hotových nástrojů a ne programovat knihovny funkcí pro GPGPU. V tom okamžiku mi je k ničemu, že je OpenCL standard, když ho nemohu použít.
A že to brzdí SW/HW rozvoj? Kde je dnes standard OpenGL?
O nástroji jsem mluvil v souvislosti s prostředím LabView. Jaká je tam podpora CUDA a OpenCL? Potřebuji řešit problémy pomocí hotových nástrojů a ne programovat knihovny funkcí pro GPGPU. V tom okamžiku mi je k ničemu, že je OpenCL standard, když ho nemohu použít.
A že to brzdí SW/HW rozvoj? Kde je dnes standard OpenGL?
Odpovědět1 1
S tím samozřejmě téměř naprosto souhlasím.
To, co píšete o komerčních aplikacích, je pravda, ale jedná se především o různé aplikace na úpravu obrázků, videí apod. Nakonec je tady v testu jedna z těchto aplikací - Photoshop CS, na výsledky se můžete podívat sám. Pravděpodobně v ostré verzi budou výsledky jiné, nepoužívá to DP, takže s novými ovladači to bude fungovat dobře i na GK104, výsledky GCN i starší architektury budou možná také lepší.
GCN architektura nebyla navržena jen pro tyto drobné komerční aplikace, ale primárně jako budoucí konkurence v profi segmentu (HPC) - tam se "točí prachy". A sám to píšete - je to právě o podpoře a množství vývojových prostředků. Takže já si též dovolím vaše tvrzení korigovat - i kdyby Big K nepřekonal GCN v efektivitě (nevím jestli máte na mysli výkon na plochu nebo na Watt), rozhodně ji překoná ve výkonu a v SW podpoře. A jak jsem psal dříve, bez kompletního ekosystému nemá GCN šanci v profi sektoru něčeho výraznějšího dosáhnout a samotná kompatibilita s otevřeným standardem nestačí.
To, co píšete o komerčních aplikacích, je pravda, ale jedná se především o různé aplikace na úpravu obrázků, videí apod. Nakonec je tady v testu jedna z těchto aplikací - Photoshop CS, na výsledky se můžete podívat sám. Pravděpodobně v ostré verzi budou výsledky jiné, nepoužívá to DP, takže s novými ovladači to bude fungovat dobře i na GK104, výsledky GCN i starší architektury budou možná také lepší.
GCN architektura nebyla navržena jen pro tyto drobné komerční aplikace, ale primárně jako budoucí konkurence v profi segmentu (HPC) - tam se "točí prachy". A sám to píšete - je to právě o podpoře a množství vývojových prostředků. Takže já si též dovolím vaše tvrzení korigovat - i kdyby Big K nepřekonal GCN v efektivitě (nevím jestli máte na mysli výkon na plochu nebo na Watt), rozhodně ji překoná ve výkonu a v SW podpoře. A jak jsem psal dříve, bez kompletního ekosystému nemá GCN šanci v profi sektoru něčeho výraznějšího dosáhnout a samotná kompatibilita s otevřeným standardem nestačí.
Odpovědět1 0
Nemluvím o standardu. Mluvím o nástroji.
Sám to píšeš - "Znesnadňuje to práci, ale použitelné to je. "
Pro nějakou práci potřebuji vysoký výpočetní výkon, který mají gpu.
Nemám čas se zaobírat programováním nedokonalého nebo dokonce neexistujícího vývojového prostředí, to mi nikdo nezaplatí. Potřebuji hotový nástroj - co nejdokonalejší vývojové prostředí - abych se mohl zaměřit pouze na řešení vlastního problému. A v tom případě je mi úplně jedno, jestli se jedná o otevřený standard nebo uzavřenou platformu, důležitý je pouze výsledek.
Sám to píšeš - "Znesnadňuje to práci, ale použitelné to je. "
Pro nějakou práci potřebuji vysoký výpočetní výkon, který mají gpu.
Nemám čas se zaobírat programováním nedokonalého nebo dokonce neexistujícího vývojového prostředí, to mi nikdo nezaplatí. Potřebuji hotový nástroj - co nejdokonalejší vývojové prostředí - abych se mohl zaměřit pouze na řešení vlastního problému. A v tom případě je mi úplně jedno, jestli se jedná o otevřený standard nebo uzavřenou platformu, důležitý je pouze výsledek.
Odpovědět2 1
Dobrý den.
Nepovažuji se za odborníka, který by mohl posuzovat efektivitu programování v OpenCL pro GPU od AMD nebo Nvidia. V poslední době se náš tým (aplikovaný výzkum) zabýval v ramci přípravy nového projektu na výpočetní metody pro posouzení opticko-estetických vlastností poměrně komplikovaných optických systémů (třeba šperkových kamenů se složitým výbrusem) vlastním vytipováním vhodného SW a HW. Z toho pramení mé poznatky a zkušenosti - když to dost "brutálně" shrnu, tak v současnosti je OpenCL vhodné jako "hračka pro studenty", pro seriozní práci jedině CUDA. Pravděpodobně budeme používat prostředí LabView (vývojová licence za cca 5000$), při využití GPU připadá v úvahu jedině Nvidia právě kvůli CUDA a vzhledem k potřebě výkonu v DP budeme potřebovat sytém TESLA.
Nechci Vás od ničeho odrazovat, ale obávám se, že pokud si budete vytvářet vlastní aplikaci s využitím OpenCL je i u Nvidia lepší podpora.
Jinak v článku zaznělo, že OpenCL je nezávislá na HW. To je jen částečná pravda. Vzhledem k rozdílnosti architektur AMD a Nvidia není možné udělat aplikaci, která poběží efektivně na obou architekturách. Vždy bude více efektivní na jedné nebo druhé, podle toho, na které architektuře ji autor ladil. Aby byla efektivní na obou, je v podstatě potřeba takovou aplikaci udělat dvakrát!
Nepovažuji se za odborníka, který by mohl posuzovat efektivitu programování v OpenCL pro GPU od AMD nebo Nvidia. V poslední době se náš tým (aplikovaný výzkum) zabýval v ramci přípravy nového projektu na výpočetní metody pro posouzení opticko-estetických vlastností poměrně komplikovaných optických systémů (třeba šperkových kamenů se složitým výbrusem) vlastním vytipováním vhodného SW a HW. Z toho pramení mé poznatky a zkušenosti - když to dost "brutálně" shrnu, tak v současnosti je OpenCL vhodné jako "hračka pro studenty", pro seriozní práci jedině CUDA. Pravděpodobně budeme používat prostředí LabView (vývojová licence za cca 5000$), při využití GPU připadá v úvahu jedině Nvidia právě kvůli CUDA a vzhledem k potřebě výkonu v DP budeme potřebovat sytém TESLA.
Nechci Vás od ničeho odrazovat, ale obávám se, že pokud si budete vytvářet vlastní aplikaci s využitím OpenCL je i u Nvidia lepší podpora.
Jinak v článku zaznělo, že OpenCL je nezávislá na HW. To je jen částečná pravda. Vzhledem k rozdílnosti architektur AMD a Nvidia není možné udělat aplikaci, která poběží efektivně na obou architekturách. Vždy bude více efektivní na jedné nebo druhé, podle toho, na které architektuře ji autor ladil. Aby byla efektivní na obou, je v podstatě potřeba takovou aplikaci udělat dvakrát!
Odpovědět3 2
Tohle mi nedá, na to musím reagovat. :)
Nezajímají mě nějaké osobní rozepře, ale konkrétně ty na svém blogu neustále prohlašuješ jak tě zajímají uživatelské vlastnosti bez ohledu na logo výrobku. V případě HD7970/50 opakovaně poukazuješ na výpočetní výkon, který ale v praxi není využitý ani využitelný.
Proč není?
Ačkoliv souhlasím s tím, že Tahiti (a GCN architektura obecně) jsou univerzální čipy, které mají mít dobrý výkon ve hrách i pro GPGPU použití, chybí jim jedna velmi důležitá věc, a to je SW podpora od AMD, jako autora architektury. Touto podporou mám na mysli hlavně dobrý kompilátor, který umí maximálně využít architekturu GCN, rozsáhlou knihovnu funkcí optimalizovaných pro architekturu GCN a v neposlední řadě softwarový tým, který poskytuje přímou podporu třetím stranám při vývoji GPGPU aplikací. AMD ale nic z toho nemá, i pro svá CPU používá kompilátor konkurence nebo třetích stran.
Bez silné SW podpory je tento výpočetní výkon pouze teoretický, použitelný pouze pro benchmarkování a pár jednoduchých aplikací.V tomto krátkém článku je to krásně vidět:
Architektura GCN díky svému vysokému výpočetnímu výkonu válcuje všechno ostatní pouze v benchmarcích. V jediné praktické aplikaci - Photoshop CS6 nestačí ani na starou architekturu Fermi (navíc osekanou v DP). Low-endová Fermi GTX550 v této praktické aplikaci drží krok s mainstreamovou HD7850.
U Nvidie už pochopili, že nemá smysl mít jeden univerzální čip jak pro hry, tak pro GPGPU. Navíc v současnosti ho ani nepotřebují, protože objemy prodejů v profesionálních řešeních (Tesla a Quadro) mají natolik velké (více než 90% pokrytí trhu), že pro tento segment si mohou dovolit vyvíjet specializovaný čip. Pro herní segment už velmi efektivní čipy vydali. V nich nemusí být tak složité řízení SPs, cache, ECC apod. To jsou všechno věci, které zvyšují např. latence při přístupu do paměti, zvyšují plochu čipu atd., takže GK104 s 256bitovou sběrnicí bez problémů více než konkuruje širší (384 bitů) sběrnici čipů Tahiti a díky menšímu čipu a jednodušší architektuře je nejenom efektivnější (výkon/Watt), ale při vyšší výtěžnosti výroby dosahuje i vyšších frekvencí a nižší spotřeby.
Nezajímají mě nějaké osobní rozepře, ale konkrétně ty na svém blogu neustále prohlašuješ jak tě zajímají uživatelské vlastnosti bez ohledu na logo výrobku. V případě HD7970/50 opakovaně poukazuješ na výpočetní výkon, který ale v praxi není využitý ani využitelný.
Proč není?
Ačkoliv souhlasím s tím, že Tahiti (a GCN architektura obecně) jsou univerzální čipy, které mají mít dobrý výkon ve hrách i pro GPGPU použití, chybí jim jedna velmi důležitá věc, a to je SW podpora od AMD, jako autora architektury. Touto podporou mám na mysli hlavně dobrý kompilátor, který umí maximálně využít architekturu GCN, rozsáhlou knihovnu funkcí optimalizovaných pro architekturu GCN a v neposlední řadě softwarový tým, který poskytuje přímou podporu třetím stranám při vývoji GPGPU aplikací. AMD ale nic z toho nemá, i pro svá CPU používá kompilátor konkurence nebo třetích stran.
Bez silné SW podpory je tento výpočetní výkon pouze teoretický, použitelný pouze pro benchmarkování a pár jednoduchých aplikací.V tomto krátkém článku je to krásně vidět:
Architektura GCN díky svému vysokému výpočetnímu výkonu válcuje všechno ostatní pouze v benchmarcích. V jediné praktické aplikaci - Photoshop CS6 nestačí ani na starou architekturu Fermi (navíc osekanou v DP). Low-endová Fermi GTX550 v této praktické aplikaci drží krok s mainstreamovou HD7850.
U Nvidie už pochopili, že nemá smysl mít jeden univerzální čip jak pro hry, tak pro GPGPU. Navíc v současnosti ho ani nepotřebují, protože objemy prodejů v profesionálních řešeních (Tesla a Quadro) mají natolik velké (více než 90% pokrytí trhu), že pro tento segment si mohou dovolit vyvíjet specializovaný čip. Pro herní segment už velmi efektivní čipy vydali. V nich nemusí být tak složité řízení SPs, cache, ECC apod. To jsou všechno věci, které zvyšují např. latence při přístupu do paměti, zvyšují plochu čipu atd., takže GK104 s 256bitovou sběrnicí bez problémů více než konkuruje širší (384 bitů) sběrnici čipů Tahiti a díky menšímu čipu a jednodušší architektuře je nejenom efektivnější (výkon/Watt), ale při vyšší výtěžnosti výroby dosahuje i vyšších frekvencí a nižší spotřeby.
Odpovědět4 2