Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

Konec grafických karet,říká Intel

suder (49)|3.4.2008 17:23
Co si myslíte o tomto článku?
Intel: raytracing ukončí grafické karty
http://bonusweb.idnes.cz/zurnal/pc/intel-raytracing-ukonci-graficke-karty-d9r-/clanek.A080403_143245_bw-zurnal-pc_osk.idn

Larrabee vypadá zatím slibně (ikdyž ta spotřeba), ale podle toho, co bude umět, bude určitě více než konkurencí současným grafikám. Otázkou je cena a taky podpora vývojářů. Ale ray tracing v reálném čase je určitě něco, co spouta hráčů ocení. Osobně si myslím, že Larrabee nebude zase taková bomba, jak Intel tvrdí. Spíš to bude jen další dražší legrácka na současném přeplněném trhu, navíc o ceně pod 300 usd si můžeme nechat jen zdát, spíš bych typl tak min 1000 usd. Co si o tom myslíte?
johny__g (6387)|3.4.2008 17:35
Hmm tak já bych takovouhle grafiku ve hrách nechtěl. To má nějakou nemoc kůže?
kane.shw (1231)|3.4.2008 17:44
Osobně jsem více, či méně spokojen s grafikou her již dnes ;) Takže si říkám, že horší už to snad nebude :D Což je supr. Jestli už to bude v budoucnu řešeno přes CPU, GPU, MB nebo třeba PSU;) ji mi osobně celkem jedno. Hlavně když to bude spolehlivě fungovat, bude to lidi bavit a bude to dostupné minimálně ve střední třídě.

Takže, pokud Intel nevaří z vody, tak nezbývá než se těšit, co bude za ty tři roky, jak slibuje :cool:
Intri (3490)|3.4.2008 17:51
No, k tomu, že taková grafika nás dříve nebo později čeká, nám stačí selský rozum. Když se člověk podívá na filmy jako SW3 a takové, musí mu být jasné, že "nic" nebrání tomu, aby takto vypadaly hry. Problém je tak fakt jen ve výkonu PC ( a sem tam asi nějaký ten software ), ne v tom, že by nebylo možné takto vypadající hry naprogramovat a tak kvalitní modely vymodelovat.

Nároky na to však musí být fakt obrovské, Blizzard říkal, že při renderování traileru ke Starcraftu 2 doslova "rozbili" renderer, že to nezvládl. Jen mariňák měl kolem 5 milionů polygonů. Kdyby měla být takhle detailně vymodelovaná každá jednotka v samotné hře, nevím, kolik exaflopsů výkonu by na to bylo zapotřebí.:-)
cool.user (2822)|3.4.2008 17:55
[QUOTE=johny__g;107934]Hmm tak já bych takovouhle grafiku ve hrách nechtěl. To má nějakou nemoc kůže?[/QUOTE]

To jsou kapky vody :D
P@pi (1519)|3.4.2008 18:09
Podle mně není raytracing správná cesta. Je to šíleně neefektivní způsob. Dovedete si představit tu spotřebu a potřebný výpočetní výkon? Intel prostě už neví coby. Potřebují vymyslet něco, kde by se uplatnili rychlé CPU. Jim nejde o to, aby to bylo super reálné, ale aby prodávali.

Todle by jim umožnilo vyvolat potřebu po rychlých CPU a GPU (resp. jejich kombinaci). Raytracing dokáže zázraky s obrazem, ale spíš bych viděl cestu navyšování počtu polygonů jako reálnější.

K čemu mi bude, že budu mít super odlesky, průchody světla apod., což je to v čem je RT lepší, když budu mít ve scéně 2000 poly, protože mi to víc neutáhne? To radši budu mít milion poly na budoucích strojích se současnou cestou než 2000 s RT a fps kolem 25.
Janyk1 (997)|3.4.2008 18:14
[QUOTE=cool.user;107950]To jsou kapky vody :D[/QUOTE]

a opalovací krém:)

jinak, myslím si, že GPU hned tak nevymřou
kane.shw (1231)|3.4.2008 18:41
Hold gigant jako Intel si takové excesy může dovolit. P@piho verze je vcelku pochopitelná a snadno uvěřitelná :thumb. Na druhou stranu, ale takovéto intelovské prohlášení přidělává vrásky na čele právě firmám, kterým je GPU denním chlebem :( A i takové prohlášení je určitě vybudí ještě k intenzivnější činnosti, aby toto intelovské řešení "přečůrali". Takže se máme na co těšit :).

Z tohoto pohledu se začínají celkem festovně zatahovat mračna na nVidií, řekl bych, že za nějaký čas bude bojovat o přežití. Nepřátelství mezi Intelem a nVidií je v poslední době vyhrocenější, než kdykoli před tím. NVidia nechce uvolnit SLI pro čipsety Intel (protože moc dobře ví, že pak by mohla čipsetovou divizi zavřít :D) a Intel se cuká při podpoře jeho cpu pro čipsety nVidie. Imho nVidii čekají podobné fúze s nějakou společností (nejlépe zřejmě VIA) jako ATi a AMD, i když nVidia do nich bude vstupovat s mnohem větším kapitálem a tudíž snadněji než AMD.

Nyní už je zase více jasné, že nVidia musí jednat a to vcelku rychle. Ať si to nVidia přizná nebo ne, tak koupě společnosti VIA by bylo velmi dobrým tahem. Nahlédla by tak do kuchyně, kde se vaří procesory a mohla by si tím velmi účinně krýt záda v budoucnu, kdy možná bude GPU ustupovat do pozadí. A takové prohlášení Intelu jí to neusnadní. Intel chce defacto vyštípat GPU z počítačů a to si nVidia nemůže dovolit ignorovat! AMD bude v tomto směru daleko pružnější, jelikož je schopno už teď si pokrýt celou škálu komponent v pc - čipset, cpu, gpu (viz. Spider) a v tomto ohledu tedy může reagovat dle toho, čemu se bude postupem času přiklánět větší a větší priorita - defacto, pokud si dobře našlápne, může se jen vézt na vlně, kterou možná vyvolá Intel :cool:

Každopádně se nám blíží možná další IT revoluce - vyhraje CPU, GPU nebo zcela něco jiného? :notsure
Jak se říkávalo - "Kupředu soudruzi, zpátky ni krok!" :D

EDIT: A třeba to bude všechno nakonec úúplně jinak! :D:D:D
suder (49)|3.4.2008 20:23
Velmi zajímavé názory. Samotný Intel přiznává, že Larrabee bude obsahovat "jednodušší" jádra, než v klasickém CPU. Takže výkon je zatím neznámý. Otázkou je, jestli dokáže srazit cenu, aby se jejich "Včelka mája" rozšířila ke všem hráčům. Tady je velice zajímavé vyjádření experta Johna Carmacka o Larrabee http://games.tiscali.cz/news/news.asp?id=26588
"V klasickém raytracingu, jak jej prosazuje Intel, budoucnost nevidí, avšak experimentuje s podobnou technikou rasterizace na voxelovém oktalovém stromu".
Pokud by dokázal posunout grafiku na současných GPU ještě o kus dál, tak tady můžou být graf. karty ještě třeba 5 let. Navíc Nvidia i AMD mají výhodu v tom, že pokud se zaměří na vícejádrové grafiky (např. ATI - 3jádrová 3850) a nasadí nízkou cenu, tak můžou konkurovat Larrabee lépe, protože silně pochybuju, že Intel je bude prodávat za lidovou cenu. Ale rozhodující slovo budou mít nakonec vývojáři a spotřebitelé.
skawagon (104)|4.4.2008 00:37
AMD bude moct Intelu konkurovat celkem pohodlně, pokud uplatní onen stavebnicový systém, kde si bude moct na každý procesor namixovat určité (smysluplné) množství CPU a GPU. Hůře Nvidia, pokud bude "pouze" spolupracovat z VIA, tak se asi na jednu křemíkovou destičku s procesorem nedostane. Pokud však zfůzují, bude to asi situace stejná jako u AMD - tedy skládačka, která bude hlavně levná na vývoj....
pegy (757)|5.4.2008 16:48
Uz davnejsie som sa k tejto teme vyjadroval, aby Intel prerazil s tymto zamerom na trh, musi splnit dve zakladne podmienky. Po prve nasadit priaznivu cenu za priaznivy vykon popripade vykon/W a za druhe najst podporu svojho "monstrozneho" projektu v rade vyvojarov a tvorcov hier, ak sa to Intelu nepodari, je nahrany a bude to len dalsia ficurka typu Itanium ;) Intel hlada dalsiu cestu k zarobokom a u kazdej prosperujucej firmy je to logicky krok, ale nemyslim, ze vsetko nove je aj dobre... ;) Ja osobne som voci tomuto silne skepticky a myslim, ze dnesne sofistikovane GPU hned tak nieco "neprecura" ;) skor bude zaujimave sledovat boj o integrovanie CPU a GPU na jednu doksu kremika, to moze priniest novy vietor do plachiet v IT priemysle ;)
suder (49)|11.4.2008 19:34
Nedávno jsem četl o projektu AMD zvaném Thunderstorm. Má to být něco jako Larrabee, asi s 12-16 jádry. Ví někdo něco bližšího?
P@pi (1519)|11.4.2008 19:43
Psali o tom na theINQ, takže informační hodnota je velmi nízká. Vlastně nic tam napsáno není. Spíš někdo si usmyslel, že Larabee dělá Intel, tak AMD musí dělat to samé. Což by byl od AMD logický tah, ale tydle prdy jako jsou na theINQ bych mohl psát taky. Stačí se nad tím zamyslet. Jestliže je to pravda a někdo jim to řekl, potom tam měli i něco napsat :-).

Mimochodem, bylo to napsáno kolem 1. dubna, takže tak...
Pavel Boček (4169)|20.4.2008 17:12
Intel toho nakecá...

Co se zatím ví, je jedině to, že to půjde do profesionální vrstvy - práce s grafikou, superpočítače; pak do laptopů kvůli spotřebě, jestli, resp. spíše kdy a v jaké podobě, se to dostane do osobních PC, to teprve uvidíme.

S nápadem integrace GPU do CPU přišlo první AMD, Intel to trochu více rozvinul (resp. od AMD nepřišly zatím informace o ničem jiném než o Fusionu, což je možnos b - laptopy).
mstejska (2912)|28.5.2008 15:16
Fusion by nemel byt jenom pro laptop. muzes si vybrat treba 3 cpu jadra + 1 gpu, nebo 2 cpu + 2 gpu nebo 1 cpu + 3 gpu. podle pouziti.
P@pi (1519)|15.6.2008 21:51
xSten19 (386)|15.6.2008 22:13
Jo vypadá to dost hustě ale je to docela vzdálený budoucost než to uvidíme doma :-D to aby sem začal šetřit tak půl míče na počítač :-D a ještě to bude málo. Stejně to nemůže vyjít tak rychle z ekonomickýh důvodů mnoha firem takže si ještě pár let určo počkáme.
fa.Destruct (44)|19.6.2008 11:50
Poměrně stará myšlenka, ale hardwarové akceleraci grafickými kartami se dle mého v budoucnu stejně nevyhneme (Ati i Nvidia budou muset dříve nebo později kontrovat), procesor je prostě příliš univerzální kus hw. Vždy tady budou akcelerační karty, viz nový Firestream od Ati, budou silně specializované a možná i plně programovatelné...
Logout (4018)|19.6.2008 12:54
No tak když se člověk podívá do historie, tak CPU se čím dál tím víc podobaj grafikám (více jader), grafiky se zas podobaj procesorům (programovatelný shadery). Takže je jen otázka, jestli se někd? vyplatí udělat unifikovanej procesoroGPU, nebo jestli se GPU jen přestěhuje k procesoru jako nějaká vector processing unit.

Co se týče raytracingu, tak myslím že časem (za 10-20 let?) se asi používat bude, protože současný techniky už jsou v podstatě na limitu a další zlepšení se dělá různejma fíglema, který sice vypešej něco,
ale jsou "fyzikálně špatně", takže vždycky to nebude vypadat reálně. Jde jen o to, kdy bude na RT výkon.
Což vzhledem k tomu, co ukazuje intel teď, bude ale až za dost dlouho...
Pavel Boček (4169)|21.6.2008 21:48
[QUOTE]Podobně jako další i společnost Crytek, tvůrce legendárních enginů CryEngine 1 a 2 a her na nich založených (zejména tedy Far Cry a Crysis), očekává zejména velký rozmach vícejádrových procesorů. Dle Cevata Yerliho, generálního ředitele Cryteku, jsou však grafické kartu a mikroprocesory částečně na kolizním kurzu. Doteď byl totiž trend takový, že grafické karty jsou paralelizované specializované čipy a procesory jsou naopak univerzální, jednovláknové čipy, avšak nyní nastává u procesorů také masivní paralelizace (projekt Intel Larabee se pak vlastně pomocí několika specializovaných jader snaží vytvořit GPU z CPU) a grafické karty se zase stávají univerzálnějšími, když začínají ve snaze ulehčit CPU počítat také fyziky a chování umělé inteligence.

Došlo tak k tomu, že zatímco grafické karty mají co dělat, aby to vše zvládly, procesorům se ulehčilo a navíc se dále zvedl jejich výkon a počet jader. Vývojáři se tedy budou muset zaměřit na obojí a obojího efektivně využít, na druhou stranu s tím poroste délka kódů, čas potebný k jejich vzniku a samozřejmě se zvyší celkový počet chyb. Yerli také předpokládá, že v průběhu dvou - tří let se větší změny neodehrají, vývojáři pouze konečně uvedou větší množství enginů, podporujících vícejádrové procesory a stále ještě nové API DirectX 10 (10.1). Zásadní zlom se má odehrát v horizontu pěti let, kdy se má zejména výkon grafických karet zvýšit tak, že budou moci v reálněm čase vykreslovat obraz i s technologiemi jako RayTracing.

Vše má přijít s novým API, DirectX 11, které má také konečně umožnit tvorbu polygonů i jinak, než jen pomocí trojúhelníků, které na všechno prostě nejsou ideální. Vzhledem k vývoji pamětí je také velmi pravděpodobné, že se více budou využívat 3D textury (a to i se zvýšenou přesností, neboli HDR). V této době také Crytek plánuje uvést nový engine a předpokládá, že minimálmě po tři léta bude ještě CryEngine udávat notu, avšak osobně si myslím, že pokud nebudou provedeny žádné úpravy, Crytek zde trochu pohoří. CryEngine totiž využívá pouze velmi málo technik z DirectX 10 a přitom je pod DirectX 10 dosti náročný, další studia mají tedy možnost představit nové enginy, které budou vypadat minimálně stejně dobře nebo ještě lépe a přitom díky použití DirectX 10.1 budou i podstatně svižnější.[/QUOTE]

Raytracing tu bude s DX11 a vypadá to na první nasazení tak kolem roku 2015. Specifikace a předvedení tu ale už bude určitě dříve. Když se podíváte, jaký pokrok byl učiněn za posledních deset let, tak myslím, že šest let není moc, jak předpovídá Cevat Yerli.
P@pi (1519)|22.6.2008 17:50
[QUOTE]CryEngine totiž využívá pouze velmi málo technik z DirectX 10[/QUOTE]
Vycucáno z prstu?

[QUOTE]využívat 3D textury[/QUOTE]
3D textury? Co to je?
Milan Šurkala (160)|22.6.2008 21:07
3D textura? No jak je 2D textura, tak ještě ve třetím rozměru :-) Vím že se to používá u některých technik volume renderingu (takové ty ptákoviny jako průhledné vykreslování lebky a tak). Ač jsem na to měl referát a byl dobře, sám jsem tuto problematiku plně nepochopil :-)
P@pi (1519)|22.6.2008 22:23
Pravda, to jediné by dávalo smysl, generované textury.
fa.Destruct (44)|23.6.2008 11:51
Mám dotaz... zatím jsem v promo materiálech Intelu a AMD, viděl snad jen jedno video diskutovaného realtime raytracu, zbytek jsou jen statické obrázky...? To trochu nehraje... AMD plánuje přijít s fůzními čipy do roku 2010, považuju to, stejně jako nejspíš i vy, za hodně optimistický předpoklad, ale stejně si myslím, že to bude v kratším horizontu než 6 let, alfou a omegou je samozřejmě programátořina, a tady to vidím tak na 10-20 let než budeme skutečně využívat potenciálu zcela nové architektury. Jinak ty obrázky orosené čočky jsou boží... už se těším až budu rozkládat baterkou rozkládat světlo v Doomu 6 (2025?).
P@pi (1519)|23.6.2008 12:12
Ne jsou i videa, dokonce i hry, viz. verze Quake 3, plně raytracovaná.
Milan Šurkala (160)|23.6.2008 13:19
Pokud vím, tak třeba i první verze Doom a Doom II běžely na jistém druhu raytracingu. Jednalo se o raycasting, jednodušší metodu. Já to teda neprogramoval, ale kámoš ano, v Javě to udělal jako applet. Naházel tam textury, udělal zdi, strop, bilineární vyhlazování textur, snižování jasu se vzrůstající vzdáleností a v rozlišení tuším 320×240. Teda mě na jednojádrovém Athlonu 64 2,0GHz se to rubalo docela dost, jemu to na téže frekvenci se dvěmi jádry jelo i s "plnými" detaily docela slušně (holt více vláken se hned projeví). Měl to hotové docela rychle, vypadlo to úplně jako Doom. Je jasné, že Java je ukrutně pomalá, což vím z vlastní zkušenosti (program na úpravu obrázků byl v Javě ve stonásobcích pomalejší, v podstatě to co bylo v C++ s využitím SSE v mikrosekundách, to bylo v Javě v milisekundách), proto si nedokážu představit raytracing funkční při vysokých rozlišeních.
Výhodou raytracingu je to, že se jedná o děsně jednoduchou věc, v podstatě základ metody je program na 30 řádků. Jako projekt jsem dělal standardní vykreslovací řetězec jak jej dělají grafické karty (tedy vykreslení 3D sítě, ořezání, výpočty osvětlení, rasterizace,...) a kdybych neměl polovinu programu hotovou a dodělat jen zbytek, nikdy bych to asi sám jen tak nesplácal. Nejvíc mi tam teda zabrala rasterizace, při 1500x1500 pixelech cca 5 sekund, zatímco všecko okolo bylo hotovo tak během 0,5-1 sekundy.
Pavel Boček (4169)|23.6.2008 16:25
[QUOTE=P@pi;134681]Vycucáno z prstu?[/QUOTE]

Spusť si hru na Very High pod DX9 a DX10. Na první pohled tam rozdíl není, při bližším zkoumání screenshotů s lupou je napočítáš na prstu jedné ruky (viz článek o enginech). To "DX10" ve hře je prostě jednoduchá nástavba DX9, dělaná narychlo...jak je stále omýláno, plohodnotná DX10 hra by na DX9 kartách nejela.

Je to to samé jako SM "2.5" u řady Radeonů X800...stejně tak pak u enginů (jakých se mě zatím neptej, já to zažívám teprve teď zpětně :) ale vsadil bych na UE).
P@pi (1519)|23.6.2008 18:24
No nic, já se k tomu vyjadřovat nebudu. Podle mně nemůžeš hodnotit hru, aniž by jsi viděl kód té hry. I DX10 hra může vypadat jako DX9...
Draken (1578)|9.7.2008 11:17
no podle mě to nebude tak horký,takovou grafiku to možná nakonec bude renderovat jen ve 2D a bude po legraci...ale nevím proč vývojáři zapomínají na opengl vždyť by efekty DX10 zvládl jak nic a ještě nenáročněji
fa.Destruct (44)|9.7.2008 13:26
Ale stejně musím souhlasit s Papim, dokud nebudou mít ty objekty alespoň 5x více pol´s a mnohem detailnější textury, bude to stále působit jako pěst na oko... (na Qenginu to tak působí každopádně).
Gulde (92)|30.7.2008 03:35
[QUOTE=Draken;140281]no podle mě to nebude tak horký,takovou grafiku to možná nakonec bude renderovat jen ve 2D a bude po legraci...ale nevím proč vývojáři zapomínají na opengl vždyť by efekty DX10 zvládl jak nic a ještě nenáročněji[/QUOTE]

Protože ten nějak leží u ledu, co se podpory her týče, ale prý se chystá nějaký velký "comeback".
koubis (101)|31.7.2008 00:24
hmmm... Nostradámus zase říkal, že v roce 2015 má být obrovská válka... :-D

To prohlášení je opravdu oficiální nebo jen redaktor má dobrou fantazii?
Draken (1578)|5.8.2008 12:58
no nevim v Iráku se válčí pořád ne?

když si vzpomenu na crysis a všechno to kolem (hlavně nvidia propagace) tak je pro mě výsledek spíš zklamáním -grafika je hezká, příběh ujde ,ale to se dá říct o spostě dalších her od kterých se moc nečekalo
a nakonec mě překvapily mnohem víc...prostě jak se někdo moc chvástá s tím jaká to bude bomba tak to většinou moc dobře nedopadá...
myslím že Intel nebude vyjímkou ...
Pavel Boček (4169)|5.8.2008 14:26
No od Crysisu se dala čekat hlavně dobrá grafika, což je ale celá politika Cryteku. V době, kdy byla zvykem stále celkem otřesná grafika (ač delší příběh a možná lepší hratelnost) přišli se super grafikou. A o to šlo i u Crysisu, aby obraz dosahoval kvality fotografie, což se myslím povedlo (jak bylo prezentováno např. na GDF 2008, nebyl jsem schopen rozeznat Crysis a původní fotografie ostrova). Ostatní očekávání tomu přišpendlil tisk a hráči a pak se divili, že to tak není...

Jinak celý název tohoto vlákna dávno neplatí. Jak se nedávno potvrdilo, Larabee bude opravdu grafická karta, byť možná s jinou konepcí jádra, než má AMD a NVIDIA. Mikroprocesory podobné AMD Fusionu Intel začal dělat až po oznámení Larabee. Každopádně bude Intel dělat vlastní VGA a ty katastrofy GMA 9x0, GMA 3x00, GMA 4x00 apod. akorát nahradí CPU s VGA jádrem v jednom balení. Ale konec VGA tu nevidím, když je budou sami dělat...
Draken (1578)|5.8.2008 14:59
pak tu je otázka jak rychlá tyto jádra budou myslím že reálné je kombinace E2180+GMA 3100
možná až E4500+GMA 5XXX podle mě ale vzniknou nové problémy s přehříváním (každý raději sáhne po procíku bez GPU-levnější,chladnější,přetaktovatelnější,možná jednou i menší) a nakonec tahle technologie zemře jako tomu bylo u přechůdce SLI (nevím jak se to přesně jmenovalo ale používala to S3).