Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Diskuze k článku: AMD uvádí Stream Processor
14.11.2006, Milan Šurkala, aktualita
Společnost AMD dnes uvedla na trh Stream Processor, PCI-Express kartu pro akceleraci nejrůznějších analýz nebo třeba výzkumů (HPC - High Performance Computing aplikace). Například finanční analýzy proběhly oproti zpracování na CPU (Pentium...
Nokiac14 | 27.11.200621:23
No, být AMD tak nadávaám cenu 2600USD ale nebídnu to exluzivně oxfordu, za 100 000USD, za tejden by došlo dalších sto nabídek, vždyť každej jzápadní větší ústav potřebuje nějakej superpočítatač, a vzhledem k 2000% nárůstím je i 100 litrů málo...
Odpovědět0  0
tfoltynek | 14.11.200621:02
Vim jak se rozhoduje pri vypisovani grantu a pri nakupu hardware pro vyskum. Cena je opravdu smesna. Kdyby tato karta mohla urychlit nase vypocty treba 20x, jeji ekvivalentni cena by mohla byt treba i 500 tis. a jeste porad by to bylo levne reseni.
Odpovědět0  0
Mark2525 | 15.11.20060:24
Souhlasim. V teto sfere se s penezi na jednorazove vydaje naklada opravdu trochu jinak nez ve sfere SOHO. Ta cena je opravdu pakatel vzhledem k prinosu.
Odpovědět0  0
olsen (191) | 14.11.200618:01
nezapomente, ajk drahe jsou profesionalni graficke karty ­(quadra­), ac jde o stejne cipy a karty jako geforce ­/viz ony vecne softmody/
Odpovědět0  0
Huiii | 14.11.200617:54
A ted je myslim jasne, ze spojit dohromady CPU a GPU na jediny kus kremiku, jak to planuje AMD, neni vubec spatny napad :­-)
Odpovědět0  0
gro | 14.11.200618:06
faaaaakt ? ;­-­))
Odpovědět0  0
ptipi (139) | 15.11.20061:16
Kočky mají takové přísloví: ­"co to tady plácáš ty vořechu?!?­". Tím, že to prodávají dokonce jako něco jiného, než GPU, dokazují pravý opak ­- pokud jde o výkon, musí se ta jednotka vyčlenit z celku. Stejně tak grafiky integrované do cpu na hraní nikdy nebudou vhodné. Pro příklad ­- kdyby se někdo zbláznil a dnes integroval do jednoho obvodu C2D a GF8800, tak aby to podávalo srovnatelný výkon se samostatným řešením, musel by k tomu přišít 512­-ti bitovou paměťovou sběrnici­(!!!; 384+128­), což by při standartních paměťových modulech znamenalo nutnost osazení 8­-mi moduly zároveň a to ještě nějakými ultra­-rychlími paměťmi aspoň na frekvenci 1500MHz efektivně!!!
Odpovědět0  0
gro | 15.11.200611:15
A kde je problém ?
Odpovědět0  0
Huiii | 15.11.200617:09
Pro hry asi ne. Pro vypocty se to hodi mit pohromade, a je to i vyrazne levnejsi.
Odpovědět0  0
ptipi (139) | 15.11.200618:42
ani pro náročné výpočty se to nehodí mít pohromadě ­- stále platí, že by to bylo limitováno propustností pamětí. Desítky až stovky stream procesorů + pár standartních procesorů potřebují být něčím zásobované daty. a to se ti na základní desku s možností přidávání modulů nepodaří dát ani kdyby ses po****.
Odpovědět0  0
Jafpu | 15.11.200622:12
Já si naopak myslím, že integrace GPU do CPU je ideální cesta. Ovšem musí se k tomu přizpůsobit ­"pár drobností­". Intel, AMD i nVidia podle posledních slov na tuto integraci sází a težko si představit, že by všichni šli po naprosto nesmyslné cestě. Pokud bude GPU integrováno v CPU, může procesor využít pro výpočetně náročné aplikace paralelní shadery u GPU jako koprocesor, aniž by s ním musel komunikovat přes velice pomalé sběrnice. Je to levnější. Celková plocha čipu se nezvětší ­(plocha odděleného CPU a GPU je velká jako plocha CPUGPU­) a odpadnou z motherbordu potřebné sběrnice a elektronika. Jediné co se musí udělat, je přivést k společné CPUGPU jednotce dostatek dat. A na co myslíš že se bude hodit nedávno Intelem objevený ­"křemíkový laser­"? Ovšem já bych odhadoval, že to všechno půjde postupně. Za pár let integruje AMD i Intel grafárnu do CPU, ale půjde jen o lowend a de facto dojde jen k přesunu této grafárny z čipsetu do CPU. Výkonnější GPU se do CPU dostanou asi až později, s příchodem mnohajádrových CPU. Intel už prezentoval procesory s mnoha desítkami jader jako další cestu k zvyšování výkonu. A mezi temi desítkami jader budou i specializované pro video, kryptografii, grafiku.
Odpovědět0  0
Huiii | 16.11.20069:57
Pro vypocty je 1GB smesna hodnota, pritom rychle DDR3 pameti stoji majlant. Stejne by to muselo tahat pres PCI­-Ex z hlavni pameti, lokalni pamet by mohla slouzit nanejvys jako cache. Takze ve vysledku je rychlejsi mit to v CPU s moznosti primeho pristupu k mnoha GB RAM nez mit malou pamet kam se nic nevejde, pomoci procesoru porad resit co zahodit a co nove natahnout, navic pres sbernici co neni navrzena pro pripojeni ­(ko­)procesoru.
Odpovědět0  0
Huiii | 15.11.200617:16
Jo jeste: tim ze to prodavaji jako neco jineho nez GPU dokazuji jedine to, ze je mozne vzit kus zeleza, ktery uz mate, dat na nej jinou nalepku a prodat ho za mnohem vic penez... ;­-)
Odpovědět0  0
tgfh (69) | 14.11.200617:36
AMD uvádí opravdu zajímavou věc! Ten nápad se mi zamlouvá!
Odpovědět0  0
cml11 (419) | 14.11.200617:02
Přesně tohle je cesta kterou by se mohly ubírat dnešní grafické karty.Jejich brutální výpočetní výkon by se měl dát využívat i jinak než ­"pouze­" k zobrazování 3D grafiky.AMD nám tímto ukázalo že to jde a to zřejmě poměrně snadno.Teď ještě dovést do výroby kartu která zvládne obojí..
Odpovědět0  0
pegy (258) | 14.11.200618:03
ja myslim, ze na tomto uz davnejsie pracovalo ATI a AMD to uz len uviedla, kedze odkupili ATI, ale nymyslim, ze by to bol ich napad, ak sa mylim, tak ma opravte.... :)
Odpovědět0  0
Thomas43 | 15.11.20060:28
MYslim ze to uz hodne daaaavno napadlo vsechny zainteresovane od ATi pres nVidii az po SiS a VIA :­-­) ... to jen bezny franta uzivatel je z kazde, v te chvili ud de fakto zastarale technologie, pri uvedeni na vetvi :­-)
Odpovědět0  0
gro | 14.11.200618:05
Houby, teď je dojící období až přijde nový model může se uvažovat o slevnění, ale kdoví jestli, tychle speciální věci nikdy moc neslevňujou, spiš se staré modely odstraní z trhu.
Odpovědět0  0
Thomas43 | 15.11.20060:30
To zalezi pouze a jen na tom, zda to najde vyuziti u sirokych mas spotrebitelu ... pokud ne, zustane to samozrejme drahe, jinak by nemelo smysl to pro tech par vyvolenych vubec vyrabet.
Odpovědět0  0
gro | 15.11.200614:59
Není to pravda, tohle je totiž klasický začarovaný kruh, kvůli vysoké ceně se to nedostane mezi kritický počet řadových uživatelů a... nic. První krok musí vždy udělat firma, říká se tomu ­"zaváděcí cena­".
Odpovědět0  0
GameDeveloper | 14.11.200618:08
No AMD neni prvni, kdo na toto prisel :­) Ta myslenka je tu uz dost dlouho, karty s cipem G80 jsou take schopny provadet obecne vypocty a rekl bych, ze jeste rychleji. Otestovane to nemam, ale podle toho jak moc velky hruby vykon ma G80 tak je to vic nez pravdepodobne. Je fakt, ze i drivejsi karty s SM3 byly schopne pocitat defacto cokoliv, ale bylo to dost umele, NVIDIA ted zavedla do ovladacu technologii CUDA, ktera umoznuje napsat klasicky program v jazyku C a ten pak prekompilovat pomoci jejich kompilatoru a spustit na GPU, ktery uz s tim pak vnitrne pracuje velmi efektivne. Tento pristup mi prijde zajimavejsi nez delat specializovanou kartu, ktera je pouze prevlecenou grafikou. To si muzou dovolit koupit jen vetsi organizace, zatimco graficka karta typu 8800GTS neni zas az tak nedostupna.
Odpovědět0  0
makove rezance | 5.3.200717:42
no jasne ale nvidea to este neuviedla na trh, a kym sa spamata tak ati bude mat u vacsiny zakaznikov podporu... ta myslienka je tu dost dlho lenze nikto predtym neprisiel na trh s tym aby mohol priamo uzivatel pisat soft pre dany hardware..... to ci je lepsie CUDA alebo CTM sa este uvidi casom, kedze obidve maju svoje vyhody a nevyhody...samozrejme si spomuenul len super vyhodu CUDA a super kartu s cipom G80 :­) a samozrejme si spomenul nieco o efektivite co je dobra blbost nakolko CTM od ati je a bude efektivnejsie a rychlejsie riesenie ako CUDA lebo da priamo pristupovat k HW ,pisat progrma v asm a nemas len kniznice pre Ccko s ktorymi si mas vystacit­(samozrejme je to pohodlnejsie pre programatora ale to nebrani aby v systeme CUDA si uzivatel sam naprogramoaval API alebo pouzil niekoho ineho­)
Odpovědět0  0
SmartMole (93) | 14.11.200616:45
Vzhledem k tomu, do jakého sektoru tato karta míří a jestli je Vám schopna urychlit výzkum z 3 let na jeden měsíc, tak ta částka je docela směšná. Ale řekl bych, že časem půjde dolů a nakonec ceny budou podobné nebo jen o trochu vyšší jako u GK.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.