IMHO se DNA počítače nikdy nerozšíří do domácností a těžko výrazně zasáhnou za hranice medicíny/biologie. Principielně neřeší NPC problémy o nic efektivněji než klasické počítače, jen mají v současnosti o něco vyšší výkon než desktopy - alespoň v teorii(ale na nejlepší superpočítače nemají a nejspíě ani mít nikdy nebudou). Nejde je dále miniaturizovat(DNA už menší nebude), nejde zásadním způsobem zvyšovat jejich "frekvenci" takže jediný způsob je větší množství DNA a to má taky své hranice. Navíc i když se může zdát, že těch pár řádů, o které jsou rychlejší než stolní PC může být velký skok, tak právě v NP-C a extrémně v NP-hard problémech(zmíněný problém cestovatele) to neznamená skoro nic. Tam nepomůže žádný brutální výkon, jen změna principu počítání a to přinesou jedině kvantové počítače - žádný jiný princip zatím neumožňuje ani teoreticky to efektivně počítat.
Kdo by co měl z windows 7 na ARMu? Celá ta myšlenka je od základu vadná - windows 7 by přišel o to základní, proč se windows používá - kompatibilita a mooooooře programů. Takže to je jedině správné rozhodnutí. Možná....možná kdyby udělali hodně rychlý a hodně dobrý emulátor, který by i na jinak hodně slabých ARM procesorech dokázal aspoň nějak rozchodit aspoň běžné aplikace. Jinak je to k ničemu - atom je i proti nejvýkonnějším ARM procesorům o třídu rychlejší. Vemte jim ještě 80% výkonu na emulaci a je to nepoužitelné.
Myslím, že nebyly použity zrovna ideální ovladače pro SLI systémy (zvláště 9800GX2). Chápu, že WHQL 180.48 ještě nebyly, ale 180.43 už tu nějakou dobu jsou a mám dojem, že právě tato verze zvyšovala výkon ve Far Cry 2 u SLI (někde jsem to četl právě v souvislosti s mizerným výkonem 9800GX2). Jinak pěkný souhrn.
Nevím, ale "dokazovat" na v průměru jeden rok starých hrách, v poměrně nízkých rozlišeních, když navíc polovina her je multiplatformních (konzole moc paměti nemají), že se 1GB po dobu života karty nevyužije, je ... nevhodné. Všechny (snad až na AoC) jsou z doby, kdy více jak 512MB neměla skoro žádná karta. Dnes už mívají více i mainstream karty, takže narozdíl od toho, co bylo ještě půl roku nazpět, si vývojáři už můžou začít dovolovat využít více než jen 512MB.
Neříkám, že tomu tak určitě bude během roku/dvou, kdy tyto karty budou morálně použitelné (i když tipuji že skoro určitě). Jen že test i na půl roku starých hrách to nemůže postihnout.
PS:tady je zajímavý graf: http://www.anandtech.com/video/showdoc.aspx?i=3415&p=2 neříká nic přímo a ukazuje jen ultimátních 2560, ale sledujte výkonový náskok 1GB verze v závislosti na stáří hry. Je jen otázkou času kdy se to projeví i v nižších rozlišeních.
pokračuješ ve výslechu, místo argumentace. už v posledním pps jsem ti napsal, že tohle nehodlám dělat. Stejně jako ti nehodlám dělat vyhledávač monitorů. Napiš svoje argumenty, nebo nashledanou. Ale už jsem pochopil co stále myslíš těmi "přirozenými barvami". pleteš si přirozené a přesně zkalibrované/přesné. Zkus trochu zauvažovat, jak je možné, že i monitor s malým gamutem může mít stejnou odchylku, jako ten s větším. Třeba na to příjdeš jaký je rozdíl a co by všechno muselo být přesné, aby bylo i přirozené... Co všechno jas vyřadí? Myslel jsem, že nemusím takovému expertovi vysvětlovat elementární logiku, ale když není vyhnutí: pokud ani na minimu monitor nezvládné tak nízký jas, tak ho nezvládne vůbec. protože ani na minimu většina nezvládne jas pod 50, tak je tento parametr vyřadí. nebo jsi zase slovíčkařil a děláš, že nechápeš význam slova vyřadí? A pokud nechápete, že počet barev je dán jejich počtem v neujžším místě jejich průchodu monitorem (což je u všech panelů, co jsem kdy viděl právě vlastní zobrazování), tak se nemá cenu dále bavit, protože evidentně nemáte základy.
Znova a naposled říkám, že už nebudu odpovídat na otázky jen reagovat na argumenty. TEČKA.
Tak pro mateřskou školku: - "hloubka panelu" je samozřejmě myšleno barevná hloubka panelu (tj matice tekutých krystalů). pochopitelně v bitech na subpixel. ale už je mi jasné, že když vám nenadefinuji všechno podle naučného slovníku, tak budete slovíčkařit - zkuste si to odpoustit. - jednou už jsem prošel a napsal monitor, který splňoval vaše podmínky (nějaký samsung tuším). teď jste je poupravil a já nehodlám prohlížet znovu recenze - pokud chcete vědět, určitě nějaký najdete v posledních cca 15-ti panelech. recenze nejsou utajované, takže k nim nepochybně přístup taky máte. - nezjednodušuji nic tak aby to normální člověk, co zná aspoň trochu základy (tzn občas si tady přečte nějakou recenzi) nepochopil. Vy se jen snažíte překrucovat. - to vyřazení skoro všech panelů, není můj výmysl, ale jednoduché zhlédnutí posledních cca 15-ti recenzí tady na shw. málokterý monitor má i na minimu jas na 50-ti cd/m2 (nebo méně). a to bez ohledu na použitou technologii. - nepsal jste o "discipline zabyvajici se popisem kvality reprodukce barev" ale o "přirozenějším podání barev". to první je objektivní, to druhé subjektivní záležitost. Mj. další ukázka jak překrucujete. - jak je možné různé bitová hloubka panelu a elektroniky? jednoduše. do monitoru například vstoupí obraz s 8b (na barevný kanál). pro potřeby zpracování (úprava jasu, gamma,...) se rozšíří na 12b(samozřejmě žádná nová informace se tady nepřidá). s těmi 12b počítá elektronika uvnitř monitoru (a tady máte svoje LUTky). nějak tu danou barvu transformuje (vynásobí koeficientem, podělí...to je v podstatě fuk)a výjde barva, která se má zobrazit. ta je ale nejspíš stále v 12-ti bitovém formátu. a teď teprv přichází fáze, kdy se má zobrazit na panelu. a ten zvládne (příklad) 8 bitů. tak se těch 12 bitů ještě musí zaokrouhlit (nejjednodušeji ořezat) na 8 a teprv potom poslat k zobrazení. a proč se to dělalo? protože při násobení a dělení dochází k zaokrouhlovacím chybám na několika posledních bitech. podobně se to dělá u zpracování signálu všude možně. Už chápete proč je barevná hloubka použítá v elektronice defacto nezávislá na vlastnostech panelu? jestli ne, tak už to asi jednodušeji nepopíšu. zkuste si vyhledat něco o zpracování signálu.
PS: Mluvíte ke mě, nebo se jen předvádíte pro ostatní? "nejen ze moc nevi, o cem pise, ale ani neudrzi myslenku" ... to je třetí osoba.
PPS: místo toho aby jste oponoval, tak se snažíte abych já vám vysvětloval každý kousek mé úvahy. tohle dále nehodlám dělat. buď uveďte své argumenty, nebo přestaňte rýpat, slovíčkařit a nadávat.
Jistě, že jsem to zjednodušil. Tady není místo ani nálada popisovat jak se přesně data uvnitř zpracovávají a proč se tedy musí vždy používat větší přesnost při jejich zpracování, než při výsledném zobrazení (a když se použije jen o něco větší přesnost, stále se můžou projevit chyby). Podstatné je, že jsme mluvili o hloubce panelu a vy jste do toho začal motat hloubku LUT. A jako důkaz, že 8 bitů nestačí jste mi podal 12-ti(/16-ti) bitovou LUT...
Takže děkuji za váš sarkasmus (nebo nadávky?), ale s argumentováním, jaké jste předvedl, to beru jedině kladně.
Ty jsi mimo - je úplně jiná věc vnitřní zpracování barev a počet barev LCD panelu. Vnítřní zpracování prakticky vždy probíhá při větší hloubce, protože dochází ke kumulaci chyb s každým dalším provedeným výpočtem. Takže zvláště tam, kde se bude složitě kalibrovat to má smysl. Vyvede se to ale stejně na přinejlepším 10-ti bitový panel.
Takže výrobci nejsou padlí na hlavu, jen nevědí, že někdo bude takto desinterpratovat jejich vlastnosti.
ty žiješ asi v jiném světě...a ano - psal jsem, že "pro práci může být nutnost" (a měl jsem na mysli právě profi grafiku). ale já mluvím o drtivé většině lidí, co nepotřebují dělat postery apod. Málokdo pozná rozdíl mezi 6-bitovým a 8-bitovým panelem. Panely s větší hloubkou barev jsou mimo možnosti smrtelníků rozeznat od 8-mi bitových(nehledě na dalším zdvojnásobení ceny). A co se týká kalibravi optickou sondou...to jen dokazuje, že nežiješ na té samé planetě a stále mluvíš o tom nepatrném zlomku lidí, co skutečně používají optickou sondu ke kalibraci. To ale je případ méně než toho optimistického jednoho procenta, které jsem nechal pro zbytek v mém prvním příspěvku.
Další, co neumí číst. Nepsal jsem pozorovací úhel 45 stupňů, ale odklon od kolmice o 45 stupňů (tj 90 stupňů pozorovací úhel). S vertikálními je to sice horší(zvlášť zespodu), ale existuje možnost natočení monitoru - a za poloviční cenu je to preferované.
v pořadí na tvé "výhody": -možnost vícebitového zpracování normální člověk nepozná a ten co ano - existují (a celkem se i používají u větších úhlopříček) 8-mi bitové TN panely - u trošičku kvalitnějšího TN to taky platí, pokud u toho neběháš ze strany na stranu a neposkakuješ - to jsem ještě neslyšel a příjde mi to přitažené za vlasy - když si nastavíš takto ujeté parametry, tak vyřadíš skoro všechny monitory (nejen TN), protože málokterý vůbec povoluje jas tak nízko. ale i tak stačí se podívat na posledních 5-10 recenzí a najdeš tam třeba Samsung T220 -"přirozenější podání barev" je tak vágní termín, že se proti němu nedá nic říct. zajdi do obchodu a podívej se na 10 různých monitorů. každý bude mít trochu jinak laděné barvy. ale až na to, že možná vyřadíš extrémní případy(přepálené nebo naopak příliš zašedlé), tak nepoznáš bez optické sondy co je správně.
IPS/VA mají svůj význam, ale jen velice zřídka pro domácí použití (úprava fotek ... dejme tomu).
Poslední dobou je tady příliš hodně vycpávek místo skutečných testů, recenzí a technických článků. Když jsem se podíval na hlavní stranu, tak celá POLOVINA článků jsou vycpávky typu souhrn článků, událostí, soutěže apod. Je sice zajímavé mít i tyto věci, ale myslím, že to s nima už trochu přeháníte (nebo naopak je málo ostatních, zálaží z které strany se na to člověk dívá). Doufám, že je to jen letním suchem, protože i když čtu SHW dlouho, začínám mít pocit, že tu chodím už jen ze zvyku.
Asus EEE byl krásný svou bezkonkurenční cenou. 7" se prodává dnes i pod 5000Kč. 11,5k mi příjde hodně přesazené. Zvláště ve chvíli, kdy se i plnohodnotné nb prodávají už od 7000Kč. Je fakt, že nové EEE má teď excelentní výdrž a najdou se i další výhody, ale stále mu do plného užití dost věcí chybí a hlavně už ztratilo svou největší výhodu - cenu.
asi poprvé kritizuji formu, ale čte se to opravdu špatně. Opakování slov je jen okrajovou záležitostí. Horší je poněkud číst odstavce pojednávající o zipkách. Kapacity vám tam skáčou nahoru a dolů bez uvedení do kontextu (např. kapacita se ztrojnásobí na 750MB, ale předchozí uvedená kapacita byla 100MB). Kdo neví jak to bylo se v tom orientuje jen dost těžko. U SyJetu popisujete vlastnosti jako "podobné" (nejspíš myšleno JAZZu), ale samotný JAZZ a jeho vlastnosti popsané prakticky nebyly...
Skutečně by to chtělo rozpracovat a napsat tam trochu víc souvislostí. Pak by některé pasáže nebyly tak zmatečné.
S tím shaderem to byla nv ať tak, či onak. Ostatně přečti si vyjádření inženýra od ATI(najdeš ho třeba tady na wikině(http://en.wikipedia.org/wiki/Radeon_R100): R100 sice měl něco, co by se dalo nazvat shaderem, ale to samé se dá říct i o GF256/GF2. Jediný rozdíl byl v tom, že ati leaknula informace o pokusné cestě v ovladačích.
Takže ať už bereš první skutečné shadery (GF3) nebo první omezené shader (GF256,... tady by spíše byly profesionální karty, i když bavíme se o masových produktech), pokaždé narazíš v tomto ohledu dřív na nv, než na ati.
ad SM1: opět si přečti, co napsal inženýr od ATI - MS umožnilo 99% funkčních schopností shader jednotek prvního radeonu (pomocí JEDINÉ funkce D3D!). Takže žádné spiknutí, jen velice omezená schopnost těch shader jednotek. ad SM3: jediné, co má GF6/7 horší u SM3 je branching. RX1xxx mají pro změnu u SM3 problémy s texturováním (pro účely shaderů) - jak výkon tak funkčnost. Ostatně je známo jakým způsobem tyto karty "dodržely" na papíře specifikaci, když u jedné takové vyžadované operace s texturou ji sice pro forma podporují, ale s prázdnou množinou texturovacích formátů... Navíc není pravda, že se branching nevylepšil mezi GF6 a GF7 - ja tam řádový rozdíl v granularitě.
Ad techniky 3dfx: ty byly pro použití v moderních akcelerátorech NEPOUŽITELNÉ. 3dfx používala totiž několikanásobný výpočet celé scény(s jitterem). To bylo zajímavé možná v době Voodoo 5(GF256, R100). Už GeForce 3 tento postup výkonově překonal(jedná se mi o procentuelní propad, ne absolutní výkon). Ale pokud se ti jedná o kvalitu(tzn použití rot. grid), tak tam skutečně nv do GF6 zůstala pozadu.
ano, zvedne se. a je pravda, že spotřeba navíc roste lineárně(to neznamené s počátkem v nule!) i s frekvencí. ale je to celkem zanedbatelné. tzn při konstantním napětí je celkem malý rozdíl mezi přetaktovaným a nepřetaktovaným procesorem(řádově v jednotkách W).
oni bohužel neříkali, že slepence nemají budoucnost, ale že single karty jsou vhodnější a s méně problémy.
jinak na 65nm můžou jít rozhodně mnohem dále hlavně co do počtu tranzistorů, než současných 750 milionů. nezapomínej, že G80 má prakticky stejný počet a je na 90nm procesu! Tzn když vezmeme, že G80 má tak +- maximální rozumnou plochu při 680 milionech na 90nm procesu, tak při 65 nm se na stejnou plochu vleze +-1300 milionů.
a ty jsi odkud spadl? phenom je naopak zdaleka nejžravější čtyřjádro, co se teď prodává. A ta tvoje poslední věta je maximálně slogan, který najdeš někde v reklamních materiálech amd, jinak to taky nemá nic společného s realitou.
pro info: http://anandtech.com/cpuchipsets/showdoc.aspx?i=3272&p=13 nebo http://www.hothardware.com/Articles/AMD_Phenom_X4_9850_B3_Revision/?page=8
to první je ještě hodně přijatelné pro amd, ale to druhé zabijí hřebík hodně hluboko do rakve "úsporného amd".
ve zkratce - ano. bude ti stačit. teď se dělá se zdroji velké bububu, ale pokud nekoupíš vadný kus, tak ti bude stačit i noname(problém je, že u noname je celkem slušná šance že koupíš vadný). teď jsem někde viděl testy kde sestava s C2Q6700@3.6GHZ + 9800GX2 v maximální zátěži sežrala cca 380W. A to je příkon. Když se spočte výkon(při celkem ideální efektivitě 80%), tak je to 300W.
300W na tom nejvýkonnějším a nejžravějším(krom quad-sli), co můžeš postavit a to ještě po přetaktování. To musí jakýkoliv 400W zdroj, který není vadný, bez problému dlouhodobě vydržet.
což je dáno nejspíš tím, že se na to podání díváš na vlastním monitoru, který má úplně jiné podání barev. defacto je na obrázku simulováno co by s barvami udělalo, kdyby jsi použil jejich barevnou korekci na vlastní monitor.
ano, i tak draho můžeš pořídit 9600. jinak jde sehnat v běžném obchodě i za cca 4100.
podstatné je, pokud chceš srovnávat cenu s radeonem, že jak 3870, tak 9600GT stojí(když započteme slevu radeonu, která se ještě u nás moc neprojevila) 189USD. A je jedno jakou částkou to vynásobíš - opět dostaneš tu samou cenu pro obě.
Takže je jediná otázka - co je z těchto dvou karet rychlejší. podle testů je to +- jedno s tím, že lehce v průměru získává 9600GT.