Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od ptipi
nebo to myslíš vážně?
Odpovědět0  0
Efektivnější NENÍ. Každý kdo ví něco o teorii složitosti ti řekne, že každý problém narůstající jak říkáš ­"geometrickou řadou­" na běžném počítači bude narůstat stejně i na DNA. JEDINÁ věc co tohle dokáže obejít jsou kvantové počítače ­- a ty jsou dnes stále daleko. A k těm 700 petabajtům ­- to je opravdu pěkné, ale použitelné je to jen k rozgenerování stavů ­- tzn k věci, která se dá klidně udělat i seriově bez jakékoliv ztráty ­- nulová výhoda tady.
Navíc se musíš konečně rozhodnout, co obhajuješ?
Specializované systémy pro biologii­(apod­)? Už jsem 2x napsal že tam se to skutečně může ujmout ­- ale z jiných důvodů než výkon. Takže netuším proč píšeš o úpravě molekul.
Superpočítače? Možná...možná na nějaký čas pro hodně specializované účely.
Desktopy? Ani náhodou. Napiš věc, kvůli které bych si měl pořídit takový koprocesor do desktopu.

K výkonu ­- ten je podle článku 330Tops u nejvýkonnějšího DNA počítače ­- to je pěkné, nikoliv nedosažitelné. Vzhledem k tomu že běžně dostupné grafiky mají dnes přes 2TFlops už dnes, není to zvláště u problémů typu obchodní cestující nic ­- přidáš 5 měst a zase končíš. Doslova. Ano, vím že to zní divně, ale dva,tři řády výkonu navíc právě u těchto problémů, na které je DNA ­"jako dělaná­" skutečně neznamená nic moc.
Odpovědět0  0
Můžu jednoduše srovnávat hrubý výkon v oblastech, pro které jsou DNA počítače vhodné­(tzn jak je naznačeno v článku jsou to NP problémy­). A co já tvrdím je, že i dnes je všechno co zvládne DNA počítač možné udělat i na klasických křemíkových čipech a s minimálně stejnou efektivitou, navíc u superpočítačů i rychleji ­(veškeré algoritmy, které jsou aplikovatelné u DNA jsou aplikovatelné i u klasických PC, ale naopak to prakticky nejde­).
Takže co DNA přináší? Krátkodobě mírné zvýšení výkonu v určitých oblastech bez výhledu do budoucnosti­(krom těch speciálních oborů, kde je dna výhodná i z jiných důvodů ­- viz biologie­).
A srovnání s desktopem je v první řadě na místě proto, že tvrdím že do běžných desktopů se nikdy ­"DNA čip­" nedostane.
Odpovědět0  0
IMHO se DNA počítače nikdy nerozšíří do domácností a těžko výrazně zasáhnou za hranice medicíny­/biologie. Principielně neřeší NPC problémy o nic efektivněji než klasické počítače, jen mají v současnosti o něco vyšší výkon než desktopy ­- alespoň v teorii­(ale na nejlepší superpočítače nemají a nejspíě ani mít nikdy nebudou­). Nejde je dále miniaturizovat­(DNA už menší nebude­), nejde zásadním způsobem zvyšovat jejich ­"frekvenci­" takže jediný způsob je větší množství DNA a to má taky své hranice.
Navíc i když se může zdát, že těch pár řádů, o které jsou rychlejší než stolní PC může být velký skok, tak právě v NP­-C a extrémně v NP­-hard problémech­(zmíněný problém cestovatele­) to neznamená skoro nic. Tam nepomůže žádný brutální výkon, jen změna principu počítání a to přinesou jedině kvantové počítače ­- žádný jiný princip zatím neumožňuje ani teoreticky to efektivně počítat.
Odpovědět0  0
Kdo by co měl z windows 7 na ARMu? Celá ta myšlenka je od základu vadná ­- windows 7 by přišel o to základní, proč se windows používá ­- kompatibilita a mooooooře programů. Takže to je jedině správné rozhodnutí.
Možná....možná kdyby udělali hodně rychlý a hodně dobrý emulátor, který by i na jinak hodně slabých ARM procesorech dokázal aspoň nějak rozchodit aspoň běžné aplikace. Jinak je to k ničemu ­- atom je i proti nejvýkonnějším ARM procesorům o třídu rychlejší. Vemte jim ještě 80% výkonu na emulaci a je to nepoužitelné.
Odpovědět0  0
A v čem je problém? Teď nemám po ruce Vistu, ale v XP cyhtneš taskbar a přetáhneš ho na druhý monitor naprosto bez problému. Jen v případě, že jsi ho uzamknul budeš muset zajít ještě navíc do kontextové nabídky.
Odpovědět0  0
co tak to, že vědomě napomáhali k porušování lokálního az?­(a nikdo mi nevymluví, že nevěděli, co přesně dělají­)
samozřejmě rozsudek bude určitě mnohem složitější a můžeme se bavit do jaké míry je kde autorský zákon ­"spravedlivý­", ale v samotném rozhodnutí soudu problém opravdu nevidím.
Odpovědět0  0
Myslím, že nebyly použity zrovna ideální ovladače pro SLI systémy ­(zvláště 9800GX2­). Chápu, že WHQL 180.48 ještě nebyly, ale 180.43 už tu nějakou dobu jsou a mám dojem, že právě tato verze zvyšovala výkon ve Far Cry 2 u SLI ­(někde jsem to četl právě v souvislosti s mizerným výkonem 9800GX2­).
Jinak pěkný souhrn.
Odpovědět0  0
podle jiné recenze má 4670 70% výkonu 4830. přitom stojí jen cca 65% ceny. takže to celkem odpovídá
Odpovědět0  0
Nevím, ale ­"dokazovat­" na v průměru jeden rok starých hrách, v poměrně nízkých rozlišeních, když navíc polovina her je multiplatformních ­(konzole moc paměti nemají­), že se 1GB po dobu života karty nevyužije, je ... nevhodné.
Všechny ­(snad až na AoC­) jsou z doby, kdy více jak 512MB neměla skoro žádná karta. Dnes už mívají více i mainstream karty, takže narozdíl od toho, co bylo ještě půl roku nazpět, si vývojáři už můžou začít dovolovat využít více než jen 512MB.

Neříkám, že tomu tak určitě bude během roku­/dvou, kdy tyto karty budou morálně použitelné ­(i když tipuji že skoro určitě­). Jen že test i na půl roku starých hrách to nemůže postihnout.

PS:tady je zajímavý graf: http:­/­/www.anandtech.com­/video­/showdoc.aspx?i=3415&p=2
neříká nic přímo a ukazuje jen ultimátních 2560, ale sledujte výkonový náskok 1GB verze v závislosti na stáří hry. Je jen otázkou času kdy se to projeví i v nižších rozlišeních.
Odpovědět0  0
na 1 GB je dnes omezení i pro multimediální centrum. dále máš omezeno rozlišení na 1366*768, nepodpora PCI, SATA­(nebo naopak pata?­),... a je jich tam ještě několik ­(z hlavy si to opravdu nepamatuji­).
je to prostě šité na míru UMPC a možná ještě levným nettopům.
Odpovědět0  0
nezačnou ­- rozhodně ne do klasického pc ­(možná do nějakého umpc­). přečti si něco o tom čipsetu a zjistíš, že ten v pc nemá co dělat ­- je osekaný až na kost.
Odpovědět0  0
tj, ale potom se ukázalo, že SSD, které testovali, byly z první várky narychlo ušitých SSD a když k nim přidali jeden nový, tak ten už měl spotřebu nižší.
Odpovědět0  0
ten, kdo umí číst se jich dočkal. zato jsme se nedočkali žádných argumentů, jen výslechu a slovíčkaření.

nashledanou, tohle nemá cenu.
Odpovědět0  0
Děkuji. Přesně tohle jsem se snažil vysvětlit už od prvního příspěvku ­(­"Pokud vezmu třeba ten 12bit panel, tak bez použití kalibrační sondy je rozdíl opravdu ne moc znatelný, nebo spíš stejně nevíte co je správně.­"). A možná to tam i je.
A protože kalibrační sondu skoro nikdo nemá, tak IMHO nemá cenu ve velké části případů kupovat drahý monitor. Což navazuje na zcela úvadní myšlenku ­- že je zcela správné, že se testují převážně TNka.
Odpovědět0  0
pokračuješ ve výslechu, místo argumentace. už v posledním pps jsem ti napsal, že tohle nehodlám dělat. Stejně jako ti nehodlám dělat vyhledávač monitorů. Napiš svoje argumenty, nebo nashledanou.
Ale už jsem pochopil co stále myslíš těmi ­"přirozenými barvami­". pleteš si přirozené a přesně zkalibrované­/přesné. Zkus trochu zauvažovat, jak je možné, že i monitor s malým gamutem může mít stejnou odchylku, jako ten s větším. Třeba na to příjdeš jaký je rozdíl a co by všechno muselo být přesné, aby bylo i přirozené...
Co všechno jas vyřadí? Myslel jsem, že nemusím takovému expertovi vysvětlovat elementární logiku, ale když není vyhnutí: pokud ani na minimu monitor nezvládné tak nízký jas, tak ho nezvládne vůbec. protože ani na minimu většina nezvládne jas pod 50, tak je tento parametr vyřadí. nebo jsi zase slovíčkařil a děláš, že nechápeš význam slova vyřadí?
A pokud nechápete, že počet barev je dán jejich počtem v neujžším místě jejich průchodu monitorem ­(což je u všech panelů, co jsem kdy viděl právě vlastní zobrazování­), tak se nemá cenu dále bavit, protože evidentně nemáte základy.

Znova a naposled říkám, že už nebudu odpovídat na otázky jen reagovat na argumenty. TEČKA.
Odpovědět0  0
Tak pro mateřskou školku:
- ­"hloubka panelu­" je samozřejmě myšleno barevná hloubka panelu ­(tj matice tekutých krystalů­). pochopitelně v bitech na subpixel. ale už je mi jasné, že když vám nenadefinuji všechno podle naučného slovníku, tak budete slovíčkařit ­- zkuste si to odpoustit.
- jednou už jsem prošel a napsal monitor, který splňoval vaše podmínky ­(nějaký samsung tuším­). teď jste je poupravil a já nehodlám prohlížet znovu recenze ­- pokud chcete vědět, určitě nějaký najdete v posledních cca 15­-ti panelech. recenze nejsou utajované, takže k nim nepochybně přístup taky máte.
- nezjednodušuji nic tak aby to normální člověk, co zná aspoň trochu základy ­(tzn občas si tady přečte nějakou recenzi­) nepochopil. Vy se jen snažíte překrucovat.
- to vyřazení skoro všech panelů, není můj výmysl, ale jednoduché zhlédnutí posledních cca 15­-ti recenzí tady na shw. málokterý monitor má i na minimu jas na 50­-ti cd­/m2 ­(nebo méně­). a to bez ohledu na použitou technologii.
- nepsal jste o ­"discipline zabyvajici se popisem kvality reprodukce barev­" ale o ­"přirozenějším podání barev­". to první je objektivní, to druhé subjektivní záležitost. Mj. další ukázka jak překrucujete.
- jak je možné různé bitová hloubka panelu a elektroniky? jednoduše. do monitoru například vstoupí obraz s 8b ­(na barevný kanál­). pro potřeby zpracování ­(úprava jasu, gamma,...­) se rozšíří na 12b­(samozřejmě žádná nová informace se tady nepřidá­). s těmi 12b počítá elektronika uvnitř monitoru ­(a tady máte svoje LUTky­). nějak tu danou barvu transformuje ­(vynásobí koeficientem, podělí...to je v podstatě fuk­)a výjde barva, která se má zobrazit. ta je ale nejspíš stále v 12­-ti bitovém formátu. a teď teprv přichází fáze, kdy se má zobrazit na panelu. a ten zvládne ­(příklad­) 8 bitů. tak se těch 12 bitů ještě musí zaokrouhlit ­(nejjednodušeji ořezat­) na 8 a teprv potom poslat k zobrazení. a proč se to dělalo? protože při násobení a dělení dochází k zaokrouhlovacím chybám na několika posledních bitech. podobně se to dělá u zpracování signálu všude možně. Už chápete proč je barevná hloubka použítá v elektronice defacto nezávislá na vlastnostech panelu? jestli ne, tak už to asi jednodušeji nepopíšu. zkuste si vyhledat něco o zpracování signálu.

PS: Mluvíte ke mě, nebo se jen předvádíte pro ostatní? ­"nejen ze moc nevi, o cem pise, ale ani neudrzi myslenku­" ... to je třetí osoba.

PPS: místo toho aby jste oponoval, tak se snažíte abych já vám vysvětloval každý kousek mé úvahy. tohle dále nehodlám dělat. buď uveďte své argumenty, nebo přestaňte rýpat, slovíčkařit a nadávat.
Odpovědět0  0
Jistě, že jsem to zjednodušil. Tady není místo ani nálada popisovat jak se přesně data uvnitř zpracovávají a proč se tedy musí vždy používat větší přesnost při jejich zpracování, než při výsledném zobrazení ­(a když se použije jen o něco větší přesnost, stále se můžou projevit chyby­).
Podstatné je, že jsme mluvili o hloubce panelu a vy jste do toho začal motat hloubku LUT. A jako důkaz, že 8 bitů nestačí jste mi podal 12­-ti­(­/16­-ti­) bitovou LUT...

Takže děkuji za váš sarkasmus ­(nebo nadávky?­), ale s argumentováním, jaké jste předvedl, to beru jedině kladně.

Nashledanou.
Odpovědět0  0
Ty jsi mimo ­- je úplně jiná věc vnitřní zpracování barev a počet barev LCD panelu. Vnítřní zpracování prakticky vždy probíhá při větší hloubce, protože dochází ke kumulaci chyb s každým dalším provedeným výpočtem. Takže zvláště tam, kde se bude složitě kalibrovat to má smysl. Vyvede se to ale stejně na přinejlepším 10­-ti bitový panel.

Takže výrobci nejsou padlí na hlavu, jen nevědí, že někdo bude takto desinterpratovat jejich vlastnosti.
Odpovědět0  0
ty žiješ asi v jiném světě...a ano ­- psal jsem, že ­"pro práci může být nutnost­" ­(a měl jsem na mysli právě profi grafiku­).
ale já mluvím o drtivé většině lidí, co nepotřebují dělat postery apod. Málokdo pozná rozdíl mezi 6­-bitovým a 8­-bitovým panelem. Panely s větší hloubkou barev jsou mimo možnosti smrtelníků rozeznat od 8­-mi bitových­(nehledě na dalším zdvojnásobení ceny­). A co se týká kalibravi optickou sondou...to jen dokazuje, že nežiješ na té samé planetě a stále mluvíš o tom nepatrném zlomku lidí, co skutečně používají optickou sondu ke kalibraci. To ale je případ méně než toho optimistického jednoho procenta, které jsem nechal pro zbytek v mém prvním příspěvku.
Odpovědět0  0
Další, co neumí číst. Nepsal jsem pozorovací úhel 45 stupňů, ale odklon od kolmice o 45 stupňů ­(tj 90 stupňů pozorovací úhel­).
S vertikálními je to sice horší­(zvlášť zespodu­), ale existuje možnost natočení monitoru ­- a za poloviční cenu je to preferované.
Odpovědět0  0
Evidentně jsi nečetl, co jsem napsal, tak ti ještě zopakuji v bodech:
- ­"mám SIPS­" ­(a dodávám, že jsem vyzkoušel všechny tři technologie­)
- ­"pro práci může být nutnost­"
...to by mělo eliminovat veškeré tvé věty snad až na dotaz ohledně TV. TV potřebují právě ty extrémní pozorovací úhly, které u monitorů stěží využiješ ­- například pohled zdola ­(pro děti­).
Odpovědět0  0
v pořadí na tvé ­"výhody­":
-možnost vícebitového zpracování normální člověk nepozná a ten co ano ­- existují ­(a celkem se i používají u větších úhlopříček­) 8­-mi bitové TN panely
- u trošičku kvalitnějšího TN to taky platí, pokud u toho neběháš ze strany na stranu a neposkakuješ
- to jsem ještě neslyšel a příjde mi to přitažené za vlasy
- když si nastavíš takto ujeté parametry, tak vyřadíš skoro všechny monitory ­(nejen TN­), protože málokterý vůbec povoluje jas tak nízko. ale i tak stačí se podívat na posledních 5­-10 recenzí a najdeš tam třeba Samsung T220
-­"přirozenější podání barev­" je tak vágní termín, že se proti němu nedá nic říct. zajdi do obchodu a podívej se na 10 různých monitorů. každý bude mít trochu jinak laděné barvy. ale až na to, že možná vyřadíš extrémní případy­(přepálené nebo naopak příliš zašedlé­), tak nepoznáš bez optické sondy co je správně.

IPS­/VA mají svůj význam, ale jen velice zřídka pro domácí použití ­(úprava fotek ... dejme tomu­).
Odpovědět0  0
Řeknu to takto ­- přestože mám SIPS ­(z nouze ctnost ­- nebyla jiná možnost ;­)...i když si nestěžuji samozřejmě ­), tak nevidím v 99% případů důvod kupovat cokoliv jiného než TN. Co získáš navíc u VA­/IPS oproti kvalitnímu TNku ­(tzn tomu, které si vybereš ze spousty recenzí­)?
Barvy? Vůbec ­- normální člověk nepozná rozdíl, pokud nemá monitory vedle sebe a i potom vybere ten s živějšími barvičkami. A o přesnosti se bez kalibrace stejně nedá mluvit ani u ostatních.
Pozorovací úhly? Nevidím důvod se na monitor dívat z větším odklonem než cca 45 stupňů od kolmice ­(a to TNka zvládnou ­- dokonce i má předpotopní sedmnáctka­) a nehodlám připlácet dvojnásobek ceny abych se mohl na monitor dívat zespoda.

Vsadím se, že kdyby se udělal experiment s deseti LCDčky a náhodně zvolenými technologiemi a zamezil by se pohled z velkých úhlů, tak málokdy by vybral ­"ty jediné správné­" technologie.

Pro práci může být nutnost, ale domů je to imho v drtivé většině placebo efekt. Tam je imho nejlepší vybrat TNko bez duchů a nějakých zásadnějších vad a zbytečně nevyhazovat peníze.
Odpovědět0  0
Poslední dobou je tady příliš hodně vycpávek místo skutečných testů, recenzí a technických článků. Když jsem se podíval na hlavní stranu, tak celá POLOVINA článků jsou vycpávky typu souhrn článků, událostí, soutěže apod. Je sice zajímavé mít i tyto věci, ale myslím, že to s nima už trochu přeháníte ­(nebo naopak je málo ostatních, zálaží z které strany se na to člověk dívá­).
Doufám, že je to jen letním suchem, protože i když čtu SHW dlouho, začínám mít pocit, že tu chodím už jen ze zvyku.
Odpovědět0  0
až na to, že:
1. athlon je v 2x tak velkém formátu ­(mám na mysli desky­)
2. cena samotné desky je o 50% vyšší, než komplet atom + mb
3. k ceně desky si budeš muset připočíst ještě procesor
4. atom se reálně prodává. o rozšířenosti se nadé u athlonu ­(testované verze­) vůbec mluvit
Odpovědět0  0
A co mi je po SSD? Nejsou důležité prostředky, ale výsledky ­- a SSD je tady pro okrasu ­- je pomalé a relativně drahé.

Výdrž to má pěknou a s velikostí je dobrá i hmotnost, ale u toho výhody končí. Ve všem ostatním i ten 7000­-vý notebook je lepší.

Ale v první řadě je to předražené vzhledem k filosofii EEE ­- více jak 2x tolik, než první model ­- to je příliš.
Odpovědět0  0
asi poprvé kritizuji formu, ale čte se to opravdu špatně.
Opakování slov je jen okrajovou záležitostí. Horší je poněkud číst odstavce pojednávající o zipkách. Kapacity vám tam skáčou nahoru a dolů bez uvedení do kontextu ­(např. kapacita se ztrojnásobí na 750MB, ale předchozí uvedená kapacita byla 100MB­). Kdo neví jak to bylo se v tom orientuje jen dost těžko. U SyJetu popisujete vlastnosti jako ­"podobné­" ­(nejspíš myšleno JAZZu­), ale samotný JAZZ a jeho vlastnosti popsané prakticky nebyly...

Skutečně by to chtělo rozpracovat a napsat tam trochu víc souvislostí. Pak by některé pasáže nebyly tak zmatečné.
Odpovědět0  0
Asus EEE byl krásný svou bezkonkurenční cenou. 7­" se prodává dnes i pod 5000Kč.
11,5k mi příjde hodně přesazené. Zvláště ve chvíli, kdy se i plnohodnotné nb prodávají už od 7000Kč.
Je fakt, že nové EEE má teď excelentní výdrž a najdou se i další výhody, ale stále mu do plného užití dost věcí chybí a hlavně už ztratilo svou největší výhodu ­- cenu.
Odpovědět0  0
věř, že není. pokud bych si měl vybrat mezi jedno a dvou­-čipovým řešením, které dávají stejné hodnoty fps, beru jednoznačně jedno, i kdyby bylo o něco dražší.
mám ve sbírce 3 dvoučipové karty a při stejných fps je jednočipové prostě plynulejší. a to někdy dost brutálně­(např pusť si FEAR benchmark­). např 7950GX2 ti bude hlásit, že minimální hodnoty neklesly pod 25 fps a průměrně že má 50, přesto to není hratelné. A podobně je to u všech co mám­(teda Voodoo 5500 jsem tímto způsobem nezkoušel­).
A podobnou věc naznačují i recenze, kde se objeví navíc ještě minimální fps.
Takže opravdu bacha na SLI­/CF ­- vídím to prozatím jako podvod na lidi. Aspoň dokud se bude benchmarkovat klasickým způsobem a ne stylem ­"maximální delay mezi obrázky v dané sekundě převedeno na odpovídající fps­". To by totiž odpovídalo plynulosti, jak ji vnímáme, než pro SLI­/CF nicneříkající čisté fps
Odpovědět0  0
1. DX10.1 ­- je to drobná výhoda v rychlosti, minimální i v kvalitě. Mnohem větší výhodou ale je podpora Ageia PhysX ­- taky to asi bude znamenat jen zrychlení­(i když u pár her to znamená větší možnosti nastavení kvality efektů­) ­- ale ne teoretických 25% jako u DX10.1 ale i 10x v ideálních případech­(samozřejmě prakticky to bude mnohem méně­). Každopádně PhysX her je a bude více než DX10.1. Samozeřjmě jedná se jen o softwarovou technologii, ale to nic na výsledném faktu nemění a imho je chyba, že ati odmítla podporu ­- tohle by profitovalo všem.

2. Kvalita obrazu je u obou stejná. AA mají oba stejné ­(pokud nebereme rozmazání obrazu u tent AA u ATI­), AF má nvidia o chlup lepší, ale pozná se jen na testovacích obrazcích­(menší úhlová závislost­). doby, kdy nv měla horší obraz zmizely se sedmou řadou GF.

3. Co si myslíš že je lepší? průměrný audio­-kodek implementovaný za jednotky korun do obrovského čipu s velkým rušením, nebo možnost přivést do grafiky signál z libovolného jiného audio zdroje? to první má červený, to druhý má zelený trpaslík. Z mého pohledu nemá ten první přístup moc logiku, když i na te nejlevnější desce je srovnatelný audio­-kodek. Ale je pravda, že při sestavování je v druhém případě třeba zapojit o jeden drátek více. Vyplatí se to?

48xx se skutečně povedly, o tom žádná. Ale výhoda není v technologiích, ale jedině ceně ­- těch 30USD může být rozhodujících pro dost lidí.
Odpovědět0  0
Proč by to měla být rána? Už teď stojí nejlevnější C2Q jen o 300 Kč více, než nejlevnější Phenom X4. Přitom je výkonnější, než nejsilnější současný Phenom a podle reálných měření méně žere, než ten nejlevnější ­(TDP mají stejné­).
Teď si představ, že intel uvede ještě levnější C2Q se stejným výkonem a nižší spotřebou ­- kdo by potom měl o phenom zájem???

Ale k ceně ­- můžeš si ji snadno vypočíst. Cena nového má být 200USD. Cena C2Q9300 je 266USD. Takže má stát 3­/4 C2Q9300. Ten u nás stojí cca 5200 s daní. 5200*3­/4 = 3900Kč. Tzn nový by měl stát necelé 4000Kč.
Odpovědět0  0
S tím shaderem to byla nv ať tak, či onak.
Ostatně přečti si vyjádření inženýra od ATI­(najdeš ho třeba tady na wikině­(http:­/­/en.wikipedia.org­/wiki­/Radeon_R100­): R100 sice měl něco, co by se dalo nazvat shaderem, ale to samé se dá říct i o GF256­/GF2. Jediný rozdíl byl v tom, že ati leaknula informace o pokusné cestě v ovladačích.

Takže ať už bereš první skutečné shadery ­(GF3­) nebo první omezené shader ­(GF256,... tady by spíše byly profesionální karty, i když bavíme se o masových produktech­), pokaždé narazíš v tomto ohledu dřív na nv, než na ati.

ad SM1: opět si přečti, co napsal inženýr od ATI ­- MS umožnilo 99% funkčních schopností shader jednotek prvního radeonu ­(pomocí JEDINÉ funkce D3D!­). Takže žádné spiknutí, jen velice omezená schopnost těch shader jednotek.
ad SM3: jediné, co má GF6­/7 horší u SM3 je branching. RX1xxx mají pro změnu u SM3 problémy s texturováním ­(pro účely shaderů­) ­- jak výkon tak funkčnost. Ostatně je známo jakým způsobem tyto karty ­"dodržely­" na papíře specifikaci, když u jedné takové vyžadované operace s texturou ji sice pro forma podporují, ale s prázdnou množinou texturovacích formátů... Navíc není pravda, že se branching nevylepšil mezi GF6 a GF7 ­- ja tam řádový rozdíl v granularitě.

Ad techniky 3dfx: ty byly pro použití v moderních akcelerátorech NEPOUŽITELNÉ. 3dfx používala totiž několikanásobný výpočet celé scény­(s jitterem­). To bylo zajímavé možná v době Voodoo 5­(GF256, R100­). Už GeForce 3 tento postup výkonově překonal­(jedná se mi o procentuelní propad, ne absolutní výkon­). Ale pokud se ti jedná o kvalitu­(tzn použití rot. grid­), tak tam skutečně nv do GF6 zůstala pozadu.
Odpovědět0  0
tohle je ale nesmysl rozšířený některými fanatiky. každý kdo má byť jen minimální přehled o historii GK tak ví, že s drtivou většinou zásadních přechodů přišla nv ­(minimalně od doby co krachla 3dfx­).
Kdo přišel S DX7­(T&L­)? DX8­(SM1.x­)? SM 3.0? DX10­(SM 4.0­)?
Jedinkrát ATI přišla dříve s DX9­(SM 2.0­). Jinak vždy jen půl roku po nv přišla s nějakým lehkým updatem­(DX8.1, 10.1­) a někdy vypilovaněji­(R8500 se nedá upřít, že lépe zvládal SM1.x než gf3, ale přišel půl roku po GF3, to samé třeba X1xxx vs GF7 v SM3­). U hardwaru pro změnu např. první použití DDR1,2,3.

Opravdu jen zatvrzelý fanatik upře společnosti, která z posledních 5 zásadních updatů DX přišla se čtyřmi z nich první, titul inovátora...
Odpovědět0  0
srovnávat se ale vždy musí se současným stavem a ne s tím, co bylo kdysi. to bych ti mohl napsat, že před dvaceti lety stál 1MB paměti majlant a proto je dnes všechno levné...
to je samozřejmě nesmysl ­- DDR3 sice zlevnily, ale stále jsou drahé oproti SOUČASNÝM cenám­(a jiné u PC nemá cenu brát v úvahu­). A to třeba i proto, že stojí více než CPU+MB+RAM­(DDR2­) v herním stroji.
Odpovědět0  0
V první řadě to není 1GB na kartě, ale 2*512MB. To je zásadní rozdíl, protože drtivá většina věci je uložena v obou 512MB pamětech­(takže efektivně je to právě něco těsně nad 512MB­).

A 512MB už mnoha hrám přestává stačit. Zvláště ve velmi vysokých rozlišeních. IMHO takové 9800GX2 by to taky slušelo ­- možná ještě více...
Odpovědět0  0
Nevíš o čem píšeš evidentně.

jediné co ati udělala u posledních desktopových grafik, že povolila to, co v nb je už dávno a to u OBOU výrobců ­- snižování napětí a frekvence jádra ve 2D režimu. V nb sektoru mají proto obě firmy naprosto stejně řešené snižování spotřeby. u nv se jednoduše rozhodli, že ještě nepotřebujou tyto věci v desktopu­(ostatně opravdu málo lidí zajímá rozdíl 10W v klidu, pokud jim nejde o baterku­).
Odpovědět0  0
ano, zvedne se. a je pravda, že spotřeba navíc roste lineárně­(to neznamené s počátkem v nule!­) i s frekvencí. ale je to celkem zanedbatelné. tzn při konstantním napětí je celkem malý rozdíl mezi přetaktovaným a nepřetaktovaným procesorem­(řádově v jednotkách W­).
Odpovědět0  0
oni bohužel neříkali, že slepence nemají budoucnost, ale že single karty jsou vhodnější a s méně problémy.

jinak na 65nm můžou jít rozhodně mnohem dále hlavně co do počtu tranzistorů, než současných 750 milionů. nezapomínej, že G80 má prakticky stejný počet a je na 90nm procesu! Tzn když vezmeme, že G80 má tak +­- maximální rozumnou plochu při 680 milionech na 90nm procesu, tak při 65 nm se na stejnou plochu vleze +­-1300 milionů.
Odpovědět0  0
spotřeba roste s DRUHOU MOCNINOU napětí! tzn nevynásobit 1,24, ale 1,24^2 = 1,54. Tzn maximální spotřeba cca 190W...
Odpovědět0  0
nebo máte jinou serii...
Odpovědět0  0
a ty jsi odkud spadl? phenom je naopak zdaleka nejžravější čtyřjádro, co se teď prodává. A ta tvoje poslední věta je maximálně slogan, který najdeš někde v reklamních materiálech amd, jinak to taky nemá nic společného s realitou.

pro info:
http:­/­/anandtech.com­/cpuchipsets­/showdoc.aspx?i=3272&p=13
nebo
http:­/­/www.hothardware.com­/Articles­/AMD_Phenom_X4_9850_B3_Revision­/?page=8

to první je ještě hodně přijatelné pro amd, ale to druhé zabijí hřebík hodně hluboko do rakve ­"úsporného amd­".
Odpovědět0  0
nesmysl. celá P35­-ka má dohromady TDP 18W. i kdyby jsme byli extra optimisti a řekli, že čipsety amd mají polovičí spotřebu, tak je to stále jen 9W ­- něco aprosto zanedbatelného v poměru s reálným­(tzn naměřeným­) rozdílem spotřeby C2Q9300 a a Phenomu.
Odpovědět0  0
1. přečti si co jsem napsal ­- jasně tam je, že u noname je velká šance na vadný. sám kupuji vždy značkové.
2. 300W spotřeby je extrémní a krajní situace, kterou on nikdy nedosáhne, protože nechce přetaktovávat. 300W není pro 400W zdroj ani zdaleka maximum možností a je ujeté mu doporučovat ještě silnější zdroj, když s drtivou pravděpodobností nedosáhne jeho maximální spotřeba ani 250W­(protože nepřetaktovává a za 20k stejně nekoupí sestavu, která by se vyrovnala spotřebou té výše zmiňované­). obyčejný 400W fortron za 800,­- je více než reálně potřebuje.
3. anketa je naprosto mimo ­- jen ti ukáže, že se nikdo z těch, co koupí drahý zdroj nepřizná, že šlápnul s daným kouskem vedle. navíc při tak malém počtu hlasujících naprosto o ničem nevypovídá­(nehledě na tu drobnost, že je hodně nepravděpodobné, aby více lidí kupovalo značkové zdroje, než obyčejné­). většina prostě se zdrojem problém nemá­(přestože má ten nejobyčejnější, co byl se skříní­) a proto nepotřebuje buď nadávat, nebo se chválit, že oni mají super zdroj.
Odpovědět0  0
pokud máš na drahý monitor, tak by tě neměl zabít kvalitní vga kabel za dvě stovky. ale na rovinu ­- pokud vidíš rozdíl mezi vga a dvi v 1680*1050, tak je spíš něco špatně, protože tohle jsem zkoušel taky na své integrované GMA ­(v nb i pc­) a žádný rozdíl jsem absolutně nepozoroval­(třeba i mohl být nějaký posun v barvě ­- to těžko posoudím ­- mám jeden takový monitor a proto nemám porovnání vedle sebe, ale žádné efekty, kvůli kterým by si člověk kazil oči tam nebyly)
Odpovědět0  0
ve zkratce ­- ano. bude ti stačit. teď se dělá se zdroji velké bububu, ale pokud nekoupíš vadný kus, tak ti bude stačit i noname­(problém je, že u noname je celkem slušná šance že koupíš vadný­).
teď jsem někde viděl testy kde sestava s C2Q6700@3.6GHZ + 9800GX2 v maximální zátěži sežrala cca 380W. A to je příkon. Když se spočte výkon­(při celkem ideální efektivitě 80%­), tak je to 300W.

300W na tom nejvýkonnějším a nejžravějším­(krom quad­-sli­), co můžeš postavit a to ještě po přetaktování. To musí jakýkoliv 400W zdroj, který není vadný, bez problému dlouhodobě vydržet.
Odpovědět0  0
což je dáno nejspíš tím, že se na to podání díváš na vlastním monitoru, který má úplně jiné podání barev. defacto je na obrázku simulováno co by s barvami udělalo, kdyby jsi použil jejich barevnou korekci na vlastní monitor.
Odpovědět0  0
ano, i tak draho můžeš pořídit 9600. jinak jde sehnat v běžném obchodě i za cca 4100.

podstatné je, pokud chceš srovnávat cenu s radeonem, že jak 3870, tak 9600GT stojí­(když započteme slevu radeonu, která se ještě u nás moc neprojevila­) 189USD. A je jedno jakou částkou to vynásobíš ­- opět dostaneš tu samou cenu pro obě.

Takže je jediná otázka ­- co je z těchto dvou karet rychlejší. podle testů je to +­- jedno s tím, že lehce v průměru získává 9600GT.
Odpovědět0  0
pokud nevidíš důvod, tak máš krátkou paměť. nebo jsi už zapoměl na 7950GX2? ta měla takty výrazně nižší, než 7900GTX. 7950GX2 běžela na referenčních taktech na 500MHz jádro a 1200MHz paměti. 7900GTX běžela, pokud si dobře pamatuji 650MHz jádro a 1600MHz paměti.
a důvod je jednoduchý ­- spotřeba se musí vejít do uchladitelných mezí.
Odpovědět0  0
Cenu nemusíš nijak odhadovat ­- stačí se podíva tdo kteréhokoliv eshopu. určitě na ni narazíš. A pokud si to vyhledáš na zbozi.cz, tak cena začíná těsně nad 4000Kč
Odpovědět0  0
dnes byla vydána a je to přesně z uvedeného důvodu. 9600GT je totiž výkonově na­(d­) úrovni HD3870 ­- už je pár testů a ve všech prozatím zazářila nad očekávání­(vzhledem k počtu a frekvenci SPU)
Odpovědět0  0
bo jsi šašek. přečti si, co se tam píše. problémy jsou s procesory s TDP 125W ­- tzn. staré 90nm windsdory na frekvencích 3GHz a výše. ty máš 65W brisbane.ten se bez zvedání napětí nemá šanci dostat přes 100W.
Problém je, že kdo chce nutně AMD a přitom co nejvyšší výkon, tak má jedinou možnost ­- tou jsou právě topivé winsdory. mají totiž na stejném taktu cca o 5­-10% vyšší výkon než brisbane­(častečně díky velikosti L2 cache a částečně díky její nižší latenci­) ­- tzn winsdor na 3ghz překonává občas i brisbane na 3,3ghz.
Odpovědět0  0
někde jsem četl, že podle nv větrák na northbridge není třeba používat, pokud se nepřetaktovává FSB nad 450MHz.
Odpovědět0  0
Tak v tom případě není absolutně problém. Teď jsem se díval na alfacomp a jen tam mají do 7k skladem 8800GT od šesti výrobců. Takže opravdu nemám dojem, že by byl jakýkoliv problém s dostupností. Jen to ještě chce aby cena tomu začala odpovídat.
Odpovědět0  0
Chtělo by se to probrat. Přestože jsou radeony 3850 hodně zajímavé, tak se prodávají v celosvětovém měřítku dost špatně. Stačí se podívat na statistiku steamu. Od doby nástupu GF8800GT se zastoupení GF řady 8800 zvedlo z 10% na 15%.
Ani jeden z radeonů řady 3850­/3870 se nedostal ani na poslední místo ve statistice ­- tzn mají menší zastoupení, než 0,5%.

Btw ­- sice ještě nějsou venku, ale v cenové skupině radeonu 3850 bude 8800GS a 8800GT 256MB­(ta už sice je venku, ale u nás jsem ji neviděl prodávat­).
Odpovědět0  0
A když se tak dívám, tak vídím, že se stále bojíte větších LCD panelů. Třeba takový acer 24­" s A­-PVA maticí za 11k imho nevypdá špatně. Myslím, že by jste už mohli 22­" a 24­" LCDčka zanést aspoň do tabulky a vyznačit je aspoň barevně.
Btw. mám sice SIPS panel, ale krom úhlopříčky nijak zvlášť se jeho barevné podání neliší od mého staršího TNka. A garantuji vám, že když postavíte běžného člověka před dva panely ­- jeden IPS­/VA a druhý ne úplně odfláknuté TN, tak přestože pozná rozdíl, tak neřekne který je lepší­(přinejmenším dokud se nepodívá z většího úhlu ­- což málokdo skutečně potřebuje­).
Odpovědět0  0
Nechápu, proč stále ignorujete, že existují moderní low­-end desky i pro C2D. Zbytečně potom prodražujete cenu obzvláště low­-end sestav.
Mluvím hlavně o deskách s čipsetem G31­(případně P31­). Jak testy ukázaly, tak výkonově neztrácí prakticky nic na G33­/P35 a pokud se vybere dobrá deska, tak ani nebude moc ochuzen o vybavení­(samozřejmě u low­-endu se člověk vždy musí smířit s nějakým kompromisem­).
Ono by to ani nevadilo, kdyby ve výsledku nebyl rozdíl v ceně sestav amd a intel právě a jen v ceně základní desky.
Odpovědět0  0
co jsi uvedl nemá PCI­-express slot pro grafiku, ale ještě starý agp. doporučovat koupit něco takového je imho nesmysl.když už něco levného ­- myslím opravdu levného, tak 945GC je podstatně lepší volba­(50kč navíc oproti 865GM přidá podporu 1066MHz fsb a PCI­-Express, nehledě na podstatně lepší integrovanou grafiku­). Případně o něco dražší G31 když jsou korunky navíc.
Odpovědět0  0
Nemá, to není podstatné. Důležitá je verze ­- ta totiž říká jaké maximální rozlišení je podporováno. A vzhledem k tomu, že pro DVI i HDMI jsou používány stejné obvody, tak je to důležitá indicie o možnostech DVI.
Odpovědět0  0
DVI­/HDMI
* Podpora rozhraní TMDS umožňující použít DVI nebo HDMI 1.2 ­(1650 Mbps­/kanál s frekvencí 165 MHz­)
* Plná podpora HDCP 1.1

To je o čipsetu AMD 690G. Jak verze HDMI, tak frekvence říkají, že nemůže zvládnout rozlišení 2560*1600.­(je třeba HDMI 1.3 případně frekvence minimálně cca 250MHz­). Takže má to nějaký externí čip?
Odpovědět0  0
Právě o 30­" mi jde. Jeden takový mi sedí na stole a zatím je připojený na X1950 AGP­(nechutná grafika ­- výkon ujde, ale ovladače jsou nestabilní a k tomu těžce zabugované, bonus je, že některé základní věci jako aspect scaling jsou nepřekonatelným problémem­).
Rád bych upgradnul­(ještě jsem se nerozhodl intel nebo amd­) a do začátku bych si vystačil i s integrovanou grafikou­(hry chvilku oželím­). Takže kdyby to skutečně umělo 2560*1600, tak má u mě bodík, protože jsem ještě na žádnou jinou nenarazil.
Odpovědět0  0
Skutečně je to DVI­-D výstup, nebo jen klasický DVI­-I? DVI­-D má zvládat rozlišení 2560*1600. Skutečně to zvládá? Nebo jen klasické DVI­-I a 1920*1200?
Odpovědět0  0
ptipi (139) | 28.8.200714:56|Disk s 1 GB cache
zkus 140 let při 50GB zapsaných denně:
http:­/­/www.anandtech.com­/storage­/showdoc.aspx?i=3067&p=2

Odpovědět0  0
to není jisté. akcelerace videa je u předchozí generace na AGP vypnuta­(na PCIe nikoli­). A výkon v DX10 je směšný. Takže v každém případě radši X1950Pro
Odpovědět0  0
není. o čem mluvíš platilo pro první DDR2 moduly ­- ty měly z dnešního pohledu hodně nízkou frekvenci­(do 666MHz­) a vysoké latence. podobná situace byla i ještě před měsícem u vydání DDR3 modulů. Než vyšli paměti založené na Micron Z9 čipech. Ty dokážou při poměrně nízkých latencích­(vzhledem k testovaným­) dosáhnout frekvencí přes 2GHz. A tam už je rozdíl výkonu jasně viditelný ve prospěch DDR3. A to méme teprv pár měsíců od vydání DDR3.
http:­/­/www.anandtech.com­/memory­/showdoc.aspx?i=3053
Odpovědět0  0
S tou ­"pohádkou­" souhlasí drtivá většina lidí, co znají LCD. To o čem mluvíte ABSOLUTNĚ NESOUVISÍ s obnovovací frekvencí. Je to přímý důsledek odezvy monitoru. Velice trefně váš mýtus o obnovovací frekvenci popsali na WideScreenGamingForum.com. Obnovovací frekvence u LCD je jen pro oblbnutí zbytku počítače­(zejména grafiky­), které byly přizpůsobeny pro CRT. Jinak není vůbec problém sestrojit LCD, které by obnovilo svůj obsah nikoliv pravidelně, ale třeba na požádání­(tzn by se o obnovovací frekvenci nemohlo ani mluvit­).
Co se týká odezvy ­- mám na to jednoduchý test, který se dá vyzkoušet třeba i v obchodu, pokud je obchodník trochu ochotný. Stačí na to mřížka jednobodových linek cca 20 bodů od sebe­(pěkně je vidět třeba zelené linky na černém podkladu­). Pokud při posouvání kolmo na směr linek tyto viditelně nevyblednou, je odezva dostatečná­(nedostane se přesné číslo, jako z recenze, ale dostane se jasná odpověď, jestli danému člověku daný monitor vyhovuje po stránce odezvy­). A takových VA­/IPS panelů je spousta­(třeba 30­" hp3065, před kterým právě sedím; naproti tomu na stařičkém 14­" EIZO L23 linky skoro zmizí­).
To mě přivádí na teorii, proč jste tak proti LCD. Pokud jste získal svůj dojem na EIZO LCD, tak je jasné, že se jednalo o monitor určený k práci a skoro určitě s hodně mizernou odezvou. Potom se nedivím, vašemu pohledu­(i když nesouhlasím­).

Ad vaše reakce:
blikání ­- i 85Hz jde poznat od 100Hz. ale je pravda že 85Hz stačí.
neostrost ­- nejedná se jen o staré monitory, ale i to, že si často nesedne s danou grafikou, případně neostrost v rozích monitoru byl problém poloviny všech CRT.
hala­(nevím jak přeložit anglické halo­) ­- něco jako záře. při zobrazení jasného objektu na jednolitém tmavém pozadí je okolo objektu vidět aura­(pozoroval jsem ve větší nebo menší míře na všech monitorech CRT, co jsem měl­).
změna tvaru a velikosti ­- ne, nemluvím o počátečním nastavení. mluvím o tom, že se měnil tvar obrazu podle toho, co na něm bylo. takže poměrně tmavý obraz byl měnší, než když se zobrazila přes monitor bílá plocha; když se horní strana zobrazila světle a dolní tmavě, horní byla rozšířenější apod.
soudkovitost ­- maličkost možná pro vás. mě třeba vadí­(a hodně pochybuji, že jsem sám­).
poblikávání ­- souvisí s moiré­(samo o sobě další nechutný neduh CRT­).
duchy ­- nejen otázka životnosti, ale zase otázka jak si která grafika s jakým kabelem sedla k jakému monitoru.
Ničím z toho dnešní LCD netrpí­(ty připojené přes VGA můžou některé chyby mít­).

VA­/IPS monitory s nízkou odezvou existují. ne s papírově nízkou, ale s reálně nižší než většina TN ­- viz zmiňovaný hp3065.

K čemu větší, než 20­" monitory? Filmy, hry, programování, fotky, práce­(např. 2xA4 vedle sebe­)...všechno to využije velkou plochu. 30­" je pro někoho možná už příliš, ale 24­" už by bral snad každý­(a 24­" LCD má o 50% větší plochu, než 20­" CRT­).
Je možné, že vy to třeba nevyužijete, ale hodně lidí alespoň jednu ze zmiňovaných věcí uvítají. Spíše bych ale řekl, že jste ještě nevyzkoušel dělat na velké ploše ­- potom by byl návrat k 19­"CRT jako používání tankového průzoru k běžnému životu.
Odpovědět0  0
Je evidentní­(zvláště po přečtení pasáže o obnovovací frekvenci­), že o principu fungování LCD nevíte skoro nic.

Ale když už chcete porovnávat kvality těchto technologií, tak co přineslo CRT?
Krom denního ozařování slabou radiací tu máme blikání obrazu, neostrost, hala, změna velikosti a tvaru obrazu, soudkovitost, zkosení, poblikávání­(jiný efekt než blikání­), duchy,...
Jen tak z legrace jsem se teď podíval na ­"velký test monitorů­" z PC Magezine z roku 1999 a musel jsem se smát, jak si dnes někteří lidé idealizují tuto technologii.

A co se barev týká ­- proč si myslíš, že takvé eizo už nevyrábí jediný CRT monitor? Jinými slovy ­- prakticky všechny VA­/IPS monitory mají velice kvalitní barvy a stačí si přečíst pár recenzí a vybrat si z nich ten s nízkou odezvou.

A jinak ­- ty ­"nepodstatné kraviny­" jako váha a spotřeba umožníli vyrábět LCD monitory o úhlopříčkách, o kterých se CRT monitorům ani nezdálo ZA CENY o kterých se jim ani nezdálo­(teď mám na mysli úhlopříčky >=20­" ­- tzn CRT >=22­").
Odpovědět0  0
A podle spousty lidí zase je to velká výhoda oproti zdrojův s více větvema. Protože u jedné větve jdou lépe využít její možnosti. Ve výsledku je to ale vcelku jedno.
Odpovědět0  0
ano, jsou. viz anandtech.com ­- dnes je tam recenze. A DDR3 paměti se staly tím nejrychlejším­(nejen frekvencí, ale i výkonem­). Ostatně se tam dostali přes 2GHz a i na 1900MHz zvládaly tam testované paměti ještě časování 7­-7­-7.
Odpovědět0  0
O čem to mluvíš??? Mám SZ3 a až na tu anténu­(která určitě půjde schovat­) je design dokonalou kopií. Jediné, co se mění je HW­(a i ten jen velice pomaličku­).
Odpovědět0  0
to, že U TEBE je doma tolik počítačů, neznamená, že tomu tak je běžně. Ano, u velké části navštěvníku tohoto serveru tomu tak možná i bude­(i u mě­). Ale zkus si vzpomenout na všechny své příbuzné. Když to já udělám, tak si nevzpomenu na NIKOHO, kdo by měl doma více, než jeden počítač. A ten je sdílen celou rodinou.
Běžná rodina vypadá tak, že mají tak jeden počítač doma a jeden z dospělých má jedno PC v práci­(vysokoškoláci většinou mají, středoškoláci někdy a ti se základkou prakticky nikdy­).

Multimediální počítače, jak sis mohl nedávno přečíst, se prosazují naprosto minimálně­(v celé ČR to bylo jen v řádu jednotek tisíců­). A firemní servery se do této statistiky nepočítají, takže ji ani neovlivňují.
Odpovědět0  0
teď si nejsem jistý, co ty jsi chtěl říct. říkáš snad, že je méně uživatelů, než počítačů? těžce pochybuji. zkušenosti spíše říkají, že jeden počítač častěji sdílí více uživatelů, než jeden uživatel více počítačů. možná, že je toto číslo vyrovnané, ale rozhodně nebude nějak výrazně více počítačů, než uživatelů.
Odpovědět0  0
Výkon s AA­/AF není problém ovladačů, ale vlastního HW. 2900XT narozdíl od 8800GTS­(ale i 1950XT­) nepoužívá pro AA specializovaných jednotek, ale shaderů, které nejsou pro tyto účely tak efektivní.

Co se týká zdroje, tak pokud chceš procentuelně stejně předimenzovat zdroj pro obě sestavy­(řekněme o 50%­), tak pro 8800GTS ti bude stačit o cca 100W slabší zdroj. Můžeš si to spočítat řekněme pro celkovou spotřebu sestavy 300W pro 8800 a 360W pro 2900 je o 50% silnější zdroj 450W pro 8800 a 540W pro 2900.

Ad hluk ­- ano, je to subjektivní záležitost. ale pokud na všech serverech všichni recenzenti zmiňují toto jako velký zápor, tak jen těžko to může kdokoliv s čistým svědomím doporučit a doufat, že to zrovna danému kupujícímu nebude vadit.
Odpovědět0  0
já bych viděl hned 4 důvody:
1. rozdíl cca 400Kč mezi nejlevnějšími modely­(a jiné nemá cenu kupovat, když jsou krom samolepky na chladiči identické­).
2. spotřeba 160W vs 100W ­- jednak nějaká drobné za rok a jednak nutnost o 60W silnějšího zdroje­(tzn další příplatek ­- třeba rozdíl mezi Fortron Blue Storm 350w a 400W je dalších cca 400Kč­).
3. HLUK který 2900XT vydává ne každý snese a ne každý je schopný si vyměnit chladič na grafice. Pokud ale už to někdo udělá, tak je to dalších 500 ­- 100Kč příplatek.
4. vzhledem k tomu, že se jedná o high­-end kartu, očekával bych především použití se zapnutým AA + AF. A s něma je výkon POD 8800GTS 640MB ­- schválně se podívej na nedávnou recenzi tady na shw.cz ­- z 5­-ti testů s 4xAA + 16xAF byl 2900XT ve ČTYŘECH pomalejší než 8800GTS.

Ve výsledku je 8800GTS podstatně vyrovnanější volbou. Jednak výjde o cca 1000Kč levněji­(resp 1500, pokud měníš chladič­) a hlavně ten hluk bez výměny chladiče je už skutečně jen pro fanatiky...
Ale ve výsledku jsou to tvoje peníze a pokud se budeš cítit spokojen, tak si třeba pořiď tři 2900XT.
Odpovědět0  0
tak zrovna rozdíl mezi GMA950 a GF7300 je naprosto zásadní. mám obě grafiky­(resp 7400­) a i když zapomenu na propastný výkonový rozdíl, tak v první řadě s GMA spoustu věci ani nespustíš.
takže i když je 7300 naprostý lowend, tak pro občasné hraní je neporovnatelně lepší.
Odpovědět0  0
Kolikrát se musí napsat, že tento nb NEJDE do míst, kde lidé umírají hladem po milionech? Jde to doz našeho pohledu méně vyspělých zemí, kde už ale o základní potřeby je v drtivé většině postaráno ­- třeba Indie.
Odpovědět0  0
Je to trochu OT, ale chctěl bych se zeptat, jestli někdo nezná základní desku s DVI­-D nebo HDMI 1.3?
Odpovědět0  0
Ty jsi ale nasáklý americkou propagandou...a že si v ničem nezadá s komunistickou a fašistickou­(ostatně hitler se učil propagandě od britů...­)
Stejně tak kdyby Ruská armáda nepoložila 20 MILIONŮ životů, tak by tvůj dědeček skončil v plynové komoře.

A co se sadáma týče ­- nebýt ­"amíků­", žádný sadám by nikdy nebyl ­- to američané si vytvořili nepřátele na blízkém východě vlastní iniciativou.

Tím nechci říct, že by američané nepřišli se spoustou dobrých věcí. Jen se na ně třeba dívat trochu střízlivě ­- jsou totiž hlavním zdrojem konfliktů v novodobých dějinách a jejich existence je založená na zbrojním průmyslu­(ostatně celý vesmírný program, nebo i tebou oslavovaný internet takto vznikly­).
Odpovědět0  0
je to na úplně jiné frekvenci, tak nevím, co řešíš.
Odpovědět0  0
mobilní X2300 je podvod na zákazníky a jedná se jen o přeznačkovaný radeon X1300­(nebo X1400?­). takže žádný extra výkon to nemá­(+­- o 10% vyšší, než GF7400­). k tomu o třetinu kratší výdrž na baterky­(7,5 hodiny vaio SZ vs. 4,5 hodiny hp6910p ­- pochopitelně ve stejném testu na notebook.cz­).
Takže i když se bude jednat o zajímavý nb, tak pokud se nejedná o cenu, rozhodně bych šel do vaia ­- lehčí, s větší výdrží a těch 10% výkonu grafiky bych oželel.
Odpovědět0  0
to jsou ale podmínky...silná grafika, velká výdrž na baterky a menší rozměry...
jediné, co mě napadá a snad by mohlo splnit podmínky je thinkpad T60­(14­" verze­). je tam X1400, což je o něco silnější grafika, než 7400 a udává se dost dlouhá výdrž.
Odpovědět0  0
V této velikostní kategorii nic výkonnějšího nenajdeš­(rozhodně nic co se běžně prodává­). To bys musel jít ke 14­"nb ­- tam už jsou lepší grafiky běžnější.
Odpovědět0  0
jde to nastavit, ale osobně mnohem radši používám hranu touchpadu
Odpovědět0  0
Několik poznámek k recenzi:
1. autor při srovnání se starším modelem porovnává s H­-čkovou verzí­(SZ2HP­). Tyto verze byly levnější verzí serie SZ a byly ochuzeny právě o LED displej a měly levnější materiály­(proto byly i těžší­). Ale už i v té době byly verze XP, s X­-Black displejem a nižší hmotností.
2. To samé platí pro biometrický senzor ­- ve ­"X­" verzích byl přinejmenším od SZ2, spíše už od začátku SZ.

A teď pár mých postřehů:
1. podobně jako vfbalik jsem přesedlal z HP­(nc4000 ­- PM1,5­) a z počátku mi opravdu vadilo, že tyto modely nemají HW řešené podsvícení ­- proto mimo OS nejde změnit pomocí kláves jas displeje.
2. přestože velká část nb je opravdu z kvalitních materiálů, stříbrné plasty na krajích k nim nepatří. přinejmenším jejich barva slézá­(mám ho +­- půl roku a v předu na hranách se objevilo místečko, kde je toto vidět­).
3. jak píše vfbalik, pokud jede ze zdroje, tak se mu pořád točí větráček­(bez něho se točí jen při zátěži; navíc mu dále klesne teplota­).
Odpovědět0  0
levnější acery pro změnu nemají DVI, což při tomto rozlišení znamená buď dražší a kvalitní grafiku, nebo rozplizlý obraz.
a co se hp týče, tak nejlevněji jsem ho viděl teď v akci na alfacomp.cz, kde je za 14600. A to je stále víc, než je doporučená cena pro recenzovaný panel. Navíc vždy se najdou obchohdy­(jako u zmiňovaného hp je alfacomp­), kde to bude levněji.
Odpovědět0  0
jak komu ­- třeba ke kancelářské práci­(excelovské tabulky­) nebo k programování ti je úplně ukradené, jak vypadají barvy­(s trochou nadhledu by stačil i monochromatický monitor­). hlavní jsou při takovém použití plocha a rozlišení ­- je třeba mít co největší přehled.
podobně u her nemusí být důležité barevné podání.
takže i když to není pro každého, tak si spokojené uživatele rozhodně najde.
Odpovědět0  0
Pokud se bavíme o filmech, tak velké body v žádném případě nevadí.
A i když chceš i jiné věci, tak 26­" je stále v normě­(odpovídá třeba 22­" při 1680*1050, což je dnes celkem standart­). Na druhou stranu je pravda, že 27­" při 1920 je už celkem moc.
Odpovědět0  0
předpokládám, že chyba je v nadpise, nebo je to nějak zamotanější?
Odpovědět0  0
na to se dá říct jedině ­- a co? 8800 je vyráběna dokonce 90nm procesem. co jsi tou první větou vlastně chtěl říct?
Odpovědět0  0
TX je opravdu nádherný nb. a dá se sehnat i levněji. když jsem kupoval nb, tak jsem se dlouho rozhodoval mezi SZ a TX. Nakonec jsem si ale musel přiznat, že na TXku by se přeci jen pracovalo dost špatně.
Odpovědět0  0
nezdá se mi ­- mám vaio SZ a nepříjde mi, že by se U1F nějak moc podobal.
Odpovědět0  0
psal jsem to jinda a zopakujuto i tobě. to že si ty nedovedeš představit použití grafiky jinak, než ve hrách, je tvoje omezenost a nikoliv blbost ostatních. bude se jednat o nízkoprofilovou grafiku s pravděpodobně plným přehráváním HD videa ­->IDEÁLNÍ GRAFIKA pro Media Center PC!
Odpovědět0  0
spotřeba by mě taky netížila, i když se projeví v účtě za elektřinu, ale ten hluk, co ta karta vydává je prostě příliš vysoký­(ok, sám jsem ji neslyšel, ale kamkoliv se podíváš na testy, tak si na něj stěžují­).
Prostě vědět jak HD 2900XT dopadne v době vydání 8800­-ky ,tak pochybuji, že by i ten největší fanatik na ní čekal půl roku.
Odpovědět0  0
Přečti si prosím, co jsem napsal. Zásadní bylo, že se :
A­)buď budeme bavit JEN o x86. A potom intel nemá konkurenci a je jasným tahounem oproti AMD
B­) budeme se bavit i o jiných architekturách. Potom intel není takový tahoun, i když se přispěvky najdou. V tomto případě ale AMD nemůže být za tahouna považováno už vůbec, protože samo o sobě nepřispělo NIČÍM.


Problém je, že ty ve svých příspěvcích skáčeš od bodu A k bodu B, jak se to zrovna hodí AMD.

Těch mých 8 bodů všech jednoznačně platí, pokud bereme jen x86­(což v polovině svých odpovědí zřejmě nechápeš, co je nadpisem těchto osmi bodů­). A pointou těch osmi bodů bylo to, že komplet všechny ty body AMD jen zkopírovalo. AMD taky semtam s něčím příjde. Neříkám, že ne. Ale rozhodně není tím tahounem.

A jestli tu poslední větu myslíš vážně... Cellu se nedá upřít zajímavý design, i když to rozhodně není procesor, který by pro běžné použití byl rychlejší, než C2D­(aplikace musí být hodně snadno rozdělitelná do vláken, aby se cell mohl ukázat­). Ale G4??? Myslíš to G4, od kterého Apple utekl s tím, že C2D se pohybuje v rozmezí 100­-300% výkonu tohoto procesoru? ale no tak...

Stejně tak pokud chceš srovnávat zvýšení rychlosti sběrnice s přidáním koprocesoru, tak se asi skutečně nedomluvíme.
Odpovědět0  0
1. pokud ti pokroky mezi 286­->386­->486­->Pentium nepříjdou jako zásadní, tak potom amd neudělalo naprosto nic.

2. pokud do toho chceš tahat ne­-x86 procesory, tak co udělalo amd?
64­-bitů tu už bylo dávno, paměťový řadič je jen tvoje ­"přilepení­". a co dále? dvoujádra tu už taky byla, stejně tak čtyřjádra. AMD v tom případě neudělalo absolutně nic.

Takže pro další diskuzi ­- omezme se na x86 a zjistíš:
1. první 16­-bitové procesory má intel
2. první 32­-bitové procesory má intel
3. první superskalární architekturu má intel
4. první x87 koprocesor má intel
5. první koprocesor integrovaný do jádra má intel
6. MMX implementoval intel
7. SSE1­-SSE4 je od intelu
8. předvídání skoku, větvení ­(prostě vše co souvisí s out­-of­-order­) vytvořil intel.

Zkráceně ­- před athlonem amd přišla jen s 3dnow!. a jinak vše zkopírovali od intelu­(a to ještě tehdy velice uboze­).

Odpovědět0  0
trochu si promysli, co píšeš. Vzpomeň si na všechno, co přineslo AMD do x86­(věřím, že tak na cca 5­-10 věcí si vzpomeneš­). Máš? A teď to dej do porovnání se zbytkem co v procesoru najdeš ­- to je pro změnu práce intelu za posledních 30 let.
Takže ano ­- AMD přináší zajímavé novinky, ale říct, že je tahounem je nesmysl.
Odpovědět0  0
ladiku, prosim, zkus, si, o, tom, něco, přečíst, než, začneš, plácat, nesmysly, a, zkus, si, vyhledat, pravidla, pravopisu, a přečíst, si, kde, se, dávají, a, kde, ne, čárky.
Připomínáš mi Rimmera z Červeného trpaslíka­(díl Čekání na boha­):
Rimmer: Po intenzivním zkoumání ­-ČÁRKA­- značek na mimozemském tělese ­-ČÁRKA­- je jisté ­-ČÁRKA­- že máme ­-ČÁRKA­- co dočinění ­-ČÁRKA­- s bytostmi nevídaného intelektu ­-DVOJTEČKA­-
Holy: To je dobře, protože by ti mohly pomoci s interpunkcí.
Odpovědět0  0
to je tak, když udáváš jen cenu, která se ti zrovna hodí. NEJlevnější 4GB flashka stojí cca 1000Kč. Ale pokud se to má používat jako disk, tak:
1. musí použít kvalitnější paměti­(co se týká rychlosti a hlavně počtu přepisů­)
2. musí použít o řád kvalitnější řídící logiku

Když k tomu přidáš to, že jsou z prvních běžně dostupnějších disků, tak je cena přinejhorším očekávatelná.
Odpovědět0  0
podívej se na výkon ve více testech a zjistíš, že i ty testy udělané přímo u ati dávají jasně tušit, že nedosáhne ani výkonu 8800GTX. K tomu bude mít ve špičce až o 80W vyšší spotřebu, vyšší teploty a příjde půl roku po konkurenci!
Co ti na tom nepřipomíná 5800Ultru? Ta taky přišla půl roku po konkurenci, hřála se a výkon v PS2.0 měla poloviční.
Třeba se nakonec ukáže, že všechny prozatímní informace jsou jen fámy, ale podle toho jak to vypadá teď je přirovnání k FX 5800 rozhodě na místě.
Odpovědět0  0
Ty stále nedoceňuješ význam faktu, že těch 82 stupňů je na zadní straně PCB a ne uvnitř čipu !!! I v rámci čipu se teploty můžou lišit o více než 10 stupňů. A zadní strana PCB? To je úplně jiná liga,..., dokonce to není ani nastejném hřišti.
Ad chlazení ­- ano, výrobci možná budou moci změnit chlazení­(i když bych se nedivil, kdyby to amd explicitně zakázalo­), ale pokud se potvrdí zprávy o spotřebě nad 200W, tak pomůže leda voda­(třeba svěcená ­- podle libosti­).
Navíc když se podíváš na dnešní test chladičů, zjistíš, že chladič s velice podobnou konstrukcí, jako ten referenční byl velice efektivní­(AC silencer­). Referenční má navíc heatpipy.
Odpovědět0  0