Tak tahle recenze vypadá super! To zhodnocení konstrukce zdroje a poukázání na slabiny je bomba - to jsem nikde jinde zatím neviděl, protože jinde (i v zahraničí) recenzují zdroje obyčejní redaktoři, kteří o elektronice nemají ponětí. Těším se na druhý díl a jen tak dál! Jenom je škoda, že se do recenze nedostal Fortron FSP400-PNF, kterýžto je za cca. 1000,- Kč horkým kandidátem do mnoha domácích PC...
Mám dotaz - mám Sempron 3000+ 64bit (původně 1,8 GHz/1,4 V) přetaktovaný na 2,4 GHz/1,55 V. Chtěl bych použít nějaký způsob na šetření elektrickou energií ve chvíli, kdy na PC nepracuji (PC mám zapnuté nepřetržitě v kuse). Pstates by se k tomuto hodily výborně, ve chvíli, kdy by PC zahálelo, procesor by se podtaktovat/snížil napětí a šetřil by el. energii. Jenomže Pstates u tohoto procesoru jsou - max. šetření 4x /1,1 V a max. výkon 9x / 1,45 V. Jenže já bych potřeboval při maximálním výkonu 1,55 V, které mám nastavené v BIOSU (kvůli přetaktování) a to mi Pstates nedovolí automaticky nastavit :-((( Existuje tedy nějaký způsob, jak by se snižoval jenom multiplikátor a napětí by zůstávalo pořád stejné, tedy 1,55 V??? Díky za radu.
Nepřilepili, jenom je podložili, když je skládali na sebe a když byl oblouk hotovej, tak ty podpěry odstranili. Jednotlivý monitory jsou vlastně klíny, který gravitace tlačí dohromady. Na tomhle principu fungují všechny středověký klenby v katedrálách...
Je to jednoduchý, proklikal jsem záložky v NiBitoru a co se mi líbilo, to jsem zaškrtnul :-) Tak dobře, konkrétně tedy: CLOCKRATES - změnil jsem takty pro 3D režim 560/560 MHz, TEMPERATURES - zaškrtnul jsem 6600GT temp monitor trick, Fanspeed ve 2D režimu na 60 %, BOOT SETTINGS - TV mode na PAL.
Při flashování upraveného BIOSu zpět na kartu použij příkaz: "nvflash -5 -6 6600edit.rom" Mimochodem je to ve článku zmíněno ;-) Taky jsem musel tento příkaz použít a funguje to v pohodě...
Souhlas, taky ji vlastním, takty mám 560/1120 MHz, 3dmark 03 mám 9000 bodů (Duron XP 2,1 GHz, 1 GB dual RAM, nForce2). Jinak jsem v NiBitoru nastavil v BIOSu vyšší takty pro 3D režim natvrdo, takže nepotřebuju žádnou taktovací utilitu ve Windows. A hlavně - u 2D módu jsem snížil otáčky větráčku na 60 %, takže při běžné práci ve Windows není karta vůbec slyšet!!! Když zapnu hru, tak se karta automaticky přetaktuje a větráček se roztočí na 100 %, když hru ukončím a skočím zpátky na plochu, tak se karta zpátky podtaktuje a větráček se po 5 minutách (asi bezpečnostní pojistka proti přehřívání) zpomalí na zmiňovaných 60 %!!! Doporučuju!!!
Jo, s tím protažením pode dveřmi máš pravdu, ale to platí u více hlodavců, třeba u křečků. To byste nevěřili, jak malou škvírou se ty mršky protáhnou :-)
Souhlasím, ještě mi NIKDY neodešel disk (postupně jsem měl asi 7 disků) a to ho mám pořád v šuplíku a přenáším ho pravidelně x-krát do měsíce do školy, ke kámošům... Teď mám 1,3 roku IBM 120 GB 180GXP, běží mi v tom šuplíku NONSTOP zhruba rok (dobře, tak 20krát jsem ho vypnul :-) a šlape jak hodinky. Teplotu mám ovšem 34° C, páč v šuplíku okolo disku krásně proudí vzduch, kterej natahuje vyfukovací větráček vzadu ve skříni. Jinak Raw Read Error Rate při práci běžně kolísá mezi 95-100, raw hodnota je 10000 a všechno v pohodě. Zdroje používám no-name, takže voltáže pořád lehce kolíšou :-) Na konec malá otázečka na autora: RAW hodnoty Realocated Event Count mám 1A(h), Current Pending Sectors mám 0, Offline Correctable mám 0 a Realocated Sector Count mám 15(h). Mám se znepokojovat?
Řekl bych, že nVidia má ve svých ovladačích podporu pro 3D brýle pořád. Pak si stačí pouze sehnat ty 3D brýle - buď jednoduše papírový (červená/zelenomodrá fólie), nebo elektronický s LCD displeji (kolem 2500,- Kč) a zapnout v ovladačích podporu pro 3D zobrazení. Všechny 3D hry pak pojedou plasticky ve 3D.
Je mi líto, ale recenze bez analýzy PI/PO chyb na vypálených médiích, bez analýzy čtení poškrábaného média a to vše s několika druhy médií je recenze k ničemu. To, že mechanika funguje podle specifikací, tedy že čte a vypaluje je dnes snad už samozřejmostí. Nás zajímá, JAK vypaluje a JAK čte. A to jsme se z recenze nedozvěděli :-(
Nejjednodušší je nainstalovat na hlavní počítač proxy, že. Dobrá je LinkByte Comtun 4.5. V menu stačí vybrat, která ze síťovek je připojena k internetu, zaškrtnout si služby, který budu nabízet sdílenému počítači (HTTP, POP3, apod.) a je to. Podobně jednoduše samozřejmě funguje i mnoho jiných proxy.
@petrd_5950
...ještě bych dodal, že způsob uvedený v článku, tedy využít sdílení připojení ve windows jsem v mém případě nemohl použít, protože jsme celý panelák zesíťováni dohromady a celá síť je potom připojena přes mikrovlnu. A windows mi při zapnutí sdílení natvrdo nastavily IP na hlavní počítači na 168.128.0.1, což jaksi nebylo dobré, protože tuhle adresu má v naší síti gateway. Pomocí proxy to funguje jedna báseň, na domácí vnitřní síti si můžu nastavovat adresy ručně jak chci (nebo to můžu nechat před DHCP, jak je každému libo). Proxy rulez!
Koukám, že ses tu dneska pěkně rozkecal... No, připomenu ti, že jeden hw site udělal test (byl na to odkaz i na pctuning), kdy pomocí neveřejné betaverze 3DAnalyze měnili ID karet a zkoušeli benchmark ve Far Cry. Tedy pomocí změněného ID vnutili nVidii 6800U kód pro pixel shadery 2.0 a hádej jakej byl výsledek? nVidia byla MNOHEM pomalejší než Radeon 9800XT!!! Byla skoro tak pomalá, jako FX5950. Čili i nová geforcka má pixel shadery NA HOVNO! Už se s tím smiř a přestaň tu plácat bláboly. V nVidii se posledních pár let asi všichni zbláznili a serou návrh čipu jak nikdy předtím. Měli by se vzpamatovat, jinak dopadnou jako 3dfx. Po Voodoo2 taky začali upadat a kde je jim dnes konec? U nVidie ;-)))
Mezi FX5200 a FX5500 není rozdíl pouze ve zvýšení taktu GPU o 20 MHz, alébrž také v tom, že FX5500 obsahuje optimalizační a kompresní algoritmy pro práci se Z-bufferem, tudíž lépe využívá paměťovou sběrnici a podobný blbinky. FX5200 nic z toho nemá.
No vidíš a mě nepíská. Asi je to trest za tvůj sarkastickej příspěvek a zobecňování, přestože vycházíš jenom ze svoji subjektivní zkušenosti. Dobře ti tak.
Je pravda, že FX5700 dostihla (a chvílemi i předstihla) Radeon9600XT v DirectX 8, ale v DirectX 9 (hlavně pixel shadery) stále ztrácí desítky procent!!! To je naprosto nepřijatelné. Proto ruce pryč od NVIDIE, pokud si chcete aspoň trošku slušně zahrát např. DOOM 3, Stalkera a vlastně většinu her z příštího roku!