@Smazaný uživatel
Tak snad v tom případě nadšen být můžeš, ... vždyť si tu spotřebu můžeš lehce stáhnout o 10% třeba zrovna v ovladačích a nebo prostě jinak uplně lehce vyladit. To přece není žádný problém.
@ludek_jelinek
Tak větší nesmysl jsem dlouho nečetl. 10 k máš dejme tomu třetinu výplaty. Si vem třeba devadesátá léta za kolik se kupovaly a kolik lidi brali peněz. A myslím, že se máme dobře. Osobně neznám třeba fakt jedinýho člověka, kdo by se neměl dobře, když neberu fakt uplně ten největší póvl, který si ovšem za to může sám a takový život si i vybral a nebo samozřejmě tragédie, nemoci a tak.
Za 1100 euro dost drahá sračka na ty parametry a ještě VA 8 bit. Už teď jsou tu za ty prachy lepší a i levnější a to má přijít až za půl roku tohle ? To teda fakt slabota.
@Tech-boy.lukas
Co to je zas za hovadinu ? Co s tím má společnýho AMD a Nvidia ? A proč by si měl mít kompletní Intel platformu ? A MSI že to nepodporuje ? Normálně můžeš mít desku od MSI co podporuje ReBar či AMD SAM a procák od AMD představ si.
@cdwN
Má to špatně napsáno, má psát RX 6600 XT, protože jde přeci jenom o to, za kolik se ty karty reálně prodávají a jelikož se dá nová 6600 XT sehnat běžně za stejné peníze jako RTX 3060, tak stojí proti sobě. Nejlevnější edice jsou od sebe 3 stovky ve prospěch RTX a to vem čert. V takovém případě už myslím souhlasíš, že 6600 XT je rozhodně lepší nákup.
@andir
Horší vtip jsem dlouho neslyšel, ... nevíš o HW nic a neztrapňuj se radši. Nynější generace jsou vyrovnané, s tím že AMD má lepší spotřebu a Nvidia zase lepší RT, záleží kdo co chce a komu co více vyhovuje. Myslím ale, že následující generace už může být ve prospěch AMD mnohem více a tudíž budeš říkat po tom co ? Že Nvidia sotva stíhá AMD, které narozdíl od ní bylo před pár lety ještě na pokraji krachu ? Intel a jeho ARC grafiky co se týče používání na hraní her jsou akorát tak k smíchu bohužel, protože každý kdo chce zdravou konkurenci by si přál třetího na trhu.
@hor411
Jenže tady jde snad o to, že pokud je AMD úspornější a to je a má být nadále, tak si nemůže dovolit dělat grafiky do 300W, protože by nebylo konkurence schopné k 600+ W Nvidia žroutům, ovšem pokud bude se stejným či dokonce lepším výkonem žrát méně a to třeba i dost výrazně, tak nemůžeš říct nic a nadávat můžeš snad logicky jen těm žravějším.
A proto mám AMD rád, protože má nesrovnatelně lepší vztah k zákazníkům než Intel a Nvidia a tudíž je moje jasná volba. To by musel Intel a Nvidia mít tehnologicky i poměrem cena/výkon lepší produkty, abych o nich uvažoval, ale v naprosté většině případů to ještě navíc bývá naopak, u intelu obojím a Nvidie cenově. Přál bych si, aby aby AMD novými procesory a grafikami ještě přidalo těm dvou pod kotel a museli se pořádně všichni cenově poprat o zákazníky :)
@unreall
Jo tak mě Eternal taky zklamal. Přitom Doom 2016 se mi líbil, ... Eternal je barevná Mário hopsačka. Doom si představuju jako temnější hru a ne co z toho v Eternalu udělali. Ale o to mi nešlo, teď mi šlo o to jak to běhá a co se týče toho výhrady nemám.
Já teda osobně mám 100 Hz monitor a dobře optimalizované hry jako třeba Doom Eternal mě nedropují a drží se na 100 fps neustále a obraz mi teda přijde naprosto nádherně plynulý, osobně určitě plynulejší nepotřebuju a spousta her co mě nedávají stabilně 100 fps ale třeba jen 60-80 fps, tak díky freesyncu se oproti dřívějšku plynulost posunula krásně a stačí mi to taky. ... Každopádně když je na to výkon tak proč ne, ale jinak si radši zapnu lepší deataily než se honit za každým fps (samozřejmě jelikož mám freesync od 48 fps tak rozhodně nechci, aby mi hry dropovaly pod tuto mez). Vidim význam kupovat monitory tak do těch 144 hz, pak už pochybuju že to má smysl pro někoho jinýho, než lidi s nadlidskými schopnostmi, kteří poznají rozdíl 144 od 240 a nebo dokonce 240 od 480.
Mě teda mnohem víc zajímá nová generece highend radeonů, protože jsem moc zvědavý na čipletovou architekturu. Pokud opravdu bude vše fungovat jak je zamýšleno a bude se to chovat jako monolitické jádra, tak si nějak nedokážu vysvětlit, proč by si mělo AMD nechat asi jedinou příležitost kdy Nvidia ještě čiplety nemá ujít a v téhle generaci výkonově dominovat. I když samozřejmě pro mě takové karty nejsou, ale jako fanoušek technologií se na recenze a souboj o vrchol těšim. Určitě budu chtět ale na některou kartu z nové generace přejít a líbila by se mi taková 7600 XT či 7700 XT a nebo popřípadě 4060 Ti, ale to záleží na výkonu a ceně, víc jak 15 tisíc za kartu určitě nedám a 250 W vidím taky jako limit. I když nejspíš do 15 tisíc budu rád, když bude nějaká 7600 bez XT či 4060 bez Ti, protože pochybuju že se světová situace bude lepšit, spíše ještě hodně horšit.
Já si teda spíš myslim, že obzvláště u takovýchto karet, které nemají výkonu uplně na rozdávání si naprostá většina lidí RT nezapne, navíc, když jeho přínos kolikrát aby člověk hledal pod lupou, nebo ho vůbec ani nepozná v některých hrách. V takovém případě by měl radeon najednou navrch podstatně více, jelikož těch pár her s RT mu ten výkon dosti sráží. Myslím si, že je rozhodně lepší volbou, pokud tedy počítám opravdu se stejnou cenovkou.
@15degren
Zeptej se techpowerup, zda tím výkonným CPU myslí 8 let starý 5960X, to silně pochybuju. Kupuješ si drahé nové grafiky a k tomu používáš všechny ostatní komponenty zastaralé, to taky moc nechápu. A když těch testů je víc, proč teda nějaký neukážeš ?
@15degren
Meleš uplný hovadiny s tím PCIe, protože 6600 XT rozhodně žádný výkon na PCIe 3.0 neztrácí, není tam rozdíl oproti PCIe 4.0 žádný, natož "výrazně nižší" jak píšeš. Nejdřív si dohledej informace než budeš začneš mektat nesmysly. Ten procák z roku 2014 ti to bude si myslim rozhodně brzdit, ale ne PCIe. Třeba tady, je tam rozdíl jen ve Forze, jinak vlastně žádný. https://www.youtube.com/watch?v=OXWK1WlqoBU
@FerrariF50
Vždyť to jasně píšu, že je to hovadina a ať se probere. To píše jistý Crha guru že RTX 4090 má mít 450 a AMD 500 W. AMD má být úspornější jako dvojčip, Nvidia jako monolit má žrát podle všeho jak hovado, ostatně taky píšu, že už nyní 3090 Ti, žere 450W.
@Pan Jaroslav Crha gIT
Kde si přišel na to, že RTX 4090 má mít v základu 450W a AMD 500W ? V základu 450W má už nyní vyšlá 3090 Ti, tak se profackuj a promíchej si to v palici, protože tam máš uplně nasráno.
@FerrariF50
Vždyť to jasně píšu, že je to hovadina a ať se probere. To píše jistý Crha guru že RTX 4090 má mít 450 a AMD 500 W. AMD má být úspornější jako dvojčip, Nvidia jako monolit má žrát podle všeho jak hovado, ostatně taky píšu, že už nyní 3090 Ti, žere 450W.
@Nitram1980CZ
Oni to tam berou myslím s RT a záleží na tom, jestli chceš s RT hrát. Ale stejně co koukám tak se dá sehnat 3070 za stejný prachy co 6700 XT a tak bych momentálně ač AMD mám radši, šel asi taky do ní. Já na to nějak nespěchám, takže počkám do další generace už.