Ze současné generace nemá smysl upgradovat. Opravdu v CP2077 nepotřebuju 180fps, 360fps v battlefield 2042 nebo 160fps v metro exodus EE. Polovina fps mi bohatě stačí a než vyjdou nové hry na které mi současný hw nebude stačit, tak bude aktualnírtx 5000 nebo rx 8000.
Na druhou stranu chápu, že lidi co chtějí hrát ve 4k 120hz+ ten upgrade potřebují.
Odpovědět0 0
tak jsou lidi co hrajou ve vyšším rozlišení než full hd
Odpovědět0 0
No co, na zimu se koupí kilowattovej přímotop namísto dvoukilovatovýho a ten druhej kilowatt obstará PCčko při hraní. Jen teda nevím, co s tím pak v létě, poněvadž teplo se nějak nedá uchovávat na horší časy...
Odpovědět1 0
Kdysi v tv jsem zahlédl, že pytlovali tmu na prodej, tak by to mělo jít i s teplem. Jen bude potřeba sehnat kvalitní pytle aby to z nich neutíkalo...
Odpovědět1 0
Tak si doma postav přečerpávací elektrárnu a v létě prostě použij teplo na čerpání vody nahoru. :-)
Odpovědět1 0
Pokud RTX 4090 / Ti bude mít podobný nárust výkonu oproti RTX 4080, jako tomu bylo u RTX 3090 Ti / 3090 / 3080 TI vs RTX 3080, tak to nebude mít cenu zase kupovat. Nějak nepochopím už jen ten fakt, že lidi vyhodí za ty tom modely 35K+ a za 2 roky vyhodí ještě více.
Pro mě je limit max 350W dneska. 400+ už je masakr.
Odpovědět2 0
RTX4000 každému nevlezie do skrine, RTX5000 už nikomu, aký napájací konektor bude mať rada 5000, zrejme 80pinový a kábel s opletením proti požiaru, v Guinessovej knihe bude mať Nvidia vlastnú stránku s rekordmi.
Odpovědět1 4
Nejdřív nebyly grafiky.
Pak nebylo na grafiky.
Teď nebude na elektriku pro grafiky.
Pomalu asi nastává doba streamovaného hraní.
Odpovědět3 0
Nenastává. Hraní na APU je parametrově lepší a příplatek za nějakou ne úplně nevýkonnou iGPU je malý. Počítám s kvalitním připojením 60 Mbit se snesitelným pingem a i tak je APU lepší.
Odpovědět2 0
Ani ta nejlepší integrovaná grafika není dost dobrá, aby se na ní dalo dobře hrát hry. Přece jen jsem zvyklý hrát vše na plné detaily ve 4K rozlišení. Jako hraju i staré hry na které by to stačilo, ale chci si vyzkoušet i nějaké nové a tam to fakt nestačí. Prostě dedikované grafice se člověk nevyhne, pokud nechce hrát v nízkém rozlišení s omezenými detaily.
Odpovědět2 2
Takže hraní přes stream grafice neuleví?
Odpovědět0 0
Samozřejmě že ano. Můj poslední příspěvek zřejmě někdo špatně pochopil. Já to myslel jako nativní hraní, nikoliv streamované. Na streamované hraní stačí takřka cokoliv. Ale hrát nativně nainstalovanou hru v PC na integrované grafice, byť nejlepší dostupné, je prostě nepoužitelné. Žádná API iGPU nemá dostatečný výkon rozjet moderní hru ve 4K, plných detailech při smysluplné snímkovací frekvenci. Tady se prostě dedikované grafice nevyhneme. Na stream je to samozřejmě už jedno a naopak je výhodnější mít energeticky úspornější zařízení s dobrou konektivitou.
Odpovědět0 0
Jenže to slavné 4K je rozšířeno jen u TV, u monitorů se prodá 20x víc fullhd než 4K. A když už někdo z té 4K menšiny hraje ve 4K, tak jen úplné minimum na plné detaily.
Odpovědět0 0
4K monitor mam od roku 2017 a už bych neměnil, FHD je rozpixelovaný už na 24", natož na 32 nebo víc. Ze začátku jsem na to pro hraní sice neměl výkon, ale teď už bych neměnil, časem chci akorát přejít na víc Hz, ale k tomu budu potřebovat i silnější grafiku protože moje RTX 2070 Super to 4K zvládá dost na hraně, většina her se dá nastavit že to těch cca 60 FPS má, ale nemůžu dát všechno na ultra, jenomže při 60 FPS je ještě docela opožděná myš, nejlíp se mi hraje pocitově s FPS tak 90-120. Dneska bych asi většině lidem doporučil 2560x1440, full HD už je fakt rozpixelovaný retro. Ale zase je výhoda že ve FHD si člověk zahraje dnešní hru i na 6 let starym kompu uplně v pohodě.
Odpovědět2 0
S tím bych nesouhlasil. Poměr prodaných 4K se pomalinku zvyšuje vůči FullHD. A jak zde píše kolega, přesně souhlasím, že od 24" výš je už 1080p nedostatečné. Osobně používám 3840x2160 ještě o rok déle, tedy 2016 a je to obrovsky znát. Navíc si tak říkám, že jsme v diskuzi o 4090 Ti a vy tu zmiňujete integrované grafiky a FullHD ani na nějž mimochodem iGPU nestačí. Jo, tak třeba nějakou méně náročnou hru asi jo, ale chci na tom vidět v plných detailech třeba Shadow of the Tomb Raider v plných detailech s raytracingem. A to se tu bavíme o 4 roky staré hře. Já se tu nebavím o jednoduchých hrách (myšleno na hardware) jako Valorant, DOTA, FORTNITE, WOW, WOT, CS:GO atp., ale o hrách s opravdu vysokými detaily a nároky. Prostě se nelze vyhnout dedikované grafice, nebo streamovanému hraní, teda za předpokladu, že nechcete ustoupit na kvalitě. Jinak ano, asi bude stále více uživatelů s Full HD monitorem, ale to se pomalinku mění a 4K začíná být čím dál víc standardem. Navíc kdo si koupí 4090 Ti, tak s největší pravděpodobností nebude mít jen 1080p monitor.
Odpovědět0 0
Původně jsem kupoval 4K monitor hlavně kvůli fotkám, protože když pracuju s fotkou v zoneru nebo photoshopu nebo podobnym softu a fotka je trochu zmenšená kvůli blbostem okolo, tak je na FHD extrémně vidět aliasing a pokud je na fotce třeba pár ustřelenejch barevnejch pixelů (což se stává při focení s dlouhym expozičnim časem) tak to na FHD skoro nevidim, naproti tomu na 4K to vidim uplně jasně. Taky jsem si na jedný fotce vyzkoušel že když tam byl v dálce letící holub, hodně v dálce malinkej, tak na FHD jsem to vubec neviděl bez zoomování, na 4K to je uplně normálně vidět že to tam je.
Počítal jsem s tim že pro hraní si nastavim FHD a bude to v pohodě protože 4K je dělitelný bez zbytku amělo by se tak FHD zobrazovat bez rozpatlání, což se bohužel nepotvrdilo a nefungovalo to, rozpatlaný to bylo stejně jako každý jiný nenativní rozlišení, aˇž teď v novejch ovladačích od nvidie se objevila možnost "celočíselná změna měřítka" která přesně tohle umí že je na monitoru nativně 4K a to FHD to jenom vynásobí beze zbytku, bohužel trochu pozdě, tenkrát jsem měl R9 380 a nic takovýho jsem tam v ovladačích nenašel. Funguje to skvěle i pro hraní starejch her co neuměj 16:9, třeba když má hra 1024x768 tak se to zobrazuje naprosto korektně (to znamená správně rozpixelovaně bez vyžehlení) a obraz je skoro přes celej monitor, což je prostě paráda.
Tohle mělo bejt v ovladačích vždycky, to naprosto mění zážitek ze hraní starejch her a čim vyšší je nativní rozlišení, tim větší je šance že se tam to rozlišení vejde co nejvíc na celou obrazovku.
Odpovědět0 0
A pořizoval jsi stejnou velikost, nebo o řád větší monitor?
Já třeba od monitorů sedím dost daleko, více než metr, takže i na 28" je pro mě "jemnost" fhd dostatečná, tak jsem si radši priplatil za lepší parametry, nehledě na to že 1060, kterou jsem tenkrát provozoval se ani na QHD moc nehodila. O moc vyšší monitory se mi bohužel na "pracoviště" nevejdou, takže v nejbližší době se na 4K určitě nachystám, kór když vezmu v potaz cenu výměny všech tří monitorů...
Odpovědět0 0
Když kupuju větší monitor tak většinou chci abych měl větší monitor, ne abych si sednul dál a viděl to stejně prťavý jako předtim. :-)
Odpovědět0 0
No já myslel v případě přechodu fhd-4k s ohledem na zlepšení které popisuješ, zda se jednalo o stejnou velikost, nebo jestli i v tom byl rozdíl. V mém případě vzdálenost zůstává stále stejná, jen jsem zvětšil velikost monitorů na maximum co pracoviště pojme, ne že bych se stěhoval dál.
Odpovědět0 0
Tak já třeba svůj první 4K monitor vyměňoval za původní 1080p o stejné velikosti a to 24". Musím říct, že tak super jemný obraz byl úžasný. Už ten font ve Windows byl prostě krásný. Jen jsem musel používat 200% zvětšení rozhraní, protože by to bylo jinak extrémně malé. Nicméně stálo to za to. Větší jsem neměl z důvodu finančního rozpočtu. No, ale pak jsem si něco našetřil a šel do 32" 4K monitoru, který mám dodnes. Musím však říct, že až bude příležitost, asi půjdu ještě do většího. Monitor mám na držáku na zdi, který má posuvnou nohu, takže má vzdálenost se pohybuje v rozmezí cca 0,75 - 1,5m v závislosti co zrovna dělám. Nicméně obě 24" (jak FHD, tak 4K) jsem míval staticky na vlastní noze ve stejné vzdálenosti zhruba do 1,2m (podle toho, jak jsem si posunul židli). Musím říct, že už tam byl znát citelný rozdíl, jak jsem popsal výše. Co se QHD týče, tak toto rozlišení jsem přeskočil, takže nemohu porovnat, ale na vysoké rozlišení jsem čekal roky, protože hodně dlouhou dobu mi FHD prostě nestačilo. Už v dobách dávno minulých, kdy stolům vládly CRT monitory, jsem měl 21" IBM s TRINITRON obrazovkou a rozlišením QXGA 2048x1536, které je vyšší než FHD, takže s LCD jsem vlastně degradoval s rozlišením dolů. Dlouho jsem se proto CRT nezbavoval. Takže na něco vyššího a současně cenově přijatelného, jsem čekal jako na smilování.
Odpovědět0 0
přesně tak, problémy se zvětšením vyřešil win 10, dřív to byl problém, taky uvažuju o 43"na zeď
Odpovědět0 0
Tak zvětšení uměly i starší verze Windows, ale bylo podmínkou se při každé změně odhlásit, což bylo celkem dost otravný. S příchodem Windows 10 (nejsem si jist jak to bylo v 8 a 8.1) tato potřeba pominula a tak se to stalo poměrně snadným upravovat. Musím to čas od času udělat, jelikož převážně starší hry s tím občas mívají problém a je nutné nastavit GUI na 100%, jinak je třeba obraz mimo, má nesprávnou velikost, nebo se myš zasekává v půlce obrazovky, nebo nejde kurzor myši vůbec atd. Prostě některé staré hry mají se zvětšením GUI problém.
Odpovědět0 0
600W už asi vodou. Tři vetracky jsou fajn, ale když budou jenom honit vzduch dokola v bedně, tak nic moc.
Odpovědět4 0
Kdo nemá airflow ve skříni tak je trubec.
Odpovědět3 3
Airflow na 600W? Plus něco na Cpu.
Odpovědět3 0
Airflow se přeceňuje, nemůžeš dosáhnout nižší teploty než je teplota vzduchu a žádná moderní skříň kde jsou správně osazený větráky nemá špatnej airflow. Tohle bylo velký téma tak před 15-20 lety kdy lidi v bedně neměli často ani jeden odsávací větrák, tenkrát to opravdu důležitý bylo, dneska když máš v bedně 3 nasávací a 3 odsávací 120-140 mm větráku už airflow vubec neni téma.
Odpovědět2 0
Málokdy jdu přes 3 větráky a nikdy víc jak 120 mm. RTX 4090 Ti apod. otesánky bych v případě, že by nešly podtaktovat, nechtěl ani za 3 tisíce Kč.
Odpovědět3 2
3 větráky bohatě stačej, i ta oldschool klasika (jeden nasávací vepředu a jeden odsávací vzadu) stačí u většiny sestav. Na odvedení 600+W tepla už by to chtělo spíš kompresorovej systém s oddělenou jednotkou někde v jiný místnosti aby to šlověku nefoukalo horkej vzduch na koule. :-)
Odpovědět0 0
No hlavně to bude chtít airflow i v bytě... Ta kilowata co ten systém vytvoří, zvládne přitopit v běžné místnosti o 10-15°, na zimu asi ok, ale léto nikmok... A nejhorší že se nám to promítá i do nižších tříd, kdyby 4060 vystačila s nějakými 130-150W tak ať si 4090 žere třeba megawatt...
Odpovědět3 0
Jestli to chápu správně tak dnesak už původní význam zkratky TDP nic neznaemná, kdysi to znamenalo maximální vyzářený teplo ve wattech, ale dneska se uplně náhodně mixuje teplo, spotřeba a další věci, takže jsem u toho těch opravdu jelen a nevim kolik to teda bude mít příkon při max zátěži a kolik z toho bude tepla. Pokud by to fakt dávalo 600W tepla (1 kW celej PC) tak je to absolutní šílenství a příkon PC by musel bejt ještě daleko vyšší a účinnost hodně mizerná.
Odpovědět0 0
V tomto odvětví se spotřeba rovná příkonu. Vzhledem k tomu, že nedochází k žádné mechanické práci... TDP stále platí. Jen k tomu každá firma přistupuje dle svého. Jinak ten příkon = teplo. Takže ano, pokud to sežere 600W, tak to vyzáří 600W tepla
Odpovědět2 0
A to že se tam na tý nanometrový úrovni v těch tranzistorech přepínaj stavy mezi 0 a 1 není vlastně mechanická práce? Takhle nějak jsem si to vždycky představoval. Pokud teda jde skoro 100% příkonu do tepla (větráky zanedbáme) tak to je teda dost brutus.
Odpovědět0 0
Jak píše Casper, vše se přemění na teplo.
U grafik i udávaná hodnota poměrně sedí(samozřejmě různé OC edice si vezmou více, ale výrobci většinou udávají kolik) pouze jsem někde zahlédl, že nové RTX generují poměrně velké špičky nad TDP, ale je to v řádu ms, takže co se týče vyzářeného tepla se to takřka neprojeví. Pouze to chce trochu více dimenzovat zdroj.
Odpovědět1 0
Tohle byl nejspíš nějaký předprodukční laboratorní kus na ladění výkonu a ovladačů.
V každém případě si Nvidia hodně věří, když už od začátku chce nabízet 4090ti která má největší čip z celé generace a ještě hned od začátku ho bude mít plně aktivovaný
Odpovědět3 1
Kdyby mi někdo před 15 lety řekl že v roce 2022 budu na top grafiku potřebovat 1500W zdroj, tak bych asi zavolal doktora Chocholouška ať si ho odveze. :-) Kde je ta slíbená revoluce v podobě přechodu na uhlík místo křemíku? Kvantový počítače, 3D čipy a já nevim co ještě....teď už jedou jenom na hrubou sílu stvořenou čimdál vyšší spotřebou.
Odpovědět10 0
1500W zdroj?
Ty budeš mít 2 takové grafiky a k tomu nějaký nenažraný Ryzen ?
Odpovědět1 7
chtěl říct intel, chyba se vloudila:D
Odpovědět7 1
Hele rudoši, máte svůj web na diit, cnews a ddword, táhněte tam a tady to nechte napokoji. Nikdo na ty vaše žgrgly o spotřebě a AMD není zvědavej.
Odpovědět0 7
Ono to bolí, co?
Odpovědět6 0
Hmm. Tak nějak nechápu, o co se snažíte. To je jako problém, že si můžu onu spotřebu regulovat, respektive odemknout třeba na 4kW?
Odpovědět0 2
To je jednoduché, aby Intel dosáhl cca stejného výkonu resp. byl o nějaké procentíčko nad AMD tak žere o 100W víc. A asi moc neznáte Crhu.
Samozřejmě spotřeba se dá regulovat. O tom žádná. Já sám mám 5950X k tomu CTR2.1 a nedostávám se nad 110W a 75°C. bez ztráty výkonu.
Odpovědět2 0
V aktuálních generacích je to tak, že 13900k při 250W má v CBR23 cca 36500b. 7950X má při 240W cca 37500b. Moc rozdílu v tom nevidím. Jen ten, že když budu chtít a dokážu to uchladit, můžu Intel odemknout na neurčito.
Odpovědět0 3
Já jsem našel v CB R23
Intel i9-13900K - 254W - 35.700 b
Intel i9-13900K - 345W - 40.600 b
AMD 9 79750X - 230W - 39.000 b
Takže aby intel měl těch 39k b tak bude žrát 300W? Samozřejmě jsou to jen úniky a za cca měsíc teprve uvidíme řádné testy. Resp. příští týden uvidíme testy AMD a cca v říjnu testy Intelu. Pak se to teprve bude dát něco porovnávat.
Jinak jsem zvědav jestli 1USMUS do CTR přidá i řadu Ryzen 7000, jestli to teda vůbej půjde. Ale já osobně to beru jen ze zvědavosti, protože můj 5950X mi nyní stačí bohatě a doufám, že mi ještě nějaký rok vydrží.
Odpovědět2 0
Moje chyba.
Ty intel hodnoty máte správně
AMD hodnoty - 39k bodů je na inženýrském vzorku. Produkční vzorek je 37500b při 240W. Čili bavíme se o opravdu malém rozdílu.
Nicméně jestli je ten či onen výkonnější o 3% je celkem jedno. I ta spotřeba je konkrétně mě jedno. Jde mi spíš o to, že mám tu možnost to odemknout když budu chtít.
Nicméně taky jsem zvědav na reálné testy. Trochu se bojím toho chlazení u AMD. Ten odvod tepla z těch malých čipů nebude úplně jednoduché.
Odpovědět2 3
Jakto bude s odvodem tepla to se uvidí. Ale na druhou stranu tyhle "obavy" už tu byly i při nástupu TSMC 7nm ( RYZEN 3000 ) a co se stalo, nic. Procerory běhaj v pohodě i na vzduchu. Takže věřím, že v AMD to maj vymyšlený dobře.
Ano nějaký +/- 3% výkonu vem ďas. Ale mě tam vychází, že při stejným výkonu si Intel veme cca o 30% víc. Ne že by se mi líbila spotřeba jednoho nebo druhého to ani omylem.
Teď se nám trend trochu otočil. Dřív se přetaktoválo o 106 a dnes frčí undervolting. To je ta změna paradigmatu :-)
Odpovědět3 0
to bylo spíš záměrně zveličený abych dal najevo že prostě potřebuješš mnohem víc než dřív :-) ale 1000W zdroj by opravdu byl dost na hraně, potřebuješ nějakou rezervu a k takový grafice si asi nedáš nějakou i3.
Odpovědět2 0
Ne, dám k ní Celeron G6900, protože na CPU už nezbydou peníze ani watty.
Odpovědět4 0
tak si tu grafiku nekupuj a zbyde ti peněz že nebudeš vědět co s nima :-D
Odpovědět1 0