@Tech-boy.lukas
Tak mě by spíš skrz ten konektor zajímalo myšlení těch inženýru. To musí být jasné každému člověku, když ve fyzice se bralo to jak se chová a hromadí teplo v uzavřenějším a otevřenějším prostoru.
Není to chyba uživatelů. Ani by nemusel být špatný ten konektor. Ale za mě by musel být jednou tak velký, aby se zredukovalo hromaděné teplo v konektoru nebo mělo aspoň větší plochu na rozlohu, ale hlavně a to je asi nejdůležitější nadimenzovat ho maximálně pro 350W karty/napájení a ne pro 660W. Když si vemu, že v létě 5070 na 2x 8pin a 280W dokázal být vlažný, tak co pak udělají takový 3x 8pin 400W ne li pak 4x 8 piny 600W 🔥
@Iperitas
Jistý... záleží co testuješ za hry a hlavně jak je testuješ. Já si 5070 zvednul o 200MHz na jádře. Otestoval pár her a ten rozdíl špatnej není.
Já už se těším na RTX 6000, až příjdou možná s 800W kartami za 100 000Kč, potom co předvedl Asus Matrix 5090. Určitě inspirace pro Nvidii na zimní ohřev bytu a sem tam i nějaké to grilování 🔥
@Lukáš Meistner
Já přecházel minulý rok z 27 tn na 32 ips qhd a pro mě by bylo nejoptimálnější 30 palců. Táta má 27 to mi příjde malý a 32 někdy mi příjde velká. Já rok čekal, jestli nespadnou s cenou ty oledy a samozřejmě se nic nedělo a jen co koupím monitor, tak to začne padat.
A 4K za mě nebude nikdy hratelný. Pamatuji si, jak jsem si přitáhnul domu GTX 1080 a měla výkon jak prase. Dneska mám také 5070 a to 4K by zvládala stejně jako ve 2020 RTX 3080. Nejlepší by bylo, kdyby se dělalo i nějaké rozlišení ,,3K´´ něco 3200x1800. A to nemluvím ani o budoucích financí, kde člověk bude muset na 4K vždy pořizovat karty za 30 000Kč a víc.
Docela by mě zajímalo, kdy nějakého výrobce napadne udělat nepředražený oled 144Hz... Jako nevím co si ti výrobci chtějí těmi frekvenci furt dokazovat. Už těch 180Hz co mám momentálně mi příjdou úplně zbytečné.
Celej pc gaming je už poslední roky na palici. Nedostupné karty kvůli bitcoinu. Rozežrané grafické karty, pak příjde úspornější generace s novějším napájením, které hoří, pak zase hoří cpu. A když se vše nějak tak uklidní, tak zase pamětí.. A o stabilitách a funkčnosti her nemluvě. Čím dám větší šance na ,,nedostupnější´´ gaming.
@Stratos
Z DLSS 1 také udělali v podstatě nové nativní rozlišení i při 60% renderu. Pokud potřebujeme nějaké nativní rozlišení, tak v tom případě by se měli zamyslet vývojaři v optimalizaci her a ne aby nové hry na 5090 a 9800x3d v 1080P fungovali sotva na 100FPS
@Stratos
Nikdo nechce frame gen a nikdo se o to neprosil. Bohůžel pravda je taková, že by si na to každý měl hodně rychle zvyknout, pokud nechce dohánět bottlneck každé dva roky nákupem nového cpu. Osobně jsem to roky také dost odsuzoval. A nikdy to nebudu hájit slovy ,,máš bottlenck zapni frame gen´´. Optimální pro FG je 80FPS+. Ale nefunguje to úplně tak hrozně. Frame gen zhorší latenci a ano jde to cítit, ale do 10 sekund si osobně já na to zvyknu. Za mě největší výhoda frame genu je ta, že to dokáže vyřešit škubánky / mikro záseky při hraní + využít více hz na monitoru. Ale osobně s tím nemám problém hrát ani warzone...
To s čím mám osobně největší problém je ten, jak opět zafungoval marketing nvidie. Dost jsem se těšil na Reflex 2 (nvidiawrap), kterej nvidia představovala, že by to mělo opět snižovat latenci na 1/2 oproti dnešnímu Reflex 1, takže teoreticky by hry s frame generací mohli fungovat s reflex 2 při stejné latenci, jako Reflex 1 bez FG. Ale uběhl rok a krásně to nvidie zametla pod koberec.
A co spíš omezit výrobu 5090 a 5080, karet který jsou za ceny ledvin ? A i toho paskvilu, kterýmu se snaží říkat RTX 5060 ? 5070 Ti je jedna z nejprodávanějších karet a omezí výrobu zrovna tam.
Mám MX 4 nějakou větší tubu a štve mě jak špatně jde roztírat oproti MX 2. Docela by mě zajímal rozdíl teplot třeba při 10-16H zátěži nebo po nějakém čase. A ne, že se napatlá pasta pustí se test a hele má to lepší teploty.
@honza1616
Dřív ano teď už ne... Ale nevysolím v případě 5080 40-50K za kartu, abych mohl hrát hry s ray tracingem na úrovni co s 3080 bez rt... Kupuju pc, abych měl vyšší fps. Ne, abych se tady kochal touhle technologií. Snad jediná hra s ray tracingem co jsem hrál, tak byl Doom Dark Ages a to jen z toho důvodu, že to má nativní ray tracing.
Který dává smysl... Možná tak pro majitele obchodních center... 980 Pro 2TB jsem kupoval ve 2023 asi za 3000. A jako nejlepší by bylo k tomu nějaké DDR 5 2x16GB ? Teď do pc nedává vůbec nic smysl s těmi cenami.
Ray tracing: Univerzální technologie, jak kašlat na optimalizaci her a způsobit vyšší prodej grafických karet, které nedokáží dodat mezi generační rozumný skok.
Takže v podstatě vzali staré cpu přetaktovali opět o 200mhz a vydají to jako ,,nový produkt´´ Docela by mě zajímali ti chytráci v Intelu... Místo P jader přídáme další E jádra... Nechápu proč radši sakra nevydat 16P jader bez hyperthreading a E jader, než tuhle patlaninu. Sám mám 3 roky 13600K, ale jestli Intel od tohohle neopustí, tak si na hry koupím radši 12 jader od AMD. Ať si tuhle technologii cpou do notebooku. Stejně, jak je znám vydají ještě tak 2 refreshe a zase jim to začne hořet. Místo toho, aby konečně udělali svojí X3D technologii, tak ten křemík a architekturu budou drtit dokud se to nerozpadne.
Ani jedno. Nekupuju výkonější pc, abych hrál 5 let staré hry s ray tracingem při FPS jako před 5 lety na slabším PC. Celej Ray tracing marketing je jen zlodějna plynulosti a financí. Vývojářům to usnadní a urychlí vývoj. Zdraží se hry a my to sotva rozjedeme. Třeba takový Doom Dark Ages by se dal udělat přes engine, tak jak to vypadá s RTX, ale to by chtělo více času a usílí a my jsme pak nuceni používat berličky v podobě DLSS. 8 let hraju na vysoký detaily a bohatě mi to na hraní her stačí. Stejně se 90% času člověk ve hře hýbe a nemá šanci postřehnout, jak kvalitní je odraz nebo stín.
Co se týče soukromí, odesílání dat to mě bylo vždy putna svým způsobem... Stejně s tím nic neudělám. Windows 10 stejně jednou skončí a stejně všichni skončíme na Windows 11. 5 let bude trvat, než se s tím každý zžije a za 10 let s Windows 12/13 budou lidé opět brečet... Ten kdo chce přejde na Linux. Já mám Windows 11 třetím rokem a jako hráč a uživatel si na ten systém nemůžu stěžovat. Vše funkční, přehledné, rychlé. Windows Update a po aktualizacích vždy funkční. Pro mě je důležitá rychlost a funkčnost, což ten systém má. U Windows 10 si pamatuji, že jsem asi od roku 2019 nebyl schopný přes windows update nainstalovat větší aktualizace a musel jsem používat nějaký pomocník s aktualizacemi. V Říjnu 2023 jsem dělal čistou instalaci a když nepočítám instalaci ovladačů a různých programu... Jen instalaci a nějaké to uspořádání, tak práce na 1,5-2h.. Jediné co mě už od Windows 7 vytáčí je to co všechno se musí odklikat při instalaci... I kdyby se vším všudy se to protáhlo na 4h a člověk se k tomu systému trochu chová, tak to vydrží klidně 5 let. Za mě jsou ty Windows 11 v pohodě jako Windows 10. A to, že to funguje díky tomu TPM 2.0 jen na nějakých cpu a pc. To není můj problém ani nikoho problém, že uživatel má 10-15 let starou plečku. Pak se takové šunky přinesou občas lidem na ,,opravu´´, kde to má 2 jádrové cpu, plotnový disk a ten člověk nad tím tráví mládí.
Ta představa, když 9900K/3700x ve 2020 zvládal hry na stejné úrovni jako dnes nové Ryzeny. Osobně jako hráč mám už k upgradům celé platformy silný odpor, když pak vychází předražené a hnusné hry co nefungují. Dnes se každý vývojář přesouvá na Unreal Engine 5 a graficky ty hry vypadají.... prostě ne hezky ne hnusně. Čím lepší komponenty máme tím horší hry hrajeme.
@kutil05
Mě spíš fascinuje, že výrobní proces čipů se furt snižuje. Čipy dnes jsou 4x menší, než před 10 lety, ale 3x-4x žravější. Spíš bych čekal od novějších procesů, že tady budeme mít třeba výkon 5090 do 400W a ne 600W.. Co bude za pár let ? RTX 9090 0,5nm 1000W ?
A doporučení na závěr ? Nekupovat nic co má více jak 330-350W. Hlavně, že ten konektor je dimenzovaný na 650W, ale měl by být max na 300W. Celej problém je v konsturkci a hlavně v tom, jak je ten konektor malej + ty uzounký,malý drátečky a pak to hold vše chytne. Kdyby ten konektor byl silnější. Silnější piny a hlavně silnější dráty, tak by to určitě pár problémů řešilo. Ale stejně mi nejde do hlavy, proč s tímhle Nvidie prišla ? Proč? K čemu to je dobré ? Že to ušetří místo na kartě, ale minimálně 3 generace ne-li déle s tím budou problémy ? Jediné pozitivum v tom konektoru vidím ten, že si člověk koupí novej zdroj s nativním konektorem a nemusí do budoucna řešit, jestli daný model potřebuje 2x/3x 8pin, ale za jakou cenu...
AM platformy dokáží být podporovány 2-3 generacemi. U Intelu člověk koupí 1 patici na 1 generaci nebo rozežraný refresh... Takže koupit 9700x/9800x3d a později upgradovat na silnější a stejně úsporný cpu dává větší smysl.