Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od Jindra72
Pokud jako uživatel budu mít možnost NPU zcela vypnout, když budu mít tu potřebu, pak s tím nemám problém. Dokáži si představit, že ve většině běžných uživatelských případů mi to bude pozitivně nápomocno a když mi to např. snižovalo někde výkon více, nežli jsem ochoten akceptovat, tak to vypnu a později opět zapnu.
Kdyby to ale uživatel neměl možnost vypínat­/zapínat a stal se tak 100% otrokem nějakéh algoritmu, pak bych si takovou kartu rozhodně nekoupil.
Odpovědět2  0
Pán bude asi libtardí demokrat, jehož problém spočívá v tom, že si plete demokracii s diktaturou.
Odpovědět2  5
A proto i nová generace 50xx bude gigantický monolit ... to dává opravdu smysl ta studie. :­-­)
Takže buď nVidia jako vždy lhala ­(to mají s intelem společné­) a nebo narazila na jiný problém s dlaždicemi u GPU, když se jim vyplatí stále navrhovat nové a nové obrovské monolity.
Odpovědět0  0
Stejně jako AMD, která má dnes mnohem výkonnější řešení v podobě AMD Instinct série, ale problém je v tom, že stejná řídící logika nefunguje dobře v GPU. Byť to na první pohled vypadá podobně, tak dle toho co se kolem toho v AMD děje, to je velmi rozdílné řešení. Zřejmě se jim nedaří synchronizovat jednotlivé dlaždice kvůli video­-výstupu, ale je to je má domněnka, která mě napadá jako hlavní rozdíl mezi grafickým a výpočetním dlaždicovým řešením.
Odpovědět3  0
Kde berete tu jistotu, že to nVidia zvládne bez komplikací, když má o hodně menší zkušenosti v této technologii nežli AMD, které na problémy narazilo? A evidentně to žádné malé problémy nebyly, když její uvedení na trh odložili prakticky o 2 generace.
Odpovědět2  0
To na tom PC hrajete jen piškvorky ne? Spustím Photoshop a 32Gb je pryč během chvíle ­(samozřejmě záleží kolik mám otevřených PSD naráz a jaké operace nad grafickými vrstvami provádím. Ale 8GB by nestačilo ani na práci s jedním PSD. Navíc 8GB mi nestačí ani v případě, že nebudu mít spuštěný Photoshop, ale pojedou mi jen běžné služby a programy, jako je MS Office 360, FireFox, ThunderBird, Acrobat Reader, Apple Music, propojení s telefonem a žere mi to 23,8 až 24GB RAM ­(mimochodem komprimované­). Takže s pohádkou o 8GB to na nikoho dnes už fakt nezkoušejte, nebo se ztrapníte stejně jako Apple při svém tvrzení, že mu 8GB bohatě stačí, protože sami jeho zákazníci doložili, že to fakt nestačí. Ono jaksi v době SSDček není dobře mít malou RAM a kvůli ní swapovat a zničit tím SSD mnohem rychleji, nežli bylo plánováno.
Odpovědět1  0
Aha asi neumím číst, protože na daném odkazu vidím co jsem postnul, ztn. 300W celkovou spotřebu, ale nikde nevidím CPU spotřebu o které jsem psal, že Apple o ní cíleně lže a raději data nikdy neuvedl.
K realitě kolem GPU Apple M2 Ultra vs nVidia 4080, která je 2x výkonnější nežli Apple ­(samozřejmě s větší spotřebou, ale o tom řeč nebyla, že?­):
https:­/­/gagadget.com­/en­/258869­-the­-apple­-m2­-ultra­-gpu­-is­-on­-par­-with­-the­-geforce­-rtx­-4060­-ti­-in­-geekbench­-5­-the­-rtx­-4090­-graphics­-card­-is­-150­-more­-power­/
Měl bys vychladnout, ztrapňuješ se stále víc a víc. :­-)
Odpovědět0  0
Ach jo, vzdávám to, překrucuješ fakta, jak se Ti to hodí a zcela ignoruješ logické závěry a realitu. Pokud vím, tak jsem nepsal, že těch 300W je jen CPU spotřeba, protože Apple vědomně lže a tyto informace nikde neuvádí což také o něčem vypovídá. A pokud si myslíš, že ta jejich GPU část má výkon 4080 tak jsi fakt blázen. Pokud je mi známo, tak byl Apple velmi rychle usvědčen ze lži a reálný výkon byl mnohem a mnohem níž.
Více už reagovat nebudu, zjistil jsem že to nemá cenu, protože Ty nechceš vidět pravdu.
Odpovědět0  0
Mimochodem, když už ses ze zoufalosti uchýlil najednou pouze k ST výkonu, tak Ti vůbec nevadí, že ta nová A17 vyrobená na mnohem pokročilejší litografii má v ST pouze o 4% vyšší výkon nežli ten zastaralý 7950X? A Ty si vážně myslíš, že při zatížení jednoho jádra žere 7950X 100W, když dokáže žrát maximálně 175W ­(občas mi při plném zatížení skočí na 178W­) s 16 jádry ­/ 32 vlákny. Běžně mám spuštěných kolem 30 aplikací a spoustu procesů na pozadí a průměrnou spotřebu mám 37W a to nikdy nejede jen jedno vlákno, když běží stovky procesů souběžně, při kterých by se iPhone do minuty zasekl a začal by být neuvěřitelně utahaný. Srovnávat telefon s 7950X může jen nemocný člověk. A na ST zapomeň, protože to je dnes nepodstatný údaj ... nakonec se podívej na ty výsledky a zjistíš že desítky procesorů všech architektur mají cca stejný výkon, tj. v rámci statistické odchylky do 5%.
Odpovědět2  0
No jo no, tak promiň, jsem úplný idiot a zapomněl jsem, že v roce 2023 jsou všechny aplikace schopné použít jen jedno vlákno. Škoda jenom, že Tě nemají korporace jako Google, Amazon, atp. za poradce, jinak by mohli sestavit servery z iPhonů a ušetřit tolik elektřiny, že by Green Deal byl proti tomu úplně bezvýznamný mikro projekt. Ty o programování aplikací nevíš vůbec nic, co? ST výkon je v dnešní době zcela irelevantní, už to pochop. Proč podle tebe dal Apple do svého nejsilnější HW v podobě Mac Studio ­(2023­) 24­-jádrový slepenec z M2 se spotřebou až 300W a i přesto tento jeho nejlepší kus HW, který má o 50% více fyzických jader jak 7950X a přitom MT výkon o 30% menší?! Už se prober, chlape, nebo Ti není pomoci a skončíš v blázinci.
Odpovědět1  0
Aha, ARM ­"velká jádra­" :­-­) ... tak proč je s nimi nejlepší Apple PC až na 16. místě v celkovém výkonu?! Takže k rupání žilky nějak nemám důvod, nemylíš? :­-D
https:­/­/www.cpubenchmark.net­/desktop.html
Navíc mě je fakt jedno co si kdo koupí a jak to používá, o tom je svoboda rozhodování každého z nás. Mě vyhovuje má sestava kvůli softwarovému encodování 4k v AV1 kodeku, protože jsem nic jiného tak výkonného pro tento účel zatím nenašel. Na mojí práci je jinak dostačující i 5 let starý CISC o kterém říkáš pořád jak je zaostalý, takže tvé problémy fakt opravdu nechápu. Pro běžnou činnost většiny lidí jsou dnešní CPU CISC i RISC dostačující s velkou rezervou a snad jen u hráčů PC her je zatím jediná vhodná platforma právě to ­"zaostalé­" CISC.
Tímto bych naše diskutování ukončil, protože nevede k racionálnímu informačnímu obohacení nikoho z nás.
Odpovědět3  0
Jako vážně? Tak proč 3 různé prohlížeče mají tak rozdílné výsledky, když je to dle tebe důsledek výkonu jednoho vlákna mého CPU? Selský rozum Ti nic neříká?
Na narážku, že iPhone to ­"natřel­" mému CPU fakt reagovat nebudu ... nelíbilo by se Ti to a zničilo by to tvůj vlhký sen, kterým intoxikuješ celý internet.
Odpovědět7  0
Tento příspěvěk pouze dokazuje, že jsi neskutečně nevzdělaný jedinec, který neustále míchá hrušky s jablky a toxickým způsobem obtěžuje lidi na diskuzích. Kdybys něco věděl o dané problematice, tak bys věděl, že tento test je testem na implementaci JS v jádru konkrétního prohlížeče, tzn. že na stejném zařízení při spuštění v různých prohlížečích budeš mít skóre velmi různé. Např. na mém PC Ryzen 7950X­/Radeon 7900XTX je skóre v FF 248, Edge 384 a Chrome 410. Ale co je v tvém případě velmi smutné, je skutečnost, že to převádíš na srovnání HW a přitom Tě ani nenapadlo se podívat, jaké zatížení CPU vlastně tento test reálně dělá ­(2% až 7% max.­) a že to tedy není test HW, ale pouze těch prohlížečů a jejich adaptaci JS v jádru.
Odpovědět12  1
Díky UE5 bude hra korektně využívat max. potenciál karet nVidia i AMD. EPIC si od nVidie nenechá zprasit svůj herni engine, jak to to dovolilo CDPR nVidii.
Aktuálně je v UE 5.2 v top 3 nejvýkonnějších kartách jen jedna nVidia na kterou stejně většina obyčejných hráčů nemá peníze:
https:­/­/gamegpu.tech­/action­-­/­-fps­-­/­-tps­/unreal­-engine­-5­-2­-tropical­-rainforest­-demo­-test­-gpu­-cpu

Jako fanoušek série Witcher jsem za rozhodnutí použít UE5 nadšený, protože vizuální kvalita bude parádní a navíc vše poběží optimálně na všech GPU. Jedna ze silných stránek UE5 je totiž velmi efektivní výkonnostní škálování s malým vizuálním dopadem, takže i majitelé slabších grafik budou mít stále pěkný zážitek ze hry.
Odpovědět2  3
Pravda, ale to si ještě bohužel počkáme ještě několit let, než mLED uvidíme v monitorech s větší úhlopříčkou a v rozumné cenové relaci. :­-­(
Proto jsem se minulý rok rozhodl koupit OLED monitor, protože ta černá je prostě zatím zcela bezkonkurenční, takže pokud monitor používáte i na pouštění filmů ­(případně hrajete hry­), tak OLED vám příjemně zkrátí čekání na mLED.
Odpovědět0  0
A na tu spotřebu jste přišel jak? OLED je známé právě tím, že obecně vždy má větší spotřebu nežli IPS! Zmiňujete 42­" OLED se spotřebvou 48W, což je fakt hovadina ... můj 48­" 4k OLED LG monitor žere typicky 175W ­(max. dokonce až 222W­) a je to znát i pocitově, když u toho sedím ve srovnání s ASUS 32­" IPS 4k monitorem, který jsem měl předtím.
Pro přehlednost odkaz na specifikace výrobce: https:­/­/www.lg.com­/us­/monitors­/lg­-48gq900­-b
Jinak s Vámi souhlasím, že tyto malé a doslova ­"zkryplené­" monitory zaměřené na vysoké FPS jsou opravdu pro hlupáky, kteří si myslí, že jejich oči a mozek jsou schopny zpracovávat snímkovou frekvenci nad 120Hz. Nicméně těch hlupáků je dnes všude mnoho a tak výrobce jen dodává o co je zájem. Když se to nebude kupovat, tak se to velmi rychle přestane i vyrábět a výrobce se raději vrhne na nějaký kvalitní 120hz monitor s HDMI 2.1 a DP 2.1, parádní barvy s minimálně 10bit zpracováním ­(optimálně 12bit­), s tenkým rámečkem, malou spotřebou a kvalitním podstavcem. Již mnoho let čekám na opravdu kvalitní monitor a zatím stále nic a vše nové má vždy nějakou nepříjemnou bolístku.
Odpovědět0  0
Naprostý souhlas, jen bych upřesnil, že se nejedná o dřevostřísku, která je sama o sobě téměř stejně pevná jako masiv ­(z pohledu deformace nárazy­), ale dotyčný ­"manipulátor­" použil obyčejnou sádrokartonovou desku, na kterou vám stačí holá pěst, abyste ji rozmlátili tak jako on, což značí, že jeho údery kladivem byl krajně slabé.
Odpovědět0  0