Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od HoCh
Neni treba nic vymyslet. Napajeni jen 12v a vyroba vsech ostatnich napeti spinanymi menici na desce je uz standardizovane, pokud se nemylim. Spis by bylo potreba to napeti zvednout na 24v, aby se snizily proudy a nvidii nehorely konektory.

Nebo naoajeni zvednout aspon na 19v. Vyrobci mini pc tech 19v z napajecich zdroju pro noutbuky dneska bezne pouzivaji. A velci vyrobci stolnich pc standardy moc neresi. Bezne pouzivaji desky a zdroje s nestandardnimi napajecimi konektory aby usetrili misto nebo­/a naklady. Pripodne i odbyt nahradnich dilu.

Idealni by bylo, aby se standardizoval jeden spolecny koaxialni konektor pro noutbuky i pc na 19v nebo radsi 24v. Pripadne 2 verze ­- jedna pro nizsi vykon ­(treba do 150w=6a pri 24v­) a druha s kvalitnejsimi kontakty pro napajeni grafik a serveru ­(720w=30a pri 24v­).

Jenze to vyrobci pocitacu nebudou chtit, protoze nemeli zakazniky tolik vazane na sve vyrobky
Odpovědět5  1
Kosmetická záležitost to není. Při standardním nastavení je paměť, kterou deklaruje iGPU hrám malá a některé hry nejde spustit ve vyšší kvalitě ­(třeba tanky WoT­).

Největší problém malé paměti dostupné pro grafiku jsou ale propady FPS. Chování závisí na tom, jestli a jakou strategii má konkrétní hra pro práci s malou pamětí. Běžné grafiky mají pevnou velikost paměti a tak hádám, že jen málo her bude optimalizováno pro možnost masivního využití dynamického zvětšování paměti.

Pokud má hra pro načítání méně paměti, pracuje častěji s diskem. A režie se správou paměti a dekomprese dat z disku spotřebovává zdroje v průběhu hry. Pokud nemá hra velmi dobrou strategii dopředného načítání dat, která budou dále potřeba, dochází k propadům fps, nebo i k až následnému doskakování textur do generovaného obrazu. U iGPU s tím jsou problémy i v tak jednoduchých a předvídatelných případech, jako jsou grafické benchmarky např. Unigine Heaven nebo Shadow Of The Tomb Raider.
Odpovědět6  0
Testovali se starou verzi Win 11 a bez zaplaty zvysujici fps, protoze nemaji pretestovane ostatni procesory. S novou verzi win 11 mohou byt fps i spotreba vetsi. Da se tedy predpokladat zlepseni pozice proti Intelum, proti ryzenum 9000 a 7000 se pozice asi moc nezmeni.
Odpovědět1  0
Hadam, ze podle meritek Intelu ten proces pouzitelny neni. Kdyby byl, tak by Intel sve procesory nedelal u TSMC.
Odpovědět3  0
Jo, jo, Intel jde od uspechu k uspechu tak rychle, ze musi nektere uspechy i preskakovat.
Odpovědět6  0
Hruby vypocetni vykon je hezky, ale zajima malokoho. Larabel na Phoronixu testoval pod linuxem igpu v core 155h a byl nadseny pokrokem i vykonem. Ta igpu byla skoro vsude lepsi a efektivnejsi, nez 780m.

Jenze kdyz se clovek podiva na fps v windowsich hrach, coz u igpu zajima vetsinu lidi, tak to vypada trochu jinak. Ta 780m dava na noutbukach s podobnym tdp asi o 60% vyssi fps a nova 890m ma fps 2x vyssi, nez to igpu od intelu. Optimalizace architektury a ovladacu pro hry je holt o neconarocnejsi, nez pro bezne vypocty.
Odpovědět3  0
Ciste formalni oddeleni do samostatne firmy vlastnene ­(vetsinove­) intelem riziko pro konkurenci moc nesnizi. A do koupe se asi nikdo moc nepohrne, nebo aspon ne za cenu, ktera by se intelu libila. Ale asi nejvetsi problem je kvalita a cena vyroby.
Odpovědět3  0
Díky za zajímavý článek. Zrovna řeším, jaká je nejvhodnější strategie využití a prodeje energie z fotovoltaické elektrárny a tohle by mohlo dost změnit obvyklý přístup k práci s baterkami.

Je ale ještě otázka, co s tou baterkou udělá delší vybití. Třeba u olověných akumulátorů dochází při vybití docela rychle k sulfataci elektrod a ztrátě kapacity. Koukal jsem do zdrojového textu a v testech se podle všeho cykluje okamžitě, takže po vybití na 2,5V následuje nabíjení na cílovou kapacitu.

V běžném domácím provozu by normálně mělo smysl prodat skoro celý obsah baterky do sítě při večerní špičce a nechat tam jen nějakou rezervu na noční spotřebu. Jenže pokud bude další den zataženo, tak se baterka moc nenabije. A jestli jí delší vybití bude škodit, nemusí být výsledek dobrý.
Odpovědět0  0
Já se ptal, jak, kde a za jakých okolností se projevuje brždění her kvůli CPU u tebe a v čem tě to omezuje. Neptal jsem se, co píší do testů HWU, nebo GN.
Odpovědět4  0
Muzes upresnit, co to znamena nestiha cpu? O jak velky podil her se jedna, o ktere konkretne a na jakych fps?
Odpovědět2  0
Ze se od ni nenechas najmout, abys ji radil jak ma veci delat spravne.
Odpovědět7  0
Ta úprava woken zvedla fps ve hrách i u řady 7000, i když o něco méně.

Ale normální lidi to ­(nej­)spíš nezajímá, protože to zvyšování fps, které se objevuje v testech, je měřené na GPU 4090 při rozlišení 1920x1080 a při fps několik stovek. Řešit zvýšení fps z třeba 300 o 11% může jen hnidopich. Normální člověk má slabší grafiku a případně větší rozlišení a tam na CPU v podstatě nezáleží, protože fps limituje výkon gpu a ne cpu.
Odpovědět3  2
odstraněná duplicita
Odpovědět0  0
Ta Gainward 1650 grafika vyšla před zhruba 4 roky v dubnu 2019 a má TDP 75W. To je o 66% víc, něž těch asi 45w, kolem kterých běhá ta iGPU 890M.

https:­/­/videocardz.net­/gainward­-geforce­-gtx­-1650­-4gb­-ghost
Odpovědět0  0
Efektivita překvapivě blízko ? No, jestli je ten Intel postavený na 3nm od TSMC a Ryzeny na 4nm, tak mi to zvýšení efektivity Intelu moc překvapivé nepřipadá.

https:­/­/wccftech.com­/intel­-arrow­-lake­-s­-desktop­-cpus­-to­-utilize­-tsmc­-3nm­-arrow­-lake­-p­-mobility­-to­-utilize­-20a­-process­-node­-alleges­-rumor/
Odpovědět1  2
Odložení o týden je pro řešení reálné závady podezřele krátká doba. A dost divné je i to posunutí silnějších verzí o další týden. Ani bych se nedivil, kdyby to bylo odložení na podnět marketingu. Mohlo by to pro amd mít několik výhod.

Odklad vyřešil důsledky skluzu dodávek noutbuků s novými Ryzeny. Ten způsobil kumulaci vydání noutbukových a stolních procesorů do stejného okamžiku, což by vedlo k přetížení recenzentů a taky k výraznému zkrácení doby mediálního zájmu o amd. To výše zmíněné rozdělení vydání ryzenů pro stolní počítače můj dojem, že jde o marketingové rozhodnutí, dost posiluje. Tak bych spíš čekal, že se posunou i ty recenze.

A to povídání o odložení kvůli nějakému problému může být jen zástěrkou prezentovanou tak, aby firma neutrpěla reputační škodu. Posunutí o týden není nic hrozného a zdůraznění rozdílnosti přístupu firmy ke klientům ve srovnání s Intelem, který je teď velmi intenzivně na tapetě za nekvalitní procesory, může obraz firmy dokonce zlepšit. Ostatně v prohlášeních lidí z amd je ten důraz na kvalitu a prospěch zákazníků dost vypíchnutý.
Odpovědět0  2
Dik, takhle jsou ty grafy mnohem lepsi nez minule.

To zhorsovani efektivity pri velmi nizkych limitech neni prekvapive. Procesor ma nejakou zakladni rezijni spotrebu, ktera se pri rustu zatizeni az tak moc nemeni. A kdyz se limit snizi prilis, podil rezijni spotreby zacne stoupat, protoze na tu uzitecnou spotrebu zajistujici vypocty zbyva mene prostoru.

Nejvyssi efektivitu ma procesor v bode, kde se primka vedena z pocatku souradnic prave shora dotkne oranzove krivky ukazujici rust vykonu pri zmene limitu
Odpovědět2  0
Ano, ten i9­-14900K je určitě lepší.
Jen se musí po každém běhu testu vyreklamovat a osadit nový ;­-­).
Odpovědět11  0
Aha, podle hodnot to tak vypadá. Ale nebylo jasné, co znamenají ta % na vodorovné ose, tak jsem ho dál moc nezkoumal.

Teď koukám, že i výkon v předchozím grafu je v %, tak to asi bude skóre z testu vztažené k výkonu při továrním nastavení. Takže ten druhý graf a modrá čára ne něm je kolem diagonály otočený první graf do kterého je pak doplněna ta červená čára. A Je to hrozně překombinované a hádám, že asi málokdo z čtenářů byl schopen tenhle hlavolam rozlousknout.

Přirozenější, mnohem názornější a tedy i správnější by bylo dát na vodorovnou osu příkon, protože to je nezávisle proměnná. A na svislé osy body, body na W a případně spotřebu na bod.
Odpovědět0  0
Pro hodnocení je lepší používat poměrové ukazatele, než vývoj dvou zdrojových hodnot. V tom případě je asi nejlepším ukazatelem efektivity počet bodů na 1 watt příkonu. V testu nebyla k dispozici reálně měřená spotřeba, ale jen nastavení maximálního příkonu PPT. U některých testů ­(třeba Geekbench­) by tahle hodnota nebyla k ničemu, ale Blender zvládne procesor opravdu zatížit, tak se dá PPT jako místo příkonu asi použít.

ro porovnání změn efektivity beru jako základ efektivitu ­(bod­/W­) pří PPT 60W. Při zvýšení PPT z 60W na 90W se efektivita téměř nezmění. Při zvýšení na PPT 120W klesne efektivita o 12%, což v opačném směru ­(PPT 120W ­-> 60W­) znamená zvýšení efektivity o 14%.

Možná ještě názornější je spotřeba W na 1 bod. Při PPT 120W je bod o 14% ­"dražší­", při PPT 230W se na bod spotřebuje o 22% víc energie.

W bod bod­/W změna W­/bod změna
60 153 2,550 100% 0,39 100%
90 228 2,533 99% 0,39 101%
120 269­ 2,242 88% 0,45 114%
230 353 1,535 60% 0,65 166%
253 366 1,447 57% 0,69 17­6%
320 368 1,150 45% 0,87 222%
Odpovědět1  0
Procesor v chytrých hodinkách téměř 100% času spí, tak zlepšení jeho spotřeby moc nezachrání. Lepší baterka pomůže jen málo, protože je omezena dostupným prostorem a žádná technologie zlepšující zásadně energetickou hustotu baterek není v dohledu.

Za krátkou dobu výdrže hodinek ­(i mobilů­) mohou displeje, Spotřebu zvyšuje ­(zvlášť u mobilů­) zcela nesmyslná honba za počtem bodů displeje a vysokou obnovovací frekvencí, protože pro výpočet i přenos obrazu potřebuje elektronika zbytečně moc energie.

Ale největším žroutem je rozsvícení displeje. U klasického podsvíceného LCD musí svítit celá plocha a spotřeba je velká. U OLED displejů svítí jen jednotlivé body a když používá displej nějaké dobře navržené tmavé téma, tak může být spotřeba možná o dost nižší než u LCD.

Nejlepší řešení je ale transreflexní e­-ink displej s možností zapnutí podsvícení, jako se používá u čteček. Při dostatečném světle je viditelný i bez podsvícení a za tmy se zapne podsvícení. Mám takhle udělané hodinky od xiaomi a nabíjím je jen asi jednou za měsíc. Jen si na nich člověk nepustí třeba video, protože obnovení obrazu je pomalé a displej je černobílý.
Odpovědět2  0
Ta myšlenka použít blok jaderné elektrárny na napájení je jako příměr dobrá, ale v praxi by s tím možná byly trochu problémy. Asi by to potřebovalo ještě pěkně velkou baterku. Možnosti regulace výkonu jaderné elektrárny jsou totiž omezené a odezva na regulační zásahy pomalá. A při skokovém snížení zátěže, nebo dokonce ukončení běhu takové výpočetní obludy by bylo potřeba s tím nevyužitým výkonem elektrárny něco udělat.

Ano, téměř jistě tam nepoběží jediná úloha a zátěž se dá plánovat a řídit. Asi by však nešlo mít napájecí jaderku mimo rozvodnou síť, která může případné přebytky spotřebovat. Obecně je řízení spotřeby u velkých odběratelů zajímavý obchodně technický problém. Třeba hutě mají sjednané odběrové diagramy a za odběr nejen většího, ale i menšího množství energie jsou penalizovány.
Odpovědět3  0
Nevim nakolik je ta firma uznavana v oboru a kdo se vysledky jejich testu ridi pri rozhodovani o nakupu. Ale hadam, ze tyhle karty se prodavaji ve velkem firmam, ktere vedi, co potrebuji, a umeji si otestovat pouzitelnost proo jejich aplikace sami. A pri vysoke poptavce a omezene vyrobe da amd asi radsi vzorky partnerum, ze kterych kouka vetsi prodej, nez testerum.

Taky jo otazka, co znamena ­"two boxes­". Tyhle karty se asi neprodavaji v maloobchodnim baleni, tak to nemusi znamenat dve karty. Navic to nejsou karty, ktere se strkaji po jedne do PC, ale provozuji se v serverech osazenych nekolika kartami a vykon karet bude asi zaviset i na konfiguraci serveru. Slovo box tedy muze znamenat i kompletne osazeny server a pak se dostavame na o dost vyssi castky.
Odpovědět11  0
No nevím, nejsem odborník na těžbu, ani na AI, ale pokud vím, tak kryptoměny jsou postavené na kryptografii a tam se pracuje se zatraceně velkými čísly. Zatímco AI využívá, že pro neuronové sítě stačí spoustu parametrů brát jen přibližně na pár bitů ­(64 bitů => 8x8 bitů => 16x4 bity­), a tím se dosahuje vysokých počtů operací za vteřinu.
Odpovědět0  0
4x16bitu bude asi preklep, nebo chyba prekladu. Na techpowerup pisou 160 bitu ve 4 ­(sub­)kanalech.

16 GB or 32 GB, across a 160­-bit dual­-channel ­(4x sub­-channel­) interface
Odpovědět1  0
Prodávat zlatokopům krumpáče a ­(rýžovací­) pánve byl vždycky velký kšeft.
Odpovědět6  0
Jako mobilni telefon ? Ty ARM pocitadla jsou za 5­-10 litru :­-O ? Tak to je moc pekna cena :­-­), co se u noutbuku jen tak nevidi, to se fakt bude prodavat jak rohliky ;­-­).
Odpovědět1  0
Ramky jsou rychlejsi, nez zvlada procesor? Kdyby to byla pravda, ta procesor nepotrebuje mezipameti ­(cache­).

Navic neni rychlost jako rychlost. podstane je hlavne zpozdeni ­(latency­) pristupu do pameti a to je zpusobem provedeni sbernice mezi ram a cpu ovlivnovano velmi silne. Proto jsou schopny blizko pajene pameti lpddr dosahovat s mensim prikonem stejnych, nebo lepsich rychlosti a zpozdeni nez sodimm ddr.
Odpovědět4  0
Nejde o kompaktnost, ale moznost dosazeni velke rychlosti.
Odpovědět1  1
Co tak treba zkusit chladic ;­-­).
Odpovědět0  0
Nevím, já si doma čipy nevyrábím ani pomocí DUV, ani EUV, tak nejsem schopen přesně vyčíslit náklady obou verzí výroby, ani nemám změřené časy osvitů. Ale mám takové tušení, že kdyby výroba 5nm pomocí DUV byla ekonomicky výhodnější, tak výrobci nemají důvod používat EUV. Ale mohu se mýlit.
Odpovědět7  0
Jemnejsi kresba dosazitelna pomoci euv se u duv nahtazuje vicenasobnou expozici. Je tedy potreba vice masek, vice energie a delsi vyrobni cas. Jeden stroj tedy vyrobi mene cipu a jejich kvalita i vyteznost bude horsi, nez pri pouziti euv.
Odpovědět8  0
Jo, jo, to Halo s velkou iGPU je asi jediná výjimka, kde má ta široká sběrnice smysl. Chtěl jsem tu zmínku doplnit do příspěvku, ale už to nešlo.

Ale tenhle procesor se bude bude používat jen v notesech, nebo v mini PC založených na stejném křemíku. Pro běžná stolní PC se ten procesor použít nedá, protože by potřeboval jinou patici. Snad jen, že by udělali do AM5 tu údajnou ořezanou verzi se šířkou paměti 128bitů.
Odpovědět0  0
Pro DDR5 umožňuje CAMM standard dát místo jednoho 128bit širokého modulu dva se šířkou 64bitů stohované v dvoupatrovém CAMM konektoru na sebe. Je otázka, jestli nedojde ještě k doplnění standardu o dvoupatrový konektor pro LPDDR5. Ale asi to není úplně na pořadu dne, protože 4x64bitů je pro současné procesory pro stolní PC asi zbytečné.

https:­/­/www.comptoir­-hardware.com­/actus­/ram­/47332­-camm2­-la­-so­-dimmie­-trouve­-un­-nouveau­-chemin­-au­-jedec.html
Odpovědět0  0
Ano, v clanku zminka o vyssi efektivite NPU je, ale celkove ladeni clanku a jeste vic titulku je, ze AMD tvrdi, stejne jako nVidia, ze na AI je mnohem lepsi GPU, a to vyvolava dojem, ze NPU je temer k nicemu.

Nedohledaval jsem zdrojovy text od AMD, cetl jsem jen clanek od wccftech.com, ze ktereho tenhle clanek cerpa. Ale tam jsem nenasel nic o tom, ze by AMD tvrdilo, ze jsou na AI lepsi GPU, nez NPU. Pisou tam jen, ze zverejnilo vysledky srovnavaciho testu vykonu ruznych reseni.

GPU maji celkem pochopitelbe vyssi vykon, ale to neznamena, ze jsou automaticky lepsi. Uz proto, ze neni AI, jako AI. Pro trenovani velkych neuronovych siti jsou GPU s dostatkem pameti bezesporu lepsi, nez NPU v procesoru. Ale pro pouzivani natrenovane site koncovym uzivatelem staci mnohem mensi vykon i pamet a NPU asi bude vetsinou lepsi reseni nejen kvuli spotrebe, ale i kvuli porizovacim nakladum GPU.

Chapu, ze nVidia se svym agresivnim marketingem se snazi presvedcit uzivatele i oem partnery, ze je potreba davat do noutbuku jeji samostatne grafiky. A tak tvrdi, ze GPU je pro AI lepsi, nez NPU. Ale AMD tuhle potrebu asi moc nema.
Odpovědět3  0
Ano, v segmentu Gaming, je prý i výroba konzolí, kde je tak dlouhou dobu od uvedení aktuálních modelů pokles objemů výroby i zisku z ní asi celkem očekávaný. Bylo by potřeba se podívat do zprávy k výsledkům, zda tam jsou nějaké podrobnosti a komentáře ke struktuře příjmů té divize a ke vlivům na výsledky. Další otázka je, zda a jak moc ovlivnily výsledky herní divize omezení výrobních kapacit TSMC a případné preferování výroby čipů s vyššími cenami ­(procesory, servery,..­).

Herních nadšenců, kteří chtějí na stůl velkou krabici s tlustou, nenažranou grafikou, asi fakt ubývá. Pro běžné hraní v rozumném rozlišení ­(1920x1080­) dneska už mnohdy stačí integrovaná grafika od AMD a do i jen trochu silnějšího notesu cpou výrobci samostatné grafiky od nVidie, tak spousta lidí nebude mít potřebu používat něco jiného. Navíc na rozdíl od generace AMD grafik 6xxx, se kterými bylo více noutbuků, je generace 7xxx téměř jen u Asusu a ještě omezeně. Je otázka, co je důvodem, ale prodeje mobilních 7xxx grafik asi moc závratné nebudou.
Odpovědět2  1
Jo, jo, to no­-X vývoj toho Intelského přístupu k ­(ne­)dodržování limitů pěkně zdokumentoval.

Ti hoši musejí být v řiti až po uši, když začali používat takhle brutální a snadno prokazatelné lži, aby shodili odpovědnost na někoho jiného.


Odpovědět7  0
Technicky vzato a z neznalého pohledu zvnějšku to sice může vypadat jako pravda, ale je to krystalicky čistý alibismus. Asi těžko bude výrobce desky zapínat omezení na limity vylhané Intelem, aby se základní deskou konkurence měly procesory o 14% vyšší výkon.

A to nemluvíme o tom, jak to je s tím nevymáháním­/doporučováním nedodržování limitů. Když nVidia nutila výrobce grafik, aby do vyhlášených řad pro nejvýkonnější grafiky dávali jen čipy od ní a od AMD ne, tak o tom taky nevydávala tiskovou zprávu. Čekal bych, že Intel výrobcům neoficiálně doporučil ty limity vypnout, aby jeho procesory vypadali líp. A nejspíš nečekali že s tím budou problémy. Nebo to čekali, ale počítali s tím, že to bude pár procesorů, které vyřeší v reklamacích, a že se jim dodatečné náklady pořád vyplatí.

Nastavení a dodržování provozních limitů je oblast, kde pravidla jednoznačně určuje výrobce procesoru­/čipu, a žádný výrobce základní desky si bez jeho souhlasu nedovolí implicitně nastavit jejich překračování. Natož všichni. Takže tvářit se, že Intel za překračování limitů nemůže, je spoluúčast na jeho marketingovém lhaní.
Odpovědět6  0
Házet vinu na výrobce desek není korektní, protože prvotní příčinou tohohle problému je Intel. Nedodržování specifikací procesorů výrobci desek je jen přirozeným výsledkem jeho obchodní politiky.

Intel píše do specifikací vylhané hodnoty příkonů, aby jeho procesory na webech prodejců vypadaly pro neznalé lidi jako konkurenceschopné. Ale protože ví, že při omezení příkonů na hodnoty ze specifikací by v testech jeho procesory pohořely, tak netlačí výrobce základních desek, aby limity dodržovali, což dříve vynucoval. Podle některých informací prý výrobcům doporučuje implicitně limity nedodržovat, nebo dokonce vypínat.

Ale Intel ani nemusí doporučovat. Když nedodržování limitů povolí a nějaký výrobce je nedodrží, tak to v podstatě musejí udělat i ostatní, protože jinak by jejich desky s Intel procesory v testech dávaly horší výsledky. a to by mohlo mít negativní dopady na jejich prodeje. I když musím přiznat, že tak brutální rozdíly, jaké se uvádí v článku jsem opravdu nečekal.

Když se člověk podívá na srovnávací testy základních desek, tak se výkon jednoho procesoru v různých srovnatelně kvalitních deskách normálně téměř neliší. Z toho je vidět, že výrobci desek ke specifikacím a jejich dodržování přistupují zcela stejně. Předpokládám, že tuhle část BIOSu dodává Intel a výrobci desek dělají jen implicitní nastavení parametrů v souladu s jeho doporučeními. Ostatně výrobce procesoru může nastavit a taky většinou nastavuje jeho nepřekročitelné limity tak, aby nemohlo dojít k poškození procesoru, nebo aby levnější verze stejného křemíku nešly provozovat se stejným výkonem, jako dražší verze.
Odpovědět6  0
V americkém křemíkovém ďolíčku prý platí zásada: ­"Fake it until you make it­". Což by se dalo přeložit jako: ­"Lži jim, dokud se ti to nepodaří opravdu udělat.­" Číňani se od Američanů učí velmi rychle a dobře, tak bych se a divil, kdyby nepřevzali i tuhle moudrost.

Ale je otázka, kdo za tou firmou je. Jestli nějaký podvodník a mluvka, nebo třeba lidí z nějakého výzkumáku, kteří připravují aplikaci nějakých objevů z výzkumu. Ta první varianta je pravděpodobnější, ale vzhledem k tomu, jak intenzivně Čína investuje do technologického vzdělání a výzkumu, se nedá zcela vyloučit ani ta druhá možnost.
Odpovědět3  0
U tech 30fps v pripade BG3 sice neni uvedeno, pri jakem nastaveni kvality na rozliseni 1080p ta hra bezela, ale s pravdepodobnosti blizici se jistote to nebyla vyssi, nez nejnizsi dostupna kvalita.

Pri tak nizke snimkove frekvenci je potreba kazdy snimek a nema smysl si hrat na vyssi kvalitu. A pokud by tech 30 fps bylo pri vyssi kvalite, tak by to vyrobce neopomnel zduraznit. Spis bych se bal toho, ze vykreslovani bezil na nizsim rozliseni a pak se obraz prevzorkovava na tech 1080p.

Ne, ze by se na 30fps nedalo nic hrat, ale oznaceni ­"perfektne hratelne­" bych ­(z vrozene slusnosti­) oznacil za velky eufemismus. A velmi zasadni otazkou je, jak hluboko pod tenhle prumer padaji mimima.
Odpovědět1  1
Pravda, pravda. Zrovna jsem reinstaloval sousedum stareho notese od HP. Cerstve intalovane win7 na rychlem ­(7200ot­/min­) rotacnim disku startovaly 75s, na sata ssd 25s.

Nejvetsi zrychleni prinese zlepseni v miste uzkeho hrdla. A to je u beznych aplikaci rychlost pristupy k datum na disku a v pameti. Kdyz je program uz nacteny do pameti, stava se nejvetsi brzdou zpozdeni ­(latency­) pristupu do pameti ­(mineno v ns, ne v taktech­). A to se totiz, na rozdil od prenosovych rychlosti, uz leta moc nezlepsuje.
Odpovědět0  0
No nevim, srovnavet ceny vystavby jaderne a solarni elektrarny asi dost dobre nejde, protoze jsou to zdroje s uplne odlisnymi vlastnostmi a jaderku solarama dost dobre nahradit nejde.

Pokud by mela solarni elektrarna zajistit stabilni uroven vykonu po cely rok a bez ohledu na pocasi i v zimnich mesicich, kdy je energie nejvic potreba, a kdy je slunce nizko a muze byt zatazeno i radu dni, tak by jeji jmenovity vykon musel byt ­(mnoho­)nasobne vetsi a potrebovala by vyrovnavaci baterky schopne zajistit dodavku energie pri jmenovitem vykonu po radu bezslunecnich dni.

Hadam, ze cena takove solarni elektrarny by byla vyssi, nez cena jaderne. Zvlast pro vyssi zemepisne sirky. O technickych problemech s realizaci a problemy s vyuzitim vysoke produkce v lete nemluve.
Odpovědět4  1
V tomto případě je MTP­/PBP = 30­/9 = 3,33. To odpovídá obvyklé hodnotě používané Intelem pro poměr mezi jejich dřívějším ­"TDP­" a příkonovým limitem PL2. Zřejmě Intel přejmenoval své ­"TDP­" na PBP a PL2 na MTP. Za tenhle odklon od zneužívání zkratky TDP je potřeba Intel určitě pochválit.

Ale dovolím si nesouhlasit s tvrzením. že PBP je v podstatě TDP. Pro to, co dnes Intel označuje jako PBP ­(Procesor Base Power­), používal zkratku TDP proto, aby v lidech vyvolal klamný pocit, že jeho procesory nejsou tak nenažrané, a že mají spotřebu srovnatelnou s konkurencí.

TDP ­(Thermal Design Power­), jak název napovídá, by měl sloužit k návrhu chlazení a měl by to být maximální příkon, se kterým může procesor TRVALE pracovat. Vzhledem k tepelné kapacitě a setrvačnost chlazení může procesor běžet i s vyšším příkonem, než TDP, ale jen krátkodobě, aby nedošlo k přehřívání procesoru. Ryzeny mají tenhle krátkodobý ­"turbo­" příkon zvýšený o 30% ­(1,3x TDP­).

V novém značení Intelu by tomuhle krátkodobému ­"turbo­" příkonu měla odpovídat hodnota MTP ­(Maximum Turbo Pover­). Ale výrobci základních desek ­(se souhlasem Intelu­) často časové omezení špičkového příkonu PL2­/MTP v biosu vůbec nezapínají a tak může procesor běžet s tím maximálním příkonem trvale. Tedy, pokud je na tenhle MTP dimenzované chlazení a procesor se nezačne přehřívat. Z toho pohledu je ekvivalentem TDP spíš Intelí MTP, než PBP.

Pokud by MTP u mobilních procesorů fungovalo opravdu jen jako krátkodobá špička, mohlo by TDP toho 9W procesoru být někde kolem 24W. Kdybychom použili stejné navýšení jako má AMD bylo by to 30­/1,3=23W.
Odpovědět1  0
Ano, GeekBench není moc dobrý na porovnání reálného výkonu, protože zatez rozseka na malé kousky a mezi ně vkládá dobu na ochlazení. To zvýhodňuje špatně chlazené mobilní procesory, které by v plné zátěži poslala rostoucí teplota rychle do kolen. Zatímco opravdu výkonné procesory nutí běžet úplně zbytečně na čtvrt plynu.

V testu, ze kterého se vycházelo, se ještě porovnávají dosažené vysledky podle nastaveného TDP a ne podle skutečné spotřeby. Rozumný test by měl porovnávat výkon procesoru běžícího naplno, jako to dela třeba Cinebrnch. A efektivitu posuzovat podle energie ­(Wh­) potřebne pro dokončení testované ulohy. Procesor s polovičním příkonem než konkurent nemusí být efektivnější. Pokud mu úloha při polovičním prikonu bude trvat 4x dele, spotřebuje na zpracování uklohy 2x více energie a ma tedy 2x horší efektivitu.
Odpovědět2  0
Dík za doplnění článku o informaci, která v něm nebyla. Z toho zdroje ale stejně není jasné, jak je to s nativností, nebo emulaci bezicich kódů.

Pokud ty Win11 Insider Overview běžely na Smartdragonu, tak to zřejmě bude nějaká ARM verze Windows. Ale není jasné, jaká byla verze toho GeekBench. Jestli šlo o nativní kód pro arm, nebo x86 verzi běžící na emulaci. Hádal bych, ze jde o ARM verzi a pak to je s ryzenrm na Win x86 srovnatelné stejně spatne jako kompletně linuxové testování

Pokud by ale na těch arm Windows běžela x86 verze benchmarku na emulátoru a dávala lepší výsledky než win+win verze na ryzenu, tak by ten emulátor a možná i ten Smartdragonu byly opravdu skvěle.
Odpovědět0  0
Mohu se mylit, ale v titulku i v canku nejspis chybi dost dulezita informace.

Pokud MS wokna pro arm teprve chysta, tak to mereni vykonu Smartdragona muselo nejspis bezet na nejake verzi linuxu. A hadam, ze cisla za ryzena budou z testu bezicich pod woknama. Ty citovane vysledky jsou tedy nejspis nesrovnatrlne.

Navic u problem s kompatibilitou zminenem v clanku nejde jen o to, jestli pujdou pod arm woknama spustit stavajici wokeni programy. Zasadni otazkouje i jak rychle pobezi. Pokud autor programu neudela a neda k dispozici verzi prelozenou a optimalizovanou pro arm, tak je asi jedina cesta, jak umoznit spusteni nativniho x86 kodu a to emulace.

MS by musel do arm woken pridatl emulator, ktery zajisti nacteni, analyzu programu a interpretaci x86 instrukci na arm procesoru. Tezko hadat jak dobry emulator MS udela, ale jeho rezie urcite nebude nulova. A ze zdanlive srovnatelneho vykonu Smartdragonu udela temer jiste vykon nesrovnatelny.

Takhle to ostatne delal Apple pomoci Rosety pri prechodu od intelu na svoje arm procesory. A nez byly k dispozici arm verze programu, musel se uzivatel spokojit s degradaci vykonu.

PC svetu blizsi ukazka dopadu emulace jsou intel grafiky a fungovani her vyuzivajicich directX9. Intel podporu directX 9 v ovladacich neresil a nechal interpretaci volani jeho funkci na emularoru od MS. Vysledkem byl velmi mizerny vykon starsich her a nasledne obrovska zlepseni jejich vykonu, kdyz to intel zacal resit na urovni ovladacu.

Odpovědět6  0
No jestli je i u těch procesů stejný rozdíl mezi sliby a realitou, jako mají u procesoru, tak potěš koste.

Když Intel řídili šetřící ekonomové, přešel na EUV jako poslední. Teď stojí v čele inženýr, ktery tlačí technologie a snaží se přejít na high­-NA­-EUV jako první. Je ale otázka, jestli to bude stačit. To že má člověk ostřejší tužku, než ostatní, z něj Picassa ještě neudělá.
Odpovědět4  0
Jenže když musíš, tak musíš.
Odpovědět3  0
Pro nemodelare prikladam dole odkaz, aby se mohli podivat jak xt60 vypada.

Sam o sobe by zrejme nestacil, protoze je jeste potreba minimalne signalizace pritomnosti konektoru a dosazeni stabilniho napajeciho napeti. Navic by pripojeni prislusne tlustym dvoudratem bylo velmi tuhe a spatne tvarovatelne.

Ale na tx60 je hezky videt, jak mela vypadat spravna konstrukce silovych koliku toho noveho napajeciho konektoru pro grafiky. Robusni telo, masivni pevne ulozena dutinka, proti ni silny rozeviraci kolik zajistujici velkou plochu kontaktu i dobrou souosost. A zlacene silove kontakty zajistujici male prechodove odpory. Pak by stacil 6­-ti nebo 8­-mi kolik plus ty 4 male signalni piny a mohlo to byt skoro stejne velke, ale podstatne spolehlivejsi.

https:­/­/www.hadex.cz­/d474a­-konektor­-a­-zdirka­-xt60/
Odpovědět1  0
Problém je v mechanický slabé konstrukcí tělesa konektoru i upevňovací ho zobáčku a to žádné zkrácení signalizačních pinů nevyřeší. Videa z testování ukazují, ze i u zcela zasunuteho konektotu staci boční tlak na přívodní kabely, třeba při zavření skříně, k jeho naklonění způsobujícími pootevření dutinek konektoru a jen bodový kontakt, kde přechodové odpory začnou kontakty při přenosu velkých výkonů zahrivat a teplo bude způsobovat postupnou degradaci.

Pri použití ve slabších kartách se ten problém neprojeví buď vůbec, nebo az po delší dobe. Kdyby byl maximální přenášeny výkon třeba do 300w, tak by konektory možná kartu přežijí, ale když se přes něj u 4090 snaží tlačit skoro dvakrát větší výkon, tak se není čemu divit, ze to konektor nezvladne. Případů zničených karet není víc jen díky tomu, ze ty 4090 představují jen malý podíl z karet s tímto konektorem a ne každý je honí na krev.

Tohle nVidia, která ten konstrukčně osizeny konektor spolu s Dellem protlačila do PCIE standardu, dost posrala. Kdyby jeho těleso a kontakty udělala robustnější, mohl to být, díky pinům signalizujicim dostupný výkon, pěkný univerzální konektor pouzitelny pro širokou paletu napajecich zdroju od slabých, až po ty nejvýkonnější.
Odpovědět7  0
Ten parní motor zní na první dobrou jako kravina, ale ta Fabie s parním motorem zřejmě opravdu existovala a ten motor je patentován. Jde o rotační motor ­(podobně jako Wankel­) s uzavřeným okruhem pro vytváření páry. Podstatou zvýšení účinnosti je využití odpadního tepla, které se u běžných spalovacích motorů pouští bez užitku do okolí. Nasávaný vzduch použitý pro spalování paliva se předehřívá teplem z kondenzující páry a pro přeměnu vody na páru se používá teplo ze spalin, podobně jako se využívá u kondenzačních kotlů pro předehřev topné vody.

Nějaké další důvěryhodné informace potvrzující provozní parametry motoru uvedené v článku jsem nedohledával, ale pokud má spalovací motor účinnost kolem 30%, tak je prostor pro zlepšení značný. Na vyšší účinnosti by se možná mohlo podílet i využití rotačního motoru, ale problémem těchto motorů je udržení těsnosti pracovních prostorů. Pracovní tlaky při použití páry však budou zřejmě nižší , tak by to nemusel být až tak velký konstrukční problém.

https:­/­/www.autoforum.cz­/fascinace­/vw­-pred­-15­-lety­-vyvinul­-zcela­-revolucni­-motor­-a­-dal­-jej­-skode­-pak­-ho­-zariznul­/
https:­/­/patents.google.com­/patent­/US6508060
Odpovědět1  0
Myšlenka snížit procesoru napětí a tím i příkon a zahřívání je dobrá. A pokud člověk použije u Ryzenu dynamické snížení pomocí Curve Optimizeru ­(PBO CO­), tak může dostat při nižším příkonu i vyšší výkon, než při základním nastavení z výroby. Na R5600G jsem při ladění výkonu iGPU stáhnul pomocí CO napětí CPU jader v podstatě na spodní doraz, takže z TDP zbylo víc na iGPU. A napětí mírně přetaktované iGPU šlo stáhnout taky celkem dost a tak na chlazení stačil i ten základní chladič z krabice.

Jenže tady holt šlo o něco jiného. Člověk nebude dělat odvíčkování procesoru, přepastování tekutým kovem a chlazení vodníkem, aby pak podvoltovával a kochal se tím, že procesor běží málem na pokojové teplotě. Ber8auer chtěl zjistit, kam se změnou chlazení posunou meze toho procesoru, a to bez přetaktování dost dobře nejde. Ostatně sám na konci testu uvádí, že tahle úprava chlazení má reálně smysl hlavně pro lidi, kteří chtějí postavit malý komp s omezenými možnostmi chlazení a udržet ho tichý.
Odpovědět8  0
Je hezké ověřit, kde jsou meze taktování iGPU, ale mám otestováno, že samotné zvyšování jejího kmitočtu a napájecího napětí není moc užitečné.

Mnohem lepší je stáhnout pomocí Curve Optimizeru ­(CO­) zbytečně vysoké napájecí napětí CPU a také iGPU, protože to umožní dynamické zvýšení taktů při zachování příkonu rozumných mezích. Hlavní brzdou iGPU totiž není hrubý výpočetní výkon, ale rychlost přístupu do paměti. Vysoké takty a výpočetní výkon jsou k ničemu, když není co počítat, protože se čeká na data. Takové prázdné zvyšování taktů a příkonu má za následek jen růst teploty a zhoršování stability iGPU i řadiče paměti.

Přitom se nestačí jen honit za vysokou frekvenci pamětí. Zažité tvrzení, že u grafické paměti záleží pouze na kmitočtu a přístupové doby mohou být dlouhé, totiž není ­(úplně­) pravdivé. To funguje jen u samostatných grafik, které mají dostatečně velké mezipaměti ­(např. InfinityCache­) s krátkými přístupovými dobami, v nichž probíhá většina zpracování. Ale iGPU moc velké mezipaměti ­(zatím­) nemají a tak do paměti přistupují mnohem častěji, než čipy samostatných grafik.

U integrované grafiky tedy pouhé zvýšení kmitočtu paměti moc nepomůže. Problém čekání na data se tím totiž nevyřeší, jen se přesune z řadiče paměti dál na samotné moduly paměti. Pro zrychlení práce iGPU je tedy potřeba mít i co nejmenší zpoždění přístupu do paměti ­(latency­). Ostatně i na sloupcovém grafu ukazujícím přínos různých opatření je vidět, že největší zlepšení přineslo ladění paměti. Při ladění iGPU je potřeba řešit vždy nejslabší článek tak, aby výpočetní výkon, přenosové rychlosti a zpoždění přístupu byly v rozumné rovnováze.
Odpovědět5  0
Pokud je pravda tech 40CU uvadenych v unicich, tak to Halo urcite nepujde udelat pro AM5 patici, protoze ta ma pametovou sbernici jen 2x64 bitu a to by bylo malo i s InfinityCache. Navic u ddr5 patic je delka sbernice mezi cpu a ram mnohem delsi, nez u LPDDR5 cipu pajenych tesne k procesoru. A to omezuje maximalni dosazitelne prenosove rychlosti.

Halo tedy pujde jen do noutbuku, nebo malych pc s pajenymi procesory. Leda, ze by se amd a vyrobci desek rozhodli udelat novou kategorii hernich pc, ktera bude mit novou patici s 256 bitu sirokou sbernici pameti a bude vyuzivat vymenitelne lpddr5x pameti ve 128 bitu sirokych modulech camm2, ktere nedavno standardizoval jedec.
Odpovědět2  0
Strix Point Halo by měl mít paměť ne 2x64=128 bitů, ale 4x64=256 bitů, tak že se propustnost zvýší na dvojnásobek. A navíc by měl mít Infinity Cache, takže těch 40 CU nebude tak nepřiměřené, jak se na první pohled zdá.
Odpovědět1  0
Tak jsou k dispozici první reálná srovnání výkonu grafiky nového Intelu a Phoenixe ve hrách ­(viz odkaz dole­). V notebookcheck je srovnání toho nového Acer Swift Go 14 SFG14­-72 se starším Lenovo Yoga Slim 7 14APU G8 na Phoenixu.

Integrovaná grafika v Phoenixu vychází výrazně ­(průměr +34%, mediám +21%­) lepší, než nový Intel. Bylo testováno 7 her ­- Zaklínač 3 +28%, GTA 5 +100%, Strange Brigade +14%, Far Cry 5 +21%, Dota 2 Reborn +7%, X­-plane 11 +7%, Final Fantasy XV +60%.

https:­/­/www.notebookcheck.net­/Intel­-Meteor­-Lake­-Analysis­-Core­-Ultra­-7­-155H­-only­-convinces­-with­-GPU­-performance.783320.0.html
Odpovědět1  0
Ano tenhle test byla jen první část bez testu iGPU. Ale ten už Larabel dodělal ­(viz odkaz dole­) a byl dost nadšený. Trochu mne překvapilo, že by Intel dokázal udělat lepší grafiku než AMD, tak jsem se na ty testy podíval trochu podrobněji.

Larabel má pravdu, že proti minulé generaci Intel procesorů je ta grafika obrovský skok ve výkonu i v efektivitě a za to si Intel rozhodně zaslouží pochvalu. Ovšem tvrzení, že je grafika Intelu o 9% výkonnější, než v Phoenixu, má háček. No spíš několik háčků.

Intel grafika má 1024 jader, což je o 33% víc než Phoenix. Jádra Intelu běží na 2,25GHz, což je o dost méně než 2,7GHz Phoenixu. Ta nižší frekvence sice snižuje náskok Intel grafiky v teoretickém hrubé výkonu grafiky ­(místo 33% jen 11%­), ale zřejmě přispívá k vyšší efektivitě. Pro výkon grafiky je ovšem velmi důležitá také rychlost paměti, kterou Larabel v testu bohužel neuvádí. Právě rychlost paměti omezuje výkon iGPU ­(třeba ve hrách­) a když grafika nedostane dost dat ke zpracování, je teoretický hrubý výkon k ničemu.

Podle informací z internetu to vypadá, že Intel poslal recenzentům notebooky s LPDDR5x paměťmi s velmi vysokou propustností ­(údajně snad až 7500MHz­), která v reálně prodávaných počítačích nebývá. Ten Phoenix je v počítači Framework 13 a ten má podle specifikací maximální rychlost paměti 5600MHz. Intel procesor by za těchto okolností měl o 34% rychlejší paměť a díky LPDDR5x možná i s nižší spotřebou.

Tak a teď už k porovnání výkonů grafik obou procesorů. Když má integrovaná grafika o 11% vyšší hrubý výkon a o třetinu větší propustnost, tak se dá očekávat i vyšší výkon v aplikacích. Je otázka jestli je těch 9% převahy Intelu dobrá hodnota. Záleží na tom v jakých aplikacích. Úzké hrdlo omezující výkon aplikace totiž závisí na jejím typu. Při intenzivním zpracování malých objemů dat je limitující výpočetní výkon, u datově náročnějších aplikací rychlost paměti. Rozdělil jsem si Larabelem testované aplikace do 3 skupin ­- výpočetní benchmarky ­(9­), 3D benchmarky ­(5­) a hry ­(5­).

Výpočetní benchmarky tvoří skoro polovinu ­(9­/19­) testů a v nich iGPU Intelu naprosto exceluje. Průměrný výkon je o 32% lepší než u grafiky Phoenixu. Jde však o jednu sadu testů ­(vkpear 20230730­) a testy
se liší v parametrech ­(bity, vektor, matice­). Je tedy otázkou, zda jiné testy nedaly odlišné výsledky. Asi to však nemusíme řešit, protože pro naprostou většinu běžných uživatelů jsou výpočetní testy nezajímavé.

3D benchmarky jsou už zajímavější. Tam má Intel nad AMD převahu o 11,8%, což zhruba odpovídá přírůstku teoretického hrubého výkonu. Ale lepší 3D benchmark nutně neznamená vyšší FPS ve hrách. Navíc ty testy nejsou z nejnovějších a jsou tam i vykopávky typu Unigine Heaven. Pro Linux budou možná relevantní ­(2x Vulkan, 3x openGL­), ale pro Windows asi moc ne. Navíc u tří Unigine testů známých i z Windows převaha Intelu u novější testů klesá ­- v Unigine Heaven má 14,3%, v novější Unigine Superposition už jen 3,7%.

Tak a mále tu hry, což je to, kvůli čemu asi většina Windows uživatelů chce silnější integrovanou grafiku. V testovaných hrách byl Intel v průměru o ­-0,6% horší než Phoenix. Ale jsou to openGL hry a zřejmě nějaké jednoduché a asi i dost staré, protože na integrovaných grafikách při spotřebě procesoru kolem 25w dávají od 200 do 400 FPS. O tom, jak na těch grafikách půjdou hrát aktuální Windows hry toho asi tyhle testy mnoho neřeknou.

Když ale uvážíme jaké problémy s ovladači a výkonem mají plnotučné Intel grafiky založené na téhle architektuře s hrami pod Windows, tak bych se neodvážil tvrdit, že tahle integrovaná verze od Intelu dokáže Phoenix iGPU ve hrách nějak výrazně překonat. Čekám taky, že v nové revizi Phoenixu nebude ten AI akcelerátor jediná změna, a že aspoň trochu pořešili problémy RDNA 3, které údajně byly příčinou toho, že nedokázala naplnit očekávání ve výkonu a spotřebě. Tak uvidíme začátkem roku, až se dostanou obě verze s novými procesory do prodeje.

https:­/­/www.phoronix.com­/review­/intel­-core­-ultra­-7­-155h­-linux
Odpovědět2  0
"Podobně tak nejsou vítány např. korejské přístroje Samsungu.­"
"Úřady vyzývají své zaměstnance, aby do práce nosili jen zařízení čínských značek.­"

Nakousnuté jabko má proprietární OS, do kterého nikdo zvenku nevidí, proto je pochopitelně vnímán jako nejrizikovější. Android od Googlu je ­(do značné míry­) otevřený a auditovatelný systém. Aktualizace Androidu nedělá přímo Google, ale jednotlivý výrobci telefonů. Proto není divu, že Android od čínských výrobců je z pohledu bezpečnosti před odposlechem Američany vnímán čínskými úřady a firmami jako přijatelnější, než androidí telefony výrobců ze zemí pod přímým americkým vlivem ­(korejský Samsung­).
Odpovědět1  1
Možná by nebylo špatné to hodnocení trochu podložit argumenty ;­-­).
Odpovědět0  0
No jestli nejsi schopen pochopit ani rozdíl mezi státním úředníkem a běžným občanem, tak do diskuzí možná radši ani nepiš.

Představitelé EU si na to, že je velký bratr z Washingtonu odposlouchává možná už zvykli ­(viz aféry s odposlechy Merklové a Macrona­), ale v Číně to zřejmě za normální nepovažují. A těžko se jim divit.
Odpovědět2  0
Než začneš mluvit o pointách, tak by sis možná měl přečíst ten článek pořádně. Nejde o občany a jejich soukromí, ale o státní úředníky a nošení mobilů do práce a na jednání.
Odpovědět1  1
Není od veci porovnt čip 5G modemu, který nemá mikrofon, neví nic o kontextu přenášených dat a nemá paměť ani výpočetní výkon na analýzu dat, s iPhonem, ktery trvale poslouchá, analyzuje zvuky kolem sebe a posílá informace na servery pro lepší cílení reklam. A položit si otázku, který z nich představuje realnejsi nebezpečí úniku citlivých informací.
Odpovědět5  0
"spotrebu presne ako sa pri mobilných zariadeniach očakáva­"

To má tedy vysoká očekávání. Já bych příkon 115w od procesoru s TDP 28w neočekával. Už je jasné proč v prvnich ­"únicích­" vypadaly ty nové Intely vedle AMD s odpovídajícím TDP celkem dobře.

Vypadá to, největší pokrok Intel přinesl v poměru maximálního příkonu a jeho vylhaneho TDP. Dřív to bylo kolem 2.5 a teď už se dostává i přes 4 ­(115­/28=4.1­). Pro méně zkušené dodám, ze AMD mívá tenhle poměr jen kousek přes jednicku ­(88­/65=1.35)
Odpovědět6  0
Plne s vami souhlasim, ze kvalita nekterych diskutujicuch je opravdu hrozna a zaroven velmi ocenuji vasi schopnost sebekritiky.
Odpovědět0  0
To budeš muset počkat ještě asi tak o půl roku déle na Strix Point. Ten by měl zvýšit počet grafických jednotek o třetinu ­(12­->16­) a posunout architekturu na RDNA 3.5, což by mohlo zvýšit i takty. A doufejme, že přinese i vylepšení řadiče RAM, aby šli využít ještě rychlejší paměti. Protože reálnou rychlost graficky ve hrách hodně omezuje právě rychlost a přístupové doby pamětí.
Odpovědět0  0
Spotřeba asi bude dost záviset na tom, jak moc vysoko nastaví člověk jas. A taky jestli bude ve widlích používat světlé, nebo tmavé barevné schéma.

Acer Predator X27Ubmiipruzx, 26.5­" 2560x1440 ­(viz odkaz dole­) má max jas 1000cd­/m2, což je opravdu hodně. Jako typickou spotřebu uvádějí 71W, což na na 27 palcový monitor taky dost. Ale je to asi vysokým jasem, protože za standardních podmínek pro měření třídy spotřeby bere 35W ­(Energieverbrauch SDR 35kW­/1000h­). To sice není taky nejnižší hodnota, ale ani žádná tragedie. Takže za mne dobré, tedy až na cenu. 800 éček by se mi za monitor dávat moc nechtělo.

https:­/­/geizhals.de­/acer­-predator­-x27ubmiipruzx­-um­-hxxee­-001­-a3006723.html?hloc=at&hloc=de
Odpovědět3  0
Tak asi není co řešit. AMD jasně řeklo, ze v těch procesorech mají detekci přetaktování, ale přetaktování neznamená ztrátu záruky. Nebudou uznány jen závady vzniklé v důsledku přetaktování, ale pro ostatní závady se záruka nemění. Takže treba odpálení vyšším napajecim napětím má člověk ­(celkem pochopitelně­) smůlu, ale třeba výrobní vady jsou kryty zárukou bez ohledu na taktování.

https:­/­/www.tomshardware.com­/pc­-components­/cpus­/amd­-says­-overclocking­-blows­-hidden­-fuses­-on­-ryzen­-threadripper­-7000­-to­-show­-if­-youve­-overclocked­-but­-it­-wont­-automatically­-void­-your­-cpus­-warranty
Odpovědět0  1
To odtud potud byla dobrá a inspirativní myšlenka. Protože není reklamace jako reklamace.

Když bude člověk reklamovat to, ze procesor přetaktovány mimo standardní parametry nepracuje stabilně a padá, tak téměř jiste neuspěje.

Pokud ale zapne přetaktování v mezích zpřístupněných výrobcem a to by zpusobilo poškození procesoru natolik, ze by už nebyl schopen pracovat ani při standardním nastavení, tak by to důvod k reklamaci být mohl.
Odpovědět1  0
Tohle jsou jen nejake podminky, na ktere mozna amd odkazuje ve smlouvach s vyrobci pocitacu a jinymi velkoodberateli. Ale rozhodne to neni zarucni list.

Zarucni list by musel byt prilozen v tistene podobe a v jazyce mista prodeje primo k vyrobku tak, aby se s nim mohl kazdy kupujici pred pouzitim snadno seznamit. Pokud by v nem bylo neprehlednutekne uvedeno, jake uziti porusuje zaruku, tak by pri nezpochybnitelnem prokazani toho nespravneho uziti mohl prodejce zkusit doufat, ze by pripadny spor mozna neprohral.

Ale pokud se procesor prodava s odemcenym nasobicem, tak by stejne temer jiste s odmitnutim zaruky kvuli pretaktovani ve sporu neuspel. Tim spis, ze se prodavaji i procesory, ktere taktovat nejdou. U tech by ­(prokazany­) pokus o taktovani vedouci k poskozeni uz duvodem odmitnuti zaruky byt mohl.

Vzhledem k jednotne a plosne uplatnovane EU legislative uz dneska vetsina firem zadne zarucni listy, ani vyluky do beznych vyrobku nedava, protoze vedi, ze jim to neni moc platne a zbytecne by to zvysovalo naklady. Nekteri prodejci zkouseji odnitnout reklamaci s poukazem na nespravne nebo neprimerene uziti a doufaji, ze to zakaznik prijme. Ale vetsina a hlavne ti vetsi obvykle problemy nedelaji, protoze vedi, ze se jim to nevyplati.
Odpovědět2  0
Zajímavější otázka je, jestli někdy někdo viděl a četl záruční list procesoru. Normálně se záruka na zboží neřeší a vychází se z běžné právní úpravy. Nanejvýš se u některého zboží uvádějí výluky, ale je otázka, nakolik by v případě reálného sporu s výlukami výrobce uspěl.

U běžného zboží se řeší reklamace výměnou bez nějakého prokazování, protože administrativní náklady složitějšího systému by byly nejspíš větší, než přínosy z neuznání reklamace. Větší cvičení bývá jen u výrazně dražšího zboží, jako jsou třeba auta. Normální procesory jsou velkoobjemová spotřebka, ty Threadrippery jsou sice dražší a počty prodejů jsou výrazně menší, ale zase je nekupují BFU a tak je riziko poškození taktováním výrazně menší.
Odpovědět3  0
No nevím, ona realita zřejmě nebude tak černobílá, jak to vypadá z titulku článku.

Oba zdroje tohohle tvrzení vycházejí pouze z hlášek, které se vypisují v BIOSu při vstupu do nabídky pro přetaktování. A SkatterBencher dokonce naférovku přiznává, že k dané věci nemá žádné stanovisko od AMD. Tyhle hlášky a potvrzování mají za úkol odradit lidi, zvlášť ty neznalé, od diletantských pokusů o přetaktování, ale jejich reálná právní váha moc velká nebude. Má to víc důvodů.

Nejpodstatnější je ten, že už velmi dlouho obsahují procesory spousty diagnostických a ochranných obvodů, které řídí jejich fungování a omezují možnost přehřátí provozem v nebezpečných režimech. Možnost poškození, nebo zničení přetaktováním je tedy spíš jen hypotetická. S jednou výjimkou. Když pustíte do procesoru příliš vysoké napájecí napětí, tak s tím ochranné obvody procesoru nemají šanci nic udělat. Tohle je ale zodpovědnost výrobce desky, který by měl detekovat procesor a omezit možnost nastavení napájecího napětí.

Snad jediný známější případ zničení procesorů běžným přetaktováním byly ryzeny s 3D mezipamětí ­(cache­), do kterých při přetaktování pamětí někteří výrobci desek pustili stejné Vsoc napětí, jako do běžných Ryzenů. Jenže 3D čip potřebují napětí o něco nižší a některé tak vysoké napětí nezvládly a došlo ke zničení procesoru.

Dost pochybně působí i tvrzení nějaké trvale přepsané hodnotě prokazující přetaktování a rušící záruku. Tohle tvrzení vychází jen z textu, který výrobce vypíše při vstupu na stránky BIOSu pro přetaktování. Ne, že by nějaký takový registr nebylo technicky možné takhle udělat. Ale vstup na stránku přetaktování není důkazem, že došlo opravdu k přetaktování. Kdyby došlo skutečně na nějaký právní spor, tak by takový důkaz přetaktování asi neobstál.

Vzhledem k velmi malému podílu lidí, kteří taktují procesory a taky mizivému riziku poškození přetaktováním, dost pochybuji, že by výrobci procesoru stálo za to řešit nějaký mechanismus detekce přetaktování a riskovat spory i ztrátu reputace z odmítnutí záruky. Spíš ty hlášky v BIOSu vidím jako snahu výrobců desek snížit riziko, že se do přetaktování budou pouštět neznalí uživatelé. A možná i pokus se vyzout ze zodpovědnosti pro případ, že by jim zase něco uteklo, jako to Vsoc napětí u 3D ryzenů.
Odpovědět7  0
Palec nahoru. Tohle je opravdu skvělý článek :­-­).
Odpovědět8  0
No nevím, 30 dolarů je 690 korun, což asi není takový rozdíl, aby to někomu stálo za horší vlastnosti a riziko problémů s Intel ovladači.

Navíc ta vyšší spotřeba cenovou výhodu dost rychle odmazává. Zkusil jsem z dat TechPowerUp spočítat rozdíl ve spotřebě a580 a rx6600. Při průměrném využití 2h klidu ­(+40W­), 1 videa ­(+39W­) a 1 h hraní s V­-sync na 60 FPS ­(+81W­) denně, tak při ceně kWh 4,60 Kč bude rozdíl spotřeby stát 335 Kč ročně. A pro vášnivější hráče ­(3h denně­) se cenový rozdíl za 1 rok užívání smázne téměř celý ­(608 kč­).
Odpovědět2  0
Asi se najdou i blázni, co si to koupí, protože jsou buď zvědaví, nebo hloupí. Ale člověk s mozkem v hlavě do toho nepůjde. Cena není o moc lepší, než mají odpovídající karty od AMD ­(rx6600, rx7600­), ale výkon i spotřeba jsou výrazně horší. Zvlášť spotřeba v klidu, která je brutálních 42W proti 2W u té 6600. A o kvalitě a stabilitě ovladačů bude asi lepší pomlčet.

Doporučuji se podívat na nějaké testy, třeba viz TechPowerUp ­(TPU­) v odkazu dole. I ve srovnání se starou rx5700xt je ta A580 velká bída. Ta 5700xt má průměrný výkon o 9% vyšší a průměrnou spotřebu na fps má o 8% nižší, než A580. V grafu spotřeby na fpu od TPU to sice vypadá, že A580 lepší, ale není to pravda. V tom grafu efektivity totiž nejsou průměry za všechny testované hry, ale jen hodnoty za CyberPunk 2077. Těžko říct, proč to hoši z TPU takhle udělali. Možná proto, aby nebyla A580 tak tragická úplně ve všech grafech.

https:­/­/www.techpowerup.com­/review­/sparkle­-arc­-a580­-orc/
Odpovědět1  0
Říkal jsem si, jak to může ušetřit 60% prostoru, když je to skoro stejně velké, jako SO­-DIMM. A taky kde to má vlastně konektor.

Tak jsem trochu pátral a hned je vše jasnější ­(viz odkaz dole­). Tenhle modul nemá šířku 64 bitů, ale 128 bitů. Jedním modulem se budou tedy vždy obsazovat zároveň 2 nynější 64 bitové kanaly. Nepůjde tedy udělat jen jednokanálové osazeni paměti. Je ale otázka jestli půjde udělat rozšiřování paměti jinak, než výměnou modulu za jiný.

Modul má kontaktní plošky ­"konektoru­" přímo pod paměťovými čipy a je tedy řešen podobně jako patice soucasnych bezpinovych procesoru. Je to vlastně rozebíratelná náhrada nyní pájených lpddr paměti. Jejich výhoda je umístění těsně vedle procesoru a připojení velmi krátkými vodiči, což umožňuje vysoké kmitočty i při nižší spotřebě.

Je ale otázka, jestli pujde udělat řešení pro dva moduly umožňující dodatečně rozšíření paměti doplněním dalšího modulu. Hádám, ze spis ne, protože by to prodloužilo vodiče, zvýšilo jejich parazitní kapacity a snížilo rychlosti. Ale asi by s těmi novými moduly šlo udělat snadněji ctyrkanalovou paměť se šířkou 256 bitů, jakou bude mít chystané APU starlak od AMD. A to by umožnilo výrazně zvýšit výkon integrovaných grafik při zachování možnosti dodatečného zvýšení kapacity paměti

https:­/­/www.anandtech.com­/show­/21069­/modular­-lpddr­-becomes­-a­-reality­-samsung­-introduces­-lpcamm­-memory­-modules
Odpovědět1  0
Možná sis toho nevšimnul, ale ptal jsem se na to, na základě jakých úvah a zdrojů jsi dospěl k názoru, že se zapnutím SMT sníží výkon jádra na polovinu. Oceňuji, že jsi tu polovinu navýšil o polovinu %­-ního přírůstku maximálního výkonu procesoru po zapnutí SMT, ale ani tak asi nelze zdůvodnění slovem ­"samozřejmě­" považovat za zdůvodnění.

Taky jsem se ptal, proč je zvýšení maximálního výkonu CPU v důsledku zapnutí SMT o 27% rozporuplné a jaký přírůstek by byl podle tebe nerozporuplný.
Odpovědět1  0
Bylo by mozne nejak vic popsat myslenkove pochody vedoyci k tvrzeni, ze SMT snizuje ST vykon jadra na polovinu ? A pokud mozno to dolozit odkazy na nejake zdroje a nejlepe i testy, ktere to prokazuji?

A bylo by asi i dobre rict, jaky prirustek vykonu diky SMT by byl nerozpiruplny a proc je +27% rozporuplnych.
Odpovědět1  0
To budes asi pracovat u MS ve vyvoji konzoli, nebo ve vrcholocem vedeni firmy, kdyz vis, ze uz je rozhodnuto, ze prisi XBox bude postaven na Armu64.

A muzes nam prozradit i to, kdo to uzasne APU s armem a vykonnou grafikou pro vas bude navrhovat a vyrabet?
Odpovědět1  0
Chápu, že takhle může řada lidí ten článek ve vztahu k Intelu a SMT pochopit, a to je to, co mi na něm vadí.

Reálně je ale jinak. U toho Intelu SMT zvyšuje maximální výkon o téměř 19%, což je asi 4x větší přírůstek, než jaký přinášely nové generace Intel procesorů ještě před pár lety, když bylo AMD v háji a Intel tedy neměl konkurenci. A zároveň zapnutí SMT aspoň trochu zachraňuje mizernou efektivitu toho Intel procesoru. Bez zapnutí SMT by totiž byla ještě o 15% horší. Není to tedy tak, že Intel má zázračnou technologii, která přidává výkon zadarmo, ale je to právě naopak. Vypnutí SMT sníží výkon, ale nepřinese žádnou úsporu spotřeby. Což je jednoznačně konstrukční problém.

AMD má implementaci SMT zjevně lepší, protože zapnutí přidá téměř 27% výkonu. Přitom spotřeba stoupne úměrně výkonu, což je celkem očekávané, standardní chování.
Odpovědět4  0
Ano, uznávám, že jsem se s tím pliváním nechal trochu unést :­-­( a omlouvám se za to. Nějak mne rozpálila ta nesmyslná interpretace výsledků. A nejde o nějaké fandovství, jak tvrdí Son_of_the:_bit, ale o technickou podstatu problému.

Normální režim u procesorů se SMT je s aktivním SMT a nemá smysl ho vypínat. Až na výjimky, kdy OS místo přednostního zaplňování volných fyzických jader posílá v nevytíženém procesoru úlohy na virtuální jádra. Problém je to hlavně u jednojádrově náročných procesů, jako jsou třeba špatně optimalizované hry, které nevyužijí celkový výkon CPU. A i v takových případech je to jen berlička na dobu, než výrobce procesoru s autory OS vyřeší korektní fungování plánovače procesů.

U procesorů se SMT má tedy smysl právě opačný pohled, než je ten prezentovaný v článku. Podstatné je, kolik ztratím z maximálního výkonu, když vypnu SMT, a jestli tím případně něco získám na snížení spotřeby. U Ryzenu se vypnutím SMT sníží maximální výkon a úměrně tomu i spotřeba, což je celkem očekávané a korektní chování. Ale SMT nemá smysl vypínat, protože zpracování výpočetně náročné úlohy spotřebuje stejné množství energie a bude trvat zbytečně déle.

U toho Intelu dojde vypnutím SMT taky ke snížení výkonu, ale spotřeba se téměř nezmění a efektivita procesoru tedy klesne. Což je poněkud překvapivé chování a nedává konstruktérům Intelu zrovna dobré vysvědčení. Vypínání SMT u Intelu je tedy nesmysl nejen z pohledu výkonu a času zpracování, ale i z pohledu spotřeby.

Mimochodem SMT není žádná technologie AMD, ale obecné označení pro mechanismus umožňující lepší využití zdrojů jádra, tím že se navenek jádro tváří jako více jader a ta další virtuální jádra využívá zdroje, které zrovna nejsou vytížena zpracováním požadavků prvního jádra ­(viz odkaz dole­). HT je ­(v podstatě marketingové­) označení implementací SMT v procesorech Intel. Koncept SMT byl prvně implementován roku 1968 v počítačích IBM, tedy dávno před vznikem x86 procesorů.

Tvrzení, že je SMT na ústupu, se mi zdá dost odvážné. Zrovna výsledky v článku zmíněných testů ukazují, jak užitečný ten koncept je. U Ryzenu získáte přidáním trochy křemíku čtvrtinu výkonu navíc. U Intelu získáte 18% výkonu a ještě o něco zlepšíte jeho mizernou efektivitu. Nejsem konstruktér CPU, ani jsem to nějak moc nestudoval, ale troufnu si odhadnout, že ­(ne­)užitečnost SMT bude záviset na celkové koncepci procesoru. U jednoduchých jader typu ARM ­(RISC­), která jsou na úrovni paralelismu vykonávání ­(jednoduchých­) instrukcí schopna vytížit většinu zdrojů, které má jádro k dispozici, zavedení SMT asi moc smysl nedává. U x86 jader, která mají zřejmě různorodější instrukční soubor i zdroje, SMT zjevně smysl dává.

To že Intel do svých malých jader SMT nedává a u velkých je někde vypíná, podle mne neukazuje slabost SMT konceptu, ale spíš konstrukční slabost ­(a obchodní sílu­) Intelu. Podle zveřejněných testů nejsou malá jádra efektivnější ­(výkon­/spotřeba­), ale zabírají méně křemíku. Už si nepamatuji, jak vychází porovnání P a E jader Intelu z pohledu výkon­/plocha křemíku, ale myslím, že to nebylo to, co Intel trápilo nejvíc.

Když AMD začalo procesorům přidávat jádra a díky čipletům jich tam mohlo dát opravdu hodně, měl Intel velký problém. Při nižší kvalitě svých výrobních procesů a velikosti jader nedokázal do svých monolitů dostat stejný počet jader při rozumné výtěžnosti. A naprostá většina uživatelů se při koupi nerozhoduje podle výkonů v testech, ale podle jednoduchých čísel ve specifikacích, jako je třeba právě počet jader. Tak místo velkých jader se SMT začali dělat ty malá, kterých se vejde víc. Když se ukázalo, že Windows, jako majoritní x86 operační systém, i některé aplikace mají s různorodostí jader problém, začal to Intel řešit vypínáním toho, co mají velká jádra navíc. Ale nejsem si jist jestli i SMT patří do téhle kategorie. Intel SMT u svých procesorů vypínal odjakživa, protože tím rozšiřoval nabídku a nutil lidi, aby mu za SMT připlatili.

https:­/­/sk.wikipedia.org­/wiki­/Simult%C3%A1nny_multithreading
Odpovědět3  0
To byl buď hodně špatný den, nebo opravdu mistrovský kousek procentové demagogie.

Intel žere jak tank i bez zátěže, protože zřejmě nevypíná momentálně nevyužívané zdvojené bloky výpočetních jáder. Po jejich zatížení se tedy jejich spotřeba nijak zásadně nezvýší. Tak ho pochválíme, že mu se zátěží neroste spotřeba.

AMD má zjevně podstatně vyladěnější procesor, nepoužívané obvody podle všeho důsledně vypíná a má tedy poloviční spotřebu, než Intel. Když se zvýší zátěž, tak se bloky zapnou a spotřebovávají víc energie. Absolutní nárůst je tedy vyšší, než u Intelu, a ještě se poměřuje k polovičnímu základu. Stejný absolutní přírůstek tedy dá 2x vyšší procentní nárůst a proto je potřeba lepší procesor důkladně poplivat. A nejlíp hned v titulku, aby ti méně chápaví nezačali přemýšlet, jaká je vlastně pravda. To je opravdu demagogický majststrštyk.
Odpovědět6  0
Třeba jen mají ­(asi celkem oprávněný­) pocit, že když někdo udělá něco, co mohou jiní využít, měl by za to od nich dostat zaplaceno. Ale moc nepřemýšleli o skutečné podstatě problému a souvislostech. Takové zkratkovité uvažování je celkem běžné.
Odpovědět0  0
A pak do toho v rámci nenažranosti začnou počítat i instalace aktualizací.
Odpovědět0  0
Jakpak se asi v účetnictví projeví rozdíl mezi 2,5 miliardami v tržní ceně jeho akcií a 0,25 miliardy, za které je od firmy ­"koupil­" nejspíš ve formě ­"virtuální­" části výplaty ?
Odpovědět0  0
A jaké že to úžasné grafiky Apple dělá ;­­-­­) ?
Odpovědět0  0
Když ono to vypadá tak nějak světověji ;­-­). Stejně jako splashdown místo trapné českého přistání :­-O.
Odpovědět0  0
Musím uznat, že ta kvalita grafického provedení na ukázkách je úžasná. Pokud tam bude i nějaký zajímavý příběh a ne jen bezduchá střílečka, tak ta hra, myslím, může stát za hřích :­-­).
Odpovědět0  0
Myslim, ze by bylo dobre nemotat mene zkusenym hlavu pouzivanim Intelskych nazvu P­-jadro a E­-jadro v souvislosti s AMD procesory.

Kdyby to napsal nekdo z casopisu Vlasta, tak by se to asi dalo odpustit, ale u autora odborneho serveru, ktery navic spravne oznaceni zen5 a zen5c zna, to pusobi ponekud diletantsky. Pokud je cilem vyjasnit to, ze zen5c nedosahuje tak vysokych taktu, je lepsi psat obecneji o pomalejsim, nebo slabsim jadru, ale rozhodne ne o E­-jadru, protoze Intel a AMD reseni jsou zcela odlisna.

Pouzivani tehle paralely muze nekoho svadet k porovnavani procesoru podle poctu silnejsich a slabsich jader. Jenze na rozdil od E­-jader s jedinym vlaknem, oklestenou instrukcni sadou a nizsim IPC, je zen5c plnohodnotne jadro s 2 vlakny a stejnym IPC jako ma zen5. Ma jen mensi mezipamet ­(cache­) a nizsi maximalni takty.

Nizsi maximalni takty zen5c dokonce ani nemuseji znamenat vyznamne nizsi vykon, protoze v plne zatezi nejsou ani ta vykonejsi zen5 jadra schopna bezet na maximalni takty.

Ta vykonejsi zen5 jadra se budou nepochybne hlasit systemu jako preferovana jadra. A protoze tenhle koncept je tu uz par let a dokonce i planovac windows ho zvlada, nemel by byt s vyuzitim plneho potencialu procesoru zadny problem.

Naproti tomu u E­-jader od Intelu maji planovac s aplikace mnohem tezsi praci, protoze nestaci jen zaplnovat jadra a vlakna podle jejich vykonu. Museji navic resit i to, jakou verzi, nebo cast kodu na ktere jadro poslat, protoze se jejich instrukcni sady lisi. Nebo degradovat instrukcni sadu a tedy i vykon P­-jader tim, ze aplikace nebude nikde pouzivat instrukce, ktere E­-jadro nezvladne.



Odpovědět0  0
Měl bych trochu uštěpačně říct, že o 12% horší výkon nového procesoru mi nepřijde jako stejný výsledek. Ale zkusím být serióznější.

Zdá se mi, že Intel kosmeticky zvednul limit turba, aby dal neznalým lidem pocit, že nová 14600KF je lepší, a tak měli důvod ji koupit, i když bude téměř jistě dražší. To 200MHz je ale zvýšení jen o 4% a nárůst reálného výkonu ­(za jinak stejných podmínek­) bude určitě menší, než ta 4%. Navíc se téměř jistě projeví jen v jednojádrových syntetických testech a na reálný výkon nebude mít znatelný vliv.

Z porovnání výsledků v GreekBench v mém předchozím komentáři je vidět, že v některém z testů se ta nová 14600KF sice dostala na svůj maximální kmitočet 5300MHz, ale celkové skóre bylo stejně výrazně nižší, než u předchůdce 13600KF, který maximum jen 5100MHz. Ale to nižší maximum nemělo negativní dopad na výsledek. Reálné aplikace zřejmě běžely na maximálním kmitočtu jen velmi krátce. Pro výsledný výkon je podstatnější průměrný kmitočet. A ten závisí na konfiguraci počítače a hlavně na nastavení limitu pro příkon procesoru.
Odpovědět0  0
Zkusil jsem se kouknout na jakých taktech běžel ten 14600KF a na jakých ten 13600KF s vyšším MT skóre. Kromě základního taktu se ve výsledcích uvádí jen maximální takt a není vůbec jasné za jakých okolností to maximum nastává. Něco jako ­"průměrný­" takt ve výsledcích není, ale i tak vypadají ta čísla zajímavě.

14600KF ­- max. takt 5300 MHz ­- skóre 17190
13600KF ­- max. takt 5100 MHz ­- skóre 19392

Ve světle těchto čísel ten 14600KF jako velká hvězda rozhodně nevypadá.

https:­/­/browser.geekbench.com­/v6­/cpu­/2198335
https:­/­/browser.geekbench.com­/v6­/cpu­/2201230

Odpovědět1  0
Mozna jsem trochu podezrivavy, ale kdyz vidim, ze stejny, jen o 4% vyse taktovany, procesor dosahuje o 17% vysiho vykonu, nemuze mne nenapadnout, ze tu neco smrdi. Nejdriv jsem si rekl, zda nejsou ty vysledky mereny jinou verzi testu. A vzapeti, jestlipak GreekBench neni tim povestnym testem, ktery Intel nechava ohybat tak, aby vychazel vzdy nejlip. Ale neni, to je pry UserBenchmark ­(viz odkaz dole­).

Nema vsak smysl spekulovat, je lepsi jit po zdrojich. SvetHardvare a pana Surkalu musim pochvalit, protoze pod clanky davaji odkazy na zdroje. Jen bych se mozna nebal zdroj uvadet i v textu, treba kdyz pouzivam cisla, ktera jsem si neoveril, ale prevzal. Pak nehrozi, ze si clovek zbytecne zkazi povest, kdyz autor zdroje neco odflakne, nebo zkazi.

Sel jsem tedy po zdrojich. Zdejsi clanek vychazi z textu na wccftech.com a ten odkazuje prispevek od nejakeho Benchleaks na Twitteru. Ten na Twitter dal jen zakladni info o cpu a vysledky mereni toho i5­-14600KF vcetne odkazu na stranku mereni. A srovnani s vysledky ostatnich procesoru a komentare pridal Hassan Mujtaba z wccftech.com, od ktereho je prevzal pan Surkala. Pokracoval jsem tedy na web s vysledky GreekBench, abych se podival aspon na vysledky toho i5­-13600KF, se kterym se ta nova i5 srovnava.

A mam pro priznivce Intelu skvelou zpravu. Oba vyse uvedeni autori se myli ­(zatracene, jeden by ani neveril, jak jsou carky dulezite :­-­) ­). Novy procesor neni v MT testech lepsi nez predchudce o 17%, ale o celych 51%. Ale zaroven mam pro priznivce Intelu i spatnou zpravu. Novy procesor neni v MT testech lepsi nez predchudce o 17%, ale je naopak o 12% horsi.

To preci neni mozne, rekne si nekdo. Staci se vsak podivat na prvni stranku s vysledky pro i5­-13600KF ­(viz odkaz dole­). Tam v sloupci MT hodnot najdete nejmensi cislo 11366 a nejvyssi 19392 a tem odpovidaji ty dve protichudne hodnoty zmeny vykonu proti predchudci.

Jak muze vzniknout tak obrovsky rozptyl vykonu? Castecne za to mozna muze to, ze GreekBench neni jeden test vytvoreny pro mereni jen samotneho procesoru. Je to balik aplikacnich testu z ruznych oblasti a vysledek muze ovlivnit konfigurace pocitace, pameti ­(rychlost, casovani, pocet osazenych kanalu­) a disku ­(ssd­/hdd, zaplnenost,..­).

Ale hlavnim zdrojem rozdilu bude ­(nej­)spis to, ze Intel uz radu let lze o spotrebe svych procesoru a uvadi mnohem nizsi TDP, nez odpovida realite. A podporuje vyrobce desek v tom, aby misto deklarovaneho TDP nechali trvale jet procesor klidne i na 2­-3x vyssim prikonu. Neni tedy divu, ze v zavislosti na nastaveni limitu prikonu, nebo dokonce jejich vypnuti se vysledky testu lisi v tak obrovskem rozpeti.

Predpokladam, ze cisla z prvnich uniku pochazeji od lidi, kteri vedi co delaji a rozhodne nedrzi procesor na deklarovanem TDP. Ani bych se nedivil, kdyby pochazely od intelskeho marketingu, ktery ma zajem vyvolat zajem. Ty nyni zverejnene vysledky tedy budo patrit spis k tem lepsim a za stejnych podminek bude mezi procesory realne rozdil mensi, nez odpovida zvyseni turba.

Udelal jsem si z uvedeneho zaver, ze nema zadny smysl pouzivat cisla z databazi techto testu pro porovnavani vykonu a tedy ani cist clanky o takovych unicich. A zvlast to nema snysl u Intel procesoru, kde neni vubec jiste s jakym nastavenim limitu bezi. Porovnani vykonu procesoru ma smysl delat jen v pokud mozno stejnem pocitaci a se stejnym nastavenim napajecich limitu.

https:­/­/www.gizmosphere.org­/stop­-using­-userbenchmark­/
https:­/­/browser.geekbench.com­/search?q=13600kf
Odpovědět7  0
Ano, GRE prý znamená Golden Rabbit Edition a je to pojmenování pro čínský trh. V Číně se roky pojmenovávají po zvířatech a ten aktuální se jmenuje rok králíka. GME je tady zlatá výroční edice, na což se v Číně nejspíš slyší.

Podobně AMD vydalo v roce 2020 RX 590 GME ­(Golden Mouse Edition­), protože to byl rok myši. To ale byla už trochu obstarožní novinka, protože RX 590 byla uvedena na trh už v listopadu 2018.

Tak uvidíme, jak to bude s touhle kartou, a jestli bude pod tímhle označením dostupná celosvětově. Pokud ji budou dávat jen do sestav, tak možná ano, protože zákazníci, kteří je kupují asi označení grafiky moc neřeší.
Odpovědět1  0
Zatu u Intelu museji byt dost smutni.
Odpovědět3  0
To, ze nemluvis jen o tom, co uz mas hotove a dokonale funkcni, ale crtas smele vize, abys nalakal investory, neni nic neobvykleho. V americke Kremikovem Dolicku na to maji i zabehanou frazi ­"fejk it, antil mejk it­" ;­-­).
Odpovědět2  0
Jo, jo, to je nepochybné. Ale nezapomeň to vysvětlit všem těm, co tady vykřikují, že FullHd ­(1920x1080­) je pravěk, karty, na kterých nejeda hra aspoň 120 fps jsou sračky, hry používající FSR jsou rozmazaný hnus a bez nVidia Reflexu se nedá hrát, protože zásadně zlepšuje odezvu.

Pokud bys v Geforce Now hrál ve FullHd při 60Hz byl by datový tok obrazových dat 360MB­/s, což je 2,8Gb­/s. A doba odezvy musí být do 1 ms, aby moc nezvyšovala tu teoretickou odezvu 16,7 ms odpovídající rychlosti 60 fps. A pak se podívej, jakou máš nejnižší rychlost a nejhorší odezvu na nějaký zatíženější server ­(třeba google.com­). A nezapomeň, že bude chtít hrát třeba ještě pár sousedů, se kterými budeš sdílet připojení k tomu Geforce Now.

A neříkej jim, že to vyřeší komprese obrazu, protože pro tu výslednou kvalitu by pak nepotřebovali svou 4090­-ku, ale bohatě by jim stačila iGPU z každého Intelu.
Odpovědět0  0
Zaujala mne níže uvedená myšlenka Son_of_the_bit, že Intel by jako odvetu mohl tlačit na partnery, aby nepoužívali ve svých počítačích grafiky nVidie. Je otázka, jestli má na výrobce notesů větší páky Intel, nebo nVidie.

Při poklesu prodejů a růstu kapacity výroby u TSMC pozice Intelu jako dodavatele CPU oslabuje. Intel velmi výrazně ztrácí podíl v nejvýnosnější oblasti serverů a snaží se udržet objem příjmů aspoň v noteboocích, které tvoří asi 80% prodejů hotových počítačů. Že je to pro něj důležité ukazuje i to , že koncem loňského roku ve snaze vylepšit výsledky natlačil výrobcům do skladů spoustu svých procesorů.

Celkově jsou prodeje hotových počítačů dost bída. A počet lidí, kteří si pořád myslí, že nejlepší jsou procesory od Intelu zřejmě klesá. A kdyby Intel začal tlačit do notebooků navíc i ty své nic moc grafiky, tak to prodeje asi nepodpoří. Je tedy otázka, jestli si vůbec může dovolit nějaké velké tlačení na výrobce. Mohlo by se totiž stát, že by se i někteří další, podobně jako Asus, začali přiklánět víc k AMD procesorům.

Zkusil jsem si podle dat z německého srovnávače Geizhals udělat přehled o nabídce AMD notebooků jednotlivých výrobců. Beru typy s novými procesory ­(od začátku 2022­) výrobci jsou řazeni podle celkového počtu modelů s prcesory AMD a Intel. Je jasné, že počet modelů neodráží objemy prodejů, ale lepší informace bohužel není.

výrobce AMD z modelů celkem
Lenovo 34,1% z 863
HP _ 33,7% z 726
Acer 16,5% z 309
Asus 38,9% z 306
Dell _ 4,9% z 226
MSI _ 0,0% z 147

To že je Asus velkým partnerem AMD se asi obecně ví, ale překvapil mne velký podíl AMD modelů u Lenova a HP.
Odpovědět1  0