Dohledával jsem nějaké použitelné a názorné experimentální výsledky (viz odkaz dole). U žebrovaného pasivního čistě hliníkového chladiče dokázalo jeho pokrytí grafenem snížit ustálenou teplotu ze 74C na 67C, což je zhruba o 10%. To určitě není nula nula prd.
Ale bude hodně záležet na tloušťce a způsobu provedení vrstvy. Je ale otázka, o kolik by teplotu snížil černý elox chladiče, a taky, na kolik přijde pokrytí tak složitého tvaru optimální vrstvou grafenu.
Odkaz: https://aip.scitation.org/doi/10.1063/1.4984028
Ale bude hodně záležet na tloušťce a způsobu provedení vrstvy. Je ale otázka, o kolik by teplotu snížil černý elox chladiče, a taky, na kolik přijde pokrytí tak složitého tvaru optimální vrstvou grafenu.
Odkaz: https://aip.scitation.org/doi/10.1063/1.4984028
Odpovědět0 0
Nejlepší, co se dá pro udržení nízké teploty udělat, je nevyrábět zbytečné teplo :-). Problémem není teplota, ale teplo, které se musí odvést. Obecně platí, že je (z provozního hlediska) úplný nesmysl tlačit věci na hranice jejich možností.
Pokud se budeme bavit o procesorech, tak tam reálně není s teplotami vůbec žádný problém. Dokonce ani u Intelu, který je dneska technologicky dost za AMDéčkem a musí své procesory tlačit opravdu na jejich meze, aby se mohl výkonově aspoň trochu srovnávat. Ty obludné spotřeby a teploty má ale jen při zátěžových testech,. V běžném provozu, kdy procesor funguje na pár procent výkonu, žádný problém s teplotou není.
Teploty jsou pro některé dalším prostředkem k poměřování pindíků, ale jejich velikost nemá (téměř) žádný praktický význam. Nedají se porovnávat ani mezi různými generacemi procesorů jednoho výrobce, natož mezi výrobci. Záleží totiž na tom co a jak se reálně měří a pak co se posílá z diagnostiky ven.
Dřív jedna dioda měřila celkovou teplotu čipu, nebo dokonce na desce pod procesorem, ale dneska jsou v každém důležitém místě, kde vzniká teplo, měří vývoj skutečných lokálních teplot a ne až to, co se nasbírá jako průměr za celý čip. Ty lokální teploty se mění velmi rychle a jsou podstatně vyšší, než celková teplota čipu. Používají se pro optimalizaci chování čipu a díky jejich rychlé reakci není nutné nechávat velké zbytečně rezervy a dá se tak z čipu bez rizika poškození dostat mnohem vyšší výkon.
A pak záleží, jakou teplotu procesor zveřejní. Jestli nejvyšší hodnotu ze všech snímačů, anebo nějaký průměr teplot z jedné, nebo i více diod. v každém případě normálního člověka ty teploty nemusí moc zajímat. Regulace udržuje teploty na dlouhodobě udržitelné hodnotě a na nebezpečné teploty se s výjimkou extrémního taktování nemá šanci dostat. Při přílišném zahřátí jednoho jádra se přehodí zátěž na jiné a k omezení výkonu dojde, až když stoupne teplota všech jader. A pokud někdo opravdu kriticky potřebuje dlouhodobě vysoký výkon, dá výkonnější chladič, podvoltuje procesor, nebo si koupí procesor s více jádry a tedy i s vyšším výkonem.
Pokud se budeme bavit o procesorech, tak tam reálně není s teplotami vůbec žádný problém. Dokonce ani u Intelu, který je dneska technologicky dost za AMDéčkem a musí své procesory tlačit opravdu na jejich meze, aby se mohl výkonově aspoň trochu srovnávat. Ty obludné spotřeby a teploty má ale jen při zátěžových testech,. V běžném provozu, kdy procesor funguje na pár procent výkonu, žádný problém s teplotou není.
Teploty jsou pro některé dalším prostředkem k poměřování pindíků, ale jejich velikost nemá (téměř) žádný praktický význam. Nedají se porovnávat ani mezi různými generacemi procesorů jednoho výrobce, natož mezi výrobci. Záleží totiž na tom co a jak se reálně měří a pak co se posílá z diagnostiky ven.
Dřív jedna dioda měřila celkovou teplotu čipu, nebo dokonce na desce pod procesorem, ale dneska jsou v každém důležitém místě, kde vzniká teplo, měří vývoj skutečných lokálních teplot a ne až to, co se nasbírá jako průměr za celý čip. Ty lokální teploty se mění velmi rychle a jsou podstatně vyšší, než celková teplota čipu. Používají se pro optimalizaci chování čipu a díky jejich rychlé reakci není nutné nechávat velké zbytečně rezervy a dá se tak z čipu bez rizika poškození dostat mnohem vyšší výkon.
A pak záleží, jakou teplotu procesor zveřejní. Jestli nejvyšší hodnotu ze všech snímačů, anebo nějaký průměr teplot z jedné, nebo i více diod. v každém případě normálního člověka ty teploty nemusí moc zajímat. Regulace udržuje teploty na dlouhodobě udržitelné hodnotě a na nebezpečné teploty se s výjimkou extrémního taktování nemá šanci dostat. Při přílišném zahřátí jednoho jádra se přehodí zátěž na jiné a k omezení výkonu dojde, až když stoupne teplota všech jader. A pokud někdo opravdu kriticky potřebuje dlouhodobě vysoký výkon, dá výkonnější chladič, podvoltuje procesor, nebo si koupí procesor s více jádry a tedy i s vyšším výkonem.
Odpovědět2 0
Rychlost bezneho pc vetsinou omezuji jine brzdy, nez rychlost pcie sbernic. A u grafiky pri hrani to plati jeste vic. Rychlost sbernice se uplatni jen, pokud je clovek idiot, ktery honi minilalistickou kartu s malou pameti a se sbernici s par pcie linkami na prilis vysoke rozliseni a detaily.
Aspon trochu slusne napsana hra se snazi nacist vsechna potrebna data do pameti grafiky pred spustenim hry, nebo jeji casti tak, aby bylo v dobe, kdy jsou data potreba, vsechno uz v pameti.
Rychlejsi sbernice by teoreticky mohla zrychlit nacitani hry, ale 1 linka pcie 4.0 ma rychlost 2GB/s. Pri 16 linkach je propustnost 32GB/s a 8GB pamet by mela jit zcela zaplnit za 250ms. Takze tady asi uzke hrdlo nebude ;-).
Disk je na rozdil od grafiky pripojen jen max 4-mi linkami, tak u nej dava vyssi rychlost smysl o neco vic. Ale ani tam neni velky problem. Pri prechodu ze sata disku 500GB/s na m2 disk 4x pcie 3.0 s rychlosti 2500GB/s (zrychleni o 400%) se start windows zrychlil z 24s na 18s (zrychleni o 25%). A hadam (nemeril jsem to), ze za podstatnou cast nemuze vyssi prenosova rychlost, ale to, ze novy disk zvladal podstatne rychleji s malymi (4kB) bloky dat.
Nejvetsi brzdou pc je to, ze data ke zpracovani nejsou k dispozici hned, kdyz jsou potreba, ale dostavaji se na spravne misto se zpozdenim (latency). A duvody jsou vetsinou jine, nez rychlost sbernic. Proto nejvetsi zlepseni prinasi zvetseni vyrovnavacich pameti (cache), zlepseni prace s nimi a lepsi predikce pri doprednem nacitani dat. A to jak u zeleza (kde se o tom obcas i mluvi) tak u operacniho systemu a programu (kde se o tom nemluvi temer nikdy).
Ale rozdil v cisle verze sbernice, nebo v poctu snimku za sekundu (FPS - Frames Per Second) pozna i male dite, byt podstate veci treba vubec nerozumi. Navic pomerovaci pindiku byvaji casto velmi hlasiti, tak dokazi ovlivnit hodne lidi. A proto marketing postaveny na porovnavani cisel funguje. I kdyz ty porovnavane hodnoty maji pro prakticke vyuziti treba jen velmi maly vyznam.
Aspon trochu slusne napsana hra se snazi nacist vsechna potrebna data do pameti grafiky pred spustenim hry, nebo jeji casti tak, aby bylo v dobe, kdy jsou data potreba, vsechno uz v pameti.
Rychlejsi sbernice by teoreticky mohla zrychlit nacitani hry, ale 1 linka pcie 4.0 ma rychlost 2GB/s. Pri 16 linkach je propustnost 32GB/s a 8GB pamet by mela jit zcela zaplnit za 250ms. Takze tady asi uzke hrdlo nebude ;-).
Disk je na rozdil od grafiky pripojen jen max 4-mi linkami, tak u nej dava vyssi rychlost smysl o neco vic. Ale ani tam neni velky problem. Pri prechodu ze sata disku 500GB/s na m2 disk 4x pcie 3.0 s rychlosti 2500GB/s (zrychleni o 400%) se start windows zrychlil z 24s na 18s (zrychleni o 25%). A hadam (nemeril jsem to), ze za podstatnou cast nemuze vyssi prenosova rychlost, ale to, ze novy disk zvladal podstatne rychleji s malymi (4kB) bloky dat.
Nejvetsi brzdou pc je to, ze data ke zpracovani nejsou k dispozici hned, kdyz jsou potreba, ale dostavaji se na spravne misto se zpozdenim (latency). A duvody jsou vetsinou jine, nez rychlost sbernic. Proto nejvetsi zlepseni prinasi zvetseni vyrovnavacich pameti (cache), zlepseni prace s nimi a lepsi predikce pri doprednem nacitani dat. A to jak u zeleza (kde se o tom obcas i mluvi) tak u operacniho systemu a programu (kde se o tom nemluvi temer nikdy).
Ale rozdil v cisle verze sbernice, nebo v poctu snimku za sekundu (FPS - Frames Per Second) pozna i male dite, byt podstate veci treba vubec nerozumi. Navic pomerovaci pindiku byvaji casto velmi hlasiti, tak dokazi ovlivnit hodne lidi. A proto marketing postaveny na porovnavani cisel funguje. I kdyz ty porovnavane hodnoty maji pro prakticke vyuziti treba jen velmi maly vyznam.
Odpovědět0 0
Ten chladic samozrejme neni z grafenu. Ani nemuze byt. O grafenu se da mluvit jen, pokud je uhlik v sitovane strukture s tloustkou jeden atom. Navic to s tou tepelnou vodivosti neni tak horke, protoze je vetsi jen podel vrstvy a neni to s ni tak jednoduche a jednoznacne, jako u homogenich materialu a kovu (viz odkaz nize).
Chladic bude nejspis z hliniku, nanejvys z medi a bude pokryty lakem s grafenovymi nanotrubickami. Ten se pouziva pro vytvareni supercernych povrchu s minimalni odrazivosti, ktere jsou (zatim) nejblize teoretickemu absolutne cernemu telesu, ktere je schopno pohltit/vyzarit veskerou energii.
Vysoka schopnost vyzarovani tepla povrchem pokrytym geafenovym lakem je prave duvodem, proc se pouziva u chladicu. A neni to zadna superdraha, nedostupna technologie. Na aliexpressu se da bezne koupit nejen grafenovy lak, ale treba i chladice pameti pokryte timto lakem. Jejich cena neni nijak zavratna, protoze vrstva laku na jejich pocrchu je velmi tenka.
Pouziti grafenoveho laku na chladici muze o neco snizit teplotu, ale zazraky bych od toho necekal. Na prenos tepla je potreba rozdil teplot a vyzarovani se uplatni tim vic, cim je teplota telesa vyssi. Vyraznejsi vyznam bude mit spis u pretaktivani, nez v beznem provozu. Ale marketing je marketing;-).
Jeste ten odkaz na popis vlastnosti grafenu: https://wikijii.com/wiki/Graphene#Thermal_conductivity
Chladic bude nejspis z hliniku, nanejvys z medi a bude pokryty lakem s grafenovymi nanotrubickami. Ten se pouziva pro vytvareni supercernych povrchu s minimalni odrazivosti, ktere jsou (zatim) nejblize teoretickemu absolutne cernemu telesu, ktere je schopno pohltit/vyzarit veskerou energii.
Vysoka schopnost vyzarovani tepla povrchem pokrytym geafenovym lakem je prave duvodem, proc se pouziva u chladicu. A neni to zadna superdraha, nedostupna technologie. Na aliexpressu se da bezne koupit nejen grafenovy lak, ale treba i chladice pameti pokryte timto lakem. Jejich cena neni nijak zavratna, protoze vrstva laku na jejich pocrchu je velmi tenka.
Pouziti grafenoveho laku na chladici muze o neco snizit teplotu, ale zazraky bych od toho necekal. Na prenos tepla je potreba rozdil teplot a vyzarovani se uplatni tim vic, cim je teplota telesa vyssi. Vyraznejsi vyznam bude mit spis u pretaktivani, nez v beznem provozu. Ale marketing je marketing;-).
Jeste ten odkaz na popis vlastnosti grafenu: https://wikijii.com/wiki/Graphene#Thermal_conductivity
Odpovědět0 0
Ta americka dolarova cena nezahrnuje DPH. Ekvivalentem DPH je v USA prodejni dan, jejiz sazba se lisi podle statu a pohybuje se kolem 7 procent. Krome toho maji navic svou prodejni dan i mesta viz https://firmy.finance.cz/zpravy/finance/360686-dph-ve-svete. Pri prodeji na dalku tak americti prodejci obvykle uvadeji jen ceny bez dane a pri nakupu dopocitaji prislusne dane podle dodaci adresy. Takze nejen my, ale ani americane nanakupuji za ty doporucene prodejni dolarove ceny.
Doporucena cena by mela zahrnovat i primerene marze prodejcu, ale pokud je v prodejnim retezci vic prostredniku, prida si kazdy svou marzi. Ta musi pokryt jeho naklady i jeho zisk. A to vyslednou cenu zvysi. Zvyseni se projevi zvlast u malych trhu, ktere jsou na koncich distribucnich retezcu, jako je ten nas a slovensky.
Muze se nam to nelibit, muzeme proti tomu i protestovat, ale to je asi tak vsechno, co s tim muzeme delat ;-).
Doporucena cena by mela zahrnovat i primerene marze prodejcu, ale pokud je v prodejnim retezci vic prostredniku, prida si kazdy svou marzi. Ta musi pokryt jeho naklady i jeho zisk. A to vyslednou cenu zvysi. Zvyseni se projevi zvlast u malych trhu, ktere jsou na koncich distribucnich retezcu, jako je ten nas a slovensky.
Muze se nam to nelibit, muzeme proti tomu i protestovat, ale to je asi tak vsechno, co s tim muzeme delat ;-).
Odpovědět1 0
Pokud pri stejnem rozliseni a detailech nastavime te 4090ce omezeni fps na stejnou hodnotu jako dava ta 3090, tak bude mit 4090 diku vyssi efektivite urcite nizsi spotrebu. Ale tohle neni bezny scenar ani v testech, ani pri pouziti normalnimi uzivateli. Malokdo si kupuje novou kartu, aby ji provozoval se stejnymi fps a nastavenim, jaka zvlada ta stara ;-). A urcite by to nebyl provoz, ktery by mohl za vypaleni napajecich konektoru.
Takze ano, 4090 se da provozova s mensi spotrebou, ale to jeste neznamena, ze je pri obvyklem uziti uspormejsi. A pokud pri nejakem testu pobezi 4090 s mensi spotrebou, nez 3090, znamena to jen to, ze je nekde uzke hrdlo, ktere karte brani bezet na plny vykon.
Takze ano, 4090 se da provozova s mensi spotrebou, ale to jeste neznamena, ze je pri obvyklem uziti uspormejsi. A pokud pri nejakem testu pobezi 4090 s mensi spotrebou, nez 3090, znamena to jen to, ze je nekde uzke hrdlo, ktere karte brani bezet na plny vykon.
Odpovědět0 0
Vyrazne uspornejsi :-O ? To asi tezko, co? Kdyz 3090 ma tdp 350w a tdp 4090 je o 100w vyssi, tak 4090 uspornejsi nejspis ;-) nebude. Pokud ma o 29% vyssi spotrebu a o nejakych 70 %vyssi FPS, tak ma vyssi efektivitu, ale rozhodne neni uspornejsi.
Odpovědět0 0
Transformator jde pouzit jen u stridaveho proudu. Klasicke linearni (polovidicive) stabilizatory se dnes v podstate nepouzivaji, protoze jen orezavali prebytecne napeti tim, ze ho meni na teplo a maji tedy mizernou ucinnost.
Pro zmenu stejnosmerneho napeti se pouzivaji spinane menice. Z vyssiho napeti se nizsi dostane tak, ze zdroj pripojime spinacim tranzistorem pres oddelovacu civku na vystupni kondenzator. Kdyz na nem napeti dostatecne stoupne, tak se tranzistor rozepne a zdroj se tak odpoji. Spotrebuc bere energii z kondenzatoru a kdyz jeho napeti dostatecne klesne,tak se tranzistorem pripoji zdroj, aby spotrebivanou energii doplnil.
Vystupni napeti je dano pomerem doby zapnuti a vypnuti tranzistoru. Kdyz bude doba zapnuti stejna jako vypnuti, bude na vystupu polovicni napeti, nez na vstupu. Vystupni napeti se da stridou spinani snadno a presne ridit. A ucinnost muze byt kolem 95%. Vysoke proudy pri nizkych napetich se dosahuji paralelnim spojenim vice menicu, jejichz spinani je posunuto, aby se prekryvaly a dosahlo se mensiho zvlneni vystupniho napeti. Proto se v PC mluvi i vice fazich napajeni.
Pro zmenu stejnosmerneho napeti se pouzivaji spinane menice. Z vyssiho napeti se nizsi dostane tak, ze zdroj pripojime spinacim tranzistorem pres oddelovacu civku na vystupni kondenzator. Kdyz na nem napeti dostatecne stoupne, tak se tranzistor rozepne a zdroj se tak odpoji. Spotrebuc bere energii z kondenzatoru a kdyz jeho napeti dostatecne klesne,tak se tranzistorem pripoji zdroj, aby spotrebivanou energii doplnil.
Vystupni napeti je dano pomerem doby zapnuti a vypnuti tranzistoru. Kdyz bude doba zapnuti stejna jako vypnuti, bude na vystupu polovicni napeti, nez na vstupu. Vystupni napeti se da stridou spinani snadno a presne ridit. A ucinnost muze byt kolem 95%. Vysoke proudy pri nizkych napetich se dosahuji paralelnim spojenim vice menicu, jejichz spinani je posunuto, aby se prekryvaly a dosahlo se mensiho zvlneni vystupniho napeti. Proto se v PC mluvi i vice fazich napajeni.
Odpovědět1 0
Ten konektor nejde zapojit spatne. Poloha je dana nejen temi 4 pomocnymi kontakty, ale i kombinaci tvaru plastu kolem napajecuch pinu. A protoze ma konektor i zacvakavaci zamek, tak ho nejde zasunout jen malo. Snad jen, ze by ho nekdo schvalne zasrcil jen napul.
Ale cekal bych, ze pomocne kontakty (zvlast ten signalizujici pritomnost konektoru) sepnou jako posledni, kdyz je konektor uplne zasunuty. A dokud nesepnou, tak karta nebude pracovat. Ruzna delka koliku je velmi stary zpusob ochrany, ktery se pouziva treba i v beznych zasuvkach na 230V. Jako prvni se dostane do kontaktu ochranny kolik a az po nem ty dva napajeci.
Ale cekal bych, ze pomocne kontakty (zvlast ten signalizujici pritomnost konektoru) sepnou jako posledni, kdyz je konektor uplne zasunuty. A dokud nesepnou, tak karta nebude pracovat. Ruzna delka koliku je velmi stary zpusob ochrany, ktery se pouziva treba i v beznych zasuvkach na 230V. Jako prvni se dostane do kontaktu ochranny kolik a az po nem ty dva napajeci.
Odpovědět1 0
U snižujících (step-down) spínaných měničů je na napájecí napětí jediný omezující požadavek - musí být vyšší než to cílové. Když se máme bavit o nějaké optimálnosti, tak je potřeba říct, podle jakého kriteria se má optimalizovat. Obvyklým kriteriem bývají co nejmenší ztráty a tedy co nejvyšší účinnost.
Účinnost samotného měniče ovlivňuje řada faktorů, ale velikost vstupního napětí není (moc) podstatná. Pokud ale budeme brát do úvahy i ztráty v přívodech, tak je potřeba mít vstupní napětí co nejvyšší, aby se výkon přenesl co nejmenším proudem, protože právě ten způsobuje ztráty. Proto nejsou rozvody z elektrárny s napětím 230V, ale třeba 400 tisíc voltů.
Napájecí napětí pro grafiky s velkým příkonem by tedy bylo výhodné mít co největší. Shora je to omezeno limitem bezpečného napětí, což je u stejnosměrného napětí 60V. Těch 24V, nebo 48V (mimochodem vycházejí z násobků napětí olověných akumulátorů) tedy není z pohledu bezpečnosti problém. Jenže přechod na jiné napětí by znamenal zásadní změnu celé infrastruktury, která je vybudovaná na napětí 12V. Problém je i s vypuštěním ostatních napětí (-12V, -5V, 5V), která se dnes v PC už téměř nikde nepoužívají, a přechodem na čistě 12V zdroje. Mimochodem, podobné potíže jsou i v automobilovém průmyslu, kde 12V akumulátory už nestačí energetickým nárokům nových aut a bylo by potřeba přejít na 48V baterky.
Tak očekávat, že se kvůli pár nenažraným grafikám bude přidávat do zdrojů 24V, nebo 48V je zcela nerealistické. V diskuzích se sice všichni tváří, že by potřebovali tu nejnadupanější kartu, ale reálně si 95% lidí koupí max střední třídu, která vystačí s 1 až 2 osmipiny.
Účinnost samotného měniče ovlivňuje řada faktorů, ale velikost vstupního napětí není (moc) podstatná. Pokud ale budeme brát do úvahy i ztráty v přívodech, tak je potřeba mít vstupní napětí co nejvyšší, aby se výkon přenesl co nejmenším proudem, protože právě ten způsobuje ztráty. Proto nejsou rozvody z elektrárny s napětím 230V, ale třeba 400 tisíc voltů.
Napájecí napětí pro grafiky s velkým příkonem by tedy bylo výhodné mít co největší. Shora je to omezeno limitem bezpečného napětí, což je u stejnosměrného napětí 60V. Těch 24V, nebo 48V (mimochodem vycházejí z násobků napětí olověných akumulátorů) tedy není z pohledu bezpečnosti problém. Jenže přechod na jiné napětí by znamenal zásadní změnu celé infrastruktury, která je vybudovaná na napětí 12V. Problém je i s vypuštěním ostatních napětí (-12V, -5V, 5V), která se dnes v PC už téměř nikde nepoužívají, a přechodem na čistě 12V zdroje. Mimochodem, podobné potíže jsou i v automobilovém průmyslu, kde 12V akumulátory už nestačí energetickým nárokům nových aut a bylo by potřeba přejít na 48V baterky.
Tak očekávat, že se kvůli pár nenažraným grafikám bude přidávat do zdrojů 24V, nebo 48V je zcela nerealistické. V diskuzích se sice všichni tváří, že by potřebovali tu nejnadupanější kartu, ale reálně si 95% lidí koupí max střední třídu, která vystačí s 1 až 2 osmipiny.
Odpovědět1 0
Nebylo by jednodušší a lepší, místo poměřování si pindíků za cenu brutálních příkonů, nedělat nesmyslně nenažrané grafiky ;-):-D?
Odpovědět4 0
Řešit zatížení osmipinů, ze kterých redukcí skládá výsledný výkon je úplně zbytečné, protože ty nezahořely. A myslím si, že budou vzhledem k masivnější konstrukci nejspíš schopny přenést mnohem větší proud, než ty malé piny v nové verzi napájecího konektoru. Navíc z nich jsou do redukce kolíky a u těch většinou problém nebývá. Horší je, když jsou kontakty v zásuvce z nekvalitního materiálu a po čase ztrácejí přítlak. Tak proudová zatížitelnost spoje bude záviset spíš na kvalitě redukce dodané nVidií.
Hádám, že povolený výkon přes osmipiny byl navržen s dostatečně velkým součinitelem bezpečnosti a nejspíš i s ohledem na to, že některé konektory nemusí mít zrovna špičkovou kvalitu. Těch 2x6 výkonových pinů novinky (4 jsou jen signalizační, kterými zdroj hlásí kartě svůj výkon) asi zvládne přenést i těch 600W, ale budou nejspíš potřeba zlacené piny z kvalitních materiálů. Navíc to, podle mne, bude "až 600W" a nebudou tam velké rezervy. Jenže když se přívodní kabel ohne blízko konektoru, vznikne boční tlak na piny, kontaktní plíšky v zásuvce se pootevřou, zmenší se styčná plocha , stoupne proudová hustota i přechodový odpor v kontaktech a je na průser zaděláno, jako v tomto případě.
Odlehčit konektorům tím, že se jich zapojí víc jako se to dělalo u osmipinů ale asi nebude kvůli používání signalizačních pinů jednoduché. Nevím, zda a jak to řeší příslušný ATX standard, ale předpokládám, že by zdroj i karta musely mít 2 nebo víc nezávislých napájecích přívodů, každý se svou vlastní signalizací, a že by karta musela řešit rozložení zátěže mezi ně. Což by jak zdroj, tak kartu nepochybně prodražilo. Což jde proti smyslu zmenšení počtu napájecích konektorů.
Hádám, že povolený výkon přes osmipiny byl navržen s dostatečně velkým součinitelem bezpečnosti a nejspíš i s ohledem na to, že některé konektory nemusí mít zrovna špičkovou kvalitu. Těch 2x6 výkonových pinů novinky (4 jsou jen signalizační, kterými zdroj hlásí kartě svůj výkon) asi zvládne přenést i těch 600W, ale budou nejspíš potřeba zlacené piny z kvalitních materiálů. Navíc to, podle mne, bude "až 600W" a nebudou tam velké rezervy. Jenže když se přívodní kabel ohne blízko konektoru, vznikne boční tlak na piny, kontaktní plíšky v zásuvce se pootevřou, zmenší se styčná plocha , stoupne proudová hustota i přechodový odpor v kontaktech a je na průser zaděláno, jako v tomto případě.
Odlehčit konektorům tím, že se jich zapojí víc jako se to dělalo u osmipinů ale asi nebude kvůli používání signalizačních pinů jednoduché. Nevím, zda a jak to řeší příslušný ATX standard, ale předpokládám, že by zdroj i karta musely mít 2 nebo víc nezávislých napájecích přívodů, každý se svou vlastní signalizací, a že by karta musela řešit rozložení zátěže mezi ně. Což by jak zdroj, tak kartu nepochybně prodražilo. Což jde proti smyslu zmenšení počtu napájecích konektorů.
Odpovědět5 0
Od kdy nVidii zajímají výrobci grafik a jejich náklady :-O?
Že by se hoši přeci jen chytli za nos , když jejich největší výhradní výrobce EVGA veřejně oznámil, že se k partnerům chovají tak, že radši skončí s výrobou grafik, což byla jeho hlavní aktivita?
Že by se hoši přeci jen chytli za nos , když jejich největší výhradní výrobce EVGA veřejně oznámil, že se k partnerům chovají tak, že radši skončí s výrobou grafik, což byla jeho hlavní aktivita?
Odpovědět11 1
Ono nejde jen o polovodiče. Výrob, které se kvůli vyšším ziskům přesunuly do Číny j(i jinam do Asie) e spousta. Včetně těch, které představují ekologickou zátěž. I proto se teď můžeme tvářit, jak jsme ekologičtí, a nadávat, že Číňani jsou tupci zamořující planetu. O tom, že je to proto, že vyrábějí pro nás, se už většinou taktně mlčí. Ono černobílé vidění (světa) spoustě lidí vyhovuje.
Odpovědět4 0
Vysoké marže nutně neznamenají, že se firma topí v penězích a neví, co s nimi. Neznám sice standardy, podle jakých účtují, ale bývá dobrým zvykem velké investice odepisovat více let. Proinvestované peníze se neprojeví jako náklady snižující zisk hned, ale postupně v dalších letech.
Odpovědět2 0
"Jaký se dělají zdroje, takové musí být i desky.", :-O To vypadá jako poněkud rychlá střelba od boku ;-).
Základní deska rozhodně není v počítači jediný spotřebič, který zatěžuje zdroj. Obvykle žere nejvíc grafika a do jedné základní desky se dá grafik dát i víc než jedna. A podstatné je, že grafiky jsou napájeny samostatnými kabely. Ze základní desky si každá grafika cucne energii jen přes PCIe sběrnici a to nanejvýš něco málo přes 75W.
Základní deska rozhodně není v počítači jediný spotřebič, který zatěžuje zdroj. Obvykle žere nejvíc grafika a do jedné základní desky se dá grafik dát i víc než jedna. A podstatné je, že grafiky jsou napájeny samostatnými kabely. Ze základní desky si každá grafika cucne energii jen přes PCIe sběrnici a to nanejvýš něco málo přes 75W.
Odpovědět5 0
Otáčky ventilátoru neřídí obvody v procesoru, ten jen hlásí teploty. Řídí je probram v biosu, který dělá výrobce základní desky. A pokud si výrobce desky zjednodušil život a dal tam program původně udělaný na intelské procesory, který nepočítá s tím, že procesor hlásí maximální teploty jader, tak bude realce ventilátoru na změny zátěže velmi rychlá a se zátěží boudou hodmě kolísat i otáčky. Na nových deskách a verzích biosu to už asi výrobci poladili trochu líp.
Odpovědět0 0
Problém zmenšování plochy pro odvod ztrátového tepla není nic nového, protože hustota tranzistorů stoupá už od prvních integrovaných obvodů. A problém je i velmi snadno řešitelný ;-). Stačí, aby efektivita obvodů rostla rychleji, než klesá jejich plocha a nezhoršoval se poměr W/mm2.
Ještě ale nadhodím jednu kacířskou myšlenku. Problém s odvodem tepla mají (většinou) jen poměřovači pindíků, protože naprosté většině uživatelů běží 99% času procesor na 1% výkonu a žádné velké teplo nevyrábí. Reálně může mít problém s chlazením asi jen pár lidí, kteří zpacovávají velká videa, nebo data a nechtějí čekat o pár minut déle, tak ženou procesor na krev. A také (z vlastní zkušenosti) uživatelé APU od AMD, kteří se snaží přetaktovat integrovanou grafiku proto, aby získali o pár fps navíc. Zvlášť pokud to dělají hloupě.
Pokud jde o integrované grafiky Intelských procesorů, tak tam problém s odvodem tepla nevzniká. Ty jsou totiž tak mizerné, že nemá smysl o nějakém větším hraní, natož taktování ani uvažovat.
Jak jsem už naznačil, příčinou problémů s odvodem tepla je přehnaný tlak na (výpočetní) výkon. Ten stoupá přímo úměrně s kmitočtem. Jenže procesor je v podstatě hromada odporů a kondenzátorů, jejichž náboj ovládá "polohu" CMOS spínačů (tranzistorů). Ty přepínací kondenzátory se nabíjejí přes odpory vodičů a pokud se mají nabít rychleji, aby se dalo dosáhnout větších kmitočtů, musí se příslušně zvýšit napájecí napětí. Tím se přes odpory protlačí do kondenzátoru větší proud a ten rychleji nábije kondenzátor na potřebnou úroveň.
Proud přes odpor roste přímo úměrně napětí ( I = U / R), ale příkon je napětí krát proud ( P = U * I = U * U / R ). Tak při zvyšování napětí roste příkon s druhou mocninou napětí. Navíc nabíjecí proud kondenzátoru nabíjeného přes odpor s růstem náboje (a tedy i napětí) na kondenzátoru postupně klesá a nabíjení se zpomaluje. Proto nestačí napájecí napětí zvyšovat úměrně růstu kmitočtu, ale musí růst stále rychleji. S výpočetním výkonem (kmitočtem) tedy příkon roste v podstatě jako exponenciála na druhou. Pak se nelze divit, že Intel a s novou generací grafik i Nvidia mají (ve snaze dotáhnout pár procent na Amd) tak šílené a těžko uchladitelné příkony.
Řešením uchladitelnosti je tedy snížení kmitočtu a napájecího napětí. A protože při honbě za výpočetním výkonem se naráží nejvíc na problém uchladitelnosti, mění se (díky AMD) zcela zásadně i pohled na přetaktování. Místo dříve běžného postupu zvyš napětí a pak nastav pavný kmitočet prosazuje AMD jiný postup. Místo nastavení pevného napětí a kmitočtu se kmitočet mění dynamicky podle zatížení procesoru a zárovaň nastavuje i pro něj optimální napájecí napětí. To je určeno křivkou závislost těchto dvou veličin. Napětí se mění i podle počtu zatížených jader a řídící mechanismus je tak schopen zajistit vysoký jednojádrový i vícejádrový výkon. Ruční taktování tedy nemá smysl. Tedy aspoň to běžné.
Ale od řady 5000 se otvírá prostor pro taktování jiného typu. Křivka frekvence-napětí je nastavena tak aby fungovala pro všechny vyrobené procesory. Jenže reálně je každý procesor jiný a dokonce se liší i jeho jednotlivá jádra. Jsou tedy schopna pracovat na nižších napětích, než je dáno standardní křivkou frekvence-napětí. AMD tedy u Ryzenů 5000 umožňuje posouvat tu standardní křivku pro jednotlivá jádra dolů (i nahoru) a tím optimalizovat křivku (CO = Curve Optimization) pro jednotlivá jádra tak, aby dosahovala stejného kmitočtu s nižším příkonem, nebo se stejným příkonem vyššího kmitočtu.
Dá se to dělar tučně v BIOSu, nebo v Ryzen Masteru. Ale známý paměťový mág Jurij Bulblij (1usmus) udělal program Hydra, který pomocí automatického testování udělá většinu práce sám. Zkoušel jsem v tom programu podvoltování 5600g a dokázal snížit příkon v CineBench 23 o třetinu při poklesu výkonu o asi 5%. A ta výkonová rezerva se pak dá využít při přetaktování integrované grafiky.
Ještě ale nadhodím jednu kacířskou myšlenku. Problém s odvodem tepla mají (většinou) jen poměřovači pindíků, protože naprosté většině uživatelů běží 99% času procesor na 1% výkonu a žádné velké teplo nevyrábí. Reálně může mít problém s chlazením asi jen pár lidí, kteří zpacovávají velká videa, nebo data a nechtějí čekat o pár minut déle, tak ženou procesor na krev. A také (z vlastní zkušenosti) uživatelé APU od AMD, kteří se snaží přetaktovat integrovanou grafiku proto, aby získali o pár fps navíc. Zvlášť pokud to dělají hloupě.
Pokud jde o integrované grafiky Intelských procesorů, tak tam problém s odvodem tepla nevzniká. Ty jsou totiž tak mizerné, že nemá smysl o nějakém větším hraní, natož taktování ani uvažovat.
Jak jsem už naznačil, příčinou problémů s odvodem tepla je přehnaný tlak na (výpočetní) výkon. Ten stoupá přímo úměrně s kmitočtem. Jenže procesor je v podstatě hromada odporů a kondenzátorů, jejichž náboj ovládá "polohu" CMOS spínačů (tranzistorů). Ty přepínací kondenzátory se nabíjejí přes odpory vodičů a pokud se mají nabít rychleji, aby se dalo dosáhnout větších kmitočtů, musí se příslušně zvýšit napájecí napětí. Tím se přes odpory protlačí do kondenzátoru větší proud a ten rychleji nábije kondenzátor na potřebnou úroveň.
Proud přes odpor roste přímo úměrně napětí ( I = U / R), ale příkon je napětí krát proud ( P = U * I = U * U / R ). Tak při zvyšování napětí roste příkon s druhou mocninou napětí. Navíc nabíjecí proud kondenzátoru nabíjeného přes odpor s růstem náboje (a tedy i napětí) na kondenzátoru postupně klesá a nabíjení se zpomaluje. Proto nestačí napájecí napětí zvyšovat úměrně růstu kmitočtu, ale musí růst stále rychleji. S výpočetním výkonem (kmitočtem) tedy příkon roste v podstatě jako exponenciála na druhou. Pak se nelze divit, že Intel a s novou generací grafik i Nvidia mají (ve snaze dotáhnout pár procent na Amd) tak šílené a těžko uchladitelné příkony.
Řešením uchladitelnosti je tedy snížení kmitočtu a napájecího napětí. A protože při honbě za výpočetním výkonem se naráží nejvíc na problém uchladitelnosti, mění se (díky AMD) zcela zásadně i pohled na přetaktování. Místo dříve běžného postupu zvyš napětí a pak nastav pavný kmitočet prosazuje AMD jiný postup. Místo nastavení pevného napětí a kmitočtu se kmitočet mění dynamicky podle zatížení procesoru a zárovaň nastavuje i pro něj optimální napájecí napětí. To je určeno křivkou závislost těchto dvou veličin. Napětí se mění i podle počtu zatížených jader a řídící mechanismus je tak schopen zajistit vysoký jednojádrový i vícejádrový výkon. Ruční taktování tedy nemá smysl. Tedy aspoň to běžné.
Ale od řady 5000 se otvírá prostor pro taktování jiného typu. Křivka frekvence-napětí je nastavena tak aby fungovala pro všechny vyrobené procesory. Jenže reálně je každý procesor jiný a dokonce se liší i jeho jednotlivá jádra. Jsou tedy schopna pracovat na nižších napětích, než je dáno standardní křivkou frekvence-napětí. AMD tedy u Ryzenů 5000 umožňuje posouvat tu standardní křivku pro jednotlivá jádra dolů (i nahoru) a tím optimalizovat křivku (CO = Curve Optimization) pro jednotlivá jádra tak, aby dosahovala stejného kmitočtu s nižším příkonem, nebo se stejným příkonem vyššího kmitočtu.
Dá se to dělar tučně v BIOSu, nebo v Ryzen Masteru. Ale známý paměťový mág Jurij Bulblij (1usmus) udělal program Hydra, který pomocí automatického testování udělá většinu práce sám. Zkoušel jsem v tom programu podvoltování 5600g a dokázal snížit příkon v CineBench 23 o třetinu při poklesu výkonu o asi 5%. A ta výkonová rezerva se pak dá využít při přetaktování integrované grafiky.
Odpovědět1 0
Čidlo teploty rozvaděče určitě nikdo dělat nebude. Obvody čipu jsou na spodní straně a nad nimi je vrstva křemíku, která ty obvody drží pohromadě a chrání je. Pro měření teploty rozvaděče by se musely udělat průchody křemíkem a na opačné straně teplotní čidlo. To by bylo náročné. A asi i neproveditelné, protože při pouzdření se křemík brousí na konečnou výšku a připravuje pro pájení, což by čidlo asi nepřežilo.
Navíc by asi bylo jednodušší teplotu rozvaděče modelovat na základě údajů teplotních čidel, která jsou po celé spodní straně čipu. Rozměry a materiálové vlastnosti křemíku i pájení s rozvaděčem jsou známé a síť čidel celkem hustá, tak by ten model mohl být i celkem přesný.
Ale tepelná setrvačnost chladičů je velká a tak se asi žádné složitější regulace nepoužívají. Čekal bych, že se dělá nějaký klouzavý průměr teploty a pak se podle výrobcem/uživatelem definované křivky teplota x otáčky nastaví rychlost ventilátoru.
Umím si představit, že by tam mohl být PID regulátor s parametry upravcovanými podle typu procesoru, odezvy chladiče na regulační zásah a podle preferencí uživatele (vyrovnanost otáček x rychlost reakce na změnu teploty). Ale je otázka, jestli by byl přínost vůbec úměrný úsilí ;-).
Navíc by asi bylo jednodušší teplotu rozvaděče modelovat na základě údajů teplotních čidel, která jsou po celé spodní straně čipu. Rozměry a materiálové vlastnosti křemíku i pájení s rozvaděčem jsou známé a síť čidel celkem hustá, tak by ten model mohl být i celkem přesný.
Ale tepelná setrvačnost chladičů je velká a tak se asi žádné složitější regulace nepoužívají. Čekal bych, že se dělá nějaký klouzavý průměr teploty a pak se podle výrobcem/uživatelem definované křivky teplota x otáčky nastaví rychlost ventilátoru.
Umím si představit, že by tam mohl být PID regulátor s parametry upravcovanými podle typu procesoru, odezvy chladiče na regulační zásah a podle preferencí uživatele (vyrovnanost otáček x rychlost reakce na změnu teploty). Ale je otázka, jestli by byl přínost vůbec úměrný úsilí ;-).
Odpovědět0 0
(Pří)tlak chladič na procesor se do patice nepřenáší (jen) přes ty pacičky kolem výčezů, ale i (možná hlavně) přes čipy, na které je rozvaděč připájen. Abych předešel spekulacím, že to čipům může škodit, upozorním, že v notebudích a grafikách dosedají chladiče na holé čipy bez rozvaděčů.
Výřezy v rozvaděči tepla určitě nejsou kvůli chlazení. Použité kondenzátory budou mít určitě dostatečnou tepelnou odolnost. I bežně dostupné tantaly mají rozsah pracovních teplot do 125C. A teploty 95C procesoru jsou jen lokální na spodní ploše čipu v místě měření u obvodů generujícich největší teplo. Kondenzátory nejsou v kontaktu s čipem a pod rozvaděčem bude stejná teplota jako má rozvaděč. Podle údajů https://forums.tomshardware.com/threads/intel-cpu-temperature-guide-2022.1488337/ se teplota rozvaděče u intelů s jejich základním chladičem pohybovala od 62 do 72 stupňů.
Výřezy jsou v Ryzenech 7000 proto, aby bylo místo pro součástky. AM5 má totiž kontakty po celé ploše na rozdíl od intelských patic, které mají ve středu prostor bez kontaktů a na procesor se do toho místa dávají kondenzátory.
Výřezy v rozvaděči tepla určitě nejsou kvůli chlazení. Použité kondenzátory budou mít určitě dostatečnou tepelnou odolnost. I bežně dostupné tantaly mají rozsah pracovních teplot do 125C. A teploty 95C procesoru jsou jen lokální na spodní ploše čipu v místě měření u obvodů generujícich největší teplo. Kondenzátory nejsou v kontaktu s čipem a pod rozvaděčem bude stejná teplota jako má rozvaděč. Podle údajů https://forums.tomshardware.com/threads/intel-cpu-temperature-guide-2022.1488337/ se teplota rozvaděče u intelů s jejich základním chladičem pohybovala od 62 do 72 stupňů.
Výřezy jsou v Ryzenech 7000 proto, aby bylo místo pro součástky. AM5 má totiž kontakty po celé ploše na rozdíl od intelských patic, které mají ve středu prostor bez kontaktů a na procesor se do toho místa dávají kondenzátory.
Odpovědět3 0
Koukám, že jsem v jednom odstavci omylem prohodil poředí procesorů.
Při zatěžování tedy narazí ten DRUHÝ, MÉNĚ EFEKTIVNÍ procesor dřív na teplotní limit a začne omezovat výpočetní výkon. A je to ještě horší, protože ted neefektivnější má teplotní limit nastaven o 20C níže než ten PRVNÍ, efektivnější procesor.
Při zatěžování tedy narazí ten DRUHÝ, MÉNĚ EFEKTIVNÍ procesor dřív na teplotní limit a začne omezovat výpočetní výkon. A je to ještě horší, protože ted neefektivnější má teplotní limit nastaven o 20C níže než ten PRVNÍ, efektivnější procesor.
Odpovědět0 0
Posuzovat přehřívání procesoru a jeho vliv na okolí podle vnitřní teploty nemá moc smysl. Podstatný je jeho příkon = množství tepla, které se musí odvést do okolí.
Když máme dva procesory se stejným výpočetním výkonem, kdy první má od výrobce nastavený teplotní limit 100C a pro ten výpočetní výkon potřebuje příkon 140W, zatímco druhý má teplotní limit 80C a příkon 280W, který se bude víc zahřívat? Nebude to ten první, ale ten druhý :-O. Protože ten musí předat do okolí 2x víc tepla. A má poloviční efektivitu měřenou jako výpočetní výkon na 1W.
Odhlédneme od toho, že je nesmysl porovnávat teplotní limity, když má každý výrobce a někdy i různé generace procesorů stejného výrobce úplně jinak řešené měření teploty a nastavené regulační mechanismy. Mnohem podstatnější je, že nastavení limitu neříká nic o riziku přehřívání, ale o jen riziku omezování výkonu. Teplotu procesoru totiž za normálních podmínek neurčuje teplotní limit, ale provedení jeho chladicí soustavy.
Když dáme na ten druhý procesor s dvojnásobným příkonem stejný chladič jako na ten první, bude muset při stejném výpočetním výkonu odvést 2x více tepla. Schopnost předat teplo je dána plochou chladiče, tepelným odporem rozhraní a rozdílem teplot. Pro přenesení 2x většího výkonu bude muset mít chladic 2x vyšší teplotu. A protože ta vyšší teplota nevznikne sama od sebe, budou muset být příslušně vyšší teploty po celé cestě tepla už od výpočetního jádra. O kolik ten vyšší příkon zvýší teplotu výpočetního jádra závisí na velikosti tepelných odporů na té cestě od jádra do okolního vzduchu. Když bude čip připájený k rozvaděči iridiem na zlatě, bude to méně, než když tam bude napatlaná nějaká levná žvejkačka.
Ale tady ale problém ještě nekončí. Pro jednoduchost budu předpokládat, že oba procesory jsou (až na ten příkon a teplotní limit) úplně stejné a neliší se tedy ani jejich způsob měření teploty a navazujícího omezování výpočetního výkonu. Při stejném chladiči a poloviční efektivitě druhého procesoru budou (viz výše) jeho vnitřní teploty vyšší, než u jeho efektivnějšího protivníka dosahujícího stejný výpočetní výkon s poloviční spotřebou. Při zatěžování tedy narazí ten první procesor dřív na teplotní limit a začne omezovat výpočetní výkon. A je to ještě horší, protože ted neefektivnější má teplotní limit nastaven o 20C níže než ten druhý, efektivnější procesor.
Abychom z druhého procesoru (T´80C, P=280W) dostali stejný výpočetní výkon, musíme tepla odvést nejen 2x víc, ale kvůli nízkému tepelnému limitu ho musíte chladit ještě intenzivněji. To znamená chladič s (víc než) 2x větší chladicí plochou, nebo přes ten původní prohnat mnohem víc vzduchu větším a/nebo rychleji se točícím ventilátorem.
Ovšem aby bylo vůbec možno dosáhnou stejného výpočetního výkonu jako u prvního procesoru, muselo by se u toho druného, neefektivního uvádět pravdivé TDP pro výběr správného chladiče. Jenže procesor se stejným výkonem a víc než 2x větším TDP by asi nebyl kasovním trhákrm. Tak nezbývá než lhát a spoléhat (celkem oprávněně) na to, že naprostá většina uživatelů jsou neznalí (pitomci) a umějí nanejvíš porovnat dvě čísla se stejným názvem, aniž by tušili, co reálně znamenají. A taky na to, že většině uživatelů výpočetní výkon významně omezený poddimenzovaným chladičem stejně stačí víc než bohatě. Není přece důležitý reálný výkon, jde hlavně o dojem uživatele. Kde jsem to jen slyšel ;-).
Když už lžu o reálném TDP, tak si troufnu přidat ještě jedno (marketingové) vylepšení. Jsou i znalejší uživatelé, kteří tuší, že existuje něco jako teplota procesoru a čím nižší tím lepší. Potřebuji jim tedy nabídnout nějaké hezké číslo s názvem teplota. Jenže mám neefektivnější procesor, který pro dohnání konkurenčního potřebuje jet na doraz a dostat přes poddimenzovaný chladič 2x víc tepla. A ani jedno z toho však nejde bez zatraceně vysokých teplot. Teploty čipu ale nikdo, kromě mne, není schopen změřit.
Abych mohl hnát obvody na doraz musím měřit a regulovat velmi přesně a rychle pomocí více čidel na mnoha místech, hlavně na těch kritických. Moje regulační a ochranné obvody postavím na ty nejvyšší a rychle se měnící teploty, ale to neznamená, že je musím nutně posílat do světa. Technicky by to bylo správné, aby navazující řízení chladičů mohlo fungovat co nejlépe, ale marketingově by to byla katastrofa. Ven tedy budu hlásit teplotu z nejméně zahřátého místa čipu.
A protože se teplota počítá z napětí na diodě pomocí nějakých konstant modelujících její teplotně napětovou charakteristiku, dají se poladit i ty. Pokud dám výrobci základní desky pro BIOS a ovladače kód, který s tím pro nízkoúrovňovou regulaci ventilátorů počítá, tak to ani nemusí nikdo moc vědět. A ono to možná ani nenadělá moc velké technické problémy. Protože tepelná setvačnost chladiče je o několik řádů vyšší, než setrvačnost jednotlivých částí procesoru, jejichž řízení a ochranu mám stejně řešené na úrovni obvodů v čipu.
A pokud vývojáři základovek použijí obdobné algoritmy i pro řízení ventilátorů konkurenčního procesoru, tím lépe. Když ten posílá ven skutečné teploty v reálném čase a s velkými výkyvy, budou otáčky ventilátoru pořád kolísat a konkurenční výrobce bude (na rozdíl ode mne) ještě za pitomce. Inu svět není černobílý a může být mnohem pestřejší, než si většina lidí je vůbec ochotna připustit.
Když máme dva procesory se stejným výpočetním výkonem, kdy první má od výrobce nastavený teplotní limit 100C a pro ten výpočetní výkon potřebuje příkon 140W, zatímco druhý má teplotní limit 80C a příkon 280W, který se bude víc zahřívat? Nebude to ten první, ale ten druhý :-O. Protože ten musí předat do okolí 2x víc tepla. A má poloviční efektivitu měřenou jako výpočetní výkon na 1W.
Odhlédneme od toho, že je nesmysl porovnávat teplotní limity, když má každý výrobce a někdy i různé generace procesorů stejného výrobce úplně jinak řešené měření teploty a nastavené regulační mechanismy. Mnohem podstatnější je, že nastavení limitu neříká nic o riziku přehřívání, ale o jen riziku omezování výkonu. Teplotu procesoru totiž za normálních podmínek neurčuje teplotní limit, ale provedení jeho chladicí soustavy.
Když dáme na ten druhý procesor s dvojnásobným příkonem stejný chladič jako na ten první, bude muset při stejném výpočetním výkonu odvést 2x více tepla. Schopnost předat teplo je dána plochou chladiče, tepelným odporem rozhraní a rozdílem teplot. Pro přenesení 2x většího výkonu bude muset mít chladic 2x vyšší teplotu. A protože ta vyšší teplota nevznikne sama od sebe, budou muset být příslušně vyšší teploty po celé cestě tepla už od výpočetního jádra. O kolik ten vyšší příkon zvýší teplotu výpočetního jádra závisí na velikosti tepelných odporů na té cestě od jádra do okolního vzduchu. Když bude čip připájený k rozvaděči iridiem na zlatě, bude to méně, než když tam bude napatlaná nějaká levná žvejkačka.
Ale tady ale problém ještě nekončí. Pro jednoduchost budu předpokládat, že oba procesory jsou (až na ten příkon a teplotní limit) úplně stejné a neliší se tedy ani jejich způsob měření teploty a navazujícího omezování výpočetního výkonu. Při stejném chladiči a poloviční efektivitě druhého procesoru budou (viz výše) jeho vnitřní teploty vyšší, než u jeho efektivnějšího protivníka dosahujícího stejný výpočetní výkon s poloviční spotřebou. Při zatěžování tedy narazí ten první procesor dřív na teplotní limit a začne omezovat výpočetní výkon. A je to ještě horší, protože ted neefektivnější má teplotní limit nastaven o 20C níže než ten druhý, efektivnější procesor.
Abychom z druhého procesoru (T´80C, P=280W) dostali stejný výpočetní výkon, musíme tepla odvést nejen 2x víc, ale kvůli nízkému tepelnému limitu ho musíte chladit ještě intenzivněji. To znamená chladič s (víc než) 2x větší chladicí plochou, nebo přes ten původní prohnat mnohem víc vzduchu větším a/nebo rychleji se točícím ventilátorem.
Ovšem aby bylo vůbec možno dosáhnou stejného výpočetního výkonu jako u prvního procesoru, muselo by se u toho druného, neefektivního uvádět pravdivé TDP pro výběr správného chladiče. Jenže procesor se stejným výkonem a víc než 2x větším TDP by asi nebyl kasovním trhákrm. Tak nezbývá než lhát a spoléhat (celkem oprávněně) na to, že naprostá většina uživatelů jsou neznalí (pitomci) a umějí nanejvíš porovnat dvě čísla se stejným názvem, aniž by tušili, co reálně znamenají. A taky na to, že většině uživatelů výpočetní výkon významně omezený poddimenzovaným chladičem stejně stačí víc než bohatě. Není přece důležitý reálný výkon, jde hlavně o dojem uživatele. Kde jsem to jen slyšel ;-).
Když už lžu o reálném TDP, tak si troufnu přidat ještě jedno (marketingové) vylepšení. Jsou i znalejší uživatelé, kteří tuší, že existuje něco jako teplota procesoru a čím nižší tím lepší. Potřebuji jim tedy nabídnout nějaké hezké číslo s názvem teplota. Jenže mám neefektivnější procesor, který pro dohnání konkurenčního potřebuje jet na doraz a dostat přes poddimenzovaný chladič 2x víc tepla. A ani jedno z toho však nejde bez zatraceně vysokých teplot. Teploty čipu ale nikdo, kromě mne, není schopen změřit.
Abych mohl hnát obvody na doraz musím měřit a regulovat velmi přesně a rychle pomocí více čidel na mnoha místech, hlavně na těch kritických. Moje regulační a ochranné obvody postavím na ty nejvyšší a rychle se měnící teploty, ale to neznamená, že je musím nutně posílat do světa. Technicky by to bylo správné, aby navazující řízení chladičů mohlo fungovat co nejlépe, ale marketingově by to byla katastrofa. Ven tedy budu hlásit teplotu z nejméně zahřátého místa čipu.
A protože se teplota počítá z napětí na diodě pomocí nějakých konstant modelujících její teplotně napětovou charakteristiku, dají se poladit i ty. Pokud dám výrobci základní desky pro BIOS a ovladače kód, který s tím pro nízkoúrovňovou regulaci ventilátorů počítá, tak to ani nemusí nikdo moc vědět. A ono to možná ani nenadělá moc velké technické problémy. Protože tepelná setvačnost chladiče je o několik řádů vyšší, než setrvačnost jednotlivých částí procesoru, jejichž řízení a ochranu mám stejně řešené na úrovni obvodů v čipu.
A pokud vývojáři základovek použijí obdobné algoritmy i pro řízení ventilátorů konkurenčního procesoru, tím lépe. Když ten posílá ven skutečné teploty v reálném čase a s velkými výkyvy, budou otáčky ventilátoru pořád kolísat a konkurenční výrobce bude (na rozdíl ode mne) ještě za pitomce. Inu svět není černobílý a může být mnohem pestřejší, než si většina lidí je vůbec ochotna připustit.
Odpovědět3 2
Tuhle teplou hysterii rozdmychavaji lide, kteri nevedi o cem mluvi. A mozna jsou posedli i strachem z toho, ze 100C je teplota teploty varu. A nejak zapominaji, ze je to teplota varu vody a ne kremiku ;-).
Kazdy vyrobce polovodicu udava povolenou teplotu prechodu a na tu se navrhuji chladice napr. vykonivych tranzistoru. Obvykle je to teplota 125C a chladic (presneji tepelne odpory na ceste mezi prechodem a okolnim vzduchem) se ma navrhovat tak, aby pri maximalnim zatizeni nedochazelo k prekrocovani teto teploty.
Pokud date na vykonovy tranzistor nedostatecny chladic a zatizite ho na maximum, tak se znici. U procesoru to nehrozi, protoze obsahuje regulacni obvody merici teplotu a kdyz je prilis vysoka, tak se snizi kmitocty i napeti a tedy i vypocetni vykon a ztratove teplo tak, aby procesor fungoval v bezpecnych mezich. Proto ani lhani intelu o TDP (Thermal Design Power = tepelny vykon, na ktery se ma pocitat chladic) nemuze zpusobit zniceni procesoru. Chladic dimenzovany na intelske TDP zpusobi jen to, ze regulacni obvody snizi vypocetni vykon a ten bude mnohem nizsi, nez jakym se intel chlubi v testech delanych s velmi vykonym chlazenim.
Povolenou teplotu urcuje vyrobce nejen podle tepelne odolnosti obvodu, ale i podle zpusobu mereni teplot. Cim se meri dal na ceste od zdroje tepla do okolniho vzduchu, tim bude bezpecna teplota nizsi. Jednou pricinou je ubytrk teploty na tepelnych odporech materialu a prechodu na ceste tepla od zdroje. A druhou je tepelna setrvacnost tech materialu. Kdyby se teplota merila na nejvzdalenejsim zebru chladice, tak prirychlem rustu zateze muze dojit k tomu, ze soucastka shori driv, nez se chladic stihne vubec ohrat tak, aby se regulace uplatnila.
Driv se merila teplota procesoru jednou diodou nekde na cipu, nebo dokonce na zalladni desce pod procesorem. To bylo nepresne a pomale. Proto ma amd (a asi i intel) v procesoru spoustu snimacu teploty. Mereni v blizkosti mista vzniku tepla umoznuje mnohem presnejsi a rychlejsi regulaci vykonu a tedy i zmensovani rezerv potrebnych pro bezpecne fungovani procesoru.
Kdyz je nekdo ze starych procesoru a od intelu zvykly na nejake mezni teploty a podle nich posuzuje teplotu hlasenou ryzeny,nebo kritizuje jeji rychle kolisani, tak jen ukazuje, jak je uplne mimo. Ryzeny totiz hlasi nejvyssi teplotu merenou v kritickych mistech, ktere jsou zdroji tepla. Zachyti tedy i spicky, ktere by vzdalenejsi mereni vubec nezaznamenalo, protoze zbytek cipu je podstatne chladnejsi. A diky rychle lokalni regulaci muze snizit vykon jen v prislusnem obvodu a nemusi skrtit cely procesor.
Kazdy vyrobce polovodicu udava povolenou teplotu prechodu a na tu se navrhuji chladice napr. vykonivych tranzistoru. Obvykle je to teplota 125C a chladic (presneji tepelne odpory na ceste mezi prechodem a okolnim vzduchem) se ma navrhovat tak, aby pri maximalnim zatizeni nedochazelo k prekrocovani teto teploty.
Pokud date na vykonovy tranzistor nedostatecny chladic a zatizite ho na maximum, tak se znici. U procesoru to nehrozi, protoze obsahuje regulacni obvody merici teplotu a kdyz je prilis vysoka, tak se snizi kmitocty i napeti a tedy i vypocetni vykon a ztratove teplo tak, aby procesor fungoval v bezpecnych mezich. Proto ani lhani intelu o TDP (Thermal Design Power = tepelny vykon, na ktery se ma pocitat chladic) nemuze zpusobit zniceni procesoru. Chladic dimenzovany na intelske TDP zpusobi jen to, ze regulacni obvody snizi vypocetni vykon a ten bude mnohem nizsi, nez jakym se intel chlubi v testech delanych s velmi vykonym chlazenim.
Povolenou teplotu urcuje vyrobce nejen podle tepelne odolnosti obvodu, ale i podle zpusobu mereni teplot. Cim se meri dal na ceste od zdroje tepla do okolniho vzduchu, tim bude bezpecna teplota nizsi. Jednou pricinou je ubytrk teploty na tepelnych odporech materialu a prechodu na ceste tepla od zdroje. A druhou je tepelna setrvacnost tech materialu. Kdyby se teplota merila na nejvzdalenejsim zebru chladice, tak prirychlem rustu zateze muze dojit k tomu, ze soucastka shori driv, nez se chladic stihne vubec ohrat tak, aby se regulace uplatnila.
Driv se merila teplota procesoru jednou diodou nekde na cipu, nebo dokonce na zalladni desce pod procesorem. To bylo nepresne a pomale. Proto ma amd (a asi i intel) v procesoru spoustu snimacu teploty. Mereni v blizkosti mista vzniku tepla umoznuje mnohem presnejsi a rychlejsi regulaci vykonu a tedy i zmensovani rezerv potrebnych pro bezpecne fungovani procesoru.
Kdyz je nekdo ze starych procesoru a od intelu zvykly na nejake mezni teploty a podle nich posuzuje teplotu hlasenou ryzeny,nebo kritizuje jeji rychle kolisani, tak jen ukazuje, jak je uplne mimo. Ryzeny totiz hlasi nejvyssi teplotu merenou v kritickych mistech, ktere jsou zdroji tepla. Zachyti tedy i spicky, ktere by vzdalenejsi mereni vubec nezaznamenalo, protoze zbytek cipu je podstatne chladnejsi. A diky rychle lokalni regulaci muze snizit vykon jen v prislusnem obvodu a nemusi skrtit cely procesor.
Odpovědět8 0
Ne že by to u těchhle Intelích pohádek o zářné budoucnosti bylo moc podstatné, ale podle Jana Olšana z cnews Intel v prezentaci na letošní konferenci Hot Chips přiznal, že grafika nebude na 3nm, ale na 5nm. A že i většina ostatního křemíku těchto procesorů bude od konkurenční TSMC.
Ale podpora sledování paprsků u integrované grafiky je opravdu bomba, kvůli které půjdou ty procesory určitě na dračku :-D.
Ale podpora sledování paprsků u integrované grafiky je opravdu bomba, kvůli které půjdou ty procesory určitě na dračku :-D.
Odpovědět9 0
Podpora dx9 uzivatelum asi chybet nebude, protoze to microsofti emulace prekladem z dx9 do dx12 zvladne nejspis s dostatecnym vykonem.
Ale urcite bude chybet vykom a funkcnost v dx11 hrach, kterych je porad hodne.
Navic ma ta karta pro srovnatelny vykon o dost vetsi spotrebu. Fandove intelu jsou na to sice zvykli uz z procesoru, ale u grafik to bude bolet podstatne vic. Ty na rozdil od cpu, ktere ve i ve hrach jede vetsinou na pul plynu, jedou ve hre vetsinou na plny vykon.
Ale urcite bude chybet vykom a funkcnost v dx11 hrach, kterych je porad hodne.
Navic ma ta karta pro srovnatelny vykon o dost vetsi spotrebu. Fandove intelu jsou na to sice zvykli uz z procesoru, ale u grafik to bude bolet podstatne vic. Ty na rozdil od cpu, ktere ve i ve hrach jede vetsinou na pul plynu, jedou ve hre vetsinou na plny vykon.
Odpovědět6 0
Koukam, ze inteli Radzuv graficky marketing se s temi uniky docela snazi ;-).
Odpovědět0 0
Velikost vyrovnavaci mezipameti (cache) ovlivnuje u sekvencnich operaci jen rychlost zapisu. A ta neni pro normalniho uzivatele tak moc zajimava, protoze cteni dat z disku v beznem pouziti naprosto prevazuje nad zapisovanim.
Vetsi problem je, ze ani tak vykonny disk pocitac moc nezrychli, protoze uzka mista jsou jinde. Prechod z sata ssd (500MB/s) na 4xpcie (2500MB/s), coz byl narust o 400%, zrychlil start windows asi o 20%. V absolutnich cislech slo o zkraceni startu o 5 sekund, cehoz si clovek prakticky ani nevsimne.
Jsme tedy ve podobnem stavu jako u cpu a monitoru. Ty uz dlouho maji vykon a parametry, ktere naproste vetsine uzivatelu vic nez dost staci, ale vyrobci porad posouvaji kmitocty, jadra a teoreticky vykon mereny v testech, aby ukazali, ze jsou jejich vyrobky lepsi (nez konkurence) a presvedcili lidi, ze si maji koupit nove zelezo (prave od nich).
Vetsi problem je, ze ani tak vykonny disk pocitac moc nezrychli, protoze uzka mista jsou jinde. Prechod z sata ssd (500MB/s) na 4xpcie (2500MB/s), coz byl narust o 400%, zrychlil start windows asi o 20%. V absolutnich cislech slo o zkraceni startu o 5 sekund, cehoz si clovek prakticky ani nevsimne.
Jsme tedy ve podobnem stavu jako u cpu a monitoru. Ty uz dlouho maji vykon a parametry, ktere naproste vetsine uzivatelu vic nez dost staci, ale vyrobci porad posouvaji kmitocty, jadra a teoreticky vykon mereny v testech, aby ukazali, ze jsou jejich vyrobky lepsi (nez konkurence) a presvedcili lidi, ze si maji koupit nove zelezo (prave od nich).
Odpovědět1 0
Rozdil je mozna v tom, za se ty nuzky mezi vykonem a spotrebou se oteviraji jeste vic, nez driv. Vytahovat se vykonem cpu pri prikonu 400w je uz opravdu tezky absurdistan.
Odpovědět4 0
Bude mit z ostudy kabat ne proto, ze neni schopno dosahovat frekvence jako amd, ale proto, ze pro dosazeni stejneho (maximalniho) vykonu jako konkurence musi hnat procesory daleko za optimalni provozni rezimy a tak pri stejnem vykonu zerou kolem dvojnasobku energie.
Jinak v dobe, kdy intel prisel s core2 architekturou a amd procesort jeji vykon dohanely vysokymi takty a s tim souvisejici spotrebou, tak jim spousta lidi nadavalo do primotopu. A ted, kdyz se situace obratila, tem nejvetsim kritikum amd najednou u intelu spotreba nevadi.
Jinak v dobe, kdy intel prisel s core2 architekturou a amd procesort jeji vykon dohanely vysokymi takty a s tim souvisejici spotrebou, tak jim spousta lidi nadavalo do primotopu. A ted, kdyz se situace obratila, tem nejvetsim kritikum amd najednou u intelu spotreba nevadi.
Odpovědět4 0
To rozhodnuti bylo asi celkem racionalni. S novymi procesory prislo automaticke pretaktovani vyzadujici posporu ze strany zakladnich desek a mozna jeste podstatnejsi zmena byla rychlejsi verze pcie.
A na zakladovkach, ktere na to konstrukcelne nebyly priptaveny by to nefungovalo, nebo fungovalo spatne. A nejvetsi problem by mohlo byt poskozeni dat na ssd discich. A kolem toho by temer jiste par (zvlast tech intel pozitivnich) webu a pitomcu zacalo delat velky humbuk.
Tak to pouziti novych procesoru na starych deskach nakonec (zrejme po zvazeni reputacnich rizik) zakazali. A povolili to az pozdeji, kdy uz je riziko male, protoze stare desky uz (temer) nejdou koupit a tak je ta kombinace zajimava jen pro lidi, kteri vedi, co delaji.
A na zakladovkach, ktere na to konstrukcelne nebyly priptaveny by to nefungovalo, nebo fungovalo spatne. A nejvetsi problem by mohlo byt poskozeni dat na ssd discich. A kolem toho by temer jiste par (zvlast tech intel pozitivnich) webu a pitomcu zacalo delat velky humbuk.
Tak to pouziti novych procesoru na starych deskach nakonec (zrejme po zvazeni reputacnich rizik) zakazali. A povolili to az pozdeji, kdy uz je riziko male, protoze stare desky uz (temer) nejdou koupit a tak je ta kombinace zajimava jen pro lidi, kteri vedi, co delaji.
Odpovědět2 0
Rekl bych, ze drtivy neni ani tak vykon, jako spis ta spotreba :-O.
Odpovědět5 0
Nejak ten vykon v benchmarcich vyrobit museji. Holt, kdyz musis, tak musis; -).
Odpovědět2 0
Cas kopirovani milionu malych souboru byste preci mohl sam odhadnout ;-) z poctu iops pri zpracivani 4kB bloku (viz dale).
Ale pokud cele dni jen kopirujete miliony malych souboru na rotacni disky, tak tenhle ssd disk asi nevyuzijete ;-). A vlastne ani jiny ssd disk :-D.
Jinak vsak souhlasim, ze honit se za kazdou cenu za rychlosti ssd disku je nesmysl. Rychlost systemu je omezovana rychlosti nejslabsiho clanku v retezci zpracovani a kdyz je nekde uzke hrdlo, tak zrychlovani jinych komponent system moc nezrychli. A plati to nejen o ssd discich, ale i grafikach a procesorech.
Ale v marketingu se pitomcum vetsi cisla dobre prodavaji. Inu, cim vic prouzku, tim vic a(j)didas. Prikladem mohou byt aktualni intelske procesory. Nekteri je obdivuji, ze maji grafiku na 16x pcie 5.0, ale vubec je nenapadne si polozit otazku, kde se vezmou data, ktera se po te sbernici budou posilat.
Pak by je mozna napadlo, ze je to rozhrani gpu ponekud predimenzovane. Data pro grafiku se tahaji z disku, ktery je pripojen nanejvys pres m2 port 4x pcie 4.0. Ctvrtina linek s polovicni rychlosti znamana 8x mensi rychlost zdroje dat.
To 16x pcie 5.0 rozhrani by mohlo mit smysl jen tehdy, kdyby herni data na disku byla velmi komprimovana a jejich dekomprese procesorem by byla dostatecne rychla. Pak by mozna mohl byt rozdil v rychlosti nacitani her mezi pcie 4.0 a 5.0 rozhranim trochu poznat. Bylo by mozna zajimave to otestovat. Ale vsichni delaji jen testy fps a tam bude rozdil u karet s rozumnou velikosti pameti minimalni.
Ale kdyby intel rozdelil ty pcie 5.0 linky mezi gpu a disky byly by desky dalo pouzitelnejsi pro vic lidi. Jenze 8 linek pro gpu asi marketingove nevypadalo tak dobre, jako 16.
A jeste ke kopirovani milionu malych souboru. Nejdriv budu uvazovat kopirovani 4kB souboru mezi stejnymi ssd disky.
Zapis je pomalejsi a bude tedy brzdit vic nez cteni. Pri zapisu je minimalne potreba precist informaci o adresari, zapsat soubor a pak aktualizovat adresarovy zaznam. Kdyby kazda operace vystacila s blokem 4kB tak se pri iops 610 tisic da teoreticky zapsat 200 tisic souboru za sekundu. Pak by milion souboru trval 5 sekund.
Jenze tech 610 tisic iops bude z testu pri hloubce ftonty 32. Ale frontu 32 pozadavku windows pri praci se souborovym systemem nezvladnou a delka fronty bude tak asi o rad kratsi. Navic to budou asi zpracovavat jednovlaknove a s velkou rezii. Tak se da cekat doba zpracovani o 1-2 rady delsi. Takze minimalne 1 nebo spis kolem 10 minut.
Ale 4kB bloky na rotacnim disku to je uplne jina liga, nez ssd. Hadam tak o 3-5 radu ;-). Nikdy jsem nemel nervy na to, nechat dobehnout asSSD test na rotacnim disku. Ale u kopirovani malych souboru hodne zalezi na velikosti vyrovnavaci pameti v ramce.
Ale pokud cele dni jen kopirujete miliony malych souboru na rotacni disky, tak tenhle ssd disk asi nevyuzijete ;-). A vlastne ani jiny ssd disk :-D.
Jinak vsak souhlasim, ze honit se za kazdou cenu za rychlosti ssd disku je nesmysl. Rychlost systemu je omezovana rychlosti nejslabsiho clanku v retezci zpracovani a kdyz je nekde uzke hrdlo, tak zrychlovani jinych komponent system moc nezrychli. A plati to nejen o ssd discich, ale i grafikach a procesorech.
Ale v marketingu se pitomcum vetsi cisla dobre prodavaji. Inu, cim vic prouzku, tim vic a(j)didas. Prikladem mohou byt aktualni intelske procesory. Nekteri je obdivuji, ze maji grafiku na 16x pcie 5.0, ale vubec je nenapadne si polozit otazku, kde se vezmou data, ktera se po te sbernici budou posilat.
Pak by je mozna napadlo, ze je to rozhrani gpu ponekud predimenzovane. Data pro grafiku se tahaji z disku, ktery je pripojen nanejvys pres m2 port 4x pcie 4.0. Ctvrtina linek s polovicni rychlosti znamana 8x mensi rychlost zdroje dat.
To 16x pcie 5.0 rozhrani by mohlo mit smysl jen tehdy, kdyby herni data na disku byla velmi komprimovana a jejich dekomprese procesorem by byla dostatecne rychla. Pak by mozna mohl byt rozdil v rychlosti nacitani her mezi pcie 4.0 a 5.0 rozhranim trochu poznat. Bylo by mozna zajimave to otestovat. Ale vsichni delaji jen testy fps a tam bude rozdil u karet s rozumnou velikosti pameti minimalni.
Ale kdyby intel rozdelil ty pcie 5.0 linky mezi gpu a disky byly by desky dalo pouzitelnejsi pro vic lidi. Jenze 8 linek pro gpu asi marketingove nevypadalo tak dobre, jako 16.
A jeste ke kopirovani milionu malych souboru. Nejdriv budu uvazovat kopirovani 4kB souboru mezi stejnymi ssd disky.
Zapis je pomalejsi a bude tedy brzdit vic nez cteni. Pri zapisu je minimalne potreba precist informaci o adresari, zapsat soubor a pak aktualizovat adresarovy zaznam. Kdyby kazda operace vystacila s blokem 4kB tak se pri iops 610 tisic da teoreticky zapsat 200 tisic souboru za sekundu. Pak by milion souboru trval 5 sekund.
Jenze tech 610 tisic iops bude z testu pri hloubce ftonty 32. Ale frontu 32 pozadavku windows pri praci se souborovym systemem nezvladnou a delka fronty bude tak asi o rad kratsi. Navic to budou asi zpracovavat jednovlaknove a s velkou rezii. Tak se da cekat doba zpracovani o 1-2 rady delsi. Takze minimalne 1 nebo spis kolem 10 minut.
Ale 4kB bloky na rotacnim disku to je uplne jina liga, nez ssd. Hadam tak o 3-5 radu ;-). Nikdy jsem nemel nervy na to, nechat dobehnout asSSD test na rotacnim disku. Ale u kopirovani malych souboru hodne zalezi na velikosti vyrovnavaci pameti v ramce.
Odpovědět0 0
4D :-). To jako, ze se vydaji 3D cipy, ale zacnou se prodavat (mozna) az nekdy casem. Tahle 4D technologie zacina byt posledni dobou dost oblibena ;-).
Odpovědět0 0
Ale při zvyšování napětí a příkonu rostou i teploty a začíná být problém s chlazením. A nejde jen o to jestli máte dostatečně výkonný chladič, ale i o rychlost přenosu tepla k chladiči a také uvnitř obvodů.
Zádrhel je i v tom, že součinitel odporu vodiˇčů roste s teplotou a tak na protlačení proudu potřebujete vyšší napětí. Pokud se nestíhá teplo, na které se dodaná energie přemění dostatečně rychle odvádět, tak se postupně zvyšuje teplota vodičů i jejich odpor a stoupají nároky na potřebné napětí. A když se napětí zvyšuje, skončí to celé na teplotním dorazu procesoru. Tedy pokud se v BIOSu nevypne. Pak to skončí v křemíkovém nebi.
Když se tedy někdo snaží přetaktovat tím, že rovnou napálí co nejvyšší napětí, tak nemá moc šanci na úspěch. Je potřeba držet tak nízké jak jen to jde, aby se vyrábělo co nejméně tepla. A sledovat, jestli pod zátěží zastaví růst vnitřní teploty obvodů na nějaké rozumné hodnotě. A ta bývá o dost níž, než je teplotní doraz procesoru, protože může dojít i k lokálnímu přehřátí, které senzory nevidí, ale cpu stejně spadne.
Taktovat takhle na krev, ale není úplně dobré, protože pak se v místnosti v létě oteplí a počítač začně náhodně padat.
Zádrhel je i v tom, že součinitel odporu vodiˇčů roste s teplotou a tak na protlačení proudu potřebujete vyšší napětí. Pokud se nestíhá teplo, na které se dodaná energie přemění dostatečně rychle odvádět, tak se postupně zvyšuje teplota vodičů i jejich odpor a stoupají nároky na potřebné napětí. A když se napětí zvyšuje, skončí to celé na teplotním dorazu procesoru. Tedy pokud se v BIOSu nevypne. Pak to skončí v křemíkovém nebi.
Když se tedy někdo snaží přetaktovat tím, že rovnou napálí co nejvyšší napětí, tak nemá moc šanci na úspěch. Je potřeba držet tak nízké jak jen to jde, aby se vyrábělo co nejméně tepla. A sledovat, jestli pod zátěží zastaví růst vnitřní teploty obvodů na nějaké rozumné hodnotě. A ta bývá o dost níž, než je teplotní doraz procesoru, protože může dojít i k lokálnímu přehřátí, které senzory nevidí, ale cpu stejně spadne.
Taktovat takhle na krev, ale není úplně dobré, protože pak se v místnosti v létě oteplí a počítač začně náhodně padat.
Odpovědět1 0
V textu je přeci jasně napsáno, že těch 1,5V má CPU při přetaktování na 6,2GHz a tam ten procesor nemá příkon 244w ani omylem. Těch 244w je hodnotu PL2, kdy má cpu standardním napětí podle specifikací, což může být někde kolem těch 1,3V.
Hodnotu PL1=125W má procesor při všech jádrech jen na základním kmitočtu 3,4GHz. Tam by měl běžet v plné zátěži jen, pokud je zapnuté hlídání PL1 limitu a zátěž tvá delší dobu, než je daná Intelem (řád sekund). Ale dneska je běžné, že výrobce desky hlídání PL1 vypíná a tak Intelská cpu běží v plné zátěži na PL2. A Intel to výrobcům v podstatě (neoficiálně) doporučuje, protože na PL1 by byl výkon dost bídný.
Na příkonu 160-180W procesor může běžet, ale jen pokud nebude v plné zátěži. Nebo se musí poddtaktovat a příslušně podvoltovat. Nebo snížit limit, který hlídá základní deska (PL1/PL2) na tuto hodnotu.
Turbo 5,3GHz je maximum pro zátěž jednoho jádra, kde se limity příkonu vůbec neuplatní. V tomto režimu je při daném napětí kmitočet omezen rychlost nabíjení vnitřních kapacit obvodů a spojů přes jejich vnitřní odpory. Při pokusu o zvýšení kmitočtu napětí na těch kapacitách nedolezou k rozhodovacím hladinám, identifikace 0/1 začne selhávat a procesor přestane fungovat.
Jediná cesta ke zvýšení kmitočtu je, nabít vnitřní kapacity obvodů rychleji a to se dá dosáhnout jen zvýšením napájecího napětí, které přes vnitřní odpory protlačí větší proudy. Cenou za to je ale potřeba většího příkonu. A ta roste přibližně kvadraticky, protože P=U*I a I=U/R a příkon je pak P=U*U/I.
Když vezmu, že napětí, které procesor potřebuje bude záviset na kmitočtu (přibližně) lineárně, vychází kmitočet při PL2=244 (turbo na všechna jádra) na 4,75GHz.
Pokud se vypne hlídání PL2 mohlo by jít turbo na všech jádrech až na těch 5,3GHz a příkon by pak vycházel asi 304W. Kolik byl mohl být příkon cpu při tom maximálním přetaktování pod dusíkem na 6,18GHz se rozumně spočítat nedá, protože pro to nejsou data. Kdyby se tam podařilo dotlačit všechna jádra byl by příkon 413W.
Kdybychom vzali, že poměr mezi turbem na jednom a na všech jádrech bude stejný, jako je při běhu podle specifikací, tak vyjde pro to extrémní přetaktování všech jader kmitočet 5,54GHz a příkon 332W.
Hodnotu PL1=125W má procesor při všech jádrech jen na základním kmitočtu 3,4GHz. Tam by měl běžet v plné zátěži jen, pokud je zapnuté hlídání PL1 limitu a zátěž tvá delší dobu, než je daná Intelem (řád sekund). Ale dneska je běžné, že výrobce desky hlídání PL1 vypíná a tak Intelská cpu běží v plné zátěži na PL2. A Intel to výrobcům v podstatě (neoficiálně) doporučuje, protože na PL1 by byl výkon dost bídný.
Na příkonu 160-180W procesor může běžet, ale jen pokud nebude v plné zátěži. Nebo se musí poddtaktovat a příslušně podvoltovat. Nebo snížit limit, který hlídá základní deska (PL1/PL2) na tuto hodnotu.
Turbo 5,3GHz je maximum pro zátěž jednoho jádra, kde se limity příkonu vůbec neuplatní. V tomto režimu je při daném napětí kmitočet omezen rychlost nabíjení vnitřních kapacit obvodů a spojů přes jejich vnitřní odpory. Při pokusu o zvýšení kmitočtu napětí na těch kapacitách nedolezou k rozhodovacím hladinám, identifikace 0/1 začne selhávat a procesor přestane fungovat.
Jediná cesta ke zvýšení kmitočtu je, nabít vnitřní kapacity obvodů rychleji a to se dá dosáhnout jen zvýšením napájecího napětí, které přes vnitřní odpory protlačí větší proudy. Cenou za to je ale potřeba většího příkonu. A ta roste přibližně kvadraticky, protože P=U*I a I=U/R a příkon je pak P=U*U/I.
Když vezmu, že napětí, které procesor potřebuje bude záviset na kmitočtu (přibližně) lineárně, vychází kmitočet při PL2=244 (turbo na všechna jádra) na 4,75GHz.
Pokud se vypne hlídání PL2 mohlo by jít turbo na všech jádrech až na těch 5,3GHz a příkon by pak vycházel asi 304W. Kolik byl mohl být příkon cpu při tom maximálním přetaktování pod dusíkem na 6,18GHz se rozumně spočítat nedá, protože pro to nejsou data. Kdyby se tam podařilo dotlačit všechna jádra byl by příkon 413W.
Kdybychom vzali, že poměr mezi turbem na jednom a na všech jádrech bude stejný, jako je při běhu podle specifikací, tak vyjde pro to extrémní přetaktování všech jader kmitočet 5,54GHz a příkon 332W.
Odpovědět1 0
Dik za odkaz
Odpovědět0 0
Nevim, kde RadecekH pracuje, ale je videt, ze ma o Intelu velmi dukladne informace. Tak dobre znalosti o firme casto nemjva ani jeji tiskovy mluvci :-O.
Ale kvuli tomu, ze nekdo nesleduje Intel stejne dukladne, ho nazyvat financni nulou s kratkou a selektivni pameti, to chce opravdu silnou osobnost. Mozna az intelovsky ;-).
Jeste, ze Lise Su nikdo nerekl, ze CEO nic nerozhoduje a je ve firme jen na zvaneni :-O. To bychom tu asi porad meli 4 jadra za 15 litru. No, ale mozna uz 5-ti jadra :-D.
Tvarit se, ze Intel byl v zisku malem proto, ze amd zacalo delat ryzeny a ted jeve strate z uplne jinych duvodu, to chce taky chlapa s gulama ;-).
A kdyz uz RadecekH nakousl marze, tak mohu doporucit moc pekny graf vyvoje marzi amd a intelu a vysvetleni toho, to to pro obe firmy znamena. Ma ho no-x na diit v clanku Intel chce valcivat konkurenci vyhodnejsimi cenami.
A pokud jde o prodej akcii, ktery udelal CEO Intelu pred provalenim pruseru s bezpecnostnimi dirami Core architektury. To, ze nekoho neodsoudi, nemusi nutne znanenat, ze nic neudelal. Mame prezumpci neviny a tak to muze znamenat i to, ze nebylo dost dukazu, nebo vule dokazat, nebo treba i to, ze si zalovany koupil dost dobreho pravnika.
Ale uz to, ze sef firmy, ktery ji ma vest k zarnym zitrkum proda jeji akcie hned, jak je v ramci platu dostane, je dost divne. Vypada to, ze nema o firme a sve schopnosti ji vest moc valne mineni. I kdyz pokud je CEO Intelu jen prazdna mluvici hlava, jak RadecekH naznacuje, tak se tem jeho okamzitym prodejum ziskanych akcii nelze asi zas tak moc divit.
Mimochode, ani to, ze na prodeji akcii "prodelal", neni dukazem toho, ze neprodaval s vetsi znalosti internich informaci a problemu firmy, nez ma bezny investor z verejnych zdroju. V dobe prodeje tezko mohl vedet, ze prijdou kryptomanie a covid, ktere vyvolaji obrovsky hlad po pocitacovych cipech a vyzenou zisky i akcie intelu do oblak.
Ale kvuli tomu, ze nekdo nesleduje Intel stejne dukladne, ho nazyvat financni nulou s kratkou a selektivni pameti, to chce opravdu silnou osobnost. Mozna az intelovsky ;-).
Jeste, ze Lise Su nikdo nerekl, ze CEO nic nerozhoduje a je ve firme jen na zvaneni :-O. To bychom tu asi porad meli 4 jadra za 15 litru. No, ale mozna uz 5-ti jadra :-D.
Tvarit se, ze Intel byl v zisku malem proto, ze amd zacalo delat ryzeny a ted jeve strate z uplne jinych duvodu, to chce taky chlapa s gulama ;-).
A kdyz uz RadecekH nakousl marze, tak mohu doporucit moc pekny graf vyvoje marzi amd a intelu a vysvetleni toho, to to pro obe firmy znamena. Ma ho no-x na diit v clanku Intel chce valcivat konkurenci vyhodnejsimi cenami.
A pokud jde o prodej akcii, ktery udelal CEO Intelu pred provalenim pruseru s bezpecnostnimi dirami Core architektury. To, ze nekoho neodsoudi, nemusi nutne znanenat, ze nic neudelal. Mame prezumpci neviny a tak to muze znamenat i to, ze nebylo dost dukazu, nebo vule dokazat, nebo treba i to, ze si zalovany koupil dost dobreho pravnika.
Ale uz to, ze sef firmy, ktery ji ma vest k zarnym zitrkum proda jeji akcie hned, jak je v ramci platu dostane, je dost divne. Vypada to, ze nema o firme a sve schopnosti ji vest moc valne mineni. I kdyz pokud je CEO Intelu jen prazdna mluvici hlava, jak RadecekH naznacuje, tak se tem jeho okamzitym prodejum ziskanych akcii nelze asi zas tak moc divit.
Mimochode, ani to, ze na prodeji akcii "prodelal", neni dukazem toho, ze neprodaval s vetsi znalosti internich informaci a problemu firmy, nez ma bezny investor z verejnych zdroju. V dobe prodeje tezko mohl vedet, ze prijdou kryptomanie a covid, ktere vyvolaji obrovsky hlad po pocitacovych cipech a vyzenou zisky i akcie intelu do oblak.
Odpovědět2 1
Jo, jo, psat na mobilu je na prd. A plnit tenhle web bez Vitka musi byt celkem narocne. Mimochodem, ma jen delsi dovolenou, nebo zmenil pusobiste?
Odpovědět1 0
Dik za upresneni. Ty desitky let jsem cetl na nejakem celkem duveryhodnem webu (tomshardware?). Mel jsem napsat pry a byl bych z obliga :-O. To je tak, kdyz clovek veri novinarum ;-). A neoveruje si primarni zdroje.
Tak mi to nedalo a vysledky Intelu za ten rok 2017 jsem si overil v jejich vyrocni zprave. V tom roce se totiz amd sotva zacalo probouzet z klinicke smrti (prvni ryzen 02/2017), intel (temer) zcela ovladal procesorovy trh a nemel zadny duvod ke ztrate.
CEO Intelu Bob Swan se ve zprave holedbal, ze rok 2017 a jeho 4. kvartal byly rekordni. Tak jsem kouknul na cisla a co byste rek? Mel ho tam. ;-) Za 4Q byla podle gaap metodiky ztrata :-O.
Jenze u ni taky poznamka "zpusobeno danovymi vlivy". Takze zrejme v predchozich ctvrtletich odkladali ucetnimi "optimalizacemi" placeni dani tak dlouho, az je to dostihlo a museli asi vsecho zaplatit v 4Q17, coz se formalne projevilo jako ucetni ztrata. Ale realne ve ztrate nebyli ani omylem. Takre ti novinari s desetiletimi bez ztrat mozna vlastne ani tak moc nekecali.
Je dobre dodat, ze v 2Q22 je to uplne jinak. Ta gaap ztrata 454 milionu je realna a pry nebyt toho, ze dostali vraceny danovy bonus 455 milionu, tak by jejich ztrata byla 700 milionu. A vyhled na dalsi kvartaly nejsou nic moc.
Tak mi to nedalo a vysledky Intelu za ten rok 2017 jsem si overil v jejich vyrocni zprave. V tom roce se totiz amd sotva zacalo probouzet z klinicke smrti (prvni ryzen 02/2017), intel (temer) zcela ovladal procesorovy trh a nemel zadny duvod ke ztrate.
CEO Intelu Bob Swan se ve zprave holedbal, ze rok 2017 a jeho 4. kvartal byly rekordni. Tak jsem kouknul na cisla a co byste rek? Mel ho tam. ;-) Za 4Q byla podle gaap metodiky ztrata :-O.
Jenze u ni taky poznamka "zpusobeno danovymi vlivy". Takze zrejme v predchozich ctvrtletich odkladali ucetnimi "optimalizacemi" placeni dani tak dlouho, az je to dostihlo a museli asi vsecho zaplatit v 4Q17, coz se formalne projevilo jako ucetni ztrata. Ale realne ve ztrate nebyli ani omylem. Takre ti novinari s desetiletimi bez ztrat mozna vlastne ani tak moc nekecali.
Je dobre dodat, ze v 2Q22 je to uplne jinak. Ta gaap ztrata 454 milionu je realna a pry nebyt toho, ze dostali vraceny danovy bonus 455 milionu, tak by jejich ztrata byla 700 milionu. A vyhled na dalsi kvartaly nejsou nic moc.
Odpovědět4 1
Já bych na redaktory nebyl tak přísný. Příchod je dost obecné slovo a jako dostupnost bych ho asi nevykládal.
Odpovědět1 0
Schválně jsem tu zkusil hledat starší články. Když Intel oznamoval rekordní výsledky za předchozí kvartály (4Q21, 1Q22), tak k tomu tady články byly. Ale o jeho půlmiliardové ztrátě za letošní 2.čtvrtletí ani čárka. Přitom je to událost, která tu nebyla několik desítek let.
A navíc bylo to oznámeno bez varování a Intel do poslední chvíle lhal, i když musel velmi dobře a celkem brzo vědět, jaký to bude průser. Počítám, že ještě bude čelit hromadné žalobě investorů, protože nesplnil svou informační povinnost a zatajoval informace klíčové pro jejich rozhodování.
A navíc bylo to oznámeno bez varování a Intel do poslední chvíle lhal, i když musel velmi dobře a celkem brzo vědět, jaký to bude průser. Počítám, že ještě bude čelit hromadné žalobě investorů, protože nesplnil svou informační povinnost a zatajoval informace klíčové pro jejich rozhodování.
Odpovědět4 1
Ano, podle jednoho úniku má prý být předváděčka nejlepších 670E základních desek několika výrobců.
A z tohoto zdroje byl i obrázek (údajně) z prezentace, kde byla formulace v duchu "DŘÍVE PŘEDSTAVENÉ procesory AMD 7000". Pokud tedy nešlo v tom úniku o podvrh, mohly by být procesory na začátku té prezentace aspoň oznámeny.
A z tohoto zdroje byl i obrázek (údajně) z prezentace, kde byla formulace v duchu "DŘÍVE PŘEDSTAVENÉ procesory AMD 7000". Pokud tedy nešlo v tom úniku o podvrh, mohly by být procesory na začátku té prezentace aspoň oznámeny.
Odpovědět0 0
Čekal bych, že se článek s informací z ohlášení finančních výsledků firmy AMD bude jmenovat jinak, než "Spekulace o datu vydání procesorů 7000 před koncem září se oficiálně potvrdily" ;-).
Co třeba "Přes velký propad zájmu o PC příjmy AMD vzrostly meziročně o 70%". Nebo možná: "Ztrátu Intelu ve výši půl miliardy si téměř celou připsalo AMD do zisku" ;-) :-D.
Ale to asi radši ne, to ne to by bylo příliš bulvární :-).
Co třeba "Přes velký propad zájmu o PC příjmy AMD vzrostly meziročně o 70%". Nebo možná: "Ztrátu Intelu ve výši půl miliardy si téměř celou připsalo AMD do zisku" ;-) :-D.
Ale to asi radši ne, to ne to by bylo příliš bulvární :-).
Odpovědět5 1
Poráží :-O ? To zní dost velikášsky, až velkohubě. Skoro, jak z tiskovky Samsungu ;-). Já bych asi volil spíš mírnější termín předběhl. A porážení bych si nechal, až bude mít Samsung na zakázkové výrobě víc klientů a vyšší finanční objemy, než má TSMC.
Ta % zlepšení vypadají dobře, ale je otázka z jakého základu vycházejí a jak si stojí proti procesům TSMC. A další otázkou je taky výtěžnost. Ty těžební čipy, co dodali jsou (podle jednoho zdroje) mrňky s pár mm2. Kvalita se pozná, až se budou vyrábět brouci s plochou několik stovek mm2.
Ta % zlepšení vypadají dobře, ale je otázka z jakého základu vycházejí a jak si stojí proti procesům TSMC. A další otázkou je taky výtěžnost. Ty těžební čipy, co dodali jsou (podle jednoho zdroje) mrňky s pár mm2. Kvalita se pozná, až se budou vyrábět brouci s plochou několik stovek mm2.
Odpovědět7 0
To nebylo o moc lepší :-(. Tak snad napotřetí.
cpu_ _ bas/tur_tdp/pl2 _GB_ _ GB/ryz GB/pl2 _ _ _ryzen více o
5950x_3.4/4.9_105/142_16.504_100% _116 _100%_ _0%
13600_3.5/5.1 _125/150 _14.425_ _87% _96 _ 83%_ _21%
13600_3.5/5.1 _125/150 _16.054 _ 97% _107 _ 92% _ _9%
13700_ 3.4/5.4 125/190 _16.542 _100% _ 87 _ 75% _ 33%
cpu_ _ bas/tur_tdp/pl2 _GB_ _ GB/ryz GB/pl2 _ _ _ryzen více o
5950x_3.4/4.9_105/142_16.504_100% _116 _100%_ _0%
13600_3.5/5.1 _125/150 _14.425_ _87% _96 _ 83%_ _21%
13600_3.5/5.1 _125/150 _16.054 _ 97% _107 _ 92% _ _9%
13700_ 3.4/5.4 125/190 _16.542 _100% _ 87 _ 75% _ 33%
Odpovědět1 0
Sakra, při uložení se ta tabulka úplně rozpadla, tak ji zkusím zadat znova a pro zarovnání použít podtržítka.
cpu _bas/tur_tdp/pl2 _GB GB/ryz GB/pl2 _ryzen více o
5950x_3.4/4.9 105/142 16.504 100% 116 100% 0%
13600_3.5/5.1 _125/150 14.425 _87% 96 83% 21%
13600_3.5/5.1 _125/150 16.054 _97% 107 92% 9%
13700 _3.4/5.4 125/190 16.542 100% _87 75% 33%
cpu _bas/tur_tdp/pl2 _GB GB/ryz GB/pl2 _ryzen více o
5950x_3.4/4.9 105/142 16.504 100% 116 100% 0%
13600_3.5/5.1 _125/150 14.425 _87% 96 83% 21%
13600_3.5/5.1 _125/150 16.054 _97% 107 92% 9%
13700 _3.4/5.4 125/190 16.542 100% _87 75% 33%
Odpovědět3 0
Je zajímavé, že se pro Intel procesory zatím objevují jen anonymní úniky a to v GreekBench (GB) testech, o kterých se ví, že jsou uhnuté ve prospěch Intelu. A když pak vidím ještě oslavné články plesající nad jejich skvělými výkony bez jediné zmínky o možném reálném příkonu, tak si říkám, že se hoši z Intel marketingu musí asi docela snažit ;-).
Zkusil jsem tedy udělat malý přehled. Vztahuji hodnotu vícevláknového test GB k příkonu PL2, na kterém Intel procesory dnes většinou běží bez časového omezení. U Intel procesorů předpokládám stejné PL2, jako měly modely předchozí generace. Ryzeny se v základním režimu většinou snaží držet TDP a PL2 dosahují jen krátkodobě, ale netuším, jak moc je u testů GB dlouhodobost PL2 významná. Možná tedy bude ta 5950x mírně znevýhodněna,, ale pro orientační pohled to asi nevadí.
Pro 13600 dávám obě hodnoty GB, podle čísel se mi zdá pravděpodobnější, že hodnota 14425 je pro nepřetaktovaný a 16054 pro přetaktovaný proceseor. Zdá se mi to pravděpodobnější varianta, než že hodnota pro 13700 je z nějakého nejasného důvodu nižší, než při standardním nastavení. Vzhledem k době zveřejnění i dosahovaným kmitočtům 13700 nevypadá na nějaký nedodělaný inženýrský vzorek.
bas/tur tdp/pl2 GB GB/ryz GB/pl2 ryzen více o
5950x 3.4/4.9 105/142 16 504 100% 116 100% 0%
13600 3.5/5.1 125/150 14 425 87% 96 83% 21%
13600 3.5/5.1 125/150 16 054 97% 107 92% 9%
13700 3.4/5.4 125/190 16 542 100% 87 75% 33%
Vypadá to, že 13700 má v GreekBench stejný výsledek jako 5950x ,ale efektivita je o 25% nižší. Ryzen tedy dává na 1 W o 33% lepší výsledek než 13700.
U 13600 pro nižší výsledek GreekBench (14425) vychází mírně vyšší (lepší) efektivita 96 bodů/W, než je hodnota 87 bodů/W dosahovaná u 13700, což by mohlo odpovídat tomu, že při tomto testu běžela 13600 bez přetaktování a tedy na o něco nižších kmitočtech a s lepší efektivitou než 13700. Hodnota 16054 u 13600 bude nejspíš dosažena po přetaktování a s podstatně vyšším příkonem než těch 150W definovaných v PL2. Tomu, že by měl Intelský procesor o 7% vyšší efektivitu, než ryzen 5950x asi bude věřit málokdo.
Zkusil jsem tedy udělat malý přehled. Vztahuji hodnotu vícevláknového test GB k příkonu PL2, na kterém Intel procesory dnes většinou běží bez časového omezení. U Intel procesorů předpokládám stejné PL2, jako měly modely předchozí generace. Ryzeny se v základním režimu většinou snaží držet TDP a PL2 dosahují jen krátkodobě, ale netuším, jak moc je u testů GB dlouhodobost PL2 významná. Možná tedy bude ta 5950x mírně znevýhodněna,, ale pro orientační pohled to asi nevadí.
Pro 13600 dávám obě hodnoty GB, podle čísel se mi zdá pravděpodobnější, že hodnota 14425 je pro nepřetaktovaný a 16054 pro přetaktovaný proceseor. Zdá se mi to pravděpodobnější varianta, než že hodnota pro 13700 je z nějakého nejasného důvodu nižší, než při standardním nastavení. Vzhledem k době zveřejnění i dosahovaným kmitočtům 13700 nevypadá na nějaký nedodělaný inženýrský vzorek.
bas/tur tdp/pl2 GB GB/ryz GB/pl2 ryzen více o
5950x 3.4/4.9 105/142 16 504 100% 116 100% 0%
13600 3.5/5.1 125/150 14 425 87% 96 83% 21%
13600 3.5/5.1 125/150 16 054 97% 107 92% 9%
13700 3.4/5.4 125/190 16 542 100% 87 75% 33%
Vypadá to, že 13700 má v GreekBench stejný výsledek jako 5950x ,ale efektivita je o 25% nižší. Ryzen tedy dává na 1 W o 33% lepší výsledek než 13700.
U 13600 pro nižší výsledek GreekBench (14425) vychází mírně vyšší (lepší) efektivita 96 bodů/W, než je hodnota 87 bodů/W dosahovaná u 13700, což by mohlo odpovídat tomu, že při tomto testu běžela 13600 bez přetaktování a tedy na o něco nižších kmitočtech a s lepší efektivitou než 13700. Hodnota 16054 u 13600 bude nejspíš dosažena po přetaktování a s podstatně vyšším příkonem než těch 150W definovaných v PL2. Tomu, že by měl Intelský procesor o 7% vyšší efektivitu, než ryzen 5950x asi bude věřit málokdo.
Odpovědět6 0
Nerad bych ti bral iluze, ale to, ze si koupis ostrejsi tuzku, kterou jde namalovat tensi cara, z tebe vetsiho Michalengala neudela ;-). Ostrejsi litogtafie je jen malym stripekem z***** slozite skladacky, ktera se jmenuje navrh obvodu.
Staci se podivat na amd grafiky rady 6000 a inteli arc grafiky. Jsou vyrabene na stejne litogtafii u stejne firmy, ty inteli maji dokonce vic tranzistoru a pritom jsou jejich vysledky mnohem horsi.
Nebo si vezmi 14nm a 10nm procesory od intelu. Obe litografie i navrhy obvodu delali lide ze stejne firmy a presto byly ty 14nm procesory velmi dlouho pouzitelnejsi a lepsi nez ty 10nm.
Staci se podivat na amd grafiky rady 6000 a inteli arc grafiky. Jsou vyrabene na stejne litogtafii u stejne firmy, ty inteli maji dokonce vic tranzistoru a pritom jsou jejich vysledky mnohem horsi.
Nebo si vezmi 14nm a 10nm procesory od intelu. Obe litografie i navrhy obvodu delali lide ze stejne firmy a presto byly ty 14nm procesory velmi dlouho pouzitelnejsi a lepsi nez ty 10nm.
Odpovědět5 1
Koukam, ze co je zaklad pri pocitani procent(ni zmeny) asi neni jasne uplne vsem. Mozna by chtelo oprasit ucebnice ze zakladky :-D.
Jen pro upresneni. Matematicky ROZDIL mezi 3nm a 2nm urcite neni 50%. Ale neni to ani 33%, protoze je to 1 nm ;-).
Pokud vsak budeme mluvit o tom, o kolik je mensi rozmer 2nm proti 3nm, coz je to o co tu jde, tak ma pravdu RadecekH. Kdyz se rozmer 3nm zmeni na 2nm, zmensi se o 1nm. A zaklad, ke kteremu musi ten rozdil 1nm pomerovat, je ten vychozi rozmer (3nm) a ne vysledny rozmer (2nm). A ve slusnych rodinach byva 1/3=33,333%. Zmenseni rozmeru ze 3nm na 2nm je tedy ZMENSENI O 33%.
Kdybychom sli ze 2nm na 3nm, pomeroval by se ten rozdil 1nm ne proti trojce, ale proti dvojce (1/2=50%). Slo by o ZVETSENI rozmeru o 50%. Jenze to neni nas pripad.
A ted k hustote. Ta se meri v jednotkach kusu na jednotku plochy, ktera je ze pocita jako delka na druhou. Proto je snaha pocitat zmenu hustoty jako 1/(zmena delky) a z ni vychazejici tvrzeni "kdyz zmensime delku na polovinu zvetsi se hustota dvakrat" ponekud ;-) mimo misu.
Vezmu to nazorne. Mame ctverec o velikosti 1mm x 1mm a ten ma plochu 1mm2. Kdyz zmensim rozmer strany ctverce na polovinu bude mit ten maly ctverec rozmery 0.5x0.5 a plochu 0.25mm2 (1/4). Pocet novych ctvercu podel jedne strany puvodniho ctverce vzroste na dvojnasobek, ale pocet novych ctvercu na plose puvodniho ctverce vzroste 4x. Hustota zmensenim rozmeru na polovinu tedy nevzroste 2x, ale 4x.
Prechod ze 3nm na 2nm je zmenseni rozmeru na 66%. Plocha ctverce 1mm2 se tedy zmensi na plochu 0.66x0.66=0.44 a hustota TEORETICKY stoupne 1/0.44=2.27x.
Jenze to by byla pravda jen, kdyby ty 3nm byl rozmer tranzistoru. A to neni. Kdysi se to tak merilo. Jenze s ti byl problem, protoze ruzne tranzistory maji ruzne rozmery. A tak se zacala kvalita litografie odvozovat od rozmeru nejtensi vyrobitelne cary, kterou lze definovat (i vyrobit) pomerne snadno.
Tloustka nejtensi cary ale s velikosti prvku a tedy i hustotou transistoru souvisi jen velmi volne. Velikost slozitejsich prvku jako jsou treba ty tranzistory je omezena spoustou technologickych pozadavku. Navic musi byt mezi tranzistory spoje i volbe misto a tak je jejich hustota ovlivnena i typem obvodu, ktere je potreba vytvorit. Je vseobecne znamo, ze napr. pametove struktury skaluji s tloustkou cary hure, nez logika. Proto taky amd dela procesorove ciplety na lepsi litografii, nez ty centralni, nebo v-cache. Cekat, ze bude hustota tranzistoru, nebo dokonce vykon obvodu skalovat stejne jako nm litografie je hodne naivni.
Jen pro upresneni. Matematicky ROZDIL mezi 3nm a 2nm urcite neni 50%. Ale neni to ani 33%, protoze je to 1 nm ;-).
Pokud vsak budeme mluvit o tom, o kolik je mensi rozmer 2nm proti 3nm, coz je to o co tu jde, tak ma pravdu RadecekH. Kdyz se rozmer 3nm zmeni na 2nm, zmensi se o 1nm. A zaklad, ke kteremu musi ten rozdil 1nm pomerovat, je ten vychozi rozmer (3nm) a ne vysledny rozmer (2nm). A ve slusnych rodinach byva 1/3=33,333%. Zmenseni rozmeru ze 3nm na 2nm je tedy ZMENSENI O 33%.
Kdybychom sli ze 2nm na 3nm, pomeroval by se ten rozdil 1nm ne proti trojce, ale proti dvojce (1/2=50%). Slo by o ZVETSENI rozmeru o 50%. Jenze to neni nas pripad.
A ted k hustote. Ta se meri v jednotkach kusu na jednotku plochy, ktera je ze pocita jako delka na druhou. Proto je snaha pocitat zmenu hustoty jako 1/(zmena delky) a z ni vychazejici tvrzeni "kdyz zmensime delku na polovinu zvetsi se hustota dvakrat" ponekud ;-) mimo misu.
Vezmu to nazorne. Mame ctverec o velikosti 1mm x 1mm a ten ma plochu 1mm2. Kdyz zmensim rozmer strany ctverce na polovinu bude mit ten maly ctverec rozmery 0.5x0.5 a plochu 0.25mm2 (1/4). Pocet novych ctvercu podel jedne strany puvodniho ctverce vzroste na dvojnasobek, ale pocet novych ctvercu na plose puvodniho ctverce vzroste 4x. Hustota zmensenim rozmeru na polovinu tedy nevzroste 2x, ale 4x.
Prechod ze 3nm na 2nm je zmenseni rozmeru na 66%. Plocha ctverce 1mm2 se tedy zmensi na plochu 0.66x0.66=0.44 a hustota TEORETICKY stoupne 1/0.44=2.27x.
Jenze to by byla pravda jen, kdyby ty 3nm byl rozmer tranzistoru. A to neni. Kdysi se to tak merilo. Jenze s ti byl problem, protoze ruzne tranzistory maji ruzne rozmery. A tak se zacala kvalita litografie odvozovat od rozmeru nejtensi vyrobitelne cary, kterou lze definovat (i vyrobit) pomerne snadno.
Tloustka nejtensi cary ale s velikosti prvku a tedy i hustotou transistoru souvisi jen velmi volne. Velikost slozitejsich prvku jako jsou treba ty tranzistory je omezena spoustou technologickych pozadavku. Navic musi byt mezi tranzistory spoje i volbe misto a tak je jejich hustota ovlivnena i typem obvodu, ktere je potreba vytvorit. Je vseobecne znamo, ze napr. pametove struktury skaluji s tloustkou cary hure, nez logika. Proto taky amd dela procesorove ciplety na lepsi litografii, nez ty centralni, nebo v-cache. Cekat, ze bude hustota tranzistoru, nebo dokonce vykon obvodu skalovat stejne jako nm litografie je hodne naivni.
Odpovědět4 0
Pro mene zkusene mozna jeste radeji dodam, ze ten realny tdp vykon, ktery je u intelu priblizne 2x vetsi, nez to tdp uvadene na krabici, musi nejen zvladnou uchladit chladic, ale taky dodat zdroj a zaplatit uzivatel.
Odpovědět1 0
A to srovnavani s auty kulha na obe nohy (i ruce). Zpusob mereni a udavani spotreby aut je upraven jasnymi pravidly a je pro vsechny vyrobce stejny. To u tdp uvadeneho ve specifikacich neplati ani zdaleka. To by muselo byt stanoveno, ze se meri treba spotreba treba pri behu programu cinebench dane verze s cpu bezicim na pevnem kmitoctu 3.5ghz.
Na rozdil od auta nemaji procesory plynovy pedal, kterym by mohl bezny uzivatel ovlivnit rychlost procesoru. Tdp je v moto alegorii v podstate omezovac rychlosti. Ale Intelem udavane tdp je vykonovy limit PL1 (power limit 1), coz je spotreba pri zakladnim kmitoctu. To by u auta bylo neco jako teoreticka spotreba pri padesatce. Nebyl by s tim problem, kdyby ten omezovac rychlosti byl trvale nestaven na tech 50km/h. Jenze tak to neni. Intel uvadi spotrebu pri padesatce (tdp=limit pl1) a tvari se, jako by to byla spotreba pri maximalni rychlosti (limit PL2).
Nemluve o tom, ze ten vykonovy narust o 39% je na limitu PL4, nebo mozna spis na limitu omezujicim maximalni teplotu cpu. Coz odpovida motoru vyladenemu na maximalni vykon a krmenemu nejakymi opicimi kapkami s metanolem.
Udavane TDP (thermal design power = navrhovy tepelny vykon) by mel byt prikon, pres ktery se nepretaktovany procesor v plne dlouhodobejsi zatezi nedostane se sebelepsim chladicem. S chladicem navrzenym na tepelny vykon odpovidajici TDP by mel tedy procesor byt schopen bezet na svuj plny vykon, aniz by prekracoval normalni provozni teplotu.
U amd to tak celkem funguje. Kdysi to bylo i u Intelu. PL1 hralo opravdu ulohu TDP a PL2 bylo velmi kratkodobe zvyseni (maximalni turbo), ktere zvladla pokryt tepelna kapacita chladice bez vyraznehsiho zvyseni teploty. Jenze pak zacali hosi z Intelu lhat a podvadet. Vyrobcum zakladnich desek zacali tolerovat a neprimo doporucovat prodlouzeni casu pro PL2 na neomezenou dobu a tak realne TDP, ktere musi chladic dlouhodobe zvladnout, neni PL1, ktere Intel vsude hlasa jako TDP, ale PL2. A to je u Intelu kolem dvojnasobku PL1. Jenze o tom Intel ve sve skromnosti cudne mlci. A spousta testeru i pocitacovych webu se tvari, ze je tohle lhani v poradku.
Na rozdil od auta nemaji procesory plynovy pedal, kterym by mohl bezny uzivatel ovlivnit rychlost procesoru. Tdp je v moto alegorii v podstate omezovac rychlosti. Ale Intelem udavane tdp je vykonovy limit PL1 (power limit 1), coz je spotreba pri zakladnim kmitoctu. To by u auta bylo neco jako teoreticka spotreba pri padesatce. Nebyl by s tim problem, kdyby ten omezovac rychlosti byl trvale nestaven na tech 50km/h. Jenze tak to neni. Intel uvadi spotrebu pri padesatce (tdp=limit pl1) a tvari se, jako by to byla spotreba pri maximalni rychlosti (limit PL2).
Nemluve o tom, ze ten vykonovy narust o 39% je na limitu PL4, nebo mozna spis na limitu omezujicim maximalni teplotu cpu. Coz odpovida motoru vyladenemu na maximalni vykon a krmenemu nejakymi opicimi kapkami s metanolem.
Udavane TDP (thermal design power = navrhovy tepelny vykon) by mel byt prikon, pres ktery se nepretaktovany procesor v plne dlouhodobejsi zatezi nedostane se sebelepsim chladicem. S chladicem navrzenym na tepelny vykon odpovidajici TDP by mel tedy procesor byt schopen bezet na svuj plny vykon, aniz by prekracoval normalni provozni teplotu.
U amd to tak celkem funguje. Kdysi to bylo i u Intelu. PL1 hralo opravdu ulohu TDP a PL2 bylo velmi kratkodobe zvyseni (maximalni turbo), ktere zvladla pokryt tepelna kapacita chladice bez vyraznehsiho zvyseni teploty. Jenze pak zacali hosi z Intelu lhat a podvadet. Vyrobcum zakladnich desek zacali tolerovat a neprimo doporucovat prodlouzeni casu pro PL2 na neomezenou dobu a tak realne TDP, ktere musi chladic dlouhodobe zvladnout, neni PL1, ktere Intel vsude hlasa jako TDP, ale PL2. A to je u Intelu kolem dvojnasobku PL1. Jenze o tom Intel ve sve skromnosti cudne mlci. A spousta testeru i pocitacovych webu se tvari, ze je tohle lhani v poradku.
Odpovědět2 0
Uvest spotrebu je fajn, ale ta mela byt uvedena hned pri zverejneni a ne v skoro posledni vete, ale v titulku: ... dosahuje o 39% vyssi vykon, za cenu spotreby 420w
Odpovědět0 0
Uvest spotrebu je fajn, ale ta mela byt uvedena hned pri zverejneni a ne v skoro posledni vete, ale v titulku: ... dosahuje o 39% vyssi vykon, za cenu spotreby 420w
Odpovědět0 0
Na krabici TDP 125W a v testech i v tomhle článku uvádění úžasného výkonu v testech bez upozornění toho, že to je výkon při skoro 4x větší spotřebě 420W :-O. Není to náhodou klamání spotřebitele ;-).
Odpovědět4 0
Ruská ropa i plyn jsou, jen se z ideologických důvodů tváříme, že je nechceme a budeme raději přes půl světa dovážet za draho od arabů, nebo američanů.
Odpovědět0 0
Jo, jo, intel se to snazi zrejme delat podobne jako treba nvidia. Udelat neco jineho nez konkurence a tvarit se jako uzasny inovator a tvurce zarne budoucnosti. Pritom neni az tak dulezite jestli je to uzitecne, ale hlavne to musi udelatz velky dojem. A kdyby ne technicky, tak aspon cenou, ktera dava jasne najevo, ze to je unikat hodny jen tech nejlepsich. Jako treba gsync nebo treba jablecny odpadkovy kos.
Je to legitimni obchodni strategie, ale asi ne moc funkcni, pokud firma cili na vetsinovy trh.
Navic nvidia to mela s RT mnohem snazsi, nez ted intel. Staci ve hre udelat par scen, kde se vsechno blejska jak psi kulky a rozdil vidi kazdy. Ale rozdil ve fungovani buhvijak odlisnych jader se demonstruje spatne. Zvlast, pokud neni skvele vyladena optimalizace v OS a uzivatelskych programech. Ostatne prikladem muze byt koncept jader buldozer od amd.
Je to legitimni obchodni strategie, ale asi ne moc funkcni, pokud firma cili na vetsinovy trh.
Navic nvidia to mela s RT mnohem snazsi, nez ted intel. Staci ve hre udelat par scen, kde se vsechno blejska jak psi kulky a rozdil vidi kazdy. Ale rozdil ve fungovani buhvijak odlisnych jader se demonstruje spatne. Zvlast, pokud neni skvele vyladena optimalizace v OS a uzivatelskych programech. Ostatne prikladem muze byt koncept jader buldozer od amd.
Odpovědět4 0
Kdyz vyrobci cipu uvadeji zlepseni spotreby a zlepseni vykonu (kmitoctu) znamana to vzdy zlepseni pri zmene jen jednoho z tech parametru.
Zakaznik se pak muze rozhodnout, jak moc mu u konkretniho pouziti zalezi na spotrebe nebo naopak na vykonu.
Kdyz chce cip prodavat jako ultramobilni, ktery ma stejny vykon, ale je uspornejsi, nez predchozi verze, necha mu stejny kmitocet a vyzije cely potencial pro snizeni spotreby.
Kdyz naopak honi vykon, zvedne stejnemu cipu kmitoce na maximum, ktere jeste zvladne uchladit.
Bezna realita bude nekde mezi temito extremy.
Zakaznik se pak muze rozhodnout, jak moc mu u konkretniho pouziti zalezi na spotrebe nebo naopak na vykonu.
Kdyz chce cip prodavat jako ultramobilni, ktery ma stejny vykon, ale je uspornejsi, nez predchozi verze, necha mu stejny kmitocet a vyzije cely potencial pro snizeni spotreby.
Kdyz naopak honi vykon, zvedne stejnemu cipu kmitoce na maximum, ktere jeste zvladne uchladit.
Bezna realita bude nekde mezi temito extremy.
Odpovědět1 0
To je neresitelne dilema ;-). V grafu jsou 2 datove rady, u kterych jdou hodnoceni "lepsosti" proti sobe. Prumerne fps - vyssi je lepsi, cena za fps - vyssi je horsi.
Dilema by resilo mereni vyhodnosti jako fps za dolar, ale cena za fps je pro lidi asi lepe uchopitelna.
Dilema by resilo mereni vyhodnosti jako fps za dolar, ale cena za fps je pro lidi asi lepe uchopitelna.
Odpovědět1 0
Dost pochybuji, že budou tak rychlé paměti v krátké době dostupné v běžných modulech pro stolní počítače.
LPDDR5(X) jsou paměti pro malá přenosná zařízení a jejich pouzdra se pájí do bezprostřední blízkosti procesoru velmi krátkými vodiči. Sběrnice tedy mají menší parazitní kapacity i lepší poměry v časování signálů. Proto jim stačí menší příkon a dosahují i vyšších rychlostí.
Výměnné paměti pro notebooky v modulech SO-DIMM se připojují podstatně delšími vodiči, proto mají tyto paměti větší příkon a menší rychlosti, než ty pájené LPDDR paměti. A u stolních počítačů jsou DIMM moduly i délka vodičů ještě větší, než u SO-DIMM.
LPDDR5(X) jsou paměti pro malá přenosná zařízení a jejich pouzdra se pájí do bezprostřední blízkosti procesoru velmi krátkými vodiči. Sběrnice tedy mají menší parazitní kapacity i lepší poměry v časování signálů. Proto jim stačí menší příkon a dosahují i vyšších rychlostí.
Výměnné paměti pro notebooky v modulech SO-DIMM se připojují podstatně delšími vodiči, proto mají tyto paměti větší příkon a menší rychlosti, než ty pájené LPDDR paměti. A u stolních počítačů jsou DIMM moduly i délka vodičů ještě větší, než u SO-DIMM.
Odpovědět2 1
Řekla bych, že problém bude spíš ve velkém zájmu a nedostatečné kapacitě výroby CPU 6xxx. Třeba MSI rozhodně CPU a dokonce ani GPU od AMD neignoruje, spíš je nasazuje v nejvíce modelech. Ale zatím nemá ani jeden model s Rembrandtem :-(.
Předpokládám, že zatím stačí většinu produkce 6xxx spolykat Asus, který se po totálním selhání Dellu (byl hlavním partnerem u prvních mobilních Zenů) stal pro AMD partnerem číslo 1 a dostává asi CPU přednostně, protože s nimi dělá opravdu skvělé stroje. A Razer je výrobcem drahých speciálů, tak mu možná stačí menší počty cpu, nebo možná ostatní výrobce přeplatil, protože si to při svých maržích může dovolit, podobně jako Apple.
Zajímavé ale je, že se v Asii prodávají i nové 14 a 15 palcové RedmiBooky 2022 s 6800H (45W), LPDDR5 na 6400MT/s, s velmi dobrým chlazením a dokonce i bez samostatné grafiky, což je za mne ideální konfigurace. A na Aliexpressu se dají ve 14 palcové verzi pořídit od 28 tisíc.. Notebook v tomto duchu dělá snad jen MSI (Modern 15), ale zatím nanejvýš ve verzi s 5700U :-(. Pokud by na tom RedmiBooku fungoval ThunderBolt pro případné připojení silnější externí grafiky, tak by to za mne bylo "Značka Ideál". A chodit by to mohlo, protože ovladače (prý) dělá AMD a na 13 palcovém Asusu s 6800U už funkčnost s nejnovější verzí ovladačů někdo otestoval
Předpokládám, že zatím stačí většinu produkce 6xxx spolykat Asus, který se po totálním selhání Dellu (byl hlavním partnerem u prvních mobilních Zenů) stal pro AMD partnerem číslo 1 a dostává asi CPU přednostně, protože s nimi dělá opravdu skvělé stroje. A Razer je výrobcem drahých speciálů, tak mu možná stačí menší počty cpu, nebo možná ostatní výrobce přeplatil, protože si to při svých maržích může dovolit, podobně jako Apple.
Zajímavé ale je, že se v Asii prodávají i nové 14 a 15 palcové RedmiBooky 2022 s 6800H (45W), LPDDR5 na 6400MT/s, s velmi dobrým chlazením a dokonce i bez samostatné grafiky, což je za mne ideální konfigurace. A na Aliexpressu se dají ve 14 palcové verzi pořídit od 28 tisíc.. Notebook v tomto duchu dělá snad jen MSI (Modern 15), ale zatím nanejvýš ve verzi s 5700U :-(. Pokud by na tom RedmiBooku fungoval ThunderBolt pro případné připojení silnější externí grafiky, tak by to za mne bylo "Značka Ideál". A chodit by to mohlo, protože ovladače (prý) dělá AMD a na 13 palcovém Asusu s 6800U už funkčnost s nejnovější verzí ovladačů někdo otestoval
Odpovědět0 0
Brzdou integrované grafiky není většinou TDP, ale spíš nedostatečná rychlost přístupu k paměti. Proto nemělo u integrované Vegy s DDR4 na 3200MT/s moc smysl přidávat výpočetní jednotky (CU), nebo ji přetaktovávat.
RDNA v 6800U Rembrandt zvedla proti Veze v 5800U Cezzane ve hrách FPS skoro na dvojnásobek při těchto nárůstech vlastností:
50% výpočetních jednotek CU (8=>12)
50% jader (512=>768)
20% kmitočet v MHz (2000=>2400)
80% Gflops = jadra*MHz (2048=>3686)
100% rychlost paměti MT/s (3200=>6400)
Změna architektury zřejmě přidala ještě něco málo k IPC (FPS/Gflops) a tak bude nárůst reálného grafického výkonu ve hrách asi přibližně odpovídat nárůstu propustnosti paměti DDRx. Tyhle dvě hlavní vlastnosti musí růst ruku v ruce. Zvyšování jen jedné přináší postupně menší a menší přírůstky a dochází k plýtvání materiálem.
Od Phoenixe se očekává zdvojnásobení hrubého výpočetního výkonu 12CU se 128 místo 64 jader. RNDA 3 se očekává použití komprese paměti v celém řetězci zpracování, což může o něco zvýšit reálnou propustnost. Použití LPDDR5X s rychlostí 8400 MT/s může přinést zvýšení propustnosti o 30%, ale i s kompresí to bude málo. Takže bude nutné použít Infinity Cache, nebo ideálně rozumně udělanou a dostatečně velkou vyrovnávací paměť SLC (System LevelCache), která bude společná pro procesor i grafiku.
RDNA v 6800U Rembrandt zvedla proti Veze v 5800U Cezzane ve hrách FPS skoro na dvojnásobek při těchto nárůstech vlastností:
50% výpočetních jednotek CU (8=>12)
50% jader (512=>768)
20% kmitočet v MHz (2000=>2400)
80% Gflops = jadra*MHz (2048=>3686)
100% rychlost paměti MT/s (3200=>6400)
Změna architektury zřejmě přidala ještě něco málo k IPC (FPS/Gflops) a tak bude nárůst reálného grafického výkonu ve hrách asi přibližně odpovídat nárůstu propustnosti paměti DDRx. Tyhle dvě hlavní vlastnosti musí růst ruku v ruce. Zvyšování jen jedné přináší postupně menší a menší přírůstky a dochází k plýtvání materiálem.
Od Phoenixe se očekává zdvojnásobení hrubého výpočetního výkonu 12CU se 128 místo 64 jader. RNDA 3 se očekává použití komprese paměti v celém řetězci zpracování, což může o něco zvýšit reálnou propustnost. Použití LPDDR5X s rychlostí 8400 MT/s může přinést zvýšení propustnosti o 30%, ale i s kompresí to bude málo. Takže bude nutné použít Infinity Cache, nebo ideálně rozumně udělanou a dostatečně velkou vyrovnávací paměť SLC (System LevelCache), která bude společná pro procesor i grafiku.
Odpovědět0 0
Koukam, ze kdyz nejsou argumenty, je vzdycky mozno zkusit vytahnout osobni urazky a nejske vetrniky ;-) polepene firemnimi logy.
Odpovědět0 0
Co treba grafiky v roce 2020?
Odpovědět0 0
Nebo treba Aurora, abych se nemusel trapit hledanim a vypisovanim vsech terminu, ktere naslibovali a pak v tichosti posunuli, nebo odvolali.
Nebo jejich podrazu typu vymena patice malem s kazdou generaci, TDP, ktere netaktovany procesor v zatezi nasobne prekracuje, demonstrace uzasneho vykonu procesoru s chlazenim mrazakem schovanym pod stolem, nebo porovnavani se s komkurencnim procesorem zkryplenym nesmyslnym nastavenim.
Nebo jejich podrazu typu vymena patice malem s kazdou generaci, TDP, ktere netaktovany procesor v zatezi nasobne prekracuje, demonstrace uzasneho vykonu procesoru s chlazenim mrazakem schovanym pod stolem, nebo porovnavani se s komkurencnim procesorem zkryplenym nesmyslnym nastavenim.
Odpovědět1 0
Co treba grafiky v roce 2020?
Odpovědět0 0
Cim mene se dari, tim smelejsi, svetlejsi a hlavne vzdalenejsi zitrky je potreba crtat. Pocitam, ze nejpozdeji do 20 let bude Intel v polovodicovem komunismu ;-).
Ale bezny uzivatel by mozna spis ocenil, kdyby (s)plnili aspon to, co naslibovali pro soucasnost.
Ale bezny uzivatel by mozna spis ocenil, kdyby (s)plnili aspon to, co naslibovali pro soucasnost.
Odpovědět1 1
To, ze se osekana verze na zakladnich taktech bez turba pouziva v noteboocich neznamena, ze byl ten cip konstruovany jako mobilni. Jako hlavne mobilni byl navrhovan treba cip pouzity 6500xt. Proto ma jen 4 linky pcie 4.0 a ma omezene hw kodery videa.
Z te 6700 si klidne muzes udelat pasivni kartu sam. Staci v amd ovladaci karty stahnout tdp, nebo jeste lepe stahnout kmitocty a napeti pro jednotlive P stavy a pripadne poladit i nastaveni otacek vetraku. Ale pak bude mit ta karta ve hrach samozrejme prislusne nizsi vykon.
Vetsina holt honi spis fps, tak vyrobci karet tlaci ne pilu a pasivni karty delaji nanejvys z nejmene vykonych cipu.
Z te 6700 si klidne muzes udelat pasivni kartu sam. Staci v amd ovladaci karty stahnout tdp, nebo jeste lepe stahnout kmitocty a napeti pro jednotlive P stavy a pripadne poladit i nastaveni otacek vetraku. Ale pak bude mit ta karta ve hrach samozrejme prislusne nizsi vykon.
Vetsina holt honi spis fps, tak vyrobci karet tlaci ne pilu a pasivni karty delaji nanejvys z nejmene vykonych cipu.
Odpovědět3 0
Všechny verze 67xx včetně mobilních a 6800M jsou založené na stejném čipu NAVI 22.
Mobilní 6800M má stejnou konfiguraci jako 6700XT v grafických kartách, jen nepoužívá turbo a její pevný takt 2300 MHz je téměř stejný jako základní takt 6700XT (2321 MHz). Tyto čipy používá jen Asus v noteboocích řad ROG Strix G15 Advantage a ROG Zephyrus G15. Možná se i nějak vybírají - menší spotřeba, možná i nižší schopnost taktování. Ale protože výše turba na grafických kartách není zaručovaná, tak asi není problém ty čipy použít i pro normální grafické karty.
Mobilní 6700M je mírně osekaná (2560=>2304 CU, 96=>80MB InfinityCache) a má taky pevný takt 2300MHz, tak se dá čekat, že z hlediska taktování na tom budou podobně jako 6800M. Jejich využití v kartách 6700XT brání asi opravdu jen výrobní chyby v oblasti výpočetních jednotek a/nebo InfinityCache.
Pokud je tato úvaha správná, tak výtěžnost NAVI 22 musí být velmi dobrá a částečně vadných čipů musí být málo. Mobilní verzi 6700M totiž v noteboocích používá jen MSI v řadě MSI Delta 15 AMD Advantage Edition. Těžko říct, jak velké jsou jejich prodeje a kolik se těch částečně vadných čipů u MSI využilo. Ale to že trvalo tak dlouho, že se nasbíralo dost pro vydání osekané karty 6700, a že ji bude (asi) dělat jen Sapphire, naznačuje, že těch horších čipů asi moc nebude.
Mobilní 6800M má stejnou konfiguraci jako 6700XT v grafických kartách, jen nepoužívá turbo a její pevný takt 2300 MHz je téměř stejný jako základní takt 6700XT (2321 MHz). Tyto čipy používá jen Asus v noteboocích řad ROG Strix G15 Advantage a ROG Zephyrus G15. Možná se i nějak vybírají - menší spotřeba, možná i nižší schopnost taktování. Ale protože výše turba na grafických kartách není zaručovaná, tak asi není problém ty čipy použít i pro normální grafické karty.
Mobilní 6700M je mírně osekaná (2560=>2304 CU, 96=>80MB InfinityCache) a má taky pevný takt 2300MHz, tak se dá čekat, že z hlediska taktování na tom budou podobně jako 6800M. Jejich využití v kartách 6700XT brání asi opravdu jen výrobní chyby v oblasti výpočetních jednotek a/nebo InfinityCache.
Pokud je tato úvaha správná, tak výtěžnost NAVI 22 musí být velmi dobrá a částečně vadných čipů musí být málo. Mobilní verzi 6700M totiž v noteboocích používá jen MSI v řadě MSI Delta 15 AMD Advantage Edition. Těžko říct, jak velké jsou jejich prodeje a kolik se těch částečně vadných čipů u MSI využilo. Ale to že trvalo tak dlouho, že se nasbíralo dost pro vydání osekané karty 6700, a že ji bude (asi) dělat jen Sapphire, naznačuje, že těch horších čipů asi moc nebude.
Odpovědět3 0
Těch >15% přírůstku jednojádrového výkonu v AMD prezentaci na Computexu byl nepochybně tlumič očekávání a taky rozdmychávač internetových diskusí. Moc bych se ale nedivil, kdyby to nakonec opravdu znamenalo to, co naznačuje matematický význam relačního operátoru je větší. A tedy: "V žádném z používaných testů nebylo zvýšení jednojádrového výkonu pod 15%. Stačí trochu počítat.
Aktuálně nejrychlejší Ryzen 5950x má turbo 4.9 a některé kusy se dají vyhnat na 5 GHz. Ale inženýrský vzorek zvládal ve hře zatěžujíc víc jader takty přes 5,5 GHz. Takže i bez zvýšení výkonu na takt (IPC) se dá čekat, že přírůstek jednojádrového výkonu (jen ze zvýšení taktů) bude větší než 10%. Pro dosažení přírůstku 15% jen zvýšením taktu z 5 GHz při čistě jednojádrovém test by musel dát nový Ryzen 5,75 GHz. Při uvažování výchozího taktu 4,9 GHz by na 15% stačilo 5,64 GHz. A těch >15% v prezentaci tedy může znamenat právě tohle.
Mám obavu, že jestli má Raptor proti 12900K opravdu přírůstek jednojádrového výkonu 20% v testu BreekBench, který je notoricky známý tím, že straní Intelu, tak to s novými Ryzeny zrovna moc vyrovnaný souboj nebude. Inženýrský vzorek Ryzenu pro běh testu v Blenderu potřeboval o 31% méně času. To byl taky trochu chyták, protože čas běhu kratší o 31% neznamená výkon vyšší o 31%, ale o 46%.
Když má nový Ryzen výkon o 46% vyšší v plné zátěži, kdy kvůli TDP omezení nemůžou jádra běžet na maximální frekvenci, tak bude nárůst výkonu v jednojádrové zátěži určitě vyšší. Navíc byl ten test v Blendru poměrně krátký a tak 12900K mohl běžet většinu času na limitu PL2 a tedy na 240W.
Je samozřejmě otázka za jakých podmínek oba dva uvažované test skutečně běžely. Pokud by ten test Raptora pouštěl nějaký diletant na nevhodné sestavě, nebo někdo od Intelu v konfiguraci se záměrně uškrcenými parametry, tak mohou být výsledky Raptora v realitě mnohem lepší. Ale mám obavu, že testy inženýrských vzorků i jejich časné úniky budou spíš pod taktovkou výrobců. A Intel nemá moc důvodů pouštět uměle zhoršené výsledky. Zatím jsou zkušenosti, že se Intel spíš snaží předvádět své procesory v co nejlepším světle. A to i za cenu podvodů typu extrémního chlazení, nebo záměrného zhoršování testovacích podmínek konkurenčního procesoru.
Tak jsem docela zvědav, jaká bude nakonec realita.
Aktuálně nejrychlejší Ryzen 5950x má turbo 4.9 a některé kusy se dají vyhnat na 5 GHz. Ale inženýrský vzorek zvládal ve hře zatěžujíc víc jader takty přes 5,5 GHz. Takže i bez zvýšení výkonu na takt (IPC) se dá čekat, že přírůstek jednojádrového výkonu (jen ze zvýšení taktů) bude větší než 10%. Pro dosažení přírůstku 15% jen zvýšením taktu z 5 GHz při čistě jednojádrovém test by musel dát nový Ryzen 5,75 GHz. Při uvažování výchozího taktu 4,9 GHz by na 15% stačilo 5,64 GHz. A těch >15% v prezentaci tedy může znamenat právě tohle.
Mám obavu, že jestli má Raptor proti 12900K opravdu přírůstek jednojádrového výkonu 20% v testu BreekBench, který je notoricky známý tím, že straní Intelu, tak to s novými Ryzeny zrovna moc vyrovnaný souboj nebude. Inženýrský vzorek Ryzenu pro běh testu v Blenderu potřeboval o 31% méně času. To byl taky trochu chyták, protože čas běhu kratší o 31% neznamená výkon vyšší o 31%, ale o 46%.
Když má nový Ryzen výkon o 46% vyšší v plné zátěži, kdy kvůli TDP omezení nemůžou jádra běžet na maximální frekvenci, tak bude nárůst výkonu v jednojádrové zátěži určitě vyšší. Navíc byl ten test v Blendru poměrně krátký a tak 12900K mohl běžet většinu času na limitu PL2 a tedy na 240W.
Je samozřejmě otázka za jakých podmínek oba dva uvažované test skutečně běžely. Pokud by ten test Raptora pouštěl nějaký diletant na nevhodné sestavě, nebo někdo od Intelu v konfiguraci se záměrně uškrcenými parametry, tak mohou být výsledky Raptora v realitě mnohem lepší. Ale mám obavu, že testy inženýrských vzorků i jejich časné úniky budou spíš pod taktovkou výrobců. A Intel nemá moc důvodů pouštět uměle zhoršené výsledky. Zatím jsou zkušenosti, že se Intel spíš snaží předvádět své procesory v co nejlepším světle. A to i za cenu podvodů typu extrémního chlazení, nebo záměrného zhoršování testovacích podmínek konkurenčního procesoru.
Tak jsem docela zvědav, jaká bude nakonec realita.
Odpovědět18 1
AMD mělo navíc ve dosavadních procesorech skrytou rezervu TDP. Centrální čiplety byly dělané na 12nm od GloFo a byly celkem žravé. DerBauer měřil spotřebu čipu sady X570, který je (údajně) částí centrálního čipletu používaného v procesorech (viz
https://www.svethardware.cz/derbauer-zkoumal-spotrebu-samotneho-cipsetu-x570/49698). A ten měl při zátěži spotřebu téměř 10W. V čipletu procesoru je navíc řadič paměti a řadiče InfinityFabrik a tak může mít v zátěži třeba i 15-20W. Pokud by přechod výroby z GloFo 12nm na tsmc 6nm snížil spotřebu na polovinu, tak by bylo k dispozici "zadarmo" dalších 7-10W bez nutnosti zvyšovat TDP. A to je 65W procesoru 10-15% TDP navíc.
Ze zkušeností s AMD marketingem za trvání ZEN éry bych řekl, že těsně před vydáním dávají většinou reálná čísla a informace. A časné informace dávají spíš dost pod jejich reálnými očekáváními. Možná i proto, aby zbytečně neplašili konkurenci. A tím, že nemusejí přesvědčovat kapitálový trh, že jsou dobří, protože to už pár let všichni vědí, mohou si dovolit přepych netlačení na pilu.
Ani bych se nedivil, kdyby (ne)uvedení některých informací byla marketingová hra na rozdmychání diskuzí, získání pozornosti a vytvoření spíše nízkých očekávání, která bude s blížícím se vydání a reálném vypuštění na trh snadné uvést na pravou míru a lepšími čísly většinu potenciálních uživatelů příjemně překvapit. Zatím to většinou takhle nějak fungovalo, tak uvidíme, jak to bude tentokrát.
https://www.svethardware.cz/derbauer-zkoumal-spotrebu-samotneho-cipsetu-x570/49698). A ten měl při zátěži spotřebu téměř 10W. V čipletu procesoru je navíc řadič paměti a řadiče InfinityFabrik a tak může mít v zátěži třeba i 15-20W. Pokud by přechod výroby z GloFo 12nm na tsmc 6nm snížil spotřebu na polovinu, tak by bylo k dispozici "zadarmo" dalších 7-10W bez nutnosti zvyšovat TDP. A to je 65W procesoru 10-15% TDP navíc.
Ze zkušeností s AMD marketingem za trvání ZEN éry bych řekl, že těsně před vydáním dávají většinou reálná čísla a informace. A časné informace dávají spíš dost pod jejich reálnými očekáváními. Možná i proto, aby zbytečně neplašili konkurenci. A tím, že nemusejí přesvědčovat kapitálový trh, že jsou dobří, protože to už pár let všichni vědí, mohou si dovolit přepych netlačení na pilu.
Ani bych se nedivil, kdyby (ne)uvedení některých informací byla marketingová hra na rozdmychání diskuzí, získání pozornosti a vytvoření spíše nízkých očekávání, která bude s blížícím se vydání a reálném vypuštění na trh snadné uvést na pravou míru a lepšími čísly většinu potenciálních uživatelů příjemně překvapit. Zatím to většinou takhle nějak fungovalo, tak uvidíme, jak to bude tentokrát.
Odpovědět2 0
Moc nerozumím tomu, proč někteří vyvozují ze specifikace maximálního přeneseného výkonu patice AM5 zhoršení efektivity AMD procesorů. Možná je to přání otcem myšlenky, ale realita bude asi jinde. Dá se to odhadovat na základě řady indicií.
Aktuální verze procesorů Intel v testech výkonu sice dotahují ty od AMD, ale za cenu podstatně větší spotřeby. AMD tedy nemá moc důvod tlačit procesory v taktech zbytečně vysoko. Kdyby AMD zvedlo TDP procesorů na úroveň Intelu mohl by být výkon AMD procesorů vyšší. Jenže ono to ani moc nejde. Ne kvůli procesorům, ale kvůli patici. Podle wikichip.org má totiž patice AM4 celkem 1331 kontaktů na ploše 40x40mm a TDP jen 105W. Ten výkon se dá krátkodobě třeba při taktování překročit, ale na trvalý provoz vyšším výkonu není patice počítaná.
Patice LGA 1700 od Intelu má na ploše 38x45mm o 369 kontaktů víc a řada z nich je využita právě pro posílení napájení. Výkon přenesený přes kontakt je omezen jeho přechodovými odpory a tak je pro větší proudy potřeba více kontaktů. AMD počítá s novou paticí AM5 na delší dobu a tak byla navržena s 1718 kontakty a TDP 170W, aby měla nějakou výkonovou rezervu pro další vývoj nároků.
Nelze vyloučit, že AMD na nové patici s vyšším TDP pustí do světa i nějaký vysoko taktovaný 16-ti jádrový speciál s TDP 170W, aby bylo vidět porovnání s Intelem při podobném příkonu, ale podle mne k tomu nemá moc důvodů.
Větší smysl by mohlo mít udělat 24 jádrový procesor, ale na 3 výpočetní čiplety není na patici místo. Součástky se nedají namačkat úplně na doraz a navíc by se k dalšímu čipletu musely přidat i další napájecí kondenzátory (odhadem 1/3 nynějšího počtu). Když budu spekulovat, tak asi jediná reálná šance, jak v dohledné době pro AM5 udělat 24 jadrový procesor jsou dva 12 jádrové čiplety s menšími jádry typu Zen 4c, které jsou údajně chystané pro serverové procesory Bergamo..
Aktuální verze procesorů Intel v testech výkonu sice dotahují ty od AMD, ale za cenu podstatně větší spotřeby. AMD tedy nemá moc důvod tlačit procesory v taktech zbytečně vysoko. Kdyby AMD zvedlo TDP procesorů na úroveň Intelu mohl by být výkon AMD procesorů vyšší. Jenže ono to ani moc nejde. Ne kvůli procesorům, ale kvůli patici. Podle wikichip.org má totiž patice AM4 celkem 1331 kontaktů na ploše 40x40mm a TDP jen 105W. Ten výkon se dá krátkodobě třeba při taktování překročit, ale na trvalý provoz vyšším výkonu není patice počítaná.
Patice LGA 1700 od Intelu má na ploše 38x45mm o 369 kontaktů víc a řada z nich je využita právě pro posílení napájení. Výkon přenesený přes kontakt je omezen jeho přechodovými odpory a tak je pro větší proudy potřeba více kontaktů. AMD počítá s novou paticí AM5 na delší dobu a tak byla navržena s 1718 kontakty a TDP 170W, aby měla nějakou výkonovou rezervu pro další vývoj nároků.
Nelze vyloučit, že AMD na nové patici s vyšším TDP pustí do světa i nějaký vysoko taktovaný 16-ti jádrový speciál s TDP 170W, aby bylo vidět porovnání s Intelem při podobném příkonu, ale podle mne k tomu nemá moc důvodů.
Větší smysl by mohlo mít udělat 24 jádrový procesor, ale na 3 výpočetní čiplety není na patici místo. Součástky se nedají namačkat úplně na doraz a navíc by se k dalšímu čipletu musely přidat i další napájecí kondenzátory (odhadem 1/3 nynějšího počtu). Když budu spekulovat, tak asi jediná reálná šance, jak v dohledné době pro AM5 udělat 24 jadrový procesor jsou dva 12 jádrové čiplety s menšími jádry typu Zen 4c, které jsou údajně chystané pro serverové procesory Bergamo..
Odpovědět1 0
To by mne zajímalo, jestli je chyba u Intelu, že navrhli už ve specifikaci patice příliš slabé řešení, nebo u výrobců, kteří ve snaze ušetřit použili třeba mizernější materiály, než hoši od Intelu předpokládali. Nebo že by šetřil Intel na konstrukci procesorů a jejich odolnost byla horší než se původně počítalo?
Odpovědět3 0
AMD procesory 7xxx BUDOU FUNGOVAT BEZ NAPÁJECÍHO ZDROJE !!!
Pokud má někdo pocit, že je to pitomost, tak s ním nelze, než souhlasit. Ale je to v duchu toho, jak autor o nových procesorech AMD píše. O napájecích zdrojích se totiž v AMD prezentaci na Computexu mluvilo ještě míň, než o čipových sadách, nebo o přetaktování na deskách s B650. Už minule jsem v diskuzi psal, že je dost podivné vyvozovat závěr, že na deskách s B650 nepůjdou taktovat procesory, jen na základě toho, že v prezentaci na Computexu prý AMD u té B650 neřeklo jasně, že taktovat půjdou.
A i v tomto článku je styl podobný. Velmi ostře formulované tvrzení "AMD zcela jasně nechce, aby už podrobnosti o jeho novinkách prosákly na veřejnost" není podloženo ničím. Snad jen autorovým pocitem, že by o připravovaných a zatím nevydaných výrobcích by chtěl vědět víc. Takové jednání by nepřekvapilo u malého dítěte, ale od hlavního autora významného počítačového webu bych čekal trochu víc. Třeba kvalifikovaný odhad, nebo klidně i spekulaci založenou na rozumné analýze. Dám dva příklady z článku.
Tvrzení "kdyby tu byl jen jeden čip s dvojnásobným výdejem tepla, vyšlo by to nastejno" je nesmysl jak pohledu šíření tepla, tak z pohledu výroby čipů i z čistě ekonomického.. Většinu lidí, kteří aspoň tuší, že přenos tepla závisí na tepelné vodivosti materiálu a jeho průřezu, napadne, že jeden zdroj tepla ve středu chladiče asi bude mít větší teplotu, než více rovnoměrně rozmístěných zdrojů s příslušně nižším výkonem. Ten kdo aspoň občas čte něco o výrobě polovodičů většinou ví, že čím menší čipy, tím větší výtěžnost. A že je tedy lepší velký čip rozdělit na více menších. A když se místo jedné sady velkých + jedné malých masek pro výrobu vystačí jen s tou jednou sadou menších jsou úspory docela velké. Navíc se zjednoduší i plánování objemů výroby a skladových zásob.
Tvrzení "Stále ale není zcela jasné, jak to bude s linkami PCIe." a navazující spekulace taky nepatří k nejlepším. Možnost využití PCIe 5.0 přeci není jen otázkou čipu, ale i kvality a způsobu provedení desky. A když člověk trochu zapřemýšlí, tak je strategie AMD celkem jasná. Naprostá většina běžných uživatelů má s počítači jeden SSD disk a případně grafiku. A protože většina desek má i víc než dostatečnou nabídku další konektivity (SATA,USB), nemají důvod dávat do PC další karty. A většinou nechtějí vyhazovat peníze za něco co nepotřebují. V podstatě by jim stačila deska i bez čipové sady, ale tu výrobci desek nenabízejí (snad jen až na A/X300 od Asrocku).
Výrobci základních desek tedy mají dost problém, čím přesvědčit uživatel, aby si kupovali nové a drahé desky. Ale pocit, že čím víc proužků, tím víc adidas, má (i díky mediální masáži) řada lidí. A tak jsou novinky typu PCIe 5.0, nebo DDR5 vítaným důvodem výměny železa, i když jejich reálný přínos je malý.
Vysoká přenosová rychlost PCIe 5.0 má smysl hlavně u disku. Start OS a programů a většinu běžných operací sice zásadně neovlivní, ale u občasného kopírování velkých objemů dat se hodí. U grafiky rychlost PCIe moc důležitá není, protože za normálních okolností může jen o kousek zlepšit načítání her a jejich úrovní, což uživatele většinou stejně moc netrápí. A pokud bude trochu slušně fungovat načítání komprimovaných textur z ssd přímo do grafiky, může být ten problém ještě o dost menší.
Pro běžné uživatele tedy PCIe 5.0 stačí u jednoho disku, případně i u grafiky a B650 je tedy pro ně víc než dostatečné řešení. Pak jim stačí levná deska, která zvládne dodat PCIe 5.0 jen do nejbližšího okolí procesoru, ale jeho doručení do větší vzdálenosti její "dráty" nezvládnou.
Pokud někomu PCIe linky, USB, nebo SATA dostupné na deskách s B650 nebudou stačit, tak se přidá další stejný čip a máme X670. Jenže pokud není deska dost kvalitně udělaná, nebude na ní PCIe 5.0 spolehlivě fungovat A spousta uživatelů nebude nadávat výrobci desky, ale AMD. To byl i důvod, proč AMD nakonec zakázalo v BIOSech zapnout podporu PCIe 4.0 u starých desek, ve kterých byl osazen procesor, který PCIe 4.0 zvládal.
Aby se předešlo nedorozuměním a problémům, rozděluje AMD desky na X670, kde bude zaručené jen méně náročné PCIe 4.0, které bude většině stačit, a X670E, které má výrobce povinnost udělat a otestovat tak, aby na nich PCIe 5.0 chodilo opravdu všude, kde půjde zapnout.
Pokud má někdo pocit, že je to pitomost, tak s ním nelze, než souhlasit. Ale je to v duchu toho, jak autor o nových procesorech AMD píše. O napájecích zdrojích se totiž v AMD prezentaci na Computexu mluvilo ještě míň, než o čipových sadách, nebo o přetaktování na deskách s B650. Už minule jsem v diskuzi psal, že je dost podivné vyvozovat závěr, že na deskách s B650 nepůjdou taktovat procesory, jen na základě toho, že v prezentaci na Computexu prý AMD u té B650 neřeklo jasně, že taktovat půjdou.
A i v tomto článku je styl podobný. Velmi ostře formulované tvrzení "AMD zcela jasně nechce, aby už podrobnosti o jeho novinkách prosákly na veřejnost" není podloženo ničím. Snad jen autorovým pocitem, že by o připravovaných a zatím nevydaných výrobcích by chtěl vědět víc. Takové jednání by nepřekvapilo u malého dítěte, ale od hlavního autora významného počítačového webu bych čekal trochu víc. Třeba kvalifikovaný odhad, nebo klidně i spekulaci založenou na rozumné analýze. Dám dva příklady z článku.
Tvrzení "kdyby tu byl jen jeden čip s dvojnásobným výdejem tepla, vyšlo by to nastejno" je nesmysl jak pohledu šíření tepla, tak z pohledu výroby čipů i z čistě ekonomického.. Většinu lidí, kteří aspoň tuší, že přenos tepla závisí na tepelné vodivosti materiálu a jeho průřezu, napadne, že jeden zdroj tepla ve středu chladiče asi bude mít větší teplotu, než více rovnoměrně rozmístěných zdrojů s příslušně nižším výkonem. Ten kdo aspoň občas čte něco o výrobě polovodičů většinou ví, že čím menší čipy, tím větší výtěžnost. A že je tedy lepší velký čip rozdělit na více menších. A když se místo jedné sady velkých + jedné malých masek pro výrobu vystačí jen s tou jednou sadou menších jsou úspory docela velké. Navíc se zjednoduší i plánování objemů výroby a skladových zásob.
Tvrzení "Stále ale není zcela jasné, jak to bude s linkami PCIe." a navazující spekulace taky nepatří k nejlepším. Možnost využití PCIe 5.0 přeci není jen otázkou čipu, ale i kvality a způsobu provedení desky. A když člověk trochu zapřemýšlí, tak je strategie AMD celkem jasná. Naprostá většina běžných uživatelů má s počítači jeden SSD disk a případně grafiku. A protože většina desek má i víc než dostatečnou nabídku další konektivity (SATA,USB), nemají důvod dávat do PC další karty. A většinou nechtějí vyhazovat peníze za něco co nepotřebují. V podstatě by jim stačila deska i bez čipové sady, ale tu výrobci desek nenabízejí (snad jen až na A/X300 od Asrocku).
Výrobci základních desek tedy mají dost problém, čím přesvědčit uživatel, aby si kupovali nové a drahé desky. Ale pocit, že čím víc proužků, tím víc adidas, má (i díky mediální masáži) řada lidí. A tak jsou novinky typu PCIe 5.0, nebo DDR5 vítaným důvodem výměny železa, i když jejich reálný přínos je malý.
Vysoká přenosová rychlost PCIe 5.0 má smysl hlavně u disku. Start OS a programů a většinu běžných operací sice zásadně neovlivní, ale u občasného kopírování velkých objemů dat se hodí. U grafiky rychlost PCIe moc důležitá není, protože za normálních okolností může jen o kousek zlepšit načítání her a jejich úrovní, což uživatele většinou stejně moc netrápí. A pokud bude trochu slušně fungovat načítání komprimovaných textur z ssd přímo do grafiky, může být ten problém ještě o dost menší.
Pro běžné uživatele tedy PCIe 5.0 stačí u jednoho disku, případně i u grafiky a B650 je tedy pro ně víc než dostatečné řešení. Pak jim stačí levná deska, která zvládne dodat PCIe 5.0 jen do nejbližšího okolí procesoru, ale jeho doručení do větší vzdálenosti její "dráty" nezvládnou.
Pokud někomu PCIe linky, USB, nebo SATA dostupné na deskách s B650 nebudou stačit, tak se přidá další stejný čip a máme X670. Jenže pokud není deska dost kvalitně udělaná, nebude na ní PCIe 5.0 spolehlivě fungovat A spousta uživatelů nebude nadávat výrobci desky, ale AMD. To byl i důvod, proč AMD nakonec zakázalo v BIOSech zapnout podporu PCIe 4.0 u starých desek, ve kterých byl osazen procesor, který PCIe 4.0 zvládal.
Aby se předešlo nedorozuměním a problémům, rozděluje AMD desky na X670, kde bude zaručené jen méně náročné PCIe 4.0, které bude většině stačit, a X670E, které má výrobce povinnost udělat a otestovat tak, aby na nich PCIe 5.0 chodilo opravdu všude, kde půjde zapnout.
Odpovědět0 4
Amd desky B650 bez moznosti taktovani:-O? Slo by dat odkaz na zdroj tehle informace. Moznost taktovani prece nesouvisi s cipovou sadou a pokud vim, tak taktovani omezuje na levnejsich deskach jen intel.
U nejlevnejsich amd desek Bx20 jsem sice nezkoumal, ale i uplne nejlevnejsi am4 deska na czc (b320) ma urcite moznost taktovani pameti a v popisu neni zadna zminka o nemoznosti taktovat procesor.
A taktovat jdou i nejmensi bezcipove desky v miniPC a300 a x300 od asroku. Tak se mi myslenka zakazaneho taktovani na b650 zda tezko uveritelna.
U nejlevnejsich amd desek Bx20 jsem sice nezkoumal, ale i uplne nejlevnejsi am4 deska na czc (b320) ma urcite moznost taktovani pameti a v popisu neni zadna zminka o nemoznosti taktovat procesor.
A taktovat jdou i nejmensi bezcipove desky v miniPC a300 a x300 od asroku. Tak se mi myslenka zakazaneho taktovani na b650 zda tezko uveritelna.
Odpovědět0 0
Jeste upresneni. O 2 rady vetsi je plocha toho prumerneho tranzistoru. Delka je vetsi o red.
Odpovědět0 0
je sirka kanalu mnihem mensi, nez jsou rozmery tranzistoru. Zmensovani nm kanalu ovlivnuje efektivitu tranzistoru mnohem vic nez jejich hustotu.
Pro zmensovani sirky kanalu u kremiku uz moc prostoru neni, ale na zmensovani tranzistoru a tedy zvysovani jejich hustoty je prostoru asi jeste docela dost.
Pro zmensovani sirky kanalu u kremiku uz moc prostoru neni, ale na zmensovani tranzistoru a tedy zvysovani jejich hustoty je prostoru asi jeste docela dost.
Odpovědět0 0
Fyzikalne jsou hranice dane Van det Waalesovym polomerem atomu. Z toho vychazi vzdalenost chemicky nevazanych atomu kremiku 0.42 a medi 0.28 nm. Vrstva kremiku o tloustce 1.7 nm by tedy mela jen 4 vrstvy kremikovych atomu.
Ale nm oznacujici technologii neznamenaji velikost tranzistoru, ale (teoretickou) sirku kanalu pod ridici elektrodou tranzistoru. Tranzistor a s nim souvisejici struktury jsou mnohem vetsi. Proces N5 od tmsc ma hustotu 172 mil tranzistoru na mm2. Z toho vyjde prumerna velikost tranzistoru 79 x 79 nm, coz je o 2 rady vetsi nez je delka kanalu (5nm).
Dokud se delaly tranzistory nalezato (planarni), tak nebyl mezi velikosti tranzistoru a delkou kanalu rozdil tak velky. Ale s nastupen zebrovych finFET (fin=zebro) se prechody delaji nastojato a tak je sirka kanalu
Ale nm oznacujici technologii neznamenaji velikost tranzistoru, ale (teoretickou) sirku kanalu pod ridici elektrodou tranzistoru. Tranzistor a s nim souvisejici struktury jsou mnohem vetsi. Proces N5 od tmsc ma hustotu 172 mil tranzistoru na mm2. Z toho vyjde prumerna velikost tranzistoru 79 x 79 nm, coz je o 2 rady vetsi nez je delka kanalu (5nm).
Dokud se delaly tranzistory nalezato (planarni), tak nebyl mezi velikosti tranzistoru a delkou kanalu rozdil tak velky. Ale s nastupen zebrovych finFET (fin=zebro) se prechody delaji nastojato a tak je sirka kanalu
Odpovědět0 0
Vzhledem k tomu, jaky je intel notoricky neplnic slibu, je otazka, jestli vubec dodal autorum hry vcas karty, ovladace a dokumentaci v dostatecne zpusobilem stavu, aby mohli vubec neco vyvijet a testovat.
Odpovědět2 0
Jen upozorním na chybku v řádu u počtu tranzistorů u GPU NVIDIA GH100. Asi to nebude 80 milionů, ale miliard.
Odpovědět0 0
Na TS Bohemia nabízejí k AMD kartám XBox Game Pass.
Odpovědět0 1
Koukám, že je to pořád stejně nesmyslná písnička. Testování slabých karet se 4 GB paměti na maximální možné detaily. A tváření se, že je velké překvapení, že to ty karty nezvládají.
Důvodem propadu fps v testech karet s málo pamětí na nejvyšší detaily je to, že se všechna potřebná data a textury při příliš vysokých detailech nevejdou do paměti grafiky a značné objemy dat se musí do karty dotahovat přes PCIe za běhu hry. V lepším případě z RAM, v horším z disku.
Takové nesmyslné testy nejsou ani tak ukázkou neschopnosti karty, jako spíš ukázkou neschopnosti (možná až všehoschopnosti) autora (testu). A také jeho nezájmu o reálné potřeby uživatelů. Normální člověk si totiž pro tak slabou kartu nastaví přiměřené detaily a nemá na PCIe 3.0 žádný problém.
Testování slabých karet na nejvyšší detaily je stejná hloupost, jako je testování výkonných karet na velmi nízkých rozlišeních (1280x720) pod záminkou "měření herního výkonu CPU". Je to jen zbytečné akademické cvičení testerů a pro normálního člověka jsou výsledky takových testů úplně k ničemu. Bylo by mnohem užitečnější, kdyby testeři u slabých karet udělali měření na 2-3 rozumných úrovních detailů včetně těch nejnižších.
Důvodem propadu fps v testech karet s málo pamětí na nejvyšší detaily je to, že se všechna potřebná data a textury při příliš vysokých detailech nevejdou do paměti grafiky a značné objemy dat se musí do karty dotahovat přes PCIe za běhu hry. V lepším případě z RAM, v horším z disku.
Takové nesmyslné testy nejsou ani tak ukázkou neschopnosti karty, jako spíš ukázkou neschopnosti (možná až všehoschopnosti) autora (testu). A také jeho nezájmu o reálné potřeby uživatelů. Normální člověk si totiž pro tak slabou kartu nastaví přiměřené detaily a nemá na PCIe 3.0 žádný problém.
Testování slabých karet na nejvyšší detaily je stejná hloupost, jako je testování výkonných karet na velmi nízkých rozlišeních (1280x720) pod záminkou "měření herního výkonu CPU". Je to jen zbytečné akademické cvičení testerů a pro normálního člověka jsou výsledky takových testů úplně k ničemu. Bylo by mnohem užitečnější, kdyby testeři u slabých karet udělali měření na 2-3 rozumných úrovních detailů včetně těch nejnižších.
Odpovědět2 1
Ach bože, to je zas článek :-O. Možná by stačilo aby se autor naučil trochu lépe hledat na webu ;-)..
Tuzemsko neřeším, protože sen se novinky dostanou až, když se uspokojí poptávka v západní Evropě a ve Státech. Ale stačí se podívat na německý srovnávač geizhals.de a vybrat notebooky s ryzeny 6000. Modelů s nVidia grafikami je sice nejvíc, ale Asus má dva modely své ROG Zephyrus G14 s grafikami rx6700s a 6800s. Ty byly ostatně první uvedené a recenzované modely s novými ryzeny a tak si jich šlo jen těžko nevšimnout. A je dostupný (6 prodejců) i model ASUS ROG Flow X13 ve verzi bez samostatné grafiky. Jeho cena začíná na 1450 éčkách.
Proč cpou všichni ostatní výrobci k novým ryzenům nVidie je otázka asi spíš na ně (a možná i na nVidii), než na AMD. Zatím jediný další výrobce, který používá ve větší míře v noteboocích AMD grafiky je MSI, které má docela dost modelů a už ve 3. generaci. Lenovo má AMD grafiky v modelech řady Legion 5 a HP v Omen 16 a Victus 16. V jedné řadě má AMD grafiky i Dell, ale ten v Evropě moc dostupný není a je otázka kolik jich reálně dělá, protože v Dellu moc AMD nefandí Při prvním uvedení sady nových ryzenů a mobilních grafik před 2 roky se Dell prezentoval jako hlavní partner AMD v téhle oblasti a ukazoval velmi pěkný stroj, jenže pak se na AMD vyprdnul a ten model v podstatě nevyráběl.
Možná proto se AMD další rok dohodlo s Asusem, který se ukázal jako mnohem serióznější partner a ty špičkové noteboky AMD+AMD ve velkém vyrábí. Tak je možné, že si vymínil nějakou exkluzivitu a nebo dostává přednostní dodávky. Hádám, že výrobci nemají ani moc potřebu dělat spoustu různých modelů, protože to ty stávající se zřejmě prodávají dobře, jak naznačuje růst podílu AMD na trhu s notebooky.
Tuzemsko neřeším, protože sen se novinky dostanou až, když se uspokojí poptávka v západní Evropě a ve Státech. Ale stačí se podívat na německý srovnávač geizhals.de a vybrat notebooky s ryzeny 6000. Modelů s nVidia grafikami je sice nejvíc, ale Asus má dva modely své ROG Zephyrus G14 s grafikami rx6700s a 6800s. Ty byly ostatně první uvedené a recenzované modely s novými ryzeny a tak si jich šlo jen těžko nevšimnout. A je dostupný (6 prodejců) i model ASUS ROG Flow X13 ve verzi bez samostatné grafiky. Jeho cena začíná na 1450 éčkách.
Proč cpou všichni ostatní výrobci k novým ryzenům nVidie je otázka asi spíš na ně (a možná i na nVidii), než na AMD. Zatím jediný další výrobce, který používá ve větší míře v noteboocích AMD grafiky je MSI, které má docela dost modelů a už ve 3. generaci. Lenovo má AMD grafiky v modelech řady Legion 5 a HP v Omen 16 a Victus 16. V jedné řadě má AMD grafiky i Dell, ale ten v Evropě moc dostupný není a je otázka kolik jich reálně dělá, protože v Dellu moc AMD nefandí Při prvním uvedení sady nových ryzenů a mobilních grafik před 2 roky se Dell prezentoval jako hlavní partner AMD v téhle oblasti a ukazoval velmi pěkný stroj, jenže pak se na AMD vyprdnul a ten model v podstatě nevyráběl.
Možná proto se AMD další rok dohodlo s Asusem, který se ukázal jako mnohem serióznější partner a ty špičkové noteboky AMD+AMD ve velkém vyrábí. Tak je možné, že si vymínil nějakou exkluzivitu a nebo dostává přednostní dodávky. Hádám, že výrobci nemají ani moc potřebu dělat spoustu různých modelů, protože to ty stávající se zřejmě prodávají dobře, jak naznačuje růst podílu AMD na trhu s notebooky.
Odpovědět1 0
Nejsi první koho tahle myšlenka napadla ;-). Přesně tohle dělá už dlouhá léta XMP :-).
Odpovědět3 0
Musím panu Vítkovi zatleskat, za zajímavý a moc hezky napsaný článek. Krátké, výstižné, na příkladech věcně vysvětlená podstata a souvislosti. Opravdu dobrá práce :-).
Odpovědět3 1
Pokud ma grafika dostatecne velkou pamet, tak se data nacitaji (pokud mozno) jen pred zacatkem hrani, nebo pri prechodech mezi lokacemi/ukoly. A tam o ovlivneni vykonu grafiky (fps) nema asi cenu mluvit.
U rozsahlych her , kde se nacita za behu musi byt nacitani reseno dostatecne vcas tak, aby hru nebrzdily ani pomalejsi disky. Tak bych se o fps moc nebal. Navic dekompresni algoritmy nejsou moc vypocetne narocne.
Nejvetsi brzdou byvaji spis prenosy po pomalych sbernicich (disk - cpu -grafika), nez nedostatek vypocetniho vykonu gpu. A kdyz se data budou predavat primo disk-grafika v komprimovane podobe usetri se nejen zbytecny prenos, ale jeste do grafiky potece diky kompresi mensi objem dat. A ta trocha vykonu na dekompresi bude v porovnani s naroky zpracovani 3d grafiky nejspis temer zanedbatelna.
U rozsahlych her , kde se nacita za behu musi byt nacitani reseno dostatecne vcas tak, aby hru nebrzdily ani pomalejsi disky. Tak bych se o fps moc nebal. Navic dekompresni algoritmy nejsou moc vypocetne narocne.
Nejvetsi brzdou byvaji spis prenosy po pomalych sbernicich (disk - cpu -grafika), nez nedostatek vypocetniho vykonu gpu. A kdyz se data budou predavat primo disk-grafika v komprimovane podobe usetri se nejen zbytecny prenos, ale jeste do grafiky potece diky kompresi mensi objem dat. A ta trocha vykonu na dekompresi bude v porovnani s naroky zpracovani 3d grafiky nejspis temer zanedbatelna.
Odpovědět0 0
2x vyssi cena a 2x vyssi reakne tdp? To za tech par fps opradu stoji ;-).
Odpovědět3 0
TDP 15w a realna spotreba v zatezi 55w? Toje bez par watu 4x vic nez TDP a to se opravdu vyplati. Zvlast pri praci na baterky. To bude konkurenci s realne 15w TDP valcovat jak vino. Jen aby vyrobce nezapomnel dat do toho notebooku dostatecne dimenzovane chlazeni. A k opravdovym ziletkam bude pridavny vymenik vodniho chlazeni, nebo budo mit ventilarory napajene rovnou ze site 230v?
Nedavno jsem koukal na nejaky 15w notebook (tusim od lenova) a zaujalo mne, ze ma opravdu pekne dimenzovane chlazeni se 2 tepelnymi trubicemi. Uvazoval jsem o jeho koupi v amd verzi, protoze bych rad slusnou integrovanou grafiku na zakladni hrani. Jenze kdyz jsem prochazel servisni manual, abych mel jistotu jak to je s technickym resenim a rozsiritelnosti, tak se ukazalo, ze 2 tepelne trubice ma jen intel verze a ta s amd ma jen jednu. Procpak asi?
Nedavno jsem koukal na nejaky 15w notebook (tusim od lenova) a zaujalo mne, ze ma opravdu pekne dimenzovane chlazeni se 2 tepelnymi trubicemi. Uvazoval jsem o jeho koupi v amd verzi, protoze bych rad slusnou integrovanou grafiku na zakladni hrani. Jenze kdyz jsem prochazel servisni manual, abych mel jistotu jak to je s technickym resenim a rozsiritelnosti, tak se ukazalo, ze 2 tepelne trubice ma jen intel verze a ta s amd ma jen jednu. Procpak asi?
Odpovědět1 1
APU se bude dělat i jako 65w verze pro stolní počítače, kde se výkonná iGPU určitě užije.
Kromě toho je ta výkonná iGPU součástí konceptu SmartShift. Jeho hlavní úlohou (přípona Max) je přesouvat dostupný chladicí výkon mezi CPU a samostatnou AMD grafikou tam, kde je ho právě nejvíc potřeba. Dělá to tak, že mění TDP obou komponent podle poměru jejich aktuálního vytížení. Když se některá z komponent fláká, může ta druhá dostat k dispozici více výkonu (=vyšší TDP). Tak může jet grafika nebo CPU s vyšším TDP, než odpovídá běžnému nastavení.
Druhou úlohou SmrtShift je (přípona Eco) šetřit energii při běhu na baterky. Když se počítač odpojí od napájení může dojít k automatickému přenesení hry na integrovanou iGPU a samostatná GPU se může vypnout a výrazně se tím prodlouží doba hraní na baterky.
Bylo by asi zbytečné kombinovat Rembrandta s nějakou slabou grafikou od Nvidie. Tím spíš, že ta nebude pracovat v SmartShift režimu. Ale dá se čekat, že to výrobci dělat budou, protože mají smlouvy o odběrech od Nvidie (určitě včetně těch slabých) a někam je dát musejí.
Osobně bych radši viděl i v nižších segmentech notebooky se samostatnými grafikami od AMD a možností SmartShift, jako to má ten Asus ROG Zephyrus G14. Ale třeba Lenovo Nitro 5, který se už taky objevil v testech má GPU 3070. Takže Nvidii budou téměř jistě cpát k Rembrandtům i v nižších segmentech. Tak uvidíme , jak se pochlapí ostatní výrobci.
Kromě toho je ta výkonná iGPU součástí konceptu SmartShift. Jeho hlavní úlohou (přípona Max) je přesouvat dostupný chladicí výkon mezi CPU a samostatnou AMD grafikou tam, kde je ho právě nejvíc potřeba. Dělá to tak, že mění TDP obou komponent podle poměru jejich aktuálního vytížení. Když se některá z komponent fláká, může ta druhá dostat k dispozici více výkonu (=vyšší TDP). Tak může jet grafika nebo CPU s vyšším TDP, než odpovídá běžnému nastavení.
Druhou úlohou SmrtShift je (přípona Eco) šetřit energii při běhu na baterky. Když se počítač odpojí od napájení může dojít k automatickému přenesení hry na integrovanou iGPU a samostatná GPU se může vypnout a výrazně se tím prodlouží doba hraní na baterky.
Bylo by asi zbytečné kombinovat Rembrandta s nějakou slabou grafikou od Nvidie. Tím spíš, že ta nebude pracovat v SmartShift režimu. Ale dá se čekat, že to výrobci dělat budou, protože mají smlouvy o odběrech od Nvidie (určitě včetně těch slabých) a někam je dát musejí.
Osobně bych radši viděl i v nižších segmentech notebooky se samostatnými grafikami od AMD a možností SmartShift, jako to má ten Asus ROG Zephyrus G14. Ale třeba Lenovo Nitro 5, který se už taky objevil v testech má GPU 3070. Takže Nvidii budou téměř jistě cpát k Rembrandtům i v nižších segmentech. Tak uvidíme , jak se pochlapí ostatní výrobci.
Odpovědět1 0
Na 12nm se dělají centrální čiplety pro serverové i desktopové procesory, tak jsou linky zatím asi dost vytížené. Nově chystané Ryzeny by měly mít centrální čiplety na 6nm od TSMC, tak by se měla 12nm výroba u Global Foundery asi postupně uvolňovat.
A protože AMD podepsalo nedávno prodloužení závazku pokračovat v odběrech křemíku od GloFo, čekal bych, že na 12nm rozjedou nějakou novou výrobu. Nejspíš levnější malé procesory, aby tenhle celý segment nenechávali Intelu.
A protože AMD podepsalo nedávno prodloužení závazku pokračovat v odběrech křemíku od GloFo, čekal bych, že na 12nm rozjedou nějakou novou výrobu. Nejspíš levnější malé procesory, aby tenhle celý segment nenechávali Intelu.
Odpovědět1 0
Vzhledem k omezeným výrobním kapacitám upřednostňuje AMD (celkem logicky) produkty, kde má vyšší marže a které jsou pro jeho další posilování důležitější. Jsou to hlavně serverové a pak mobilní procesory, protože notebooky tvoří asi 80% prodaných PC. Slabé a levné procesory prodává (asi) jen výrobcům počítačů, ale asi jen dost omezeně.
Odpovědět3 0
Kdyz nemaji vyrobni kapacity ani na pokryti pozadavku na serverove procesory, tak by byli blazni, kdyby vyrabeli ve vetsim mnozstvi tyhle procesory s minimalni marzi. Hadam, ze je dodaji jen vyrobcum pocitacu, kteri je do toho budou nejvic tlacit.
Odpovědět0 0
Ti bridilove z AMD nejsou schopni ani z desktopoveho 65w procesoru na maximalni turbo dostat vic jak 88w, coz je jen 135% TDP..
To u Intelu jsou u jini kofri. Ti se vyzev nelekaji. A navic maji nejlepsi procesory na svete. Ty i v low power 28w verzich dokazi dosahnout vykonu 64w, coz je 229% TDP a jsoy tedy temer dvakrat (229%/135%) lepsi, nez ty sragory od neschopneho AMD.
Inu, kdo umi, ten umi. A tak mu mnozi radi obdivne zatleskaji.
To u Intelu jsou u jini kofri. Ti se vyzev nelekaji. A navic maji nejlepsi procesory na svete. Ty i v low power 28w verzich dokazi dosahnout vykonu 64w, coz je 229% TDP a jsoy tedy temer dvakrat (229%/135%) lepsi, nez ty sragory od neschopneho AMD.
Inu, kdo umi, ten umi. A tak mu mnozi radi obdivne zatleskaji.
Odpovědět1 3
No, kdyby se mu podařilo zablokovat významnou část stávajících kapacit u TSMC na výrobu jeho grafik pro notebooky, tak trh grafických karet pro stolní počítače opravdu zachrání dost zásadním způsobem ;-) :-D.
Odpovědět1 0
Koukám, že jsem zapomněl zdůraznit jednu věc. Že u té 3050 nevycházím, z reálné minimální ceny karet dostupných na NewEgg, ale beru ji podle stejného poměru jako u předchozí karty. Důvodem je, že na NewEgg žádné karty 3050 dostupné nejsou a to tam byla nedávno u jedné (nedostupné )ú i cena 500 usd. Tak si myslím, že s tím podílem moc neprohádám.
U karty 6500xt byly o ze začátku dostupné i karty za 249 a postupně nejnižší vylezly o nd dolarů na těch 269. Takže čekám, že když nebyla 3050 první týden dostupná ani za 500 usd, tak levnější než těch 564 asi nebude. Uvidíme.
A pokud z těch 126% navýšení proti MSRP ceně udělal 35% obchod jako u 6500xt, tak ten zbytek by mohl jít nejspíš za nereálným odhadem uváděným Nvidií.
U karty 6500xt byly o ze začátku dostupné i karty za 249 a postupně nejnižší vylezly o nd dolarů na těch 269. Takže čekám, že když nebyla 3050 první týden dostupná ani za 500 usd, tak levnější než těch 564 asi nebude. Uvidíme.
A pokud z těch 126% navýšení proti MSRP ceně udělal 35% obchod jako u 6500xt, tak ten zbytek by mohl jít nejspíš za nereálným odhadem uváděným Nvidií.
Odpovědět0 0
A kdybys teprve viděl, jak mne je nebaví psát ;-). Zvlášť na mobilu :-(.
Myslím, že můžeš být v klidu. To jestli někdo odpoví, nebo ne, tady asi nikdo moc neřeší. Navíc, čím později dáš pod článek svůj příspěvek, tím míň lidí si ho přečte, protože tenhle web stojí na zpravodajství. A protože toho sem hoši sypou dost, tak články velmi rychle zmizí v propadliští dějin. Ani já bych tvou odpověď nezaznamenal, kdybych si omylem nezapnul sledování diskuze a nepřišlo mi upozornění na mail. Tak holt, budu muset odpovědět :-( ;-). I když to nikdo kromě tebe číst nebude a ani u tebe to není jisté :-).
Článek mluvil o tom, že Nvidia se svém (vlastním) obchodě zdražila své (opravdu vlastní) karty Founders Edition o (asi) 6% a to pro Evropu. Bohužel v článku chybí nejen slíbené vysvětlení příčiny, ale ani zdroj, tak není možné ověřit podrobnosti. Ale asi i díky obrázku s velkým MSRP (Market Street Retail Price) v nadpisu je to obecně interpretováno jako zvýšení doporučených maloobchodních cen.
Dalo by se polemizovat o tom, jestli je to MSRP, protože web Nvidie rozhodně není "pouliční" maloobchod. A kromě toho se tam myslím už docela dlouho žádné karty neprodávají a jeto čistě marketingová "výkladní skříň". Schválně jsem se na ten jejich obchod po dlouhé době podíval. Pominu to, že mne poslali do Indie a dalo hodně hledání, kde se přepnout jinam. Ale ověřil jsem si, že tam opravdu nic neprodávají.
Díval jsem se na Státy a na Německo. Po Founders Edition ani stopy. U starších karet je bývá (v Německu) uvedeno nedostupné, a když člověk klikne na Ověřit dostupnost, objeví se ve Státech odkaz buď na NewEgg, nebo BestBuy a v Německu odkaz ne nějaké (pro mne) neznámé obchody. Ceny uvedené u starších karet jsem moc nezkoumal, ale u 3050 jsou odkazy na edice za 246 usd, které jsou od samého počátku nedostupné. A to vím s jistotou, protože jsem NewEgg pár dní docela pečlivě sledoval.
Tak a k MSRP obecně. To není žádná konkrétní cena, ale více, či méně jen marketingově politická deklarace typu: "Já si myslím, že když ti kluci, co jsou ve výrobně prodejním řetězci za mnou nebudou moc nenažraní, tak by se dala nejlevnější karta tohoto typu dostat na pulty obchodů za přibližně tuto cenu." Nic víc, nic míň. A jestli je to tvrzení reálné, záleží za normální situace na tom, jestli je ta cena stanovená na základě znalosti skutečné situace v navazujícím řetězci, nebo spíš vycucaná z prostu, případně stvořená v marketingovém oddělení.
Tak a teď budu chválit. Správně píšeš, že si z MSRP nikdo moc hlavu nedělá, zvlášť dnes. Taky máš hezky udělané rozdělení financí podél výrobně prodejního řetězce. I když ta výše marží (kolem 7%) je trochu ;-) nízká. Podle finančních mají výrobci čipů měli ve 2Q2022 marže o fous vyšší - Nvidia 65%, Intel 57%, AMD 48%. Ona marže není čistý zisk a ty peníze slouží k úhradě spousty dalších nákladů. Ta zhruba 1/3 za GPU by mohla být možná reálná, aspoň u méně výkonných karet.
Takže všechno dobře, ale nějak se ti z toho počítání vytratila ta doporučená prodejní cena :-). Ne, že by to bylo špatně, jen to nevysvětlí, jak by mohla Nvidia zvýšením MSRP získat nějaké peníze. Ostatně odpověděl sis sám a správně. Nvidia může vydělat víc, když zvýší výrobcům karet ceny GPU čipů. Ale to je něco úplně jiného, než zvýšení MSRP, nebo cen na vlastním webu, kde nic neprodává. To že zvýší MSRP neznamená, že zvýšila ceny GPU. Tím spíš když ty ceny zvýšila jen pro Evropu a ne celosvětově.
Zvýšení cen dodávaných GPU s MSRP nesouvisí. I když by správně mělo, protože to zvyšuje cenu, za jakou se dá nejlevnější karta dostat na pult. Jenže ona asi nebude cena GPU čipu pro každého stejná. Asi bude záviset na velikosti odběrů a možná i na nějakých marketingových vlivech. Navíc výrobní i koncovou cenu ovlivňuje řada jiných faktorů a asi těžko je výrobce čipu sledovat a MSRP pořád upravovat. To by bylo hrozně pracné, tak doporučenou cenu (MSRP) stanoví jen jednou, před uvedením modelu na trh. A pokud se situace ve výrobě, nebo v distribuci změní, bude ta doporučená cena mimo.
Když výrobní a distribuční náklady a/nebo marže výrazněji stoupnou, bude doporučená cena nižší, než reálné ceny nejlevnější karty (což je dnešní situace). Když klesnou, může být doporučená cena i nadhodnocená ;-). Ale při výhledu na pád cen a přetlak se na trh nové výrobky asi moc nedávají, tak šance na nadhodnocení doporučené ceny asi není velká.
Při správném nastavení doporučené ceny (MSRP) by se neměla moc lišit od cen nejlevnějších skutečně dostupných karet. Pokud dochází k výkyvům cen v důsledku objektivních změn ve výrobně a distribuci, dá se čekat, že dopadnou na různé firmy dost podobně. A tak by se i poměr MSRP / nejnižší cena reálně dostupné karty měl vyvíjet podobně. Tenhle poměr tedy může docela dobře měřit serióznost nastavení doporučených cen a ukázat přístup firem k marketingu. Jen je potřeba brát ceny a MSRP pro stejný trh a porovnávat srovnatelné produkty, které byly vydané pokud možno v podobné době.
Jako ukázku beru doporučené ceny (MPSR) a prodejní ceny nejlevnější reálně dostupné karty daného typu ve Státech (newegg).
AMD
start verze msrp_newegg_newegg/msrp
10/20 6800xt 649 1369 211%
10/20 6800.. 579 1219 211%
03/21 6700xt 479 _899 188%
07/21 6600xt 379 _599 158%
10/21 6600.. 329 _449 136%
01/22 6500xt 199 _269 135%
Dvě nejstarší karty v AMD seznamu 6800xt/6800, vydané v říjnu 2020, mají dnešní reálné minimální ceny o 111% vyšší, než byly doporučené MSRP ceny z doby uvedení karet. Čím novější karty, tím je rozdíl mezi reálnou minimální cenou a doporučenou cenou MSRP. Dvě nejčerstvější karty 6600 a 6500xt uvedené v za poslední 3 měsíce mají minimální ceny MSRP+35%. Ten pokles rozdílů by mohl naznačovat pravdivost tvrzení, které se občas objevuje, že AMD stanovuje MSRP ceny podle reálných podmínek ve výrobě a s uvažováním přiměřených marží distribuce. Pak by se mohla u AMD karet na vysokých reálných cenách podílela (americká) distribuce navýšením marží o 35%.
Nvidia
start verze msrp_newegg_newegg/msrp
09/20 3080 699 1590 227%
10/20 3070 499 1089 218%
01/21 3060 329 _745 226%
01/22 3050 249 _564 226%?
Z Nvidie se poměr aktuální minimální ceny a doporučené MSRP ceny u karet vydaných ve 4 čtvrtletí 2020 moc neliší od hodnot pro karet založených na AMD čipech. Ale dost zvláštní je, že se od té doby ten poměr vlastně vůbec nezměnil a i čerstvě uváděné karty založené na Nvidia Čipech se prodávají o 120% dráž, než je cena doporučená Nvidií.A tak jsou proti MSRP skoro 4x víc předražené (+35%/+126%), než karty s AMD čipy.
Napadá mne několik možných vysvětlení:
1) Nvidia své karty považuje za velmi špatné a netroufne si za ně chtít vyšší cenu než tu svou MSRP.
2) Uživatelé kupující ty podle Nvidie špatné karty jsou idioti, kterým nevadí, že jsou 4x víc předražené, než karty AMD.
3) Nvidia se s informacemi o realitě nákladů výroby a distribuce zasekla před rokem a půl a nevšimla si, že se doba trochu změnila.
4) Přestože Nvidia ví, že se karty za tak nízké ceny na pulty obchodů dostat nedají, uvádí je jako oficiální, aby je recenzenti používali v recenzích a její karty vypadaly v rwecenzích jako mnohem výhodnější, než karty konkurence.
Ale možná tě napadne ještě nějaký jiný a třeba i lepší důvod.
Myslím, že můžeš být v klidu. To jestli někdo odpoví, nebo ne, tady asi nikdo moc neřeší. Navíc, čím později dáš pod článek svůj příspěvek, tím míň lidí si ho přečte, protože tenhle web stojí na zpravodajství. A protože toho sem hoši sypou dost, tak články velmi rychle zmizí v propadliští dějin. Ani já bych tvou odpověď nezaznamenal, kdybych si omylem nezapnul sledování diskuze a nepřišlo mi upozornění na mail. Tak holt, budu muset odpovědět :-( ;-). I když to nikdo kromě tebe číst nebude a ani u tebe to není jisté :-).
Článek mluvil o tom, že Nvidia se svém (vlastním) obchodě zdražila své (opravdu vlastní) karty Founders Edition o (asi) 6% a to pro Evropu. Bohužel v článku chybí nejen slíbené vysvětlení příčiny, ale ani zdroj, tak není možné ověřit podrobnosti. Ale asi i díky obrázku s velkým MSRP (Market Street Retail Price) v nadpisu je to obecně interpretováno jako zvýšení doporučených maloobchodních cen.
Dalo by se polemizovat o tom, jestli je to MSRP, protože web Nvidie rozhodně není "pouliční" maloobchod. A kromě toho se tam myslím už docela dlouho žádné karty neprodávají a jeto čistě marketingová "výkladní skříň". Schválně jsem se na ten jejich obchod po dlouhé době podíval. Pominu to, že mne poslali do Indie a dalo hodně hledání, kde se přepnout jinam. Ale ověřil jsem si, že tam opravdu nic neprodávají.
Díval jsem se na Státy a na Německo. Po Founders Edition ani stopy. U starších karet je bývá (v Německu) uvedeno nedostupné, a když člověk klikne na Ověřit dostupnost, objeví se ve Státech odkaz buď na NewEgg, nebo BestBuy a v Německu odkaz ne nějaké (pro mne) neznámé obchody. Ceny uvedené u starších karet jsem moc nezkoumal, ale u 3050 jsou odkazy na edice za 246 usd, které jsou od samého počátku nedostupné. A to vím s jistotou, protože jsem NewEgg pár dní docela pečlivě sledoval.
Tak a k MSRP obecně. To není žádná konkrétní cena, ale více, či méně jen marketingově politická deklarace typu: "Já si myslím, že když ti kluci, co jsou ve výrobně prodejním řetězci za mnou nebudou moc nenažraní, tak by se dala nejlevnější karta tohoto typu dostat na pulty obchodů za přibližně tuto cenu." Nic víc, nic míň. A jestli je to tvrzení reálné, záleží za normální situace na tom, jestli je ta cena stanovená na základě znalosti skutečné situace v navazujícím řetězci, nebo spíš vycucaná z prostu, případně stvořená v marketingovém oddělení.
Tak a teď budu chválit. Správně píšeš, že si z MSRP nikdo moc hlavu nedělá, zvlášť dnes. Taky máš hezky udělané rozdělení financí podél výrobně prodejního řetězce. I když ta výše marží (kolem 7%) je trochu ;-) nízká. Podle finančních mají výrobci čipů měli ve 2Q2022 marže o fous vyšší - Nvidia 65%, Intel 57%, AMD 48%. Ona marže není čistý zisk a ty peníze slouží k úhradě spousty dalších nákladů. Ta zhruba 1/3 za GPU by mohla být možná reálná, aspoň u méně výkonných karet.
Takže všechno dobře, ale nějak se ti z toho počítání vytratila ta doporučená prodejní cena :-). Ne, že by to bylo špatně, jen to nevysvětlí, jak by mohla Nvidia zvýšením MSRP získat nějaké peníze. Ostatně odpověděl sis sám a správně. Nvidia může vydělat víc, když zvýší výrobcům karet ceny GPU čipů. Ale to je něco úplně jiného, než zvýšení MSRP, nebo cen na vlastním webu, kde nic neprodává. To že zvýší MSRP neznamená, že zvýšila ceny GPU. Tím spíš když ty ceny zvýšila jen pro Evropu a ne celosvětově.
Zvýšení cen dodávaných GPU s MSRP nesouvisí. I když by správně mělo, protože to zvyšuje cenu, za jakou se dá nejlevnější karta dostat na pult. Jenže ona asi nebude cena GPU čipu pro každého stejná. Asi bude záviset na velikosti odběrů a možná i na nějakých marketingových vlivech. Navíc výrobní i koncovou cenu ovlivňuje řada jiných faktorů a asi těžko je výrobce čipu sledovat a MSRP pořád upravovat. To by bylo hrozně pracné, tak doporučenou cenu (MSRP) stanoví jen jednou, před uvedením modelu na trh. A pokud se situace ve výrobě, nebo v distribuci změní, bude ta doporučená cena mimo.
Když výrobní a distribuční náklady a/nebo marže výrazněji stoupnou, bude doporučená cena nižší, než reálné ceny nejlevnější karty (což je dnešní situace). Když klesnou, může být doporučená cena i nadhodnocená ;-). Ale při výhledu na pád cen a přetlak se na trh nové výrobky asi moc nedávají, tak šance na nadhodnocení doporučené ceny asi není velká.
Při správném nastavení doporučené ceny (MSRP) by se neměla moc lišit od cen nejlevnějších skutečně dostupných karet. Pokud dochází k výkyvům cen v důsledku objektivních změn ve výrobně a distribuci, dá se čekat, že dopadnou na různé firmy dost podobně. A tak by se i poměr MSRP / nejnižší cena reálně dostupné karty měl vyvíjet podobně. Tenhle poměr tedy může docela dobře měřit serióznost nastavení doporučených cen a ukázat přístup firem k marketingu. Jen je potřeba brát ceny a MSRP pro stejný trh a porovnávat srovnatelné produkty, které byly vydané pokud možno v podobné době.
Jako ukázku beru doporučené ceny (MPSR) a prodejní ceny nejlevnější reálně dostupné karty daného typu ve Státech (newegg).
AMD
start verze msrp_newegg_newegg/msrp
10/20 6800xt 649 1369 211%
10/20 6800.. 579 1219 211%
03/21 6700xt 479 _899 188%
07/21 6600xt 379 _599 158%
10/21 6600.. 329 _449 136%
01/22 6500xt 199 _269 135%
Dvě nejstarší karty v AMD seznamu 6800xt/6800, vydané v říjnu 2020, mají dnešní reálné minimální ceny o 111% vyšší, než byly doporučené MSRP ceny z doby uvedení karet. Čím novější karty, tím je rozdíl mezi reálnou minimální cenou a doporučenou cenou MSRP. Dvě nejčerstvější karty 6600 a 6500xt uvedené v za poslední 3 měsíce mají minimální ceny MSRP+35%. Ten pokles rozdílů by mohl naznačovat pravdivost tvrzení, které se občas objevuje, že AMD stanovuje MSRP ceny podle reálných podmínek ve výrobě a s uvažováním přiměřených marží distribuce. Pak by se mohla u AMD karet na vysokých reálných cenách podílela (americká) distribuce navýšením marží o 35%.
Nvidia
start verze msrp_newegg_newegg/msrp
09/20 3080 699 1590 227%
10/20 3070 499 1089 218%
01/21 3060 329 _745 226%
01/22 3050 249 _564 226%?
Z Nvidie se poměr aktuální minimální ceny a doporučené MSRP ceny u karet vydaných ve 4 čtvrtletí 2020 moc neliší od hodnot pro karet založených na AMD čipech. Ale dost zvláštní je, že se od té doby ten poměr vlastně vůbec nezměnil a i čerstvě uváděné karty založené na Nvidia Čipech se prodávají o 120% dráž, než je cena doporučená Nvidií.A tak jsou proti MSRP skoro 4x víc předražené (+35%/+126%), než karty s AMD čipy.
Napadá mne několik možných vysvětlení:
1) Nvidia své karty považuje za velmi špatné a netroufne si za ně chtít vyšší cenu než tu svou MSRP.
2) Uživatelé kupující ty podle Nvidie špatné karty jsou idioti, kterým nevadí, že jsou 4x víc předražené, než karty AMD.
3) Nvidia se s informacemi o realitě nákladů výroby a distribuce zasekla před rokem a půl a nevšimla si, že se doba trochu změnila.
4) Přestože Nvidia ví, že se karty za tak nízké ceny na pulty obchodů dostat nedají, uvádí je jako oficiální, aby je recenzenti používali v recenzích a její karty vypadaly v rwecenzích jako mnohem výhodnější, než karty konkurence.
Ale možná tě napadne ještě nějaký jiný a třeba i lepší důvod.
Odpovědět0 0
Absurdní se ceny 3050 zdají být jen ve srovnání s tou doporučovanou maloobchodní cenou ((MSRP), kterou si Nvidia jako obvykle vycucala z prstu, aby to v recenzích vypadalo, jak dělá výhodné karty.
Tomu, že se bude 3050 dát koupit 249 usd uváděných Nvidií, mohl věřit jen opravdu velký důvěřivec. Stačí se podívat, že nejlevnější 3060 je na newegg za 745 usd. A 350 není nákladově o moc níž než ta 3060. Je postavená na stejném, jen trochu ořezanějším čipu, a místo 12GB má jen 8 GB.
A když si člověk porovná doporučované ceny Nvidie s cenami nejlevnějších modelů skutečně dostupných na trhu, tak se dá s poměrně velkou pravděpodobností očekávat, že 3050 nebude reálně dostupná za ceny pod 500 usd. A realita tomu zatím dost odpovídá.
Ve Státech na newegg je 13 modelů 3050 a 5 z nich dokonce za 249 usd. Skladem ale není nic. Ani nejdražší verze za 489 usd. Tak krátce po zahájení prodejů to sice moc neznamená, ale dá se čekat, že vývoj bude podobný jako u nedávno uvedené 6500xt. Budu mluvit jen o americkém trhu, protože ten se firmy snaží zásobovat jako první. Na západní Evropu a tím spíš Česko se dostane až později.
Karty 3050 budou v nabídce, ale nepůjdou koupit. Pak se ty s nejnižší (=doporučenou) cenou postupně vytratí, protože splní svou historickou úlohu. Nikdo je za ty ceny nebude vyrábět a prodávat, pokud k tomu nebude výrobcem GPU čipů nucen. A ceny těch ostatních, dražších verzí 3050 porostou dokud se nedostanou na nějaké reálnější hodnoty, aby byly vydržely aspoň chvíli skladem.
U 6500xt se z doporučených 199 usd zvedly reálně ceny tak, že se dají koupit (na newegg) modely za 260 usd (+30%). Ale u 3050 to bude jinak, protože Nvidia doporučené ceny nemají s realitou nic společného. Z porovnání doporučených a minimálních tržních cen karet vydaných dříve se dá čekat nárůst reálných cen 3050 minimálně na 210-220% té doporučené. Takže nejlevnější karty budou tak za 500-550 usd.
Tomu, že se 6500xt dá koupit (na newegg) od 130% doporučené ceny možná trochu pomohlo i její hanění většinou známých testerů. Ale reálně to asi na (ne)zájem o ni až tak velký vliv nemělo. Minimální reálná cena nejlevnějších modelů 6600, která v testech dopadla mnohem lépe a je na trhu už dost dlouho je na podobné úrovni - 139% ceny doporučené AMD.
Poměr minimální skutečná cena nejlevnějšího modelu / doporučená cena výrobce může fungovat jako docela slušný odhad toho, jaká reálná cena se dá čekat. A taky vyjadřuje do značné míry důvěryhodnost doporučovaných cen výrobců GPU čipů.
model MPSR_newegg_newegg/MPSR
6600 329 449 139%
6500 199 259 130%
3070 519 1080 208%
3060 329 745 226%
3050 249 564? _226%?
Tomu, že se bude 3050 dát koupit 249 usd uváděných Nvidií, mohl věřit jen opravdu velký důvěřivec. Stačí se podívat, že nejlevnější 3060 je na newegg za 745 usd. A 350 není nákladově o moc níž než ta 3060. Je postavená na stejném, jen trochu ořezanějším čipu, a místo 12GB má jen 8 GB.
A když si člověk porovná doporučované ceny Nvidie s cenami nejlevnějších modelů skutečně dostupných na trhu, tak se dá s poměrně velkou pravděpodobností očekávat, že 3050 nebude reálně dostupná za ceny pod 500 usd. A realita tomu zatím dost odpovídá.
Ve Státech na newegg je 13 modelů 3050 a 5 z nich dokonce za 249 usd. Skladem ale není nic. Ani nejdražší verze za 489 usd. Tak krátce po zahájení prodejů to sice moc neznamená, ale dá se čekat, že vývoj bude podobný jako u nedávno uvedené 6500xt. Budu mluvit jen o americkém trhu, protože ten se firmy snaží zásobovat jako první. Na západní Evropu a tím spíš Česko se dostane až později.
Karty 3050 budou v nabídce, ale nepůjdou koupit. Pak se ty s nejnižší (=doporučenou) cenou postupně vytratí, protože splní svou historickou úlohu. Nikdo je za ty ceny nebude vyrábět a prodávat, pokud k tomu nebude výrobcem GPU čipů nucen. A ceny těch ostatních, dražších verzí 3050 porostou dokud se nedostanou na nějaké reálnější hodnoty, aby byly vydržely aspoň chvíli skladem.
U 6500xt se z doporučených 199 usd zvedly reálně ceny tak, že se dají koupit (na newegg) modely za 260 usd (+30%). Ale u 3050 to bude jinak, protože Nvidia doporučené ceny nemají s realitou nic společného. Z porovnání doporučených a minimálních tržních cen karet vydaných dříve se dá čekat nárůst reálných cen 3050 minimálně na 210-220% té doporučené. Takže nejlevnější karty budou tak za 500-550 usd.
Tomu, že se 6500xt dá koupit (na newegg) od 130% doporučené ceny možná trochu pomohlo i její hanění většinou známých testerů. Ale reálně to asi na (ne)zájem o ni až tak velký vliv nemělo. Minimální reálná cena nejlevnějších modelů 6600, která v testech dopadla mnohem lépe a je na trhu už dost dlouho je na podobné úrovni - 139% ceny doporučené AMD.
Poměr minimální skutečná cena nejlevnějšího modelu / doporučená cena výrobce může fungovat jako docela slušný odhad toho, jaká reálná cena se dá čekat. A taky vyjadřuje do značné míry důvěryhodnost doporučovaných cen výrobců GPU čipů.
model MPSR_newegg_newegg/MPSR
6600 329 449 139%
6500 199 259 130%
3070 519 1080 208%
3060 329 745 226%
3050 249 564? _226%?
Odpovědět3 5
Ale, ale, Matějka, píšu vám pětku. Vždyť vy tomu vůbec nerozumíte :-O. Stát přeci není možné řídit jako firmu ;-). A navíc ty komunistické kecy o nějakém plánování, natož dlouhodobém :-O :-D.
Odpovědět2 5
A ako se ti páčí, když čínská firma chce něco koupit od nizozemské ASML a Spojené státy nekladou podmínky, ale rovnou to zakáží?
Že by svoboda podnikání platila jen pro vyvolenější? Nebo, že by to byly jen takové kecy pro důvěřivé?
Že by svoboda podnikání platila jen pro vyvolenější? Nebo, že by to byly jen takové kecy pro důvěřivé?
Odpovědět6 0
Je to docela zvláštní.
Aby bylo jasné, že si tvrzení, že Nvidia možná chtěla původně udělat 3050 slabší, necucám z prstu, dal jsem do textu odkaz na článek z jiného českého IT webu, odkud jsem čerpal. Když odkaz z mého komentáře záhadně zmizel, tak jsem ho dal do dalšího příspěvku a to zmizel celý příspěvek.
Tak jsem zkusil najít jiný zdroj, který je (pro někoho bohužel) v angličtině https://www.tomshardware.com/news/nvidia-geForce-rtx-3050-uses-ga106-silicon.
Jsem docela zvědav, jestli zmizí i tenhle můj komentář. Aspoň uvidíme, jestli ten cenzor nemá rád jen zmínky odkazující o českou konkurenci, nebo spíš informace na téma možné změny v rozhodování Nvidie.
Aby bylo jasné, že si tvrzení, že Nvidia možná chtěla původně udělat 3050 slabší, necucám z prstu, dal jsem do textu odkaz na článek z jiného českého IT webu, odkud jsem čerpal. Když odkaz z mého komentáře záhadně zmizel, tak jsem ho dal do dalšího příspěvku a to zmizel celý příspěvek.
Tak jsem zkusil najít jiný zdroj, který je (pro někoho bohužel) v angličtině https://www.tomshardware.com/news/nvidia-geForce-rtx-3050-uses-ga106-silicon.
Jsem docela zvědav, jestli zmizí i tenhle můj komentář. Aspoň uvidíme, jestli ten cenzor nemá rád jen zmínky odkazující o českou konkurenci, nebo spíš informace na téma možné změny v rozhodování Nvidie.
Odpovědět0 1