Teď mě v jinym tématu napadlo, neviděli jste někdy měřit spotřebu elektřiny jednotlivejma procesorama na spočítání nějaký úlohy?
Prostě místo v podstatě "nicneříkající čísla" v plný zátěži žere sestava 250W, tak údaj typu sestava s tím to procesorem spotřebuje 3kWh na projítí 3DMarku?
Protože procesor s dvojnásobnym výkonem a o polovinu větší spotřebou může bejt vlastně úspornější - video mi převede dvakrát rychlejc a zbytek poběží v idle, nebo ve hře nepoběží na 100% a tak nebude žrát svojí maximální spotřebu...
Prostě místo v podstatě "nicneříkající čísla" v plný zátěži žere sestava 250W, tak údaj typu sestava s tím to procesorem spotřebuje 3kWh na projítí 3DMarku?
Protože procesor s dvojnásobnym výkonem a o polovinu větší spotřebou může bejt vlastně úspornější - video mi převede dvakrát rychlejc a zbytek poběží v idle, nebo ve hře nepoběží na 100% a tak nebude žrát svojí maximální spotřebu...
Zajímavá teorie, ale v praxi to asi bude nepoužitelné - onen procesor s dvojnásobným výkonem bude stát o tolik víc, že jeho koupě čistě z důvodu jakési úspory energie se nevyplatí.
To vim, spíš mi jde o to, že se někdo říká - tak výkonej procesor nechci, strašně žere. A vlastně to tak neni, jen je jeho "žraní" zkoncentrovaný do kratšího času...
Ono to má logiku jak kdy.
Třeba rendering nebo převod videa je tím rychlejší, čím výkonnější je CPU. Výpočet trvá kratší dobu a i při vyšší okamžité spotřeba může být celková spotřeba nižší.
Jenže třeba u 3D Marku nebo her to takhle nefunguje (protože přebytečný výkon se obvykle spotřebuje na vyšší FPS). Tam nejde hru odehrát rychleji, protože máš výkonný CPU nebo GPU, a komponenty který žerou víc, toho prostě i víc spotřebujou.
Třeba rendering nebo převod videa je tím rychlejší, čím výkonnější je CPU. Výpočet trvá kratší dobu a i při vyšší okamžité spotřeba může být celková spotřeba nižší.
Jenže třeba u 3D Marku nebo her to takhle nefunguje (protože přebytečný výkon se obvykle spotřebuje na vyšší FPS). Tam nejde hru odehrát rychleji, protože máš výkonný CPU nebo GPU, a komponenty který žerou víc, toho prostě i víc spotřebujou.
[quote=Logout;300099]Teď mě v jinym tématu napadlo, neviděli jste někdy měřit spotřebu elektřiny jednotlivejma procesorama na spočítání nějaký úlohy?[/quote]
Na techreportu. Na anandtechu zase meri spotrebu pri kodovani videa, ke kteremu tam jsou vykonostni vysledky, takze se to da spocitat.
Na techreportu. Na anandtechu zase meri spotrebu pri kodovani videa, ke kteremu tam jsou vykonostni vysledky, takze se to da spocitat.
czhunter: Ale to přece platí i ve hrách - pokud dostanu stejnej výsledek z obou procesorů a jeden je rychlejší než druhej, tak se i víc fláká. A pokud se fláká, tak nedosahuje maxima svý spotřeby. Takže ani u hry se nedá počítat s maximální spotřebou.
Pokud je zaměstnanej i ten silnější na full, tak pak slabší nestíhá, takže je to neporovnatelný - pak za tu větší spotřebu mam např. necukající hru...
Pokud je zaměstnanej i ten silnější na full, tak pak slabší nestíhá, takže je to neporovnatelný - pak za tu větší spotřebu mam např. necukající hru...
U her se nikdy nedá počítat s maximální spotřebou, protože nikdy nevýtíží CPU úplně.
Jenže u správně napsanýho enginu to nemá fungovat tak, že silný i slabý procesor vrací stejné výsledky a silný se půlku času fláká, ale silný má vracet 2x víc výsledků (stejný je to to s grafickou kartou, přeci si nemůže říct "40FPS stačí, tak dál už v téhle sekundě počítat nebudu, ušetřím elektřinu"). Správně se tedy nemá flákat ani jeden z nich.
U mnoha her to tak je a u mnoha her to tak není (protože se třeba fyzika nebo AI počítá jen fixním počtem změn, třeba 30x za sekundu).
Ale tady nejde o to, jestli to u té nebo oné hry je tak nebo onak, ale že často vyšší výkon (a spotřeba) nepřinese ušetření spotřeby tím, že to spočítá rychleji, ale prostě pouze vrátí víc výsledků (v renderingu se tomu říká "unbiased" výpočty).
A abys zjistil, jaký je v tom poměr, tak to bys musel udělat velmi složitý a rozsáhlý výzkum.
Jenže u správně napsanýho enginu to nemá fungovat tak, že silný i slabý procesor vrací stejné výsledky a silný se půlku času fláká, ale silný má vracet 2x víc výsledků (stejný je to to s grafickou kartou, přeci si nemůže říct "40FPS stačí, tak dál už v téhle sekundě počítat nebudu, ušetřím elektřinu"). Správně se tedy nemá flákat ani jeden z nich.
U mnoha her to tak je a u mnoha her to tak není (protože se třeba fyzika nebo AI počítá jen fixním počtem změn, třeba 30x za sekundu).
Ale tady nejde o to, jestli to u té nebo oné hry je tak nebo onak, ale že často vyšší výkon (a spotřeba) nepřinese ušetření spotřeby tím, že to spočítá rychleji, ale prostě pouze vrátí víc výsledků (v renderingu se tomu říká "unbiased" výpočty).
A abys zjistil, jaký je v tom poměr, tak to bys musel udělat velmi složitý a rozsáhlý výzkum.
Čekal jsem, že někdo do toho rejpne :-)
V tomdle máš pravdu, ale zas pokud ten procesor vrátí víc výsledků, tak je hra přesnější, grafika hezčí nebo já nevimco. Pokud teda dosáhnu maximální spotřeby, tak zas dostanu něco, co mi slabší CPU nedá - takže je to zas neporovnatelný...
A co se týče GPU - taky de zapnout vsync :-).
V tomdle máš pravdu, ale zas pokud ten procesor vrátí víc výsledků, tak je hra přesnější, grafika hezčí nebo já nevimco. Pokud teda dosáhnu maximální spotřeby, tak zas dostanu něco, co mi slabší CPU nedá - takže je to zas neporovnatelný...
A co se týče GPU - taky de zapnout vsync :-).
V-sync ti neomezí počet počítaných snímků, pouze těch zobrazených (kvůli tomu je tam double/tripple buffering ... spousta výsledků se prostě zahodí).
No, já celkově chápu, o co ti jde. Jestli si chceš spočítat třeba spotřebu na projití Cinebenchem nebo kompersí videa, klidně to udělej, je to prostý násobení (spotřeba x čas), nikomu jinýmu se to zjevně nechce dělat :)
No, já celkově chápu, o co ti jde. Jestli si chceš spočítat třeba spotřebu na projití Cinebenchem nebo kompersí videa, klidně to udělej, je to prostý násobení (spotřeba x čas), nikomu jinýmu se to zjevně nechce dělat :)
czhunter:
A co grafika dělá, když spočítala ten svuj snímek a ještě se nemá zobrait? Jako že počítá kus dalšího jen tak z plezíru, aby se nenudila? Myslim, že ne. Potvrzujou to jak vývojáři tady:
http://www.d-silence.com/feature.php?id=255
[quote] JS: "As for Quake II & III - John C. makes the game run the fastest he can. Obviously waiting for Vsync before window swapping can cause a slow down. If you take 1.1 frames to draw a scene, then wait for Vsync before swapping frame buffers that means that .9 of that frame is spent doing nothing on the card. The OpenGL context can accept commands and buffer them up, but it's not going to be doing any rendering until the buffers are swapped and the back buffer is unlocked for rendering again....
[/quote]
Tak i to, že při zapnutym V-syncu má grafika někdy nižší teploty:
[odkaz, pro zobrazení se přihlaste]
Nicméně to je vedlejší otázka.
A tvojí druhý (trochu arogantní) replice taky nerozumim. Zaprvý to neni násobení ale integrace (spotřeba se kupodivu může během testu měnit), zadruhý k čemu by mi to bylo, když nemam všechny procesory, který mě zajímaj a tak nemůžu srovnávat. Proto jsem se taky ptal, jestli někdo někde viděl tendle typ testu (popř. pro nějakýho nadšence jako tip na zajímavej test).
optim: Dík, to je přesně ono :-) Dam sem jen přesnej link na jeden z testů, kdyby to někoho zajímalo:
http://techreport.com/articles.x/17402/11
Stojí za prohlídnutí...
A co grafika dělá, když spočítala ten svuj snímek a ještě se nemá zobrait? Jako že počítá kus dalšího jen tak z plezíru, aby se nenudila? Myslim, že ne. Potvrzujou to jak vývojáři tady:
http://www.d-silence.com/feature.php?id=255
[quote] JS: "As for Quake II & III - John C. makes the game run the fastest he can. Obviously waiting for Vsync before window swapping can cause a slow down. If you take 1.1 frames to draw a scene, then wait for Vsync before swapping frame buffers that means that .9 of that frame is spent doing nothing on the card. The OpenGL context can accept commands and buffer them up, but it's not going to be doing any rendering until the buffers are swapped and the back buffer is unlocked for rendering again....
[/quote]
Tak i to, že při zapnutym V-syncu má grafika někdy nižší teploty:
[odkaz, pro zobrazení se přihlaste]
Nicméně to je vedlejší otázka.
A tvojí druhý (trochu arogantní) replice taky nerozumim. Zaprvý to neni násobení ale integrace (spotřeba se kupodivu může během testu měnit), zadruhý k čemu by mi to bylo, když nemam všechny procesory, který mě zajímaj a tak nemůžu srovnávat. Proto jsem se taky ptal, jestli někdo někde viděl tendle typ testu (popř. pro nějakýho nadšence jako tip na zajímavej test).
optim: Dík, to je přesně ono :-) Dam sem jen přesnej link na jeden z testů, kdyby to někoho zajímalo:
http://techreport.com/articles.x/17402/11
Stojí za prohlídnutí...