Na posledním grafu je hezky vidět jak se brutálně zvyšuje spotřeba. Zvýšení taktu o 14% zvýší výkon o 11%, ale spotřeba enegie se zvýší o 103% (t.j. na dvojnásobek).
"To by se v případě takového Etherea stát nemělo, protože to údajně pomocí žádného specializovaného ASIC těžit nejde"
Teoreticky by to šlo, ale ten algoritmus potřebuje hodně paměti, k tomu ASICu by bylo potřeba dát asi tak 4GB velmi rychlé RAM. Tudíž by se to výrazně prodražilo a navíc navrhnout vlastní řadič pro rychlou RAMku není legrace...
A dále by se musel naprogamovat nový miner pro ten ASIC. Takže použití už hotové grafiky je levnější.
V článku mi chybí zmínka o Peltierově článku, ten byl v dobách P4 docela populání. Alespoň podle článků co si pamatuju, tenkrát s Duronem jsem nic takového nepotřeboval :-) Navíc to brutálně zvyšovalo potřebu a chladič musel o to víc chladit...
Jinak právě toho Durona jsem chladil Titanem. Dneska ale naopak už zůstávám u Boxu...
Nějak mi uniká smysl extra cachování do RAM disku. O to by se měl přeci starat operační systém, ten by si měl držet často čtená data a při zápisu je shluknout. Duplikace funkcionality do ovladače mi moc nedává smysl. (Pokud tedy Windows nemají nějaký špatný memory management, v tom se nevyznám, běhám na Linuxu...)
Opravdu se to v reálu nějak pozná? Je někde reálný příklad použití a porovnání se standardním ovladačem? Dělá to na mě dojem, že to je dobré tak akorát pro benchmarky...