Vtipný kmitočet i komentář :-).
Odpovědět1 0
No nevím, ne že bych nějak moc věřil tomu, že je nVidia nějaký Mirek Dušín. Ale tohle se mi přeci jen zdá jako zpráva z okurkové sezóny. Nemyslím si, že by někdo výrobce herních grafik musel od výroby těch založených na Intelu odrazovat. Zatím to velmi opatrně zkusili tuším dva a hádám, že toho celkem litují. A nemyslím si, že se od další generace dá čekat nějaký zázrak.
Byl bych ochoten uvěřit nanejvýš tomu, že nVidia bude odrazovat od použití Intel grafik výrobce notebooků, nebo možná i kancelářských PC. Tam totiž dost uživatelů samostatnou herní grafiku ani nepotřebuje, ale musí ji koupit, protože se lepší konfigurace bez samostatné grafiky nedělají.
Byl bych ochoten uvěřit nanejvýš tomu, že nVidia bude odrazovat od použití Intel grafik výrobce notebooků, nebo možná i kancelářských PC. Tam totiž dost uživatelů samostatnou herní grafiku ani nepotřebuje, ale musí ji koupit, protože se lepší konfigurace bez samostatné grafiky nedělají.
Odpovědět4 0
Tomu, že nVidia neusiluje o zablokování implementace FSR na jí sponzorovaných hrách může uvěřit asi opravdu jen její kovaný fanda. A její prohlášení, že to neděla, rozhodně není zárukou, že říká pravdu. Ti jsou schopni lhát i tam, kde mají ve smlouvách prokazatelné sviňárny a dá se to tedy přímo prokázat. Viz dole jejich aféru s Nvidia GeForce Partner Program. Tam tvrdili, že jde o podporu partnerů a jak se ukázalo, cílem bylo vytlačit AMD grafiky z uživateli oblíbených prémiových řada produktů na vedlejší kolej.
Z podobného soudku "agresivního marketingu" je tvrzení, že nové nVidia grafiky 4xxx jsou 3x výkonnější, než předchozí 3xxx, protož e s DLSS 3, které si každý druhý snímek cucá z prstu, jsou schopny vyrobit 3x vyšší fps. A už se neříká, že je 3x víc to jen proto, že nVidia neumožní použit DLSS 3 na starších kartách, aby si lidi musely koupit ty nové. A že reálně je výkon vyšší jen asi 1,5x.
Ve smlouvách se studii téměř jistě zákaz implementace konkurenční technologie nemá ani jedna z těch dvou firem. Ale Je celkem pochopitelné, že nikdo nechce, aby se za jeho peníze vložené do vývoje hry podporovaly produkty konkurence. Při jednáních o sponzorství to nepochybně přijde na přetřes a nejspíš se udělá džentlmenská dohoda minimálně o odložení implementace konkurenční technologie. Protože to není natvrdo ve smlouvě, nemá nVidia zvyklá na "agresivní marketing", žádný problém napsat prohlášení, že nic neblokuje, protože ví, že to nelze prokázat a partner je nepodrazí, protože by přišel o podporu. AMD tenhle přístup není vlastní a tak napíše diplomatičtější vyjádření a tím se přímé odpovědi vyhne. Je otázka, kdo co vnímá jako správnější a lepší.
https://en.wikipedia.org/wiki/GeForce_Partner_Program
Z podobného soudku "agresivního marketingu" je tvrzení, že nové nVidia grafiky 4xxx jsou 3x výkonnější, než předchozí 3xxx, protož e s DLSS 3, které si každý druhý snímek cucá z prstu, jsou schopny vyrobit 3x vyšší fps. A už se neříká, že je 3x víc to jen proto, že nVidia neumožní použit DLSS 3 na starších kartách, aby si lidi musely koupit ty nové. A že reálně je výkon vyšší jen asi 1,5x.
Ve smlouvách se studii téměř jistě zákaz implementace konkurenční technologie nemá ani jedna z těch dvou firem. Ale Je celkem pochopitelné, že nikdo nechce, aby se za jeho peníze vložené do vývoje hry podporovaly produkty konkurence. Při jednáních o sponzorství to nepochybně přijde na přetřes a nejspíš se udělá džentlmenská dohoda minimálně o odložení implementace konkurenční technologie. Protože to není natvrdo ve smlouvě, nemá nVidia zvyklá na "agresivní marketing", žádný problém napsat prohlášení, že nic neblokuje, protože ví, že to nelze prokázat a partner je nepodrazí, protože by přišel o podporu. AMD tenhle přístup není vlastní a tak napíše diplomatičtější vyjádření a tím se přímé odpovědi vyhne. Je otázka, kdo co vnímá jako správnější a lepší.
https://en.wikipedia.org/wiki/GeForce_Partner_Program
Odpovědět4 1
Levný monitor a G-Sync ? To by byl hezký protimluv :-). Ale tenhle monitor G-Sync neumí.
Ten G-Sync Compatible je jen nVidia marketingový název pro povolení Free-Sync monitorů na nVidia grafikách. Aby nemusela nVidia přiznat, že její uzavřený a drahý G-Sync dostal od otevřeného a levného AMD Free-Syncu na prdel a je to mrtvá technologie, začala místo názvu Free-Sync používat svůj zavádějící název G-Sync Compatible. A jak je z titulku článku vidět dokáže tím úspěšně zmást i zkušeného.
Ten G-Sync Compatible je jen nVidia marketingový název pro povolení Free-Sync monitorů na nVidia grafikách. Aby nemusela nVidia přiznat, že její uzavřený a drahý G-Sync dostal od otevřeného a levného AMD Free-Syncu na prdel a je to mrtvá technologie, začala místo názvu Free-Sync používat svůj zavádějící název G-Sync Compatible. A jak je z titulku článku vidět dokáže tím úspěšně zmást i zkušeného.
Odpovědět2 1
Tohle není žádný nový konektor a návrh na změny nepředkládá PCI-SIG, i když by si nVidia nejspíš přála, aby to tak vypadalo. Po rozsáhlé medializaci problémů jejích tavících se konektorů 12VHPWR s mizernou konstrukcí by se jí marketingově velmi hodilo nové jméno konektoru a posílení pocitu, že za konektorem je nezávislá standardizační organizace.
Doporučuji každému si přečíst zdrojový článek (viz odkaz dole) od Igora Wallesska, který má k dispozici návrh na další změny standardu PCIe 5.0. To je ten standard do, kterého přidání svého 16-ti pinu 12VHPWR prosadila nVidia s podporou Dellu. Obě firmy byly uvedeny jako sponzoři v hlavičce původního návrhu na přidání 12VHPWR do standardu.
Igor Wallossek probírá navrhované změny a technicky podstatné jsou jen dvě. Doporučení použít konstrukci kontaktů, která se dokáže o něco lépe vypořádat s nesouosostí kontaktů, což navrhl Intel jako pouhé upřesnění jím spravovaného standardu napájecích zdrojů ATX hned při provalení se problémů s tím 16-ti pinem. Druhým navrhovaným opatřením je zkrácení signalizačních pinů, což má údajně blokovat fungování karty, když je napájecí konektor zasunutý jen částečně. .
Jenže problém konektoru není v typu kontaktu ani v nedostatečně hlubokém zasunutí konektoru, jak vyplývá z důkladné analýzy, kterou udělali hoši z HW Unboxed (viz odkaz na video dole). Konektor nehořel dokonce, ani když odstřihly 5 ze 6 napájecích pinů. Průšvih je ve špatné mechanické konstrukci tělesa konektoru a upevňovacího zobáčku, který je tak slabý, že i dobře zasunutý konektor se snadno vyviklá a uvolní. Špatná konstrukce a mechanické poddimenzování tělesa konektoru způsobí i při relativně malém bočním tlaku vyosení konektoru. To má za následek pootevření kontaktů a přechod od celoplošného k bodovému kontaktu na koncích pinu. A právě zmenšení plochy kontaktu a zvětšení přechodových odporů vyoseného kontaktu jsou příčinou vyhoření konektoru.
Použití doporučená konstrukce kontaktů řeší problém jen velmi částečně a zkrácení pinů vůbec. Místo toho by bylo potřeba udělat větší a odolnější těleso konektoru a upevňovacího zobáčku. Jenže to by znamenalo, že s novým konektorem nepůjdou použít již vyrobené karty a zdroje. A do takového přiznání chyby se nVidii určitě nechce. Tak se bude tvářit, že vzniknul nový, mnohem lepší, ale stále kompatibilní konektor a bude doufat, že problémy nebudou tak velké.
Další zajímavost, kterou Igor Wallossek objevil, je, že nVidia upravenou verzi se zkrácenými signalizačními piny už osazuje do nových karet a někteří výrobci do nových zdrojů. A to dávno před tím, než byla úprava standardu schválena. Myslím, že to celkem dobře ilustruje nejen přístup nVidie ke standardům, ale i význam schvalovacího procesu toho nového návrhu jeho úprav.
https://www.igorslab.de/en/rest-in-peace-12vhpwr-connector-welcome-12v-2x6-connector/
https://www.igorslab.de/en/heimlicher-wechsel-an-den-sense-pins-bereits-seit-der-rtx-4070-fe-und-niemand-hat-es-bemerkt/
https://www.youtube.com/watch?v=ig2px7ofKhQ
Doporučuji každému si přečíst zdrojový článek (viz odkaz dole) od Igora Wallesska, který má k dispozici návrh na další změny standardu PCIe 5.0. To je ten standard do, kterého přidání svého 16-ti pinu 12VHPWR prosadila nVidia s podporou Dellu. Obě firmy byly uvedeny jako sponzoři v hlavičce původního návrhu na přidání 12VHPWR do standardu.
Igor Wallossek probírá navrhované změny a technicky podstatné jsou jen dvě. Doporučení použít konstrukci kontaktů, která se dokáže o něco lépe vypořádat s nesouosostí kontaktů, což navrhl Intel jako pouhé upřesnění jím spravovaného standardu napájecích zdrojů ATX hned při provalení se problémů s tím 16-ti pinem. Druhým navrhovaným opatřením je zkrácení signalizačních pinů, což má údajně blokovat fungování karty, když je napájecí konektor zasunutý jen částečně. .
Jenže problém konektoru není v typu kontaktu ani v nedostatečně hlubokém zasunutí konektoru, jak vyplývá z důkladné analýzy, kterou udělali hoši z HW Unboxed (viz odkaz na video dole). Konektor nehořel dokonce, ani když odstřihly 5 ze 6 napájecích pinů. Průšvih je ve špatné mechanické konstrukci tělesa konektoru a upevňovacího zobáčku, který je tak slabý, že i dobře zasunutý konektor se snadno vyviklá a uvolní. Špatná konstrukce a mechanické poddimenzování tělesa konektoru způsobí i při relativně malém bočním tlaku vyosení konektoru. To má za následek pootevření kontaktů a přechod od celoplošného k bodovému kontaktu na koncích pinu. A právě zmenšení plochy kontaktu a zvětšení přechodových odporů vyoseného kontaktu jsou příčinou vyhoření konektoru.
Použití doporučená konstrukce kontaktů řeší problém jen velmi částečně a zkrácení pinů vůbec. Místo toho by bylo potřeba udělat větší a odolnější těleso konektoru a upevňovacího zobáčku. Jenže to by znamenalo, že s novým konektorem nepůjdou použít již vyrobené karty a zdroje. A do takového přiznání chyby se nVidii určitě nechce. Tak se bude tvářit, že vzniknul nový, mnohem lepší, ale stále kompatibilní konektor a bude doufat, že problémy nebudou tak velké.
Další zajímavost, kterou Igor Wallossek objevil, je, že nVidia upravenou verzi se zkrácenými signalizačními piny už osazuje do nových karet a někteří výrobci do nových zdrojů. A to dávno před tím, než byla úprava standardu schválena. Myslím, že to celkem dobře ilustruje nejen přístup nVidie ke standardům, ale i význam schvalovacího procesu toho nového návrhu jeho úprav.
https://www.igorslab.de/en/rest-in-peace-12vhpwr-connector-welcome-12v-2x6-connector/
https://www.igorslab.de/en/heimlicher-wechsel-an-den-sense-pins-bereits-seit-der-rtx-4070-fe-und-niemand-hat-es-bemerkt/
https://www.youtube.com/watch?v=ig2px7ofKhQ
Odpovědět0 0
Pokud se chces bavit o dominantnim a arogantnim chovani, tak v tom je nVidia bezkonkurencni favorit, jak uz mnohokrat ukazala.
To bude ostatne jeden z duvodu, proc neuspela u vyrobcu konzoli. Ti dali prednost amd, ktere je bralo jako dlouhodobe partnery a ne jako prostredek ke generovani co nejvyssiho zisku.
To bude ostatne jeden z duvodu, proc neuspela u vyrobcu konzoli. Ti dali prednost amd, ktere je bralo jako dlouhodobe partnery a ne jako prostredek ke generovani co nejvyssiho zisku.
Odpovědět1 4
Amd nejen nezakazuje optimalizace pro nVidia karty, ale ve svem reseni dokonce dela praci za nVidii a umoznuje hracum pouzivat ve hrach prepocitavani z mensiho rozliseni i na starsich nVidia kartach, kam to nVidia schvalbe nedava, aby donutila lidi koupit si co nejdriv jejich novejsi kartu.
Docela by mne zajimalo, za co konkretne by podle Sona... mela nVidia to amd zalovat. Ze by za kazeni nVidia obchodni politiky zamerene na co nejvetsi skubani zakazniku :-O ;-) ?
Docela by mne zajimalo, za co konkretne by podle Sona... mela nVidia to amd zalovat. Ze by za kazeni nVidia obchodni politiky zamerene na co nejvetsi skubani zakazniku :-O ;-) ?
Odpovědět11 4
"Schvalujete taktiku AMD, že u jimi sponzorovaných her častěji chybí DLSS?"
Zajimava formulace ;-). Kdybych chtel byt osklivy, tak bych pridal i pridavne jmeno manipulativni. Pripada jenom mne, ze podsouva ctenari myslenku, ze AMD zakazuje autorum jim sponzorovanych her pridat konkurencni technologii ?
Docela by mne zajimalo jak a kde autor ze zdrojoveho clanku zjistil, ze amd ma nejakou taktiku a jak tato hypoteticka taktika ovlivnuje to, ze se objevuji hry, kde je jen fsr a neni dlss.
Rekl bych, ze to je jen spekulace, nebo tomu muzeme rikat vlidneji dedukce. A protoze autor vi, ze tvrzeni, ze amd zakazuje partnerum implementovat technologie konkurence, by neobhajil, napise podivnou, (az pravnicky ;-) ) neurcitou formulaci, ktera vyvola potrebny dojem a ma pocit, ze nikdo nebude moci rict, ze v ni amd natvrdo obvinil.
A presne takhle necernobile funguje cely svet a svet obchodu jeste vic. Za mne by bylo lepsi a poctivejsi, byt jiste pracnejsi a mozna mene diskuzne ucinejsi, popsat a rozebrat celou situaci vic do hloubky, v souvislostech a ve svetle predchozich zkusenosti s obema zminenymi firmami.
Obe firmy vytvareji do znacne miry podobne technologie a snazi se je prosadit na trhu. Kazda z jine pozice, trochu jinym zpusobem a s jinymi dopady na hracskou komunitu.
nVidia se zameruje temer vyhradne na vyrobu grafik. Radou hracu a mozna autoru her povazovana za lepsi, vyznamejsi a vlivnejsi. Do znacne miry i diky jejimu agresivnimu (az lzivemu) marketingu- kdy nevaha tvrdit, jeji nove karty jsou 3x vykonejsi, nez predchozi model. I kdyz vykon nove karty prifukuje to, ze si kazdy druhy snimek vymysli pomoci dlss 3, a u predchziho modelu to nejde jen proto, ze na nem nVidia dlss 3 neumoznuje. Sve technologie dela jakou uzavrene vyhradne pro sve karty a pouziva hlavne pro motivovani hracu k nakupu svych novych karet a zvysovani marzi. Je to legitimni obchodni politika, ale neni prilis vstricna k zakaznikum a je trvrde protikonkurencni.
nVidia je znama i velmi drsnymi praktikami vuci svym partnerum. Maximalizuje svou marzi na ukor marze partneru, pri vydani novych karet dava na recenze sve pretaktovane "referencni" FE, u kterych uvadi doporucene ceny, za ktere karty (temer) nejdou vyrobit, aby ukazala skvely pomer cena/vykon. Ale na trh pak jdou karty od partneru, ktere jsou i pri nizkych marzich vyrobcu lodstane drazsi. A zakaznici pak obvinuji vyrobce z nenazranosti.
Tohla hamizdne, agresivni chovani nVidie vedlo dokonce k tomu, ze nejvetsi a vyhradni americky vyrobce nVidia karet EVGA, u ktereho nVidia kdysi zacinala, ukoncil vyrobu grafik, ktera byla jeho hlavnim zamerenim. A venuje se radeji vyrobe jineho zeleza.
Asi nejvymluvnehsim prikladem chovani nVidie byla afera, kdy nVidia nutila vyrobce grafik podepsat smlouvy, ktere by jim zakazovaly vydavat pod jejich premiovymi znackami, ktere vyrobce leta budoval, AMD grafiky. V podstare si chtela nVidia ukrast ty premiove znacky pro sebe a vyrobce tim nutila zacit delat pro AMD grafiky od zakladu nove a nezname znacky. Kdyz se vyrobci bourili a informace o tlaku nVidie se dostala do medii, zatloukala nVidia tak dlouho, dokud nekdo tu smlouvu nepustil mediim, aby vsichni videli, jaka je realita.
Nepochybuji, ze kdyz se jedna o sponzorovani vyroby nejake hry, tak oba vyrobci grafickych cipu daji studiu jasne najevo, ze nechteji, aby jejich penize slouzili pro implementaci technologii konkurence. Ono mezi vzajemne se respektujicimi obchodnimi partnery to neni potreba nejspis ani zduraznovat, protoze se to rozumi samo sebou. A ve smlouvach (temer) jiste zadny zakaz implementace cizi technologie nebude.
Zatimco pro nVidii je neexistence zakazu ve smlouve zrejme dostatecnym duvodem k napsani tak striktne jednoznacneho prohlaseni o neovlivnovani, AMD to asi vnima jinak a tak odpovi neurciteji.
Bylo by potreba se spus ptat jednotlivych studii, ake asi se neda cekat odpoved, kterou by mohli poskodit sve vztahy se sponzory.
Protoze je dsll uzavrena technologie, tak asi neni divne, kdyz vyrobce hry nekdy po jejim vydani doplni i podporu pro AMD ekvivalent., protoze tim si muze rozsirit klientelu. A pokud je to s dostatecnym odstupem po vydani, tak je jasne, ze to dela za svoje. Navic AMD delalo zrejme implementaci tak, aby se dalo vyuzit maximum prace udelane uz na dlss, a tak pridani neni moc pracne.
Opacne to (asi) platit nebude, protize by bylo proti zajmum nVidie a v dobe vytvareni dlss nVidia nemela potrebne informace. Navic vyrobce hry nema moc duvodu plytvat prostredky na doplnovanu dlss, kdyz amd verze bezi dostatecne uspokojive. Kvuli par nVidia fanatikum, kteri maji problem s tim, ze misto dlss maji pouzit neco od amd, se naklady s implementaci najspis nevyplati.
Da se tedy cekat, ze pocet her s ciste amd implementaci bude rust, protoze otevreny standard bezici na vsem vcetne starych sunek je pro vyrobce her proste ekonomicky smysluplnejsi. A nakonec to uzavrene dlss prevalcuje stejne, jako to dopadlo v souboji nVidia uzavreneho G-syncu a otevreneho free-syncu od amd.
Zajimava formulace ;-). Kdybych chtel byt osklivy, tak bych pridal i pridavne jmeno manipulativni. Pripada jenom mne, ze podsouva ctenari myslenku, ze AMD zakazuje autorum jim sponzorovanych her pridat konkurencni technologii ?
Docela by mne zajimalo jak a kde autor ze zdrojoveho clanku zjistil, ze amd ma nejakou taktiku a jak tato hypoteticka taktika ovlivnuje to, ze se objevuji hry, kde je jen fsr a neni dlss.
Rekl bych, ze to je jen spekulace, nebo tomu muzeme rikat vlidneji dedukce. A protoze autor vi, ze tvrzeni, ze amd zakazuje partnerum implementovat technologie konkurence, by neobhajil, napise podivnou, (az pravnicky ;-) ) neurcitou formulaci, ktera vyvola potrebny dojem a ma pocit, ze nikdo nebude moci rict, ze v ni amd natvrdo obvinil.
A presne takhle necernobile funguje cely svet a svet obchodu jeste vic. Za mne by bylo lepsi a poctivejsi, byt jiste pracnejsi a mozna mene diskuzne ucinejsi, popsat a rozebrat celou situaci vic do hloubky, v souvislostech a ve svetle predchozich zkusenosti s obema zminenymi firmami.
Obe firmy vytvareji do znacne miry podobne technologie a snazi se je prosadit na trhu. Kazda z jine pozice, trochu jinym zpusobem a s jinymi dopady na hracskou komunitu.
nVidia se zameruje temer vyhradne na vyrobu grafik. Radou hracu a mozna autoru her povazovana za lepsi, vyznamejsi a vlivnejsi. Do znacne miry i diky jejimu agresivnimu (az lzivemu) marketingu- kdy nevaha tvrdit, jeji nove karty jsou 3x vykonejsi, nez predchozi model. I kdyz vykon nove karty prifukuje to, ze si kazdy druhy snimek vymysli pomoci dlss 3, a u predchziho modelu to nejde jen proto, ze na nem nVidia dlss 3 neumoznuje. Sve technologie dela jakou uzavrene vyhradne pro sve karty a pouziva hlavne pro motivovani hracu k nakupu svych novych karet a zvysovani marzi. Je to legitimni obchodni politika, ale neni prilis vstricna k zakaznikum a je trvrde protikonkurencni.
nVidia je znama i velmi drsnymi praktikami vuci svym partnerum. Maximalizuje svou marzi na ukor marze partneru, pri vydani novych karet dava na recenze sve pretaktovane "referencni" FE, u kterych uvadi doporucene ceny, za ktere karty (temer) nejdou vyrobit, aby ukazala skvely pomer cena/vykon. Ale na trh pak jdou karty od partneru, ktere jsou i pri nizkych marzich vyrobcu lodstane drazsi. A zakaznici pak obvinuji vyrobce z nenazranosti.
Tohla hamizdne, agresivni chovani nVidie vedlo dokonce k tomu, ze nejvetsi a vyhradni americky vyrobce nVidia karet EVGA, u ktereho nVidia kdysi zacinala, ukoncil vyrobu grafik, ktera byla jeho hlavnim zamerenim. A venuje se radeji vyrobe jineho zeleza.
Asi nejvymluvnehsim prikladem chovani nVidie byla afera, kdy nVidia nutila vyrobce grafik podepsat smlouvy, ktere by jim zakazovaly vydavat pod jejich premiovymi znackami, ktere vyrobce leta budoval, AMD grafiky. V podstare si chtela nVidia ukrast ty premiove znacky pro sebe a vyrobce tim nutila zacit delat pro AMD grafiky od zakladu nove a nezname znacky. Kdyz se vyrobci bourili a informace o tlaku nVidie se dostala do medii, zatloukala nVidia tak dlouho, dokud nekdo tu smlouvu nepustil mediim, aby vsichni videli, jaka je realita.
Nepochybuji, ze kdyz se jedna o sponzorovani vyroby nejake hry, tak oba vyrobci grafickych cipu daji studiu jasne najevo, ze nechteji, aby jejich penize slouzili pro implementaci technologii konkurence. Ono mezi vzajemne se respektujicimi obchodnimi partnery to neni potreba nejspis ani zduraznovat, protoze se to rozumi samo sebou. A ve smlouvach (temer) jiste zadny zakaz implementace cizi technologie nebude.
Zatimco pro nVidii je neexistence zakazu ve smlouve zrejme dostatecnym duvodem k napsani tak striktne jednoznacneho prohlaseni o neovlivnovani, AMD to asi vnima jinak a tak odpovi neurciteji.
Bylo by potreba se spus ptat jednotlivych studii, ake asi se neda cekat odpoved, kterou by mohli poskodit sve vztahy se sponzory.
Protoze je dsll uzavrena technologie, tak asi neni divne, kdyz vyrobce hry nekdy po jejim vydani doplni i podporu pro AMD ekvivalent., protoze tim si muze rozsirit klientelu. A pokud je to s dostatecnym odstupem po vydani, tak je jasne, ze to dela za svoje. Navic AMD delalo zrejme implementaci tak, aby se dalo vyuzit maximum prace udelane uz na dlss, a tak pridani neni moc pracne.
Opacne to (asi) platit nebude, protize by bylo proti zajmum nVidie a v dobe vytvareni dlss nVidia nemela potrebne informace. Navic vyrobce hry nema moc duvodu plytvat prostredky na doplnovanu dlss, kdyz amd verze bezi dostatecne uspokojive. Kvuli par nVidia fanatikum, kteri maji problem s tim, ze misto dlss maji pouzit neco od amd, se naklady s implementaci najspis nevyplati.
Da se tedy cekat, ze pocet her s ciste amd implementaci bude rust, protoze otevreny standard bezici na vsem vcetne starych sunek je pro vyrobce her proste ekonomicky smysluplnejsi. A nakonec to uzavrene dlss prevalcuje stejne, jako to dopadlo v souboji nVidia uzavreneho G-syncu a otevreneho free-syncu od amd.
Odpovědět9 5
Místo slova prokleté bych použil spíš zbabrané. Tohle kurvítko nVidia opravdu poněkud přepískla.
Odpovědět7 0
A co z běžně hraných her na tom jabku běhá ?
Odpovědět3 0
A k čemu je uživatelům telefonu užitečný výkon v GreekBench ?
Odpovědět4 0
A na kolik FPS zvládne ten foun na 4k monitoru SoTR, nebo Assassin's Creed Valhalla?
Až na tom poběží Widlous a všechny aplikace se srovnatelným výkonem a za srovnatelnou cenu, tak se můžeme bavit o konci x86.
Až na tom poběží Widlous a všechny aplikace se srovnatelným výkonem a za srovnatelnou cenu, tak se můžeme bavit o konci x86.
Odpovědět4 0
Mnozstvi prenesene energie je jedna otazka. Druha a mozna i dulezitejsi je ucinnost. A dalsi otazkou je pusobeni proudu vysoke energie v atmosfere.
Elektrarna na obezne draze odstrani zavislost na pocasi, ale ne na denni dobe. A pokud nebude na geostacionarni draze, bude dochazet k prerusovani dodavky,kdyz zaleti mimo dosah prijimacu energie, a taky k pohybu paprsku a prodluzovani drahy energie v atmosfere, coz povede ke kolisani vykonu, ucinnosti i vyuziti a ke zvysovani rizika negativnich dopadu treba na leteckou dopravu a ptaky. Mozna budou konecne padat peceni holubi do huby.
Idealni by bylo postavit elektrarnu v Lagrangeive libracnim bode L2. Ale dopravit ji do vzdalenosti 1.5 milionu km a udrzet presne zacileni a soustredeni priudu energie by bylo velmi narocne. Technicky i financne.
Elektrarna na obezne draze odstrani zavislost na pocasi, ale ne na denni dobe. A pokud nebude na geostacionarni draze, bude dochazet k prerusovani dodavky,kdyz zaleti mimo dosah prijimacu energie, a taky k pohybu paprsku a prodluzovani drahy energie v atmosfere, coz povede ke kolisani vykonu, ucinnosti i vyuziti a ke zvysovani rizika negativnich dopadu treba na leteckou dopravu a ptaky. Mozna budou konecne padat peceni holubi do huby.
Idealni by bylo postavit elektrarnu v Lagrangeive libracnim bode L2. Ale dopravit ji do vzdalenosti 1.5 milionu km a udrzet presne zacileni a soustredeni priudu energie by bylo velmi narocne. Technicky i financne.
Odpovědět1 0
Díky za rozsáhlou a propracovanou odpověď.
Nepochybuji, že když si člověk koupí o dost novější a zřejmě i dražší monitor, tak z něj má lepší dojem, než z toho starého. Ale je otázka, co je příčinou. Novější a dražší monitor bude mít asi nejspíš lepší panel, rychlejší a možná i lépe vyladěnou elektroniku, která bude mít lepší podání barev, o něco kratší odezvu, nebo menší přestřely barev při přechodu na jinou. Celkový dojem z chování zobrazení se skládá z mnoha vlivů a je otázka, jestli je tím hlavním vlivem počet obrázků, které se za vteřinu nacpou do monitoru. Na to aby se ověřil vliv jednotlivých faktorů je potřeba udělat opravdu kvalitní test měřící působení jednotlivých vlivů pokud možno izolovaně.
V tomhle testu https://www.youtube.com/watch?v=kRad02CsrV4 se měří pomocí OSRTT reálné odezvy pixelů u 3 monitorů - starší 144Hz a 2 novější 240Hz a 300Hz. Ta starší 144 má základní odezvu (Initial Response Time) od 3,5 do 16 a průměr 6,4 ms. Vnímanou (perceived) odezvu zahrnující i dobu na ustálení přestřelení (overshoot) regulace má od 8,8 do 32,7 a průměr 17,6 ms.
Novější 240 Hz monitor má základní odezvu od 0,8 do 7,2 a průměr 2,6 ms, což je skoro poloviční proti tomu staršímu 144 HZ. V základním nastavení má ale vysoké přerstřely a vnímaná odezva je horší od 9 do 9,2 a průměr 9,1 ms. Je však konzistentní a ještě se dá o něco zlepšit stažením přeregulace a tedy i přestřelů - od 7,0 do 7,1 a průměr 7,0 ms).
Ten 300Hz monitor vypadá sice podle maximálních fps jako lepší, ale má výrazně horší odezvy pixelů. Základní odezva je od 1 do 8,7 a průměr 2,9 ms, ale přehnaná přeregulace snažící se zlepšit základní odezvu výrazně zhoršuje vnímanou odezvu - od 4,3 do 22,1 a průměr 18,5 ms. Stažením přeregulace se dají trochu snížit rušivé přestřely, ale doba vnímané odezva se moc nezmění a nejvyšší hodnota se zhorší - bude od 6 do 22,9 a průměr 11,2 ms.
Podle měření mi vychází z těch 3 monitorů nejlepší ten 240 Hz, protože má nejlepší a nejvyrovnanější odezvu pixelů. Pokud změna barvy pixelu trvá 7 ms a nechci vidět pohybující se objekty rozpatlané, měla by být doba zobrazení stabilního obrazu významně delší, než doba změny. Kdyby stačila 2x delší doba zobrazení stabilního obrazu pak by pro jeden snímek bylo potřeba 7+14 ms, což odpovídá 50 fps.
Když budu uvažovat objekt, který se přesune z jedné strany obrazovky na druhou za 1 sekundu, změní se při 50 fps jeho pozice mezi 2 snímky na fullHD obrazovce o 38 pixelů, což při uhlopříčce 27 palců odpovídá vzdálenosti 12 mm. Nebudou se tedy zobrazovat všechny mezilehlé pozice, ale obraz bude "skákat" po 12 mm. Na větších obrazovkách bude posuv příslušně větší.
Při zvětšování fps se bude velikost skoků mezi snímky zmenšovat a zobrazení pohybu by se mělo jevit plynulejší. Bude se však zvětšovat podíl doby, kdy je vidět přechod při změně barvy pixelu a obraz bude rozmazanější. Volba frekvence bude tedy záviset na tom, jestli jsou pro pozorovatele důležitější malé změny pozice, nebo ostrost obrazu objektu. A to bude ovlivněno tím, jak se s danou situací popere jeho zrak a mozek.
A taky tím, na jakou část obrazovky soustředí svou pozornost. Pokud bude sledovat střed obrazovky, kde se bude snažit udržet cíl v zaměřovači, tak kvalitu zobrazení ani pohybu kolem letících objektů řešit asi nebude. V tomto případě tedy opravdu je důležitější dojem, než měření, jak říká marketing Intelu. A pak je ještě otázka, jestli ten lepší dojem je opravdu jen dojem, nebo reálně ovlivní hráčovy výsledky ve hře.
Pokud chceme řešit dojem a výsledky, musíme dělat pokusy na lidech. Koukal jsem, že na internetu jsou nyní opravdu různá videa, která se tváří jako testy rozpoznání rozdílných obnovovacích frekvencí. Neprocházel jsem jich moc, ale mám dojem, že za seriózní test se dá označit asi málo co. Třeba tenhle https://www.youtube.com/watch?v=2pI1LLVPdSs je ukázkou videa, které řadu lidí možná upoutá. Minimálně tím, jak se tam autor snaží vypadat jako idiot, který není schopen udržet v hlavě to, že bude testovat obnovovací frekvence. Ale jako test to má zcela nulovou hodnotu. Protože těch pár pokusů uhodnout na jaké fps hra běží se nedá ani rozumně zpracovat.. Ovšem mohlo by být metodicky i hůř. Třeba kdyby porovnávali hru na dvou různých monitorech s odlišnými obnovovacími frekvencemi.
Z toho, co jsem prošel bylo asi nejblíž k rozumnému testu tohle video https://www.youtube.com/watch?v=aoGprfAz70A. Autor se snaží ověřit schopnost jeho 10-ti letého syna poznat rozdíl mezi hraním na 60Hz a 144 Hz monitoru. A je vidět, že aspoň tuší, jakým úskalím by se měl vyhnout. Testuje se na stejné sestavě a hráč netuší s jakým fps hraje. Má jen říct, jestli podle něj ta hra běž na pomalém, nebo rychlém monitoru. Synek tu hru zřejmě nehraje poprvé, ale asi to není úplně reprezentativní vzorek hráčské populace, Navíc má v testu jen 10 pokusů, což není zrovna množství, na kterém se dá dobře testovat statistická významnost. Tím spíš, že u téměř poloviny pokusů už otec neříká hodnoty fps, ale jen uhodl, nebo neuhodl. Ale protože z těch 10 pokusů se syn trefil jen 3x a generátor náhody by se měl trefit 5x, došel testující otec (ne úplně bezdůvodně) k názoru, že syn rozdíl mezi 60Hz a 144Hy monitorem nepozná. Stejně jako to prý nepoznal on sám.
Ale slušný test by měl vypadat přeci jen jinak. A hlavně by se mělo testovat, jestli rozdíly fps ovlivní výsledky hráčů ve vzájemných střetech. Umím si totiž představit finty, pomocí nichž zkusím použité fps odhadnout. Ale to asi není to, oč ve hře běží.
Nepochybuji, že když si člověk koupí o dost novější a zřejmě i dražší monitor, tak z něj má lepší dojem, než z toho starého. Ale je otázka, co je příčinou. Novější a dražší monitor bude mít asi nejspíš lepší panel, rychlejší a možná i lépe vyladěnou elektroniku, která bude mít lepší podání barev, o něco kratší odezvu, nebo menší přestřely barev při přechodu na jinou. Celkový dojem z chování zobrazení se skládá z mnoha vlivů a je otázka, jestli je tím hlavním vlivem počet obrázků, které se za vteřinu nacpou do monitoru. Na to aby se ověřil vliv jednotlivých faktorů je potřeba udělat opravdu kvalitní test měřící působení jednotlivých vlivů pokud možno izolovaně.
V tomhle testu https://www.youtube.com/watch?v=kRad02CsrV4 se měří pomocí OSRTT reálné odezvy pixelů u 3 monitorů - starší 144Hz a 2 novější 240Hz a 300Hz. Ta starší 144 má základní odezvu (Initial Response Time) od 3,5 do 16 a průměr 6,4 ms. Vnímanou (perceived) odezvu zahrnující i dobu na ustálení přestřelení (overshoot) regulace má od 8,8 do 32,7 a průměr 17,6 ms.
Novější 240 Hz monitor má základní odezvu od 0,8 do 7,2 a průměr 2,6 ms, což je skoro poloviční proti tomu staršímu 144 HZ. V základním nastavení má ale vysoké přerstřely a vnímaná odezva je horší od 9 do 9,2 a průměr 9,1 ms. Je však konzistentní a ještě se dá o něco zlepšit stažením přeregulace a tedy i přestřelů - od 7,0 do 7,1 a průměr 7,0 ms).
Ten 300Hz monitor vypadá sice podle maximálních fps jako lepší, ale má výrazně horší odezvy pixelů. Základní odezva je od 1 do 8,7 a průměr 2,9 ms, ale přehnaná přeregulace snažící se zlepšit základní odezvu výrazně zhoršuje vnímanou odezvu - od 4,3 do 22,1 a průměr 18,5 ms. Stažením přeregulace se dají trochu snížit rušivé přestřely, ale doba vnímané odezva se moc nezmění a nejvyšší hodnota se zhorší - bude od 6 do 22,9 a průměr 11,2 ms.
Podle měření mi vychází z těch 3 monitorů nejlepší ten 240 Hz, protože má nejlepší a nejvyrovnanější odezvu pixelů. Pokud změna barvy pixelu trvá 7 ms a nechci vidět pohybující se objekty rozpatlané, měla by být doba zobrazení stabilního obrazu významně delší, než doba změny. Kdyby stačila 2x delší doba zobrazení stabilního obrazu pak by pro jeden snímek bylo potřeba 7+14 ms, což odpovídá 50 fps.
Když budu uvažovat objekt, který se přesune z jedné strany obrazovky na druhou za 1 sekundu, změní se při 50 fps jeho pozice mezi 2 snímky na fullHD obrazovce o 38 pixelů, což při uhlopříčce 27 palců odpovídá vzdálenosti 12 mm. Nebudou se tedy zobrazovat všechny mezilehlé pozice, ale obraz bude "skákat" po 12 mm. Na větších obrazovkách bude posuv příslušně větší.
Při zvětšování fps se bude velikost skoků mezi snímky zmenšovat a zobrazení pohybu by se mělo jevit plynulejší. Bude se však zvětšovat podíl doby, kdy je vidět přechod při změně barvy pixelu a obraz bude rozmazanější. Volba frekvence bude tedy záviset na tom, jestli jsou pro pozorovatele důležitější malé změny pozice, nebo ostrost obrazu objektu. A to bude ovlivněno tím, jak se s danou situací popere jeho zrak a mozek.
A taky tím, na jakou část obrazovky soustředí svou pozornost. Pokud bude sledovat střed obrazovky, kde se bude snažit udržet cíl v zaměřovači, tak kvalitu zobrazení ani pohybu kolem letících objektů řešit asi nebude. V tomto případě tedy opravdu je důležitější dojem, než měření, jak říká marketing Intelu. A pak je ještě otázka, jestli ten lepší dojem je opravdu jen dojem, nebo reálně ovlivní hráčovy výsledky ve hře.
Pokud chceme řešit dojem a výsledky, musíme dělat pokusy na lidech. Koukal jsem, že na internetu jsou nyní opravdu různá videa, která se tváří jako testy rozpoznání rozdílných obnovovacích frekvencí. Neprocházel jsem jich moc, ale mám dojem, že za seriózní test se dá označit asi málo co. Třeba tenhle https://www.youtube.com/watch?v=2pI1LLVPdSs je ukázkou videa, které řadu lidí možná upoutá. Minimálně tím, jak se tam autor snaží vypadat jako idiot, který není schopen udržet v hlavě to, že bude testovat obnovovací frekvence. Ale jako test to má zcela nulovou hodnotu. Protože těch pár pokusů uhodnout na jaké fps hra běží se nedá ani rozumně zpracovat.. Ovšem mohlo by být metodicky i hůř. Třeba kdyby porovnávali hru na dvou různých monitorech s odlišnými obnovovacími frekvencemi.
Z toho, co jsem prošel bylo asi nejblíž k rozumnému testu tohle video https://www.youtube.com/watch?v=aoGprfAz70A. Autor se snaží ověřit schopnost jeho 10-ti letého syna poznat rozdíl mezi hraním na 60Hz a 144 Hz monitoru. A je vidět, že aspoň tuší, jakým úskalím by se měl vyhnout. Testuje se na stejné sestavě a hráč netuší s jakým fps hraje. Má jen říct, jestli podle něj ta hra běž na pomalém, nebo rychlém monitoru. Synek tu hru zřejmě nehraje poprvé, ale asi to není úplně reprezentativní vzorek hráčské populace, Navíc má v testu jen 10 pokusů, což není zrovna množství, na kterém se dá dobře testovat statistická významnost. Tím spíš, že u téměř poloviny pokusů už otec neříká hodnoty fps, ale jen uhodl, nebo neuhodl. Ale protože z těch 10 pokusů se syn trefil jen 3x a generátor náhody by se měl trefit 5x, došel testující otec (ne úplně bezdůvodně) k názoru, že syn rozdíl mezi 60Hz a 144Hy monitorem nepozná. Stejně jako to prý nepoznal on sám.
Ale slušný test by měl vypadat přeci jen jinak. A hlavně by se mělo testovat, jestli rozdíly fps ovlivní výsledky hráčů ve vzájemných střetech. Umím si totiž představit finty, pomocí nichž zkusím použité fps odhadnout. Ale to asi není to, oč ve hře běží.
Odpovědět0 0
Ano, to by asi nebylo špatné :-).
Odpovědět0 0
A v čem je ten rozdíl ?
Mimochodem přechod z jednoho (starého) monitoru na druhý (nový) asi pozná téměř každý ;-).
Abys mohl tvrdit, že poznáš rozdíly, musel bys udělat slepý test, kdy ti někdo při stejné konfiguraci počítače, monitoru a nastavení hry zapíná omezení fps na různé frekvence. A to při zapnutí adaptivní synchronizace (freeSyn), aby se předešlo možnosti poškození obrazu současným zobrazováním částí různých snímků. A pokud pak dokážeš říct, na jaké fps hra běží, nebo aspoň rozlišit, mezi vyššími a nižšími fps, můžeme se bavit o tom, že rozdíl opravdu vidíš.
Tenhle slepý test dělali kdysi na jednom technickém serveru a lidi rozdíly nepoznali. A je otázka, jestli ti, co to údajně poznali, to opravdu poznali, nebo se jen trefili. Když máš rozlišit mezi dvěma variantami s různým fps a budeš jen hádat, je šance na správnou odpověď 50%. Takže, aby ten test byl statisticky průkazný, musíš ho opakovat víckrát a musíš se trefit (skoro) pokaždé.
Je docela zajímavé, že takový relativně jednoduchý test ne(u)dělalo víc webů. Řekl bych, že na takové testy asi žádný výrobce monitorů nebude hledět moc přívětivě, protože by se mohlo ukázat, že i ti co tvrdí, že ten rozdíl poznají, ho reálně (rozuměj ve slepém testu) nepoznají.
Mimochodem přechod z jednoho (starého) monitoru na druhý (nový) asi pozná téměř každý ;-).
Abys mohl tvrdit, že poznáš rozdíly, musel bys udělat slepý test, kdy ti někdo při stejné konfiguraci počítače, monitoru a nastavení hry zapíná omezení fps na různé frekvence. A to při zapnutí adaptivní synchronizace (freeSyn), aby se předešlo možnosti poškození obrazu současným zobrazováním částí různých snímků. A pokud pak dokážeš říct, na jaké fps hra běží, nebo aspoň rozlišit, mezi vyššími a nižšími fps, můžeme se bavit o tom, že rozdíl opravdu vidíš.
Tenhle slepý test dělali kdysi na jednom technickém serveru a lidi rozdíly nepoznali. A je otázka, jestli ti, co to údajně poznali, to opravdu poznali, nebo se jen trefili. Když máš rozlišit mezi dvěma variantami s různým fps a budeš jen hádat, je šance na správnou odpověď 50%. Takže, aby ten test byl statisticky průkazný, musíš ho opakovat víckrát a musíš se trefit (skoro) pokaždé.
Je docela zajímavé, že takový relativně jednoduchý test ne(u)dělalo víc webů. Řekl bych, že na takové testy asi žádný výrobce monitorů nebude hledět moc přívětivě, protože by se mohlo ukázat, že i ti co tvrdí, že ten rozdíl poznají, ho reálně (rozuměj ve slepém testu) nepoznají.
Odpovědět3 0
Ještě mne napadl jeden problém, která snižuje reálnou obnovovací frekvenci, a který je jen naznačen ve zmínce o Vertical Dependent Overdrive.
Rychlost odezvy pixelu na změnu ovlivňuje jen část času pro namalování jednoho stabilního obrazu. Vzhledem ke konečné rychlosti elektroniky bude ještě potřeba nějaký čas na nastavení napětí všech pixelech tvořících obraz. Nevím, jak to řídící elektronika displejů dělá, ale určitě nemá pro každý pixel samostatný D/A převodník. To by bylo téměř jistě příliš náročné na křemík, i kdyby to měly být jen digitální pulzně šířkové (PWM) převodníky.
Podle toho, že Vertical Dependent Overdrive nastavuje pixelům na spodní části obrazovky vyšší přepětí, aby urychlil jejich překlápění, soudím, že se obraz aktualizuje shora dolů podobně jako se to dělalo u klasických (CRT=Cathode Ray Tube) obrazovek. A tohle přemalování obrazovky potřebuje nějaký čas, který se přičítá k času na dosažení stabilního obrazu. Z toho vychází buď nutnost delšího zatmění a tedy kratší doba zobrazení stabilního obrazu, nebo nutnost snížení fps.
Tady by možná elektronika rychlých monitorů mohla trochu pomoci k dosažení kvalitnějšího obrazu, protože možná zvládne namalovat stabilní finální obraz o něco dříve, než u levných monitorů. Ale je otázka o kolik, a jestli ten rozdíl stojí za vyšší cenu a spotřebu energie. Ale stejně moc nevidím reálný důvod, proč tlačit do monitoru velké FPS. A zajímalo by mne, co s tou spoustou snímků ten monitor udělá. Protože i kdyby byla elektronika tak skvělá, že bude tou velkou frekvencí bude schopná měnit napětí na elektrodách (sub)pixelů odpovídající přesně jeho barvě v jednotlivých obrazech, tak líné tekuté krystaly s velkou setrvačností se stejně nezvládnou příslušně otáčet. A výsledkem bude "průměrná" barva integrovaná jako klouzavý průměr z posloupnosti vzorků a ne posloupnost reálných bodů. Ale ono je to stejně jedno, protože i kdyby to ty pixely zvládaly zobrazovat, tak to "zintegrují" světlocitlivé buňky v oku a mozek :-).
Rychlost odezvy pixelu na změnu ovlivňuje jen část času pro namalování jednoho stabilního obrazu. Vzhledem ke konečné rychlosti elektroniky bude ještě potřeba nějaký čas na nastavení napětí všech pixelech tvořících obraz. Nevím, jak to řídící elektronika displejů dělá, ale určitě nemá pro každý pixel samostatný D/A převodník. To by bylo téměř jistě příliš náročné na křemík, i kdyby to měly být jen digitální pulzně šířkové (PWM) převodníky.
Podle toho, že Vertical Dependent Overdrive nastavuje pixelům na spodní části obrazovky vyšší přepětí, aby urychlil jejich překlápění, soudím, že se obraz aktualizuje shora dolů podobně jako se to dělalo u klasických (CRT=Cathode Ray Tube) obrazovek. A tohle přemalování obrazovky potřebuje nějaký čas, který se přičítá k času na dosažení stabilního obrazu. Z toho vychází buď nutnost delšího zatmění a tedy kratší doba zobrazení stabilního obrazu, nebo nutnost snížení fps.
Tady by možná elektronika rychlých monitorů mohla trochu pomoci k dosažení kvalitnějšího obrazu, protože možná zvládne namalovat stabilní finální obraz o něco dříve, než u levných monitorů. Ale je otázka o kolik, a jestli ten rozdíl stojí za vyšší cenu a spotřebu energie. Ale stejně moc nevidím reálný důvod, proč tlačit do monitoru velké FPS. A zajímalo by mne, co s tou spoustou snímků ten monitor udělá. Protože i kdyby byla elektronika tak skvělá, že bude tou velkou frekvencí bude schopná měnit napětí na elektrodách (sub)pixelů odpovídající přesně jeho barvě v jednotlivých obrazech, tak líné tekuté krystaly s velkou setrvačností se stejně nezvládnou příslušně otáčet. A výsledkem bude "průměrná" barva integrovaná jako klouzavý průměr z posloupnosti vzorků a ne posloupnost reálných bodů. Ale ono je to stejně jedno, protože i kdyby to ty pixely zvládaly zobrazovat, tak to "zintegrují" světlocitlivé buňky v oku a mozek :-).
Odpovědět0 0
Ještě přidám pár doplňků a reakci na snajprikuv komentář, který je o kousek níže.
Myšlenka zhasínat podsvícení v době změny obrazu není žádná novinka, kterou objevila nVidia. Tahle technologie je tu od doby vzniku kinematografie :-) začátkem minulého století. Podávací mechanismus filmového pásu pracoval poněkud nespojitě. Políčko filmu v promítačce poměrně dlouho leželo v klidu a procházelo přes něj světlo dopadající na plátno a vykreslovalo statický obraz. Pak se filmový pás velmi rychle přesunul na další políčko. Ale i přes vysokou rychlost by ten posuv byl na plátně vidět, podobně jako je na monitoru vidět překlápění pixelů na jinou barvu odpovídající dalšímu obrazu. Aby nedocházelo k zobrazení pohybu filmového pásu, rotující clona synchronizovaná s podávacím mechanismem zabránila průchodu světla na plátno a pustila ho až poté, co byl další snímek na správném místě a stabilní. Plátno v té době nebylo bíle, jak píše snajprik, ale černé, protože na něj nešlo světlo. Protože doba temna při změně snímku byla podstatně kratší, než klidová doba zobrazení políčka, lidi si té krátké tmy moc nevšimli.
Těch 24 snímků za sekundu, které měl klasický film není žádná z nebe spadlá zázračná konstanta. Při počátečních experimentech s pohyblivými obrázky se ukázalo, že naprostá většina lidí vnímá při promítání posloupnosti statických obrázků rychlostí 20 snímků za sekundu pohyb objektu na obrázcích už jako plynulý. Tak se přidala nějaká rezerva a ¨rychlost filmu se stanovila na 24 políček filmu za sekundu (fps=frame per second). Výš to nešlo, protože tvůrci byli limitováni rychlostí podávacího mechanismu a asi hlavně pevností filmového pásu, na který při velmi rychlém posuvu v době zatmění dosahoval značného zrychlení a působily na něj tedy velké síly.
Počet snímků u televizní obrazovky byl dán několika faktory. Ale rozhodně tam nehrálo roli žádné bílé plátno, jak tvrdí kousek níž snajprik :-). Horní limit fps byl dán rychlostí tehdy dostupných elektronických (přesněji elektronkových) obvodů. A to jak z pohledu rychlosti zpracování, tak z pohledu šířky přenosového pásma. Spodní limit fps byl dán stejně jako u filmu rychlostí potřebnou pro dosažení iluze plynulého pohybu. Ale bylo tu ještě omezení dané rychlostí zhasínání svitu luminoforu vybuzeného dopadem elektronů. Aby pohasínání obrazu nebylo moc velké a nepůsobilo jako rušivé blikání, musela být rychlost obnovení obrazu o dost vyšší, než těch 24 snímků. Nakonec se šlo na dvojnásobek a obnovovací frekvence se stanovila stejná jako kmitočet střídavého napětí napájecí sítě, aby se omezilo rušení obrazu interferencí s elektrickým polem rozvodů a z nich napájených zařízení. Proto měl evropský TV signál 50 fps a americký 60 fps.
Ale protože elektronika nebyla dost rychlá, aby se zvládlo zpracovat a přenést tolik obrázků v plném rozlišení, používala televize prokládané snímky s polovičním počtem řádek. Jeden snímek se maloval v lichých rádcích a následující v sudých. Protože mezi nimi docházelo k posunutí objektů existovalo to, čemu se teď říká roztrhání obrazu, protože obraz objektu v sousedních řádcích byl posunutý. Tím že řádky předchozího obrazu při zobrazení už pohasínaly, rozdíly mezi sousedními snímky byly ne většině ploch malé a díky malé "výpočetní kapacitě" mozku to roztrhání nikdo neviděl. Ale dá se uvidět, když si člověk zobrazí statický snímek ze záznam TV pořadu bez zapnuté kompenzace prokládání.
Mimochodem omezení rychlosti elektroniky a šířky přenosového pásma může i za to, že americká TV měla výrazně menší počet řádek obrazu (NTSC=720x480) než evropská (PAL=720x576). V obou případech jde o počet řádek s prokládáním, takže vlastně o dva obrazy po sobě jdoucí s polovičním počtem řádek. Dá se na to koukat, jako dva obrazy s polovičním rozlišením a plnou frekvencí (50/60Hz), nebo jako ne jeden obraz s plným počtem řádků, ale poloviční frekvencí (25/30Hz). Ale algoritmy zpracování obrazu z toho jsou schopny interpolovat plný počet obrazů s plným rozlišením. A náš mozek to dělá podobně.
Myšlenka zhasínat podsvícení v době změny obrazu není žádná novinka, kterou objevila nVidia. Tahle technologie je tu od doby vzniku kinematografie :-) začátkem minulého století. Podávací mechanismus filmového pásu pracoval poněkud nespojitě. Políčko filmu v promítačce poměrně dlouho leželo v klidu a procházelo přes něj světlo dopadající na plátno a vykreslovalo statický obraz. Pak se filmový pás velmi rychle přesunul na další políčko. Ale i přes vysokou rychlost by ten posuv byl na plátně vidět, podobně jako je na monitoru vidět překlápění pixelů na jinou barvu odpovídající dalšímu obrazu. Aby nedocházelo k zobrazení pohybu filmového pásu, rotující clona synchronizovaná s podávacím mechanismem zabránila průchodu světla na plátno a pustila ho až poté, co byl další snímek na správném místě a stabilní. Plátno v té době nebylo bíle, jak píše snajprik, ale černé, protože na něj nešlo světlo. Protože doba temna při změně snímku byla podstatně kratší, než klidová doba zobrazení políčka, lidi si té krátké tmy moc nevšimli.
Těch 24 snímků za sekundu, které měl klasický film není žádná z nebe spadlá zázračná konstanta. Při počátečních experimentech s pohyblivými obrázky se ukázalo, že naprostá většina lidí vnímá při promítání posloupnosti statických obrázků rychlostí 20 snímků za sekundu pohyb objektu na obrázcích už jako plynulý. Tak se přidala nějaká rezerva a ¨rychlost filmu se stanovila na 24 políček filmu za sekundu (fps=frame per second). Výš to nešlo, protože tvůrci byli limitováni rychlostí podávacího mechanismu a asi hlavně pevností filmového pásu, na který při velmi rychlém posuvu v době zatmění dosahoval značného zrychlení a působily na něj tedy velké síly.
Počet snímků u televizní obrazovky byl dán několika faktory. Ale rozhodně tam nehrálo roli žádné bílé plátno, jak tvrdí kousek níž snajprik :-). Horní limit fps byl dán rychlostí tehdy dostupných elektronických (přesněji elektronkových) obvodů. A to jak z pohledu rychlosti zpracování, tak z pohledu šířky přenosového pásma. Spodní limit fps byl dán stejně jako u filmu rychlostí potřebnou pro dosažení iluze plynulého pohybu. Ale bylo tu ještě omezení dané rychlostí zhasínání svitu luminoforu vybuzeného dopadem elektronů. Aby pohasínání obrazu nebylo moc velké a nepůsobilo jako rušivé blikání, musela být rychlost obnovení obrazu o dost vyšší, než těch 24 snímků. Nakonec se šlo na dvojnásobek a obnovovací frekvence se stanovila stejná jako kmitočet střídavého napětí napájecí sítě, aby se omezilo rušení obrazu interferencí s elektrickým polem rozvodů a z nich napájených zařízení. Proto měl evropský TV signál 50 fps a americký 60 fps.
Ale protože elektronika nebyla dost rychlá, aby se zvládlo zpracovat a přenést tolik obrázků v plném rozlišení, používala televize prokládané snímky s polovičním počtem řádek. Jeden snímek se maloval v lichých rádcích a následující v sudých. Protože mezi nimi docházelo k posunutí objektů existovalo to, čemu se teď říká roztrhání obrazu, protože obraz objektu v sousedních řádcích byl posunutý. Tím že řádky předchozího obrazu při zobrazení už pohasínaly, rozdíly mezi sousedními snímky byly ne většině ploch malé a díky malé "výpočetní kapacitě" mozku to roztrhání nikdo neviděl. Ale dá se uvidět, když si člověk zobrazí statický snímek ze záznam TV pořadu bez zapnuté kompenzace prokládání.
Mimochodem omezení rychlosti elektroniky a šířky přenosového pásma může i za to, že americká TV měla výrazně menší počet řádek obrazu (NTSC=720x480) než evropská (PAL=720x576). V obou případech jde o počet řádek s prokládáním, takže vlastně o dva obrazy po sobě jdoucí s polovičním počtem řádek. Dá se na to koukat, jako dva obrazy s polovičním rozlišením a plnou frekvencí (50/60Hz), nebo jako ne jeden obraz s plným počtem řádků, ale poloviční frekvencí (25/30Hz). Ale algoritmy zpracování obrazu z toho jsou schopny interpolovat plný počet obrazů s plným rozlišením. A náš mozek to dělá podobně.
Odpovědět1 0
Monotor s vykonem 1000 Hz :-) ? To jsou zas marketingove blaboly na ohlupovani lidi, podobne jako vymysleni neexistujicich snimku v dlss 3.
Honeni obnovovaci frekvence nema moc smysl, protoze problem je jinde. Fyzikalni podstata problemu je v nedostatecne rychlosti preklapeni lcd (sub)pixelu z jedne urovne na druhou. Realne je doba odezvy 10-20 ms (viz dale o zpusobu mereni) a behem ni na monitoru dochazi k postupnemu prolinani jednoho obrazu na druhy a tedy k rozmazani. Nejde tedy o rozmazani v dusledku pohybu objektu, ake kvuli nedokonalosti zobrazovaci technologie.
Myslenka vypnout podsviceni v dobe zmeny a ukazovat jen uz stabilni obrazy neni spatna, ale ma hacek. Je potreba, aby stabilni obraz svitil dost dlouho, aby ho oci a mozek zaznamenaly a zdal se dost jasny. Kdyz byde doba zhasnuti pri zmene obrazu 10-20 ms a doba zobrazeni vysledneho obrazu pri zapnutem podsviceni bude stejna, potrebujeme na 1 snimek 20-40 ms, coz odpovida obnovovaci frekvenci 50-25 Hz
Pokud ma nekdo pocit, ze ma lepsi dobu odezvy, protoze to pisou ve specifikaci jeho monitoru, mel by si zjistit, jak se ta hodnota meri (viz odkaz dole). Ty doby odezvy uvadene ve specifikacich jsou nejkratsi mozne doby preklapeni mezi plnou bilo a plnou cernou (WtB). A to jeste ne mezi 0 a 100%, ale mezi 10% a 90%, protoze ty dobehy na plnou zmenu trvaji dele. A doba zmeny mezi neplnymi barvami (seda na sedou GtG) trva dele, protoze je mensi rozdil ovladacich napeti bunky.
Zvysovani obnovovaci frekvence tedy zvetsuje podil doby, kdy se obraz meni, a snizuje podil doby, kdy je stabilni, coz zvysuje pohybovou neostrost. Zlepseni muze prinest jen skutecne zvyseni rychlosti odezvy/zmeny pixelu. To se resi kratkodobym zvysenim ovladaciho napeti nad hodnotu odpovidajici pozadovanemu jasu (overdrive), ale to zas prinasi problemy s prepalenim jasu, zvlast na ostrych prechodech.
Ale dramaticke zlepseni odezvy se u lcd asi moc cekat neda. Posledni zasadnejsi "zlepseni" parametru bylo, kdyz se zacaly u odezvy uvadet misto GtG casu vyrazne kratsi WtB casy. Lepsi odezvu mohou mit oled displeje, protoze tam se misto preklapeni velkych molekul tekutych krystalu, meni jas meni zmenou mnozstvi protekajicich elektronu. Ale tam bude mozna problem s rychlosti zmeny a rizenim napajecich proudu.
Nastesti vetsina lidi zobrazovaci technologie, ani jejich parametry neresi, a tak nevedi, ze by mezi nimi meli videt rozdily. Proto je nevidi a nemaji tedy problem ani s uplne beznymi monitory ;-).
https://m.youtube.com/watch?time_continue=32&v=MbZUgKpzTA0&embeds_referring_euri=https%3A%2F%2Fwww.reddit.com%2F&feature=emb_logo
Honeni obnovovaci frekvence nema moc smysl, protoze problem je jinde. Fyzikalni podstata problemu je v nedostatecne rychlosti preklapeni lcd (sub)pixelu z jedne urovne na druhou. Realne je doba odezvy 10-20 ms (viz dale o zpusobu mereni) a behem ni na monitoru dochazi k postupnemu prolinani jednoho obrazu na druhy a tedy k rozmazani. Nejde tedy o rozmazani v dusledku pohybu objektu, ake kvuli nedokonalosti zobrazovaci technologie.
Myslenka vypnout podsviceni v dobe zmeny a ukazovat jen uz stabilni obrazy neni spatna, ale ma hacek. Je potreba, aby stabilni obraz svitil dost dlouho, aby ho oci a mozek zaznamenaly a zdal se dost jasny. Kdyz byde doba zhasnuti pri zmene obrazu 10-20 ms a doba zobrazeni vysledneho obrazu pri zapnutem podsviceni bude stejna, potrebujeme na 1 snimek 20-40 ms, coz odpovida obnovovaci frekvenci 50-25 Hz
Pokud ma nekdo pocit, ze ma lepsi dobu odezvy, protoze to pisou ve specifikaci jeho monitoru, mel by si zjistit, jak se ta hodnota meri (viz odkaz dole). Ty doby odezvy uvadene ve specifikacich jsou nejkratsi mozne doby preklapeni mezi plnou bilo a plnou cernou (WtB). A to jeste ne mezi 0 a 100%, ale mezi 10% a 90%, protoze ty dobehy na plnou zmenu trvaji dele. A doba zmeny mezi neplnymi barvami (seda na sedou GtG) trva dele, protoze je mensi rozdil ovladacich napeti bunky.
Zvysovani obnovovaci frekvence tedy zvetsuje podil doby, kdy se obraz meni, a snizuje podil doby, kdy je stabilni, coz zvysuje pohybovou neostrost. Zlepseni muze prinest jen skutecne zvyseni rychlosti odezvy/zmeny pixelu. To se resi kratkodobym zvysenim ovladaciho napeti nad hodnotu odpovidajici pozadovanemu jasu (overdrive), ale to zas prinasi problemy s prepalenim jasu, zvlast na ostrych prechodech.
Ale dramaticke zlepseni odezvy se u lcd asi moc cekat neda. Posledni zasadnejsi "zlepseni" parametru bylo, kdyz se zacaly u odezvy uvadet misto GtG casu vyrazne kratsi WtB casy. Lepsi odezvu mohou mit oled displeje, protoze tam se misto preklapeni velkych molekul tekutych krystalu, meni jas meni zmenou mnozstvi protekajicich elektronu. Ale tam bude mozna problem s rychlosti zmeny a rizenim napajecich proudu.
Nastesti vetsina lidi zobrazovaci technologie, ani jejich parametry neresi, a tak nevedi, ze by mezi nimi meli videt rozdily. Proto je nevidi a nemaji tedy problem ani s uplne beznymi monitory ;-).
https://m.youtube.com/watch?time_continue=32&v=MbZUgKpzTA0&embeds_referring_euri=https%3A%2F%2Fwww.reddit.com%2F&feature=emb_logo
Odpovědět4 0
Na generovani vymyslenych (napr. lzivych) zprav, fotek a videi, jako zabava, nebo pro generovani prazdnych zvastu treba v marketingu je to prima nastroj. Ale jinak je to dost nebezpecna hracka. Zvlast, kdyz jejim vyplodum zacnou lidi duverovat.
Nejde totiz o inteligenci, ktera by resila obsahovou stranku, nebo dokonce spravnost a pravdivost obsahu. To o cem se ted tak halasne mluvi jako o umele inteligenci je jen rozsahlejsi neuronova sit nacvicena na velkem mnozstvi textovych dat. Odhaduje slovo od slova, jake dalsi slovo by se asi tak hodilo v danem kontextu pouzit po slove, ktere bylo vygenerovano naposled. Nic nim, ale ani nic vic. Tem kdo se chteji dovedet vic mohu doporucit web Davida Grundla (viz odkaz dole).
Pouzivaji se sice podobne principy, jako v neuronovtch sitich mozku, ale je to jako srovnavat houpaciho kone s klingonskou vesmirnou lodi. Pouzivane algoritmy jsou zname a vyuzivane pro analyzu textu profiky uz spoustu let. Jdiu vyuzit i pro generovani textu, ale vetsinou to nema moc smysl.
Ale kdyz se sit pro generovacni textu natrenuje na velkem mnozstvi dat, pouzije se marketingove chytlave oznaceni umela inteligence a rozhrani se zpristupni zdarma diletantum, stane se z toho snadno slagr. Diletanti, kteri o problematice nic nevedi a obsahovou kvalitu textu moc neresi, tak zustavaji v uzasu stat a hlasite vykrikuji, ze je to zazrak a siri povedomi o te technologii lavinovite dal.
Jenze hrozi, ze se spousta lidi jeste vic vykasle na overovani duveryhodnosti informaci a jejich primarnich zdroju a internet i svet bude zaplaven jeste vetsim mnozstvim kravin, nez dnes.
https://www.umeligence.cz/umela-inteligence
Nejde totiz o inteligenci, ktera by resila obsahovou stranku, nebo dokonce spravnost a pravdivost obsahu. To o cem se ted tak halasne mluvi jako o umele inteligenci je jen rozsahlejsi neuronova sit nacvicena na velkem mnozstvi textovych dat. Odhaduje slovo od slova, jake dalsi slovo by se asi tak hodilo v danem kontextu pouzit po slove, ktere bylo vygenerovano naposled. Nic nim, ale ani nic vic. Tem kdo se chteji dovedet vic mohu doporucit web Davida Grundla (viz odkaz dole).
Pouzivaji se sice podobne principy, jako v neuronovtch sitich mozku, ale je to jako srovnavat houpaciho kone s klingonskou vesmirnou lodi. Pouzivane algoritmy jsou zname a vyuzivane pro analyzu textu profiky uz spoustu let. Jdiu vyuzit i pro generovani textu, ale vetsinou to nema moc smysl.
Ale kdyz se sit pro generovacni textu natrenuje na velkem mnozstvi dat, pouzije se marketingove chytlave oznaceni umela inteligence a rozhrani se zpristupni zdarma diletantum, stane se z toho snadno slagr. Diletanti, kteri o problematice nic nevedi a obsahovou kvalitu textu moc neresi, tak zustavaji v uzasu stat a hlasite vykrikuji, ze je to zazrak a siri povedomi o te technologii lavinovite dal.
Jenze hrozi, ze se spousta lidi jeste vic vykasle na overovani duveryhodnosti informaci a jejich primarnich zdroju a internet i svet bude zaplaven jeste vetsim mnozstvim kravin, nez dnes.
https://www.umeligence.cz/umela-inteligence
Odpovědět4 0
Na 6+2 pin (nej)spis ezapomneli, jen mozna nemeli k dispozici rozmerove specifikace vsech existujicich 6+2 pinu. Ostatne u vetsiny 6+2 pinu neni problem.
Pri testech hosi z TechPowerUp narazili na potize jen u 20% kabelu ze vsech, ktere nasli v testovaci laboratori. Celkovy dopad samozrejme zalezi na tom, jestli slo o kabely na nejaktch rozsirenych typech zdroju, nebo trena o levne cinske redukce.
Pri testech hosi z TechPowerUp narazili na potize jen u 20% kabelu ze vsech, ktere nasli v testovaci laboratori. Celkovy dopad samozrejme zalezi na tom, jestli slo o kabely na nejaktch rozsirenych typech zdroju, nebo trena o levne cinske redukce.
Odpovědět0 0
Ano, uznávám, že jsem byl možná až zbytečně přísný a mohl jsem to formulovat vlídněji. A omlouvám se, že jsem se nechal unést. Ale pokud je to zmíněno bez vyjasnění souvislostí, tak to může v mnoha lidech vyvolat dojem, že jde o podobný typ problému.
Přitom v tomto případě jde o snadno řešitelnou banalitu, za kterou AMD ani nemůže. Týká se jednoho modelu karty, která se moc prodávat nebude, a jen některých (většinou levných) zdrojů, které kvůli zastaralým kartám mají nestandardní 6+2 pin. Kdežto ten zprzněný 12+4 pin bude trvalý problém u všech výkonnějších karet. A tím, že ho nVidia v PCI-SIG protlačila do standardu a výrobci zdrojů ho začali používat se toho mizerného konektoru nebude snadné zbavit.
Přitom v tomto případě jde o snadno řešitelnou banalitu, za kterou AMD ani nemůže. Týká se jednoho modelu karty, která se moc prodávat nebude, a jen některých (většinou levných) zdrojů, které kvůli zastaralým kartám mají nestandardní 6+2 pin. Kdežto ten zprzněný 12+4 pin bude trvalý problém u všech výkonnějších karet. A tím, že ho nVidia v PCI-SIG protlačila do standardu a výrobci zdrojů ho začali používat se toho mizerného konektoru nebude snadné zbavit.
Odpovědět3 0
Označovat tohle za problém AMD a srovnávat to tím, že nVidia protlačila do PCI-E standardu těžce poddimezovaný 12+4 pinový konektor, to chce opravdu dost autorské odvahy hraničící s bulvarizací.
PCI-E standard (viz odkaz dole) definuje 2 napájecí konektory 2x3 a 2x4 piny včetně jejich vzájemné kompatibility (6 pinový kabel jde do 8 pinové zásuvky, ale opačně to nejde) . Ale 6+2 pin standardizovaný není a tím, že ho výrobci zdrojů a redukcí vyrábějí z něj standard nevznikne. Výstupky držící obě části 6+2 pinu pohromadě dělají zřejmě různí výrobci různě a pokud by měl výrobce karty zajistit, že do ní každý 6+2 pin půjde strčit , musel by mít a testovat konektory od všech výrobců.
Zatím s tím zřejmě nikdy problém nebyl, protože se dělali karty jednoduše a na výstupky konektorů bylo místo. Ale snaha udělat líbivé provedení zadního krytu přineslo nečekaný problém s 6+2 konektory, které mají výstupky vyšší. Dá se čekat, že po téhle zkušenosti si na riziko kolize dají výrobci karet pozor. A pokud někdo takový problematický 6+2 pin má a koupí si referenční kartu, tak se dá výška výstupku snadno snížit zbroušením, nebo koupit 8 pinovou prodlužku. Dávat redukci do každého balení karty se mi zdá zbytečné vyrábění odpadu, ale vezme to vítr z plachet pomlouvačům a AMD to zřejmě stojí za to.
Srovnávat tedy tuhle drobnost s průšvihem, který udělala nVidia s protlačením poddimenzovaného konektoru do standardu PCI-E je opravdu zvláštní. Ten mizerný 12+4 pin je u silnějších a větších ret časovaná bomba, protože při přetížení kontaktů dochází k jejich postupné degradaci a zhoršování přechodových odporů. A pokud karta přežije aspoň dobu záruky (v USA 1 rok), tak má klient smůlu a novou kartu si bude muset koupit za vlastní. Nebo ji včas šoupne do bazaru a problém bude mít někdo jiný.
https://cdck-file-uploads-global.s3.dualstack.us-west-2.amazonaws.com/nvidia/original/3X/2/0/20a75bdbb6bc42db8b2cb0b7c77f3e492a274508.pdf
PCI-E standard (viz odkaz dole) definuje 2 napájecí konektory 2x3 a 2x4 piny včetně jejich vzájemné kompatibility (6 pinový kabel jde do 8 pinové zásuvky, ale opačně to nejde) . Ale 6+2 pin standardizovaný není a tím, že ho výrobci zdrojů a redukcí vyrábějí z něj standard nevznikne. Výstupky držící obě části 6+2 pinu pohromadě dělají zřejmě různí výrobci různě a pokud by měl výrobce karty zajistit, že do ní každý 6+2 pin půjde strčit , musel by mít a testovat konektory od všech výrobců.
Zatím s tím zřejmě nikdy problém nebyl, protože se dělali karty jednoduše a na výstupky konektorů bylo místo. Ale snaha udělat líbivé provedení zadního krytu přineslo nečekaný problém s 6+2 konektory, které mají výstupky vyšší. Dá se čekat, že po téhle zkušenosti si na riziko kolize dají výrobci karet pozor. A pokud někdo takový problematický 6+2 pin má a koupí si referenční kartu, tak se dá výška výstupku snadno snížit zbroušením, nebo koupit 8 pinovou prodlužku. Dávat redukci do každého balení karty se mi zdá zbytečné vyrábění odpadu, ale vezme to vítr z plachet pomlouvačům a AMD to zřejmě stojí za to.
Srovnávat tedy tuhle drobnost s průšvihem, který udělala nVidia s protlačením poddimenzovaného konektoru do standardu PCI-E je opravdu zvláštní. Ten mizerný 12+4 pin je u silnějších a větších ret časovaná bomba, protože při přetížení kontaktů dochází k jejich postupné degradaci a zhoršování přechodových odporů. A pokud karta přežije aspoň dobu záruky (v USA 1 rok), tak má klient smůlu a novou kartu si bude muset koupit za vlastní. Nebo ji včas šoupne do bazaru a problém bude mít někdo jiný.
https://cdck-file-uploads-global.s3.dualstack.us-west-2.amazonaws.com/nvidia/original/3X/2/0/20a75bdbb6bc42db8b2cb0b7c77f3e492a274508.pdf
Odpovědět5 2
Šlo by trochu rozvinout tu zajímavou myšlenku, že Intel dostal ceny nVidia grafik níže?
Odpovědět5 0
A treti havarie ve Statech na Three Mile Island. Asi moc whisky ;-). Tam nedoslo k proraveni ochranne zony reaktoru, proto byl unik radiace maly a tak se o ni moc nemlyvu.
Odpovědět0 0
Tohle honění se za rychlostí sekvenčních operací s ssd diskem nemá téměř žádný přínos. Nanejvýš o něco zrychlí kopírování velkých objemů dat, ale to většina lidí normálně moc nepoužívá. Při běžném užití člověk rozdíl mezi pcie 3,0 a 5,0 disky nemá šanci poznat.
Doporučuji se podívat na porovnání rychlosti načítání hry v citovaném testu ComputerBase (viz odkaz pod článkem, nebo v tomto komentáři dole). Je to jediný nesyntetický test, který ukazuje skutečné rozdíly výkonu při reálném použití. Z měřeného disku s pcie3.0 se hra načetla za 11,5s, z nejrychlejšího disku s pcie 4.0 za 11.3s a z nejrychlejšího disku pcie 5.0 za 11,1s. Rozdíly rychlosti jsou v desetinách sekundy a tedy v jednotkách procent.
A podobně malý vliv jako u disků má rychlost pcie sběrnice u grafických karet. Ani tam totiž není rychlost pcie sběrnice tou zásadní brzdou. Už proto, že data do grafiky se načítají z disku, který má maximálně 4 pcie linky. Přitom většina grafik má 16, nebo 8 pcie linek. Jen nejzákladnější grafiky, jako je radeon 6500 mají 4 linky a tedy stejnou šířku přenosového pásma jako disky, ze kterých jsou krmeny. A i u těchto slabých karet dojde k propadům fps jen tehdy, když autoři testují hry na nesmyslně vysokých detailech, kdy se data hry nevejdou do malé paměti karty a v průběhu hry se jich musí často dotahovat z disku. Stačí trochu snížit detaily a je po problému.
https://www.computerbase.de/2023-05/corsair-mp700-pcie5-ssd-test/
Doporučuji se podívat na porovnání rychlosti načítání hry v citovaném testu ComputerBase (viz odkaz pod článkem, nebo v tomto komentáři dole). Je to jediný nesyntetický test, který ukazuje skutečné rozdíly výkonu při reálném použití. Z měřeného disku s pcie3.0 se hra načetla za 11,5s, z nejrychlejšího disku s pcie 4.0 za 11.3s a z nejrychlejšího disku pcie 5.0 za 11,1s. Rozdíly rychlosti jsou v desetinách sekundy a tedy v jednotkách procent.
A podobně malý vliv jako u disků má rychlost pcie sběrnice u grafických karet. Ani tam totiž není rychlost pcie sběrnice tou zásadní brzdou. Už proto, že data do grafiky se načítají z disku, který má maximálně 4 pcie linky. Přitom většina grafik má 16, nebo 8 pcie linek. Jen nejzákladnější grafiky, jako je radeon 6500 mají 4 linky a tedy stejnou šířku přenosového pásma jako disky, ze kterých jsou krmeny. A i u těchto slabých karet dojde k propadům fps jen tehdy, když autoři testují hry na nesmyslně vysokých detailech, kdy se data hry nevejdou do malé paměti karty a v průběhu hry se jich musí často dotahovat z disku. Stačí trochu snížit detaily a je po problému.
https://www.computerbase.de/2023-05/corsair-mp700-pcie5-ssd-test/
Odpovědět2 1
Tyhle ceny před uvedením, se nedají brát vážně. Pokud ji nějaký obchod pustí do světa, tak hlavně proto, aby se o něm mluvilo. A když je cena mimo očekávání, tak tu zprávu zveřejní všichni. Pak ji reálně použít nemusí a lidi budou ještě spokojení, protože koupí za míň než to vypadalo. Navíc mají obchodníci tendenci u novinek cenu napálit, aby podojili nedočkavce, ochotné si připlatit.
Je ale otázka, jestli obchodníci opravdu nebudou držet cenu Radeonů výš, než by bylo nutné, aby vedle nich karty od nVidie nevypadaly příliš drahé a nebrzdilo to jejich prodeje.
Je ale otázka, jestli obchodníci opravdu nebudou držet cenu Radeonů výš, než by bylo nutné, aby vedle nich karty od nVidie nevypadaly příliš drahé a nebrzdilo to jejich prodeje.
Odpovědět1 2
Takze divize Intel Foundry Services (IFS), ktera ma podle sefa firmy Intel spasit, dela jen 1% prijmu a polyka velke investice ? No tak to budou ve vyvoji procesu i hledani zakazniku slapnout do pedalu mnohem vic, nez je v korporatech zvykem.
Odpovědět1 1
Bylo by fajn, kdyby konecne zacali vyrobci delat notebooky jen s vykonnou integrovanou grafikou misto cpani vsude slabych externich nVidia grafik. Mohlo by to byt energaticky uspornejsi, konstrukcne jednodussi a ve finale i levnejsi.
Ale mam obavy jak to bude u tech Intel iGPU s vykonem. Hlavne s vykonem ve hrach. Neni problem udelat vypocetne vykonnou grafiku s hromadou vypocetnich jednotek a tedy i dobrym skore v syntetickych testech na tento typ vykonu zamerenych.
Potiz je, ze u her velmi zalezi na rychlosti prace s pameti. A nejde jen o teoretickou prenosivou rychlost, ale i o mala zpozdeni pristupu k pameti (latency). Ta rychlost a jeji dopady na realny (herni) vykon zaviseji na zpusobu prace pametoveho radice a vyrovnavacich pameti (cache). A vliv rychlosti pameti na realny vykon nebyval nejsilnejsi strankou Intel procesoru a jejic iGPU. Ostatne i Arc grafiky maji lepsi vysledky ve vypocetnich, nez v hernich ulohach.
Ale mam obavy jak to bude u tech Intel iGPU s vykonem. Hlavne s vykonem ve hrach. Neni problem udelat vypocetne vykonnou grafiku s hromadou vypocetnich jednotek a tedy i dobrym skore v syntetickych testech na tento typ vykonu zamerenych.
Potiz je, ze u her velmi zalezi na rychlosti prace s pameti. A nejde jen o teoretickou prenosivou rychlost, ale i o mala zpozdeni pristupu k pameti (latency). Ta rychlost a jeji dopady na realny (herni) vykon zaviseji na zpusobu prace pametoveho radice a vyrovnavacich pameti (cache). A vliv rychlosti pameti na realny vykon nebyval nejsilnejsi strankou Intel procesoru a jejic iGPU. Ostatne i Arc grafiky maji lepsi vysledky ve vypocetnich, nez v hernich ulohach.
Odpovědět0 0
Zvýšení MT výkonu se dosahuje změnou organizace sběrnice nejen mezi jádry a jejich společnou vyrovnávací pamětí (cache), ale i mezi jádry navzájem.
Z pohledu rychlosti by bylo ideální mít přímé spojení přes samostatné sběrnice mezi jednotlivými jádry i samostatné spojení mezi každým jádrem a vyrovnávací pamětí. Pak by byla délka drátů mezi koncovými body minimální a tedy i zpoždění přístupu způsobené omezenou rychlostí signálu po drátech. A taky by se nemuselo řešit řízení přístupu ke sběrnicím při kolizi požadavků jednotlivých jader. Jenže tehle řešení by vyžadovalo obrovské množství vodičů a způsobovalo problémy s jejich umístěním a výrobou tak, aby se nekřížily.
Proto se běžně používá kruhová sběrnice, na níž jsou všechna jádra i zdroje, které jádra potřebují. A tedy i společná vyrovnávací paměť (cache). Ta sběrnice je obousměrná a požadavky i výsledná data se posílají tím směrem, kudy je nejkratší cesta mezi jejich zdrojem a cílem. Pro menší počet jader je to vyhovující. Ale při zvyšováním počtu jader se sběrnice a tedy i zpoždění prodlužují. A taky dochází častěji ke kolizi jednotlivých požadavků a nutnosti počkat na uvolnění sběrnice.
Ta žebříková sběrnice (viz obrázek na odkazu dole) je kompromisem mezi plným propojením a kruhovou sběrnicí. Snižuje vzdálenost propojení jednotlivých bodů i množství kolizi, ale bude potřeba složitější logika řízení komunikace. Ta se bude snažit posílat požadavky i data pokud možno co nejkratším možným směrem a tak, aby nedocházelo někde po cestě ke kolizím požadavků..
Možná ještě poznámku k testování vlivu velikosti vyrovnávací paměti (cache). Zkusit 3 různé velikosti vypadá jednoduše, ale je dobré si uvědomit, co to znamená z pohledu nákladů. Získání jedné verze procesoru vyžaduje kompletní návrh včetně výroby všech masek a tak každá testovací verze stojí v podstatě stejně, jako návrh celého procesoru. To jsou náklady ve stovkách milionů dolarů a něco takového by u AMD bylo ještě nedávno nepředstavitelné.
https://wccftech.com/amd-next-gen-zen-5-cpus-feature-reworked-cache-design-larger-l2-cache-per-core-rumor/
Z pohledu rychlosti by bylo ideální mít přímé spojení přes samostatné sběrnice mezi jednotlivými jádry i samostatné spojení mezi každým jádrem a vyrovnávací pamětí. Pak by byla délka drátů mezi koncovými body minimální a tedy i zpoždění přístupu způsobené omezenou rychlostí signálu po drátech. A taky by se nemuselo řešit řízení přístupu ke sběrnicím při kolizi požadavků jednotlivých jader. Jenže tehle řešení by vyžadovalo obrovské množství vodičů a způsobovalo problémy s jejich umístěním a výrobou tak, aby se nekřížily.
Proto se běžně používá kruhová sběrnice, na níž jsou všechna jádra i zdroje, které jádra potřebují. A tedy i společná vyrovnávací paměť (cache). Ta sběrnice je obousměrná a požadavky i výsledná data se posílají tím směrem, kudy je nejkratší cesta mezi jejich zdrojem a cílem. Pro menší počet jader je to vyhovující. Ale při zvyšováním počtu jader se sběrnice a tedy i zpoždění prodlužují. A taky dochází častěji ke kolizi jednotlivých požadavků a nutnosti počkat na uvolnění sběrnice.
Ta žebříková sběrnice (viz obrázek na odkazu dole) je kompromisem mezi plným propojením a kruhovou sběrnicí. Snižuje vzdálenost propojení jednotlivých bodů i množství kolizi, ale bude potřeba složitější logika řízení komunikace. Ta se bude snažit posílat požadavky i data pokud možno co nejkratším možným směrem a tak, aby nedocházelo někde po cestě ke kolizím požadavků..
Možná ještě poznámku k testování vlivu velikosti vyrovnávací paměti (cache). Zkusit 3 různé velikosti vypadá jednoduše, ale je dobré si uvědomit, co to znamená z pohledu nákladů. Získání jedné verze procesoru vyžaduje kompletní návrh včetně výroby všech masek a tak každá testovací verze stojí v podstatě stejně, jako návrh celého procesoru. To jsou náklady ve stovkách milionů dolarů a něco takového by u AMD bylo ještě nedávno nepředstavitelné.
https://wccftech.com/amd-next-gen-zen-5-cpus-feature-reworked-cache-design-larger-l2-cache-per-core-rumor/
Odpovědět1 0
Koukam, ze mam v predchozim prispevku preklep. Piladin si nestezoval na teplotu 80C, ale 90C.
Asi by nebylo od veci uvest informace o teplotach a chlazeni, ktere jsem probiral s piladinem.
To co ukazuje diagnostika Ryzenů není teplota celého čipu, která se používala dříve, nebo průměr z více čidel. Je to nejvyšší hodnota ze všech teplot naměřených spoustou čidel rozmístěných po celém procesoru. Většinou je to teplota v nejvíce zatíženém jádře.
To, že se měří v podstatě téměř teplota tranzistorů přímo v místě vzniku tepla, má velkou výhodu, protože se dá rychle reagovat na změny zátěže a zahřívání jednotlivých částí čipu a řídit jejich výkon i výkon chlazení tak, aby se co nejlépe využilo možností čipu. Při měření méně čidly, nebo dokonce jediným zjišťující teplotu celého čipu se je potřeba držet teploty níže, aby byla rezerva a nedocházelo k přehřívání v místech, kde není čidlo. Tepelná vodivost křemíku totiž není nejlepší.
Při návrhu chlazení polovodičů se normálně počítá s běžnou provozní teplotou polovodičového přechodu 125 C a absolutní maximum může být i 150C (viz odkaz dole, řádka junction temperature na straně 307). Ani čidla přímo v jádře však neměří teplotu jednotlivých přechodů, proto se i v tomto případě nechává určitá rezerva. Nové Ryzeny 7000X se v plném zatížení jedou běžně 95C (v nejteplejším místě) a omezovat takty (prý) začínají až někde kolem 105 C.
Tyhle teploty tedy nejsou přehříváním čipu v důsledku malých čipletů, jak tvrdí v diskuzích někteří, kteří podstatě chlazení zřejmě ani nerozumějí. Protože jde o lokální teploty v místě vzniku tepla a tepelná vodivost křemíku je omezená, nemůže změny okamžité lokální teploty sebelepší chlazení moc ovlivnit. Je to hezky vidět i z chování rozdílu teplot mezi jednotlivými jádry při velké jednojádrové zátěži. Nejdřív vyskočí teplota zatíženého jádra a ostatní se začnou trochu zahřívat, až když k nim teplo generované zátěží křemíkem doputuje.
Chladič se začne částečně uplatňovat až tehdy, kdy teplo ze zatíženého jádra dostane až na povrch čipu nad jádrem a v plném rozsahu až tehdy, kdy ohřeje celý čip tak, aby teplo procházelo celou plochou styku mezi čipem a chladičem. Proto jádra běžně dosahují vysokých teplot i když jsou procesor a chladič v podstatě studené.
Teplotu celého procesoru a chladiče totiž ovlivňuje hlavně celkový trvalý příkon procesoru, který se v něm celý přeměňuje na odpadní teplo. Lokální teploty jednotlivých jader takový vliv nemají. Zvlášť pokud netrvají dostatečně dlouho, aby dokázaly naplnit tepelnou kapacitu čipu a chladiče.
https://docs.rs-online.com/a774/0900766b8171fc9c.pdf
Asi by nebylo od veci uvest informace o teplotach a chlazeni, ktere jsem probiral s piladinem.
To co ukazuje diagnostika Ryzenů není teplota celého čipu, která se používala dříve, nebo průměr z více čidel. Je to nejvyšší hodnota ze všech teplot naměřených spoustou čidel rozmístěných po celém procesoru. Většinou je to teplota v nejvíce zatíženém jádře.
To, že se měří v podstatě téměř teplota tranzistorů přímo v místě vzniku tepla, má velkou výhodu, protože se dá rychle reagovat na změny zátěže a zahřívání jednotlivých částí čipu a řídit jejich výkon i výkon chlazení tak, aby se co nejlépe využilo možností čipu. Při měření méně čidly, nebo dokonce jediným zjišťující teplotu celého čipu se je potřeba držet teploty níže, aby byla rezerva a nedocházelo k přehřívání v místech, kde není čidlo. Tepelná vodivost křemíku totiž není nejlepší.
Při návrhu chlazení polovodičů se normálně počítá s běžnou provozní teplotou polovodičového přechodu 125 C a absolutní maximum může být i 150C (viz odkaz dole, řádka junction temperature na straně 307). Ani čidla přímo v jádře však neměří teplotu jednotlivých přechodů, proto se i v tomto případě nechává určitá rezerva. Nové Ryzeny 7000X se v plném zatížení jedou běžně 95C (v nejteplejším místě) a omezovat takty (prý) začínají až někde kolem 105 C.
Tyhle teploty tedy nejsou přehříváním čipu v důsledku malých čipletů, jak tvrdí v diskuzích někteří, kteří podstatě chlazení zřejmě ani nerozumějí. Protože jde o lokální teploty v místě vzniku tepla a tepelná vodivost křemíku je omezená, nemůže změny okamžité lokální teploty sebelepší chlazení moc ovlivnit. Je to hezky vidět i z chování rozdílu teplot mezi jednotlivými jádry při velké jednojádrové zátěži. Nejdřív vyskočí teplota zatíženého jádra a ostatní se začnou trochu zahřívat, až když k nim teplo generované zátěží křemíkem doputuje.
Chladič se začne částečně uplatňovat až tehdy, kdy teplo ze zatíženého jádra dostane až na povrch čipu nad jádrem a v plném rozsahu až tehdy, kdy ohřeje celý čip tak, aby teplo procházelo celou plochou styku mezi čipem a chladičem. Proto jádra běžně dosahují vysokých teplot i když jsou procesor a chladič v podstatě studené.
Teplotu celého procesoru a chladiče totiž ovlivňuje hlavně celkový trvalý příkon procesoru, který se v něm celý přeměňuje na odpadní teplo. Lokální teploty jednotlivých jader takový vliv nemají. Zvlášť pokud netrvají dostatečně dlouho, aby dokázaly naplnit tepelnou kapacitu čipu a chladiče.
https://docs.rs-online.com/a774/0900766b8171fc9c.pdf
Odpovědět1 1
Jo, jo pidaline, mas mit recht!. Ryzeny stoji za prd, protoze intel dokaze procesor pri srovnatelnem vypocetni zatezi zahrat na 105C a staci mu k tomu jen 2x vetsi prikon ;-).
Ne, ze by tech 105C musel byt nutne zasadni problem. Navrhova provozni teplota polovodicivych prechodu je 125C. A pokud hlasi intel nejvyssi teplotu ze vsech cidel v procesoru (obvykle nejzatizenejsi jadro), jako to dela amd, tak by pri 105C mela byt dostatecna rezerva. Ovsem pokud se nekdo tvari ze 80C je problem, tak (s nim) neco neni v poradku.
Kdybych tady pred casem problematiku teplot a chlazeni ryzenu s piladinem dukladne neprobiral, tak bych mohl verit, ze jsou ty jeho reci jen neznalost. Ale takhle je jasne, ze ty nesmyski placa s nejakym zamerem. A tezko odhadovat,co z toho ma.
Ne, ze by tech 105C musel byt nutne zasadni problem. Navrhova provozni teplota polovodicivych prechodu je 125C. A pokud hlasi intel nejvyssi teplotu ze vsech cidel v procesoru (obvykle nejzatizenejsi jadro), jako to dela amd, tak by pri 105C mela byt dostatecna rezerva. Ovsem pokud se nekdo tvari ze 80C je problem, tak (s nim) neco neni v poradku.
Kdybych tady pred casem problematiku teplot a chlazeni ryzenu s piladinem dukladne neprobiral, tak bych mohl verit, ze jsou ty jeho reci jen neznalost. Ale takhle je jasne, ze ty nesmyski placa s nejakym zamerem. A tezko odhadovat,co z toho ma.
Odpovědět6 1
Pameti maji samostatne napajeni s nezavisle nastavitelnym napetim, radic pameti + I/O obvody taky (Vsoc) a jadra s vyrocnavacimi pametmi (cache) rovnez (Vcore). Tyhle 3 napetove domeny jsou vzajemne nezavisle a tak napeti pameti ddr nemuze procesor znicit. Tedy pokud pemeti nedostanou tak vysoke napeti, ze dojde k jejich destrukci a proniknuti jejich vysokeho napajeci napeti pres sbernice do procesoru. A podobne to je se vztahem napeti Vsoc a jadry+cache.
Odpovědět1 0
Bison placa nesmysly, protoze mu zrejme nejde o technickou podstatu problemu,ale jen o to, kopnout si do amd.
Prilis vysoke napeti zpusobi nekde v cipu pruraz a lavinovite rostouci zkratove proudy, kterymi se pres par nejblizsich napajecich pinu okamzite vybije cely naboj vystupnich kodenzatoru napajeci kaskady, jsou tak velke, ze znici nejen cip, ale i ty pretizene piny parice.
Mozna by mel Bison vysvetlit, jak by podle nej mela tepelna ochrana tomuhle celit.
Prilis vysoke napeti zpusobi nekde v cipu pruraz a lavinovite rostouci zkratove proudy, kterymi se pres par nejblizsich napajecich pinu okamzite vybije cely naboj vystupnich kodenzatoru napajeci kaskady, jsou tak velke, ze znici nejen cip, ale i ty pretizene piny parice.
Mozna by mel Bison vysvetlit, jak by podle nej mela tepelna ochrana tomuhle celit.
Odpovědět6 1
V takove situaci ma smysl podtaktovat a snizit napeti a tedy i spotrebu.
Odpovědět0 0
No nevím, mazání už oficiálně vydaných biosů ze stránek podpory desky myslím moc běžné není. Tam se dávají už odzkoušené, stabilní verze a pro bety má výrobce nějakou neveřejnou stránku. Ale nikdy jsem mazání už oficiálně vydaných biosů nesledoval, tak nemůžu vyloučit, že se to občas stane. Ovšem pokud nastavují při zapnutí expo natvrdo pro X3D procesory příliš velká napájecí napětí a hrozí jejich zničení, tak je to tak velký průser, že je to smazání už vydaných biosů pochopitelné.
Není jasné, kdy byla do biosů přidána podpora pro cpu s 3D vyrovnávací pamětí (cache), ale v diskuzi na jiném serveru jeden člověk psal, že pro jeho asus desku smazali všechny předchozí verze, kromě té nejnovější. A prý tam bylo těch starších biosů celá řada. To vypadá, že tam byla podpora X3D procesorů už od počátku. Pak by to ale opravdu bylo na svolání všech desek na výměnu biosu, protože běžný uživatel jeho aktualizace nedělá. Ale možná doufají, že lidí, kteří jsou schopni zapnout expo, ale nedožvědí se o nutnosti aktualizace biosu bude málo a tak to radši nechají na reklamace, protože to bude méně nákladné (finančně i reputačně) než svolávání.
Je ale otázka jak k tomu nastavování vysokých napětí mohlo dojít. A proč by mělo zapnutí expo nastavovat napětí pro Vcore napěťovou doménu, která by s taktováním pamětí a tedy ani s expo, jehož zapnutí je údajně příčinou zničení cpu, neměla mít nic společného. Napadají mne 2 možnosti.
Buď se nastavují všechny parametry procesoru jako celek v jednom datovém bloku a výrobci pro X3D procesory opravdu dali do parametrů nesprávná Vcore napětí z neX3D verzí. To se mi zdá divné, protože u 5800X3D to zvládli bez problémů a navíc jsou tím prý postiženy desky více výrobců.
Druhá možnost je jen moje spekulace, ale mohla by vysvětlovat velký rozsah problému. Podle dostupných informací byla u 5800X3D vyrovnávací paměť (cache) napájena ze stejné napěťové domény Vcore, jako jádra. Menší napěťová odolnost 3D čipletu proto bránila zvýšení Vcore napětí potřebného pro taktování.
Kdyby AMD ale 3D čiplet přesunulo do Vsoc domény, která má stabilní napětí a obvykle nižší, než špičky ve Vcore doméně, mohlo by to umožnit vyšší taktování jader. Ale pokud by se při expo nastavilo příliš velké Vsoc napětí, mohlo by dojít k poškození 3D čipletu. Tahle změna napájení by mohla vysvětlit, proč došlo k problémům s expo u více výrobců. Po zkušenostech s 5800X3D by si hlídali Vcore napětí a neuvědomili by si, že při nastavení expo je potřeba řešit i omezení úrovně Vsoc.
Ta hypotéza má ale i slabiny. Třeba, že by AMD nejspíš začalo procesory taktovat výš a o takové změně přístupu by dost mluvilo. A nejspíš by si i pohlídalo , aby s ní vývojáři biosů u všech výrobců desek počítali.
Není jasné, kdy byla do biosů přidána podpora pro cpu s 3D vyrovnávací pamětí (cache), ale v diskuzi na jiném serveru jeden člověk psal, že pro jeho asus desku smazali všechny předchozí verze, kromě té nejnovější. A prý tam bylo těch starších biosů celá řada. To vypadá, že tam byla podpora X3D procesorů už od počátku. Pak by to ale opravdu bylo na svolání všech desek na výměnu biosu, protože běžný uživatel jeho aktualizace nedělá. Ale možná doufají, že lidí, kteří jsou schopni zapnout expo, ale nedožvědí se o nutnosti aktualizace biosu bude málo a tak to radši nechají na reklamace, protože to bude méně nákladné (finančně i reputačně) než svolávání.
Je ale otázka jak k tomu nastavování vysokých napětí mohlo dojít. A proč by mělo zapnutí expo nastavovat napětí pro Vcore napěťovou doménu, která by s taktováním pamětí a tedy ani s expo, jehož zapnutí je údajně příčinou zničení cpu, neměla mít nic společného. Napadají mne 2 možnosti.
Buď se nastavují všechny parametry procesoru jako celek v jednom datovém bloku a výrobci pro X3D procesory opravdu dali do parametrů nesprávná Vcore napětí z neX3D verzí. To se mi zdá divné, protože u 5800X3D to zvládli bez problémů a navíc jsou tím prý postiženy desky více výrobců.
Druhá možnost je jen moje spekulace, ale mohla by vysvětlovat velký rozsah problému. Podle dostupných informací byla u 5800X3D vyrovnávací paměť (cache) napájena ze stejné napěťové domény Vcore, jako jádra. Menší napěťová odolnost 3D čipletu proto bránila zvýšení Vcore napětí potřebného pro taktování.
Kdyby AMD ale 3D čiplet přesunulo do Vsoc domény, která má stabilní napětí a obvykle nižší, než špičky ve Vcore doméně, mohlo by to umožnit vyšší taktování jader. Ale pokud by se při expo nastavilo příliš velké Vsoc napětí, mohlo by dojít k poškození 3D čipletu. Tahle změna napájení by mohla vysvětlit, proč došlo k problémům s expo u více výrobců. Po zkušenostech s 5800X3D by si hlídali Vcore napětí a neuvědomili by si, že při nastavení expo je potřeba řešit i omezení úrovně Vsoc.
Ta hypotéza má ale i slabiny. Třeba, že by AMD nejspíš začalo procesory taktovat výš a o takové změně přístupu by dost mluvilo. A nejspíš by si i pohlídalo , aby s ní vývojáři biosů u všech výrobců desek počítali.
Odpovědět0 0
Omlouvám se za uštěpačnost, ale tu spekulaci jsem v daném kontextu pochopil tak, že by kvůli přidání 3D vyrovnávací paměti by mělo dojít ke změnám nastavení řadiče RAM, které by v důsledku způsobili jeho přetížení a zničení procesoru. To je tak absurdní představa, že mi to jsem se prostě neudržel.
Odpovědět1 0
Co je ADM ? Že by překlep ;-)?
Pro taktování jader procesoru je potřeba zvyšovat napětí a čiplet s nimi je vytvořen litografií, která je optimalizovaná na dosahování vysokých kmitočtů a tedy i vyšších napětí. Ale 3D cache je vyráběná jinou litografii a nezvládá tak vysoká napětí jako jádra. A protože jsou ve stejné napěťové doméně Vcore, nejdou jádra taktovat protože jim nejde zvýšit napětí bez rizika zničení 3D čipletu.
Řadič paměti je v jiné napěťové doméně Vsoc a u nemonolitických procesorů je i na samostatném čipletu. Přidání vyrovnávací paměti nastavení řadič RAM nijak neovlivňuje, protože ten o její existenci a velikosti nemá žádné informace. Navíc větší přidání vyrovnávacích pamětí zatížení řadiče RAM snižuje, protože více požadavků jader je uspokojeno z vyrovnávací paměti a nejde přes řadič RAM. Ty spekulace o zhoršení podmínek jeho fungování jsou tedy zcela nepodložené. Možná by nebylo od věci si místo spekulování o způsobu fungování procesorů něco přečíst ;-).
Pro taktování jader procesoru je potřeba zvyšovat napětí a čiplet s nimi je vytvořen litografií, která je optimalizovaná na dosahování vysokých kmitočtů a tedy i vyšších napětí. Ale 3D cache je vyráběná jinou litografii a nezvládá tak vysoká napětí jako jádra. A protože jsou ve stejné napěťové doméně Vcore, nejdou jádra taktovat protože jim nejde zvýšit napětí bez rizika zničení 3D čipletu.
Řadič paměti je v jiné napěťové doméně Vsoc a u nemonolitických procesorů je i na samostatném čipletu. Přidání vyrovnávací paměti nastavení řadič RAM nijak neovlivňuje, protože ten o její existenci a velikosti nemá žádné informace. Navíc větší přidání vyrovnávacích pamětí zatížení řadiče RAM snižuje, protože více požadavků jader je uspokojeno z vyrovnávací paměti a nejde přes řadič RAM. Ty spekulace o zhoršení podmínek jeho fungování jsou tedy zcela nepodložené. Možná by nebylo od věci si místo spekulování o způsobu fungování procesorů něco přečíst ;-).
Odpovědět2 1
Když člověk není dement, tak nepíše do diskuzí nesmysly typu, že zahřátí cache na 86C způsobí zničení procesoru.
Zatím všechny dostupné informace včetně oficiálního prohlášení ADM říkají, že ke zničení X3D cache dochází v důsledku zvýšení napájecího napětí pro jádra cpu nad přípustnou mez. Zvýšení napájecího napětí a frekvencí vede ke zvýšení teploty, ale teplota 86C určitě nebude příčinou zničení, protože běžné provozní teploty polovodičových přechodů jsou 125C.
Ta X3D cache se vyrábí jiným procesem a ten má z nějakého důvodu nižší provozní napětí, než co zvládá čiplet s jádry optimalizovaný pro dosahování vysokých frekvenci a pro ně potřebného napájecího napětí. Podle všeho při překročení bezpečného napětí X3D cache v ní někde dojde k průrazu, závada se lavinovitě rozšíří a dojde ke zkratu, přes který se vybijí výstupní kondenzátory napájecí kaskády a zkratovoé proudy zničí procesor i patici.
A o riziku zničení zvýšeným napětím se ví už od 5800X3D, takže není moc pravděpodobné, že by výrobci desek pro AM5 upravili bios tak, aby napájecí napětí překračovalo bezpečné hodnoty.
Zatím všechny dostupné informace včetně oficiálního prohlášení ADM říkají, že ke zničení X3D cache dochází v důsledku zvýšení napájecího napětí pro jádra cpu nad přípustnou mez. Zvýšení napájecího napětí a frekvencí vede ke zvýšení teploty, ale teplota 86C určitě nebude příčinou zničení, protože běžné provozní teploty polovodičových přechodů jsou 125C.
Ta X3D cache se vyrábí jiným procesem a ten má z nějakého důvodu nižší provozní napětí, než co zvládá čiplet s jádry optimalizovaný pro dosahování vysokých frekvenci a pro ně potřebného napájecího napětí. Podle všeho při překročení bezpečného napětí X3D cache v ní někde dojde k průrazu, závada se lavinovitě rozšíří a dojde ke zkratu, přes který se vybijí výstupní kondenzátory napájecí kaskády a zkratovoé proudy zničí procesor i patici.
A o riziku zničení zvýšeným napětím se ví už od 5800X3D, takže není moc pravděpodobné, že by výrobci desek pro AM5 upravili bios tak, aby napájecí napětí překračovalo bezpečné hodnoty.
Odpovědět2 1
Z jakého zdroje je informace, že Asus a MSI mažou nějaké biosy ze serverů ? Tohle tvrzení totiž silně připomíná kachnu.
Kdyby zničení procesorů způsobovalo, to, že bios nastavuje příliš vysoké napětí při PBO, tak to žádné stažení biosů z webu nevyřeší. To by výrobci museli svolat všechny desky s touhle verzí biosu a nechat do nich nahrát třeba u prodejce, nebo v servisu jiní bios. A to by byla opravdu velká akce, která by nešla přehlédnout. A o něčem takovém se nikde nepsalo.
Kdyby zničení procesorů způsobovalo, to, že bios nastavuje příliš vysoké napětí při PBO, tak to žádné stažení biosů z webu nevyřeší. To by výrobci museli svolat všechny desky s touhle verzí biosu a nechat do nich nahrát třeba u prodejce, nebo v servisu jiní bios. A to by byla opravdu velká akce, která by nešla přehlédnout. A o něčem takovém se nikde nepsalo.
Odpovědět1 0
Z jak důvěryhodných (primárních) zdrojů vychází informace, že je tenhle problém u více uživatelů desek jen od Asusu, že výrobci stáhly nějaké biosy a že není poprvé, kdy špatný bios způsobil zničení procesorů?
Ne, že bych si myslel, že výrobci desek nejsou schopni něco udělat blbě. Ale na internetu je řada žvástů, hovadin, nebo i přímo podvodů, které někteří lidí nekriticky šíří. Tak jsem radši opatrný a snažím se o věcech přemýšlet.
Ne, že bych si myslel, že výrobci desek nejsou schopni něco udělat blbě. Ale na internetu je řada žvástů, hovadin, nebo i přímo podvodů, které někteří lidí nekriticky šíří. Tak jsem radši opatrný a snažím se o věcech přemýšlet.
Odpovědět1 0
Asi jste necetl (poradne) muj komentar ;-). Pisu, ze takoveto poskozeni x3d procesoru je mnohem pravdepodobneji v dusledku zvyseneho napeti pri pretaktovani, nez pri standardnim uziti (vcetne expo).
Kdyby to, ze odecel procesor jen po zapnuti expo, napsal treba ber8auer, taj nepochybuji, ze je to pravda. Pokud se ale takove tvrzeni objevi u fotky nekoho neznameho, moc duveryhodne mi to nezni.
U expo neni duvod ke zvyseni napeti pro jadra procesoru (Vcore) a x3d vyrovnavaci pamet, ale jen ke zvyseni napeti ram a pripadne pametoveho radice (Vsoc). Povolene rozsahy napeti obou napetovych domen procesoru jsou dany amd a temer jiste i kod delalo i kod pro expo ladeni pameti. Nelze vyloucit, ze ten expo kod muze vyrobce desky upravovat, nebo parametrizivat, ale byl by sam proti sobe, kdyby prekracoval meze povolenych bezpecnych napeti.
Kdyby to, ze odecel procesor jen po zapnuti expo, napsal treba ber8auer, taj nepochybuji, ze je to pravda. Pokud se ale takove tvrzeni objevi u fotky nekoho neznameho, moc duveryhodne mi to nezni.
U expo neni duvod ke zvyseni napeti pro jadra procesoru (Vcore) a x3d vyrovnavaci pamet, ale jen ke zvyseni napeti ram a pripadne pametoveho radice (Vsoc). Povolene rozsahy napeti obou napetovych domen procesoru jsou dany amd a temer jiste i kod delalo i kod pro expo ladeni pameti. Nelze vyloucit, ze ten expo kod muze vyrobce desky upravovat, nebo parametrizivat, ale byl by sam proti sobe, kdyby prekracoval meze povolenych bezpecnych napeti.
Odpovědět1 0
Omluvam se za nasledujici duplicitni komentar, ktery nejak vznikl pri editaci preklepu v prispevku.
Odpovědět0 0
Napajeci piny procesoru jso rozmisteny celkem rovnomerne po cele patici. Takhle lokalni vypaleni patice signalizuje, ze zjevne doslo k masivnimu proudovemu pretizeni jen nekolika kontaktu.
Je temer jiste, ze to nemohlo byt zpusobeno beznym provoznim stavem, ani zvysenou spotrebou pri pretaktovani. To by driv doslo k prilisnemu lokalnimu ohrati kremiku, ktere by zaznamenala mistni teplotni cidla a pricesor by odstavila. Ridici obvody procesoru hlidaji i maximalni proudy a prikony jednotlivych casti procesoru. Je tedy nerealne, ze by pri (rozumnem) pretaktovani mohla nejaka cast procesoru odebirat proud schopny takhle znicit patici.
Tady musely uradovat zkratove proudy po vnitrni destrukci cipu, kterymi se pres par napajecich pinu vybil cely naboj vystupnich kondenzatoru napajeci kaskady. Sice nelze zcela uplne vyloucit, ze mohlo jit o dusledek neodhalene vyrobni vady konkretniho kusu, ale je to velmi nepravdepodobne.
Vzhledem ke zname citlivosti 3Dcach na vyssi napeti a z ni vyplyvajicimu omezeni taktovani techto procesorru je nejpravdepodobnejsi pricina nepripustne zvyseni napajeciho napeti. Sice se objevili spekulace,ze by za to mohla byt snaha vyrobcu desky dosahnout lepsich vysledku v testech prekrocenim napeti pri autonatickem taktovani. Ale to mi nezni moc pravdepodobne, protoze to by si vyrobce zadelaval na velke potize.
Mnohem pravdepodobnejsi je, ze nekdo zkousel taktovani, nastavil prilis vysoke napeti a procesor odpalil. Ostatne nedavno takhle der8auer v laboratori asus odpravil 7950x3d pri extremnim pretaktovani skokovym zvysenim napeti o 0,2V z 1.35 na 1.55V (viz odkaz dole). Protoze on ma procesory zdarma a je to pro nej i reklama, tak to vytroubil do sveta.
Pokud nekdo pri pokusech odpalil procesor koupeny za sve, tak se s tim chlubit nebude, protoze ho asi bude chtit zkusit reklamovat.
Zvesti o udajnych upravach biosu vyrobci desek snizujici pretaktovani nemusi byt ale uplne nepodlozene. Vyrobce vetsinou umoznuje rucne nastavit vyssi nez doporucene napajeci napeti prave kvuli moznostem taktovani. Ale napeti mimo povolene meze vetsinou upozorni treba hlaskou, nebo cervenou barvou. Je ale mozne, ze pro x3d procesory natvrdo snizili horni mez nastavitelneho napeti.
https://www.tomshardware.com/news/ryzen-7000x3d-voltages-may-be-limited-after-der8auer-kills-7950x3d
Je temer jiste, ze to nemohlo byt zpusobeno beznym provoznim stavem, ani zvysenou spotrebou pri pretaktovani. To by driv doslo k prilisnemu lokalnimu ohrati kremiku, ktere by zaznamenala mistni teplotni cidla a pricesor by odstavila. Ridici obvody procesoru hlidaji i maximalni proudy a prikony jednotlivych casti procesoru. Je tedy nerealne, ze by pri (rozumnem) pretaktovani mohla nejaka cast procesoru odebirat proud schopny takhle znicit patici.
Tady musely uradovat zkratove proudy po vnitrni destrukci cipu, kterymi se pres par napajecich pinu vybil cely naboj vystupnich kondenzatoru napajeci kaskady. Sice nelze zcela uplne vyloucit, ze mohlo jit o dusledek neodhalene vyrobni vady konkretniho kusu, ale je to velmi nepravdepodobne.
Vzhledem ke zname citlivosti 3Dcach na vyssi napeti a z ni vyplyvajicimu omezeni taktovani techto procesorru je nejpravdepodobnejsi pricina nepripustne zvyseni napajeciho napeti. Sice se objevili spekulace,ze by za to mohla byt snaha vyrobcu desky dosahnout lepsich vysledku v testech prekrocenim napeti pri autonatickem taktovani. Ale to mi nezni moc pravdepodobne, protoze to by si vyrobce zadelaval na velke potize.
Mnohem pravdepodobnejsi je, ze nekdo zkousel taktovani, nastavil prilis vysoke napeti a procesor odpalil. Ostatne nedavno takhle der8auer v laboratori asus odpravil 7950x3d pri extremnim pretaktovani skokovym zvysenim napeti o 0,2V z 1.35 na 1.55V (viz odkaz dole). Protoze on ma procesory zdarma a je to pro nej i reklama, tak to vytroubil do sveta.
Pokud nekdo pri pokusech odpalil procesor koupeny za sve, tak se s tim chlubit nebude, protoze ho asi bude chtit zkusit reklamovat.
Zvesti o udajnych upravach biosu vyrobci desek snizujici pretaktovani nemusi byt ale uplne nepodlozene. Vyrobce vetsinou umoznuje rucne nastavit vyssi nez doporucene napajeci napeti prave kvuli moznostem taktovani. Ale napeti mimo povolene meze vetsinou upozorni treba hlaskou, nebo cervenou barvou. Je ale mozne, ze pro x3d procesory natvrdo snizili horni mez nastavitelneho napeti.
https://www.tomshardware.com/news/ryzen-7000x3d-voltages-may-be-limited-after-der8auer-kills-7950x3d
Odpovědět6 0
Napajeci piny procesoru jso rozmisteny celkem rovnomerne po cele patici. Takhle lokalni vypaleni patice signalizuje, ze zjevne doslo k masivnimu proudovemu pretizeni jen nekolika kontaktu.
Je temer jiste, ze to nemohlo byt zpusobeno beznym provoznim stavem, ani zvysenou spotrebou pri pretaktovani. To by driv doslo k prilisnemu lokalnimu ohrati kremiku, ktere by zaznamenala mistni teplotni cidla a pricesor by odstavila. Ridici obvody procesoru hlidaji i maximalni proudy a prikony jednotlivych casti procesoru. Je tedy nerealne, ze by pri (rozumnem) pretaktovani mohla nejaka cast procesoru odebirat proud schopny takhle znicit patici.
Tady musely uradovat zkratove proudy po vnitrni destrukci cipu, kterymi se pres par napajecich pinu vybil cely nabij vystupnich kondenzatoru napajeci kaskady. Sice nelze zcela uplne vyloucit, ze mohlo jit o dusledek neodhalene vyrobni vady konkretniho kusu, ale je to velmi nepravdepodobne.
Vzhledem ke zname citlivosti 3Dcach na vyssi napeti a z ni vyplyvajicimu omezeni taktovani techto procesorru je nejpravdepodobnejsi pricina nepripustne zvyseni napajeciho napeti. Sice se objevili spekulace,ze by za to mohla byt snaha vyrobcu desky dosahnout lepsich vysledku v testech prelrocenim napeti ori autonatickem taktovani. Ale to mi nezni moc pravdepodobne, protoze to by si vyrobce zadelaval na velke potize.
Mnohem pravdepodobnejsi je, ze nekdo zkousel taktovani- nastavil prilis vysoke napeti a procesor odpalil. Ostatne nedavno takhle der8auer v laboratori asus odpravil 7950x3d pri extremnim pretaktovani skokovym zvysenim napeti o 0,2V z 1.35 na 1.55V (viz odkaz dole). Protoze ma oricesory zdarma a je to pro nej i reklama, tak to vytrubuje do sveta.
Pokud nekdo pri pokusech odpalil procesor koupeny za sve, tak se s tim chlubit nebude, protoze ho asi bude chtit zkusit reklamovat.
Zvesti o udajnych upravach biosu vyrobci desek nemusi byt uplne nepravdive. Vyrobce vetsinou umoznuje nastavit vyssi nez doporucene naoajeci napeti prave kvuli moznostem taktovani. Ale napeti mimo povolene meze vetsinou upozorni treba hlaskou, nebo cervenou barvou. Je ale mozne, ze pro x3d procesory natvrdo snizili horni mez nastavitelneho napeti.
https://www.tomshardware.com/news/ryzen-7000x3d-voltages-may-be-limited-after-der8auer-kills-7950x3d
Je temer jiste, ze to nemohlo byt zpusobeno beznym provoznim stavem, ani zvysenou spotrebou pri pretaktovani. To by driv doslo k prilisnemu lokalnimu ohrati kremiku, ktere by zaznamenala mistni teplotni cidla a pricesor by odstavila. Ridici obvody procesoru hlidaji i maximalni proudy a prikony jednotlivych casti procesoru. Je tedy nerealne, ze by pri (rozumnem) pretaktovani mohla nejaka cast procesoru odebirat proud schopny takhle znicit patici.
Tady musely uradovat zkratove proudy po vnitrni destrukci cipu, kterymi se pres par napajecich pinu vybil cely nabij vystupnich kondenzatoru napajeci kaskady. Sice nelze zcela uplne vyloucit, ze mohlo jit o dusledek neodhalene vyrobni vady konkretniho kusu, ale je to velmi nepravdepodobne.
Vzhledem ke zname citlivosti 3Dcach na vyssi napeti a z ni vyplyvajicimu omezeni taktovani techto procesorru je nejpravdepodobnejsi pricina nepripustne zvyseni napajeciho napeti. Sice se objevili spekulace,ze by za to mohla byt snaha vyrobcu desky dosahnout lepsich vysledku v testech prelrocenim napeti ori autonatickem taktovani. Ale to mi nezni moc pravdepodobne, protoze to by si vyrobce zadelaval na velke potize.
Mnohem pravdepodobnejsi je, ze nekdo zkousel taktovani- nastavil prilis vysoke napeti a procesor odpalil. Ostatne nedavno takhle der8auer v laboratori asus odpravil 7950x3d pri extremnim pretaktovani skokovym zvysenim napeti o 0,2V z 1.35 na 1.55V (viz odkaz dole). Protoze ma oricesory zdarma a je to pro nej i reklama, tak to vytrubuje do sveta.
Pokud nekdo pri pokusech odpalil procesor koupeny za sve, tak se s tim chlubit nebude, protoze ho asi bude chtit zkusit reklamovat.
Zvesti o udajnych upravach biosu vyrobci desek nemusi byt uplne nepravdive. Vyrobce vetsinou umoznuje nastavit vyssi nez doporucene naoajeci napeti prave kvuli moznostem taktovani. Ale napeti mimo povolene meze vetsinou upozorni treba hlaskou, nebo cervenou barvou. Je ale mozne, ze pro x3d procesory natvrdo snizili horni mez nastavitelneho napeti.
https://www.tomshardware.com/news/ryzen-7000x3d-voltages-may-be-limited-after-der8auer-kills-7950x3d
Odpovědět2 0
To by mne zajímalo, kteroupak z těch zhruba 8 miliard různých individuálních pravd označí za tu jedinou správnou.
Pokud by to vážil poctivě s uvažováním toho, že jsou si lidé (prý) rovni, tak by to měla vyhrát průměrná indická, nebo čínská pravda. Ale tuším, že to bude trochu jinak ;-).
Pokud by to vážil poctivě s uvažováním toho, že jsou si lidé (prý) rovni, tak by to měla vyhrát průměrná indická, nebo čínská pravda. Ale tuším, že to bude trochu jinak ;-).
Odpovědět3 0
Koukám, že jsou tu zřejmě i kolegové z tlustoproudu FELky, kteří spínané měniče už někdy počítali a tak jsou schopni mne nachytat na švestkách :-O :-). Tak se na to pojďme podívat trochu důkladněji.
Ano, problém mého předchozího odhadu výkonu jedné fáze je v tom, že procesorům napětí 12V moc nechutná ;-). Jejich napájecí napětí je dnes, bohužel, už skoro o řád nižší, než napájecí napětí ze zdroje. Při nízkých taktech, malém výkonu a tedy i příkonu běží CPU s velmi nízkým napětím někde kolem 1,0-1.2V. Při vyšších taktech je potřeba napájecí napětí zvýšit a s tím roste i příkon procesoru. Pro ryzeny je pro trvalý provoz maximální doporučené napětí 1,35V.
Doba sepnutí tranzistoru ve snižujícím (step-down) měniči je daná poměrem výstupního a vstupního napětí. Pro jednoduchost budu počítat napájecí napětí procesoru 1,2V. Pak je spínací MOS sepnut jen po dobu desetinu pracovní periody a běžný 60A MOS je schopen trvale přenášet jen mnohem nižší výkon 12*60*0,1 = 72W. Při vyšších taktech procesoru se zvyšuje jeho napájecí napětí, prodlužuje se doba sepnutí a tedy výkon, který je schopna jedna fáze přenést. Budu ale brát jen těch 72W a tak si dovolím si neřešit ztráty. Ty jsou u spínaných zdrojů malé, protože jejich účinnost je velmi vysoká.
Nejslabší napájecí obvody desek s A620, které jsem našel, mají pro cpu 4 fáze. Za výše uvedených podmínek (1,2V pro CPU a 60A MOS) je i slabý 4 fázový napájecí obvod schopen trvale dodávat 288W, což stačí s rezervou i na nejžravější ryzeny. Počet fází a maximální proud spínacích MOSů spolu souvisí. Čím slabší MOSy, tím víc fází je potřeba na přenesení požadovaného výkonu. A protože růst nákladů při použití lepších MOSů je malý, zvlášť v porovnání s náklady na součástky i složitější desku při přidání další fáze, dávají výrobci na základní desky co nejlepší, cenově ještě rozumné MOSy. Tím spíš, že jejich kvalita je spolu s počtem fází jedním z marketingových prodejních argumentů.
Pokud by výrobce použil jen nějaké 30A spínací MOSy a 4 fáze, zvládla by deska dodávat jen jen 144W a tedy ryzeny s TDP 105W. Ale žádný výrobce si nedovolí dát na maloobchodní trh desku, u které by musel tučným červeným písmem psát: Pozor, tahle deska nezvládne napájet silnější procesory. Tohle šulení si může dovolit nanejvýš u OEM sestav pro firmy, kde ví, že tam nikdo nikdy nedá jiný procesor, než ten, co tam osadil.
Reálně by však nebyl důvod bránit osazení nějakého procesoru ani do desky se slabším napájením. ˇŘízení napájecích obvodů je pod kontrolou BIOSu desky, která ví jak má silné napájecí obvody. Tak i náročnějšímu procesoru dá jen tolik, kolik zvládne, a procesor poběží s o něco menším výkonem, než by mohl na mít na špičkové desce. I když tohle je spíš jen teoretická možnost. Stačí se podívat na test silných procesorů na různých deskách. Výkon i na nejlevnějších deskách není významně nižší, než na špičkových. No, pro úplnost bych měl dodat, že tohle platí pro AMD procesory. U nejžravějších Intelů na kvalitě desky bude záležet o dost víc.
Ano, problém mého předchozího odhadu výkonu jedné fáze je v tom, že procesorům napětí 12V moc nechutná ;-). Jejich napájecí napětí je dnes, bohužel, už skoro o řád nižší, než napájecí napětí ze zdroje. Při nízkých taktech, malém výkonu a tedy i příkonu běží CPU s velmi nízkým napětím někde kolem 1,0-1.2V. Při vyšších taktech je potřeba napájecí napětí zvýšit a s tím roste i příkon procesoru. Pro ryzeny je pro trvalý provoz maximální doporučené napětí 1,35V.
Doba sepnutí tranzistoru ve snižujícím (step-down) měniči je daná poměrem výstupního a vstupního napětí. Pro jednoduchost budu počítat napájecí napětí procesoru 1,2V. Pak je spínací MOS sepnut jen po dobu desetinu pracovní periody a běžný 60A MOS je schopen trvale přenášet jen mnohem nižší výkon 12*60*0,1 = 72W. Při vyšších taktech procesoru se zvyšuje jeho napájecí napětí, prodlužuje se doba sepnutí a tedy výkon, který je schopna jedna fáze přenést. Budu ale brát jen těch 72W a tak si dovolím si neřešit ztráty. Ty jsou u spínaných zdrojů malé, protože jejich účinnost je velmi vysoká.
Nejslabší napájecí obvody desek s A620, které jsem našel, mají pro cpu 4 fáze. Za výše uvedených podmínek (1,2V pro CPU a 60A MOS) je i slabý 4 fázový napájecí obvod schopen trvale dodávat 288W, což stačí s rezervou i na nejžravější ryzeny. Počet fází a maximální proud spínacích MOSů spolu souvisí. Čím slabší MOSy, tím víc fází je potřeba na přenesení požadovaného výkonu. A protože růst nákladů při použití lepších MOSů je malý, zvlášť v porovnání s náklady na součástky i složitější desku při přidání další fáze, dávají výrobci na základní desky co nejlepší, cenově ještě rozumné MOSy. Tím spíš, že jejich kvalita je spolu s počtem fází jedním z marketingových prodejních argumentů.
Pokud by výrobce použil jen nějaké 30A spínací MOSy a 4 fáze, zvládla by deska dodávat jen jen 144W a tedy ryzeny s TDP 105W. Ale žádný výrobce si nedovolí dát na maloobchodní trh desku, u které by musel tučným červeným písmem psát: Pozor, tahle deska nezvládne napájet silnější procesory. Tohle šulení si může dovolit nanejvýš u OEM sestav pro firmy, kde ví, že tam nikdo nikdy nedá jiný procesor, než ten, co tam osadil.
Reálně by však nebyl důvod bránit osazení nějakého procesoru ani do desky se slabším napájením. ˇŘízení napájecích obvodů je pod kontrolou BIOSu desky, která ví jak má silné napájecí obvody. Tak i náročnějšímu procesoru dá jen tolik, kolik zvládne, a procesor poběží s o něco menším výkonem, než by mohl na mít na špičkové desce. I když tohle je spíš jen teoretická možnost. Stačí se podívat na test silných procesorů na různých deskách. Výkon i na nejlevnějších deskách není významně nižší, než na špičkových. No, pro úplnost bych měl dodat, že tohle platí pro AMD procesory. U nejžravějších Intelů na kvalitě desky bude záležet o dost víc.
Odpovědět0 0
Tvrzení, že čipset A620 nepodporuje procesory s TDP přes 65W je kachna, kterou pustil do světa někdo, kdo netuší, která bije a 4+1+1 fází napájení se mu zdá málo, protože vidí svět v duchu hesla "čím víc proužků, tím víc adidas". Koukal jsem na specifikace čipsetů na webu AMD a tam nic o omezení TDP. Ani být nemůže, protože TDP procesoru nesouvisí s čipsetem, ale se spínanými měniči napájení (VRM=VoltageRegulatorModul). Ani u nejzákladnějších A620 desek Asusu, nebo Asrocku se nic o nějakém omezení procesorů podle TDP nepíše.
Všechny i ty základní desky jsou vybaveny CPU 8-pinem. Ten je schopen dodat 384W a dokonce i 4-pin je schopen dodat 155W. V každé fázi jsou spínací MOS tranzistory a na jejich kvalitě závisí tepelné ztráty schopnost dodávat potřebný proud. Maximální spínaný proud MOSu je určen výrobcem a bývá od nějakých 30A do 90A. Jedna fáze by tedy mohla teoreticky dodat výkon až 30*12 = 360W. Více fází se dává kvůli nižším tepelným ztrátám a hlavně kvůli dosažení lepšího vyhlazení výstupního napětí, protože spínání fází je proti sobě fázově posunuté.
Nejžravější současné AMD procesory mají TDP 170W a maximálně berou 240W. Tenhle výkon by měl být schopen dodat i hypotetický VRM s jednou fází a dost slabými MOS spínači s proudem 30A . Takže VRM s jen 4+1+1 fázemi je dostatečně předimenzovaný, aby mohl napájet i ten nejžravější AMD procesor.
https://www.amd.com/en/chipsets/am5
https://www.linkedin.com/advice/0/how-do-you-manage-cable-management
https://www.personal-view.com/talks/discussion/21417/motherboard-vrm-power-guide
Všechny i ty základní desky jsou vybaveny CPU 8-pinem. Ten je schopen dodat 384W a dokonce i 4-pin je schopen dodat 155W. V každé fázi jsou spínací MOS tranzistory a na jejich kvalitě závisí tepelné ztráty schopnost dodávat potřebný proud. Maximální spínaný proud MOSu je určen výrobcem a bývá od nějakých 30A do 90A. Jedna fáze by tedy mohla teoreticky dodat výkon až 30*12 = 360W. Více fází se dává kvůli nižším tepelným ztrátám a hlavně kvůli dosažení lepšího vyhlazení výstupního napětí, protože spínání fází je proti sobě fázově posunuté.
Nejžravější současné AMD procesory mají TDP 170W a maximálně berou 240W. Tenhle výkon by měl být schopen dodat i hypotetický VRM s jednou fází a dost slabými MOS spínači s proudem 30A . Takže VRM s jen 4+1+1 fázemi je dostatečně předimenzovaný, aby mohl napájet i ten nejžravější AMD procesor.
https://www.amd.com/en/chipsets/am5
https://www.linkedin.com/advice/0/how-do-you-manage-cable-management
https://www.personal-view.com/talks/discussion/21417/motherboard-vrm-power-guide
Odpovědět3 1
Kdyby nVidia neudela ten novy konektor tak nesmyslne miniaturni, s nedostatecne dimenzovanym telesem konektoru a zamku, tak nemusel byt spatny. Ta signalizace dostupneho vykonu (150,300,450,600W) umoznuje mit jen jeden konektor pro zdroje s ruznymi vykony.
Ale pro neznale muze jen jeden konektor znamenat i problem. Na prvni pohled totiz neni jasne, ze slabsi zdroj vykonnou kartu neutahne. Kdyz ma karta 3 osmipiny a zdroj jen dva, tak i mene inteligentni uzivatel vidi, ze neco neni v poradku.
Ale pro neznale muze jen jeden konektor znamenat i problem. Na prvni pohled totiz neni jasne, ze slabsi zdroj vykonnou kartu neutahne. Kdyz ma karta 3 osmipiny a zdroj jen dva, tak i mene inteligentni uzivatel vidi, ze neco neni v poradku.
Odpovědět1 1
Ach ta zaludna zakouti slov ;-). Takhle mi to opravdu nevyznelo :-(. Po tomhle vysvetleni (diky za nej) vidim, ze jsme vlastne zcela ve shode :-).
Odpovědět0 0
A o tom, že výrobci konektorů vědí, co dělají, svědčí i jejich doporučení k používání toho 12pinu, která i prosákla na veřejnost. V nich se zakazuje nevhodné ohýbání kabelů a boční tlaky na konektor, které mohou způsobit zhoršení kontaktu a proudové zatížitelnosti pod zaručovanou mez. O tomhle hoši z nVidie museli velmi dobře vědět a přesto prosadili svůj poddimenzovaný konektor do standardu. Inu komu není rady, tomu není pomoci.
Odpovědět0 1
ATX standard definuje pro připojení grafiky 3 typy konektorů - starší 2x4 osmipin, nový 12VHPWR dvanácti pin a téměř nepoužívaný 2x3 šestipin. Takže když si přečtu vetu "Ty dva typy konektorů byly ve specifikaci" těžko z ní můžu poznat, že autor neměl na mysli 2 používané typy konektorů, ale dvě různá konstrukční provedení kontaktů.
Tím spíš, když konkrétní technické provedení kontaktů se v ATX standardech nikdy neřešilo (viz popis 6 a 8 pinu v intel.com odkazu pod článkem). A nebylo původně ani pro ten 12pin od nVidie. A tím jsem si jistý protože jsem po provalení skandálu informace o provedení kontaktů v ATX specifikaci velmi důkladně hledal.
Ty dvě ukázky z mnoha možných řešení kontaktu a doporučením použít 4 pružinové byly do standardu doplněny opravdu jako dodatečná snaha uhasit největší průser, které způsobila nVidia protlačením konstrukčně poddimenzovaného konektoru do standardu. Takže pravdu má zolo_sk a ne pan Šurkala. A jak jsem psal výše, příčina problému je primárně v příliš malých rozměrech konektoru a jeho zámku, ne v provedení kontaktů.
Standardy řeší obvykle jen to, co by mohlo ohrozit kompatibilitu produktů různých výrobců (základní rozměry, umístění a význam signálů, časování, maximální povolený výkon konektoru a proud kontaktem,...). Ale neřeší technologické provedení těla konektorů ani jejich kontaktů, protože předpokládá, že výrobci konektorů vědí co dělají. Nanejvýš se stanovují minimální materiálové požadavky, aby někdo nedělal třeba kontakty z papírového ocelového plechu s tím, že to standard nezakazuje. Pro předchozí 6pin, 8pin a původně i pro 12pin byl uveden požadavek provedení jako pocínovaný kontakt z fosforobronzu, což je míněno jako technologické minimum.
Tím spíš, když konkrétní technické provedení kontaktů se v ATX standardech nikdy neřešilo (viz popis 6 a 8 pinu v intel.com odkazu pod článkem). A nebylo původně ani pro ten 12pin od nVidie. A tím jsem si jistý protože jsem po provalení skandálu informace o provedení kontaktů v ATX specifikaci velmi důkladně hledal.
Ty dvě ukázky z mnoha možných řešení kontaktu a doporučením použít 4 pružinové byly do standardu doplněny opravdu jako dodatečná snaha uhasit největší průser, které způsobila nVidia protlačením konstrukčně poddimenzovaného konektoru do standardu. Takže pravdu má zolo_sk a ne pan Šurkala. A jak jsem psal výše, příčina problému je primárně v příliš malých rozměrech konektoru a jeho zámku, ne v provedení kontaktů.
Standardy řeší obvykle jen to, co by mohlo ohrozit kompatibilitu produktů různých výrobců (základní rozměry, umístění a význam signálů, časování, maximální povolený výkon konektoru a proud kontaktem,...). Ale neřeší technologické provedení těla konektorů ani jejich kontaktů, protože předpokládá, že výrobci konektorů vědí co dělají. Nanejvýš se stanovují minimální materiálové požadavky, aby někdo nedělal třeba kontakty z papírového ocelového plechu s tím, že to standard nezakazuje. Pro předchozí 6pin, 8pin a původně i pro 12pin byl uveden požadavek provedení jako pocínovaný kontakt z fosforobronzu, což je míněno jako technologické minimum.
Odpovědět0 1
Koukám na ten konektor XT90 (viz odkaz níže) a souhlasím, že takhle nějak by měl (konstrukčně) vypadat konektor pro přenos velkého výkonu. Maximální proud je 90A a při 12V by šlo po těch 2 pinech přenést až 1080W. A když to u nás v maloobchodě stojí 49 kaček, tak výrobní náklady nebudou astronomické.
Takový konektor by byl dokonce i o dost menší, než dvanáctipin. Jen by k tomu museli vést hodně tlusté dráty které by se asi špatně připojovaly a ohýbaly. Takže by to chtělo možná chtělo spíš třeba šestipin podobné konstrukce jen s menšími kontakty a tenčími přívody.
https://www.svetsoucastek.cz/silovy-konektor-zasuvka-amass-xt90-p59003/
Takový konektor by byl dokonce i o dost menší, než dvanáctipin. Jen by k tomu museli vést hodně tlusté dráty které by se asi špatně připojovaly a ohýbaly. Takže by to chtělo možná chtělo spíš třeba šestipin podobné konstrukce jen s menšími kontakty a tenčími přívody.
https://www.svetsoucastek.cz/silovy-konektor-zasuvka-amass-xt90-p59003/
Odpovědět0 0
To ale přeci není (celá) pravda. Ten nový konektor je ve standardu, protože ho tam (téměř jistě) protlačila nVidia. A přitom nebyl žádný technický důvod proč ho dělat nevhodně malý. Zvlášť když se člověk podívá, jak obludně velké dělá nVidia grafiky, aby je zvládla uchladit.
Jediná rozumná myšlenka na novém řešení je použít pro signalizaci jen malé piny místo těch masivních, které se používají na napájení. V osmipinu byly 2 silové kontakty zabrány signalizací. Sice mohli sloužit zároveň jako země, ale kdyby se jeden z nich nahradil napájecím napětím, mohl se výkon konektoru zvýšit o 33% bez změny zátěže kontaktů. Kdyby nový konektor vycházel konstrukčně z osmipinu, trochu se zvýšila zatížitelnost kontaktu a případně se přidal jeden napájecí pár, bylo by to určitě mnohem lepší než to nové dvanáctipinové tintítko.
Jediná rozumná myšlenka na novém řešení je použít pro signalizaci jen malé piny místo těch masivních, které se používají na napájení. V osmipinu byly 2 silové kontakty zabrány signalizací. Sice mohli sloužit zároveň jako země, ale kdyby se jeden z nich nahradil napájecím napětím, mohl se výkon konektoru zvýšit o 33% bez změny zátěže kontaktů. Kdyby nový konektor vycházel konstrukčně z osmipinu, trochu se zvýšila zatížitelnost kontaktu a případně se přidal jeden napájecí pár, bylo by to určitě mnohem lepší než to nové dvanáctipinové tintítko.
Odpovědět2 1
Tak v tomhle je Intel opravdu nevinně. Ten nový standard napájecího konektor pro grafiky vychází z 12pinového konektoru, který použila nVidia už u některých grafik řady 3000. Jen k němu byly ve standardu doplněny 4 malé signalizační piny. Ve sdružení PCIe-SIG, které standard oficiálně zastřešuje jsou, když nebudu počítat Intel, jen 2 výrobci grafik - nVidia a AMD. A protože AMD ani Intel ty konektory nepoužívají a jejich výroba grafik je proti nVidii malá (u Intelu zanedbatelná) není asi pochyb, kdo ten konektor jako standard protlačil. A to, že ho nVidia nevyrábí a nejspíš ani do technických detailů nenavrhla, není podstatné. Intel konektor jen přidal do ATX standardu napájecích zdrojů, který historicky spravuje, ale ono mu v podstatě nic jiného ani nezbylo, když ten standard v PCIe-SIG schválili. Je docela zajímavé se podívat na seznam nejvlivnějších firem v PCIe-SIG a pracovní zkušenosti jejich zástupců. Jsou to vetšinou lidi, kteří se zabývají oblastí řadičů a komunikačních protokolů a nějaké napájecí konektory jsou jim zřejmě úplně fuk, protože je používají jen výrobci grafik.
Jinak ta úprava kontaktů je jen snaha uhasit největší průser, ale ne koncepční řešení. Podle chování konektorů ve velmi důkladném testu na Hardware Unboxed není problém JEN v povytažení konektoru. Větší průšvih je, když není zachována SOUOSOST zásuvky a zástrčky. Protože přenést plnou zátěž 600w bez velkého zahřívání zvládaly i pouhé 2 kontakty ze 6-ti. Výkonová rezerva u 6-ti kontaktů je tedy asi celkem dostatečná.
Příčinou problémů je zjevně vyosení konektoru bočním tlakem, které způsobí pootevření pružných kontaktů zásuvky. Pak se totiž celý proud místo spojením po celé délce kolíku přenáší jen přes bodová spojení kontaktů zásuvky u paty a na druhé straně u špičky koliku zástrčky. Jenže identifikaci takového vyosení bohužel technicky nejde vyřešit signalizačním kolíkem.
Změnou konstrukce kontaktů v zásuvce se dosáhne jen toho, že se částečně přizpůsobit vyhnutí osy kolíku a udržet kontakt pokud možno na co největší délce kolíku. Ale to je pouze částečné řešení. Lepší by bylo použít masivnější konektor, jenže to by znamenalo změnu rozměrů a tedy i ztrátu zpětné kompatibility s těmi nyní už nasazenými konektory.
Možná by ale šlo udělat bez změny rozměrů aspoň pevnější zámek konektoru, který by tlačil zástrčku do zásuvky tak silně, aby jejich čela seděla pevně na sobě a bránilo se tak vyosení. Každopádně nVidia protlačením své nesmyslně malé verze konektoru ve standardizační organizaci PCIe-SIG nadělala ostatním celkem zbytečně dost problémů.
Pokud se uživatel chce vyhnout problémům měl by natvarovat a nejlépe i vyvázat přívodní dráty ke grafice tak, aby nevznikaly boční tlaky na konektor a tedy nebezpečí nesouososti zásuvky a zástrčky.
Jinak ta úprava kontaktů je jen snaha uhasit největší průser, ale ne koncepční řešení. Podle chování konektorů ve velmi důkladném testu na Hardware Unboxed není problém JEN v povytažení konektoru. Větší průšvih je, když není zachována SOUOSOST zásuvky a zástrčky. Protože přenést plnou zátěž 600w bez velkého zahřívání zvládaly i pouhé 2 kontakty ze 6-ti. Výkonová rezerva u 6-ti kontaktů je tedy asi celkem dostatečná.
Příčinou problémů je zjevně vyosení konektoru bočním tlakem, které způsobí pootevření pružných kontaktů zásuvky. Pak se totiž celý proud místo spojením po celé délce kolíku přenáší jen přes bodová spojení kontaktů zásuvky u paty a na druhé straně u špičky koliku zástrčky. Jenže identifikaci takového vyosení bohužel technicky nejde vyřešit signalizačním kolíkem.
Změnou konstrukce kontaktů v zásuvce se dosáhne jen toho, že se částečně přizpůsobit vyhnutí osy kolíku a udržet kontakt pokud možno na co největší délce kolíku. Ale to je pouze částečné řešení. Lepší by bylo použít masivnější konektor, jenže to by znamenalo změnu rozměrů a tedy i ztrátu zpětné kompatibility s těmi nyní už nasazenými konektory.
Možná by ale šlo udělat bez změny rozměrů aspoň pevnější zámek konektoru, který by tlačil zástrčku do zásuvky tak silně, aby jejich čela seděla pevně na sobě a bránilo se tak vyosení. Každopádně nVidia protlačením své nesmyslně malé verze konektoru ve standardizační organizaci PCIe-SIG nadělala ostatním celkem zbytečně dost problémů.
Pokud se uživatel chce vyhnout problémům měl by natvarovat a nejlépe i vyvázat přívodní dráty ke grafice tak, aby nevznikaly boční tlaky na konektor a tedy nebezpečí nesouososti zásuvky a zástrčky.
Odpovědět6 1
Tenhle princip se už dost dlouho používá pro měření saturace krve kyslíkem. Na kůži se bliká ledkami se 2 růzvými vlnovými délkami a podle poměrů množství pohlceného a odraženého světla těch dvou vlnových délek a jeho vývoje v čase se počítá množství kyslíku v krvi.
Měření kyslíku je jednodušší protože barva hemoglobinu se s kyslíkem mění velmi výrazně. S cukrem to bude větší problém, protože barvu krve asi moc neovlivňuje a je to poměrně statická veličina. Takže to hlavní kouzlo bude asi najít vlnové délky, které budou mírou ocukrování krve nejvíce a nejrozdílněji ovlivňovány. A pak z chování několika z nich udělat a zkalibrovat model odhadující množství cukru. A možná i korekce v závislosti na různých situacích. a dalších faktorech, které budou výsledky ovlivňovat. Třeba vykompenzovat právě ten obsah kyslíku.
Měření kyslíku je jednodušší protože barva hemoglobinu se s kyslíkem mění velmi výrazně. S cukrem to bude větší problém, protože barvu krve asi moc neovlivňuje a je to poměrně statická veličina. Takže to hlavní kouzlo bude asi najít vlnové délky, které budou mírou ocukrování krve nejvíce a nejrozdílněji ovlivňovány. A pak z chování několika z nich udělat a zkalibrovat model odhadující množství cukru. A možná i korekce v závislosti na různých situacích. a dalších faktorech, které budou výsledky ovlivňovat. Třeba vykompenzovat právě ten obsah kyslíku.
Odpovědět0 0
Ta malá iGPU z ryzenů 7000 bude zřejmě i po přetaktování o něco slabší, než ta z 2400G. Ale třeba na tanky (WoT) v nízkých detailech bych se jí nebál, protože jejich benchmark i na střední kvalitu hodnotí iGPU z 2400G jako velmi slušnou grafiku.
Ale protože nepotřebuji vysoký výkon (max osmijádro) tak bych, kdybych nespěchal, počkal na 6800G. Nebo ještě raději na 7040G, jejíž iGPU by (podle testů zatím dostupných modelů) mohla být někde na 2/3 výkonu rx580 při zlomku její (hlavně klidové) spotřeby. A kdybych spěchal tak jdu do 5700G s nějakou rozumně rychlou pamětí.
Ale protože nepotřebuji vysoký výkon (max osmijádro) tak bych, kdybych nespěchal, počkal na 6800G. Nebo ještě raději na 7040G, jejíž iGPU by (podle testů zatím dostupných modelů) mohla být někde na 2/3 výkonu rx580 při zlomku její (hlavně klidové) spotřeby. A kdybych spěchal tak jdu do 5700G s nějakou rozumně rychlou pamětí.
Odpovědět1 1
Já vím, že když se člověk zbytečně nestresuje zobrazováním fps, tak iGPU stačí na ledacos :-). Měl jsem doma starého ryzena 2400G, na jehož iGPU s ram 3200MHz jsem občas hrál na 1920x1080 World od Warplanes s implicitním nastavením a na nízké detaily i Kingdom Come Deliverance.
Před čase ho nahradil ryzen 5600G. Jeho iGPU na přetaktovaných a poladěných pamětech (3200=>4200MHz) dává SoTR v 1920x1080 na nejnižší detaily s průměr 46 a minimem 42 fps při spotřebě procesoru kolem 70W . To mi stačí a tak do počítadla ani nestrkám rx580, kterou mám v šuplíku. Ta by zvládla malování podstatně rychleji a lépe, ale to zlepšení mi nestojí za to.
Před čase ho nahradil ryzen 5600G. Jeho iGPU na přetaktovaných a poladěných pamětech (3200=>4200MHz) dává SoTR v 1920x1080 na nejnižší detaily s průměr 46 a minimem 42 fps při spotřebě procesoru kolem 70W . To mi stačí a tak do počítadla ani nestrkám rx580, kterou mám v šuplíku. Ta by zvládla malování podstatně rychleji a lépe, ale to zlepšení mi nestojí za to.
Odpovědět0 0
Asi bych nemluvil o nouzovém GPU, ale o základním GPU. Tomu, kdo na počítači nehraje hry, tohle iGPU bude stačit víc, než dostatečně.
Na hraní to ale opravdu není. Zvládne nanejvýš staré, nebo e-sport hry. Ale víc od toho asi nikdo nečeká.
Na hraní to ale opravdu není. Zvládne nanejvýš staré, nebo e-sport hry. Ale víc od toho asi nikdo nečeká.
Odpovědět1 1
Mnozstvi pro iGPU alokovatelne pameti zavisi vetsinou na biosu a na velikosti ram. Ram pro igpu se standardne nechava alokovat dynamicky, ale jde nastavit i rucne na max 1/2 celkove ram. Podle testu nema rucni nastaveni moc vliv na fps.
Ale nektere (asi hlavne starsi) hry nemuseji s dynamickym pridelovanim vram pocitat. Treba benchmark Worl of Tanks bez rucniho nastaveni dostatecne velke vram neni ochoten bezet na vysokou kvalitu.
Narocnejsi hry nema smysl na igpu tlacit do vysokych detailu a rozliseni, proto jim staci relativne malo pameti a alokovani dalsi nema moc smysl viz https://m.youtube.com/watch?v=16aoO9hv4Noq
Ale nektere (asi hlavne starsi) hry nemuseji s dynamickym pridelovanim vram pocitat. Treba benchmark Worl of Tanks bez rucniho nastaveni dostatecne velke vram neni ochoten bezet na vysokou kvalitu.
Narocnejsi hry nema smysl na igpu tlacit do vysokych detailu a rozliseni, proto jim staci relativne malo pameti a alokovani dalsi nema moc smysl viz https://m.youtube.com/watch?v=16aoO9hv4Noq
Odpovědět0 0
Koukam, ze v tomhle clanku asi radil nejaky sotek. Chybi info z jakeho testu ta skore 780M jsou. A i ty hodnoty jsou divne. Zatim jsem nasel vsude (i v na konci clanku citovanych zdrojich) jen graficke skore z 3D Mark Time Spy. A vsechny zdroje uvadeji o hodne vyssi skore, pro 54w 3146 bodu a pro 25w 2780 bodu, coz (pry) odpovida urovni mobilni 2050, nebo skoro 2/3 grafiky rx580.
Odpovědět1 0
Nerad vam kazim vytvareni iluzi, ale druha generace samostatnych grafik Intel se nepripravuje, nybrz se prave prodava ;-). Ta pripravovana generace tedy neni druha, ale uz treti.
Prvni generace (viz https://en.m.wikipedia.org/wiki/Intel_Xe ) byla Xe s kodovym oznacenim nejdriv Arctic Sound a pak DG1. Oznamena byla v polovine roku 2018 a teoreticky vydana v listopadu 2020, ale jen pro uzemi Ciny. Prakticky oznamena OEM partnerum v lednu 2021. Zajem o ni byl minimalni, ale pry snad Acer s ni dokonce zkusil udelat i samostatnou grafiku. Ale do bezneho prodeje se nikdy nedostala. Nemela o moc lepsi vykon, nez ty integrovane v procesorech, a hlavne nesla pouzit v beznych pcie konektorech. Pro fungovani vyzadovala zakladni desku od Intelu se specialnim konektorem.
Druhou generaci mela byt ta aktualni s kodovym oznacenim DG2. Jenze marketig Intelu se snazil (a vy mu v tom udatne sekundujete), aby se predchozi debakl zametl pod koberec a zapomnel. Proto zacal Intel pouzivat nove kodove oznaceni a opet od A. Tak vznikl nazev Arc, ktery ma vyvolat zdani prvni generace.
Prvni generace (viz https://en.m.wikipedia.org/wiki/Intel_Xe ) byla Xe s kodovym oznacenim nejdriv Arctic Sound a pak DG1. Oznamena byla v polovine roku 2018 a teoreticky vydana v listopadu 2020, ale jen pro uzemi Ciny. Prakticky oznamena OEM partnerum v lednu 2021. Zajem o ni byl minimalni, ale pry snad Acer s ni dokonce zkusil udelat i samostatnou grafiku. Ale do bezneho prodeje se nikdy nedostala. Nemela o moc lepsi vykon, nez ty integrovane v procesorech, a hlavne nesla pouzit v beznych pcie konektorech. Pro fungovani vyzadovala zakladni desku od Intelu se specialnim konektorem.
Druhou generaci mela byt ta aktualni s kodovym oznacenim DG2. Jenze marketig Intelu se snazil (a vy mu v tom udatne sekundujete), aby se predchozi debakl zametl pod koberec a zapomnel. Proto zacal Intel pouzivat nove kodove oznaceni a opet od A. Tak vznikl nazev Arc, ktery ma vyvolat zdani prvni generace.
Odpovědět0 0
To zlevňování u Intelu asi nebude bez důvodu a z lásky k uživatelům ho určitě nedělají. Zvlášť, když člověk uváží jejich katastrofalni aktuální i na Q1 očekávané hospodářské výsledky.
Odpovědět0 0
Raději knihu ;-) :-D
Odpovědět2 0
Jo, jo, zvlast v porovnani s uspechy konkurence je to takovy trapas, ze by to meli okamzite zabalit a nepustit ven ani pin ;-).
Odpovědět5 0
Dávat HBM pro grafiku integrovanou v procesoru by bylo dost plýtvání zdroji. Rychlosti chystaných DDR5 jsou velmi slušné. Třeba DDR5 na 10Gb/s dá propustnost 160GB/s, což dá na sběrnici 2x64=128 bitů 44% propustnosti paměti karty rtx3060, 71% karty rtx3050 a 62% propustnosti 1 čipu HBM2. Reálnou propustnost by šlo ještě výrazně zvýšit využitím Infinity Cache (IC),. Ale to, že chystaný Phoneix nemá IC ukazuje, že propustnost DDR5 u něj nebude (při výkonu té integrované grafiky) zásadním omezením.
Prostor pro přifukování propustnosti pomocí InfinityCache (IC) je přitom docela velký. Mezi RDNA2 a RDNA3 se propustnost IC zvedla přibližně 2,5x a blíží se k 5 TB/s. Kolik z téhle propustnosti IC se přidá k propustnosti DDR5 je dáno úspěšností nalezení dat v IC (hit rate). Ta závisí na poměru velikosti grafické paměti a vyrovnávací paměti IC a taky na strategii práce s ní.
U RDNA2 karet řady rx5000 byla IC navržena tak, že propustnost kombinace GDDR+IC se zvýšila 3,2x proti samotně GDDR. Kdyby se pomocí IC pro integrovanou grafiku propustnost kombinace DDR5+IC zvýšila 3x, jsme na 480GB/s, což je víc než je propustnost GDDR u karty rtx3070 (448GB/s). I když tohle porovnání není úplně košér, protože i nVidia karty používají vyrovnávací paměti na GPU čipu a i u nich díky tomu tedy dojde ke zvýšení efektivní propustnosti kombinace GDDR+cache paměti. Ale přínos použití IC proti integrované grafice běžící jen na samotné DDR5 může být značný.
Ideální by bylo, aby nešlo o vyhrazenou vyrovnávací paměť pro grafiku, ale o systémovou vyrovnávací paměť společnou pro CPU a GPU, aby byl křemík využitý nejen ve hrách, ale i v běžných aplikacích. Jenže způsob využívání se bude v obou těchto režimech lišit a aby byla vyrovnávací paměť optimálně využitá , bude řízení asi náročnější. V tom by možná mohl pomoci ten křemík pro akceleraci umělé inteligence od Xilinxu.
Prostor pro přifukování propustnosti pomocí InfinityCache (IC) je přitom docela velký. Mezi RDNA2 a RDNA3 se propustnost IC zvedla přibližně 2,5x a blíží se k 5 TB/s. Kolik z téhle propustnosti IC se přidá k propustnosti DDR5 je dáno úspěšností nalezení dat v IC (hit rate). Ta závisí na poměru velikosti grafické paměti a vyrovnávací paměti IC a taky na strategii práce s ní.
U RDNA2 karet řady rx5000 byla IC navržena tak, že propustnost kombinace GDDR+IC se zvýšila 3,2x proti samotně GDDR. Kdyby se pomocí IC pro integrovanou grafiku propustnost kombinace DDR5+IC zvýšila 3x, jsme na 480GB/s, což je víc než je propustnost GDDR u karty rtx3070 (448GB/s). I když tohle porovnání není úplně košér, protože i nVidia karty používají vyrovnávací paměti na GPU čipu a i u nich díky tomu tedy dojde ke zvýšení efektivní propustnosti kombinace GDDR+cache paměti. Ale přínos použití IC proti integrované grafice běžící jen na samotné DDR5 může být značný.
Ideální by bylo, aby nešlo o vyhrazenou vyrovnávací paměť pro grafiku, ale o systémovou vyrovnávací paměť společnou pro CPU a GPU, aby byl křemík využitý nejen ve hrách, ale i v běžných aplikacích. Jenže způsob využívání se bude v obou těchto režimech lišit a aby byla vyrovnávací paměť optimálně využitá , bude řízení asi náročnější. V tom by možná mohl pomoci ten křemík pro akceleraci umělé inteligence od Xilinxu.
Odpovědět0 0
Odkaz na obrázek uvedený autorem v diskuzi mi nefunguje, ale google našel ten ze stránky https://www.hifglobal.com/hif-usa. Ale tam informaci, že se syntetické palivo dělá z metanolu a že z 350t metanolu vznikne 200t vody a jen 150t paliva, nikde nevidím.
A těch 350 tun eMetanolu opravdu není meziprodukt, ale koncové e-palivo viz kapitola The eFuels production process v dokumentu https://www.hifglobal.com/docs/default-source/default-document-library/press-release---first-liters-hif-haru-oni.pdf?sfvrsn=8b9c47f6_9. Porshe asi píše jen o tech 130 tis. litrů benzínu, protože motory jejich aut metanol nezvládnou využít, ale reálně se e-paliva vyrobí opravdu 4,6x více než autor ve svých výpočtech uvažuje (viz můj příspěvek výše).
Pro ty, co nechtějí hledat v odkazech shrnu informace z dokumentu zmíněného v předchozím odstavci. A přidám tam i pár informací z velmi dobrého textu o výrobě syntetických paliv ze serveru tzb-info, kde se profíci zabývají mimo jiné vytápěním budov a možnými zdroji paliv a energie viz https://oze.tzb-info.cz/akumulace-elektriny/20711-synteticka-paliva-power-to-gas-power-to-liquid-vyroba-a-ucinnost.
Tu výrobu syntetických paliv v Chile neřeší Porsche, ale firma Haru Oni. Dělají se přímou syntézou z vodíku vyrobeného elektrolýzou vody a z CO2 zachyceného ze vzduchu. Vyrábějí CO2 neutrální paliva (e-paliva) - eMethanol (metanol), eGasoline (benzín) a eLG (zkapalněmý plyn). V prvním roce provozu (2023) se předpokládá výroba 350t eMetanolu a 130 tis. litrů benzínu eGasoline. Výroba ve velkém má začít až v březnu, proto by roční produkce přepočtená na celý rok měla být ještě o 17% vyšší. A to ještě možná ani nebude finální kapacita instalovaných zařízení.
Pokud výrobce někde uvádí (já to nenašel), že předpokládá výrobní náklady 2usd/l eBenzínu, tak asi nezbude, než mu věřit. Že to není prodejní cena na pumpách je jasné asi každému. To, že cílená výrobní cena eBenzínu se blíží aktuální prodejní ceně běžného benzinu na našich pumpách jsem zmínil jen proto, abych zdůraznil, že reálná výrobní cena asi nebude úplně nesmyslná a že vypočítaný odhad výrobní ceny 19usd/l bude nejspíš poněkud mimo.
Ještě poznámka k porovnávání spotřeby benzínového a elektrického Porche. Vůbec nepochybuji, že se dá s Porche 911 jezdit za 12, nebo klidně i 30 litrů. Těch 6,7 litrů spotřeby z mého odkazu bylo (podle titulku) dosaženo v běžném provozu, takže to není žádná nesmyslná hodnota. Ten rozdíl ve spotřebách je jen ukázka zhovadilosti naší civilizace. Náš problém není v tom, že neumíme vyrábět levně syntetická paliva, ale v tom, že naprosto nesmyslně spotřebováváme zdroje a ničíme přírodu své planety.
I v podstatě malé auto jako Škoda Fabia má přes tunu a v naprosté většině případů z každodenního života v něm jezdí jeden člověk. Z celkové přepravované hmotnosti je tedy užitečný náklad jen kolem 8%. A to nemluvím o nesmyslném trendu zvyšování hmotnosti a rozměrů (a tedy i aerodynamických ztrát) aut. Třeba váha Kodiaqa s řidičem se blíží 2 tunám a užitečný náklad jedné osoby je pouze 5%. Přitom malé auto pro max 2 osoby s hmotností 500 kg pro naprostou většinu užití stačí a užitečná hmotnost jedné osoby je 17%.
Pokud bychom se měli chovat ekologicky, byla by potřeba k zásadní změna uvažování a nastavení pravidel dopravy snižujících potřebu energií. To by vyžadovalo zásadní omezení individuální dopravy, posílení hromadné dopravy a sdílení vozidel, omezení jejich hmotnosti, rozměrů i rychlosti. A to nebudou moc populární opatření, které budou chtít politici a vlivní lidé prosazovat. I proto, že sami většinou jezdí v těžkých nenažraných tancích, aby demonstrovali svou důležitost.
Hezkou ukázkou toho, jak to rozhodování mocných reálně funguje, je rozhodnutí nejvyššího soudu ohledně viny v případě překročení maximální rychlosti. Když člověk vjede na okrese do křižovatky a sestřelí ho hovado, které se ve svém tanku přiřítí rychlostí 150 km/h, je viníkem nehody ten, kdo vjel do křižovatky. Protože dokud nepřekročí dovolenou rychlost o víc než 70% je to prý v pořádku a ten kdo vjel do křižovatky způsobil nehodu, protože toho projíždějícího nepřiměřeně omezil.
A těch 350 tun eMetanolu opravdu není meziprodukt, ale koncové e-palivo viz kapitola The eFuels production process v dokumentu https://www.hifglobal.com/docs/default-source/default-document-library/press-release---first-liters-hif-haru-oni.pdf?sfvrsn=8b9c47f6_9. Porshe asi píše jen o tech 130 tis. litrů benzínu, protože motory jejich aut metanol nezvládnou využít, ale reálně se e-paliva vyrobí opravdu 4,6x více než autor ve svých výpočtech uvažuje (viz můj příspěvek výše).
Pro ty, co nechtějí hledat v odkazech shrnu informace z dokumentu zmíněného v předchozím odstavci. A přidám tam i pár informací z velmi dobrého textu o výrobě syntetických paliv ze serveru tzb-info, kde se profíci zabývají mimo jiné vytápěním budov a možnými zdroji paliv a energie viz https://oze.tzb-info.cz/akumulace-elektriny/20711-synteticka-paliva-power-to-gas-power-to-liquid-vyroba-a-ucinnost.
Tu výrobu syntetických paliv v Chile neřeší Porsche, ale firma Haru Oni. Dělají se přímou syntézou z vodíku vyrobeného elektrolýzou vody a z CO2 zachyceného ze vzduchu. Vyrábějí CO2 neutrální paliva (e-paliva) - eMethanol (metanol), eGasoline (benzín) a eLG (zkapalněmý plyn). V prvním roce provozu (2023) se předpokládá výroba 350t eMetanolu a 130 tis. litrů benzínu eGasoline. Výroba ve velkém má začít až v březnu, proto by roční produkce přepočtená na celý rok měla být ještě o 17% vyšší. A to ještě možná ani nebude finální kapacita instalovaných zařízení.
Pokud výrobce někde uvádí (já to nenašel), že předpokládá výrobní náklady 2usd/l eBenzínu, tak asi nezbude, než mu věřit. Že to není prodejní cena na pumpách je jasné asi každému. To, že cílená výrobní cena eBenzínu se blíží aktuální prodejní ceně běžného benzinu na našich pumpách jsem zmínil jen proto, abych zdůraznil, že reálná výrobní cena asi nebude úplně nesmyslná a že vypočítaný odhad výrobní ceny 19usd/l bude nejspíš poněkud mimo.
Ještě poznámka k porovnávání spotřeby benzínového a elektrického Porche. Vůbec nepochybuji, že se dá s Porche 911 jezdit za 12, nebo klidně i 30 litrů. Těch 6,7 litrů spotřeby z mého odkazu bylo (podle titulku) dosaženo v běžném provozu, takže to není žádná nesmyslná hodnota. Ten rozdíl ve spotřebách je jen ukázka zhovadilosti naší civilizace. Náš problém není v tom, že neumíme vyrábět levně syntetická paliva, ale v tom, že naprosto nesmyslně spotřebováváme zdroje a ničíme přírodu své planety.
I v podstatě malé auto jako Škoda Fabia má přes tunu a v naprosté většině případů z každodenního života v něm jezdí jeden člověk. Z celkové přepravované hmotnosti je tedy užitečný náklad jen kolem 8%. A to nemluvím o nesmyslném trendu zvyšování hmotnosti a rozměrů (a tedy i aerodynamických ztrát) aut. Třeba váha Kodiaqa s řidičem se blíží 2 tunám a užitečný náklad jedné osoby je pouze 5%. Přitom malé auto pro max 2 osoby s hmotností 500 kg pro naprostou většinu užití stačí a užitečná hmotnost jedné osoby je 17%.
Pokud bychom se měli chovat ekologicky, byla by potřeba k zásadní změna uvažování a nastavení pravidel dopravy snižujících potřebu energií. To by vyžadovalo zásadní omezení individuální dopravy, posílení hromadné dopravy a sdílení vozidel, omezení jejich hmotnosti, rozměrů i rychlosti. A to nebudou moc populární opatření, které budou chtít politici a vlivní lidé prosazovat. I proto, že sami většinou jezdí v těžkých nenažraných tancích, aby demonstrovali svou důležitost.
Hezkou ukázkou toho, jak to rozhodování mocných reálně funguje, je rozhodnutí nejvyššího soudu ohledně viny v případě překročení maximální rychlosti. Když člověk vjede na okrese do křižovatky a sestřelí ho hovado, které se ve svém tanku přiřítí rychlostí 150 km/h, je viníkem nehody ten, kdo vjel do křižovatky. Protože dokud nepřekročí dovolenou rychlost o víc než 70% je to prý v pořádku a ten kdo vjel do křižovatky způsobil nehodu, protože toho projíždějícího nepřiměřeně omezil.
Odpovědět0 0
Oceňuji (bez ironie) snahu napočítat nějaké ekonomické ukazatele, byť z minima podkladů. Když se nad tím člověk důkladněji zamyslí, tak je jasné, že v těch úvahách a výpočtech musí být někde chyba.
Kdyby litr paliva vyšel na 19usd/430czk, tak by nemělo smysl něco takového vůbec dělat. Další indicie chyby je údajné očekávání poklesu výrobních nákladů na 2 usd/l = 46 kč /l , což odpovídá aktuálním cenám na pumpách. To by byl proti 19usd/l z autorova výpočtu pokles výrobních nákladů téměř o jeden řád. Ano, dá se čekat, že zkušební výroba bude dražší, ale nevím, co by se muselo stát, aby došlo k poklesu nákladů o 90%.
První, co mne praštilo do oči, byla údajná spotřeba benzínového Porshe 11,4 l/100km. Říkal jsem si, že není možné, aby takové lehké, aerodynamické auto mělo spotřebu jak tank. Leda by s ním někdo jezdil opravdu jako hovado. Tak jsem zkusil jsem trochu počítat. Litr benzínu má výhřevnost (obsahuje energii) 8,9kWh. Při té udávané spotřebě v litrech by byla spotřeba 101,3kWh/100 km. V porovnání s údajnou spotřebou srovnatelného auta 27,3 kwh/100km to vypadá brutálně. Jenže účinnost (práce na výstupu / energie v palivu) spalovacího motoru s tubem je asi 35%, 2/3 se přemění na ztráty třením a teplo odváděné chlazením. Takže na pohon vozu by zbývalo 35,5 kwh/100km. To je 1,3x víc, než údajná spotřeba toho elektrického Porche. A i kdyby v účinosti motoru nebyla započtena převodovka, tak o 30% větší reálná spotřeba energie na hřídeli motoru je strašně moc. Ještě jsem si našel reálnou spotřebu Porche 911 v běžném provozu. Je 6,7l/100km, což je skoro poloviční, než s jakou počítá autor. Ještě odkaz na ten test https://www.auto.cz/porsche-911-carrera-spotreba-6-7-l-100-km-v-realnem-provozu-5926
Ale to není hlavní problém výpočtu. Kouknul jsem na zdroje a nejpodstatnější jsou údaje z https://www.hifglobal.com/haru-oni. Někde uprostřed stránky jsou technické údaje projektu. A jsou tam 2 problémy. První je nepoměr mezi kapacitou výkonu větrníku 3,4MW a příkonem elektrolyzéru 1,2MW. Předpokládám, že ten bude hlavním spotřebitelem energie a měl by být dimenzován (téměř) na výkon zdroje energie, Blízko ohňové země na jižním konci Ameriky totiž fouká téměř stále a asi bude ekonomicky lepší mít předimenzovanou elektrolýzu, než vyrovnávat kolísání výkonu bateriemi. Vypadá to, že produkce paliva je aktuální stav a zatím se energie z větrníku nevyužívá celá.
Ale hlavní problém je v tom, že autor uvažuje jen 130 tisíc litrů benzínu, což je asi 97,5 tuny. A neřeší 350 tun metanolu uvedeného ve specifikacích. Což je (téměř) jistě koncový produkt a ne meziprodukt. Už kvůli zákonu zachování energie není moc reálné, že by se z 350 tun metylu vyrobilo jen 97 tun benzínu. Takže paliva se (i v této úvodní fázi) bude produktovat 4,6x více, než s čím autor počítá.
Kdyby litr paliva vyšel na 19usd/430czk, tak by nemělo smysl něco takového vůbec dělat. Další indicie chyby je údajné očekávání poklesu výrobních nákladů na 2 usd/l = 46 kč /l , což odpovídá aktuálním cenám na pumpách. To by byl proti 19usd/l z autorova výpočtu pokles výrobních nákladů téměř o jeden řád. Ano, dá se čekat, že zkušební výroba bude dražší, ale nevím, co by se muselo stát, aby došlo k poklesu nákladů o 90%.
První, co mne praštilo do oči, byla údajná spotřeba benzínového Porshe 11,4 l/100km. Říkal jsem si, že není možné, aby takové lehké, aerodynamické auto mělo spotřebu jak tank. Leda by s ním někdo jezdil opravdu jako hovado. Tak jsem zkusil jsem trochu počítat. Litr benzínu má výhřevnost (obsahuje energii) 8,9kWh. Při té udávané spotřebě v litrech by byla spotřeba 101,3kWh/100 km. V porovnání s údajnou spotřebou srovnatelného auta 27,3 kwh/100km to vypadá brutálně. Jenže účinnost (práce na výstupu / energie v palivu) spalovacího motoru s tubem je asi 35%, 2/3 se přemění na ztráty třením a teplo odváděné chlazením. Takže na pohon vozu by zbývalo 35,5 kwh/100km. To je 1,3x víc, než údajná spotřeba toho elektrického Porche. A i kdyby v účinosti motoru nebyla započtena převodovka, tak o 30% větší reálná spotřeba energie na hřídeli motoru je strašně moc. Ještě jsem si našel reálnou spotřebu Porche 911 v běžném provozu. Je 6,7l/100km, což je skoro poloviční, než s jakou počítá autor. Ještě odkaz na ten test https://www.auto.cz/porsche-911-carrera-spotreba-6-7-l-100-km-v-realnem-provozu-5926
Ale to není hlavní problém výpočtu. Kouknul jsem na zdroje a nejpodstatnější jsou údaje z https://www.hifglobal.com/haru-oni. Někde uprostřed stránky jsou technické údaje projektu. A jsou tam 2 problémy. První je nepoměr mezi kapacitou výkonu větrníku 3,4MW a příkonem elektrolyzéru 1,2MW. Předpokládám, že ten bude hlavním spotřebitelem energie a měl by být dimenzován (téměř) na výkon zdroje energie, Blízko ohňové země na jižním konci Ameriky totiž fouká téměř stále a asi bude ekonomicky lepší mít předimenzovanou elektrolýzu, než vyrovnávat kolísání výkonu bateriemi. Vypadá to, že produkce paliva je aktuální stav a zatím se energie z větrníku nevyužívá celá.
Ale hlavní problém je v tom, že autor uvažuje jen 130 tisíc litrů benzínu, což je asi 97,5 tuny. A neřeší 350 tun metanolu uvedeného ve specifikacích. Což je (téměř) jistě koncový produkt a ne meziprodukt. Už kvůli zákonu zachování energie není moc reálné, že by se z 350 tun metylu vyrobilo jen 97 tun benzínu. Takže paliva se (i v této úvodní fázi) bude produktovat 4,6x více, než s čím autor počítá.
Odpovědět1 1
Jen pro jistotu dodam, ze ta spotreba nezavisi na rychlosti jen teoreticky za predpokladu, ze se neuplatni vetsi nez linearni (maximakne kvadraticky) narust odporu vzduchu v dusledku nelaminarniho proudeni. Coz pro rychlost 120km/h uz temer jiste neplati a tak spotreba pri 120 bude o neco vyssi nez pri 60. Holt jsem zvolil u toho procesoru prilis vysoke prikony a tak mi ta alegorie ponekud kulha.
Odpovědět0 0
Jeste jsem vynechal problematiku spotreby a udajnou paralelu mezi spotrebou aut a procesoru. A to by byla skoda. Hezky totiz ukazuje, jak to dopadne, kdyz se clovek zacne ridit "selskym rozumem", misto aby premyslel o (fyzikalni) podstate.
Zacnu u spotreby a efektivity procesoru. To je hodne zajimava a diskutivana oblast, ale o dost osidnejsi nez auta. Fyzikalni deje, ktere spotrebu cpu ovlivnuji se totiz neuci na zahladce a tak jsou diskuze plne dojmu a "selskych rozumu".
Ale zpatky k tematu. Argumentace spotrebou procesoru ukazuje osidnost obecneho jazyka. To ze auto ma spotrebu a procesor ma taky spotrebu bude jasne asi temer kazdemu. A ze stejnosti nazvu v obecnem jazyce snadno vznikne (zcela mylny) pocit,ze jde o to same. Ale fyzikalne jde o neco zcela jineho - v jednom pripade o vykon v (k)W a ve druhem o energii/praci v kWh merene v podobe litru paliva na ujeti 100km.
Spotreba procesoru je fyzikalne (elektricky) vykon a meri se v (k)W. Z pohledu jednotek jde tedy o stejny TYP veliciny jako je vykon motoru, tedy o neco zcela jineho, nez je spotreba motoru. U cpu merime vykon dodany na vstup, u motoru je to vykon odebirany z vystupu.
Z hlediska fyziky je ale mezi motorem a cpu jeden zasadni rozdil. I kdyz to nekteri odmitaji chapat ;-), tak procesor sice ma stejne jako motor nejaky prikon, ale na rozdil od motoru nedava zadny uzitecny (fyzikalni) vykon. Vsechna energie dodana procesoru se premeni na teplo, ktere se musi odvest chlazenim. A to, ze pritom vygeneruje par nul a jednicek, ktere pivazujeme za pro nas uzitecne je z fyzikalniho pohledu zcela nezajimave.
Da se merit jen kolik energie/prace [kWh] se propali na vykonani nejake vypocetni ulohy. A kdyz to procesoru se spotrebou 60W trva hodinu a druhemu se spotrebou 120W pul hodinu spotrebuji oba stejne energie. Jen to tomu prvnimu trva 2x dele.
Tak zpatky k motoru. Jeho vykon se meri na motorove brzde a udava se v kW. Ale prikon ve stejnych jednotkach by se da merit spatne a jen neprimo. Navic pro bezne lidi je to velicina zcela nezajimava. Pro ne je podstatne kolik paliva a tedy i korun je stoji ujeti nejake vzdalenosti.
Proto se spotreba auta neudava v (k)W jako u procesoru, ale v litrech na 100 km. A tohle mnostvi paliva se da pres vyhrevnost prepocitat na vyuzitelnou energii/praci [kWh], ktera pri spalovani paliva otaci motorem. Podobne jako se prepocitava kubik plynu na vytaoeni na kWh.
Tech (teoretickych) 100km slouzi u auta ke stejnemu ucelu jako merici vypocetni uloha u procesoru. Pokud auto spotrebuje 6 litru paliva na 100km je (podobne jako u procesoru) jedno, jestli jede pri nejakem vykonu motiru rychlosti 60km/h celou 1 hodinu, nebo s dvojnasobnym vykonem motoru 2x vyssi rychlosti 120km/h jen pulhodinu.
Zacnu u spotreby a efektivity procesoru. To je hodne zajimava a diskutivana oblast, ale o dost osidnejsi nez auta. Fyzikalni deje, ktere spotrebu cpu ovlivnuji se totiz neuci na zahladce a tak jsou diskuze plne dojmu a "selskych rozumu".
Ale zpatky k tematu. Argumentace spotrebou procesoru ukazuje osidnost obecneho jazyka. To ze auto ma spotrebu a procesor ma taky spotrebu bude jasne asi temer kazdemu. A ze stejnosti nazvu v obecnem jazyce snadno vznikne (zcela mylny) pocit,ze jde o to same. Ale fyzikalne jde o neco zcela jineho - v jednom pripade o vykon v (k)W a ve druhem o energii/praci v kWh merene v podobe litru paliva na ujeti 100km.
Spotreba procesoru je fyzikalne (elektricky) vykon a meri se v (k)W. Z pohledu jednotek jde tedy o stejny TYP veliciny jako je vykon motoru, tedy o neco zcela jineho, nez je spotreba motoru. U cpu merime vykon dodany na vstup, u motoru je to vykon odebirany z vystupu.
Z hlediska fyziky je ale mezi motorem a cpu jeden zasadni rozdil. I kdyz to nekteri odmitaji chapat ;-), tak procesor sice ma stejne jako motor nejaky prikon, ale na rozdil od motoru nedava zadny uzitecny (fyzikalni) vykon. Vsechna energie dodana procesoru se premeni na teplo, ktere se musi odvest chlazenim. A to, ze pritom vygeneruje par nul a jednicek, ktere pivazujeme za pro nas uzitecne je z fyzikalniho pohledu zcela nezajimave.
Da se merit jen kolik energie/prace [kWh] se propali na vykonani nejake vypocetni ulohy. A kdyz to procesoru se spotrebou 60W trva hodinu a druhemu se spotrebou 120W pul hodinu spotrebuji oba stejne energie. Jen to tomu prvnimu trva 2x dele.
Tak zpatky k motoru. Jeho vykon se meri na motorove brzde a udava se v kW. Ale prikon ve stejnych jednotkach by se da merit spatne a jen neprimo. Navic pro bezne lidi je to velicina zcela nezajimava. Pro ne je podstatne kolik paliva a tedy i korun je stoji ujeti nejake vzdalenosti.
Proto se spotreba auta neudava v (k)W jako u procesoru, ale v litrech na 100 km. A tohle mnostvi paliva se da pres vyhrevnost prepocitat na vyuzitelnou energii/praci [kWh], ktera pri spalovani paliva otaci motorem. Podobne jako se prepocitava kubik plynu na vytaoeni na kWh.
Tech (teoretickych) 100km slouzi u auta ke stejnemu ucelu jako merici vypocetni uloha u procesoru. Pokud auto spotrebuje 6 litru paliva na 100km je (podobne jako u procesoru) jedno, jestli jede pri nejakem vykonu motiru rychlosti 60km/h celou 1 hodinu, nebo s dvojnasobnym vykonem motoru 2x vyssi rychlosti 120km/h jen pulhodinu.
Odpovědět0 0
Koukam, ze mi v jednom z poskednich odstavcu vypadl cas, a ze by se ta myslenka dala formulovat i lepe. Tak opravuji.
Pri seslapnuti plynu (az na podlahu) bude vuz zrychlovat. A to tak dlouho, az zacne byt prebytek vykonu (mineno nad ztratami zpusobenymi odpory) tak maly, ze auto (temer) nezrychluje a dosahne tedy (v danych podminkach) maximalni rychlosti.
Pri seslapnuti plynu (az na podlahu) bude vuz zrychlovat. A to tak dlouho, az zacne byt prebytek vykonu (mineno nad ztratami zpusobenymi odpory) tak maly, ze auto (temer) nezrychluje a dosahne tedy (v danych podminkach) maximalni rychlosti.
Odpovědět0 0
Dovolim si podotknout ;-), ze kWh je (pomocnou) jednotkou prace/energie, a ze jednotkou objemu je m3. Ta hodina je tam proto, ze se tahle forma vyjadreni pouziva pri pocitani (integraci) celkove energie (casto, ale nejen elektricke) dodane zdrojem o urcitem vykonu [kW] za urcitou dobu [h].
Odpovědět0 0
Dovolim si podotknout ;-), ze kWh je (pomocnou) jednotkou prace/energie, a ze jednotkou objemu je m3. Ta hodina je tam proto, ze se tahle forma vyjadreni pouziva pri pocitani (integraci) celkove energie (casto, ale nejen elektricke) dodane zdrojem o urcitem vykonu [kW] za urcitou dobu [h].
Odpovědět0 0
Tenhle web mam docela rad, protoze je nejen pocitacovy, ale do znacne miry i veseobecne technicky. Protoze jsem delal radu let v mediich a psal i technicke testy pro jeden nejmenovany tydenik, tak dobre vim, ze vetsinou neni moc casu na psani dokonalych clanku a dukladne overovani vsech faktu.
Ani neni mym cilem si honit na neci ukor triko a (pripadne i) zvysovat miru naranosti vesmiru ;-). Ale kdyz vidim nekde tvrzeni, ktere je mimo realitu, tak mi to obcas neda. I proto, ze vim, ze dost lidi muze takovy nesmysl sirit dal :-O. Uznavam, ze me upozorneni, ze tema prace a vykon jsou ucivo zakladni skoly, mohlo byt diplomatictejsi a za netaktnost se omlouvam. Ale na nesmyslonosti nekterych tvrzeni to nic nemeni.
Zabijet cas psanim textu na virtualni klavesnici mobilu v prtavem okenku, kdyz je jasne, ze to precte jen par lidi se mi moc nechce. Bylo by to spis na popularizacni clanek pro sirsi publikum. Tak aspon v kostce.
Vyvozovat z technickych specifikaci mezi maximalnim vykonem motoru a maximalni (cestoni) ryclosti funkcni (fyzikalni) zavislost chce opravdu dost odvahy ;-). Ta cisla ve specifikacich byvaji totiz ovlivnovana spis marketingem, nez fyzikou. A na charakteristikach beznych spalovacich motoru nebyva maximalni vykon na maximalnich otackach a tedy pri maximalni rychlosti. I kdyz aktivni rizeni motoru a preplnovani dokazou (skoro) zazraky.
Kdyz to veznene ciste fyzikalne podle 1. zakona pana Newtona, tak pro rovnomerny primocary pohyb neni potreba (za idealnich podminek) zadny vykon.
A to bez ohledu na jeho rychlost. To ostatne jasne ukazuje (bezmotorovy ;-) )pohyb teles ve vesmiru.
Pri jizde na zemi pro udrzeni rovnomerneho pohybu nejaky vykon motoru (jeho ztraty mechanicke i tepelne zatim neresme) potreba je, protoze se uplatnuje treni (mechanicke ztraty v prevodech mezi motorem a koly + valive odpor kol) a pohybova energie se premenuje na teplo. Mnozstvi takto ztracene energie (prace v kWh) zavisi na ujete vzdalenosti, ne na rychlosti.
Pokud auto pojede pomaleji, bude potrebovat delsi cas [h], ale mensi vykon motoru [kW] a celkova ztracena energie (vykon*cas) [kWh] bude stejna. (potrebny vykon tedy zavisi na rychlosti linearne) . Mimochodem, plest (si) vykon [kW] a praci [kWh] je celkem zavazna, ale bohuzel dost casta chyba.
U odporu prostredi je to trochu slozitejsi. Pri malych rychlostech a aerodynamickem telese bude jeho obtekani linearni (hladke) a uplatnuje se obycejne treni. Jeho zavislost na rychlosti bude linearni, stejne jako u vyse uvedenych vlivu treni.
Cim vyssi bude rychlost a horsi tvar, tim vic se bude uplatnovat turbulentni (virive) proudeni a odpor poroste s rychlosti vice. Jako nejhorsi varianta se bere rovna deska kolma na smer pohybu.
Jeji ztraty se odhaduji z toho, ze se vzduchu, ktery musi odtect mimo desku do stran, musi udeli stejna rychlost, jakou ma deska. Ztraty pak odpovidaji energii, kterou ten vzduch odnese, a jsou umerne druhe mocnine jeho rychlosti a tedy i rychlosti te kolme desky.
Pri beznych vypoctech se bere zavislost odporu na rychlosti jako druha mocnina a tvar se zohlednuje koeficientem odporu. Ten se vetsinou zjistuje experimentalne.
Realna zavislost aerodynamickeho odporu (ztrat) na rychlosti bude tedy v zavislosti na podminkach nekde mezi linearni a kvadratickou. Spekulace o nejake zavislosti potrebneho vykonu na treti mocnine rychlosti jsou zcela mimo realitu.
Pro udrzeni rychlosti staci, kdyz vykon motoru pokryje prave tyto ztraty. Daly by se priblizne spocitat, nebo odhadnout ze zpomalovani auta po vyrazeni rychlosti. Ale nejspis (aspon u normalnich aut) nejsou tyhle ztraty a maximalni vykon motoru tim, co by urcovalo vyrobcem deklarivanou maximalni rychlost auta.
Motor bude mit (nejspis) vetsinou vyssi maximalni vykon, nez je potreba pro udrzeni maximalni deklarovane rychlosti. Ma to dva duvody. Jeden je marketingovy - "cim vic prouzku, tim vic adidas" proste prodava.
Druhy duvod je fyzikalni. Vykon stacici na udrzeni maximalni rychlosti je schopen na ni auto dostat az za nekonecny cas. A na to nebyva dost dlouhy zivot ridice, ani dost dlouhy rovny usek silnice. Proto musi mit motor vyssi vykon. A to tim vic, cim je auto tezsi, protoze je potreba urychlovat vetsi hmotu a dodat ji k tomu potrebnou pohybovou energii.
Cim vetsi rezerva vykonu, tim vice je schopen vuz zrychlovat. Proto maji draha a sportovni auta uplne nesmyslne vykony motoru.
Ale neni zadna zavislost mezi dostupnym prebytkem (nad uroven vyse zminenych ztrat) vykonu a maximalni dosazitelnou rychlosti. Iontove motory vesmirnych sond maji velmi maly tah (vykon) a presto jsou schopny ty sondy urychlit na obrovske rychlosti. Maly vykon [kW] totiz pusobi po velmi dlouhou dobu [h], vykona tedy velkou praci [kWh], doda sonde velkou energii [kWh] a te odpovida i velmi vysoka vysledna rychlost sondy.
Naproti tomu pro urychleni na velkou rychlost za kratkou dobu je potreba velky vykon. Pro okamzitou zmenu rychlosti i treba jen o 1km/h by byl potreba nekonecne velky vykon, protoze chceme zrychlit za 0 sekund.
Realne je samozrejme u beznych aut maximalne dosazitelna rychlost omezena (i) dostupnym vykonem motoru. Pri seslapnuti plynu na podlahu zacne byt prebytek vykonu nad ztratami zpusobenymi odpory tak maly, ze auto (skoro) nezrychluje. Zalezi i na na velikosti i umisteni nakladu, sklonu i povrchu vozovky a rade dalsich faktoru. Ale rozhodne to omezeni rychlosti nebude v dusledku nejake (autorem spekulovane) potreby vykonu zavisle na 3 mocnine maximalni cestovni rychlosti z technickych specifikace.
Hadam, ze (aspon u beznych motoru) bude vykon motoru pri maximalni rychlosti nizsi, nez maximalni vykon z technickych specifikaci. Maximalni vykon totiz byva na nizsich otackach, nez jsoy ty maximalni. I kdyz preplnovani, elektronika rizeni motoru a omezovace dokazou docela kouzlit.
Kurna, nejak se mi ta kostka rozrostla :-) ;-).
Ani neni mym cilem si honit na neci ukor triko a (pripadne i) zvysovat miru naranosti vesmiru ;-). Ale kdyz vidim nekde tvrzeni, ktere je mimo realitu, tak mi to obcas neda. I proto, ze vim, ze dost lidi muze takovy nesmysl sirit dal :-O. Uznavam, ze me upozorneni, ze tema prace a vykon jsou ucivo zakladni skoly, mohlo byt diplomatictejsi a za netaktnost se omlouvam. Ale na nesmyslonosti nekterych tvrzeni to nic nemeni.
Zabijet cas psanim textu na virtualni klavesnici mobilu v prtavem okenku, kdyz je jasne, ze to precte jen par lidi se mi moc nechce. Bylo by to spis na popularizacni clanek pro sirsi publikum. Tak aspon v kostce.
Vyvozovat z technickych specifikaci mezi maximalnim vykonem motoru a maximalni (cestoni) ryclosti funkcni (fyzikalni) zavislost chce opravdu dost odvahy ;-). Ta cisla ve specifikacich byvaji totiz ovlivnovana spis marketingem, nez fyzikou. A na charakteristikach beznych spalovacich motoru nebyva maximalni vykon na maximalnich otackach a tedy pri maximalni rychlosti. I kdyz aktivni rizeni motoru a preplnovani dokazou (skoro) zazraky.
Kdyz to veznene ciste fyzikalne podle 1. zakona pana Newtona, tak pro rovnomerny primocary pohyb neni potreba (za idealnich podminek) zadny vykon.
A to bez ohledu na jeho rychlost. To ostatne jasne ukazuje (bezmotorovy ;-) )pohyb teles ve vesmiru.
Pri jizde na zemi pro udrzeni rovnomerneho pohybu nejaky vykon motoru (jeho ztraty mechanicke i tepelne zatim neresme) potreba je, protoze se uplatnuje treni (mechanicke ztraty v prevodech mezi motorem a koly + valive odpor kol) a pohybova energie se premenuje na teplo. Mnozstvi takto ztracene energie (prace v kWh) zavisi na ujete vzdalenosti, ne na rychlosti.
Pokud auto pojede pomaleji, bude potrebovat delsi cas [h], ale mensi vykon motoru [kW] a celkova ztracena energie (vykon*cas) [kWh] bude stejna. (potrebny vykon tedy zavisi na rychlosti linearne) . Mimochodem, plest (si) vykon [kW] a praci [kWh] je celkem zavazna, ale bohuzel dost casta chyba.
U odporu prostredi je to trochu slozitejsi. Pri malych rychlostech a aerodynamickem telese bude jeho obtekani linearni (hladke) a uplatnuje se obycejne treni. Jeho zavislost na rychlosti bude linearni, stejne jako u vyse uvedenych vlivu treni.
Cim vyssi bude rychlost a horsi tvar, tim vic se bude uplatnovat turbulentni (virive) proudeni a odpor poroste s rychlosti vice. Jako nejhorsi varianta se bere rovna deska kolma na smer pohybu.
Jeji ztraty se odhaduji z toho, ze se vzduchu, ktery musi odtect mimo desku do stran, musi udeli stejna rychlost, jakou ma deska. Ztraty pak odpovidaji energii, kterou ten vzduch odnese, a jsou umerne druhe mocnine jeho rychlosti a tedy i rychlosti te kolme desky.
Pri beznych vypoctech se bere zavislost odporu na rychlosti jako druha mocnina a tvar se zohlednuje koeficientem odporu. Ten se vetsinou zjistuje experimentalne.
Realna zavislost aerodynamickeho odporu (ztrat) na rychlosti bude tedy v zavislosti na podminkach nekde mezi linearni a kvadratickou. Spekulace o nejake zavislosti potrebneho vykonu na treti mocnine rychlosti jsou zcela mimo realitu.
Pro udrzeni rychlosti staci, kdyz vykon motoru pokryje prave tyto ztraty. Daly by se priblizne spocitat, nebo odhadnout ze zpomalovani auta po vyrazeni rychlosti. Ale nejspis (aspon u normalnich aut) nejsou tyhle ztraty a maximalni vykon motoru tim, co by urcovalo vyrobcem deklarivanou maximalni rychlost auta.
Motor bude mit (nejspis) vetsinou vyssi maximalni vykon, nez je potreba pro udrzeni maximalni deklarovane rychlosti. Ma to dva duvody. Jeden je marketingovy - "cim vic prouzku, tim vic adidas" proste prodava.
Druhy duvod je fyzikalni. Vykon stacici na udrzeni maximalni rychlosti je schopen na ni auto dostat az za nekonecny cas. A na to nebyva dost dlouhy zivot ridice, ani dost dlouhy rovny usek silnice. Proto musi mit motor vyssi vykon. A to tim vic, cim je auto tezsi, protoze je potreba urychlovat vetsi hmotu a dodat ji k tomu potrebnou pohybovou energii.
Cim vetsi rezerva vykonu, tim vice je schopen vuz zrychlovat. Proto maji draha a sportovni auta uplne nesmyslne vykony motoru.
Ale neni zadna zavislost mezi dostupnym prebytkem (nad uroven vyse zminenych ztrat) vykonu a maximalni dosazitelnou rychlosti. Iontove motory vesmirnych sond maji velmi maly tah (vykon) a presto jsou schopny ty sondy urychlit na obrovske rychlosti. Maly vykon [kW] totiz pusobi po velmi dlouhou dobu [h], vykona tedy velkou praci [kWh], doda sonde velkou energii [kWh] a te odpovida i velmi vysoka vysledna rychlost sondy.
Naproti tomu pro urychleni na velkou rychlost za kratkou dobu je potreba velky vykon. Pro okamzitou zmenu rychlosti i treba jen o 1km/h by byl potreba nekonecne velky vykon, protoze chceme zrychlit za 0 sekund.
Realne je samozrejme u beznych aut maximalne dosazitelna rychlost omezena (i) dostupnym vykonem motoru. Pri seslapnuti plynu na podlahu zacne byt prebytek vykonu nad ztratami zpusobenymi odpory tak maly, ze auto (skoro) nezrychluje. Zalezi i na na velikosti i umisteni nakladu, sklonu i povrchu vozovky a rade dalsich faktoru. Ale rozhodne to omezeni rychlosti nebude v dusledku nejake (autorem spekulovane) potreby vykonu zavisle na 3 mocnine maximalni cestovni rychlosti z technickych specifikace.
Hadam, ze (aspon u beznych motoru) bude vykon motoru pri maximalni rychlosti nizsi, nez maximalni vykon z technickych specifikaci. Maximalni vykon totiz byva na nizsich otackach, nez jsoy ty maximalni. I kdyz preplnovani, elektronika rizeni motoru a omezovace dokazou docela kouzlit.
Kurna, nejak se mi ta kostka rozrostla :-) ;-).
Odpovědět0 0
Nerad vam beru iluze, ale tvrzeni, ze kdyz auto jede 2x rychleji, tak ma 8x vetsi okamzitou spotrebu, ale protoze vzdalenost ujede za polovinu doby bude celkova spotreba jen 4x vetsi, je fyzikalne uplna pitomost. Spotreba je v litrech nebo kWh na 100 km at je okamzita, nebo prumerna a delit ji dobou jizdy ukazuje na neporozumneni fyziky ze zakladni skoly.
Pro jizdu vyssi rychlosti je potreba vyssi vykon a jeho vynasobenim dobou jizdy se ziska celkova prace. Jejim vydelenim ujetou vzdalenosti spotreba = prace na 100 km.
Spotreba s rychlosti roste, ale rozhodne ne s treti a dokonce ani ne s druhou mocninou rychlosti. S druhou mocninou roste pouze odpor vzduchu a ten predstavuje jen cast ztrat. Valive odpory a treni v mechanismech pohonu jsou na rychlosti (temer) nezavisle a tvori znacny podil ze spotreby. Zvlast u spalovacich motoru, kde se soupou krouzky pistu ve valcich (proto je pro nizsi spotrebu dobre radit co nejdriv vyssi rychlost a snizit tak pocet zdvihu na km). Dalsi ztraty jsou tepelne a ty jsou taky vetsi u spalovacich motoru.
A nakonec je tu jeste uzitecna prace a tedy i spotreba na to, o co v podstate jde, na premisteni (ne)uzitecne hmoty pozadovanou vzdalenost. A te neuzitecne hmoty je docela dost, zvlast kdyz jede 60-ti kilova baba v dvoutunovem tanku, aby se citila bezpecne.
Kvadraticky by spotreba rostla jen pri rychlostech, kdy by odpor vzduch tvoril zasadni slozku spotreby, proti ktere jsou.ostatni zanedbatelne. Jenze to by se muselo jezdit rychlostmi tryskovych stihacek.
U elektromobilu jsou ztraty trenim v mechanismech a tepelne ztraty mensi, nez u aut se spalovacim motorem. Proto u nich vliv odporu vzduch tvori vetsi podil ztrat a tak se zvysovani spotreby s rychlosti projevuje na rustu spotreby vice. Jezdit s elektromobilem rychle je tedy pitomost, stejne jako stavet je jako tanky, kde je podil prepravovane uzitecne hmotnosti jen velmi maly. Ale protoze jsou dneska elektrimobily hlavne demonstratiry moci delaji se (zcela zhovadile) jako rychle tezke obludy a ne jako mala lehka vozitka.
Pro jizdu vyssi rychlosti je potreba vyssi vykon a jeho vynasobenim dobou jizdy se ziska celkova prace. Jejim vydelenim ujetou vzdalenosti spotreba = prace na 100 km.
Spotreba s rychlosti roste, ale rozhodne ne s treti a dokonce ani ne s druhou mocninou rychlosti. S druhou mocninou roste pouze odpor vzduchu a ten predstavuje jen cast ztrat. Valive odpory a treni v mechanismech pohonu jsou na rychlosti (temer) nezavisle a tvori znacny podil ze spotreby. Zvlast u spalovacich motoru, kde se soupou krouzky pistu ve valcich (proto je pro nizsi spotrebu dobre radit co nejdriv vyssi rychlost a snizit tak pocet zdvihu na km). Dalsi ztraty jsou tepelne a ty jsou taky vetsi u spalovacich motoru.
A nakonec je tu jeste uzitecna prace a tedy i spotreba na to, o co v podstate jde, na premisteni (ne)uzitecne hmoty pozadovanou vzdalenost. A te neuzitecne hmoty je docela dost, zvlast kdyz jede 60-ti kilova baba v dvoutunovem tanku, aby se citila bezpecne.
Kvadraticky by spotreba rostla jen pri rychlostech, kdy by odpor vzduch tvoril zasadni slozku spotreby, proti ktere jsou.ostatni zanedbatelne. Jenze to by se muselo jezdit rychlostmi tryskovych stihacek.
U elektromobilu jsou ztraty trenim v mechanismech a tepelne ztraty mensi, nez u aut se spalovacim motorem. Proto u nich vliv odporu vzduch tvori vetsi podil ztrat a tak se zvysovani spotreby s rychlosti projevuje na rustu spotreby vice. Jezdit s elektromobilem rychle je tedy pitomost, stejne jako stavet je jako tanky, kde je podil prepravovane uzitecne hmotnosti jen velmi maly. Ale protoze jsou dneska elektrimobily hlavne demonstratiry moci delaji se (zcela zhovadile) jako rychle tezke obludy a ne jako mala lehka vozitka.
Odpovědět0 0
Ta Nas baterie nemá ani na počátku 4x větší kapacitu na gram, než lithiové. Kapacita v mAh se totiž dá porovnávat jen u baterií založených na stejných typech materiálů , které mají stejná napětí. Pokud se napětí liší, je nutné porovnávat kapacit ve Wh (mAh*střední napětí).
Rozsah napětí NaS baterie (údaje z článku) je 0,8 až 2,8 a střední 1,8V. U lithiových článků je rozpětí 2,8 až 4,2 V a jejich střední napětí 3,5 je téměř 2x vyšší než u NaS baterií. Počáteční kapacita NaS tedy není 4x, ale jen 2x vyšší. A protože po pár cyklech klesne o 25%, má asi smysl mluvit spíš jen o 1,5x vyšší kapacitě. Ale ani to není špatné. A mnohem důležitější je lepší dostupnost materiálů, ze kterých jsou vyrobeny.
Za porovnání stojí i Wh kapacita na gram na konci životnosti. Když u NaS vezmu za konec životnosti pokles na 50% počáteční kapacita a u lithiových běžných 80% počáteční kapacity, bude mít na konci životnosti NaS baterie 1,27x vyšší kapacitu na gram než lithiová, což je taky pěkné.
Rozsah napětí NaS baterie (údaje z článku) je 0,8 až 2,8 a střední 1,8V. U lithiových článků je rozpětí 2,8 až 4,2 V a jejich střední napětí 3,5 je téměř 2x vyšší než u NaS baterií. Počáteční kapacita NaS tedy není 4x, ale jen 2x vyšší. A protože po pár cyklech klesne o 25%, má asi smysl mluvit spíš jen o 1,5x vyšší kapacitě. Ale ani to není špatné. A mnohem důležitější je lepší dostupnost materiálů, ze kterých jsou vyrobeny.
Za porovnání stojí i Wh kapacita na gram na konci životnosti. Když u NaS vezmu za konec životnosti pokles na 50% počáteční kapacita a u lithiových běžných 80% počáteční kapacity, bude mít na konci životnosti NaS baterie 1,27x vyšší kapacitu na gram než lithiová, což je taky pěkné.
Odpovědět3 0
Za Covidu zjistili, že je dost lidí ochotných kupovat i za nesmyslné ceny, a teď nechtějí přijít o pohádkové, bezpracné zisky. A nVidia holt není inženýrsky řízená firma, která určuje ceny podle výrobních nákladů a přiměřených marží po celé délce výrobně prodejního řetězce. Je orientovaná a řízená víc marketingové a hamižně. Nejde ani tak o to, co prodáváš, ale spíš o to vytlačit cenu/zisk co nejvýš a přesvědčit klienty, že za vysoké ceny dostává exkluzivní zboží.
Hezkou ukázkou jejich chování je jejich přístup k výrobcům karet, k referenčním kartám a ke stanovování doporučených cen, který vedl jejich největšího exkluzivního partnera EVGA k ukončení výroby grafických karet. Cílem nVidie je udělat co nejlepší dojem v recenzích. A to je snadné - stačí vzít (nejlépe výběrové) čipy, udělat pár vymazlených referenčních karet a ty poslat recenzentům. A nezapomenout stanovit velmi nízkou doporučenou cenu, aby byl poměr výkon/cena co nejlepší. To, že se za tu cenu karty nedají ani vyrobit, natož prodávat není podstatné, protože se reference s tu dotovanou cenou nebudou prodávat buď vůbec, nebo v jen velmi omezeném množství. A to, že se výrobci grafik nedokáží k doporučeným cenám ani přiblížit je jejich problém, protože naprostá většina lidí, kteří nevědí, nebo nechtějí vědět, jak to je doopravdy, bude nadávat na hamižnost výrobců a ne na nVidii.
Hezkou ukázkou jejich chování je jejich přístup k výrobcům karet, k referenčním kartám a ke stanovování doporučených cen, který vedl jejich největšího exkluzivního partnera EVGA k ukončení výroby grafických karet. Cílem nVidie je udělat co nejlepší dojem v recenzích. A to je snadné - stačí vzít (nejlépe výběrové) čipy, udělat pár vymazlených referenčních karet a ty poslat recenzentům. A nezapomenout stanovit velmi nízkou doporučenou cenu, aby byl poměr výkon/cena co nejlepší. To, že se za tu cenu karty nedají ani vyrobit, natož prodávat není podstatné, protože se reference s tu dotovanou cenou nebudou prodávat buď vůbec, nebo v jen velmi omezeném množství. A to, že se výrobci grafik nedokáží k doporučeným cenám ani přiblížit je jejich problém, protože naprostá většina lidí, kteří nevědí, nebo nechtějí vědět, jak to je doopravdy, bude nadávat na hamižnost výrobců a ne na nVidii.
Odpovědět0 1
Koukám, že se své mantry, že ryzeny nedají uchladit, nemůžeš pořád vzdát, i když jsem ti nedávno vysvětlil, že to je pitomost ;-).
https://www.svethardware.cz/transcend-mte250s-prichazi-s-pcie4-a-grafenovym-chladicem/58573/diskuze
https://www.svethardware.cz/transcend-mte250s-prichazi-s-pcie4-a-grafenovym-chladicem/58573/diskuze
Odpovědět2 2
Ale nemůžeš se divit, když dělá něco s čím jsi nesouhlasil, jen ti to na první dobrou netroubí a data používá, tak aby to nebylo moc nápadné.
Prostě svět není černobílý a všechno dobré je pro něco zlé. A kdo tvrdí, že je něco černobílé, je to většinou proto, že má nasazené slepecké brýle nějaké ideologie. A její barva není podstatná.
Prostě svět není černobílý a všechno dobré je pro něco zlé. A kdo tvrdí, že je něco černobílé, je to většinou proto, že má nasazené slepecké brýle nějaké ideologie. A její barva není podstatná.
Odpovědět2 0
Apple ani Google telefony přeci nevyrábí. Nechává je si je za pár šupů udělat u čínských firem (FoxCon,..) a jen na ně na nechá "nalepit" svoje logo a pak je za tučný peníz prodává. Takže výrova smartfonu není problém.
Problém je operační systém (OS) a programy pro něj. A tam není problém s tím udělat OS, ale prosadit ho na trhu a přesvědčit autory aplikací, aby je portovali na jejich OS. To portování, aspoň u Androidu, není velký problém. Protože programy v podstatě neběží na konkrétním procesoru a železe, ale nad jádrem, které programům nabízí služby. Stačí udělat jádro, které je schopné ty požadavky aplikací přijmout a realizovat. Je to podobné jako se spouští Windousí programy v Linuxu pomocí aplikace Wine.
A pokud by se Musk domluvil s Huaweiem, tak by mohl využít jejich zkušenost i technologie a udělat klon pod vlastní správou, který by mohl být akceptovatelný i pro Američany. A pak by autorům stačilo udělat aplikace pro oba OS jen jednou.
Problém je operační systém (OS) a programy pro něj. A tam není problém s tím udělat OS, ale prosadit ho na trhu a přesvědčit autory aplikací, aby je portovali na jejich OS. To portování, aspoň u Androidu, není velký problém. Protože programy v podstatě neběží na konkrétním procesoru a železe, ale nad jádrem, které programům nabízí služby. Stačí udělat jádro, které je schopné ty požadavky aplikací přijmout a realizovat. Je to podobné jako se spouští Windousí programy v Linuxu pomocí aplikace Wine.
A pokud by se Musk domluvil s Huaweiem, tak by mohl využít jejich zkušenost i technologie a udělat klon pod vlastní správou, který by mohl být akceptovatelný i pro Američany. A pak by autorům stačilo udělat aplikace pro oba OS jen jednou.
Odpovědět2 0
Signalni piny u starych zdroju jsou zapojeny podle stavajiciho standardu pro osmipiny. A nove signalizacni piny samozrejme nepodporuji.
Redukce ze 4x osmipinu na 12+4pin musi zajisti spravnou signalizaci smerem ke graficke karte, jinak by se nejspis ani nebyla ochotna rozbehnout.
Prvni dva signalizacni piny na vystupu redukce budou pripojeny natvrdo na urovne odpovídajíci stavum pripojeno a napeti ok. Piny sdelujici karte dostupny vykon budou asi nastaveny na 600w. Testovani poctu pripojenych osmipinu a jeho binarni kodovani do zbyvajicich 2 signalizacnich pinu by totiz vyzadovalo aktivni elektroniku.
Redukce ze 4x osmipinu na 12+4pin musi zajisti spravnou signalizaci smerem ke graficke karte, jinak by se nejspis ani nebyla ochotna rozbehnout.
Prvni dva signalizacni piny na vystupu redukce budou pripojeny natvrdo na urovne odpovídajíci stavum pripojeno a napeti ok. Piny sdelujici karte dostupny vykon budou asi nastaveny na 600w. Testovani poctu pripojenych osmipinu a jeho binarni kodovani do zbyvajicich 2 signalizacnich pinu by totiz vyzadovalo aktivni elektroniku.
Odpovědět0 0
Dík za odkaz na testy toho 16+4 pinového konektoru. Koukám, že se tentokrát Steve a jeho hoši vyskotačili opravdu velmi ;-) a je potřeba je pochválit za skvělou práci. Jen tohle měla udělat nvidia před tím, než začala ty konektory používat a tlačit jako standard..
Celé tohle testování však má (aspoň za mne) jeden velký logický otazník. Při testech se jim prý nepodařilo vyvolat žádné dramatické zahřívání pinů ani tehdy, když z jednoho z 12+4 konektoru odstříhaly 4 z 6 napájecích 12V pinů (ne drátů) a 600w tak šlo jen přes 2 piny. Pak ale moc nechápu, jak může pouhé povytažení o 1-2 mm způsobit problém. Ale jinak bych řekl, že video celkem potvrzuje moje závěry (viz níže).
1) Mizerně navržený upevňovací mechanismus (zobáček). Jeho chování nedává uživateli informaci o správném zasunutí (cvaknutí) a nepomáhá se zafixováním správné pozice (vytlačování ven před a dotlačování dovnitř po překonání kritického bodu). Dokonce i při správném zasunutí konektoru zjevně stačí velmi malé síly ke kritickému povytažení , nebo i úplnému vytažení kabelu. Steve ve videu dokonce zmínil myšlenku, že by k (kritickému) povytažení mohlo dojít i jen v důsledku vibrací od běžících ventilátorů grafické karty.
2) Špatně navržená detekce zasunutí karty, které není schopné detekovat kritické povytažení konektoru. Je otázka, jestli s tak špatně navrženým upevňovacím mechanismem se dá udělat dostatečně spolehlivá, jednoduchá (=mechanická) detekce pinem.
3) Celkově poddimenzovaný návrh konektoru - mechanicky i elektricky. Pokus s přenosem 600w přes 2 piny naznačuje, že elektricky by aktuálně používané konektory mohli zvládnout i poměrně značné krátkodobé proudové přetížení. Ale je otázka jestli je tam rezerva na degradaci vlastností konektorů v čase a zhoršování kvality výroby v důsledku šetření nákladů. Podle specifikací je tam jen 10%. Za pozornost stojí, že Steve tvrdí, že jejich testy vyvracejí teorii, že za problémy může horší kvalita u některého z výrobců, a natvrdo říká, že snaha získat konektory nějakého konkrétního výrobce nemá smysl.
Myslím, že kdyby nvidia při návrhu standardu místo snahy nacpat do co nejmenšího konektoru co největší výkon, řešila víc jeho odolnost a spolehlivost, tak ty problémy nevznikly. A taky je už jasné, proč amd ty konektory nechce používat.
Ještě poznámku ke snahám zlehčovat problém tvrzením, že je chybovost jen 0,1% u jednoho jediného typu karty. To jsou výsledky za prvních pár týdnů prodeje a nezohledňuje spolehlivost v dlouhodobém provozu. Ale hlavně nejde o tuhle jednu kartu. Tenhle konektor (PCIe 5.0) by měl být nový m standardem na spoustu let pro všechny grafické karty včetně těch v superpočítačích. Proto jsou nedostatky v jeho návrhu velmi zásadní.
Celé tohle testování však má (aspoň za mne) jeden velký logický otazník. Při testech se jim prý nepodařilo vyvolat žádné dramatické zahřívání pinů ani tehdy, když z jednoho z 12+4 konektoru odstříhaly 4 z 6 napájecích 12V pinů (ne drátů) a 600w tak šlo jen přes 2 piny. Pak ale moc nechápu, jak může pouhé povytažení o 1-2 mm způsobit problém. Ale jinak bych řekl, že video celkem potvrzuje moje závěry (viz níže).
1) Mizerně navržený upevňovací mechanismus (zobáček). Jeho chování nedává uživateli informaci o správném zasunutí (cvaknutí) a nepomáhá se zafixováním správné pozice (vytlačování ven před a dotlačování dovnitř po překonání kritického bodu). Dokonce i při správném zasunutí konektoru zjevně stačí velmi malé síly ke kritickému povytažení , nebo i úplnému vytažení kabelu. Steve ve videu dokonce zmínil myšlenku, že by k (kritickému) povytažení mohlo dojít i jen v důsledku vibrací od běžících ventilátorů grafické karty.
2) Špatně navržená detekce zasunutí karty, které není schopné detekovat kritické povytažení konektoru. Je otázka, jestli s tak špatně navrženým upevňovacím mechanismem se dá udělat dostatečně spolehlivá, jednoduchá (=mechanická) detekce pinem.
3) Celkově poddimenzovaný návrh konektoru - mechanicky i elektricky. Pokus s přenosem 600w přes 2 piny naznačuje, že elektricky by aktuálně používané konektory mohli zvládnout i poměrně značné krátkodobé proudové přetížení. Ale je otázka jestli je tam rezerva na degradaci vlastností konektorů v čase a zhoršování kvality výroby v důsledku šetření nákladů. Podle specifikací je tam jen 10%. Za pozornost stojí, že Steve tvrdí, že jejich testy vyvracejí teorii, že za problémy může horší kvalita u některého z výrobců, a natvrdo říká, že snaha získat konektory nějakého konkrétního výrobce nemá smysl.
Myslím, že kdyby nvidia při návrhu standardu místo snahy nacpat do co nejmenšího konektoru co největší výkon, řešila víc jeho odolnost a spolehlivost, tak ty problémy nevznikly. A taky je už jasné, proč amd ty konektory nechce používat.
Ještě poznámku ke snahám zlehčovat problém tvrzením, že je chybovost jen 0,1% u jednoho jediného typu karty. To jsou výsledky za prvních pár týdnů prodeje a nezohledňuje spolehlivost v dlouhodobém provozu. Ale hlavně nejde o tuhle jednu kartu. Tenhle konektor (PCIe 5.0) by měl být nový m standardem na spoustu let pro všechny grafické karty včetně těch v superpočítačích. Proto jsou nedostatky v jeho návrhu velmi zásadní.
Odpovědět2 0
Šlo by přidat odkaz na tenhle podivný experiment? S jakými konektory, při jaké a jak dlouho trvající zátěži to testovali?
Mimochodem stříhání drátů nemusí z pohledu zatížitelnosti konektoru mít velký význam. Někde jsem viděl fotku rozpitvaného konektoru a vypadalo to, že v něm jsou jednotlivé piny propojeny tišťákem, což není špatná myšlenka.. Ale standardem ATX 3.0 není takové propojení upraveno a konstrukce různých konektorů se může lišit.
Mimochodem stříhání drátů nemusí z pohledu zatížitelnosti konektoru mít velký význam. Někde jsem viděl fotku rozpitvaného konektoru a vypadalo to, že v něm jsou jednotlivé piny propojeny tišťákem, což není špatná myšlenka.. Ale standardem ATX 3.0 není takové propojení upraveno a konstrukce různých konektorů se může lišit.
Odpovědět1 0
Nechci zpochybňovat myšlenku, že by počítače měly skládat lidi, kteří aspoň tuší o co jde. Ale na skládání počítače, tím spíš to domácí, padesátka opravdu potřeba není (viz můj příspěvek níže). Důvodem existence padesátky je ochrana před nebezpečným napětím a to těch maximálně 12V v PC opravdu není. A její znalost schopnost správně poskládat počítač nezlepší ani o kousek ;-).
Odpovědět11 0
Možná i myslíš, ale špatně ;-). Vyhláška č. 50/1978, o které mluvíš, se vztahuje jen na pracovní činnosti (viz citaci odstavce 1 dole) a na domácí skládání počítače fakt potřeba není. Tím spíš, ve v počítači je napětí nejvíc 12V, což je hluboko pod limitem pro bezpečné napětí a skládání PC tedy není prací na elektrickém zařízení spadajícím pod zmíněnou vyhlášku (viz odstavec 2). Takže pokud by se nějaký prodejce i tvářil, že neuzná reklamaci, protože na stavbu počítače uživatel neměl kvalifikaci podle vyhlášky 50, je to čistý alibismus.
(1) Vyhláška stanoví stupně odborné způsobilosti (dále jen "kvalifikace") pracovníků, kteří se zabývají obsluhou1) elektrických zařízení nebo prací1) na nich (dále jen "činnost"), projektováním těchto zařízení, řízením činnosti nebo projektování elektrických zařízení v organizacích, které vyrábějí, montují, provozují nebo projektují elektrická zařízení, nebo provádějí na elektrických zařízeních činnost dodavatelským způsobem; dále stanoví podmínky pro získání kvalifikace a povinnosti organizací a pracovníků v souvislosti s kvalifikací.
(2) Za elektrická zařízení se pro účely této vyhlášky považují zařízení, u nichž může dojít k ohrožení života, zdraví nebo majetku elektrickým proudem, a zařízení určená k ochraně před účinky atmosférické nebo statické elektřiny.
(1) Vyhláška stanoví stupně odborné způsobilosti (dále jen "kvalifikace") pracovníků, kteří se zabývají obsluhou1) elektrických zařízení nebo prací1) na nich (dále jen "činnost"), projektováním těchto zařízení, řízením činnosti nebo projektování elektrických zařízení v organizacích, které vyrábějí, montují, provozují nebo projektují elektrická zařízení, nebo provádějí na elektrických zařízeních činnost dodavatelským způsobem; dále stanoví podmínky pro získání kvalifikace a povinnosti organizací a pracovníků v souvislosti s kvalifikací.
(2) Za elektrická zařízení se pro účely této vyhlášky považují zařízení, u nichž může dojít k ohrožení života, zdraví nebo majetku elektrickým proudem, a zařízení určená k ochraně před účinky atmosférické nebo statické elektřiny.
Odpovědět2 0
To je alibizmus a určitě z toho venku není. Možná tak u nás. Ale ve státech, kde je potřeba do návodu dávat i to, že se do ždímačky nesmí dávat kočka ;-), jim tahle alibistická věta stačit určitě nebude.
Odpovědět3 0
Ten kontakt tam je. Jeden ze 4 malých pinů signalizuje, že konektor je připojen. Ale zjevně není schopen zjistit, že zasunutí není úplně dokonalé. Ono to dřív asi ani nebylo potřeba, protože ten zacvakávací zobáček na konektoru byl dostatečnou pojistkou, že je konektor správně zasunutý.
Zkrácení signalizačních pinů by mohlo pomoct, ale není jisté, zda to bude stačit. Pokud je pojišťovací zobáček udělán tak špatně, že nezajišťuje bezpečné zasunutí a navíc, je-li dokonalé zasunutí kvůli přetížení konektoru,tak kritické, jak to zatím vypadá, tak zkrácení konektoru nemusí fungovat dostatečně dobře.
Zkrácení signalizačních pinů by mohlo pomoct, ale není jisté, zda to bude stačit. Pokud je pojišťovací zobáček udělán tak špatně, že nezajišťuje bezpečné zasunutí a navíc, je-li dokonalé zasunutí kvůli přetížení konektoru,tak kritické, jak to zatím vypadá, tak zkrácení konektoru nemusí fungovat dostatečně dobře.
Odpovědět2 0
Tavici se konektory jsou chyba spotrebitele jen podle alibistickeho prohlaseni nvidie.
Kazdy napajeci konektor ma zaklapavaci zobacek zajistujici konektor ve spravne zasunute poloze. Dokud ten zobacek nezaklapne, tak konektor vytlacuje a je tam ocividny vakl. Pokud by zobacek mohl zacvaknout jen castecne a konektor mel v te pozici spatny kontakt, je to konstrukcni vada a ne chyba uzivatele.
Navic ma konektor pin pro signalizaci pripojeni konektoru. A pokud ten pin potrvrzuje pritomnost i pri nespravnem zasunuti, je to konstrukci vada. Podle spekulaci by prave tohle melo byt jednou z veci, ktere by mela resit pripravovana revize standardu.
Hlavni problem je ale v prilis vysokem proudovem zatizeni. Ten konektor navrhla do standardu zrejme nvidia, protoze zakladem je jeji 12-ti pin pouzity uz v roce 2020 v jejich referencnich kartach rady 3000. Ten nahrazoval 2 osmipiny a byl tedy urcen pro vykon 300w. Novy konektor mel stejny pocet (6+6) napajecich kontaktu jako dva osmipiny (osmipin ma 2 signalizacni). Piny byly sice mensi a slabsi, nez u osmipinu, aby se usporilo misto, ale asi jeste ne neprimerene.
Do noveho standardu byly pridany 4 male signalizacni piny. (konektor zapojen, napeti OK a 2 piny binarne kodujici dostupny vykon 150, 300, 450 a 600w).
Hlavnim problemem ale bylo zvyseni proudoveho zatizeni na dvojnasobek. A protoze amd ten konektor nepouziva, byla za zvysenim nepochybne nvidia.
Standard definuje maximalni proud 9.2A na jeden pin. Teoreticky je maximalni zatez 9.2x12x6=662w. Bezpecnostni rezerva na nerovnomerne rozdeleni zateze, nedokonalost provedeni konektoru a zhorsovani vlastnosti v case je tedy jen 10%. Pritom u osmipinu s masivnesim provedenim a nizsim maximalnim prouden na pin byla bezpecnostni rezerva 49% a u sestipinu jeste vic. Z toho je zrejme, ze vykon noveho 12+4-pinu je hnan opravdu na hranu.
To, ze zatim zdokumentovanych problemu jen par, neznamena, ze (ostatni) konektory jsou v poradu a za problemy muze diletanstvi uzivatelu, jak alibisticky tvrdi nvidia. Spis naopak. Ve standardnim nastaveni, ve kterem kartu pouzivaji bezni uzivatele, by mela 4090 brat max 450w a to konektory (aspon zatim) zvladaji.
Pokud ji nekdo prepne do rezimu vysokeho vykonu a honi ji v nejakych testech tak, aby brala 600w, je zrejme schopen upect konektor mnohem driv, nez bezny BFU. Ale ten, kdo tohle zvladne, asi nebude diletant neschopny spravne zasunout konektor.
Uz se pry chysta revize standardu. Cekal bych, ze dojde ke snizeni povoleneho prikonu na prijatelnejsi hodnotu 400w (signalizace 100, 200, 300, 400w), ktera pro normalni karty staci, a pokud to dnes tak uz neni, tak se nejspis zkrati signalizacni piny tak, aby doslo k jejich zapojeni az jako poslednich, po spolehlivem zasunuti konektoru.
Kazdy napajeci konektor ma zaklapavaci zobacek zajistujici konektor ve spravne zasunute poloze. Dokud ten zobacek nezaklapne, tak konektor vytlacuje a je tam ocividny vakl. Pokud by zobacek mohl zacvaknout jen castecne a konektor mel v te pozici spatny kontakt, je to konstrukcni vada a ne chyba uzivatele.
Navic ma konektor pin pro signalizaci pripojeni konektoru. A pokud ten pin potrvrzuje pritomnost i pri nespravnem zasunuti, je to konstrukci vada. Podle spekulaci by prave tohle melo byt jednou z veci, ktere by mela resit pripravovana revize standardu.
Hlavni problem je ale v prilis vysokem proudovem zatizeni. Ten konektor navrhla do standardu zrejme nvidia, protoze zakladem je jeji 12-ti pin pouzity uz v roce 2020 v jejich referencnich kartach rady 3000. Ten nahrazoval 2 osmipiny a byl tedy urcen pro vykon 300w. Novy konektor mel stejny pocet (6+6) napajecich kontaktu jako dva osmipiny (osmipin ma 2 signalizacni). Piny byly sice mensi a slabsi, nez u osmipinu, aby se usporilo misto, ale asi jeste ne neprimerene.
Do noveho standardu byly pridany 4 male signalizacni piny. (konektor zapojen, napeti OK a 2 piny binarne kodujici dostupny vykon 150, 300, 450 a 600w).
Hlavnim problemem ale bylo zvyseni proudoveho zatizeni na dvojnasobek. A protoze amd ten konektor nepouziva, byla za zvysenim nepochybne nvidia.
Standard definuje maximalni proud 9.2A na jeden pin. Teoreticky je maximalni zatez 9.2x12x6=662w. Bezpecnostni rezerva na nerovnomerne rozdeleni zateze, nedokonalost provedeni konektoru a zhorsovani vlastnosti v case je tedy jen 10%. Pritom u osmipinu s masivnesim provedenim a nizsim maximalnim prouden na pin byla bezpecnostni rezerva 49% a u sestipinu jeste vic. Z toho je zrejme, ze vykon noveho 12+4-pinu je hnan opravdu na hranu.
To, ze zatim zdokumentovanych problemu jen par, neznamena, ze (ostatni) konektory jsou v poradu a za problemy muze diletanstvi uzivatelu, jak alibisticky tvrdi nvidia. Spis naopak. Ve standardnim nastaveni, ve kterem kartu pouzivaji bezni uzivatele, by mela 4090 brat max 450w a to konektory (aspon zatim) zvladaji.
Pokud ji nekdo prepne do rezimu vysokeho vykonu a honi ji v nejakych testech tak, aby brala 600w, je zrejme schopen upect konektor mnohem driv, nez bezny BFU. Ale ten, kdo tohle zvladne, asi nebude diletant neschopny spravne zasunout konektor.
Uz se pry chysta revize standardu. Cekal bych, ze dojde ke snizeni povoleneho prikonu na prijatelnejsi hodnotu 400w (signalizace 100, 200, 300, 400w), ktera pro normalni karty staci, a pokud to dnes tak uz neni, tak se nejspis zkrati signalizacni piny tak, aby doslo k jejich zapojeni az jako poslednich, po spolehlivem zasunuti konektoru.
Odpovědět4 0
Tavici se konektory jsou chyba spotrebitele jen podle alibistickeho prohlaseni nvidie.
Kazdy napajeci konektor ma zaklapavaci zobacek zajistujici konektor ve spravne zasunute poloze. Dokud ten zobacek nezaklapne, tak konektor vytlacuje a je tam ocividny vakl. Pokud by zobacek mohl zacvaknout jen castecne a konektor mel v te pozici spatny kontakt, je to konstrukcni vada a ne chyba uzivatele.
Navic ma konektor pin pro signalizaci pripojeni konektoru. A pokud ten pin potrvrzuje pritomnost i pri nespravnem zasunuti, je to konstrukci vada. Podle spekulaci by prave tohle melo byt jednou z veci, ktere by mela resit pripravovana revize standardu.
Hlavni problem je ale v prilis vysokem proudovem zatizeni. Ten konektor navrhla do standardu zrejme nvidia, protoze zakladem je jeji 12-ti pin pouzity uz v roce 2020 v jejich referencnich kartach rady 3000. Ten nahrazoval 2 osmipiny a byl tedy urcen pro vykon 300w. Novy konektor mel stejny pocet (6+6) napajecich kontaktu jako dva osmipiny (osmipin ma 2 signalizacni). Piny byly sice mensi a slabsi, nez u osmipinu, aby se usporilo misto, ale asi jeste ne neprimerene.
Do noveho standardu byly pridany 4 male signalizacni piny. (konektor zapojen, napeti OK a 2 piny binarne kodujici dostupny vykon 150, 300, 450 a 600w).
Hlavnim problemem ale bylo zvyseni proudoveho zatizeni na dvojnasobek. A protoze amd ten konektor nepouziva, byla za zvysenim nepochybne nvidia.
Standard definuje maximalni proud 9.2A na jeden pin. Teoreticky je maximalni zatez 9.2x12x6=662w. Bezpecnostni rezerva na nerovnomerne rozdeleni zateze, nedokonalost provedeni konektoru a zhorsovani vlastnosti v case je tedy jen 10%. Pritom u osmipinu s masivnesim provedenim a nizsim maximalnim prouden na pin byla bezpecnostni rezerva 49% a u sestipinu jeste vic. Z toho je zrejme, ze vykon noveho 12+4-pinu je hnan opravdu na hranu.
To, ze zatim zdokumentovanych problemu jen par, neznamena, ze (ostatni) konektory jsou v poradu a za problemy muze diletanstvi uzivatelu, jak alibisticky tvrdi nvidia. Spis naopak. Ve standardnim nastaveni, ve kterem kartu pouzivaji bezni uzivatele, by mela 4090 brat max 450w a to konektory (aspon zatim) zvladaji.
Pokud ji nekdo prepne do rezimu vysokeho vykonu a honi ji v nejakych testech tak, aby brala 600w, je zrejme schopen upect konektor mnohem driv, nez bezny BFU. Ale ten, kdo tohle zvladne, asi nebude diletant neschopny spravne zasunout konektor.
Uz se pry chysta revize standardu. Cekal bych, ze dojde ke snizeni povoleneho prikonu na prijatelnejsi hodnotu napr. 400w (signalizace 100, 200, 300, 400w) a pokud to dnes tak uz neni, tak ke zkraceni signalizacnich pinu, aby doslo k jejich zapojeni az jako poslednich, po spolehlivem zasunuti konektoru.
Kazdy napajeci konektor ma zaklapavaci zobacek zajistujici konektor ve spravne zasunute poloze. Dokud ten zobacek nezaklapne, tak konektor vytlacuje a je tam ocividny vakl. Pokud by zobacek mohl zacvaknout jen castecne a konektor mel v te pozici spatny kontakt, je to konstrukcni vada a ne chyba uzivatele.
Navic ma konektor pin pro signalizaci pripojeni konektoru. A pokud ten pin potrvrzuje pritomnost i pri nespravnem zasunuti, je to konstrukci vada. Podle spekulaci by prave tohle melo byt jednou z veci, ktere by mela resit pripravovana revize standardu.
Hlavni problem je ale v prilis vysokem proudovem zatizeni. Ten konektor navrhla do standardu zrejme nvidia, protoze zakladem je jeji 12-ti pin pouzity uz v roce 2020 v jejich referencnich kartach rady 3000. Ten nahrazoval 2 osmipiny a byl tedy urcen pro vykon 300w. Novy konektor mel stejny pocet (6+6) napajecich kontaktu jako dva osmipiny (osmipin ma 2 signalizacni). Piny byly sice mensi a slabsi, nez u osmipinu, aby se usporilo misto, ale asi jeste ne neprimerene.
Do noveho standardu byly pridany 4 male signalizacni piny. (konektor zapojen, napeti OK a 2 piny binarne kodujici dostupny vykon 150, 300, 450 a 600w).
Hlavnim problemem ale bylo zvyseni proudoveho zatizeni na dvojnasobek. A protoze amd ten konektor nepouziva, byla za zvysenim nepochybne nvidia.
Standard definuje maximalni proud 9.2A na jeden pin. Teoreticky je maximalni zatez 9.2x12x6=662w. Bezpecnostni rezerva na nerovnomerne rozdeleni zateze, nedokonalost provedeni konektoru a zhorsovani vlastnosti v case je tedy jen 10%. Pritom u osmipinu s masivnesim provedenim a nizsim maximalnim prouden na pin byla bezpecnostni rezerva 49% a u sestipinu jeste vic. Z toho je zrejme, ze vykon noveho 12+4-pinu je hnan opravdu na hranu.
To, ze zatim zdokumentovanych problemu jen par, neznamena, ze (ostatni) konektory jsou v poradu a za problemy muze diletanstvi uzivatelu, jak alibisticky tvrdi nvidia. Spis naopak. Ve standardnim nastaveni, ve kterem kartu pouzivaji bezni uzivatele, by mela 4090 brat max 450w a to konektory (aspon zatim) zvladaji.
Pokud ji nekdo prepne do rezimu vysokeho vykonu a honi ji v nejakych testech tak, aby brala 600w, je zrejme schopen upect konektor mnohem driv, nez bezny BFU. Ale ten, kdo tohle zvladne, asi nebude diletant neschopny spravne zasunout konektor.
Uz se pry chysta revize standardu. Cekal bych, ze dojde ke snizeni povoleneho prikonu na prijatelnejsi hodnotu napr. 400w (signalizace 100, 200, 300, 400w) a pokud to dnes tak uz neni, tak ke zkraceni signalizacnich pinu, aby doslo k jejich zapojeni az jako poslednich, po spolehlivem zasunuti konektoru.
Odpovědět6 0
To je slusna snuska nesmyslu. Mozna by nebylo spatne si pred psanim prispevku na takovehle tema precist aspon zaklady fyziky vodicu, polovodicu a prenosu tepla.
Nekteri lide a obzvlast sarlatani radi pouzivaji pro podporu svych tvrzeni odborne terminy a kupi je do (pro znaleho) zcela nesmyslnych vet, aby dodali svym vymyslum zdani serioznosti a(z) vedeckosti. A casto jim to i funguje. Vetsina lidi na tom se znalosti problematiky nebyva o moc lepe nez autor a o jeho tvrzenich se jim nechce moc premyslet. A to, ze jim text prijde zvlastni az nesrozumitelny, mohou brat jak dukaz autorovi odbornosti.
Velmi dobrou ukazkou takove nesmyslnosti je formulace "foton neni tak uplně umunní vůči gravitaci a neutron má svoje tření který se zvyšuje když prochází čimdál menší "dírou" a to zase zvyšuje zahřívání a všechno je to začarovanej kruh - vyšší teplota = menší efektivita kvůli supravodivosti = ještě vyšší teplota a tak dále".
Fyzika plati pro male i velke tranzistory stejne, protoze je jen jedna. Pokud by vchtel nekdo zacit mavat kvantivou fyzikou, tak to je normalni fyzika a navic se uplatnuji pri tunelovani naboje pres potencialovou barieru u vsech polovodicivych prechodu bez ohledu na velikost.
V obvodech s jemnejsi litografii jsou tranzistory mensi a je jich na plochu sice vic, ale maji mensi kapacity ridicich elektrod a na prepnuti potrebuji potrebuji mene energie. Pro vznik a odvod tepla je podstatna objemova hustota ztrat a ta se s hustotou tranzistoru moc zasadne menit nebude.
Navic tranzistory samotne mozna nebudou ani hlavnim zdrojem tepla. Jsou to spinaci (cmos) a ty se delaji tak, aby mely v sepnutem stavu velmi maly odpor. Vetsi ztraty jsou na nich jen velmi kratce v okamziku prechodu mezi stavy. Velikost ztrat na tranzistoru tak zavisi na cetnosti zmen stavu a stoupa tedy s kmitoctem. Cekal bych vsak, ze vetsi podil ztrat bude na odporu vodicu propojujicich a napajejicich tranzistory.
Transistoru (a spoju) ve stejnem objemu/ plose je tedy pri jemnejsi litografii vic, ale s mensimi proudy a ztratami. Schopnost chlazeni obvodu je dana pomerem celkovych ztrat (tdp, pl1, ..) a plochy cipu a na litografii (moc) nezalezi.
To ze u novych ryzenu 7000 jsou male rozdily v teplotach cipu z ruznymi chladici byde asi dano hlavne tim, ze se rizeni cipu snazi tlacit procesor vzdy na teplotu 95C. S lepsim chladicem proto jede na vyssich kmitoctech a tedy s vetsim prikonem. Navic pokud je chladici vykon chladice (vyrazne) vyssi, nez prikon procesoru, prestava byt chladic uzkym mistem a jeho zlepsovani prinasi stale mensi prinos a snizeni teploty.
Nekteri lide a obzvlast sarlatani radi pouzivaji pro podporu svych tvrzeni odborne terminy a kupi je do (pro znaleho) zcela nesmyslnych vet, aby dodali svym vymyslum zdani serioznosti a(z) vedeckosti. A casto jim to i funguje. Vetsina lidi na tom se znalosti problematiky nebyva o moc lepe nez autor a o jeho tvrzenich se jim nechce moc premyslet. A to, ze jim text prijde zvlastni az nesrozumitelny, mohou brat jak dukaz autorovi odbornosti.
Velmi dobrou ukazkou takove nesmyslnosti je formulace "foton neni tak uplně umunní vůči gravitaci a neutron má svoje tření který se zvyšuje když prochází čimdál menší "dírou" a to zase zvyšuje zahřívání a všechno je to začarovanej kruh - vyšší teplota = menší efektivita kvůli supravodivosti = ještě vyšší teplota a tak dále".
Fyzika plati pro male i velke tranzistory stejne, protoze je jen jedna. Pokud by vchtel nekdo zacit mavat kvantivou fyzikou, tak to je normalni fyzika a navic se uplatnuji pri tunelovani naboje pres potencialovou barieru u vsech polovodicivych prechodu bez ohledu na velikost.
V obvodech s jemnejsi litografii jsou tranzistory mensi a je jich na plochu sice vic, ale maji mensi kapacity ridicich elektrod a na prepnuti potrebuji potrebuji mene energie. Pro vznik a odvod tepla je podstatna objemova hustota ztrat a ta se s hustotou tranzistoru moc zasadne menit nebude.
Navic tranzistory samotne mozna nebudou ani hlavnim zdrojem tepla. Jsou to spinaci (cmos) a ty se delaji tak, aby mely v sepnutem stavu velmi maly odpor. Vetsi ztraty jsou na nich jen velmi kratce v okamziku prechodu mezi stavy. Velikost ztrat na tranzistoru tak zavisi na cetnosti zmen stavu a stoupa tedy s kmitoctem. Cekal bych vsak, ze vetsi podil ztrat bude na odporu vodicu propojujicich a napajejicich tranzistory.
Transistoru (a spoju) ve stejnem objemu/ plose je tedy pri jemnejsi litografii vic, ale s mensimi proudy a ztratami. Schopnost chlazeni obvodu je dana pomerem celkovych ztrat (tdp, pl1, ..) a plochy cipu a na litografii (moc) nezalezi.
To ze u novych ryzenu 7000 jsou male rozdily v teplotach cipu z ruznymi chladici byde asi dano hlavne tim, ze se rizeni cipu snazi tlacit procesor vzdy na teplotu 95C. S lepsim chladicem proto jede na vyssich kmitoctech a tedy s vetsim prikonem. Navic pokud je chladici vykon chladice (vyrazne) vyssi, nez prikon procesoru, prestava byt chladic uzkym mistem a jeho zlepsovani prinasi stale mensi prinos a snizeni teploty.
Odpovědět0 0
Napsal jsi hodne textu, ale neodpovedel jsi na mou otazku v prispevku, pod ktery pises.
Tvuj text mi, ve vsi ucte, pripomina text sarlatanu, kteri se snazi presvedcovat sve ovecky. Silne vyrazy, vyvolavani emoci, zadne konkretni informace a dokonce i tvrzeni postavena na nepravdivych predpokladech. Jak dokladam nize v diskuzi to pentiun E5700 nema vetsi cip, nez moderni procesory.
Ale diky za tvrzeni, ze teplota procesoru nezavisi na velikosti chladice. Je to sice lez a do oci bijici fyzikalni nesmysl, ale inspiroval mne k zajimave myslence. Uvedomil jsem si, ze testy chladicu, ktere hodnoti chladice podle teploty procesoru pod zatezi mohou byt nepresne a zavadejici.
Ridici obvody v procesoru omezuji pri zatezi jeho vykon pokud dosahne nektery parametr (proud, prikon, teplota) nastaveneho limitu. Drive byval limitem prikon a tak u vsech chladicu s vetsim tepelnym vykonem generoval procesor pri zatizeni testovacim programem skoro stejne mnozstvi tepla a jeho ustalene teplota opravdu zavisela na kvalite chladice.
Od chvile, kdy intel ve snaze udrzet krok s amd pustil prikon z otezi, bude na kvalitnich zakladovkach hlavnim omezovacem vykonu teplota, i kdyz (se) o tom nemluvi. A amd u zatim vydanenych vykonejsich verzi procesoru rady 7000x primo rika, ze se v implicitnim nastaveni snazi zvysovat vykon dokud teplota nedosahne 95C.
A kdyz je vykon procesoru regulovan podle teplotu, tak zavisi na kvalite chladice. A pak dva ruzne vykonne chladice mohou pri mereni davat stejnou teplotu a tedy vypadat stejne kvalitne. Jenze se nebere v uvahu, ze s nimi ma procesor odlisny prikon a tedy i vykon v testovacim programu.
A tvoje tvrzeni, ze u modernich procesoru je stejna teplota s velmi odlisnymi chladici dana nejakym podivnym "zadrzovanim" tepla v procesoru kvuli malemu cipu, je dane nespravnosti uvazovani a neresenim problemu na zaklade fyzikalnich principu fungovani systemu pricesor a chladic.
Tvuj text mi, ve vsi ucte, pripomina text sarlatanu, kteri se snazi presvedcovat sve ovecky. Silne vyrazy, vyvolavani emoci, zadne konkretni informace a dokonce i tvrzeni postavena na nepravdivych predpokladech. Jak dokladam nize v diskuzi to pentiun E5700 nema vetsi cip, nez moderni procesory.
Ale diky za tvrzeni, ze teplota procesoru nezavisi na velikosti chladice. Je to sice lez a do oci bijici fyzikalni nesmysl, ale inspiroval mne k zajimave myslence. Uvedomil jsem si, ze testy chladicu, ktere hodnoti chladice podle teploty procesoru pod zatezi mohou byt nepresne a zavadejici.
Ridici obvody v procesoru omezuji pri zatezi jeho vykon pokud dosahne nektery parametr (proud, prikon, teplota) nastaveneho limitu. Drive byval limitem prikon a tak u vsech chladicu s vetsim tepelnym vykonem generoval procesor pri zatizeni testovacim programem skoro stejne mnozstvi tepla a jeho ustalene teplota opravdu zavisela na kvalite chladice.
Od chvile, kdy intel ve snaze udrzet krok s amd pustil prikon z otezi, bude na kvalitnich zakladovkach hlavnim omezovacem vykonu teplota, i kdyz (se) o tom nemluvi. A amd u zatim vydanenych vykonejsich verzi procesoru rady 7000x primo rika, ze se v implicitnim nastaveni snazi zvysovat vykon dokud teplota nedosahne 95C.
A kdyz je vykon procesoru regulovan podle teplotu, tak zavisi na kvalite chladice. A pak dva ruzne vykonne chladice mohou pri mereni davat stejnou teplotu a tedy vypadat stejne kvalitne. Jenze se nebere v uvahu, ze s nimi ma procesor odlisny prikon a tedy i vykon v testovacim programu.
A tvoje tvrzeni, ze u modernich procesoru je stejna teplota s velmi odlisnymi chladici dana nejakym podivnym "zadrzovanim" tepla v procesoru kvuli malemu cipu, je dane nespravnosti uvazovani a neresenim problemu na zaklade fyzikalnich principu fungovani systemu pricesor a chladic.
Odpovědět0 0
Na dobre poladene sestave s 5600g s RAM na 4266MHz se da v rozliseni 1920x1080 na nejnizsi detaily hrat i AAA hra Shadows of Tomb Rider (prum 48, min 41). Ale dalsi zvysovani vykonu integrovanych grafik na AM4 je zasadne limitovany propustnosti pameti. A vysoke ceny za velmi rychle pameti bude ochotno platit jen malo lidi.
RDNA 3 by mozna mohla narok na propustnost pameti trochu snizit, ale bez dostatecne velke infinity cache (IC) by to bylo ,
(nej)spise jen male zlepseni. A lidi ochotnych zaplatit vetsi IC by nejspis tak moc nebylo. Na AM5 s DDR5 s 2x vetsi propustnosti se da postavit mnohem zajimavejsi grafika. A v lednu mozna uvidime jestli bude s IC, nebo ne.
RDNA 3 by mozna mohla narok na propustnost pameti trochu snizit, ale bez dostatecne velke infinity cache (IC) by to bylo ,
(nej)spise jen male zlepseni. A lidi ochotnych zaplatit vetsi IC by nejspis tak moc nebylo. Na AM5 s DDR5 s 2x vetsi propustnosti se da postavit mnohem zajimavejsi grafika. A v lednu mozna uvidime jestli bude s IC, nebo ne.
Odpovědět0 0
Nejde jen o dodavku cipu pro konzole, ale i o podporu a optimalitace pri vyvoji her pro architekturu grafik a dalsi technologie, ktere amd vyviji. To prinasi posileni pozice a zajmu o samstatne grafiky pro pc.
Odpovědět0 0
Velmi zajímavé a odvážné myšlenky ;-). Rozumím tomu správně, že je u současných procesorů skoro jedno, jaký dostanou chladič :-O? A má tedy vůbec smysl jim nějaký chladič dávat 8-) ?
Myslel jsem, že postačí vlídně naznačit otázkou, ale zřejmě jsem se mýlil :-(. Tak tedy: Milý Pidaline, než začneš vynášet kategorické soudy založené na svých dojmech, nebo z informacích načerpaných z diskuzních příspěvků diletantů, není špatné si ověřit aspoň základní fakta.
Stačí porovnat plochu čipů u tří 65W procesorů. Staré Pentium E5700 82mm2, nový ryzen 5700G 180mm2, ryzen 5700x 74+125=199mm2. Je vidět, že základ celé tvé spekulace o horším chlazení, kvůli malým čipům je úplný nesmysl. Pentium E5700 nemá větší čip, spíš naopak.
Pak je dobré se podívat na tepelnou vodivost (W/m/K) použitých materiálů - měď 386, zlato 317, hlinik 237, křemík 148, indium 82, vzduch 0,026. V procesoru je na tom nejhůř iridium použité pro pájení, ale toho je velmi tenká vrstva a stejně nic lepšího, rozumně použitelného nemáme.
Dost špatně je na tom i křemík, ale s tím se taky nedá nic dělat. Kvůli nižší tepelné vodivosti a RELATIVNĚ malému průřezu cest tepla čipu se velká část rozdílu teplot realizuje právně v něm. Proto je taky nesmyslné porovnávání teploty ve starších procesorech měřících celkovou teplotu čipu jednou diodou, nebo průměrem z více čidel s teplotou procesorů, které ukazují nejvyšší lokální teplotu ze všech čidel umístěných u obvodů generujících nejvíc tepla.
Ale úplně největší problém je přenos tepla přes rozhraní chladič vzduch a pak vzduchem dál od chladiče, protože vzduch má tepelnou vodivost skoro o 4 řády horší, než indium v pájce. Proto musí být výkonné chladiče velké, aby měly velkou plochu pro výměnu tepla. A proto ventilátor a jeho rychlost zásadním způsobem ovlivňují schopnosti chlazení. Nejen že přivádějí studený vzduch, ale díky rychlejšímu a turbulentnějšímu proudění vzduchu zlepšují i přestup tepla z chladiče do vzduchu.
Tvrdit tedy, že zlepšení přestupu tepla mezi chladičem a vzduchem o 10% díky pokrytí chladiče grafenem nemá u moderních procesorů žádný význam to chce opravdu hodně odvahy ;-).
Myslel jsem, že postačí vlídně naznačit otázkou, ale zřejmě jsem se mýlil :-(. Tak tedy: Milý Pidaline, než začneš vynášet kategorické soudy založené na svých dojmech, nebo z informacích načerpaných z diskuzních příspěvků diletantů, není špatné si ověřit aspoň základní fakta.
Stačí porovnat plochu čipů u tří 65W procesorů. Staré Pentium E5700 82mm2, nový ryzen 5700G 180mm2, ryzen 5700x 74+125=199mm2. Je vidět, že základ celé tvé spekulace o horším chlazení, kvůli malým čipům je úplný nesmysl. Pentium E5700 nemá větší čip, spíš naopak.
Pak je dobré se podívat na tepelnou vodivost (W/m/K) použitých materiálů - měď 386, zlato 317, hlinik 237, křemík 148, indium 82, vzduch 0,026. V procesoru je na tom nejhůř iridium použité pro pájení, ale toho je velmi tenká vrstva a stejně nic lepšího, rozumně použitelného nemáme.
Dost špatně je na tom i křemík, ale s tím se taky nedá nic dělat. Kvůli nižší tepelné vodivosti a RELATIVNĚ malému průřezu cest tepla čipu se velká část rozdílu teplot realizuje právně v něm. Proto je taky nesmyslné porovnávání teploty ve starších procesorech měřících celkovou teplotu čipu jednou diodou, nebo průměrem z více čidel s teplotou procesorů, které ukazují nejvyšší lokální teplotu ze všech čidel umístěných u obvodů generujících nejvíc tepla.
Ale úplně největší problém je přenos tepla přes rozhraní chladič vzduch a pak vzduchem dál od chladiče, protože vzduch má tepelnou vodivost skoro o 4 řády horší, než indium v pájce. Proto musí být výkonné chladiče velké, aby měly velkou plochu pro výměnu tepla. A proto ventilátor a jeho rychlost zásadním způsobem ovlivňují schopnosti chlazení. Nejen že přivádějí studený vzduch, ale díky rychlejšímu a turbulentnějšímu proudění vzduchu zlepšují i přestup tepla z chladiče do vzduchu.
Tvrdit tedy, že zlepšení přestupu tepla mezi chladičem a vzduchem o 10% díky pokrytí chladiče grafenem nemá u moderních procesorů žádný význam to chce opravdu hodně odvahy ;-).
Odpovědět2 0
V cem spociva ta "kontrolovanost" padu prvnich stupnu jinych raket z vysky 100km a cim se lisi z pohledu bezpecnosti od padu prvniho stupne Dlouheho pochodu tak zasadne, ze udajne zpusobuje o tolik vetsi ohrozeni, ze se o tom pise jinak, nez u ostatnich raket?
Odpovědět1 1
Ne, byl zjevne nastaven tak, aby odrazel realitu pro reseni, ktere bylo pro autora experimentu podstatne.
Muj odhad naopak byl, ze v pripade aktivniho chlazeni ventilatorem by mohl byt prinos grafenu jeste o neco vyssi.
Muj odhad naopak byl, ze v pripade aktivniho chlazeni ventilatorem by mohl byt prinos grafenu jeste o neco vyssi.
Odpovědět0 0
Samotného mne to zlepšení překvapilo.
Ještě zdůrazním, že byl v tom experimentu použit čistě pasivní chladič bez ventilátoru. Kdyby se na chladič ještě foukalo, tak by možná mohlo to zlepšení být o něco větší. Protože pokrytí grafenem nejspíš zvýší "hrubost" povrchu a proudění vzduchu kolem něj bude turbulentnější. V mezní vrstvě bude tedy docházet k lepšímu promíchávání vzduchu a tedy i k lepšímu přenosu tepla do okolí.
Ještě zdůrazním, že byl v tom experimentu použit čistě pasivní chladič bez ventilátoru. Kdyby se na chladič ještě foukalo, tak by možná mohlo to zlepšení být o něco větší. Protože pokrytí grafenem nejspíš zvýší "hrubost" povrchu a proudění vzduchu kolem něj bude turbulentnější. V mezní vrstvě bude tedy docházet k lepšímu promíchávání vzduchu a tedy i k lepšímu přenosu tepla do okolí.
Odpovědět0 0
Vypadá to tak :-), ale jíá to neměřil ;-).
Odpovědět0 0
Můžeš mi vysvětlit, jak může stáří článku ;-) nebo procesoru ovlivnit rozdíl ve schopnosti vyzařování tepla chladičem bez a s pokrytím grafenem. Protože to byla v tomto experimentu jediná změna na cestě tepla z jádra procesoru do okolního prostředí.
Odpovědět0 0
Netopí plocha, ale tranzistory a spoje. Teplota měřená v místě obvodu (třeba CPU jádra), kde se teplo vytváří, je vyšší, než je průměrná teplota čipu. V místě připájení rozhodně není těch 95C, ale mnohem méně. Proto jsou chladiče i jejich tepelné trubice studené. A i kdyby teplota pod rozvaděčem byla taková, že by se ta pájka tavila, tak není problém, pokud s tím návrh součástky počítá. Ostatně běžně se v chlazení používá tekutý kov, což je pájka, která je tekutá už za pokojové teploty.
Jinak máš pravdu, že odvést stejné teplo z menší plochy je určitě trochu větší konstrukční výzva. Zvlášť když se vlastnosti spoje nemají v čase měnit. Právě ta stabilita byla problém u dříve používané Intelské pasty a pájením se vyřeší i tento problém. Pro samotné tranzistory ale teploty kolem 100C nejsou nebezpečné. Návrhové teploty přechodů pro běžné součástky jsou 125C a více. Mimochodem ve dřívějších procesorech, které měřili jen teplotu celého čipu, byly teploty zatížených tranzistorů dost možná ještě o dost vyšší než 100C. Jen to uživatel nevěděl, protože se ty teploty neměřily.
Když odhlédnu od toho, že honit procesory pro běžného uživatele tak, že má spotřebu větší než 200-300W je kravina, tak ani to není neřešitelné. Jen by to chtělo chladit bez rozvaděče tepla přímo tepelnými trubicemi chladiče na čipu, jako se to dělá u grafik, nebo notebooků. Ale pak by byl procesor zranitelnější, počet vhodných chladičů by byl menší a chladiče by byly dražší.
Jinak máš pravdu, že odvést stejné teplo z menší plochy je určitě trochu větší konstrukční výzva. Zvlášť když se vlastnosti spoje nemají v čase měnit. Právě ta stabilita byla problém u dříve používané Intelské pasty a pájením se vyřeší i tento problém. Pro samotné tranzistory ale teploty kolem 100C nejsou nebezpečné. Návrhové teploty přechodů pro běžné součástky jsou 125C a více. Mimochodem ve dřívějších procesorech, které měřili jen teplotu celého čipu, byly teploty zatížených tranzistorů dost možná ještě o dost vyšší než 100C. Jen to uživatel nevěděl, protože se ty teploty neměřily.
Když odhlédnu od toho, že honit procesory pro běžného uživatele tak, že má spotřebu větší než 200-300W je kravina, tak ani to není neřešitelné. Jen by to chtělo chladit bez rozvaděče tepla přímo tepelnými trubicemi chladiče na čipu, jako se to dělá u grafik, nebo notebooků. Ale pak by byl procesor zranitelnější, počet vhodných chladičů by byl menší a chladiče by byly dražší.
Odpovědět0 0