Google se brání že nástroj na detekci AI obsahu není dostatečně spolehlivý. No... Jako jo, ale ony ty nástroje nejsou spolehlivé oboustranně. Aby náhodou těch reálných AI referencí už nebylo výrazně více než těch 10% :)
@anup
Čína má EUV litografii aktivně ve vývoji, ale ještě ne hotovou a bez toho 2nm nedává moc smysl. 6let pozadu se může zdát jako hodně, ale jednak to je výpočetní výkon 20 série, což vlastně není tak špatný (a pro kontext pořád velmi dobrá A100 je už 5 let stará a nejsem si jist jaký je limit pro tu ořezanou H20 jestli vůbec dosahuje výkonu plnohodnotné A100. A ona i ta H100 že které ten kripl pro čínský trh vznikl je taky 3 roky stará), ale taky ještě před rokem nebo dvěma nedosahovaly jejich karty ani těm co nVidia dělala před 11 lety (GTX 980), ale tam to bylo asi hlavně kvůli software stránce. Ten vývoj tam jde hodně rychle dopředu, ale pořád mají hodně co dohánět
@snajprik
Ne, nedokážou. Mají sice produkci ale kvalita jak výrobních procesů tak výsledků je pořád dobrých 6 roků pozadu. Na druhou stranu se (tradičně) operuje potenciální existenci backdoor a bezpečností. Prostě nic jiného než ryzí politický boj, stejně jako kdysi ban na Huawei.
@anup
Čína má EUV litografii aktivně ve vývoji, ale ještě ne hotovou a bez toho 2nm nedává moc smysl. 6let pozadu se může zdát jako hodně, ale jednak to je výpočetní výkon 20 série, což vlastně není tak špatný (a pro kontext pořád velmi dobrá A100 je už 5 let stará a nejsem si jist jaký je limit pro tu ořezanou H20 jestli vůbec dosahuje výkonu plnohodnotné A100. A ona i ta H100 že které ten kripl pro čínský trh vznikl je taky 3 roky stará), ale taky ještě před rokem nebo dvěma nedosahovaly jejich karty ani těm co nVidia dělala před 11 lety (GTX 980), ale tam to bylo asi hlavně kvůli software stránce. Ten vývoj tam jde hodně rychle dopředu, ale pořád mají hodně co dohánět
@wendak
Však oni žádné sankce neobchází, naopak jsou nuceni k vývoji nesmyslně omezených a zaškrcených produktů aby je splnili což akorát zvyšuje náklady... A pak zas přijde nějaký pablb co tomu vůbec nerozumí a udělá jiné sankce a jiné restrikce aby zas firmy musely platit vysoké náklady na to, aby je splnily... A ty plnohodnotné karty se ve výsledku stejně do té Číny dostanou pomocí pašeráků, překupníků apod...
@honza1616
Mám 1060 v notebooku a jako grafika na běžné hraní vlastně stačí. Rozjede cokoliv co mi stojí za hraní, někdy s osekanými detajly, ale s tím nemám problém. Na nějakou náročnější práci to nepoužívám, tam prostě nestačí ani výkonově, ani kapacitou a chybí tomu klíčový hardware jako tensor jádra. Mám 3080ti v PC, tam narážím na ten popisovaný problém v článku, stable diffusion běží na 3080ti násobně hůř než na 4060ti 16GB. Graficke jádra se ani nezahřejí (jede kolem 20%vykonu) ale nedostatek paměti to brzdí. 12GB je prostě žalostně málo. Ve výsledku co trvá na 4060ti minutu u mě trvá 5 minut a občas se i zasekne a ani nedoběhne. Pokud jde o výkon tak všechny mainstream/high end karty posledních 6 let jsou úplně v pohodě, ale jsou parametry pro které má smysl si počkat na ty 'super' edice, jako třeba právě kapacita paměti
@bison
Pro nVidia je spotřebitelský segment neperspektivní a mají mizerné marže na všem mimo 5090. Takže mimo to že dělají AI akcelerátory a nemají kapacity na spotřebitelské karty, tak když už jich pár tisíc reálně vyrobí, jsou to 5090. AMD nemá konkurenci v mainstreamu protože nVidia to nevyrábí. Takže ty rekordy jsou dost realistické.
@rizecek
Máš tam chybu, 4070ti je srovnatelná možná tak s 12GB variantou 3080,4070ti je na půl cesty mezi původní 3080 a 3080ti a 4070 nedosahuje 3080. Takže 5000 a 4000 mají podobné mezigenerační zlepšení
@rizecek
Vzhledem k tomu že mnohdy je mnohem důležitější ta 16GB kapacita než hrubý výkon a alternativa je až na 4080/5080 řadě a vyšší, tak bych řekl že naopak 5060ti 16GB je zajímavější než 5070 nebo 5070ti. A že nemá hrubý výkon? To, že hrubý výkon u GPU klesl k mezigeneračním ziskům na úrovni jakou roste výkon třeba u CPU a už to není skoro o polovinu jako v krátkém okně pár let zpátky neznamená, že by žádný hrubý výkon nebyl, spíš že (jako u toho CPU) je rozumné uvažoval upgrade až tak po 3-4 generacích, ne hned v následující generaci.
@nostekl2
I bez dostupnosti to má informační hodnotu. Už teď je vidět, že pokud jste neměl dostatečný důvod na upgrade na 4000 řadu, nebo 4000 řadu máte, tak můžete vesele přeskočit i 5000, protože zlepšení zrovna moc nepřináší.
@anup
K čemu? Radeony nedávají moc smysl. Pokud bych hledal jen něco s přijatelným výkonem a hlavně větší kapacitou paměti, tak zdaleka nejlíp vychází ta 16GB 4060ti, což je pro inferenci modelu parádní kombinace. Navíc tensor jádra dali v 4000 řadě i do toho mainstreamu, takže bude schopna rozumně i dotrénovat modely pokud bude potřeba. A pokud bych chtěl něco výkonného kde bych si i nějaký AI model vytvořil, tak dává smysl spíš upgrade na RTX4000. AMD moc rozumných alternativ nemá...
@anup
Zrovna s tou pamětí to dává pořád smysl v závislosti na použití a s radostí bych bral do notebooku něco co má grafický výkon i na úrovni současné mobilní 4050 ale 16GB paměti. Mám ve stolním počítači 3080ti a v mnohých stable diffusion modelech je díky nedostatku paměti násobně pomalejší než ona 16GB 4060. Jádro běží na 20% výkonu (nutno dodat kartu mám značně podvoltovanou a přikrčenou, takže výkonově je někde mezi 3070ti a 3080), ale paměť vyčerpaná a co na té 4060 16GB trvá minutu u mě trvá 5
@anup
Zrovna s tou pamětí to dává pořád smysl v závislosti na použití a s radostí bych bral do notebooku něco co má grafický výkon i na úrovni současné mobilní 4050 ale 16GB paměti. Mám ve stolním počítači 3080ti a v mnohých stable diffusion modelech je díky nedostatku paměti násobně pomalejší než ona 16GB 4060. Jádro běží na 20% výkonu (nutno dodat kartu mám značně podvoltovanou a přikrčenou, takže výkonově je někde mezi 3070ti a 3080), ale paměť vyčerpaná a co na té 4060 16GB trvá minutu u mě trvá 5
@anup
K čemu? Radeony nedávají moc smysl. Pokud bych hledal jen něco s přijatelným výkonem a hlavně větší kapacitou paměti, tak zdaleka nejlíp vychází ta 16GB 4060ti, což je pro inferenci modelu parádní kombinace. Navíc tensor jádra dali v 4000 řadě i do toho mainstreamu, takže bude schopna rozumně i dotrénovat modely pokud bude potřeba. A pokud bych chtěl něco výkonného kde bych si i nějaký AI model vytvořil, tak dává smysl spíš upgrade na RTX4000. AMD moc rozumných alternativ nemá...
@snajprik
Ale zachrání. Jak je zmíněno je to karta mířená na AI využití. Z vlastní zkušenosti: 3080ti na některých modelech stable diffusion trvá kolem 5 minut vygenerování výsledků (a někdy ani nedoběhne). 4060 to samé zvládne za minutu. A to se ani nebavíme o posledních modelech generativní AI, ale roky starých. A proč tomu tak je? Protože 4060 má variantu s 16GB VRAM která ten starý model utáhne. 3080ti má 12GB, využití GPU kolem 20% ale paměť kompletně vyčerpaná... Ostatně je to i v novějších hrách vidět při použití GPU s 6GB VRAM, kdy díky nedostatku paměti některé tituly jedou hůř než výrazně výpočetně slabší karta s 8GB
@Thorleif
To není jisté, BTC má výhodu že je nejvíc v povědomí a byl první. Ale jinak je energetický nákladný, pomalý a špatně škálovatelný. Na trhu jsou i zajímavější měny, s tím že ve výsledku bude výhercem BTC bych si nebyl úplně jist.
@jazza
Ano, člověk ztratil přístupové údaje ke své peněžence. Kdybyste neměl správce majetku (banku) a zapomněl přihlašovací údaje k vašemu bankovnímu účtu, taky se k úsporám už nedostanete. A u BTC taky můžete zvolit variantu kdy váš účet spravuje nějaká společnost a v případě ztráty s vámi projde proces ověření totožnosti a obnovy hesla...
@ensidia
Podle ECB má bitcoin nulovou vnitřní hodnotu. Což je naprosto stejná vnitřní hodnota jako má euro. Nebo česká koruna, nebo jakákoliv jiná měna s nuceným oběhem. Mít v rezervách EUR, USD nebo BTC není žádný rozdíl, jen ten BTC je bezpečnější a méně manipulovatelný (nelze libovolně uměle zvýšit množství v oběhu)
@Pavel Matějka
Má výtěžnost nějak definované pravidla? Osobně o žádné standardizaci nevím, jediné co jsem našel že je to poměr bezproblémových čipů, ale bez informace jakych. Výtěžnost pak může být hodně závislá na ploše čipu, takže monolitické obrovskou nVidia GPU bude mít mnohem horší výtěžnost než maličký chiplet AMD procesoru (jeden z důvodů proč často NVidia používá vyšší třídu čipu pro nižší karty jen s deaktivovanými jádry). A ten uvedený rozdíl mezi Samsung a Intel vs TSMC je prostě strašně velký. Kdyby to byly porovnatelné hodnoty tak o Samsung nikdo neuvažuje, navíc v případě intelu jsou dost rozporuplné informace někde v rozmezí 10-60%, pravděpodobně právě kvůli rozdílným rozměrům vyráběných čipů
@Pan Jaroslav Crha gIT
No GPU se jim celkem daří, když odhlédneme na zpětnou kompatibilitu s DirectX 10 a starší tak lepší výkon a menší cena než srovnatelné segmenty konkurence, takže velmi schopný a kompetitivní mainstream. CPU nejsou špatné výkonem, jen ta spotřeba je šílená, což je ale taky problém Intel výrobních procesů (viz hodně slušný lunar lake). Takže zda se ze design čipů je u nich stále špičkový. Uvidíme co bude dělat příští vedení Intelu. Jestli se rozhodnou vyčlenit výrobu do samostatného podniku tak to bude dost oživení pro intel (ostatně v minulosti takový krok zachránil i AMD), jestli budou pořád trvat na tom že si budou vydržovat faby tak to s Intelem podle mě moc dobře nevypadá.
@maraou
No ono by to mohlo i dávat smysl, otázka je pak cena srovnatelného procesu u TSMC, Samsung a Intel a případné slevy z dlouhodobé spolupráce. Ale buďme upřímní, TSMC pravděpodobně bude i levnější...
Autor by si měl přečíst co ty grafy říkají. Odvolává se na to jak je zmatené udávání vyššího výkonu, ale srovnání výkonu je jen těch 10% nárůst. To druhé je srovnání poměru výkonu a ceny, je to i v názvu grafiky (performance for dollar), proto tam udávají o tolik lepší výsledky než konkurence, jsou totiž levnější.
@bespi
Na první generaci to dost slušně opravili včetně obrovského nárůstu efektivního výkonu. Na 100% to nebude a budou hry které na tom nepojedou (na 100% to nezvládá ani AMD a to jsou na trhu grafik jak dlouho), ale většina by už měla být v pohodě
@anup
A třeba 7800X3D je teda co, když ne Ryzen 7? Samozřejmě že X3D mají i jiné řady než Ryzen 5, který byl, pokud se nepletu, první v 3D procesorech.