Nove karty vypadaji opravdu zajimave, ale ja mam otazku pro zdejsi odborne publikum i redakci.
Planuju po letech uprgrade z GTX 1080. Hraji aktualne v rozliseni 3440x1440 a po 4k a vyssim zatim nijak zvlast netouzim, na nekolik let pocitam s timto. Mam pockat a investovat do nove generace karet, uvazoval bych asi o 4080 16GB verzi, kdyz uz, nebo bohate bude dostacovat soucasna generace a kdyz ano, jsou nejake objektivni duvody, proc pripadne koupit AMD 6900/6800 XT, nez Nvidii 3080 10/12GB?
A jeste prosim jeden dotaz. KDyz si koupim lowhash kartu, tyka se to omezeni pouze tezeni kryptomem, nebo to ma dopad i na vykon napr. pri vypoctu v CADu a dalsich programech, vypocty umele inteligence atp.?
Odpovědět0 0
Ceny asi pouze zase pro lidi co nevědí co s penězi. Jako rozdíl 4GB paměti za přerážku 10 000Kč ? To jim trochu asi straší ve věži ne?
To si ty karty nekoupí ani normální smrtelník, protože tímhle stylem nebude stát 15 000Kč ani 4060.
Tady už chybí zase jenom krypto horečka.
Odpovědět0 1
"Jako rozdíl 4GB paměti za přerážku 10 000Kč ? "
Podívejte se na ty specifikace, vždyť Vy jste úplně přeskočil odstavec o RTX 4080. To zdaleka není 4GB rozdíl. Je to na užší sběrnici, je tam čtvrtinový rozdíl v počtu CUDA jader,... To jsou opravdu hodně odlišné karty navzdory tomu, že mají stejné označení, a zdaleka to není jen o množství paměti.
Odpovědět3 0
Ano, ale na herní rozdíl to bude mít cca 5-7% rozdíl.
Odpovědět0 2
Jakože víc paměti na rychlejší sběrnici a k tomu přes 26% Cuda jader navíc přidá podle vás jen 7% výkonu? To se obávám, že vám fakt nesedí výpočty...
To že je to obojí nazvané 4080 je fakt prasárna, to by mě zajímalo, kdo měl takhle dobrej nápad, v tom udělat naprostý chaos.
Odpovědět1 0
Mě jde jen o fps, který se za mě prostě ani nehnou.
6800xt má 16GB 256bit a 3080 10GB 320bit, ale výkonově jsou ty karty dost podobné.
4080 16GB vs 12GB budeou za mě stejné jako je dnes 3080 10gb vs 12gb. A co se týče těch cuda jader, tak to také nevím k čemu vám je v gamingu. Cuda jádra se využívají při práci ne při hraní. Pokud chcete zkoumat výkon porovnávají se stream procesory.
Odpovědět0 3
Neznáte terminologii, to je pak těžký...Cuda jádra jsou to co právě zpracovává grafiku ve hrách, stejně tak to co slouží k výpočtům. Nepleťte si to CUDA "API". Mícháte hardware se softwarem. Stream processor je jen to, jak tomu říká AMD ve svých GPU, Cuda jádra zase to, jak tomu říká Nvidia, jinak je to dělá to samý.
Odpovědět2 0
"A co se týče těch cuda jader, tak to také nevím k čemu vám je v gamingu. Cuda jádra se využívají při práci ne při hraní. Pokud chcete zkoumat výkon porovnávají se stream procesory. "
To jakože v jednom GPU jsou speciální jednotky pro práci a speciální jednotky pro hraní, nebo jak jste to myslel? Vždyť je to to samé. Ty samé jednotky používáte pro hraní i pro práci v CUDA algoritmech. To se opravdu nedělí na pracovní a herní část GPU. To v podstatě vzniklo tak, že grafika ve hrách je vysoce paralelní záležitost a před mnoha a mnoha lety někoho napadlo, že by se tyto jednotky daly využít nejen na hry, ale i pro paralelní výpočty a jejich akceleraci, a tak vznikla technologie CUDA. V zásadě to ale běží na těch samých HW jednotkách, které počítají grafiku hry, a Nvidia začala tato grafická jádra, která do té doby počítala grafiku ve hrách, nazývat CUDA jádry.
"4080 16GB vs 12GB budeou za mě stejné jako je dnes 3080 10gb vs 12gb."
Tak na to zapomeňte, tam bude rozdíl výraznější. Vždyť RTX 4080 16GB má o 22 % vyšší hrubý výkon a o 43 % vyšší paměťovou propustnost. To jsou výrazně větší rozdíly než byly u RTX 3080 mezi 10GB a 12GB verzí, kde to bylo +2%/+20%. Teď je rozdíl +22%/+43%. To je rozdíl modelové řady.
Odpovědět3 0
Ten nápad je ještě starší než herní 3D akcelerátor, pracovní stanice Silicon Graphics měly obousměrnou grafickou sběrnici právě proto, že když nebylo potřeba dělat grafické výpočty s výstupem na monitor, tak další další dvojí využití. Buď náročné grafické scény třeba pro film, nebo přímo obecné výpočty, které už tehdy byly rychlejší než využití symetrického multiprocessingu, který ty stroje samozřejmě uměly.
Odpovědět1 0
U Nvidie není chaos nic nového, modelů kde si musíte dávat pozor na parametry už vydali dost. Novinka je pouze v tom, že ten chaos tvoří už při vydání a ne až dodatečně. Podle všeho by to měla být 4070. Tu ale možná ani nevydají. Řada 40 a 30 má koexistovat.
Odpovědět2 0
Možná hloupý dotaz, ale proč se RT špatně paralelizuje? Vždyť se u odrazné plochy počítá každý paprsek zvlášť, tak by to naopak mělo být absolutně paralelní. Kolik pixelů, tolik paprsků.
Odpovědět1 0
"Kolik pixelů, tolik paprsků."
To je sice pěkná myšlenka, ale je dobré si uvědomit, co to v tom pixelu dělá. Tam potřebuje sečíst několik složek dohromady, odražené, difuzní světlo, barvu samotného objektu, transparentnost,... Takže najednou Vám tam jak čertíci z krabičky začnou vyskakovat různé zdroje toho, co ovlivní výslednou barvu pixelu, které jsou však v různých místech paměti, která se nedá celá narvat do cache a začínáte mít problém (základem paralelního zpracování není jen to, že v každém vlákně počítáte stejný algoritmus, ale i to, že přistupujete podobným způsobem do paměti).
Odpovědět3 0
Já jim těch 2-4 nasobný výkon nežeru. Reálně to bez dlss 3.0 bude někde mezi 50 a 80%. Věřím, že největší rozdíl bude právě dlss 2.0 vs 3.0, kdy ten vykon může být těch 100-150%.
Nicméně ta přejmenovaná 4070 na 4080 12gb je fakt joke. Když by ten rozdíl byl opravdu jen ve Vram, tak budiž, ale rozdíl je úplně ve všem. Velikost vram, propustnost, méně shaderů, rt jader atd.
Odpovědět0 0
Je to podobny jako drive GF 1060 6GB vs 3GB. Podstatny rozdil je v tom, ze to byly mainstreamova karty v cene 6-8k.
Tohle je karta za 30k...
Odpovědět0 0
za ty prachy si to můžou strčit za klobouk
Odpovědět3 0
Tak to jsou nad míru potěšující specifikace,
kdesi jsem četl že délka 4090 se odhaduje na 36cm, a mluvilo se o 4 slotovem chladiči, nakonec jen 30cm a 3 sloty
RTX4080@16gb se spotřebou 320W to je doslova jen o pár wattů víc než moje 2080ti ,
A skok mezigeneračního výkonu RTX2000-> RTX3000-> RTX4000 tedy zajistí obrovský nárůst výkonu na Watt
4080@16gb je očividně přejmenována 4080ti
S cenou NV nezklamala, zdražuje s každou generací
Ale RTX4080 s 16GB za 33000 Kč při tom výkonu je parádní kousek a moje jasná volba ?? jen se bojím že nereferenčních modelů se nedočkáme ani za rok
Odpovědět1 2
"4080@16gb je očividně přejmenována 4080ti "
Tady nevím. Ona mezi 4080 a 4090 zeje snad 70% mezera, což je strašně moc. Tam je hodně místa pro 4080 Ti. Spíše to vypadá, že 4080/12GB je přejmenovaná 4070Ti.
Odpovědět3 0
to bude reálně tak 40 v našich shopech, ty ceny jsem čekal lepší
Odpovědět0 0
Nebudu nijak hodnotit vystupování a prezentaci pana koženky. Nicméně ty grafiky dle toho, co tam vypustil vypadají lépe, než jak vypadaly z úniků.
Myslím si, že se spousta lidí uklidnila, když hovořil o 450w pro 4090. Stejně to je vysoké číslo, ale lepší než 600w. Teď jen můžeme doufat, že si nVidia nezačala upravovat TDP svých karet jako Intel a těch 450w není ve skutečnosti pro nějaký základní takt.
I ten výkon vypadá z prezentace dobře... Dalo se čekat, že se nVidia především opět zaměří na RT a DLSS. Škoda, že neukázali nějaké reálné testy her například. Nebo i něco v čem by byl vidět výkon čistě rasterizacni.
Teď už jen počkat na recenze, aby jsme zjistili, jak se věci mají doopravdy a pak čekat na to, s čím se vytáhne AMD.
Odpovědět3 0
Tohle se vědělo předem - jak bude vypadat prezentace z hlediska příkonu, aby se lidi uklidnili. Bude prezentován příkon s úsporným BIOSem, ovšem herní výkon s tím druhým BIOSem. A je to tady a spoustu lidí to uklidní.
On taky běžný spotřebitel vůbec nepozná, jestli mu hra jede 80 nebo 120 fps. Mimo závodní hraní je to dost jedno.
Odpovědět2 0
Reálně mají na těch kartách být fyzicky přepínače režimu. To znamená že pro 4090 platí 450 i 600 W.
Odpovědět0 0
prezentácia od Jensena bola ako gulášová reklama, nič moc, zaujme len pomer cena/výkon, staré Ampere budú musieť ísť pod súčasné ceny čo znamená, že na nich nikto nezarobí ani cent, v podstate nová Ada je len mierne vylepšená Ampere architektúra, žiadne zásadné zmeny .
Odpovědět2 5
"....podstate nová Ada je len mierne vylepšená Ampere architektúra..."
Pak by mě zajímalo kde NV vzala 2-4x větší výkon pokud by to byl dle tvého komentáře pouhý refresh
Odpovědět4 1
"nová Ada je len mierne vylepšená Ampere architektúra, žiadne zásadné zmeny"
No jestli Vám nestačí dvojnásobný hrubý výkon (a v některých aplikacích prakticky i 4násobný, např. při RT), změny v DLSS a další novinky při v podstatě velmi podobné spotřebě, tak mě opravdu nenapadá, co by to ještě mělo umět, aby Vám to přišlo jako zásadní. Tohle je opravdu hodně velký skok ve výkonu. A jestli AMD přijde se svým jen 50% navýšením výkonu na watt, tak to bude mít proti Nvidii asi dost těžké.
Odpovědět2 0
"tak mě opravdu nenapadá, co by to ještě mělo umět"
Muselo by to byt AMD. Potom by to uz bolo zasadne. :-)
Odpovědět2 0
Já myslím, že ani kdyby to bylo AMD, tak by to pro něj nebylo zásadní... Ten hltá jen Intel. Však úžasný 320 MHz ovreclock na Intel Arc přidá závratné 4 fps...
Odpovědět0 0
Tak asi bych to nadšení trochu krotil zase, dokud neuvidíme nezávislé recenze.
Možná je vaše paměť krátká, ale při uvedení Ampere pan koženka taky přesvědčivě tvrdil, že rtx3080 je 2x výkonnější než rtx2080 a pak to vlastně bylo trochu jinak že?
Odpovědět5 0
Dopadlo to tak jak říkal. V některých případech šel výkon na víc jak 2 násobek. Problém je v tom ze si lidi neuvědomují co se říká. Up to neznamená 2x všude.
Odpovědět0 1
Vím určitě co to bude umět. V zimě to děsně ušetří za vytápění.
Odpovědět0 1
Ušetří "vytápění", ale určitě ne "na vytápění". Abys ušetřil na vytápění, musel bys mít smlouvu přímo s výrobcem elektřiny a mít ji řekněme 1 kč / kWh. Pak by to bylo fajn topení na zimu. Co s tím ale v létě? :-O
Odpovědět0 0
proč by to nemělo ušetřit za vytápění??
já třeba za poslední 4 roky topil jen dohromady asi 1 měsíc protože byt mi 24/7 vytápějí počítače
odvede mi to práci a vedlejší produkt je odpadní teplo
rozhodně lepší než tu elektřinu spálit v přímotopu bez dalšího využití
a v létě? v létě mi stačí abych měl otevřené aspoň 1 okno na ventilačku
Odpovědět0 0
Skok ve výkonu to je, na druhou stranu zde máme o cca 2 generace novější výrobní proces než u předchůdce. Jinak architektonicky to fakt není žádný zásadní posun - více výpočetních jednotek, více paměti, ale žádná revoluční změna. Podívejte se na AMD - v minulé generaci infinity cache, v této chipletový design. Na reálné porovnání si budeme muset počkat, ale co se týče architektury, tak teď je AMD rozhodně inovativnější.
Odpovědět4 0
Porovnání dnešního výkonu se zapnutým DLSS 3.0 proti výkonu předchozí řady bez DLSS dává opravu zajímavá čísla. Skutečný nárůst hrubého výkonu je v malé části her 100%, většinou kolem 60% a výjimečně prý dokonce došlo k poklesu.
Nic proti tomu, 60% je dobré číslo, ale marketingový obal Nvidie z toho dělá zázrak, který se nekoná.
Odpovědět0 0
Rozdíl je třeba v tom, že AMD přechází na chipletové řešení i ve spotřebním segmentu grafických karet, optimalizace cache k větší propustnosti, kdy by měl mít systém i při stejné datové šířce větší reálnou datovou propustnost. Jenže datová šířka je ve skutečnosti 1,5. násobná. Počet dále optimalizovaných stream procesorů (zbavují se už nepotřebných starých instrukcí) je 2,4. násobný a k tomu vyšší takty. Připadá vám to málo?
Odpovědět0 0
Na těch fotkách je nějaký nový Mac s grafikou od Nvidie?
Odpovědět0 0