Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od Maw2100
Moje RTX4090 drží stabilně 2900Mhz+! Základní boost je kolem 2700Mhz. O kolik zvedne výkon 200Mhz na 16384 CUDA? Bude ještě RTX5080 rychlejší? :­-)
Odpovědět0  0
Takže mám doma v bedně jen lehce pomalejší Instinct MI300X za cca 2000$! Neskutečný dělo ta RTX4090 :­-­).
Odpovědět3  0
Člověče to je vopruz co? Těch kravin přibývá. Svět už je jedna velká kravina!:­-­) V jednoduchosti je síla! Nebo v jednoduchém je síla..........?:­-­) Jinak na stránce nVidie píšou u systémových požadavků jen Win11. 35GB v zipu hmmmm .
Odpovědět1  2
Hodnota nVidie letí neskutečně nahoru!
Odpovědět0  1
Já to říkal! NVidia v roce 26 v noteboocích CPU+GPU.😉😎
Odpovědět1  1
V pořádku, podle Valve použil nelegální software, aby získal výhodu.
Odpovědět0  1
Ne, takhle se to nedělá!
Odpovědět0  0
Valve je férový, ale nenechá si neautorizovaně zasahovat do svého duševního vlastnictví. To AMD se mělo připlazit a slušně požádat ty pohádkáři.
Odpovědět0  1
Tvrdit, že Win12 poběží i na ARMu je asi odvážná, ale tenhle trh nabíra takové tempo, které Microsoft nemůže ignorovat. Představa, že zachytí trend s obrovským potenciálem je příliš lákavá. Konec konců myšlenka společného OS pro mobily, tablety a počítače u nich není nová.
Odpovědět0  0
A to tu je jeden co se mi smál, když jsem napsal, že další Windows poběží na ARM. Každopádně co se týče nVidie je jasné, že chtějí vlastní spotřebitelské CPU­-GPU řešení. Sílu a schopnosti na to mají!
Odpovědět0  1
Psal jsem, že nVidia půjde do notebooků.😉 Čekal jsem to jen později­(2026­). Po roce 2030 budou notebooky výhradně na ARM.
Odpovědět0  2
Ano, problém nejsou Windows na ARM. Ani já s tím nemám problém, naopak.
Odpovědět0  0
Psal jsem to jinde. Do konce desetiletí budou ARM v noteboocích jako nejvýkonnější CPU s integrovaným GPU o výkonu generace Ada Lovelace od nVidie.
Odpovědět0  2
Ona je nějaká konkurence pro RTX4090?:­-)
Odpovědět1  1
DLSS jak se zdá je modulární koncept. V budoucnu se budou připojovat nové funkce. Tensor jádra s OFA jsou na to projektované. AMD bude vše cpát má standardní jádra až jim nezbude výkon na stínování, mapování textur.....:­-)
Odpovědět0  1
Větší volovinu jsem nečetl! To je jako bych napsal, že prioritou naší vlády je můj blahobyt. Všichni o něm mluví, ale nikdo ho ještě neviděl. To je FSR3.
Odpovědět0  0
Jakube nepodléhej PR AMD. Nevyzkoušíš nebudeš mít výkon. Nebudeš mít Anti­-lag. Generovat snímky budou pomalá CUDA jádra s vysokou latencí. Jak to asi dopadne? A to i když má tvá karta výrazně výkonnější Tensor jádra.
Odpovědět0  0
Absolutně nechápete co pan rizecek sděluje a já s ním plně souhlasím. Věřím, že nVidia a modeři nakonec podporu vyladí. Už je ve hře DLSS 3.5 neoficiálně a RTX 4090 s max nastavením ve 4k dělá 140­-150FPS s FG. Samozřejmě grafika je citelně kvalitnější než s FSR2.
Odpovědět2  2
Vážně? A co je pro tebe pokrok? Jakou cestu by sis představoval, když heslem je rychleji, přesněji, dále.....? AI je v tomhle boji konkurenční výhoda. Lidé se jí nevzdají! Jakmile vzal budoucí člověk do ruky pazourek, byl jeho osud dán. Nebuď tak sebestředný. :­-)
Odpovědět0  1
V podstatě to bude další evoluční krok.
Odpovědět2  1
Co se CPU týče máte naprostou pravdu. 4090 má takový výkon, že nižší rozlišení než 4k způsobí na jakémkoli i nejvýkonnější procesoru současnosti bottleneck. Zkoušel sem jí párovat s Ryzenem 5900x a třeba ve hře Callisto protocol v rozlišení 3440x1440 bylo GPU vytížené někde jen na 55­-60%, takže s 3950x by to bylo ještě horší. 5800x3D zvýšila vytížení cca o 20%, 7800x3D o dalších 10­-15%. Vzhledem ke spotřebě jsou tyto 3D procesory od AMD asi nejlepší volbou.
Kupoval jsem nový zdroj disponující novým konektorem 12+4pin ­(12VHPWR­), protože přechodka u Suprim X má čtyři 8pin konektory! To je neskutečný kabelový pavouk. Teď mám ve skříni jeden tenký a opticky to vypadá mnohém elegantněji, praktický dopad to má na lepší ­"Air flow­". Konektory Jak jsem psal úplně v pohodě a to už do karty teklo i bezmála 530W!
4070Ti je dobrá volba, 60hz monitor ale ne :­-­) . 144 nebo 165hz je úplně jiný zážitek ikdyž jsou fps trochu nižší! I u slabších karet máte pocit, že grafika jede jaksi lépe.
Odpovědět0  0
Velká chyba! Mám MSI RTX 4090 Suprim X a to je kategorie sama pro sebe. Moje starší karta RTX 3080Ti od EVGA je opravdu protivně hlučná a neskutečně se ­"nafuní ­" sotva na 50% výkonu tohoto monstra. Někdy mě přijde, že je až nefér s jako lehkostí 4090 všechno zvládá. Proti 3080Ti není vůbec slyšet. Naprostý komfort! Takt drží i v maximální zátěži kolem 2900Mhz. Při odběru 480­-90W se teplota nevyšplhá na 70°C. A přídavné napájení? Geniální! Tenký kabel ve skříni nezabírá téměř žádné místo. Inteligentní řešení. Pálení konektorů? O čem to vlastně mluvíte? Nic takového se u mě neděje!
Odpovědět0  0
Tak na rovinu! Můj příspěvek nebyl myšlen úplně vážně. CPU od AMD mají můj respekt, ale GPU fakt ne. Nudí mě. Bez inovace. Jsou ale hráči, kterým stačí co AMD dělá.
Odpovědět1  0
Tak všech 26000 není určitě ve vývoji. Sice se nepočítají uklizečky a ­"svačináři­", protože tyto služby většinou zajišťují externí firmy, ale třeba má Lisa špičkový tým kadeřnic.
Jinak k tomu APU. Takhle se chová firma co má omezené zdroje. Musí dělat kompromisy a dobře volit priority. Inženýři AMD vědí jak udělat výkonné CPU, GPU...atd, je to prosté a není to žádná věda přece ­"Narvi co nejvíc na co nejmenší plochu­". Čím víc jader tím víc Adidas. Zbytek docvrnkne software podle toho s čím přijde konkurence. To je velmi efektivní a relativně levné! :­-­)
Být skutečný lídr v inovaci se nevyplácí, je to drahé.....
Odpovědět1  0
Myslím, že jste si krásně odpověděl na otázku proč nVidia jde směrem k rekonstrukci obrazu pomocí AI. Všichni zůčastnění ví, že jsme u stropu a že již nelze zvedat výkon bez toho abychom brutálně nezvyšovali spotřebu a cenu.
To co dělá nVidia ­(DLSS, frame generation, reflex...atd­) je cesta jak zvýšit efektivitu, jak zvýšit výkon a nezaplatit za to ani watt navíc. To mě oslovuje. Co nabízí AMD? Chce stanovovat své standardy v herním průmyslu a zneužívá svého výhradního postavení jako dodavatele hardwaru pro Xbox a PlayStation. FSR vyvinula jen proto, že se daleko dříve objevilo DLSS, a protože se nejedná o promyšlenou koncepci musela využít standardní hardware co jí výrazně limitovalo, ale umožnilo zpětnou kompatibilitu což velice ráda vyzdvihovala jakoby to byl záměr. S Ray tracingem je to obnobné.
Být po AMD tak je tu doba temna jako za monopolu Intelu. Deset let by se měnily jen potisky na krabicích....
Odpovědět0  2
Možné je všechno i to že Elon složí geniální ­"Dream team­" a bez delší technologické evoluce prostě vykřikne ­"Budiš světlo!­" a světlo opravdu bude. nVidia potřebuje pořádnou konkurenci!
Odpovědět1  0
Nemůžeš chtít po AMD tak dynamický vývoj jako je u Applu nebo nVidie. Je to proti nim malá společnost s užším vývojovým týmem jak tady pod jiným článkem někdo pronesl.
Je ale s podivem jak by ráda všem stanovovala standardy. Samozřejmě ty své velmi omezené.
Odpovědět1  2
Zásadně záleží na kvalitě připojení. Problém může být bezdrátová WiFi v paneláku. Musel jsem taky posilovat
pomocí extenderů, hledat volnější kanály. Ta bitva mezi routery je masakr! Jistější je kabel.
Co se kvality týče nVidia umožňuje maximální rychlost 75Mbit­/s což není moc, ale do budoucna ta rychlost poroste a komprese nebude v takovém poměru. I když si myslím, že pokud máte stabilní připojení alespoň těch 75Mbit komprese na 4k si ani nevšimnete. Odezva je si myslím velice dobrá u mě pod 20ms. Po poslední velké aktualizaci, která proběhla nedávno se hodně věcí zlepšilo. Lze předpokládat, že s výkonem sítě a serverů nVidia porostou možnosti hraní v cloudu až na úroveň přímého hraní.
Odpovědět0  3
Podíl desktopu na trhu rychle klesá. Nahrazují je notebooky, ale čím dál více jim ukrajují z koláče mobily přes které lidé prakticky výhradně provádějí běžné činnosti jako je surfování po internetu, nákupy, vyřizování emailů...atd. Poptávka po ARM roste hodně dynamicky.
Apple, Snapdragon... Výkon stoupá mnohem rychleji než u architektury x86. Snapdragon 8 gen 2 by jste mohl jako APU s klidem osadit do současného notebooku. Takový má výkon.
Odpovědět0  1
Cloudové hraní v podání nVidie. Nemusíte jen poslouchat.... Důležitá je jen rychlost připojení. Nic víc nepotřebujete. Ani 100000Kč na pořádné herní dělo. To vám nVidia půjčí i na 8hod. denně :­-­) .
Odpovědět0  3
Víte ray tracing­/ path tracing jsou metody věrného, realistického nasvícení scény, nejsou to jen nějaké fičury na škrášlení. Realistická vizualizace ve hrách je výpočetně náročná, je to výzva a nVidia nás tím směrem posouvá. Složitě a pracně aranžovat scénu pomocí textur, aby jakoby vypadala realisticky? Proč?
V téhle disciplíně jednoznačně AMD tahá za kratší konec.
Spokojit se v dnešní době s rasterizací je těžká z nouze ctnost. Výpočetní výkon mé RTX 4090 po lehké optimalizaci­( TDP +8%, 2925Mhz­) dosahuje v AIDA64 ­- 94,7 TFlops. Slušný výkon pro 3D grafiku, střih videa...
Narážky na velikost paměti u nižších řad karet RTX? nVidia chystá kompresi textur pomocí AI. Údajně se výrazně sníží spotřeba vram.
Odpovědět0  4
Díky za přednášku. Mnou uvedené hodnoty jsou průměrné né okamžité. Jedná se o několika minutovou zátěž na identických strojích ve stejný čas, stejným nastavením a stejné scéně.
Naznačujete, že by se poměr efektivity v delším horizontu mohl změnit výrazně ve prospěch Radeonu? Doufat můžete. Rozdíl je tak velký, že si na desetiny hrát nemusíme. Efektivita řady RTX 4060 je prioritní vlastnost pro kterou byla postavena a plní jí do puntíku. Možnost využití posledních technologických fines nVidie jako je DLSS3 a frame generation, reflex, hardwarově AV1....atd.
Odpovědět4  3
Jen namátkou. RTX 4060 vs RX 7600 ve hře Hitman 3, nastavení ultra, 1440p. Obě karty praktický stejný fps.
RTX 4060 = 112W, RX 7600 =154W. To je slušný ne? V Cyberpunku je rozdíl 30W s tím, že RTX navíc dělá o nějaký 6fps více což je více jak 10% výkonu navíc. To je ještě lepší né? Rozdíl je prostě masivní!
Odpovědět2  3
Tak bavíme se o hraní her, takže jakmile spustíš hru a nemáš nastaven limit fps nebo tě neomezuje bottleneck ­(u RTX 4090 docela častý jev­) jedeš max spotřebu ­(to taky záleží na hře­) a to několik hodin v kuse. V klidovém stavu je počítač jen minimum času. Rozdíly nebudou malé.
Na druhý odstavec se nedá reagovat. Neobsahuje žádné konkrétní argumenty, ale formulace ­"nVidia nemá jediný dôvod....­" hodně naznačuje. Je to škoda. Nějak si neumím vybavit oblast v které by AMD bylo lepší. Ani pro práci, ani pro hry. Jen cena, ale to je logické.
Odpovědět0  2
O 20% nižší spotřeba bude znát. S nižší spotřebou jde ruku v ruce nižší tepelný výkon a ve výsledku vyšší komfort při provozu, možné menší rozměry, bude stačit slabší zdroj atd. Efektivnější architektura je známkou technologické vyspělosti.
GeForce Now je skvělá služba, která se rychle zdokonaluje.
Dnes je alternativou, ale patří jí budoucnost. Ta to platforma je cestou jak se neomezovat možnostmi uživatele. Jeho hardwaru. Nese všechny technologie nVidie. Hráč nemusí kupovat stále nové karty.

Odpovědět2  3
Bohužel zoufalá situace vyžaduje zoufalá řešení. Myslím, že právě teď ztrácí AMD moment hybnosti..... A nebude to Intel kdo jí sestříhne křidýlka. Ten dostane taky pořádný výprask!
Odpovědět2  2
A tady je třeba přihlížet k velkému rozdílu v efektivitě architektur! I Když řady RTX 4060, 60Ti a 70 nejsou co se výkonu týče nějací šampioni, jejich hlavní zbraní je spotřeba a technologie AI. To je slušná perspektiva.
Odpovědět1  3
Jo takhle vyřešíš všechny problémy. Třeba vysoké ceny potravin......:­-­) .
nVidia je technologický leader v oblasti GPU a na jejich karty je navázáno široké portfolio služeb! Chceš nejlepší a nejvýkonnější řešení, tak si musíš připlatit. Na eko řešení tady máme AMD. To je schopno zvládnout základní požadavky.
Odpovědět1  2
Tristní neposun! Rozumím. Mnohé zdejší nerdy, ale potěší cena ­"Hi­-endu­" od AMD. Nemusíš být zklamaný, protože dedikované karty v PC stejně pomalu vyklízejí pole! Co se tedy hraní týče.
Odpovědět0  5
Tak ARM je snad i tvůj né? Máš ho v mobilu, televizi, tabletu, kávovaru, pračce, je všude. Co nevidět obsadí úplně notebooky, ale i desktop.
Odpovědět0  1
Karty GTX postupně zmizí ze světa nebo zůstanou jen v marginálních počtech. Desítky miliónů majitelů karet RTX nepotřebují FSR. Mají optimální řešení vyladěné přímo pro jejich hardware. Koupili si karty nVidia právě pro jejich funkce.
Zřejmě není vyhnutí a trh se bude muset rozdělit. AMD je příliš konzervativní a praktický vůbec není progresivní.
Takže exkluzivní hry pro nejvýkonnější PC současnosti od nVidie. To nejlepší pro GeForce Now, která otvírá svět opravdu náročné herní grafiky úplně všem.
Odpovědět1  3
Na integraci Steamu a MS jsem úplně zapomněl. To je další významný bonus. Líbí se mi viditelné aktuální slevy ze Steamu a informace o aktualizacích atd. Nákup her s aplikace GeForce Now.
Kdo nezkusí nepochopí a kdo zkusí položí si nevyhnutelnou otázku: Proč si vlastně kupovat herní dělo za 100.000? Se spotřebou 650­-700w? Který mi stojí 2­/3 dne nečinně na stole?
Můžu mít to samé za 540kč měsíčné na své 65­" televizi ve 4k­/120Hz­(120fps­)!
Odpovědět0  0
Současný stav GeForce Now po technické stránce vůbec není špatný, ale tady se bavíme o budoucnosti této služby a zároveň o strnulosti vývoje konzolí. Jejich pomalé generační obměně.
Podle mé osobní zkušenosti je největší výzvou pro nVidii né technická stránka, ale obsahová. Popularitu by určitě zvedlo větší množství AAA her. Her, které slušně jedou jen na těch nejdražších strojích. Zároveň je mi jasné, že nVidia sleduje trendy a vybírá hry s velkou hráčskou komunitou.
Od jara mám RTX 4090, takže teď službu nevyužívám, je ale možné, že je mojí poslední fyzicky koupenou kartou.
Odpovědět1  0
Já mám optiku 1Gbit a paráda! Má to velkou budoucnost. Až budou běžné rychlosti 10Gbit a odezva klesne pod 10ms. A samozřejmě servery nVidie umožní větší průtok dát.
Odpovědět1  0
No vývojáři pro AMD mají rozhodně více práce! :­-­)
Tam se dělá věcí navíc.....
Odpovědět0  4
Tak vše je v běhu. I stream se vyvíjí. Komprese je otázkou rychlosti připojení a ta se bude zvyšovat a zároveň snižovat cena.
Nic méně pointa mého příspěvku je, že technologie nVidie nejsou nepřístupné uživatelům karet od AMD a že jsem dal tuto skutečnost do stejné roviny jako použití FSR má kartách od nVidie.
Odpovědět0  2
1080ti není výkonem na úrovni RTX 4060! V Cyberpunku ve 1440p je o cca 20 % slabší s ubohými fps. Že by nepodpora direct 12? I to je zásadní mínus.
Srovnávat se s RTX 4060, která má přinášet maximální efektivitu né výkon, Která má ale k dispozici DLSS2­/3. Bavíme se o NEX­-GEN. Vše co jede pod nouzových 60fps je nedostačující.
Odpovědět0  3
Technologie nVidie jsou všem přístupné v GeForce Now i včetně ARM zařízení.
Odpovědět1  3
FSR3 nepříjde. DLSS4 bude na GeForce Now okamžitě k dispozici všem i tobě s kartou AMD. To je skutečně otevřená platforma!
Odpovědět1  3
Implementace DLSS do her vývojáře nic nestojí. Nvidia má propracovaný systém podpory.
Odpovědět3  5
Tak s pohledu perspektivy nepatří Xboxu ani PS budoucnost hraní! Tím je cloud a sdílení hardwaru. Komplexní, chytré řešení s maximální flexibilitou. Microsoft a Sony můžou zoufale dotovat trh s konzolemi, ale vedle nich bude levná stream služba GeForce Now, která nabídne výkon superpočítače, který by jste si domů nikdy nepořídili a všude kde budete mít připojení. Klidně si pustíš Cyberpunk v path tracingu na mobilu v čekárně u zubaře nebo na zastávce autobusu. V pohodě ho rozjedete na dvacet let starém notebooku nebo na chytré televizi jenom připojíte bezdrátově joypad od Xboxu :­-­) .
Odpovědět1  4
MSI RTX 4090 Suprim X je při plném výkonu tiší než systémové ventilátory, takže ne.
Odpovědět0  0
Pro skutečný RT, dnes už mluvme spíše o path tracingu, nemá AMD dostatečně výkonný hardware. Next­-gen je u nich silně zavádějící termín. Chudáci vývojáři. Musí se patlat i s věcmi co umí jednoduše spočítat Tensor jádra.
O jednoduchosti a omezenosti AMD vypovídá samotné FSR. Podpora vývojářů u NV je úplně jiný level!
Odpovědět2  2
Máš pravdu. Ono se to fakt hýbe....... neuvěřitelný! :­-­) .
Odpovědět2  1
AMD se zachovala hodně iracionálně! Možná jí dochází, že budoucnost není růžová. Faktem totiž je, že rozdíly schopností obou firem se rapidně zvětšují. nVidia neskutečně utíká AMD díky integraci AI což je trend na kterém zakládá stále více funkcí. Stává se z ní úplně nová platforma. AMD evidentně nemůže a ani nemá tolik prostředků, aby nVidii stíhala. Prezentace architektury RDNA3 přišla se zpožděním a byla opravdu smutná. To zklamání bylo cítit. Náhražku za DLSS2 ještě dala, mohla dát, ale DLSS3 poslala nVidii mimo dostřel. S FSR3 jsou evidentně problémy, logicky. Navíc se rozvíjí revoluční služba GeForce now, která zpřístupní drahou grafiku všem.
Odpovědět3  3
Z principu ani nemůže. AMD upscaler nikdy nenapadl, nevyvíjeli pro něj architekturu GPU. FSR je jen záplata. AMD musela marketing založit na univerzálnosti, která je ale jaksi sama sebou, když využívá standardní shading units. Ty ale mají zlomek výkonu Tensor jader. Takže z logiky věci nemůžou dělat to samé. Hodně se bavím ohledně FSR3! Stále nic. Mě je jasné, že tohle už řešit nějakým štěkem v podobě záplaty nejde a nVidia na to několikrát upozornila v souvislosti z řadou Ampére.
Že FSR funguje i na kartách GTX? K čemu? Nové nexgen hry na nich stejně nerozjedete!
Odpovědět1  4
Jak už píše mareknr je to o ceně. Za málo peněz hodně málo muziky. To je AMD! Jinak je to v podstatě dobročinná neziskovka jak píšeš:­-­) . Doufám, že nVidia půjde cestou Sony a bude sponzorovat opravdové exkluzivní nexgen hry.
Odpovědět1  2
Problém je, že FSR není kvalitní upscaler. Je to silně kompromisní, nekoncepční řešení. Dále mi chybí DLSS3 a její technologie frame generation na kterou nemá AMD odpověď a nikdy mít v podobě univerzální FSR ani nebude, protože vyžaduje vysoký výpočetní výkon.
NVidia chystá kompresi textur pomocí Tensor jader, tedy AI. Bude mít AMD něco podobného nebo se za nás rozhodlo, že to nepotřebujeme?
Odpovědět4  7
Vývojáři takhle neuvažují, protože pak by byli nekompetentní. FSR není DLSS. Turisťák není Uherák.
Odpovědět0  1
Z domněnky?! AMD přiznalo, že jejich upscale metoda FSR je nejlepší řešení a mi hráči s RTX 4090 nepotřebujeme DLSS a že pro nás chce to nejlepší a že je zbytečné si kupovat karty od nVidie s technologiemi které nevyužijeme. Radši si máme koupit Radeony ty nám určitě budou stačit.
Naštěstí má RTX 4090 tak brutální hrubý výkon, že to vše utáhne bez upscalingu. A tiše, kultivovaně!
Tento krok AMD nepovede k dobrým věcem. Vnímám to tak, že AMD chce od herního trhu izolovat nVidii. Xbox a PlayStation využívají její technologie. Chce být dominantní. Pro nás hráče to znamená dominanci méně technologický vyspělého. Monopol sebou přináší mnoho negativního. Viděli jsme u Intelu.
Odpovědět2  4
Vůbec nesrovnávej nějaký softwarový štěk s komplexním řešením DLSS. Už jen rozdílná hardwarová náročnost obou řešení hodně napovídá.
Odpovědět2  1
Vím moc dobře proč! Nikdy by nuzáctví v tvém podání nemělo brzdit technologický pokrok. Stejně tak by neměla bezradná, zoufalá AMD omezovat firmy které skutečně inovují.
I v oblasti CPU po skvělé řadě Ryzenů 5000 je řada 7000 jaksi za očekáváním. A začína klasika u AMD. Stejně jako u GPU okoukává od konkurence a kopíruje....­(velká, malá jádra­).
Slaboučké konzole by neměly omezovat daleko výkonnější PC!
nVidia je kategorie sama pro sebe a podle toho by měla mít svůj vlastní herní trh jako demonstrátor. Vytvářet exkluzivní hry jako Sony. Prachy na to mají. Cyberpunk je dobrý začátek. Path tracing je lahůdka kterou u AMD nehledejte, je mimo schopnosti.
Odpovědět1  3
AMD není ATI! Ta opravdu konkurovala nVidii.
Odpovědět3  2
Problém ČR je v závisti. Přesně: nemám na to, tak je to špatný, k ničemu atd. Tady se neřeší technologie, ale prachy. Dát někomu z AMDfuns zadáčo RTX 4090, tak otočí bez mrknutí oka!
Odpovědět3  5
AMD se rozhodla na tvrdo využít fakt, že je dodavatelem hardwaru pro Xbox a PlayStation. Tedy že vývojáři produkují hry hlavně pro konzole. Snaží se nVidii významně uškodit. Nedokáže to po technologické stránce, tak to zkouší násilně přes vývojáře. S AMD se nikam nepohneme. Nebýt nVidie, tak tu máme dvacet let stejné grafiky!
Odpovědět2  9
Zoufalství AMD v plné nahotě. Konec konců už nastal čas aby AMD přestalo brzdit grafiku na PC! Pro nVidii asi nebude problém vytvořit svůj vlastní herní svět. Mimochodem jak pokračují práce na FSR3 :­-­) .
Odpovědět2  10
Nechápete? AMD porušilo ­"status Quo­" a snaží se určovat hráčům co je pro ně nejlepší. Takový velký, hodný bratr.
Zoufalost AMD je ubohá!
Odpovědět5  16
Integrovaná GPU s výkonem dedikovaných karet rtx4060­-70? Kolik si to bere wattů v plné zátěži? To je snový čip! Akustický komfort a chlazení. Píšu na armovém Snapgragonu 8 gen 2 a ten čip je neskutečně výkonný i po grafické stránce a proto se ptám, kde je budoucnost architektury x86?
Odpovědět1  1
Tak zdá se, že v mém příštím mobilu nebude pracovat Snapdragon😀.
Odpovědět1  0
Je už myslím jasné, že již brzy budou notebooky vybaveny výhradně iGPU. Dedikované grafické karty budou doménou jen pracovních stanic. Nebude dlouho trvat a iGPU dosáhnou výkonu současných karet řady RTX 40xx­(4­-5let­).
Odpovědět0  0
?Myslím tím funkci frame generation v rámci DLSS3.
FSR3 na RTX2060? Aby si nebyl nemile překvapen.
U GTX1650 souhlas, ale nová APU týhle grafiky co nevidět vymažou.
Odpovědět0  0
Buďme upřímní. Od RDNA3 jsme čekali více a tvrzení o konkurenci cenou je hodně bolestivé.
FSR2 je v rámci možností dobré, ale nejede na specializovaném hardwaru a AMD tvrdí, že vyžaduje minimum výkonu, což je v hrubém rozporu s řešením od nVidie, kde mají tensor jádra výkon minimálně dvojnásobný proti cuda. Když dva dělají totéž není to totéž.? A výsledek podle toho musí vypadat.
O DLSS3 do uvedení, jak potvrdil Igor Staněk, věděl jen omezený okruh lidí v nVidii. Tak utajovaná to byla technologie. Pro AMD to musel být naprostý šok, proto odložená premiéra RDNA3.
Odpovědět0  0
Je možné, že se AMD pokusí využít AI procesory ke generování snímků, ale to mohla nVidia udělat taky se svou čtvrtou generací tensor jader a přesto integrovala do GPU nové jednotky OFA­(Optical Flow Accelerator­). nVidia tvrdí, že nelze suplovat jejich funkci na RTX 30xx kvůli nízkému výkonu těchto karet. Tensor jádra na RTX3090Ti mají výkon cca 80TFlops.
Odpovědět0  0
FSR3? Dokážu pochopit, že technologii DLSS3 nepobírate. Možná jí považujete za čarodějnictví, viz vaše vyjádření o fake frames?. Můžu vás uklidnit, AMD s touto zprávou přispěchalo ze zoufalství. K provozu DLSS3 nelze používat jiné než specializované obvody uvnitř GPU, které RDNA3 nemá a výsledek podle toho bude vypadá. Tohle už na stínovací jednotky nehodíte. Ani hrubý výkon RTX 3090ti na to nestačí.
Odpovědět1  1
Upřímně jsem věřil, že RDNA3 bude pro AMD revoluční a předvede něco podobného jako Zen 3. Jenže nVidia není Intel a jejich RTX 40xx řada je téměř dokonalá ­(po technické stránce­). DLSS3 je trumf na který AMD nebude mít odpověď! Od RDNA4 už nečekám zázraky a RTX 50xx bude jiná dimenze.
Odpovědět1  4
Příjde mi nesmyslné vytvářet tuto iluzi. Rusko musí vědět, že by tahle lež neměla dlouhého trvání a sní i požadovaný efekt odstrašení. Oni existují, ale jsou jednodušší konstrukce.
Je ale zvláštní, že takový technologický leader jako USA jsou tak pozadu. Dělají věci zřejmě jinak. Náporový motor znamená kapalné palivo, tedy regulaci tahu, tedy dosažení větších vzdáleností a vyšší manévrovatelnosti, ale zároveň složitější a dražší konstrukce.
Odpovědět2  2
Váš příspěvek ve druhém odstavci popírá smysl hypersonický střel!
Je úplně jedno jakým pohonem je střela vybavena. Technická náročnost není ani tak na této straně, jako na straně tepelné odolnosti, protože povrchová teplota dosahuje 2500°C. Střelu obklopuje plazma, která rozptyluje radarový paprsek, takže je to vlastně stealth a dopadová rychlost znemožňuje reakci PVO. Za těchto rychlostí a teplot musí střela zvládat manévrování a to znamená obrovské dynamické namáhání. Jsou prostě potřeba schopnosti, které má jen pár států na světē.
Pokud vezmu Iskander a názvu ho Kynžál, dosáhne a přežije výše uvedené je to plnohodnotná hypersonická zbraň!
Odpovědět1  1
Stávající majitelé 3080­(Ti­) a 3090­(Ti­) nemají praktický důvod teď vysolit dalších 40tisíc za 4080 při hraní ve 1440p nebo ultraširokém 3440x1440??.
Odpovědět0  0
Jen začátek... Jak naznačil Igor Staněk, v budoucnu může být vkládáno umělou inteligencí i víc než jeden snímek mezi renderované.
Odpovědět1  1
Samozřejmě, ale každá mince má dvě strany! Konzole jsou primárně o ceně, což vylučuje top řešení. nVidia je exkluzivní klub, dodává nekompromisní železo. DLSS3 posune herní grafiku tam kam AMD bez specializovaných jader nemůže. Lidi budou chtít vždy víc a dál....
Odpovědět3  4
Největší průšvih je výkon v RT. Už vidím ty stovky videí na YouTube srovnávající RX 7900XTX s RTX 3090ti. 4090 + DLSS3 je o parník jinde....
Odpovědět1  9
Provedené testy navíc ukázaly, že je hrubým výkonem 4080­/12GB nejen pomalejší než 3090Ti, ale a to je podstatnější je nepříjemně blízko 3080Ti­(prakticky stejný výkon­). To by vypadalo opravdu blbě.
Odpovědět2  1
NVidia tvrdí, že právě díky mezisnímku nemusí GPU čekat na CPU a sníží se propady. Samozřejmě praxe ukáže.
Odpovědět0  0
Váš pohled je neskutečně mimo. Víc o emocích než konstruktivní úvaze. Nejvíce mě zaujal slovní obrat ­"ochcává­". Koho kdo ochcává? Jakože chytrá technologie, která zdvojnásobuje a v budoucnu i vícenásobně navýší FPS ve hrách ochcává AMD nebo dokonce vás? Až teď jste pochopil potenciál DLSS? AI má praktický nekonečné možnosti a Tensor jádra nenahradíte.
Odpovědět0  2
Marketing?! Co vedlo AMD k začlenění RT jader do architektury NAVI21? Co vedlo AMD neplánovaně k vytvoření FSR? nVidia určuje směr ať se vám to líbí nebo ne. Vše nemůžou počítat obyčejně shadery.
Odpovědět2  6
DLSS 3 posouvá možnosti grafiky o pořádný kus dál. Tahle technologie se bude vyvíjet a zdokonalovat a hlavně bude zásadní pro efektivitu. Je to geniální počin Nvidie. Více zapojit AI. Tohle AMD nedorovná! Baví mě inovativní myšlení téhle firmy.
Jo a připravuje se nový Cyberpunk s úplně novou úrovní RT přímo pro RTX4000 karty.
Odpovědět0  11
Proč topka není už jenom na vodě? Dává to ještě smysl?
Odpovědět0  1
Ve světle posledních zpráv se těším na první testy RTX4070, 80 a porovnání s 3080ti, 90, 90ti.
Aktuálně provozuju 3080ti v OC 40+TFLops, GDDR6X na 22GHz­/ 1056GB­/s. Time spy extreme = 10820b.?
Top 430w??
Odpovědět0  0
K prvnímu odstavci více méně souhlas. K poslední větě. Mám ve svém počítači RTX 3080Ti a musím přiznat, že v těchto teplých dnech je to masakr. Dostali jsme se do bodu, kdy ještě výkonnější karty budou potřebovat zázemí, budou náročnější na prostředí v kterém pracují. 4090Ti mít v létě na stole nebudeš chtít.
Mám placenou službu RTX 3080 na GeForce Now a díky tomu hraju na svém mobilu Control v ray tracingu na plné detajly ­(fullHD, 120fps­) stejně dobře jako na velkém počítači­(WiFi+joypad­). Hry pro android jsem úplně odboural.
Odpovědět0  0
Pro začátek dobrá ironie?. Jinak nejde jen o solárka, ale vítr, vodu a v neposlední řadě atom. Jde o efektivitu a kontrolu emisí. Snadněji máš pod kontrolou serverovny napájené výše uvedenými zdroji. Je rozdíl, když si kluk v Argentině rozjede svou RTX3090Ti napájenou místní uhelnou elektrárnou nebo si půjčí vzdálený server s výkonným GPU který je napájený atomovkou v USA.
Odpovědět1  1
Tohle mimochodem odrovná i konzole. Dá se hrát i na samotné TV jako na té nejnabušenější mašině.
Odpovědět0  0
Můj názor je, že budoucnost hraní je ve hraní z cloudu. Obrovské serverovny nabité grafickými monstry napájené ze solárních elektráren. GeForce Now atd. Doma budeš mít eko CPU s integrovaným GPU a superrychlý internet.
Odpovědět0  4
Má RTX3080Ti v OC 10660b. Myslím, že se neztratí mezi GK přicházející generace.
Odpovědět1  1
Top pro Ryzen řady 5000 bude asi RTX4090Ti, která bude výrazně výkonnější než 4080. Výkonnější větším rozdílem než RTX3090Ti od 3080.
Takže RTX4090Ti, ale tak za 1,5­-2roky před náběhem řady 5000, kdy spadne cena. Samozřejmě nový zdroj 1500W+.?
O monitorech nemá ani cenu psát. 144Hz by měla být podlaha. Vysoké rozlišení, FHD je out.
Odpovědět0  0
PCI­-E byly vždy zpětně kompatibilní, ale osadit kartu s PCI­-E 5 do slotu PCI­-E 4 by bylo trochu divný né? S RTX5000 musí jít nová deska a tím pádem i procesor a v našem případě i rámky DDR5, SSD.
Neříkám, že RTX4080 je nevýhodná investice, ale byl bych opatrný. Informace o GDDR6 na 18GHz a 256bit+Infinity cache no nevím. Zase kapacita má být 16GB to je velké plus. Určitě bude výkonnější při stejné spotřebě, ale o kolik? To se ukáže až v testech. Rozhodne jako vždy cena. Doplácet 20000 je blbost.
1000W zdroj mám taky. Ten by měl na RTX4080 pořád stačit.
Zajímavý úhel pohledu: když třeba přepneš DLSS z kvality na vyvážený dostaneš proti původnímu nastavení předpokládaný výkon RTX4080.?? Poslední verze DLSS 2.4.3 je opravdu posun! Zlatá TENSOR jádra a jejich monumentální výkon!
Jinak monitor mám ultrawide 3440x1440 na 165Hz.
Odpovědět0  0
Právě vzhledem k rozlišení 1440p si myslím, že RTX3080Ti bude stačit následující 2­-3roky. Nezapomeň taky na vývoj DLSS. Vždyť 2080Ti se taky dneska neztratí a je někde na úrovni 3060Ti.
MSI je taky moje srdcovka. V době kdy jsem se rozhodoval o nákupu graf. karty stála verze Suprim X o 8000 víc než EVGA FTW3 Ultra, škoda. Nakonec mě EVGA překvapila svým kvalitním zpracováním i softwarem. Ve většině případů nepřeleze teplota 70stupňů v plné zátěži a při OC.
Myslím, že Ryzen 5900x zvládne i RTX5000, jen jestli nebude už na PCIE 5?!

Odpovědět0  0
Mám prakticky stejnou sestavu jako ty a řadu RTX4000 určitě přeskočím. Našel jsem na své EVGA RTX3080Ti FTW3 ultra zajímavý setup, který mě hodil výrazně nad referenční RTX3090 a chlup od verze Ti­(40,13TFlops vs 41,3TFlops, při TDP 420W­). Jediné co mi může chybět do budoucna je paměť, protože 12GB není příliš, to ale řeší DLSS. O kolik bude rychlejší RTX4080­(GDDR6 na 18GHz,256bit+cache vs GDDR6X na 21,320GHz­-1024GB­/s, 384bit u mě­)? Do 40% a to jak kde. Uvidíme v prvních testech. Cyberpunk 2077, 60 vs 85FPS? Za jakou cenu?
Deska MSI MEG 570x unify, kterou mám umožňuje odemknutí limitéru CPU na 142W. Pustí to Ryzen až na 180W, vodník nutností.
V některých testech na AIDA64 pak dává i víc jak 20% proti referenci. Jinak jsem velký fanda RT jako jediného správného směru vizualizace a AI, takže AMD v grafice zatím nehrozí.
Odpovědět0  0