Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od FabledWarrior
Já ti to řeknu asi takhle... já jsem všechny tyhle technické věci taky řešil. Když jsem neměl na výběr, tak jsem si teda tu RTX4080 vzal a víš co? Před dvěma lety jsem jí dal do PC, zapojil a od té doby o ní nevím. Jako vůbec... mezitím se mi několikrát aktualizovaly ovladače a to je tak vše... žádný konektor mě netrápí, žádné ovladače mě netrápí, cokoli zapnu nahned prostě jede na 100%. Karta si drží svých 63°C v zátěži a přitom je neslyšná.

Já nevím, jestli měli ostatní smůlu na kus nebo cokoli jiného, ale já jsem prostě za 2 roky nezaznamenal ani jeden jediný náznak problému.

To o té RTX4060 je opravdu výsměch, o tom žádná.
Odpovědět3  0
Lžeš, v době vydání 7900XTX byla v ceníku Nitro+ edice od Sapphire za 33 tisíc ­- jiná edice moc neměla smysl. Jenže nebyla dost dlouho skladem. Ale skladem byly RTX4080 za 35 tisíc... takže jsem bral tu. Edice Phantom GS od Gainwardu jsou výborně vyrobené a skoro neslyšné, takže se v klidu může měřit s chladiči na Nitro+.
Odpovědět1  0
První problém byl ten, že chtěli prodávat 4070Ti za cenu RTX4080 ... Až když lidi řvali tak moc, tak nVidia couvla... Ta spekulace ohledně dvou verzí RTX5080 mi to silně připomíná... jen mi přijde, že teď má nVidia v plánu tajít tu výkonnější verzi... nejdřív nám za plnou cenu prodá RTX5080 16GB a později s velkou slávu vydá 24GB... to už bude pozdě, aby někdo zase držkoval, že ta první RTX5080 16GB měla být spíš RTX5070Ti...

Nicméně původní RTX4080 jsem si nakonec musel koupit, protože Radeony v té době prostě nebyly k sehnání. Radost jsem z toho neměl, ale po dvou letech jsem vlastně rád, že ji mám.
Odpovědět5  0
To jsou mi tady zas hádky kvůli jednomu výsledku ze syntetického benchmarku, který vlastně nic o reálném výkonu neříká. Ale pojďme si za to rozbít huby :D
Odpovědět1  1
V čem jí to ublížilo? Vůbec v ničem... na reputaci jí ubližujou možná tak takovéhle komentáře, kde se místo ­"Stalo se, ale dobrá práce, že to je vyřešené tak rychle­" dozví akorát ­"Vy jste fakt lůzři, děláme vám jen betatestery a vy na to se*te, to je epic fail­" a podobné hovadiny.
Odpovědět0  1
Ty žiješ asi ve svém světě viď? :D To co ty napíšeš je pokaždé takový nesmysl, že prostě musíš žít minimálně v nějaké alternativní realitě a komentáře se propisují do té naší :D
Odpovědět1  0
Ježiš marjáá, to je hrozný co si to ti unterwasermani z AMD dovolují... opravovat chyby a přidávat výkon že? To je na nějakou žalobu určitě.

Ne teď vážně... Lidi by se měli probrat z té discotéky, protože fakt nechápu, co se to snima děje. Kdyby se na to AMD vykašlalo a nechalo to tak, jak to je, pořád by to byly fajn procesory a maximálně by se psalo o tom, že se od nich čekalo více. Ale AMD si dovolila najít chyby a opravit je, přidat výkon zdarma a jediné co se jí za to dostane je hejt? O co vám jako jde? Vás to nějak katastrofálně zasáhlo nebo co? Vsadím se, že takové procesory nikdo z pisálků, co píšou tyto komentáře nemá a dlouho mít ani nebude ne­-li vůbec, ale samozřejmě se k tomu každý musí vyjádřit, jako by mu to ublížilo a měl z toho trvalé následky.
Odpovědět6  2
Tak pro Jensena je to samozřejmě vykalkulovaný tah. Ono se mu náramě hodí cpát AI všude, když vlastní největší společnost na výrobu AI akcelerátorů. To bych se hodně divil, kdyby řekl něco jiného.
Odpovědět12  2
A není to náhodou zase upravitelná hodnota ­"až 180W­" ? Však takhle to mají i GeForce ne? Každý ten chip dokáže sežrat 200W ­(některé i více­) a výrobci si určí, co zvládne jejich šasi resp chlazení...
Odpovědět0  0
Jojo oni to mají spočítané... asi jako Intel třeba viď.. ten to má taky spočítané na roky dopředu, akorát to nějak nevychází...
Odpovědět1  0
Ne nebyla vůbec jinde a není ani dneska. 6800XT je výkonnější a jediné v čem je lepší 3080 je výkon v tom RT, ale zas taková pecka to není.
Odpovědět4  0
To není úplně pravda... třeba teď v poslední generaci se až tak moc nebojovalo, ale vzpomeň si na RTX3000 vs. Radeony 6000. Nebejt radeonů 6800XT, cena RTX3080 by byla úplně jinde a takhle se dá pokračovat... Takhle AMD alespoň lehce držela nVidii zpátky, alespoň se ta nVidia musela ohlédnout, jestli ta cena bude OK a nebude mít v poměru cena­/výkon AMD moc velký náskok.
Odpovědět5  1
No, je to rozhodnutí takové smutné... Myslím si, že to je docela i škoda pro zákazníky, protože v high endu si teď bude dělat nVidia úplně co chce.

Ale tak třeba se jim to vyplatí... vzpomeňte na RX580. Ve své době měl rozumný výkon na krásnou cenu a díky tomu se hromadně rozšířil a lidé ho běžně brali i místo GTX1060. Jestli se jim povede něco podobného, mohlo by jim to ta čísla zvednout. Ale samozřejmě záleží na tom, kolik to celé bude stát.
Odpovědět5  1
Tak aspoň nejsou v mínusu no :D

Mimo to, jak je na tom grafiká divize Intelu? :D
Odpovědět4  0
A prosím, kolik je to zaplaceno? Myslíte nějakých pár šušníků, asi jako když energetické společnosti vykupují elektřinu, kterou solární elektrárna vyrobí navíc nad rámec spotřeby? Tak to si můžou nechat jako :D
Odpovědět1  0
Vůbec by mě nezajímalo, jak malá část kapacity by se využívala. Energetické společnosti jsou neuvěřitelně nenažrané... a já jim nehodlám ani za nic s něčím pomáhat. Lítaj jim desítky miliard zisku, rozdělují se rekordní odměny a já nebo někdo z těch, na kterých vydělávají by jim měl s něčím pomáhat? Jen tak? Protože jsme dobří? No tak to ani omylem.

Mají obří zisky, tak ať si tu síť stabilizují sami. Nejvtipnější je, že teď my daňoví poplatníci budeme desítky let splácet nové jaderné reaktory ­(o kterých říkám, že by jsme jich měli mít více­), ale myslíte si snad, že by jsme měli třeba levnější energii? No vůbec... zase jediný, kdo na tom vydělá bude ČEZ, takže opět.. proč bych jim měl i jen teoreticky pomáhat?
Odpovědět0  0
Tohle je normálně na Chocholouška :D :D :D

A já jsem si myslel, že i přes všechny názorové rozdíly jsou mezi IT nadšenci rozumní lidé, kteří mají celkem přehled. No tak koukám, že funguje i jiný oddíl :D :D :D
Odpovědět4  0
Je to jen má domněnka, protože jinak absolutně nevidím žádný jiný důvod k tomu, proč tak zavádějící článek a titulek psát.
Odpovědět6  1
"Benchmark Ryzenu 9 9950X ukazuje vynikající výkon v ST, nicméně v MT nemá na Intel­"

Nespecifikovaný benchmark říká, že 9950X v MT na Intel nemá... tohle z toho titulku jasně zazní. Vy jste ani v článku nikde nenapsal zamyšlení nad tím, že ten benchmark blbě škáluje a že se ten výkon v MT podle toho nemůže posuzovat...

Prostě tohle je normální bulvár a těmito komentáři se to snažíte jen zakrýt. Já chápu, že by se Vám líbilo, kdyby to byla pravda a 9950X nemělo v MT na Intel, ale bohužel to nedává smysl a máte smůlu. Tak se alespoň chovejte jako rozumný objektivní novinář a nepište takovéhle tendenční a zavádějící nesmysly, které si neznalý člověk může vyložit úplně jinak, protože vy jste to tak záměrně napsal.
Odpovědět7  1
No závěr můžeme udělat ten, že prostě Geekbench v MT ukazuje, co se mu zrovna zachce a tím pádem by se výsledky v MT neměly brát jako nějaký ukazatel výkonu. Tím je váš článek i s bulvárním titulkem jen manipulace a rozhodně neplatí, že 9950X nemá na Intel v MT.
Odpovědět7  2
Jooo... AMD vydá nový nejvýkonnější procesor, který bude jen o jednotky procent výkonnější než starý... to dává smysl ne? Je evidentní, že Geekbench blbě škáluje, tak by jste si mohli takové bulvární články odpustit a napsat k tomu reálné zamyšlení...
Odpovědět8  2
Milion dolarů a dvě krabice akcelerátorů ze otestování? :D No to si snad dělají srandu :D To je dobrej ojeb... Recenzenti grafických karet se mají co učit :D

Ale jako taky si nejsem jistý, jestli to AMD k něčemu bude.. jak tu již někdo psal, jestli prodají vše co vyrobí, tak k čemu to bude? Pro prestiž možná? Stejně by mi přišlo absurdní dávat jen za test někomu tolik peněz.

Hlavně si nejsem jistý, jestli v téhle sféře někdo na tyhle testy úplně dá a půjde si rovnou koupit tenhle produkt. Já myslím, že stejně jako všude jinde se poptá nabídka od AMD i nVidie na konkrétní řešení na míru a obě firmy dodají nabídky s ukázkou výkonu atd... a podle ceny, výkonu a dostupnosti se vybere... že by se u toho zohledňoval nějaký ML Perf se mi úplně nezdá.
Odpovědět11  0
Přečti si ty podmínky pořádně, když chceš slovíčkařit. 100% tam NENÍ napsáno, že nikde nenarazíš na žádnou reklamu. Bude tam pouze napsáno, že jejich reklamní systém systém ti nebude žádnou reklamu zobrazovat.

Už tady řešíš úplný absurdnosti a jen hledáš na co by si asi tak ještě mohl nadávat. Já si Premium platím a vlastně to je fajn... nemusím řešit takovéhle kauzy, dobře mi funguje i YT Music a celkově jsem spokojený.

Chtějí za to nějaké 3 stovky mesíčně za rodinný tarif pro 5 lidí.. to je asi 60 korun na osobu... jako promiň, ale za tu cenu jim to klidně budu akceptovat, protože ten komfort, klid a celý obsah za to prostě stojí.

Že si radši nejdeš stěžovat na Seznam, který chce zaplatit 75 korun měsíčně a přitom ti stejně bude dál zobrazovat reklamy...
Odpovědět4  1
Jestli jsi dá nějaký autor videa nějaké promo do svého videa a pod video dá odkazy na Merch, tak s tím už youtube nemá nic společnýho a nmůže to ovlivnit.

Ty si na youtube Premium platíš to, že ti Youtube nebude pouštět reklamy, za které mu inzerenti platí, aby je zobrazoval. Jestli se koukáš na nějakého autora, který si do videa dává promo a pod merch, tak si běž stěžovat jemu, youtube ti to nedělá.
Odpovědět4  0
No a hlavně pokud se nepletu, tak nejlevnější notebook s Elite stojí asi 28 tisíc... Tak jako to by mělo předvést asi trošku víc....
Odpovědět0  0
Určitě jim je jedno, jestli PC žere jako celek 450W nebo 460W s hůř chlazeným SSD :­)

A hlavně... nVidia vyrábí grafické karty, takže ji ,co se chlazení týče, nejvíce zajímá, aby se uchladila samotná karta :)
Odpovědět0  0
Já hlavně nechápu, proč bych měl řešit jaký asi profil si mám nahrát?

Tak prostě má mít procesor jasně dané parametry a desky také. Procesor na těch parametrech musí běžet a cokoli nad tyto parametry je OC.
Odpovědět1  0
Ah táák... už tomu rozumím, díky za vysvětlení.
Odpovědět0  0
No ale jak to v porovnání rychlosti? Jako raději budu 10 minut upscalovat při 100W než 2 hodiny při 55W.
Odpovědět2  3
Z mého osobního hlediska.. kdbych chtěl dnes koupit konzoli, tak si radši počkám na tu vylepšenou verzi Pro.. možná tak fakt uvažuje více lidí a ty konzole už prostě nekupují.
Odpovědět2  0
Slušné grafiky za 5­-6000 jsou dneska APU... Výkony integrovaných grafik APU od AMD už sahají docela daleko a s příchodem takových věcí jako Strix Halo to vypadá, že se podívá až do nižšího mainstreamu.
Odpovědět7  1
Ale no tak... Já neříkám, že jsou ovladače AMD úplně hrozné, ale prostě tam chyby mají... viz resetování nastavených hodnot, chybějící textury v některých hrách, semtam se řeší černá obrazovka, špatné přepínání taktů u více monitorů... prostě toho tam je dost.

Samozřejmě se najdou chyby i na nVidia ovladačích, je to jen software, který píšou lidé a tak se tam vždycky nějaká chyba najde. Nicméně obecně je jich v ovladačích nVidia méně.
Odpovědět3  0
Grafická divize před žádným bankrotem nestojí. Vlastně podle takových, jako jste vy stála před 6ti lety celá AMD před bankrotem a podívej se, jak si vede dneska.

Počítám, že high­-end měl být více chipletový, ale zřejmě vše nevyšlo jak mělo, tudíž prostě teď high­-end vynechají a přijdou s ním v příští generaci nebo až se to povede zprovoznit. Asi je to lepší řešení, než vydat karty, které nebudou takové, jaké měly být a lidé budou zase řvát, jaký je to FAIL a pod... Tak si hezky užijte zase jednu generaci s High­-endem nVidie a uvidíme, jak budete jásat nad cenami, které teď nVidia nastřelí.

Co se týká RT, tak nVidia žádnou konkurenci nezlikvidovala. AMD RT umí a nezaostává v ní nijak závratně. Stejně tak nikdo nezaspal s novýma technologiema. Fakt by ěm zajímalo, kam na takové žvásty chodíte.

Bohužel však se na druhou stranu nedivím, že lidé kupují radějí GeForce, protože jejich bezproblémový provoz je prostě jiná liga oproti Radeonu. Tady by mělo dle mého AMD hodně zapracovat. Již před více než rokem jsem si nechtěně koupil RTX4080, dal jsem jí do PC a dodnes o ní vůbec nevím. Prostě tam je, funguje a já můžu jen hrát. Tak by to mělo být i u AMD...
Odpovědět9  1
"Přečetl jsem 4 řádky a dál si budu plácat své nesmysly­" ­- to je úroveň. Proč chodíte do diskuze, když diskutovat nechcete? Ještě že vývojářům jsou názory lidí jako vy ukradené.
Odpovědět2  0
A co má být? Považuji se za nadšence, tak místo utrácení za jiné věci si koupím novou grafickou kartu.. Co je na tom špatného? Jestli si chcete hrát jen hry a nechcete moc investovat, kupte si konzoli. Jestli mají ostatní jiný názor a nevadí jim to, tak Vám do toho nic není.

V podstatě je to přesně jak tady psal někdo podemnou... Budete takhle nadávat i na lidi, co si jdou koupit Prosche nebo Ferrari, když se dá jezdít v Dacii? Ne, nic Vám do toho není, tak si kupujte to, co se líbí Vám a nepleťte se do nákupů ostatních.
Odpovědět14  1
No co... jednou za pár let si můžu udělat radost... naposledy jsem si koupil RTX4080, tak si zas koupím RTX5080 ...
Odpovědět6  2
Joo tak to je super... nikdy jsem tenhle typ her neměl rád. Survivor jsem si koupil na Steamu asi snad omylem a hrozně mě to bavilo. Pak jsem si koupil Fallen Order ­(ano hrál jsem to opačně :D­) a ikdyž z hlediska hratelnosti byl pro mě novější díl mnohem lepší, tak i tohle bylo super. Takže se velice těším na další díl ikdyž je mi jasné, že může přijít klidně až v roce 2030 :­(

Ještě bych chtěl dodat, že jsem se k Survivor dostal v podstatě až na Vánoce 2023 a hra jíž byla nejspíš opravená, protože jsem za celou dobu hraní nenarazil ani na jeden problém se stabilitou, grafikou nebo čímkoli jiným a tak jsem si příběh mohl pěkně užít.
Odpovědět0  0
No já bych třeba rád pokračování Star Wars: Jedi ... asi taky nic.. :(
Odpovědět0  0
No a proto i PC hráči ve Warzone používají ovladače... i ti velice dobří... To je pak hnus. Hrál jsem Warzone hodně, ale už na to nemám nervy :D
Odpovědět0  0
WTF? Jako srovnávat Spectre a Meldtown na procesorech Intelu, které v podstatě nešly opravit a musel být fyzicky napraven návrh procesorů s běžnou SW opravou AGESA?

Tohle mi přijde jako click bait článek úplně o ničem, který cílí na příznivce Intelu, kteří si chtějí přečíst o tom, jak konečně už i AMD má neopravitelné chyby a rozepsat to po celém internetu. Nakonec i ti musí být zklamaní, protože tohle je fakt o ničem...
Odpovědět11  1
Tak nikdo nepočítá s tím, že by to bylo v nativu... upscaling, frame gen atd to zařídí... Sice se není čím chlubit, ale rozkaz zněl jasně...
Odpovědět0  0
Jeden test... jenom jeden test a děláme závěry. Já jsem zas viděl jiný a tam to tak hezké nebylo :D
Odpovědět4  4
Naposled jsem se dočetl, že tím vyšším výkonem argumentovala sama nVidia ­(neuvedla však, že se jedná o výpočty s nižší přesností, jen je dala do poznámek po čarou­), načež AMD odpovědělo, že šlo hlavně o výpočty s nižší přesností a že už ani to není pravda, protože pozměnili SW a nyní se výkonnější i ve výpočtech s nižší přesností MI300.

Takže OK... s výkonem problém nebude. S dostupností zřejmě taky ne, cena je výrazně nižší a navíc má výhodu větší paměti. Tak proč by proboha někdo kupoval H100? Není v tom ještě něco?
Odpovědět5  0
"Co si myslíte vy? Bude mít Danely pravdu?­"

Tohle je dost ošemetná otázka. Je MI300 ve všem skutečná konkurence nVidie? Nechybí jí nějaká softwarová podpora, kterou společnosti potřebují? Já jsem viděl jen vyjádření AMD, že jejich MI300 jsou výkonnější než H100. Pokud to tak skutečně je a AMD má výkonnější produkt, který je navíc mnohem levnější, tak pak nevidím důvod, proč by Danelyho predikce neměla vyjít. Zvlášť pokud MIX300 skutečně je k dispozici a nečeká se na ně rok. Pak nevidím důvod, proč si H100 kupovat.
Odpovědět4  0
Tady nejde o dialog nebo o to, že mu odpovídáš, ale jde o to, že on mele strašné krávoviny, na základě jednoho nic neříkajícího benchmarku odsoudil celou X86 architekturu k záhubě už příští rok a není s ním kloudná řeč, protože si jede furt dokola to samé. Člověk se mu nejdřív zasměje, pak se snímzkusí domluvit jako člověk a vysvětlit mu, jak a proč se plete a ve finále už jen vidí ten přiblblej nick a strašně by si přál, aby mě server tlačítko ­"Nafackovat­" :D
Odpovědět2  0
Jako upřímně... každou chvíli vychází větší a rychlejší SSDčka a my se v dnešní době hádáme o 200GB? Jako neříkám, že to není celkem dost, ale zase mi to nepřijde ani jako nějaké extrém. Prostě na to, co ta hra všechno obsahuje mi to přijde asi OK.
Odpovědět0  0
Ty jsi vážně imbecil :D
Odpovědět0  0
Zajímavé je, že podle posledních zpráv Oracle, Microsoft a IBM zřejmě budou nakupovat MI300X od AMD... minimálně Oracle to už oznámil oficiálně.
Odpovědět2  0
V Geekbenchi ty pako :D :D :D Ty pracuješ v Geekbenchi? Ty v něm hraješ? Vyvíjíš? Ne... je to jediný benchmark na světě, kde ty tvoje hračky dokážou něco vyhrát a ty z toho děláš úplnou změnu světového řádu :D Ty jsi fakt pacient :D prostě obyčejný troll a český buran, co dělá jen ostudu a blbce sám ze sebe.
Odpovědět5  0
ty jsi fakt mentál :D :D :D
Odpovědět4  0
Jako v čem v GeekBenchi? :D Ty jsi fakt zabedněnej :D Jdi si tedy pracovat na svém Applu v geekbenchi a neotravuj tady normální lidi :D

No to je vtipný, že mám zrovna iPhone 14 Pro max :D Takže to můžu vyzkoušet a opravdu meleš nesmysly... nehledě na to, že vedle mám Galaxy S23 Ultra, která je mimochodem rychlejší při běžném používání... ale jasně... vychval si tu hračku od Applu :D
Odpovědět0  0
Co to plácáš za nesmysly proboha? :D Takže teď budeme měřit výkon procesoru jen po dobu 0,7 vteřin, protože to tak sedí applu nebo co? :D Nastavím speciální turbo, které po dobu 0,7 vteřin vytáhne takty nad 6Ghz a budem předstírat, jak to k něčemu je? :D Jakákoli opravdová práce pro moderní počítače netrvá 0,7 vteřiny. Je to kontinuální vytížení procesorů po delší dobu a v tom se jaksi Applu už nevede že?

Jak můžeš být tak arogantní a brát v potaz jen a pouze jeden test, který nejlépe sedí procesorům Applu, protože je pro ně nejspíš napsaný na míru? Ostatní budeš prostě ignorovat, protože tam Apple dostane čočku jak nevím co?

Až přijde nVidia s tím svým zázrakem tak se o něčem můžeme bavit, dnes tady nemá nic. Ale jak to tak chodí, u Applu se to taky nějak zadrhlo že? A to mu všichni Apple fanatici předpovídali, jak AMD s příští generací čipů rozseká a kdesi cosi... realita se ukázala trochu jiná.

Ono až se konečně Intel s AMD dohodnou na ořezání starých nepotřebných instrukčních sad x86 a nebudou muset hledět na zpětnou kompatibilitu, věci můžou dopadnout úplně jinak.
Odpovědět0  0
Kdyby jsi nebyl blb, tak chápeš, že takový test je úplně k ničemu, protože to jediné na co v mobilním zařízení narazíš je právě thermal throtling. Zajímavé ale je, že v takovém PassMarku, který vytěžuje jádra na 100%, byl tento Ryzen o více než 80% rychlejší než nějakej Apple.

Geekbench test pro multi­-jádra mi přijde trochu ušitý na míru určitým procesorům, kterým nevychází dobře výsledky při 100%tním vytížení.
Odpovědět0  0
Celý život jsem používal vždy telefony s Adroidem. V počátcích to byla hrůza... staré Androidy prostě nefungovaly dobře... Postupem času jsem už ale začal být spokojený. Stroje jako Huawei P20 Pro, P30 Pro a pak třeba i Samsung S21­/22 byly dobré a dobře fungovaly. Jelikož mi přišlo, že u Androidu už nemám moc kam jít a co lepšího zkusit, tak jsem se rozhodl zkusit Apple. Pořídil jsem si iPhone 14 Pro MAX 256GB a... no jako ani nevím jak bych to popsal... Už ho mám půl roku a v některých věcech mi přijde jak fakt pro retardovaný. Práce s telefonem je v některých ohledech podstatně otravnější než s Androidem, v jiných je to zase lepší... Jako příklad uvedu třeba takovou banalitu, jako to, že na iOS prostě nefunguje ­"zpět­" swipnutím z obrou stran displaye. Když držím telefon v pravé ruce, tak bych chtěl ­"zpět­" udělat přetažením z pravého okraje displaye, ale to samozřejmě nejde a na levý nedosáhnu, takže si buď musím přehmátnou a nebo použít druhou ruku. Potom tahle funkce nefunguje v některých aplikacích vůbec a musím sáhnout až do levého horního rohu telefonu na šipku ­"zpět­" ... což se u telefonu velkého jako Pro MAX nedá pořádně jednou rukou udělat. A takových věcí je tam více... zase co se mi líbí, tak face ID funguje super, nějak více využívám automatické vytváření silných hesel jištěných přes Face ID a řekl bych, že lépe funguje i automatické zadávání přihlašovacích údajů do různých webů atd, protože u Androidu se mi občas stalo, že mi to tam chybělo jméno a vyplnilo se jen heslo.

Nicméně ve finále jsem si celkem jistý, že další iPhone si už nekoupím. Od té doby co ho mám, tak telefon využívám čím dál méně mi přijde, protože mě to nebaví.
Odpovědět9  1
Jenže v ceníku Applu figurovaly Intely ještě s cenami, kdy neměl Intel moc konkurenci nebo jí neuznával. Poté musel s cenou dolů, ale v ceníku Applu se to jaksi zapomnělo projevit. To se pak ukazuje, jak je Apple se svým procesorem levnější, když má v ceníku u Intelu cenu takovou, za kterou se už 2 roky neprodává. Samozřejmě se bavíme o MacPro.
Odpovědět0  0
A proč bych si proboha kupoval Intel? Když chci výkonnou pracovní stanici, tak si vezmu Ryzen ThreadRipper snad ne?
Odpovědět1  0
Však ať jde? Kdo to tady chce? Už tím jednou vyhrožoval a najednou se přišlo na to, že by to vlastně nikomu nevadilo. Vydělává na našem území a na našich lidech, tak bude dordržovat naše zákony a nebo a´t vypadne. Včera bylo pozdě.
Odpovědět2  1
On je normální egocentrik a narcis ... Lidi už na jeho tweety se*ou? Tak jim je vnutíme za každou cenu! A když mi podřízení popravdě řeknou, že na mě lidi se*ou, tak je vyhodíme! Normálně mi to připomíná komunismus :D Je smutné a možná až nebezpečné, že takový člověk má docela velkou moc ...
Odpovědět1  2
"...myslíš v situaci kdy ti z dobré vůle ISP poskytl v nouzi internet, nouzově ti ho zadotoval i když je sám dlouhodobě ve ztrátě...­"

Nezlob se na mě, ale tohle je trochu alibismus pro SpaceX... oni poslali zdarma zařízení pro připojení ­- OK, náklady dostává placeny od americké vlády ­- asi ne tolik, kolik by si představovala a tak držkuje. Ale z druhé strany, ty satelity asi jen tak nezaparkuješ a nevypneš, abys nebyl ve ztrátě že? Takže SpaceX by byla ve ztrátě i bez Ukrajiny a navíc ještě víc, protože by nedostávala zaplaceno za poskytnutí internetu vůbec nic.

To co SpaceX předvádí je prostě dolování více pěněz od vlády USA případně přímo od Ukrajinců. A když je nedostanou, tak začnou omezovat a omezovat a kdesi cosi...



Odpovědět2  2
Mě by tak zajímalo... když tak miluješ Rusko a nesnášíš prohnilej západ v čele s USA, tak proč tu žiješ? Proč se nesebereš a neodjedeš do Ruska, kde ti bude tak dobře? Co tady otravuješ nám ­"spokojeným­" lidem život svýma řečma o nejlepším Rusku na světě? Tak se seber a přestěhuj se tam, zažádej si o občanství, je nám to asi všem fuk, tady nikomu chybět nebudeš a tobě bude líp ne? Teda když tě hned na hranicích nechytnou a obratem tě nepošlou na frontu. Ale tak to bys přeci zvládnul ne? Pro Rusko všechno... budeš zajisté odměněn.

Ale jako správný občan Ruské Federace a odpůrce západu by jsi měl zahodit všechny své západní technologie, protože když je západ tak špatný, nemůžeš používat ani jeho technologie. Tak doufám, že svůj počítač, notebook, telefon atd vyhodíš a koupíš si ty nejlepší v Rusku vyvinuté a vyrobené technologie že? Akorát teda už nebudeš moct psát tyhle své komentáře tady k nám na Svět hardware, protože Ruský přístup k Internetu je trochu omezený a pravděpodobně se na tyto stránky už nepodíváš, ale tak když ti tam bude tak dobře, tak to nebudeš potřebovat. No ale kdyby jsi měl přeci jen chuť, tak pozor na zlou VPN ­- je to opět západní technologie a je prohnila a pokud se jí pokusíš použít, je možné že tě navštíví soudruh z bývalé KGB a patřičně ti to vysvětlí. Ale jsem si jistý, že to by tě ani nenapadlo, protože proč bys měl cokoli číst a poslouchat o západu, když to jsou přeci všechno jenom lži a výmysly a jediná pravda zní z Ruska.

Tak se měj v Rusku hezky a pozdravuj Vláďu :)
Odpovědět8  1
Nejspíš kvůli nižším nárokům na napájecí kaskádu... aby ty desky byly levné... pak nemůžou zaručit, že PBO ty desky zvládnou.
Odpovědět0  0
Nevím, jestli je dobrý nápad se v dnešní době přihlašovat k FB přes cizí aplikaci...
Odpovědět1  0
A za třetí bavíme se tu o Milanovi, kterej už je jaksi ta tam...
Odpovědět4  0
Návrh referenčního chlazení i jeho výroba byla v rukou Cooler Masteru a jeho partnerů. AMD za to nemůže.
Odpovědět8  1
Ale tady u toho formátu BTX nešlo o žádný airflow a podobné věci... Intel prostě z nějakého důvodu přehodil desku z jedné strany na druhou... samozřejmě musely být i ty desky ­"otočené­" a měly I­/O a veškeré vybavení ­"na zadní straně ATX desky­".

Takovéto počítače měly i normální úzké skříně, kde ten airflow nebyl o nic lepší než v klasické ATX skříni té doby. Tady to Fujitsu vyřešilo samo tím, že udělaly tlustou skříň s velkým ventilátorem... není to zásluha BTX formátu.

Jinak samozřejmě na tohle by dobře posloužila i dnešní ATX skříň, kdyby se zadní záslepky daly úplně odstranit a karta se tam mohla nainstalovat vertikálně, ale dostatečně daleko od bočnice a desky kvůli dostatku vzduchu. Dneska má sice každá druhá skříň možnost nainstalovat grafiku vertikálně, ale přitom je nalepená na bočnici a dusí se...
Odpovědět4  0
Ano, je to vše v jednom....
MI250 vydá takhle komplet i s chladičem:
https:­/­/www.amd.com­/en­/products­/server­-accelerators­/instinct­-mi250

Takže MI300 bude vypadat podobně kvůli integraci do serverů

Některé Insticty jsou i ve formě PCI­-E karty o velikosti normální grafiky...
Odpovědět1  0
"Jako uživatel jsem dříve obdobnou otázku velkého poklesu výkonu po aktivaci nějakého grafického nastavení běžně řešil ve spojitosti s různými metodami antialiasingu, ­"

Pardon, ale snad žádný antialiasing neměl nikdy tak drastické dopady na výkon.

"Jinak mi nepřijde, že byste byl nějak v rozporu s tím, co jsem psal. Má hlavní pointa spočívala v poukázání na to, že ray tracing není jen nějaký 1 efekt, který když se ve hrách zapne, tak by to jakože mělo znamenat, že výsledkem bude maximum možného, co RT představuje :­­-­)­"

Ano, to chápu, že to není 1 efekt, ale řešíme tady něco jiného. Třeba již zmíněný antialiasing něco řešil. Řešil problém zubatých hran, které byly a jsou nehezké a za to si to vzalo nějaké procento výkonu. Co řeší RayTracing? Nasvícení scény je asi nejvíce viditelné. Jenže to není v podstatě problém. Rasterizací přeci dokážeme nasvícení napodobit do takové míry, že to potom při hraní nerozeznáme od nasvícení pomocí RT. Já jsem pro každou přesnost... ježe tady ta cena za to je prostě příliš vysoká. A následně když to takhle konstatuje mnoho lidí, tak se najednou začnou dělat hry, kde ten raster je ošklivý a až RT z toho udělá hezkou hru. Ale je to uměle vytvořený rozdíl. Všichni musí vědět, že i rasterem bez brutálních nároků na výkon to jde udělat tak, že to bude vypadat hodně podobně a ne se najednou tvářit, že jinak než s pomocí RT to nemůže vypadat hezky a přesvědčivě.
Odpovědět0  1
Ano všichni rozumíme jenže.... Jak už tady bylo psáno, nikdo by proti RT nic neměl, kdyby to nemělo tak drastické dopady na výkon. Samozřejmě, že každý se chce dívat na hezkou hru, která ho ohromí, ale za jakou cenu? Nezlobte se na mě, ale při použití běžné rasterizace je možné dosáhnout hodně podobných výsledků ­- samozřejmě se to neudělá samo že, ale jde to a bez tak nesmyslných nároků na výkon.

Jenže to je právě to, co se někomu nehodí do krámu. Kdyby si na tom dali vývojáři záležet a i pod rasterizací by to vypadalo takhle hezky, tak by se zase musel zkoumat statický snímek po snímku a hledat rozdíly mezi RT ON a RT OFF a horko těžko by někdo ospravedlnil ten výkonový propad.

Takže tohle mi přijde jako vyloženě a záměrně udělaný ne moc pěkně v rasterizaci, aby to o to lépe vypadalo pod RT a mohli jsme říkat, jak skvělá to je technologie a jak neuvěřitelně to vylepšuje kvalitu obrazu.

Je mi jasné, že pro vývojáře je jednodušší se stím nepatlat a fláknout tam RT, protože jim to usnadní práci, ale zlevní mi to tu hru? No ne, zaplatím furt stejně, bez RT dostanu nic moc kvalitu obrazu a když si budu chtít zahrát s RT, tak si musím koupit grafiku alespoň za 35 tisíc... fakt díky vývojáři... :­)

A než mě tu někdo osočí z toho, že jsem fanatik z červeného týmu, kterému RT nejde, tak mám v PC RTX4080 a RT jsem ještě nikdy nezpanul.
Odpovědět1  1
Jak si nerozumí s DDR5, můžeš mi to objasnit? Máš takovou platformu? Já mám Ryzen 9 7900X, X670E desku a 2x32GB DDR5 a představ si, vše běží perfektně. Stejně jako na DDR4 prostě zapnu Expo profil a paměti jedou a jedou...
Odpovědět10  1
Jako máš pravdu, už to mělo být vyladěné.

Nicméně 50W jako těžký problém? Tady se neřeší 100W u procesorů Intel, protože to nikomu přece nevadí a najednou tady budeme řešit 50W u AMD? Achjo... ať žije fér jednání.
Odpovědět2  1
Hele já ti teď nevím, ale AMD tam má evidentně nějaký bug v ovladačích a na některých nastaveních monitoru nebo v multi zapojení monitorů to teď žere nesmysl, jenže to si myslím opraví hnedka, protože na to nadává každý, tak bych s tímhle chvíli počkal.
Odpovědět4  1
Mě zrovna v neděli překvapily Google Mapy, když jsem se skrz ně nechal navigovat přes Prahu. Vybral jsem si cestu bez zpoplatněných dálnic a jel jsem... při nájezdu na jednu z dálnic bez poplatku jsem neviděl ceduli upozorňující na to, že je bez poplatku a trochu jsem zazmatkoval a zastavil na benzince a prostě jsem si přes Chrome tu dálniční známku koupil. Vyjel jsem z benzínky a hned za ní už ta cedule o dálnici bez poplatku byla. OK, jsem blb, co se dá dělat... no jo... jenže Google mapy si evidentně zjistily, že jsem si tu dálniční známku koupil a sami mi upravily trasu po zpoplatněné dálnici.... jako na jednu stranu hezká spolupráce ale na druhou... WTF?
Odpovědět1  0
No jako neřeším to nějak do detailu, ale přijde mi to jako celkem logické... Vždyť ty karty stály nesmysl a každý IT web hlásil, ať si ty karty za ty peníze nikdo nekupuje, pokud to není nutné. Chvíli na to IT weby hlásí že karty sice zlevnily, ale za chvíli je tu nová generace, taks e to možná nevyplatí kupovat... No tak se pak nedivte, že se to neprodává :D

Ne možná je můj pohled mimo, ale je to vtipné si to zpětně uvědomit...
Odpovědět3  1
Prosím tě já ti nějak nerozumím, ale i samo AMD oznámilo, že přijdou Ryzeny 7000 s 3D V­-cache a hned se lidi ptali a byli ujištěni, že přijdou jak 8mijádrové, tak 12ti i 16ti jádrové. Teď se k tomu nečekaně přidaly i 6ti jádrové. Takže budeš mít asi ke každé konfiguraci jader verzi s V­-Cachce.
Odpovědět0  0
No ono by se to asi cenově nevyplatilo ani normálně u 6ti jádra, ale počítám, že 8mi jádrové chiplety s V cache budou mít také nějaké vady, tak se chiplety s alespoň 6ti fungujícími jádry přesunou na 7900X3D a 7600X3D.
Odpovědět3  0
Paradoxně je čistému marketingu nejblíž AMD
Odpovědět2  3
Já jsem si vyhlédl BenQ EX3410R, který má také integrované repro a podle recenzí velice slušné.
Odpovědět0  0
No jestli mají ty chipy takovou výkonovou rezervu, tak určitě přijdou výrobci s 3x8 pin a bude se taktovat jak o život. Ale bohužel v recenzích to zohledněné nebude, protože se budou dělat první recenze na referenčních kartách.
Odpovědět7  0
Mně tak nějak přijde, že AMD posadila XTX na ten tzv. sweetspot ­(já to slovo nesnáším:D­), aby se udržela na 350W a trochu obětovala výkon. Tím udrží i nižší teploty a vystačí si s menším chladičem a celkově pak může nasadit agresivní cenovku. Odpovídaly by tomu i ty nízké takty karet ­- měly by na tomto procesu zvládnout o dost vyšší takty.

Ta cenovka je podle mě hodně agresivní ­- samozřejmě je potřeba přihlédnout k výkonu, o kterém toho zas tolik nevíme... Dá se tak nějak odhadnout, že by měla být výkonem kousek pod RTX4090, ale vysoko nad RTX 4080. Při ceně podstatně nižší, než má mít RTX4080 je to prostě skvělá nabídka.

No každopádně jsem si vybral novou grafickou kartu :)
Odpovědět12  0
Očividně... původně to měl být nějaký Ryzen 9 a při finální kontrole neprošel, tak ho prostě předělali na Ryzen 5 ... proč plýtvat zdroji a vyhazovat to... Myslím, že to ničemu nemůže vadit...
Odpovědět7  0
Zapomněl jste zmínit, že Ryzen 9 7950X je při stejném PPL limitu zpráská oba dva :)
Odpovědět3  2
Lžeš nic jiného se o tom co tu meleš nedá říct.

"AMD nedokáže prísť s prekvapením, čo sa týka výkonu a ceny­"

Kdyby ses zahledal do novinek před vydáním RDNA 2, tak se všude dočteš, že Nové Radeony RX6000 budou soupeřit maximálně tak s RTX3070 za vyšší cenu. A co se reálně stalo? Všichni zůstali čumět s otevřenou pusou, když představili Radeon RX6900XT, který proháněl RTX3090 s mnohem nižší cenou a nVidia tak musela na rychlo vydávat RTX3080Ti, aby ta RTX3090 nevypadal tak blbě za tu cenu.

AMD na nVidii tlačí poslední dobou neuvěřitelně.. jinak by nVidia nevydala 150W navíc v TDP za pár usmrknaých procent výkonu... Oni musí vědět, že to nebude jen a tak a že ty procenta budou potřebovat.
Odpovědět2  0
Souhlasím, jen bych do doplnil, že Alyx má více verzí pohybu a každý si může zvolit ten, který mu nejvíce vyhovuje... Bu´ď jsou to zmíněné skoky, nebo tam dojdete po svých ­(když máte dost velkou místnost­) a nebo tam dojdete joystickem jako na playstationu ­- ten máte na ručních ovladačích..
Odpovědět0  0
No jako na notebooku mi svítí v Updatu taky přechod na W11, ale zatím to odkládám. Ani mi nejde o to, že tam bude něco jinak a že se budu muset něco přeučit nebo doučit a zvyknout si... Jde mi spíš o to, že už při přechodu na W10 byly první verze naprd.. nestabilita, BSOD, ovladače si občas nesedly a podobné věci a já bych se tomu rád vyhnul. Ne že bych si s tím neporadil, ale asi už jsem línej takové věci řešit.

Ale asi na to stejně budu muset dříve nebo později přejít, tak se možná o víkendu hecnu a zkusím to.
Odpovědět1  2
V podstatě byl ;­) Bez svolení nVidie a bez jejich ­(zatím­) nevydaných úprav her by nic nebylo. Tohle je klasika, lidi moc DLSS3 nevěří, tak pustíme malinký leak od ­"nezávislého vydavatele­", aby jsme je přesvědčili. Tohle je trapné a ubohé a velmi to připomíná Intel :)
Odpovědět1  2
Jinak je fajn, že Dell myslí i na lidi, co nepotřebují G­-Sync a ta sleva 200 dolarů se hodí. Nicméně by třeba mohli pořádně začít monitory dodávat, protože ať se podívám kam se podívám, nikde nejsou dostupné a dělají si snad pořadník, který teďka bude ještě delší...
Odpovědět1  0
Dražší předchůdce má funkci, díky které se celý obraz posunuje o pár pixelů do všech stran, aby se zabránilo vypalování obrazu. Samozřejmě lidi se hned zhrozili, že to musí být hrozné, že jim bude poskakovat obraz, jenže to absolutně nikdo nikdy nepozná. Bylo to vidět až při časosběrném režimu foťáku a zaměřením na roh obrazovky, jinak si toho člověk nemá šanci všimnout ­- udělá to třeba 3x za hodinu. Takže i na tohle Dell myslel, samozřejmě tam je myslím nějaká záruka na vypalování obrazu... nevím jistě, ale myslím že 5 let?
Odpovědět0  0
Zklamáním jsou pouze lidé jako vy, kteří se snaží překrucovat realitu dle svých přání. Bohužel se vám to nepodaří, protože nové Ryzeny jsou evidentně ­(dle recenzí­) výborné.
Odpovědět11  1
Jo a to ani nemluvím o tom, že do tý desky pro Intel už nikdy nic lepšího nedáš a s dalším procesorem ji můžeš zahodit. Kdežto tyhle nové pro AMD tu budou ještě 2 genereace procesorů.
Odpovědět5  1
Tak trochu si to upravuješ, aby ti vyšlo lépe že? :D Sice si k tomu můžeš dát DDR4, ale všude pak budeš stejně argumentovat tím výkonem při DDR5 že? Ale že ti to tak rychle ve skutečnosti nejede na těch DDR4 řešit nebudeš. Desky jsou ZATÍM nejlevnější za 360 eur... přijdou B650tky, které už budou levnější.... Navíc, tyhle desky jsou sice drahé, ale všechny jsou alespoň mnohem lépe vybavené, než kdy vůbec bude celý Raptor Lake mít, tak tady porovnáváš neporovnatelné...

Je ale fakt, že Intel cenou překvapil... čekal jsem to horší ­- nicméně jak je vidět, je to reakce na nové Ryzeny 7000, původně byly plánované ceny vyšší, ale to by pak byl neprodejný šrot :)
Odpovědět9  0
iGPU neohlodali zbytečně, je to nouzové zobrazovadlo, nemá za úkol hraní her a podobné ptákoviny, takže to je naprosto v pořádku. Napětí nechávají možná vyšší, ale rozhodně to nežere jak Intel. Pokud se ti nelíbí spotřeba, tak u 7950X můžeš zapnout 105W limit a přijdeš jen o 5% výkonu a při spotřebě max 142W. Je to jen o preferenci každého.

Joo, 170W modely mají doporučené 280mm AiO, nicméně se uchladí i Noctou 14 a 15.

A v žádném případě neplatí, že by AMD mělo vysokou cenu. Ty procesory jsou stejně drahé jako Ryzeny 5000, které byly uvedeny před dvěma lety a 7950X je dokonce o 100 dolarů levnější. Kde máš inflaci a zvýšené náklady na výrobu? Klidně by si je tam mohli dát, ale nedali, tak si nevymýšlej, že jsou drahý. Počkej, co ti předvede Intel s Raptor Lake.
Odpovědět16  0
Zajímavé a o vydaných Ryzenech nic nemáte? :)
Odpovědět0  0
Prosímtě kdo tady bude řešit synchronizaci při 40 snímcích? To jako někoho zajímá nebo tak někdo hraje? Já bych řekl, že asi těžko a jestli ano, tak mu je i ta synchronizace i řiti. Navíc pravděpodobně to tak bylo někdy v počátcích a dávno to už není ani pravda.

nVidia cpe do těch monitoru svůj předražený speciální procesor, který tam je prostě úplně zbytečně a každý moderní FreeSync monitor umí úplně to samé, co G­-Sync a navíc je levnější, protože do toho nikdo necpe nesmyslný HW, který je zvyšuje cenu a zisky nVidii.
Odpovědět3  1
Co robí MS a Sony? Když běží na HW AMD, tak přesně to, co robí AMD. To že používají adaptivní rozlišení ještě neznamená, že si vymýšlí snímky, které vypadají otřesně a ještě zvyšují odezvu. Pak tam běží snad už i FSR.

Začlenění možná vypadá efektně ­(to že se to dneska s odrazy přehání a vše vypadá jak vyleštěné psí kulky už řešit nebudu­) je sice jedna věc, druhá věc je ta, že i rasterizací se tento efekt dá napodobit ­(neřikám přesně, ale do značené míry ano­) s mnohem nižšími nároky na výkon a díky tomu pak nepotřebujeme na zbytek scény upscaling s vymýšlením každého druhého snímku, který pak vypadá jak vyblitý.
Odpovědět0  0
Komentáře takových lidí, jako jste vy. Protože když někdo začne hanit dobrý produkt jen proto, že tam nejsou RT jádra, tak nemá cenu se stavět na hlavu a prostě je tam dám taky. Nicméně tam jsou, fungujou, ale AMD je to asi fuk... nikde to nepropaguje a nedělá z toho nějakou absolutní bombu jako vy a nVidia.

DLSS jako takové bylo původně dobrý nápad, na což reagovalo i AMD. Nicméně provedení nVidie je samozřejmě pitomé a omezené, AMD to prostě udělala lépe. Vlastně jako vždycky že? G­-Sync vs FreeSync a pod... To co předvádí nVidia s DLSS teď je ale ubohé a celou tu technologii jen kazí.

Rozdíl mezi AMD a nVidia dnes je ten, že AMD se stále snaží ty snímky doopravdy vykreslit co nejrychleji, kdežto nVidia už je bude jen odhadovat či jinak ochcávat, ale hlavně že budeme trvat na přesném nasvícení scény, odrazech a stínech pomocí RT. Docela paradox a hlavně to není žádné udávání směru... mohlo být, ale tohle fakt ne.
Odpovědět5  2
První lidé, co si to mohli vyzkoušet to poznali... po internetu se šíří informace o tom, že hraní pod takovým DLSS 3 je divné a hra i divně reaguje. Je snímcích lze vidět, že vymyšlený snímek je příšerně rozblurovaný a ikdyž to není na první pohled vidět, člověku to prostě přijde divné při tom hraní. Další věc jsou ty odezvy... pokud se nepletu, tak nVidia tvrdila, že budou menší.. nicméně asi tomu tak nebude. ono z logiky věci, když zareagujete ve hře a DLSS zrovna vymýšlí snímek ve kterém vaše reakce nebyla zahrnuta, prostě to pocítíte. Ale hlavně že máte o 175% lepší výkon ne? :D
Odpovědět7  0
Bylo tady více lidí, co tohle psali... Bohužel neznám jejich nicky z paměti a proto píšu neurčitě.

Nicméně co píšeš asi není úplně pravda, protože zde to sice napsáno není, ale ve zdroji se můžeš dočíst, že teplota procesoru byla 108 stupňů a přesto v pohodě pracoval při takových frekvencich.

Jasně můžeš začít s tím, že to není pro procesor dobré atd... Ale evidentně se časy mění a novým procesorum vysoké teploty vlastně tolik nevadí.
Odpovědět1  1
Tak kde jsou ti, co tady píší, jak jsou všechny AMD procesory vyhnané do posledního Mhz?? Asi jste trošku mimo ne?
Odpovědět6  1
Tak asi bych to nadšení trochu krotil zase, dokud neuvidíme nezávislé recenze.

Možná je vaše paměť krátká, ale při uvedení Ampere pan koženka taky přesvědčivě tvrdil, že rtx3080 je 2x výkonnější než rtx2080 a pak to vlastně bylo trochu jinak že?

Odpovědět5  0