Nechce sa mi to teraz hladat po webe, ale zaujimalo by ma, ci existuju rozne 'revizie' modulov a ich kompatibilita s vekom a roznymi LCD.
Ak by som sa nahodou rozhodol vymenit terajsi LCD za takyto ViewSonic, moze sa stat, ze povedzme o 10 rokov ked budem vymienat napr. piatu generaciu GeForce, ze by uz nespolupracovala s tak starym modulom/LCD (v tej dobe uz 10 rocnym)?
Som zvedavy kedy tieto 'zabo-mysie' vojny o herne exkluzivity prestanu a pochopia, ze aj na PC sa da hrat :-)
Pokial sa Sony k tomuto kroku odhodla a portuje v POUZITELNEJ kvalite (sikmaci hadam pochopia, ze PC ma klavesnicu a mys) co i len PS3 exkluzivne tiluly na PC, tak im zatlieskam... na oplatku zas M$ potlapkam po pleci, ze to celkom dobre vymysleli.
"Dále je třeba potvrdit, že PlayStation 5 nabídne zpětnou kompatibilitu s hrami pro generaci PS4 a že hry budou dále prodávány i jako krabicové verze s fyzickými kopiemi."
Tak toto je asi najpodstatnejsia informacia, lebo kupovat donekonecna remaky hier, ktore si chcem zahrat aj po rokoch je na hlavu... teda ide do penazi ;-)
@NRX
Nepovedal by som, ze to vycitam tomu CPU, skor to je vycitka smerom k Intelu, ktory sa touto 'vlastnostou', alebo ako to nazvat, zrovna nechvali... keby neboli taketo recenzie, ani nevies, ze taky novy PC s 35W CPU vadka turbu moze zrat v skutocnosti okolo 117W (Cinebench) a 159W !?! (Prime) bez zataze GPU...
To nie je vec, ktora by bola verejne uplne bezna a znama. Keby nebolo tej recenzie, tak o tom ani neviem a to mam starsi i7-7700T doma. Ten sa takto nesprava, lebo ked som meral 1-2 roky dozadu spotrebu wattmetrom, tak v benchmarku to ukazovalo tusim okolo 65W+ za cele PC (pracovny PC bez samostatnej GPU). Ani som netusil o nejakej polozke v BIOSe, takze CPU isiel default na MAX turbo v teste.
Jednoducho, Intel stale nezvlada svoj prechod z 14+++++ procesu na nieco novsie pricom pridava jadra, ktore jednoducho musia zrat nieco naviac, aj ked to priamo neprizna...
Pre mna, ako hraca, bolo na tom este zaujimave jedno zistenie: v hrach maju 8700K a 8700T vo FullHD rovnaky vykon (test s GeForce GTX 1080 Ti).
@NRX
Nepovedal by som, ze to vycitam tomu CPU, skor to je vycitka smerom k Intelu, ktory sa touto 'vlastnostou', alebo ako to nazvat, zrovna nechvali... keby neboli taketo recenzie, ani nevies, ze taky novy PC s 35W CPU vadka turbu moze zrat v skutocnosti okolo 117W (Cinebench) a 159W !?! (Prime) bez zataze GPU...
To nie je vec, ktora by bola verejne uplne bezna a znama. Keby nebolo tej recenzie, tak o tom ani neviem a to mam starsi i7-7700T doma. Ten sa takto nesprava, lebo ked som meral 1-2 roky dozadu spotrebu wattmetrom, tak v benchmarku to ukazovalo tusim okolo 65W+ za cele PC (pracovny PC bez samostatnej GPU). Ani som netusil o nejakej polozke v BIOSe, takze CPU isiel default na MAX turbo v teste.
Jednoducho, Intel stale nezvlada svoj prechod z 14+++++ procesu na nieco novsie pricom pridava jadra, ktore jednoducho musia zrat nieco naviac, aj ked to priamo neprizna...
Pre mna, ako hraca, bolo na tom este zaujimave jedno zistenie: v hrach maju 8700K a 8700T vo FullHD rovnaky vykon (test s GeForce GTX 1080 Ti).
@andir
"...hlavně co pořádně nevynášelo, a na vše kašlalo."
Treba na rovinu povadat, ze ked sa Valve muselo zivit poctivou robotou, tak aj nieco robili - napr. paradny Half-Life 2. No akonahle casom zistili, ze ich distribucna platforma zaraba tazke prachy, tak zacali kaslat na cely vyvoj ... ved naco ked tecie od inych...
Nemozne sa stalo moznym ... a sam 'velky' M$ na to pristupil??? Uzasna sprava, len by ma zaujimalo, kolko hier este bude takto patchnutych a ci pridu nejake nove rovno s touto podporou...
How are DirectX 12 games different between Windows 10 and Windows 7? Windows 10 has critical OS improvements which make modern low-level graphics APIs (including DirectX 12) run more efficiently. If you enjoy your favorite games running with DirectX 12 on Windows 7, you should check how those games run even better on Windows 10!
Som zvedavy kto prvy pride s nejaky benchmarkom a aky rozdiel tam bude...
GoG ostala takmer jedina platforma, ktoru pravidelne podporujem pre jej nesporne vyhody...
Jasne, novych AAA titulov je tam ako safranu, ale zas nie sme nast-rocny, aby sme sedeli za PC denodenne a pokial nejaka hra by prisla aj s rocnym opozdenim, mne to zili trhat nebude.
Velke zisky bez AAA titulov urcito nemaju, ale hadam to nejak daju dohromady a budu fungovat.
Nezodpovedne mi akurat pride, pokial niekto nie je ochotny podporovat ani taketo platformy bez DRM a stahuje to z warezu... hlavne, ze vsetci svorne nadavaju na DRM...
Vyzera na idealnu grafarnu pre 1080p, ktora zvlada vseto na full a zvacsa utiahne aj 1440p so slusnymi FPS. Solidny posun vykonu oproti GTX 1060 6GB na uroven GTX 1070, naviac pri nizsej spotrebe oproti GTX 1070.
Ak GTX 1070 zacinala na $380, tak tychto $280 za GTX 1660 Ti je velmi priazniva cena.
Tak som zvedavy na posun oproti GTX 1050 Ti. Podstatne je aby sa vosli do 75W a tym padom boli modely bez nutnosti pridavneho napajania a este idealne pasivne chladene :-)
Zatial to vyzera velmi slusne. Tipujem, ze toto bude asi najlepsi scenar, ze sa dotiahne na GTX 1070.
Som zvedavy na novu GTX 1550 Ti, alebo ako sa bude volat. Ak by sa im podarilo dosiahnut vykon GTX 1060, bola by to bomba, naviac pokial by TDP ostalo na 75W.
Takze GTX 1660 Ti bude mozno dosahovat vykonu GTX 1070, ale miestny troll bude stale zvanit: "GTX 1660Ti 6 GB je ve skutečnosti nástupkyní GTX 1050 Ti 4 GB za dvojnásobnou cenu."
@ludek_jelinek
Sorry, ale ten prehlad prave vobec nie je mimo realitu, pretoze odraza prave posun danej kategorie v ramci architektur. Nemozes miesat rozne kategorie medzi sebou, a uz vobec porovnavat RTX s GTX. To ako keby si porovnaval a ocakaval Ochcavku za cenu Fobie...
Nvidia sa proste rozhodla vytvorit novu 'radu' - RTX. Ci je tento krok spravnym smerom, alebo nie, ukaze az cas. S narastom vykonu v dalsich rokoch bude RTX prevladat nad GTX. Ci to bude o generaciu, dve-tri neskor nie je podstatne...
Bavme sa o kategorii ako takej. Skus sa este raz zamerat na radu x50 / x60 a zabudni na nejake RTX. Pozri si tu tabulku a zameraj sa na core (Shaders:TMU:ROP), ram (size, bus), TDP a cenu. To jednoducho nepusti.
Obcas sa im podari priniest +/- vacsi/mensi narast vykonu v danej rade. Ale sotva 2-nasobny a podobne. GTX 1660 Ti jednoducho nie je nastupcom GTX 1050 Ti, pretoze ked pride, tak ju namieste rozdrti. A to by nam Nvidia nikdy neurobila :-P Ved onedlho testy GTX 1660 Ti ukazu jej realny vykon a ta cena jednoducho tomu odpoveda.
Nvidia to ma segmentovane dlho: GTX x50 lowend s shaders < 1000, 128-bit zbernicou, TDP <100W, price +/- < $150 GTX x60 middle s shaders > 1000, 192-bit zbernicou, TDP >100W, price +/- > $249
Obcas to miesaju vydanim NIE-Ti a Ti modelov, OEM modelov, alebo polovicnou/dvojnasobonou RAM v ramci architektury. Ale ak niekto sniva o GTX 1660 Ti ako o nastupcovi GTX x50 Ti linie, mal by sa dat vysetrit...
Ak parametre 1660 Ti budu take, ako sa predpoklada, tak ide o posun v ramci x60 serie. Nic viac - nic menej.
PS: Hadam si sa uz vyplakal, a ano, zupan som ti uz nachystal :-PPP