Ja to spis vidim na masivni rozsireni lokalnich cloudu, tj lide v budoucnosti budou uchovavat lokalne napr. cely internet (nebo vybranou cast podle zajmu) a nastavi si pouze synchronizaci. Ze se ale cloud bude rozsirovat zaroven to plati tez.
To uz se ale koukam na uloziste v radech yottabajtu velikosti spendlikove hlavicky... napr. si budeme moci ukladat kompletni kopie jakychkoli objektu vcetnne lidi :-)
@SpaceExplo
Ja moc nechapu fandeni ARMu na vsech frontach. Dokud tu nebudeme mit open source hardware ve forme napr. RICS-V CPU a dale take nejakeho GPU, tak neni co oslavovat, je to pokrok, ale spise kradeni zakazniku z jedne na druhou stranu, ne realny pokrok.
Tomuhle rikam pokrok,ackoli je to proste draha zalezitost, takze bude trvat nez se to prosadi a dostane na uroven pouzitelnou v main streamu
Nvidia zarizla nove pouzivani consumer karet v datovych centrech, to taky splhalo ceny do nebes, protoze velke firmy porizovaly vykone desktopove karty do datovych center, to jim uz neni povoleno :-) fakt spatnej vtip. Vyrobce ti zakazuje zapojit grafiku na nejakem miste... ale poskozovalo jim to odber tesel. AMD tohle jeste nezarizla.
Ale to je podruzne bych rekl, hlavni pricinou je tezba crypto, to je bez debat.
@archenroot
Jeste doplnim uplne trapny priklad analogicky pasujici na jakykoli typ programovani: napisu aplikaci spustim ji ona dela neco jineho nez jsem chtel oznacim to za chybu zkusim znovu uz to nedela to co jsem nechtel poprve, ale dela to zase neco jineho, co jsem taky nechtel. atd. atd. atd.
Tento stav pokracuje az do stavu, kdy jednoduche "chyby" (ja to povazuji za spatne videni reality nazyvat veci chybami) odstranim, ale v systemu nutne zustavaji, a dokonce odstranenim jednoduchych chyb se odkryvaji nebo vznikaji nove, daleko zakernejsi chyby...
To je jednoduchy fakt z jakekoli vyvoje aplikace, takovych procesu provadime miliony po svete. A tak se to ma i s AI, uplne stejne, plus v ni jeste nahrazujeme pozici programatora, davame ji moznost, aby se dokonce upravovala sama. No a jakmile ji pustime "ven" do internetu, tak bude schopna si sama delat co chce.
Tento stav veci je nevyhnutelny, mi sami tomu nedokazeme zabranit, jelikoz na nejnizsi urovni k tomu smerujeme kazdodenimi akcemi...
No bude to velmi vtipne a nekteri lide budou radeji volit smrt vlastni rukou :-)))
@archenroot
Jeste doplnim, z maleho vzorku lidi v Ceske republice rekl bych, ze vetsina vi, jak se to melo s clovekem v historii, clovek stale zkousi nove veci a ty se mu stale opakovane vymknou z oprati. To je pro me obecny fakt o historii lidstva... a stejnym zpusobem se nam vymknou z oprati i ruzne umele inteligence a zacnou pachat veci, ktere jsme nechteli, aby se stavaly na zacatku. Tak je to s uplne kazdou micro cinnosti cloveka.
Takze pro me neni otazkou jestli se muze AI stat nebezpecnou pro cloveka, pro me je jen otazkou: kdy k tomu ***** presne dojde :-)))
@archenroot
Jeste doplnim uplne trapny priklad analogicky pasujici na jakykoli typ programovani: napisu aplikaci spustim ji ona dela neco jineho nez jsem chtel oznacim to za chybu zkusim znovu uz to nedela to co jsem nechtel poprve, ale dela to zase neco jineho, co jsem taky nechtel. atd. atd. atd.
Tento stav pokracuje az do stavu, kdy jednoduche "chyby" (ja to povazuji za spatne videni reality nazyvat veci chybami) odstranim, ale v systemu nutne zustavaji, a dokonce odstranenim jednoduchych chyb se odkryvaji nebo vznikaji nove, daleko zakernejsi chyby...
To je jednoduchy fakt z jakekoli vyvoje aplikace, takovych procesu provadime miliony po svete. A tak se to ma i s AI, uplne stejne, plus v ni jeste nahrazujeme pozici programatora, davame ji moznost, aby se dokonce upravovala sama. No a jakmile ji pustime "ven" do internetu, tak bude schopna si sama delat co chce.
Tento stav veci je nevyhnutelny, mi sami tomu nedokazeme zabranit, jelikoz na nejnizsi urovni k tomu smerujeme kazdodenimi akcemi...
No bude to velmi vtipne a nekteri lide budou radeji volit smrt vlastni rukou :-)))
Stejne jako AI bude upravovat jinou AI tim, ze identifikuje napr. nadbytecny kod, kod, ktery je nefunkcni, kod ktery je nebezpecny, .... apod.
Stejnym zpusobem bude hodnotit veskere objekty na planete. AI nezna vyznam cloveka tak jak ho zname my. Vidi jen soubor objektu (zatim), ktere budto budou pasovat do jeji vize spravneho stavu veci, nebo nebudou. V tom pripade pokud se z nejakeho duvodu ocitneme v druhe skupine, tak mame proste smulu.
Jde o to, ze AI je stale jen statisticky model, a ackoli tak muzeme videt i cloveka, google brain ackoli muze byt povazovany mnohymi za spicku AI, nema s lidskou inteligenci zatim mnoho spolecneho, pokud pominu ze aplikuje artificalni model neuronu. Nicmene mu stale chybi spousta infrastruktury lidskeho nervoveho systemu a vyssi mozkove funkce.
Bohuzel tyto funkce nemuze ani mit, protoze jakykoli vyvoj AI zacina v neuroscience discipline a pokud ta nepopise stav veci, je tezke je naprogramovat, ackoli se o to sami vyvojari snazime.
Na druhou stranu si AI muze naprogramovat vlastni vyssi mozkove funkce, ktere ale nebudou mit s lidskymi funkcemi vubec nic spolecneho :-))) Takze ano, tvorime tu umelou inteligenci, ktera ale nebude mit nic spolecneho s clovekem, ackoli se o to snazime.... a to je to riziko.
@archenroot
Jeste doplnim, z maleho vzorku lidi v Ceske republice rekl bych, ze vetsina vi, jak se to melo s clovekem v historii, clovek stale zkousi nove veci a ty se mu stale opakovane vymknou z oprati. To je pro me obecny fakt o historii lidstva... a stejnym zpusobem se nam vymknou z oprati i ruzne umele inteligence a zacnou pachat veci, ktere jsme nechteli, aby se stavaly na zacatku. Tak je to s uplne kazdou micro cinnosti cloveka.
Takze pro me neni otazkou jestli se muze AI stat nebezpecnou pro cloveka, pro me je jen otazkou: kdy k tomu ***** presne dojde :-)))
@archenroot
Jeste doplnim uplne trapny priklad analogicky pasujici na jakykoli typ programovani: napisu aplikaci spustim ji ona dela neco jineho nez jsem chtel oznacim to za chybu zkusim znovu uz to nedela to co jsem nechtel poprve, ale dela to zase neco jineho, co jsem taky nechtel. atd. atd. atd.
Tento stav pokracuje az do stavu, kdy jednoduche "chyby" (ja to povazuji za spatne videni reality nazyvat veci chybami) odstranim, ale v systemu nutne zustavaji, a dokonce odstranenim jednoduchych chyb se odkryvaji nebo vznikaji nove, daleko zakernejsi chyby...
To je jednoduchy fakt z jakekoli vyvoje aplikace, takovych procesu provadime miliony po svete. A tak se to ma i s AI, uplne stejne, plus v ni jeste nahrazujeme pozici programatora, davame ji moznost, aby se dokonce upravovala sama. No a jakmile ji pustime "ven" do internetu, tak bude schopna si sama delat co chce.
Tento stav veci je nevyhnutelny, mi sami tomu nedokazeme zabranit, jelikoz na nejnizsi urovni k tomu smerujeme kazdodenimi akcemi...
No bude to velmi vtipne a nekteri lide budou radeji volit smrt vlastni rukou :-)))
Uz jsem psal jinde is benchmakrama, doporucuju jit spise cestou pci karty na 4x m.2 disky... a disky si do toho strkejte, jak budou penize, jedna karta, 4x rozsireni
@Cemada
:-)) tvoje programovani identity se povedlo, hura, prosel si od narozeni zmenou, ktera se povedla a na svoje schopnosti uz si rezignoval, slava!!!.
Jenom proto, ze nedokazes uvazovat o naprosto jinych systemech prispivani do "spolecneho rozpoctu", neznamena, ze takove systemy neexistuji, nebo nejdou navrhnout.
Ty podminujes existenci hasicu a policie nutnosti dani. Ale to jsou 2 ruzne skupiny funkcionalit. Abys mel hasice a policii, tak nepotrebujes dane, ale potrebujes mit prostredky pro jejich zajisteni. A prostredky se daji prece ziskat tisice zpusoby :-) Zkus premyslet, kdyz nebudes, tak ses narodil a zemres ve svete dani.
Mam jinou hracku podle me vice variabilnejsi. Je to trochu drazsi hracka, a vetsinou na systemove cache nebo temporary souborove systemy to resim RAM diskem (na vetsine stroju mam 64GB-512GB), tak na vsechno to nestaci kapacitne...
Proto vyssi kapacity jsem hledal nejake reseni a nasel jsem toto, mam to ted na vyvojovem stroji: 1. Dell Ultra-Speed Drive Quad PCIe NVMe x16 Card Precision Jedna se o generickou PCI-Express kartu, kam si clovek narve libovolne 4 NVMe disky. Na ebay jsem poridil za 6500 CZK 2. HD SAMSUNG SSD 960 EVO MZ-V6E1T0, 1TB, NVMe, M.2 Ten byl drazsi - 12590.00 CZK
Ale tak -20% DPH na firmu.
Mam to chvilku, takze zatim jen jeden disk, ale planuju dokoupit druhej a zkusit je v RAID 0, jestli z toho vyzdimu vic, ikdyz ty rychlosti, ktere dosahuje ten disk sam uz jsou vice nez dostacujici pro moje ucely (soubory, ktere zpracovavam maji prave 1-50GB, takze tohle svisti)
Tady jsou vysledky dummy testu trougputu na jednom disku: # nejdriv zapisu nejaky 1GB soubor andromeda /opt # dd if=/dev/zero of=tempfile bs=1M count=1024 conv=fdatasync,notrunc status=progress 1024+0 records in 1024+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 1.14752 s, 936 MB/s
A ted zkusim cist s prazdnym buferem andromeda /opt # dd if=tempfile of=/dev/null bs=1M count=1024 status=progress 1024+0 records in 1024+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 0.384912 s, 2.8 GB/s
A ted to same, ale necistim buffer andromeda /opt # dd if=tempfile of=/dev/null bs=1M count=1024 status=progress 1024+0 records in 1024+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 0.161535 s, 6.6 GB/s
Takze pri cteni s buferem mam tady 6.6 GB/s. To je skoro to, co uvadeji oni, jako max.
Vylepseni: Jelikoz karta podporuje celkem 4 Chci tam strcit 4 1TB disky a zapojit je do raidu 0, ale casem :-)
Jinak tady je jeste jiny vystup: andromeda ~ # hdparm -Tt /dev/nvme0n1
/dev/nvme0n1: Timing cached reads: 23776 MB in 2.00 seconds = 11899.49 MB/sec Timing buffered disk reads: 7650 MB in 3.00 seconds = 2549.95 MB/sec
Tato metoda je nezavisla na zarovnani diskoveho oddilu.
================ No a nakonec jeste rychly test multithread pristupu, na masince mam 32 threadu (16 fyzickych jader), takze nasimuluju: 4x pametove namapovany dotazovaci enginy 1x aktualizacni thread - simulujici zurnalovani souboroveho systemu 2x background updater - simulujici cteni a zapis najednou nastaveny na 20, resp. 40 microsekund pauzy, ktere simuluje (je to dummy test) nejaky processing dat napr., velikost dat kazdeho threadu je 32, resp. 64mb
Takze s timhle detatkem od Dellu si muzete postavit super rychle pole o velikost 4-8TB (vyssi plati pokud pouzijete 2TB disky nvme, jeden stoji ale ~16000 CZK).
Asi zalezi na pouziti, ale vecicka od delu dava rozhodne k dispozici urcitou variabilitu, kdyz je disk vadnej, tak ho vyhodis, dalsi 3 porad bezi, apod...
Me neprijde, ze by Vega nejak brutalne zaostavala z pohledu ciste vykonu, kazdopadne z pohledu spotreby/vykonu uz to vypada jinak.
Pracuju s vicero frameworky na neuronove site a jen malo z nich podporuje OpenCL, vetsina je postavena na CUDA, takze i software trhne uz i historicky k Nvidii, ktera poskytovala lepsi base. Urcite drzim palce AMD at uz napr. s projektem HIP (konverze CUDA do pure C++ kodu spustitelnem kdekoli), ci dalsi generaci. At udelaj v GPU to, co ted predvadi v CPU domene.
Jinak clanek prave nezminuje jednu dulezitou vec, kterou karta od Nvidia ma (nebo jsem to prehledl)? A prave pro neuronove site zacaly ruzne firmy delat svoje specificke akceleratory (typicky urychlovani maticovych vypoctu), google ma svuj, intel koupil firmu a vydal USB stick jako urychlovac a budou dalsi. Vtip je ale v tom, ze v clanku neni zminen ten vykon. Rekneme, ze v FP16 ma max vykon karta ~25, tak pokud aplikaci prepisu pro tensor unit, tak se z toho podle specifikaci da vymackat az ~120. Plus pokud se to zkombinuje, tak nejakych skoro 150 :D. A prave tohle je to, na co v tuto chvili AMD nema odpoved.
AMD ma zase neco jineho, primo na GPU se daj nainstalovat M.2 disky jako rychla cache, az 2TB v soucasnosti, takze nemusim data tahat z disku pres infrastrukturu na GPU, to je urcite take nemale zrychleni, jelikoz offload (input/output) na/z GPU je dost nemale zdrzeni. Ale stejne to tensor vykon nevyvazi....
Mam fakt radost, jak to AMD strili ven, tohle mohl Intel delat uz davno, ale neudelal, nebo za premrstene ceny. Abych jako smrtelnik mohl sahnout na high-end chipy, tak jsem kupoval ruzne po Asii ES verze za 10-15% ceny. Ale stejne ty pamrdi to porad oslili a orezavali a ted to sem AMD sere pod tlakem, coz je super. Ja tech 128 vlaken (2 patice 32core verze) na svym kompu vyuziju jak prd.
Jsem zvedavej s cim vyjdou jeste dalsi grafiky, uz ted nova architektura by mela delat 25 teraflopu na FP16, to Nvidia architektura neumi, tak do Volta architektury zacnou pridavat TensorCore. Drtiva vetsina AI frameworku je psana pro CUDA (Nvidia), ale citim, ze to se ted trochu zacne menit, protoze si proste nabusenou kartu pro AI koupis domu za zlomek Tesly.
Cituji z clanku: "Alienware Area-51 ale stále budou herní počítače, a tak je otázka, zda využití takového 16jádrového Threadripperu bude mít v takové mašině vůbec smysl."
Situace, ze hry nepotrebuji vice jader, coz vyusti v pripady, ze je nektere ani neumeji vyuzivat, je zavinena spise nedostatkem vicejadrovych masinek jako standard. Pokud ma moje hracska zakladna prumer 2-4 jadra, tak si dam sakra pozor, jak a co vyvijim. Ale to neni tim, ze to neumim, ale tim, ze to nemuzu nasadit.
Pokud se zacneme za 2 roky(lucky) bavit o hracskem standardu 10 jader/20 vlaken, tak s narustem jader lze uplatnit ve hrach i dalsi principy, ktere budto nebyly mozne, nebo se do teto doby nejak upravovaly a vykuchavaly.
Jako velmi krasny priklad, ktery se podle me nabizi uplen ciste uvedu napr. moznost vytvoreni nezavislych postav, nebo skupin postav, resp. oddelenych umelych inteligenci. Fundamentalne to do navrhu her prinasi moznost decouplingu, tj. naprosto oddelenych samostatnych svetu, ktere koreluji dohromady. Analogicky mi to pripomina prechod od SOA na micro architektury ve svete sluzeb, tj. hukot.
@knj
Jinak ja zasadne kupuju pres ebay ES verze xeonu uz par let a nejvyssi spokojenost. 16 jadro sezenes od 10-25 tisic. Stavim to na deskach Asus Z9PE nebo ted uz Z10PE a raz,dva mas doma masinku s 64 cpu vlaknama. Ja to nemam na hry no a zajimaj me 24 core verze, ta vyjde na bratru 30000,-- + nejaky clo mozna, ale da se to dovezt i bez cla. No a to uz mas 96 cpu vlaken v double socketu. Jasne cena stoupa, zalezi na vyuziti.... na heureka.cz tenhle chip stoji 120,000, takze to mas za hubicku.
@kazaxx
Uplne levne scenario: mam dva kompy, kazdy nejake rychle SSD, tak i v takovym scenari je 1Gbit uz limitujici. Ja si davam do kompa vzdycky raid 0, data mam stejne jinde a jde mi jen o vykon. - jasne bavim se o sekvencnim read/write only mode. s jednim ssd mam 4-5x rychlost disku nez sit, v raid 0 se dostavame nekam k 1GB/s, a tam uz se ti vyplati koupit 2 10GBe sitovky a propojit ty masinky rychlejc.
@kazaxx
Tohle jsem jenom testoval podle Multipath TCP experimentu viz link v mojem prispevku. Standardne mam v masince 1x 10GBe dual port, z ktery dostanes ~17-18Gbit a to staci. A jak jsem odpovedel vyse, vetsina jde na Hadoop cluster - RAM a independent disky. Proto jsme ted taky poridil ty 48 10GBe switche, na ebay ho najdes za 10,000 CZK (z Ameriky, takze plus clo a doprava). Pokud se do toho pustis, tak Multipath muze byt nekdy non-CPU friendly, ale da se vyladit.
1. 1U nody - kazdy 5x 6TB disku a 144GB ram na kterych mi bezi Spark distribu iovany vypocetni cluster. Load jde rovnou do RAM, pri cteni z disku seqkvencne je tam nejaky top 800MB za vterinu z jednoho nodu (realita je nize). Tyto bezi na Hadoop softwarovem file systemu pouze s double (neni to produkce) replikaci. Nekdy to vypinam a bezim uplne bez replikace, tj. dostanu 2x vice mista. Mam tech nodu 5, tj. double replikace 75TB, bez replikace 150TB raw. Jinak na produkcnich Hadoop clusterech se pouziva minimalne 3x replikace. Ale ja mam data ulozena jinde a velkou cast generuju
2. No a na "klasicky" data mam softwarovej raid 4U server, kde mi bezi 3x pole RAID 6 (kazde 8x 6TB disku). Vsechny 3 pole jsou spojeny vrstvou strip, tj. RAID 0. Teoretickej peak je 1200 MB/s cteni, ale realne jedno pole cte nekde okolo 600-900MB/s, x3 = 2-3GB(ne Gbit)/s - nedelal jsem ale benchmarky. A asi to stejne rozdelim na jedno RAID 6 na kriticka data a dalsi dam jen do RAID 0, tj. RAID60, protoze se mi to zda dost nebezpecne -> jedno pole neobnovim a vsechno je v pici :-). Managuje to mdadm, ale uvazuju, ze to cele, nebo jedno z nich prevedu na BRTFS, kterymu ale porad moc neverim, takze spis kriticky data na ZFS. BRTFS ma hodne cool featury, ale jeste nedospel. Spolecne se ZFS se taky staraj o datovou integritu, kde mdadm se stara jen o integritu pole.