Ja to spis vidim na masivni rozsireni lokalnich cloudu, tj lide v budoucnosti budou uchovavat lokalne napr. cely internet (nebo vybranou cast podle zajmu) a nastavi si pouze synchronizaci. Ze se ale cloud bude rozsirovat zaroven to plati tez.
To uz se ale koukam na uloziste v radech yottabajtu velikosti spendlikove hlavicky... napr. si budeme moci ukladat kompletni kopie jakychkoli objektu vcetnne lidi :-)
Nvidia zarizla nove pouzivani consumer karet v datovych centrech, to taky splhalo ceny do nebes, protoze velke firmy porizovaly vykone desktopove karty do datovych center, to jim uz neni povoleno :-) fakt spatnej vtip. Vyrobce ti zakazuje zapojit grafiku na nejakem miste... ale poskozovalo jim to odber tesel. AMD tohle jeste nezarizla.
Ale to je podruzne bych rekl, hlavni pricinou je tezba crypto, to je bez debat.
Stejne jako AI bude upravovat jinou AI tim, ze identifikuje napr. nadbytecny kod, kod, ktery je nefunkcni, kod ktery je nebezpecny, .... apod.
Stejnym zpusobem bude hodnotit veskere objekty na planete. AI nezna vyznam cloveka tak jak ho zname my. Vidi jen soubor objektu (zatim), ktere budto budou pasovat do jeji vize spravneho stavu veci, nebo nebudou. V tom pripade pokud se z nejakeho duvodu ocitneme v druhe skupine, tak mame proste smulu.
Jde o to, ze AI je stale jen statisticky model, a ackoli tak muzeme videt i cloveka, google brain ackoli muze byt povazovany mnohymi za spicku AI, nema s lidskou inteligenci zatim mnoho spolecneho, pokud pominu ze aplikuje artificalni model neuronu. Nicmene mu stale chybi spousta infrastruktury lidskeho nervoveho systemu a vyssi mozkove funkce.
Bohuzel tyto funkce nemuze ani mit, protoze jakykoli vyvoj AI zacina v neuroscience discipline a pokud ta nepopise stav veci, je tezke je naprogramovat, ackoli se o to sami vyvojari snazime.
Na druhou stranu si AI muze naprogramovat vlastni vyssi mozkove funkce, ktere ale nebudou mit s lidskymi funkcemi vubec nic spolecneho :-))) Takze ano, tvorime tu umelou inteligenci, ktera ale nebude mit nic spolecneho s clovekem, ackoli se o to snazime.... a to je to riziko.
@archenroot
Jeste doplnim, z maleho vzorku lidi v Ceske republice rekl bych, ze vetsina vi, jak se to melo s clovekem v historii, clovek stale zkousi nove veci a ty se mu stale opakovane vymknou z oprati. To je pro me obecny fakt o historii lidstva... a stejnym zpusobem se nam vymknou z oprati i ruzne umele inteligence a zacnou pachat veci, ktere jsme nechteli, aby se stavaly na zacatku. Tak je to s uplne kazdou micro cinnosti cloveka.
Takze pro me neni otazkou jestli se muze AI stat nebezpecnou pro cloveka, pro me je jen otazkou: kdy k tomu ***** presne dojde :-)))
@archenroot
Jeste doplnim uplne trapny priklad analogicky pasujici na jakykoli typ programovani: napisu aplikaci spustim ji ona dela neco jineho nez jsem chtel oznacim to za chybu zkusim znovu uz to nedela to co jsem nechtel poprve, ale dela to zase neco jineho, co jsem taky nechtel. atd. atd. atd.
Tento stav pokracuje az do stavu, kdy jednoduche "chyby" (ja to povazuji za spatne videni reality nazyvat veci chybami) odstranim, ale v systemu nutne zustavaji, a dokonce odstranenim jednoduchych chyb se odkryvaji nebo vznikaji nove, daleko zakernejsi chyby...
To je jednoduchy fakt z jakekoli vyvoje aplikace, takovych procesu provadime miliony po svete. A tak se to ma i s AI, uplne stejne, plus v ni jeste nahrazujeme pozici programatora, davame ji moznost, aby se dokonce upravovala sama. No a jakmile ji pustime "ven" do internetu, tak bude schopna si sama delat co chce.
Tento stav veci je nevyhnutelny, mi sami tomu nedokazeme zabranit, jelikoz na nejnizsi urovni k tomu smerujeme kazdodenimi akcemi...
No bude to velmi vtipne a nekteri lide budou radeji volit smrt vlastni rukou :-)))
Uz jsem psal jinde is benchmakrama, doporucuju jit spise cestou pci karty na 4x m.2 disky... a disky si do toho strkejte, jak budou penize, jedna karta, 4x rozsireni
Mam jinou hracku podle me vice variabilnejsi. Je to trochu drazsi hracka, a vetsinou na systemove cache nebo temporary souborove systemy to resim RAM diskem (na vetsine stroju mam 64GB-512GB), tak na vsechno to nestaci kapacitne...
Proto vyssi kapacity jsem hledal nejake reseni a nasel jsem toto, mam to ted na vyvojovem stroji: 1. Dell Ultra-Speed Drive Quad PCIe NVMe x16 Card Precision Jedna se o generickou PCI-Express kartu, kam si clovek narve libovolne 4 NVMe disky. Na ebay jsem poridil za 6500 CZK 2. HD SAMSUNG SSD 960 EVO MZ-V6E1T0, 1TB, NVMe, M.2 Ten byl drazsi - 12590.00 CZK
Ale tak -20% DPH na firmu.
Mam to chvilku, takze zatim jen jeden disk, ale planuju dokoupit druhej a zkusit je v RAID 0, jestli z toho vyzdimu vic, ikdyz ty rychlosti, ktere dosahuje ten disk sam uz jsou vice nez dostacujici pro moje ucely (soubory, ktere zpracovavam maji prave 1-50GB, takze tohle svisti)
Tady jsou vysledky dummy testu trougputu na jednom disku: # nejdriv zapisu nejaky 1GB soubor andromeda /opt # dd if=/dev/zero of=tempfile bs=1M count=1024 conv=fdatasync,notrunc status=progress 1024+0 records in 1024+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 1.14752 s, 936 MB/s
A ted zkusim cist s prazdnym buferem andromeda /opt # dd if=tempfile of=/dev/null bs=1M count=1024 status=progress 1024+0 records in 1024+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 0.384912 s, 2.8 GB/s
A ted to same, ale necistim buffer andromeda /opt # dd if=tempfile of=/dev/null bs=1M count=1024 status=progress 1024+0 records in 1024+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 0.161535 s, 6.6 GB/s
Takze pri cteni s buferem mam tady 6.6 GB/s. To je skoro to, co uvadeji oni, jako max.
Vylepseni: Jelikoz karta podporuje celkem 4 Chci tam strcit 4 1TB disky a zapojit je do raidu 0, ale casem :-)
Jinak tady je jeste jiny vystup: andromeda ~ # hdparm -Tt /dev/nvme0n1
/dev/nvme0n1: Timing cached reads: 23776 MB in 2.00 seconds = 11899.49 MB/sec Timing buffered disk reads: 7650 MB in 3.00 seconds = 2549.95 MB/sec
Tato metoda je nezavisla na zarovnani diskoveho oddilu.
================ No a nakonec jeste rychly test multithread pristupu, na masince mam 32 threadu (16 fyzickych jader), takze nasimuluju: 4x pametove namapovany dotazovaci enginy 1x aktualizacni thread - simulujici zurnalovani souboroveho systemu 2x background updater - simulujici cteni a zapis najednou nastaveny na 20, resp. 40 microsekund pauzy, ktere simuluje (je to dummy test) nejaky processing dat napr., velikost dat kazdeho threadu je 32, resp. 64mb
Takze s timhle detatkem od Dellu si muzete postavit super rychle pole o velikost 4-8TB (vyssi plati pokud pouzijete 2TB disky nvme, jeden stoji ale ~16000 CZK).
Asi zalezi na pouziti, ale vecicka od delu dava rozhodne k dispozici urcitou variabilitu, kdyz je disk vadnej, tak ho vyhodis, dalsi 3 porad bezi, apod...
Me neprijde, ze by Vega nejak brutalne zaostavala z pohledu ciste vykonu, kazdopadne z pohledu spotreby/vykonu uz to vypada jinak.
Pracuju s vicero frameworky na neuronove site a jen malo z nich podporuje OpenCL, vetsina je postavena na CUDA, takze i software trhne uz i historicky k Nvidii, ktera poskytovala lepsi base. Urcite drzim palce AMD at uz napr. s projektem HIP (konverze CUDA do pure C++ kodu spustitelnem kdekoli), ci dalsi generaci. At udelaj v GPU to, co ted predvadi v CPU domene.
Jinak clanek prave nezminuje jednu dulezitou vec, kterou karta od Nvidia ma (nebo jsem to prehledl)? A prave pro neuronove site zacaly ruzne firmy delat svoje specificke akceleratory (typicky urychlovani maticovych vypoctu), google ma svuj, intel koupil firmu a vydal USB stick jako urychlovac a budou dalsi. Vtip je ale v tom, ze v clanku neni zminen ten vykon. Rekneme, ze v FP16 ma max vykon karta ~25, tak pokud aplikaci prepisu pro tensor unit, tak se z toho podle specifikaci da vymackat az ~120. Plus pokud se to zkombinuje, tak nejakych skoro 150 :D. A prave tohle je to, na co v tuto chvili AMD nema odpoved.
AMD ma zase neco jineho, primo na GPU se daj nainstalovat M.2 disky jako rychla cache, az 2TB v soucasnosti, takze nemusim data tahat z disku pres infrastrukturu na GPU, to je urcite take nemale zrychleni, jelikoz offload (input/output) na/z GPU je dost nemale zdrzeni. Ale stejne to tensor vykon nevyvazi....
Mam fakt radost, jak to AMD strili ven, tohle mohl Intel delat uz davno, ale neudelal, nebo za premrstene ceny. Abych jako smrtelnik mohl sahnout na high-end chipy, tak jsem kupoval ruzne po Asii ES verze za 10-15% ceny. Ale stejne ty pamrdi to porad oslili a orezavali a ted to sem AMD sere pod tlakem, coz je super. Ja tech 128 vlaken (2 patice 32core verze) na svym kompu vyuziju jak prd.
Jsem zvedavej s cim vyjdou jeste dalsi grafiky, uz ted nova architektura by mela delat 25 teraflopu na FP16, to Nvidia architektura neumi, tak do Volta architektury zacnou pridavat TensorCore. Drtiva vetsina AI frameworku je psana pro CUDA (Nvidia), ale citim, ze to se ted trochu zacne menit, protoze si proste nabusenou kartu pro AI koupis domu za zlomek Tesly.
Cituji z clanku: "Alienware Area-51 ale stále budou herní počítače, a tak je otázka, zda využití takového 16jádrového Threadripperu bude mít v takové mašině vůbec smysl."
Situace, ze hry nepotrebuji vice jader, coz vyusti v pripady, ze je nektere ani neumeji vyuzivat, je zavinena spise nedostatkem vicejadrovych masinek jako standard. Pokud ma moje hracska zakladna prumer 2-4 jadra, tak si dam sakra pozor, jak a co vyvijim. Ale to neni tim, ze to neumim, ale tim, ze to nemuzu nasadit.
Pokud se zacneme za 2 roky(lucky) bavit o hracskem standardu 10 jader/20 vlaken, tak s narustem jader lze uplatnit ve hrach i dalsi principy, ktere budto nebyly mozne, nebo se do teto doby nejak upravovaly a vykuchavaly.
Jako velmi krasny priklad, ktery se podle me nabizi uplen ciste uvedu napr. moznost vytvoreni nezavislych postav, nebo skupin postav, resp. oddelenych umelych inteligenci. Fundamentalne to do navrhu her prinasi moznost decouplingu, tj. naprosto oddelenych samostatnych svetu, ktere koreluji dohromady. Analogicky mi to pripomina prechod od SOA na micro architektury ve svete sluzeb, tj. hukot.
Tohle urcite uvita nejeden domaci uzivatel, ktery potrebuje propojit nekolik stroju necim vic. Switche jsou nechutne drahe, ale zase pres crosscable a dve levne sitovky a 10gbit sit je na svete.
Ja osobne jsem si takovou sit stavel pred dvema lety doma, ale na SFP+ portech. Sitovky i dual port stoji 1000-3000 CZK. Hlavne ale oproti 10gbit ethernetu jsou na trhu super levny 24, ale i 48 portovy SFP+ switche quanta lb6, resp. lb8. Podporujou jen layer 2/3/4, ale to staci. Hlavne stojej 10,000 CZK, ne pul milionu a to je pro domaciho uzivatele ten pravej LOL. No a pokud je potreba vetsi datovej pruvan, tak i s jednou dual port sitovkou dostanes rovnou lehce pod 20Gbit pres tcp multipath, jestli chces vic, tak si tam dej vic sitovek, tj. . Samozrejme multipath neni vsemocny a dochazi k urcite dekradaci. Z teoretickeho 60gbitu (3x dualport NIC) dostanes lehce pres 50gbit viz napr. http://multipath-tcp.org/pmwiki.php?n=Main.50Gbps
Presun 50GB za 10 vterin neni spatny vs 8 minut na 1gbitu, a clovek si na to rychle zvykne :-)