Společnost Qualcomm chce konkurovat Nvidii a ostatním svými vlastními řešeními pro AI výpočty. Hlavní výhodou má být obří kapacita paměti díky využití LPDDR čipům.
Dnešní servery pro běh algoritmů umělé inteligence vyžadují vysokou kapacitu i vysokou přenosovou rychlost. Většina řešení spoléhá na velmi rychlé paměti HBM, jenže ty mají nevýhodu ve vyšší spotřebě, nižší kapacitě a vysoké ceně (lépe řečeno nepříliš dobrým poměrem cena a kapacity). Společnost Qualcomm to chce vyřešit jinak, a to důrazem na ony ostatní parametry, ve kterých zaostává HBM. Místo HBM totiž její nové servery s vlastními NPU využijí paměti LPDDR.
Představuje servery AI200, které disponují obří kapacitou 768 GB LPDDR pamětí. Výhodou má být nižší spotřeba (a to jak přispěním pamětí, tak i úsporné architektury NPU) a nižší cena, ve výsledku i lepším poměru výkonu na watt, což povede k celkovým nižším nákladům na provoz (TCO). Optimalizovány budou pro inferenci modelů LLM i LMM (multimodálních modelů). Nebudou tedy mířeny na trénování AI systémů, to bude stále doménou především Nvidie, ale jejich běh. Jeden rack by měl mít spotřebu 160 kW.
Druhým serverem má být AI250, který bude mít inovativní architekturu paměti, o níž zatím moc informací nevíme. Výrobce mluví o 10krát vyšší efektivitě propustnosti, ale není jasné, co přesně to vlastně znamená. AI200 bude na trhu od roku 2026, AI250 půjde do prodeje v roce 2027. Oba dva systémy budou chlazené kapalinou.
Zdroj: techspot.com, qualcomm.com