ASUS, ISC 2024’te üretken yapay zeka POD çözümleriyle yapay zeka süper bilgisayarlarına öncülük etti
- Yapay zeka sunucularına seviye atlatmak: ASUS MGX ve HGX sunucu sistemleri performans ve bellek kapasitesinde dönüştürücü gelişmeler vadediyor.
- D2C soğutma çözümü: Mevcut altyapıdan yararlanan hızlı ve sade tasarım PUE oranını ve toplam sahip olma maliyetini etkili bir şekilde azaltıyor.
- Üretken yapay zeka POD çözümleri: Hızlı kurulum ve kapsamlı uçtan uca hizmetlerle her şeyi bir aradasunan teklifler.
ASUS, iştiraki Taiwan Web Service Corporation (TWSC) ile birlikte, ISC 2024’te yapay zeka süper bilgisayarlarına yönelik artan talebi karşılamak için bütünsel yaklaşımı olan GenAI POD Çözümünü duyurdu. Yapay zeka devriminin ön saflarında yer alan ASUS, ESC NM1-E1 ve ESR1-511N-M1 modellerinin yanı sıra ESC N8A-E12 ve RS720QN-E11-RS24U HGX GPU sunucuları da dahil olmak üzere NVIDIA® MGX destekli yapay zeka sunucularını sergiledi. Bu çözümler, TWSC’nin özel kaynak yönetimi platformu ve yazılım yığınları ile desteklenerek çeşitli üretken yapay zeka ve büyük dil modeli (LLM) eğitimine yönelik iş yüklerinin kolayca üstesinden gelmeyi sağlıyor. Yenilikçi termal tasarımlara sahip bu entegre çözümler, müşterilerin yapay zeka çalışmalarında başarılı olabilmeleri için sağlam yazılım platformları ile kapsamlı veri merkezi çözümleri sağlayarak işletmelere hitap edecek şekilde uyarlanabiliyor.
ASUS NVIDIA MGX sunucuları: Özel ihtiyaçları karşılamak için uyarlanmış yapay zeka çözümü
NVIDIA MGX destekli ASUS ESC NM1-E1, gücünü NVIDIA GH200 Grace Hopper™ Superchip’ten alıyor. Bu güçlü kombinasyon, 72 Arm® Neoverse V9 CPU çekirdeği ve NVIDIA NVLink-C2C teknolojisi ile olağanüstü performans ve verimliliği garanti ederek yapay zeka odaklı veri merkezleri, yüksek performanslı bilgi işlem (HPC), veri analitiği ve NVIDIA Omniverse™ uygulamaları için ideal bir tercih sunuyor, performans ve bellek kapasitesi alanlarında da dönüştürücü iyileştirmeler vaat ediyor.
ASUS’un öne çıkardığı bir diğer ürün olan ASUS ESR1-511N-M1 sunucu, NVIDIA GH200 Grace Hopper Superchip’in gücünü kullanıyor. BU sunucu derin öğrenme (DL) eğitimi ve çıkarımı, veri analitiği ve yüksek performanslı hesaplamayı kolaylaştırarak büyük ölçekli yapay zeka ve HPC uygulamalarına hitap etmek üzere tasarlandı. ESR1-511N-M1, ESG trendlerine uyum sağlamak için en uygun performans ve daha düşük güç kullanım etkinliği oranı (PUE) için geliştirilmiş bir termal çözüme sahip. En yüksek işlem yoğunluğuna sahip 1U tasarımı ve NVIDIA BlueField-3-3 aracılığıyla dört adede kadar E1.S yerel sürücü desteğini içeren esnek yapılandırması, üç PCI Express® (PCIe®) 5.0 x16 yuvası ile birleştiğinde sorunsuz ve hızlı veri aktarımını kolaylaştırır.
ASUS NVIDIA HGX sunucuları: Uçtan uca H100 sekiz GPU gücüyle yapay zekaya seviye atlatıyor
Optimize edilmiş sunucular, veri merkezi altyapısı ve yapay zeka yazılım geliştirme yetenekleri ile üretken yapay zeka için tasarlanan ASUS ESC N8A-E12, çift AMD EPYC™ 9004 işlemci ve sekiz NVIDIA H100 Tensor Core GPU’nun gücünü kullanan sağlam bir 7U çift soketli sunucu. Optimum performans ve daha düşük PUE oranı sunmak için üründe gelişmiş bir termal çözüm bulunuyor. Yapay zeka ve veri bilimi gelişmeleri için tasarlanan bu güçlü HGX sunucu, işlem ağırlıklı görevlerde maksimum verim için benzersiz bir tek GPU tek NIC yapılandırması sunuyor.
Yüksek performanslı ve yoğun işlem gerektiren iş yükleri için tasarlanan ASUS RS720QN-E11-RS24U, NVIDIA NVLink-C2C teknolojisine sahip NVIDIA Grace CPU Superchip içeren yüksek yoğunluklu bir sunucuya sahip. Bu yenilikçi çözüm, çift soketli CPU’lar için PCIe 5.0 uyumluluğu ve olağanüstü performans sunmak üzere 2U4N kasa içinde dört düğüm barındırabilen kompakt bir tasarımla geliyor ve RS720QN-E11-RS24U‘yu veri merkezleri, web sunucuları, sanallaştırma bulutları ve hiper ölçekli ortamlar için ideal hale getiriyor.
ASUS D2C soğutma çözümü
Doğrudan çipe (D2C) soğutma, mevcut altyapıdan yararlanan hızlı ve basit bir çözümün yanı sıra daha düşük PUE sayesinde dağıtımın daha hızlı yapılabilmesini sağlıyor. ASUS RS720QN-E11-RS24U, manifoldları ve soğutma plakalarını destekleyerek, çeşitli soğutma çözümlerine olanak tanıyor. Ayrıca, ASUS sunucuları, standart raf sunucu tasarımlarına uygun bir arka kapı ısı değiştiricisini barındırıyor. Böylece tüm rafların değiştirilmesine gerek kalmıyor ve raflarda sıvı soğutmayı etkinleştirmek için sadece arka kapı yeterli oluyor. Endüstri lideri soğutma çözümü sağlayıcılarıyla yakın iş birliği yapan ASUS, kurumsal düzeyde kapsamlı soğutma çözümleri sunuyor ve veri merkezi PUE, karbon emisyonları ve enerji tüketimini en aza indirgeyerek daha yeşil veri merkezlerinin tasarımı ve inşası konusunda yardımcı olmaya kendini adamış durumda.
Üretken Yapay Zeka POD çözümleri
TWSC, Ulusal Yüksek Performanslı Bilişim Merkezi’nin (NCHC) TAIWANIA-2 (#10 / Green 500, Kasım 2018) 2018) ve FORERUNNER 1 (#92 / Yeşil 500, Kasım 2023) süper bilgisayar serileriyle NVIDIA Partner Network bulut ortaklığı (NCP) için büyük ölçekli AIHPC altyapısı dağıtma ve ortak bakım sunma konusunda son derece deneyimli.
Ayrıca, TWSC’nin AI Foundry Hizmeti, AI 2.0 uygulamaları için yapay zeka süper bilgisayarlarının ve esnek model optimizasyonunun hızlı bir şekilde dağıtılmasını sağlayarak kullanıcıların yapay zekayla ilgili taleplerini kendilerine özel olarak uyarlamasına olanak tanıyor.
TWSC’nin üretken yapay zeka Talep Üzerine Platform (Platform On Demand – POD) çözümleri, hızlı dağıtım ve kapsamlı uçtan uca hizmetlerle kurumsal düzeyde yapay zeka altyapısı sunarak geniş kullanım ve siber güvenlik standartları sağlıyor. Çözümlerimiz akademilerde, araştırma ve tıp kurumlarında başarı hikayeleri yazılmasını sağlıyor. Kapsamlı maliyet yönetimi seçenekleri güç tüketimini optimize ediyor ve OPEX’i kolaylaştırır. Bu da TWSC teknolojilerini güvenilir ve sürdürülebilir bir üretken yapay zeka platformu arayan kuruluşlar için cazip bir seçim haline getiriyor.
###