SINGAPURA – Media OutReach Newswire – ASUS baru-baru ini mengumumkan partisipasinya dalam konferensi AI global NVIDIA GTC, dimana ASUS akan memamerkan solusi-solusinya di booth #730. Beberapa teknologi yang akan dipamerkan adalah puncak dari inovasi server GPU ASUS, ESC NM1-E1 dan ESC NM2-E1, yang ditenagai oleh arsitektur referensi modular NVIDIA MGX, yang mengakselerasi superkomputer AI ke tingkat yang lebih tinggi.

Untuk membantu memenuhi permintaan yang terus meningkat akan AI generatif, ASUS menggunakan teknologi terbaru dari NVIDIA, termasuk GPU B200 Tensor Core, GB200 Grace Blackwell Superchip, dan H200 NVL, untuk membantu menghadirkan solusi server AI yang dioptimalkan untuk meningkatkan adopsi AI di berbagai macam industri.

Untuk lebih mendukung perusahaan dalam membangun lingkungan AI generatif mereka sendiri, ASUS menawarkan jajaran server yang luas, mulai dari solusi server GPU tingkat pemula hingga kelas atas, ditambah jajaran solusi rak berpendingin cairan yang komprehensif, untuk memenuhi beban kerja yang beragam. Selain itu, dengan memanfaatkan keahlian MLPerf, tim ASUS mengejar keunggulan dengan mengoptimalkan perangkat keras dan perangkat lunak untuk pelatihan dan inferensi model bahasa-besar (LLM) dan mengintegrasikan solusi AI total secara mulus untuk memenuhi lanskap superkomputer AI yang penuh dengan tuntutan.

Solusi AI yang disesuaikan dengan server bertenaga ASUS NVIDIA MGX terbaru

Server 2U ASUS NVIDIA MGX bertenaga NVIDIA MGX terbaru, ESC NM1-E1 dan ESC NM2-E1, menampilkan NVIDIA GH200 Grace Hopper Superchip yang menawarkan performa dan efisiensi tinggi. CPU NVIDIA Grace mencakup inti CPU Arm® Neoverse V9 dengan Scalable Vector Extensions (SVE2) dan didukung oleh teknologi NVIDIA NVLink-C2C. Berintegrasi dengan NVIDIA BlueField-3 DPU dan adapter jaringan ConnectX-7, server bertenaga ASUS MGX menghadirkan throughput data yang sangat cepat sebesar 400Gb/dtk, ideal untuk pengembangan dan penerapan AI perusahaan.

Ditambah dengan NVIDIA AI Enterprise, platform perangkat lunak end-to-end, cloud-native untuk membangun dan menggunakan aplikasi AI tingkat perusahaan, ESC NM1-E1 yang ditenagai MGX memberikan fleksibilitas dan skalabilitas yang tak tertandingi untuk pusat data yang digerakkan oleh AI, HPC, analisis data, dan aplikasi NVIDIA Omniverse.

Teknologi liquid-cooling canggih

Lonjakan aplikasi AI telah meningkatkan permintaan akan teknologi pendingin server yang canggih. Pendinginan ASUS direct-to-chip (D2C) menawarkan opsi yang cepat dan sederhana yang membedakannya dari pesaing. D2C dapat digunakan dengan cepat, menurunkan rasio efektivitas penggunaan daya pusat data (PUE). Server ASUS, ESC N8-E11 dan RS720QN-E11-RS24U, mendukung manifold dan pelat pendingin, sehingga memungkinkan solusi pendinginan yang beragam.

Selain itu, server ASUS mengakomodasi penukar panas pintu belakang yang sesuai dengan desain rak-server standar, sehingga tidak perlu mengganti semua rak – hanya pintu belakang yang diperlukan untuk mengaktifkan pendinginan cair di rak. Dengan berkolaborasi erat dengan penyedia solusi pendinginan terkemuka di industri, ASUS menyediakan solusi pendinginan komprehensif tingkat perusahaan dan berkomitmen untuk meminimalkan PUE pusat data, emisi karbon, dan konsumsi energi untuk membantu dalam desain dan konstruksi pusat data yang lebih ramah lingkungan.

Solusi software AI yang meyakinkan

Dengan keahliannya yang terdepan di dunia dalam superkomputer AI, ASUS menyediakan desain server yang dioptimalkan dan integrasi rak untuk beban kerja yang intensif.Di GTC, ASUS akan memamerkan ESC4000A-E12 untuk mendemonstrasikan platform AI tanpa kode dengan tumpukan perangkat lunak terintegrasi, yang memungkinkan bisnis untuk mempercepat pengembangan AI pada pra-pelatihan LLM, fine-tuning, dan inferensi – mengurangi risiko dan waktu ke pasar tanpa harus memulai dari awal.

Selain itu, ASUS menyediakan solusi komprehensif untuk mendukung token LLM yang berbeda dari 7B, 33B, dan bahkan lebih dari 180B dengan perangkat lunak yang disesuaikan, memfasilitasi pengiriman data server yang mulus.Dengan mengoptimalkan alokasi sumber daya GPU untuk pelatihan yang lebih baik, tumpukan perangkat lunak memastikan bahwa aplikasi AI dan beban kerja dapat berjalan tanpa membuang-buang sumber daya, yang membantu memaksimalkan efisiensi dan laba atas investasi (ROI). Selain itu, sinergi perangkat lunak-perangkat keras yang dihadirkan oleh ASUS memberikan fleksibilitas bagi bisnis untuk memilih kemampuan AI yang paling sesuai dengan kebutuhan mereka, sehingga mereka dapat meningkatkan ROI lebih jauh lagi.

Pendekatan perangkat lunak inovatif ini mengoptimalkan alokasi sumber daya GPU khusus untuk pelatihan dan inferensi AI, sehingga meningkatkan kinerja sistem. Sinergi perangkat lunak-perangkat keras yang terintegrasi memenuhi beragam kebutuhan pelatihan AI, memberdayakan bisnis dari semua ukuran, termasuk UKM, untuk meningkatkan kemampuan AI yang canggih dengan mudah dan efisien.

Untuk memenuhi kebutuhan aplikasi IoT perusahaan yang terus berkembang, ASUS, yang terkenal akan kemampuan komputasinya yang tangguh, berkolaborasi dengan mitra industri, pakar perangkat lunak, dan integrator yang berfokus pada domain. Kolaborasi ini bertujuan untuk menawarkan dukungan server siap pakai untuk solusi lengkap, termasuk instalasi dan pengujian penuh untuk aplikasi pusat data, AI, dan HPC modern.Dengan demikian, perusahaan dari berbagai skala, termasuk UKM, dapat memanfaatkan kemampuan AI yang canggih dengan mudah dan efisien.

KETERSEDIAAN & HARGA

Server ASUS tersedia di seluruh dunia. Silakan kunjungi https://servers.asus.com untuk solusi pusat data ASUS lainnya atau hubungi perwakilan ASUS setempat untuk informasi lebih lanjut.