SINGAPURA – Media OutReach Newswire – NetApp® (NASDAQ: NTAP), perusahaan infrastruktur data cerdas, hari ini mengumumkan perkembangan terbaru dalam kolaborasinya dengan para pemimpin industri untuk mengakselerasi inovasi AI. Dengan menyediakan infrastruktur data cerdas yang diperlukan untuk membuat GenAI bekerja, NetApp membantu organisasi-organisasi untuk memanfaatkan salah satu perkembangan terpenting bagi bisnis dan TI dalam satu dekade terakhir ini.

GenAI mendukung kasus penggunaan yang praktis dan sangat terlihat untuk inovasi bisnis seperti membuat konten, meringkas informasi dalam jumlah besar, dan menjawab pertanyaan. Riset Gartner memprediksi bahwa pengeluaran untuk perangkat lunak AI akan tumbuh menjadi $297,9 miliar pada tahun 2027 dan GenAI akan menyumbang lebih dari sepertiganya. Kunci keberhasilan di era AI adalah penguasaan data yang dapat diatur, dipercaya, dan dapat dilacak.

Baru-baru ini, CEO NetApp, George Kurian, membuka NetApp INSIGHT 2024 dengan visi yang luas mengenai era kecerdasan data. Sebagian besar dari tantangan AI adalah tantangan data, dan Kurian memaparkan sebuah visi tentang bagaimana infrastruktur data cerdas dapat memastikan data yang relevan aman, diatur, dan selalu diperbarui untuk menjadi bahan baku dari sebuah tumpukan GenAI yang terpadu dan terintegrasi.

Hari ini di NetApp INSIGHT, NetApp akan memperkenalkan inovasi lebih lanjut dalam infrastruktur data cerdas, termasuk visi transformatif untuk AI yang berjalan di NetApp ONTAP®, sistem operasi terdepan untuk penyimpanan terpadu. Secara khusus, visi NetApp antara lain:

  • Sertifikasi Penyimpanan NVIDIA DGX SuperPOD untuk NetApp ONTAP: NetApp telah memulai proses sertifikasi NVIDIA untuk penyimpanan NetApp ONTAP pada platform AFF A90 dengan infrastruktur AI NVIDIA DGX SuperPOD, yang akan memungkinkan organisasi-organisasi untuk meningkatkan kemampuan manajemen data yang terdepan di industri ini untuk proyek-proyek AI terbesar mereka. Sertifikasi ini akan melengkapi dan mengembangkan sertifikasi NetApp ONTAP yang sudah ada sebelumnya dengan NVIDIA DGX BasePOD. NetApp ONTAP menjawab tantangan manajemen data untuk model bahasa besar (LLM), sehingga tidak perlu lagi mengorbankan manajemen data untuk beban kerja pelatihan AI.
  • Penciptaan namespace metadata global untuk mengeksplorasi dan mengelola data dengan cara yang aman dan sesuai di seluruh kawasan multi-cloud hybrid pelanggan untuk memungkinkan ekstraksi fitur dan klasifikasi data untuk AI. NetApp hari ini secara terpisah mengumumkan integrasi baru dengan perangkat lunak AI NVIDIA yang dapat memanfaatkan ruang nama metadata global dengan ONTAP untuk mendukung retrieval augmented generation (RAG) perusahaan untuk AI agen.
  • Pipeline data AI yang terintegrasi langsung, memungkinkan ONTAP untuk membuat data yang tidak terstruktur siap untuk AI secara otomatis dan berulang-ulang dengan menangkap perubahan inkremental pada kumpulan data pelanggan, melakukan klasifikasi dan anonimisasi data berdasarkan kebijakan, menghasilkan penyematan vektor yang sangat dapat dikompres dan menyimpannya dalam DB vektor yang terintegrasi dengan model data ONTAP, yang siap untuk pencarian semantik berskala besar dan latensi rendah serta penarikan kesimpulan berdasarkan pengambilan (retrieval augmented generation/RAG).
  • Arsitektur penyimpanan terpilah yang memungkinkan pembagian penuh backend penyimpanan, yang memaksimalkan pemanfaatan kecepatan jaringan dan flash serta menurunkan biaya infrastruktur, secara signifikan meningkatkan kinerja sekaligus menghemat ruang rak dan daya untuk beban kerja AI berskala tinggi dan intensif komputasi seperti pelatihan LLM. Arsitektur ini akan menjadi bagian integral dari NetApp ONTAP, sehingga akan mendapatkan manfaat dari arsitektur storage yang terpilah-pilah, namun tetap mempertahankan ketahanan, manajemen data, keamanan, dan fitur-fitur tata kelola ONTAP yang telah terbukti.
  • Kemampuan baru untuk layanan cloud asli untuk mendorong inovasi AI di cloud. Di seluruh layanan cloud native-nya, NetApp bekerja untuk menyediakan platform data yang terintegrasi dan terpusat untuk memasukkan, menemukan, dan membuat katalog data. NetApp juga mengintegrasikan layanan cloud-nya dengan gudang data dan mengembangkan layanan pemrosesan data untuk memvisualisasikan, menyiapkan, dan mentransformasi data. Kumpulan data yang telah disiapkan kemudian dapat dibagikan dan digunakan secara aman dengan layanan AI dan machine learning dari penyedia layanan cloud, termasuk solusi pihak ketiga. NetApp juga akan mengumumkan integrasi terencana yang memungkinkan pelanggan untuk menggunakan Google Cloud NetApp Volumes sebagai tempat penyimpanan data untuk BigQuery dan Vertex AI.

“Organisasi-organisasi dari berbagai skala bereksperimen dengan GenAI untuk meningkatkan efisiensi dan mempercepat inovasi,” kata Krish Vitaldevara, Senior Vice President, Platform di NetApp. “NetApp memberdayakan organisasi untuk memanfaatkan potensi penuh GenAI untuk mendorong inovasi dan menciptakan nilai di berbagai aplikasi industri. Dengan menyediakan infrastruktur data cerdas yang aman, terukur, dan berkinerja tinggi yang terintegrasi dengan platform-platform terdepan di industri ini, NetApp membantu para pelanggan untuk mengatasi berbagai kendala dalam mengimplementasikan GenAI. Dengan menggunakan solusi-solusi ini, bisnis akan bisa lebih cepat dan efisien dalam mengaplikasikan data mereka ke aplikasi GenAI dan mengungguli para kompetitor.”

NetApp terus berinovasi dengan ekosistem AI:

  • Domino Data Labs memilih Amazon FSx untuk NetApp ONTAP: Untuk memajukan kondisi operasi pembelajaran mesin (MLOps), NetApp telah bermitra dengan Domino Data Labs, menggarisbawahi pentingnya integrasi tanpa batas dalam alur kerja AI. Mulai hari ini, Domino menggunakan Amazon FSx untuk NetApp ONTAP sebagai penyimpanan yang mendasari Domino Dataset yang berjalan di platform Domino Cloud untuk memberikan kinerja yang hemat biaya, skalabilitas, dan kemampuan untuk mempercepat pengembangan model. Selain Domino menggunakan FSx untuk NetApp ONTAP, Domino dan NetApp juga telah memulai pengembangan bersama untuk mengintegrasikan platform MLOps Domino secara langsung ke dalam NetApp ONTAP untuk mempermudah pengelolaan data untuk beban kerja AI.
  • Ketersediaan Umum AIPod dengan Lenovo untuk NVIDIA OVX: Diumumkan pada bulan Mei 2024, NetApp AIPod dengan server Lenovo ThinkSystem untuk solusi infrastruktur terkonvergensi NVIDIA OVX kini telah tersedia secara umum. Solusi infrastruktur ini dirancang untuk perusahaan yang ingin memanfaatkan kemampuan AI dan RAG yang generatif untuk meningkatkan produktivitas, merampingkan operasi, dan membuka peluang pendapatan baru.
  • Kemampuan baru untuk FlexPod AI: NetApp merilis fitur-fitur baru untuk solusi FlexPod AI, sebuah infrastruktur hybrid dan platform operasi yang mempercepat pengiriman beban kerja modern. FlexPod AI yang menjalankan RAG menyederhanakan, mengotomatisasi, dan mengamankan aplikasi AI, sehingga memungkinkan organisasi untuk memanfaatkan potensi penuh dari data mereka. Dengan komputasi Cisco, jaringan Cisco, dan penyimpanan NetApp, pelanggan merasakan biaya yang lebih rendah, penskalaan yang efisien, waktu yang lebih cepat, dan risiko yang lebih rendah.

“Menerapkan AI membutuhkan kumpulan infrastruktur teknologi yang disesuaikan dengan baik agar bisa bekerja sama dengan sempurna. NetApp menghadirkan kemampuan penyimpanan dan manajemen data yang tangguh untuk membantu pelanggan menjalankan dan mendukung jalur data AI mereka. Namun, penyimpanan hanyalah salah satu bagian dari teka-teki. Dengan berkolaborasi dengan vendor-vendor tedepan di industri ini dalam bidang infrastruktur AI, para pelanggan NetApp bisa merasa yakin bahwa solusi komputasi, jaringan, storage, dan software AI mereka akan terintegrasi secara mulus untuk mendorong inovasi AI,” tutup Mike Leone, Practice Director, Data Analytics & AI, Enterprise Strategy Group, bagian dari TechTarget.

Referensi Lainnya