[China, Shenzhen, 14 Juli 2023] Dinten ayeuna, Huawei ngumumkeun solusi panyimpen AI énggal na pikeun jaman modél skala ageung, nyayogikeun solusi panyimpen anu optimal pikeun pelatihan modél dasar, pelatihan modél khusus industri, sareng inferensi dina skenario ségméntasi. unleashing kamampuhan AI anyar.
Dina pamekaran sareng palaksanaan aplikasi modél skala ageung, perusahaan nyanghareupan opat tantangan utama:
Anu mimiti, waktos anu diperyogikeun pikeun persiapan data panjang, sumber data paburencay, sareng agrégasi lambat, nyandak sakitar 10 dinten kanggo ngolah ratusan terabytes data. Bréh, pikeun model badag multi-modal kalawan susunan téks jeung gambar masif, laju loading ayeuna keur file leutik masif nyaeta kirang ti 100MB / s, hasilna efisiensi low pikeun latihan set loading. Katilu, panyesuaian parameter anu sering pikeun modél ageung, sareng platform pelatihan anu teu stabil, nyababkeun gangguan latihan kirang langkung unggal 2 dinten, peryogi mékanisme Checkpoint pikeun ngahanca latihan, kalayan pamulihan nyandak sadinten. Anu pamungkas, ambang palaksanaan anu luhur pikeun modél ageung, pangaturan sistem anu rumit, tantangan jadwal sumber daya, sareng panggunaan sumberdaya GPU sering di handap 40%.
Huawei saluyu sareng tren pangembangan AI dina jaman modél skala ageung, nawiskeun solusi anu cocog pikeun industri sareng skénario anu béda. Ieu ngenalkeun OceanStor A310 Deep Learning Data Lake Storage sareng FusionCube A3000 Training / Inference Super-Converged Appliance. OceanStor A310 Deep Learning Data Lake Storage nargétkeun skénario danau data modél dasar sareng tingkat industri ageung, ngahontal manajemén data AI komprehensif tina agrégasi data, preprocessing kana latihan modél, sareng aplikasi inferensi. OceanStor A310, dina rak 5U tunggal, ngarojong rubakpita 400GB/s anu ngarah di industri sareng dugi ka 12 juta IOPS, kalayan skalabilitas linier dugi ka 4096 titik, ngamungkinkeun komunikasi cross-protocol anu lancar. Sistem File Global (GFS) ngagampangkeun anyaman data calakan di sakuliah daérah, nyepetkeun prosés agrégasi data. Komputasi deukeut-panyimpen sadar deukeut-data preprocessing, ngurangan gerakan data, sarta ngaronjatkeun efisiensi preprocessing ku 30%.
The FusionCube A3000 Training/Inference Super-Converged Appliance, dirancang pikeun tingkat industri latihan model badag / skenario inferensi, caters kana aplikasi ngalibetkeun model mibanda milyaran parameter. Ieu integrates OceanStor A300 titik gudang-kinerja tinggi, titik latihan / inferensi, parabot switching, software platform AI, sarta software manajemén jeung operasi, nyadiakeun mitra model badag kalawan pangalaman deployment plug-and-play pikeun pangiriman hiji-eureun. Siap dianggo, éta tiasa disebarkeun dina 2 jam. Duanana titik latihan / inferensi sareng panyimpen tiasa dilegakeun sacara mandiri sareng horisontal pikeun cocog sareng sababaraha syarat skala modél. Samentara éta, FusionCube A3000 ngagunakeun peti-kinerja tinggi pikeun ngaktipkeun sababaraha model latihan jeung tugas inferensi babagi GPUs, ngaronjatkeun utilization sumberdaya ti 40% nepi ka leuwih 70%. FusionCube A3000 ngadukung dua modél bisnis anu fleksibel: Huawei Ascend One-Stop Solution sareng mitra pihak-katilu solusi hiji-eureun kalayan komputasi kabuka, jaringan, sareng parangkat lunak platform AI.
Présidén Huawei pikeun Jalur Produk Panyimpenan Data, Zhou Yuefeng, nyatakeun, "Dina jaman model skala ageung, data nangtukeun jangkungna kecerdasan AI. Salaku pamawa data, panyimpen data janten infrastruktur dasar konci pikeun modél skala ageung AI. Panyimpen Data Huawei bakal terus berinovasi, nyayogikeun solusi sareng produk anu béda-béda pikeun jaman modél AI ageung, kolaborasi sareng mitra pikeun ngajalankeun pemberdayaan AI dina sajumlah industri.
waktos pos: Aug-01-2023