中文(繁體)

目前位置: 首頁> AI 資訊

DDN推出Infinia 2.0對象存儲,大幅提升AI數據處理速度

作者: LoRA 時間: 2025年02月21日 365

在最近的發布會上,數據動力公司(DDN)宣布了其最新的Infinia2.0對象存儲系統,專為人工智能(AI)訓練和推理而設計。該系統聲稱可以實現高達100倍的AI 數據加速和10倍的雲數據中心成本效率提升,吸引了眾多行業關注。

DDN 的首席執行官兼聯合創始人亞歷克斯・布扎里(Alex Bouzari)表示:“全球500強企業中有85家在使用DDN 的數據智能平台來運行他們的AI 和高性能計算(HPC )應用。Infinia 將幫助客戶在數據分析和AI 框架方面實現更快的模型訓練和實時洞察,同時確保GPU 效率和能耗的未來適應性。”

機器人 AI 人工智能 222

DDN 的聯合創始人、總裁保羅・布洛赫(Paul Bloch)也補充道:“我們的平台已經在全球一些最大的AI 工廠和雲環境中投入使用,證明了其支持關鍵AI 操作的能力。”據悉,Elon Musk 的xAI 也是DDN 的客戶之一。

在Infinia2.0的設計中,AI 數據存儲是核心。首席技術官斯文・厄梅(Sven Oehme)強調:“AI 工作負載需要實時數據智能,消除瓶頸,加速工作流程,並在復雜的模型列舉、預訓練和後訓練、增強生成(RAG)、Agentic AI以及多模態環境中無縫擴展。”Infinia2.0旨在最大化AI 的價值,同時提供實時數據服務、高效的多租戶管理、智能自動化和強大的AI 原生架構。

該系統具備事件驅動的數據移動、多租戶、硬件無關設計等特性,保證99.999% 的正常運行時間,並實現最高10倍的始終在線數據減縮、容錯網絡擦除編碼和自動化的服務質量(QoS) 。 Infinia2.0與Nvidia 的Nemo、NIMS 微服務、GPU、Bluefield3DPU 和Spectrum-X 網絡相結合,加速AI 數據管道的效率。

DDN 聲稱,Infinia 的帶寬可達到TBps,延遲低於毫秒,性能遠超AWS S3Express。其他令人矚目的參數包括,基於獨立基準測試,Infinia 在AI 數據加速、AI 工作負載處理速度、元數據處理和對象列表處理方面均實現了100倍的提升,且在AI 模型訓練和推理查詢速度上快25倍。

Infinia 系統支持從TB 到EB 的規模擴展,能夠支持超過100,000個GPU 和100萬個同時客戶端,為大規模AI 創新提供了堅實基礎。 DDN 強調,其係統在實際數據中心和雲部署中表現出色,能夠在從10到超過100,000個GPU 的範圍內實現無與倫比的效率和成本節約。

超級微型公司(Supermicro)的首席執行官查爾斯・梁(Charles Liang)表示:“通過將DDN 的數據智能平台Infinia2.0與Supermicro 的高端服務器解決方案相結合,兩家公司合作建設了全球最大的AI數據中心之一。” 這一合作關係可能與xAI 的Colossus 數據中心擴展有關。