Cerebras Systems 近日宣布將在北美和歐洲新建六座數據中心,以提升其人工智能(AI)推理能力。這一舉措將大大增強公司的算力,支持各類AI 應用的發展。
根據計劃,85% 的計算能力將集中在美國,其中已有三座設施在加州的聖克拉拉、斯托克頓和德克薩斯州的達拉斯投入運營。接下來,新中心將分別在明尼阿波利斯(預計2025年第二季度)、俄克拉荷馬城和蒙特利爾(預計2025年第三季度),以及亞特蘭大和法國(預計2025年第四季度)開張。
新數據中心的核心將是Cerebras 公司研發的“晶圓規模引擎”(Wafer Scale Engine),這是一種專為AI 應用優化的特殊芯片架構。公司表示,其CS-3系統能夠每秒處理4000萬條Llama-70B 模型的令牌數據,極大提升了推理任務的處理速度。在俄克拉荷馬城的設施中,預計將配置超過300台CS-3系統。該中心按照三級加三標準建設,具備抗龍捲風和地震的能力,並且配備了三重冗餘電源,預計於2025年6月開始運營。
目前,已有多家知名AI 公司與Cerebras 簽署了合作協議,包括法國初創公司Mistral 及其Le Chat 助手,還有AI 問答引擎Perplexity。 HuggingFace 和AlphaSense 也加入了使用Cerebras 平台的行列。這項技術特別適合需要長時間計算和生成大量令牌的推理模型,如Deepseek-R1和OpenAI o3。
此次擴展是Cerebras2025年整體擴張戰略的一部分,一些設施將與阿聯酋公司G42合作運營。在蒙特利爾,由比特數字子公司Enovum 管理的新中心預計將於2025年7月上線,其推理速度將比當前的GPU 快十倍。
Cerebras Systems 是一家美國公司,專注於開發AI 芯片,其獨特的設計理念是將整個晶圓作為單個芯片來使用,目前已推出第三代晶圓規模引擎WSE-3。該系統已在阿貢國家實驗室、匹茲堡超級計算中心和葛蘭素史克等機構中使用。儘管其技術具有優勢,但也存在一定局限性,比如不支持原生CUDA(Nvidia 的標準),以及在服務器兼容性方面不如Nvidia 解決方案。