在AI 行業,Together AI 最近宣布完成了一輪3.05億美元的B 輪融資,這一消息引起了廣泛關注。該公司的崛起與其新推出的深度理模型DeepSeek-R1密切相關。與最初的擔憂相反,許行業專家認為,深度推理的進步並沒有降低對基礎設施的需求,反而在不斷提升這一需求。
自2023年成立以來,Together AI 旨在簡化企業對開源大型語言模型(LLM)的使用。隨著時間的推移,該公司逐步擴展其平台,提供了一個名為“Together 平台” 的解決方案,支持在虛擬私有云和本地環境中部署AI。 2025年,Together AI 又推出了推理集群和自主智能(Agentic AI)能力,進一步增強了其平台的功能。
據Together AI CEO Vipul Prakash 介紹,DeepSeek-R1的參數量高達6710億,這使得其運行推理時的成本不容小覷。為了滿足越來越多的用戶需求,Together AI 推出了“推理集群” 服務,為客戶提供從128到2000顆芯片的專用計算能力,以確保模型的最佳性能。此外,DeepSeek-R1的請求處理時間通常較長,平均可達兩到三分鐘,這也導致了基礎設施需求的增加。
在推理模型的應用方面,Together AI 看到了一些具體的使用場景,如編碼代理、減少模型的幻覺現像以及通過強化學習實現模型的自我提升。這些應用不僅提升了工作效率,還改善了模型輸出的準確性。
此外,Together AI 還收購了CodeSandbox,以增強其在自主智能工作流程方面的能力。這一收購使得其能夠在雲端快速執行代碼,降低了延遲,提高了代理工作流的性能。
面對激烈的市場競爭,Together AI 的基礎設施平台正在不斷優化,其新一代Nvidia Blackwell 芯片的部署,將為模型的訓練和推理提供更高的性能和更低的延遲。 Prakash 指出,與Azure 等其他平台相比,Together AI 的推理速度顯著提高,極大滿足了客戶對高性能AI 基礎設施的需求。