中文(繁體)

目前位置: 首頁> AI 資訊

OLMo 2 32B:開源AI模型超越GPT-3.5 Turbo,引領AI新紀元

作者: LoRA 時間: 2025年03月18日 926

近日,艾倫人工智能研究所(AI2)發布了最新的大型語言模型—— OLMo232B 。這款模型以“完全開放”的姿態,公開了所有數據、代碼、權重及訓練過程,與閉源模型形成鮮明對比。 AI2希望通過開放協作,推動全球研究人員共同創新。

OLMo232B擁有320億參數,在多項學術基準測試中表現優異,甚至超越了GPT-3.5Turbo和GPT-4o mini 。其訓練過程分為預訓練和中期訓練兩個階段,分別使用了約3.9萬億tokens的廣泛數據集和專注於高質量內容的Dolmino數據集,確保了模型的紮實語言功底。

QQ_1742280716141.png

此外,OLMo232B在訓練效率上表現出色,達到與領先模型相當的性能水平時,僅使用了約三分之一的計算資源,體現了AI2在資源高效AI開發方面的投入。

OLMo232B的發布標誌著開放和可訪問AI發展的重要里程碑,為全球研究人員和開發者提供了強大的開源工具,推動人工智能領域的進步。

github:https://github.com/allenai/OLMo-core

huggingface:https://huggingface.co/allenai/OLMo-2-0325-32B-Instruct