研究人員首次發現,使用「思維鏈」提示讓大型語言模型(LLMs)逐步推理,為我們揭開了這些「黑盒子」的推理過程。然而,Meta和加州大學聖地牙哥分校的研究指出,用自然語言思考反而可能成為AI發展的瓶頸。他們提出了一種名為COCONUT(連續思考鏈)的新方法,重新定義了人工智慧的推理方式。
語言瓶頸的挑戰
傳統思考鏈方法要求AI模型將每一步推理轉化為自然語言,導致以下問題:
大量產生的標記僅為語言填充(如“因此”“下一步”等),不提供實質推理價值。
模型在關鍵決策點被迫使用特定詞彙,造成效率下降。
語法連貫性佔用計算資源,使模型難以專注於實際問題求解。
研究發現,人類在處理複雜推理任務時,大腦語言中心常保持“安靜”,但現有AI系統卻被迫將推理翻譯成文字,形成了所謂的“語言瓶頸”。
COCONUT的創新:以神經空間進行推理
COCONUT透過讓AI在潛在的神經空間中思考,克服了傳統方法的限制。其核心理念類似人類解決問題的過程:
吸收問題:接收訊息(如閱讀規則)。
靜默思考:大腦探索可能性,無需將其轉化為語言。
分享解決方案:最終用語言清晰表達結果。
在COCONUT中,AI模型可以在「語言模式」和「神經模式」間自由切換:
語言模式:用於理解問題或提供答案。
神經模式:在不受語言限制的連續空間中進行複雜推理。
訓練過程:逐步解鎖潛能COCONUT的訓練分為三個階段:
基礎階段:模型使用傳統思考鏈推理建立基礎理解。
過渡階段:逐步移除語言表達,鼓勵模型發展內在神經思維模式。
平衡階段:實現語言與神經模式的無縫切換。
實驗結果:COCONUT的潛力
研究在多種推理任務中驗證了COCONUT的能力:
數學單字問題(GSM8k) :COCONUT準確率為34.1%,略低於傳統思考鏈(42.9%)。
邏輯推理(ProntoQA) :COCONUT達成99.8%的準確率,高於傳統方法(98.8%),且僅以9個標記(CoT需92.5個)。
複雜計畫(ProsQA) :COCONUT以97%的準確率遠超過傳統方法(77.5%),僅使用14.2個標記(傳統方法需49.4個)。
邁向更有效率的人工智慧
COCONUT重新定義了人工智慧推理的可能性。透過擺脫語言限制,它展示了高效、靈活的推理能力,為建立更自然、更強大的人工智慧系統奠定了基礎。這項突破性方法揭示了AI從語言驅動到持續思考的未來發展方向。
AI課程適合對人工智能技術感興趣的人,包括但不限於學生、工程師、數據科學家、開發者以及AI技術的專業人士。
課程內容從基礎到高級不等,初學者可以選擇基礎課程,逐步深入到更複雜的算法和應用。
學習AI需要一定的數學基礎(如線性代數、概率論、微積分等),以及編程知識(Python是最常用的編程語言)。
將學習自然語言處理、計算機視覺、數據分析等領域的核心概念和技術,掌握使用AI工具和框架進行實際開發。
您可以從事數據科學家、機器學習工程師、AI研究員、或者在各行各業應用AI技術進行創新。