Google DeepMind發布DolphinGemma模型
1046
最近,前OpenAI 政策研究負責人邁爾斯・布倫達奇(Miles Brundage)對公司在人工智能安全方面的敘事變更提出了批評,認為OpenAI 正在重新編寫其AI 系統安全的歷史。他表示,OpenAI 在追求通用人工智能(AGI)的過程中,可能會忽視長遠的安全措施。
OpenAI 一直以來致力於推動其雄心勃勃的願景,尤其是在DeepSeek 等競爭對手日益崛起的背景下。公司在追求AGI 發展的過程中,頻繁強調超級人工智能代理的潛力,然而,這種態度並未獲得廣泛的認可。布倫達奇認為,OpenAI 在與其現有的AI 模型的部署和安全性方面的敘述上存在不一致之處。
最近,OpenAI 發布了一份關於其AI 模型逐步部署的文檔,旨在展示其謹慎的做法。文檔中以GPT-2為例,強調了在處理當前系統時應保持高度謹慎的態度。 OpenAI 在文檔中提到:“在一個不連續的世界裡,安全教訓來自於對今天系統的高度謹慎,這正是我們在GPT-2模型上採取的方法。”
然而,布倫達奇對此提出質疑。他認為,GPT-2的發布也遵循了漸進的方法,安全專家曾對OpenAI 的謹慎處理表示讚賞。他認為,過去的謹慎並非過度,而是必要和負責任的做法。
此外,布倫達奇還對OpenAI 聲稱AGI 將通過漸進步驟而非突然突破的觀點表示擔憂。他認為,OpenAI 對GPT-2發布歷史的誤解,以及對安全歷史的重新敘述,令人感到不安。他還指出,OpenAI 發布的文檔可能會在某種程度上導致安全顧慮被視為過度反應,這在AI 系統不斷發展的背景下,可能帶來重大風險。
這並非OpenAI 首次受到批評,專家們質疑公司是否在長期安全與短期利益之間做出了合理的權衡。布倫達奇的擔憂再次引發了人們對AI 安全的重視。