中文(繁體)

目前位置: 首頁> AI 資訊

60%以上AI聊天機器人回答錯誤,新聞可信度受挑戰

作者: LoRA 時間: 2025年03月18日 252

機器人 AI寫作 AI教育

哥倫比亞新聞評論數字新聞中心的最新研究發現,流行的AI 搜索工具在回答問題時超過60% 的概率提供了不正確或誤導性的信息。研究人員測試了包括ChatGPT、Perplexity、Gemini 和Grok 在內的八款生成式AI 聊天機器人,要求它們識別來自200篇最新新聞文章的摘錄。結果顯示,超過60% 的回答都是錯誤的,這些聊天機器人經常捏造標題、不引用文章或引用未經授權的內容。

令人失望的是,這些聊天機器人很少表達不確定性,反而以不當的自信提供錯誤的答案。例如,ChatGPT 在200個查詢中提供了134條錯誤信息,但僅在15次中表示過懷疑。即便是付費版的Perplexity Pro 和Grok3,其表現也不盡如人意,錯誤答案的數量更高,儘管它們的價格分別為每月20美元和40美元。

在內容引用方面,多個聊天機器人未能遵循出版商的限制嘗試,五款聊天機器人甚至忽視了機器人排除協議這一被廣泛接受的標準。 Perplexity 就曾在出版商限制其爬蟲的情況下,正確引用國家地理的文章。與此同時,ChatGPT 通過未授權的Yahoo 新聞重新引用了收費牆內容的USA Today 文章。

此外,很多聊天機器人將用戶引導至AOL 或Yahoo 等平台的轉載文章,而非原始來源,甚至在已經與AI 公司達成授權協議的情況下。例如,Perplexity Pro 引用了德克薩斯論壇的轉載版本,卻未能給出應有的署名。而Grok3和Gemini 則常常發明URL,Grok3的200個回答中有154個鏈接至錯誤頁面。

這一研究突顯了新聞機構面臨的日益嚴重危機。越來越多的美國人將AI 工具作為信息來源,但與Google 不同,聊天機器人不會將流量引向網站,反而會在沒有鏈接回去的情況下總結內容,從而使出版商失去廣告收入。新聞媒體聯盟的丹妮爾・科菲警告稱,如果沒有對爬蟲的控制,出版商將無法有效“變現有價值的內容,或支付記者的薪水”。