最近,Microsoft和Salesforce發表的一項研究報告顯示,初步對話時AI的表現都沒問題,但在進行多輪對話後,成功率竟下降高達35%。這不禁讓人想納悶,是不是目前的AI技術還不夠成熟?
文/《104職場力》
本文導覽
在這個科技迅速發展的時代,人工智慧(AI)已經成為我們生活中不可或缺的一部分,無論是寫文章、翻譯,還是客服對話,AI都在努力學習如何更好地跟我們溝通。但是,你有沒有發現,當我們和AI聊天的時候,它剛開始對話時會表現得像個小天才,但隨著對話慢慢深入,卻漸漸變得「迷糊」,甚至胡亂回答,這到底是怎麼回事呢?
在研究中,科學家們模擬了20萬筆對話,檢測了15種主要的語言模型,發現和這些AI首次對話,回覆準確的成功率高達90%,表現好到簡直像個小天才,可一旦進入第2次或第3次對話後,它們就開始像迷失在語言黑洞一樣節節敗退,無法保持對話的一致性和邏輯性,最後成功率降到只剩下約60%。
這引發了研究人員的好奇,明明是「越聊越深入」,給出的訊息和指令應是越來越完整,但為什麼這種聊天模式卻成了這些智慧型夥伴翻不過去的阻礙?
其實背後的原因不在於AI的記憶力差,而是它太「急於表現」所導致,從研究人員歸納出的4種回覆行為就能瞧出端倪:
在指令尚未完全明確時,AI們就早早生成完整答案或程式碼。這可能是來自語言模型被訓練成必須「盡快給出完整回應」所產生的慣性。
在資訊不足的情況下,AI會根據不完整的提示做出猜測性假設,這些假設如果與使用者後續揭示的真實意圖不符,就會導致整個對話偏離正軌。
AI語言模型會過度依賴自己先前對話中所生成的內容,包含那些基於錯誤假設而得出的結論,所以就算使用者在下一輪對話中提供新資訊,甚至出言糾正先前的錯誤,AI還是難以有效地整合並推翻自己舊的假設。
研究發現,AI生成的回覆越冗長,表現往往越差,因為冗長的答案更容易包含錯誤的假設或不相關的內容。而多輪的對話中,隨著語言模型不斷嘗試修正先前的錯誤,最終答案可能會比單輪設定下的解決方案長20%到300%,這種異常現象就是所謂的「答案膨脹」。
綜合上述4點,也許AI在初回覆時命中率高達9成,但隨著對話的深入,偏離的軌跡會越發明顯,這點就跟人類不一樣,人類在思考或對話的過程中,能意識到自己說錯話或認知錯誤進而及時調整,但AI目前無法做到這點,所以當起始點錯,就會一路錯到底。
可以想像一下,跟一位同事討論問題時,對方在釐清問題核心跟意圖之前就急著給出答案或總結,因為本身理解錯誤,或使用不對的邏輯思考,加上難以根據後續的對話進行調整,就算越講越多,最後給出的答案卻還是偏離發問者的預想,讓人摸不著頭緒,這就是AI模型在多輪對話中經常出現的情況。

研究者使用常見的語言模型進行測試,將AI在多輪對話中性能下降歸因於「能力(Aptitude)的輕微損失」和「不可靠性(Unreliability)的顯著增加」。
從研究結果來看,在對話中語言模型並非「變笨」,而是AI在處理複雜會話時,會變得非常不穩定且不可預測,以至於重點失焦、表現大打折扣。
這些問題的根源,主要在於過去對語言模型的訓練方式太過於依賴單句的問答,而人類的對話通常是逐漸深入並不斷澄清的過程,AI在一次對話中無法自如地處理這樣的變化,是因為沒學會如何在對話中靈活應變,才無法像人們預期的那樣穩定地提供解決方案。
研究報告指出,並非所有任務都會讓AI迷失,例如像「翻譯」這樣明確單一的任務,有既定的內容且可分解成獨立的句子級別,表現就比較不容易歪掉,而容易讓AI迷失的任務通常具備以下特性:
比起統整資訊這種有特定資訊來源可提取或分類的任務,需要生成新的內容對AI來說挑戰更大,類似於考試寫申論題一樣。
給出的指令如果太多太複雜,即便有明確的規格,還是會被AI分解成「碎片」,每一片都稍微偏離一點點,最終就會給出奇怪的結論。
如果沒有在一開始就給齊所有指令,而是在後來的對話中修正或逐步新增,對AI來說,每一個新的資訊碎片都會打亂整個結構,讓它在重整的過程中偏離軌道。
針對以上挑戰,研究人員提出了一些解決方法,比如:
另一種策略叫「重述回顧(Recap)」:
這項研究讓我們看清目前語言模型的局限性,AI雖然聰明,但在實際對話中還是無法盡善盡美,報告提出,開發者需要把重點放在讓AI更具「耐心」,學會如何等待、提問和澄清,而不是單純地回答問題,這樣才有機會讓使這些語言模型成為人類良好的聊天夥伴。
(參考資料、圖片來源:LLMs Get Lost In Multi-Turn Conversation)
延伸閱讀:
書香世家中的遲鈍男孩,如何逆襲成百萬訂閱YouTuber?張志祺分享從試錯到成功的關鍵:不急著找答案,而是先確認什麼不是自己想要的;與身邊強者為伍,慢慢摸索出屬於自己的道路,看他如何將挫折轉化為強大的心。
在公司的尾牙春酒、慶祝酒會等聚餐場合中遇到「性騷擾」,加害人在被申訴時宣稱自己「喝醉、記憶斷片」、「不記得事發經過」、「喝到斷片」而無法控制自己的行為能力,可以就這樣算了嗎?律師指出:性騷調查的審酌重點應為「是否實際有性騷擾行為」,當時是否喝醉並不影響性騷成立與否的認定。
特斯拉(Tesla)正在台灣招聘半導體工程師,要為該公司的巨型晶圓廠計畫Terafab人工智慧晶片園區積極搶人才進行布局。根據特斯拉官網職缺顯示,特斯拉已在台灣釋出九種與Terafab計畫相關的工程師職缺,尋找具備五年以上先進製程經驗的候選人。
近期Claude AI用戶最關心的,應該就是Token消耗速度過快、完全不夠用的問題,不少人反映,明明只進行了幾個簡單操作,卻在短時間內吃掉大量配額,到底該怎麼辦?對此Anthropic官方提供一些解決方案。
隨著人工智慧 技術普及,許多大學生與研究生習慣用AI來輔助課業,然而若是過度依賴且未經查證,恐將面臨嚴重的學術災難。近日,一名就讀台灣大學的女網友分享,自己利用ChatGPT 撰寫期末報告的草稿,沒想到AI竟「一本正經地胡說八道」,甚至憑空捏造虛假的併購案與財務數據。貼文曝光後,引發熱烈討論。