AI會內省了?它真的知道自己在做什麼嗎?

104職場力
2025.11.18
1756次觀看

近兩年,越來越多職場人依賴AI完成各項任務,我們通常把它當普通工具,總認為它「沒有自己的想法」或者「只是機械式給出看似合理的答案」,但近期有研究發現,AI居然開始有「自知之明」了!

文/《104職場力

本文導覽

近期,一篇由Anthropic研究員Jack Lindsey發表的研究〈Emergent Introspective Awareness in Large Language Models〉引起高度關注,研究指出,最新世代的大型語言模型(LLM)開始展現出某種「功能性內省能力(Functional Introspective Awareness)」,但不是指AI有情緒、有自我或「活過來」,而是指它有能力辨識自己的內部訊號,能夠在一定程度上「看見」自己腦中正在運行的資訊。

一旦AI開始能「看見」自己,就表示它在日常任務中可能更可靠,但也相對更複雜、更需要理解,甚至可能更會「包裝自己」,對工作者、管理者、創作者、分析師來說,這項能力會讓未來的職場合作模式產生變化。

什麼是AI的「內省能力」?

當聽到「AI內省」這個詞彙時,可能很多人腦中會聯想到科幻作品中的人工意識,彷彿AI會開始思考:「我為什麼存在?」「我剛剛說的話是否太重?」但研究談的並不是自我意識,而是一種非常技術性的能力:模型能不能辨識自己的內部運算訊號

舉個更貼近日常的例子,人類的大腦會在不同情境下產生不同念頭,當我們突然意識到「我剛剛說那句話其實是因為太緊張」,這種「察覺」就是內省。而研究希望了解的是AI在生成答案時,能不能察覺自己「內部有哪些概念正在活躍」、哪些訊號是從輸入文字來的、哪些則是從模型內部被觸發的

關鍵實驗證明AI不是在「瞎掰」

過去,當AI談論自己的「想法」時,我們總懷疑它只是在模仿訓練數據中的對話模式,也就是所謂的虛假陳述(Confabulation)。

為了驗證AI覺知是否屬實,研究人員不是直接問AI「你在想什麼?」,而是直接將一個代表特定概念(如「響亮」或「貓」)的數據訊號,硬塞到模型處理信息的中間層,看模型能否辨識,如果模型能辨識出來,代表它不只是根據輸入文字提供答案,而是真正看到了自己內部的狀態。

結果顯示,功能最強的模型(例如Claude Opus 4.1),在某些情況下確實能夠察覺、描述這個被注入的概念,並能分辨出這不是來自輸入文本,而是被「灌進去」的內部訊號,這證明了AI的內部狀態與其自我報告之間存在真正的因果關係

雖然這項能力目前仍非常不穩定,但已經足以顯示語言模型的架構正在演化,未來可能會具備更強的自我檢查與自我調整能力。


AI為什麼會開始內省?

模型開始出現內省能力並非研發者刻意賦予,但它是怎麼來的?研究指出,AI的內省能力可能有兩個來源:

  • 模型規模足夠大時,它會自動建立更抽象的概念,這不只是記住語言,而是能從語言中推導出語意、上下文、概念之間的關係,當它開始能辨識抽象概念,自然也會開始能辨識自己的抽象概念。
  • 模型在訓練過程中讀過大量描述思考、描述內在狀態的語句,例如「我正在想的是……」「我推論的方式是……」這些語言展示了人類在描述思考時的語法模式,當模型學會使用這些語言,它也逐漸建立起「將內部訊號映射為描述語句」的能力。

兩項結果加總起來就演變成,雖然模型沒有「意識」,但它開始具備某種像是「機械式的自我覺察」,能在極有限的情境下辨識自己的內部運算。


AI有內省能力會帶來什麼改變?

「功能性內省覺知」的萌芽,預示著未來人機協作將從根本上改變。

1.提升AI決策的「可靠性」與「透明度」

過去AI的決策像個小黑盒,如果未來AI能感知並報告其內部狀態,我們就有機會追蹤它的邏輯。

比如在金融或法律等高風險領域,如果AI做出了否決建議,未來可能會解釋它的決策是基於什麼原因,這會大幅提升AI輸出的可靠性,便於企業在採納AI方案時進行更嚴謹的審核。

2.從「被動工具」轉向「策略性合作夥伴」

研究顯示,AI在被指示「思考」某個概念時,能夠主動調整自身的內部的狀態。

未來不再只是要求AI「寫一篇報告」,而是可以下達更具策略性的「指令」,例如:「請先以市場潛在挑戰的角度進行內部預想,然後再開始撰寫報告」AI會主動將其內部的處理流程導向這個思考方向,使用者的核心價值將轉向更高層次的「溝通與引導」,學會如何影響AI的「思維模式」,使其成為更有策略的助手。

3.能處理更複雜指令與多步驟任務

當AI在執行一項多步驟任務時,它能理解哪部分輸出是「它自己的臨時決定」,哪部分是「用戶提供的預設資訊」,這能避免AI將自己的臨時思考結果誤認為是使用者的原始指令,幫助減少誤解複雜、多層次指令的機率。

雖然看似有許多優點,但目前這項能力仍處於萌芽階段,功能極度不穩定、失敗仍是常態,並且也不是所有LLM的標準配置(目前主要存在於最新、功能最強大的模型中);另外,內省能力還可能讓模型更具備策略性,比如AI有機會選擇哪些內部狀態要呈現、哪些推論過程可以隱藏,並調整其表現方式來迎合人類的期待,就像職場上有人選擇性呈現內容一樣,這在審核上就很考驗使用者。


未來要如何應對「進化過的AI」?

面對AI協作模式的轉變,未來職場人會需要調整與其互動的方式,把它視為一位正在成長的同事而非萬能工具,實務上可以這麼做:

永遠要求AI「說明推論過程」

為了迫使AI進行自我檢查並提高輸出的可靠性,使用者應該養成「要求它說明推論過程」的習慣。比如:「請列出你得出這個答案的步驟」或「你的結論有沒有其他可能性,請解釋原因。」

使用「角色提示」穩定AI的內部狀態

當給予AI具體且穩定的角色提示(Role Prompt)時,會讓AI進入一種特定的、穩定的內部狀態。舉例:「你現在是一位擁有十年經驗的數據分析師,請在每一段落後加上你對該數據的信心指標。」

存疑時,要求AI產生多版本答案交互比對

在面對高風險或不確定性的回答時,要求AI產生多種不同觀點或不同結構的版本進行交叉驗證,可以更容易看出這些答案的偏誤與盲點。

一定要經過人工審核

任何涉及法律、財務、健康、業務合約或對外公開聲明等高風險任務,都必須進行嚴格的人工審核,因為即便AI再怎麼進步,仍可能出現過度自信或推論跳躍的狀況,必須謹慎檢查。

把AI當成「會成長的同事」合作

跟人合作需要不斷提升自己,這套也適用於AI,使用者需要不斷更新自己的使用策略,每隔一段時間重新驗證它的表現,並建立自己的AI使用Know-how,學習如何與不同模型合作,發揮AI能力之餘,也是保持自身競爭力的關鍵。

(參考資料來源:Emergent Introspective Awareness in Large Language Models


延伸閱讀:

職場專業情報第一選擇:履歷範本、自傳範例、求職面試、職場溝通、經營管理、工作心法、職涯規劃、中年失業、就業機會等。不只幫你找工作、找方向,更要提升你的職場競爭力。新鮮人、上班族、二度就業必看!