近兩年,越來越多職場人依賴AI完成各項任務,我們通常把它當普通工具,總認為它「沒有自己的想法」或者「只是機械式給出看似合理的答案」,但近期有研究發現,AI居然開始有「自知之明」了!
文/《104職場力》
本文導覽
近期,一篇由Anthropic研究員Jack Lindsey發表的研究〈Emergent Introspective Awareness in Large Language Models〉引起高度關注,研究指出,最新世代的大型語言模型(LLM)開始展現出某種「功能性內省能力(Functional Introspective Awareness)」,但不是指AI有情緒、有自我或「活過來」,而是指它有能力辨識自己的內部訊號,能夠在一定程度上「看見」自己腦中正在運行的資訊。
一旦AI開始能「看見」自己,就表示它在日常任務中可能更可靠,但也相對更複雜、更需要理解,甚至可能更會「包裝自己」,對工作者、管理者、創作者、分析師來說,這項能力會讓未來的職場合作模式產生變化。
當聽到「AI內省」這個詞彙時,可能很多人腦中會聯想到科幻作品中的人工意識,彷彿AI會開始思考:「我為什麼存在?」「我剛剛說的話是否太重?」但研究談的並不是自我意識,而是一種非常技術性的能力:模型能不能辨識自己的內部運算訊號?
舉個更貼近日常的例子,人類的大腦會在不同情境下產生不同念頭,當我們突然意識到「我剛剛說那句話其實是因為太緊張」,這種「察覺」就是內省。而研究希望了解的是AI在生成答案時,能不能察覺自己「內部有哪些概念正在活躍」、哪些訊號是從輸入文字來的、哪些則是從模型內部被觸發的。
過去,當AI談論自己的「想法」時,我們總懷疑它只是在模仿訓練數據中的對話模式,也就是所謂的虛假陳述(Confabulation)。
為了驗證AI覺知是否屬實,研究人員不是直接問AI「你在想什麼?」,而是直接將一個代表特定概念(如「響亮」或「貓」)的數據訊號,硬塞到模型處理信息的中間層,看模型能否辨識,如果模型能辨識出來,代表它不只是根據輸入文字提供答案,而是真正看到了自己內部的狀態。
結果顯示,功能最強的模型(例如Claude Opus 4.1),在某些情況下確實能夠察覺、描述這個被注入的概念,並能分辨出這不是來自輸入文本,而是被「灌進去」的內部訊號,這證明了AI的內部狀態與其自我報告之間存在真正的因果關係。
雖然這項能力目前仍非常不穩定,但已經足以顯示語言模型的架構正在演化,未來可能會具備更強的自我檢查與自我調整能力。
模型開始出現內省能力並非研發者刻意賦予,但它是怎麼來的?研究指出,AI的內省能力可能有兩個來源:
兩項結果加總起來就演變成,雖然模型沒有「意識」,但它開始具備某種像是「機械式的自我覺察」,能在極有限的情境下辨識自己的內部運算。
「功能性內省覺知」的萌芽,預示著未來人機協作將從根本上改變。
過去AI的決策像個小黑盒,如果未來AI能感知並報告其內部狀態,我們就有機會追蹤它的邏輯。
比如在金融或法律等高風險領域,如果AI做出了否決建議,未來可能會解釋它的決策是基於什麼原因,這會大幅提升AI輸出的可靠性,便於企業在採納AI方案時進行更嚴謹的審核。
研究顯示,AI在被指示「思考」某個概念時,能夠主動調整自身的內部的狀態。
未來不再只是要求AI「寫一篇報告」,而是可以下達更具策略性的「指令」,例如:「請先以市場潛在挑戰的角度進行內部預想,然後再開始撰寫報告」AI會主動將其內部的處理流程導向這個思考方向,使用者的核心價值將轉向更高層次的「溝通與引導」,學會如何影響AI的「思維模式」,使其成為更有策略的助手。
當AI在執行一項多步驟任務時,它能理解哪部分輸出是「它自己的臨時決定」,哪部分是「用戶提供的預設資訊」,這能避免AI將自己的臨時思考結果誤認為是使用者的原始指令,幫助減少誤解複雜、多層次指令的機率。
雖然看似有許多優點,但目前這項能力仍處於萌芽階段,功能極度不穩定、失敗仍是常態,並且也不是所有LLM的標準配置(目前主要存在於最新、功能最強大的模型中);另外,內省能力還可能讓模型更具備策略性,比如AI有機會選擇哪些內部狀態要呈現、哪些推論過程可以隱藏,並調整其表現方式來迎合人類的期待,就像職場上有人選擇性呈現內容一樣,這在審核上就很考驗使用者。
面對AI協作模式的轉變,未來職場人會需要調整與其互動的方式,把它視為一位正在成長的同事而非萬能工具,實務上可以這麼做:
為了迫使AI進行自我檢查並提高輸出的可靠性,使用者應該養成「要求它說明推論過程」的習慣。比如:「請列出你得出這個答案的步驟」或「你的結論有沒有其他可能性,請解釋原因。」
當給予AI具體且穩定的角色提示(Role Prompt)時,會讓AI進入一種特定的、穩定的內部狀態。舉例:「你現在是一位擁有十年經驗的數據分析師,請在每一段落後加上你對該數據的信心指標。」
在面對高風險或不確定性的回答時,要求AI產生多種不同觀點或不同結構的版本進行交叉驗證,可以更容易看出這些答案的偏誤與盲點。
任何涉及法律、財務、健康、業務合約或對外公開聲明等高風險任務,都必須進行嚴格的人工審核,因為即便AI再怎麼進步,仍可能出現過度自信或推論跳躍的狀況,必須謹慎檢查。
跟人合作需要不斷提升自己,這套也適用於AI,使用者需要不斷更新自己的使用策略,每隔一段時間重新驗證它的表現,並建立自己的AI使用Know-how,學習如何與不同模型合作,發揮AI能力之餘,也是保持自身競爭力的關鍵。
(參考資料來源:Emergent Introspective Awareness in Large Language Models)
延伸閱讀: