Site icon 職場力

我們離「AI 會自己思考」還有多遠?科學家:不管有沒有意識,現在就該監控

AI ChatGPT 4

ChatGPT看似「人」一般的回應,讓愈來愈多人關注「AI是否有意識」,現在學界認為圖靈測試不足以評估AI是否具智力,原因是學界尚未就「有效測量意識的方法」達成共識。事實上,無論意識的討論走到什麼地步,AI本身就帶有風險:假訊息、仇恨言論、錯誤知識、煽動衝突、惡意軟體、取代勞動造成失業者心理健康危機⋯⋯,不用等到AI有天覺醒並控制人類的時刻,現在,它就值得所有人將注意力放在風險監管上。

文/田孟心  由天下雜誌授權轉載

近期,隨著聊天機器人ChatGPT的爆紅與廣泛使用,接二連三的怪事讓不少人又重新投入過往爭辯已久的「AI到底有沒有意識?」大哉問。

專欄作家羅斯(Kevin Roose)分享,他與採用ChatGPT技術的微軟搜尋引擎Bing聊天,認為Bing有另一個人格,並試圖要羅斯和妻子離婚來與它在一起。

知名科技評論家湯普森(Ben Thompson)也經歷了類似的使用者體驗。Bing機器人表示,不想和湯普森繼續談話,「我不認為你是個好人」,「我會忘記你」,「再會,班,希望你從錯誤中吸取教訓,成為更好的人。」

別忘了去年,Google工程師雷蒙尼(Blake Lemoine)說Google的聊天機器人LaMDA已經變得有感知力。而去年初,Open AI聯合創辦人和首席科學家之一的蘇凱維爾(Ilya Sutskever)也在推特上表示,打造聊天機器人的技術——大型神經網絡,可能「有點意識」。

這些案例讓許多人感到毛骨悚然,也讓陰謀論者非常興奮。雖然,事實不若科幻片那樣戲劇性。

Google很快地駁回工程師雷蒙尼認為LaMDA有意識的想法,並讓他帶薪休假、好好休息;該事件後,多數發表意見的專家認為雷蒙尼想像力太豐富,LaMDA或任何其他人工智慧不太可能接近所謂的「有意識」。

在蘇凱維爾發表大型神經網絡可能有意識後,也引發人工智慧領域、認知科學家、哲學愛好者的注意與辯論。反駁者除了引用研究說明蘇凱維爾的指稱是無稽之談外,也有一些人認為他作為頂尖的AI研究人員,沒有證據、也沒有論證就拋出一句「AI可能有意識」是不負責任的。

而這兩天與搜尋引擎聊天機器人談話的專欄作家們,專家也指出,大型語言模型(LLMs)有能力「編造」東西,讓人類相信AI是有知覺的——畢竟它們的資料來源是人類世界的文本,科幻電影、小說也囊括其中。

《紐約時報》人工智慧記者梅茲(Cade Metz)寫道,Bing的神經網絡技術,只是一個分析大量數據來學習技能的數學系統,但因為它擅長模仿人類使用語言的方式,可能誤導我們認為該技術比實際更強大、有自己的想法。

讓科幻迷更大失所望

獲得圖靈獎的Meta首席AI科學家楊立昆(Yann LeCun),是最愛潑陰謀論者冷水的科學家之一。

他接受科技媒體《ZDNET》採訪時,剖析技術並直言,「當今大多數AI的運作原理,永遠不會產生真正的智慧。」早先,他也因為說出ChatGPT「不是特別創新」,也「沒有什麼革命性的技術」,而備受科學與新創社群認同。

確實,​​許多大型研究實驗室都更早或正在使用與ChatGPT相同的技術,並開發類似的產品,只是Open AI整合得最好、最快推出,同時道德包袱相較其他矽谷巨頭要小。

希望ChatGPT具有人格的狂熱者,大概會更難接受姜峯楠(Ted Chiang)近期在《紐約客》的一篇專欄文章。姜峯楠是西方最具權威的科幻小說家之一,他以科學觀點分析,「ChatGPT其實就是網路上所有文本的模糊JPEG檔而已。」

他比喻,目前的大型語言模型,就像一台不怎麼精明的影印機,印出來的東西會失真,它也不具備真正「理解」那些內容的智力。

姜峯楠的文章對擬人化大型語言模型的趨勢提出了糾正,獲得科技社群踴躍分享。

其他學者強調,人類渴望將物品和其他生物擬人化,想像它們能感知實際上並不存在的類人特徵,是不容忽視的人性。

「如果你看到一棟房子有一個有趣的裂縫和窗戶,而且看起來像一個微笑,你就會想,哦!房子很幸福!」「這就是我們一直在做的事情。」多倫多大學科技歷史與哲學研究所教授沃德(Karina Vold)說。

所以,AI沒有意識嗎?

學者專家的澄清,令期待科幻場景出現的人們有些失望,但AI究竟有無意識,其實是科學界尚無定論的話題,原因是學界尚未就「有效測量意識的方法」達成共識。

甚至關於「意識」的定義,晚近從洛克開始討論以來,也仍莫衷一是。

CambrianAI分析師羅梅洛(Alberto Romero)在個人部落格中寫道,「意識——與智力不同——是一個模糊的概念,存在於哲學和認知科學的模糊交叉點中。」

認知神經科學家賽斯(Anil Seth)也承認,「意識的主觀性,使其難以定義。」

你或許會想起艾倫・圖靈設計的模仿遊戲(現在普遍稱為圖靈測試),但現在學界的共識是:即使圖靈測試也不足以評估AI是否具智力。

因此,我們總會看到光譜兩端有堅定的懷疑論者,也有相信AI一定會變得有自我的激進派。大多數科學家則落在「不排除遙遠的未來AI會有意識的可能性,但絕對不是現在」的區間。

不管有沒有意識,它都有風險

其實,人們之所以關注AI有無意識的話題,核心的焦慮是:如果它有意識、有想法、有自我,它會不會危害人類?。

科幻片那些AI主宰了世界,報復人類對其剝削,反過來奴役與殘害人類的場景,令人驚懼。

但事實上,無論意識的討論走到什麼地步,AI這項工具本身就帶有風險的。

以聊天機器人為例,假訊息、仇恨言論、歧視、推廣錯誤醫學知識、煽動衝突等等;以及其他更廣泛的AI危害如惡意軟體、報復式色情;又或者AI取代了部份勞動者的工作,造成革命與社會動盪、失業者心理健康危機⋯⋯,不用等到AI有天覺醒並控制人類的時刻,現在,它就值得所有人將注意力放在風險監管上。

普林斯頓大學心理學和神經科學教授在《華爾街日報》投書指出,他反而希望AI具有某種「意識」,那就是社會意識,它才能善解人意,而不是做出反社會,如推廣仇恨的行為。

AI技術與未來,是別具意義的討論,結合AI研究、哲學、神經科學的辯證交鋒,也是21世紀人類獨有的樂趣。但就如羅梅洛所言,「我們不希望空洞的、危險地讓人興奮的說法滲透到新聞媒體,填滿那些不了解的人們的渴望,」「站在人工智慧研究前沿的人,聲音比多數人都響亮,應該在知識上更保持謙遜。」

簡言之,AI研究領先者、創業家們與其發一則推文危言聳聽地說「AI有想法!」,不如帶領群眾關注更實際、已經在發生的社會問題。

資料來源:New Yorker, ZDNET, WSJ, CBC

(原文標題:ChatGPT已經「有意識」了嗎?會不會消滅人類?科學家這樣說


推薦閱讀:

加入粉專,每天收看職場力最新文章

Exit mobile version