AI有倫理道德疑慮?新興職業「AI道德長」確保AI乖乖聽話

Cheers快樂工作人
2024.01.08
1966次觀看

才幾年,AI已陸續被企業廣泛應用甚至成為不可或缺的得力助手,而企業的當務之急,是在發展AI的同時又能遵循法律與道德規範中取得平衡,這也是「AI道德長(Chief AI Ethic Officer)」這個新興職位浮上檯面的原因。AI道德長與其團隊要能扮演AI監督者的角色,一起來看看這個工作要具備哪些能力。

文/張道宜 由Cheers授權轉載

去年11月,全球人工智慧安全高峰會在英國布萊切利園登場,這裡也是AI之父圖靈在二次大戰時破解德軍密碼的地方,但如今專家在這裡要破解的不是密碼,而是AI帶來的風險與人類的因應之道。

一台開在二線道上,煞車失靈的自駕車,繼續直行將撞上老太太;但如果切換道路,則會撞上小朋友。在這個二選一的難題裡,自駕車背後的人工智慧(AI)系統,會做出什麼決定?更直接的問題則是:誰該負責?

2023年ChatGPT劃世代的進展,象徵AI進入輝達創辦人黃仁勳所說的「iPhone時刻」:每個人都能接觸AI,並且將AI應用在自己的生活與工作上。也正是因為如此,人類也更具體感受到AI帶來的威脅——不論是個人或企業均是如此。

AI風險難控制,連奧特曼、馬斯克都憂心

正如Open AI創辦人奧特曼(Sam Altman)2023年9月受邀出席《天下雜誌》AI大師論壇中提到的那個「但是」:「每個人都可以藉由AI獲得最棒的學習與醫療資源⋯⋯。但是,社會必須做出正確的決定,這麼強大的運算能力,不能被單一公司或一小群人掌握。」

這個「但是」毫無疑問,與發展AI同樣重要。就連被譽為「天才」的特斯拉創辦人馬斯克(Elon Musk)在2023年11月1日全球人工智慧安全高峰會上也警告,「AI出現後,這是人類史上第一次面對遠比自己更聰明的事物⋯⋯。我們不知道能不能控制它,但是我們可以導引AI到對人類有利的方向。」

在AI全力加速與失控邊緣之間,企業能否建立起「負責任的AI」或是「符合道德的AI」,恐怕是遠比開發AI更困難的任務。

數字會說話:根據波士頓諮詢公司(BCG)2023年最新報告,53%的企業在導入AI工具時,缺乏自主開發能力,完全仰賴外部採購;但卻有2成企業缺乏評估AI風險能力。換句話說,有許多企業在缺乏控管的前提下,閉著眼睛讓員工或顧客暴露在AI的風險下。

「AI道德長」浮上檯面,為企業煞車

事實上,各國政府已經針對AI監管採取行動,不只歐盟最高立法機構「歐州議會」2023年6月已通過AI法案,美國第一份AI行政命令也在同年10月31日由總統拜登簽署;台灣早在2023年3月就由法律學者發表民間版《AI基本法》草案,並預計年底推出相關指引。

立法者動起來的同時,企業如何兼顧AI發展與法律遵循,成當務之急。這也是「AI道德長(Chief AI Ethic Officer)」這個新興職位浮上檯面的原因。

事實上,AI道德長已經在企業行之有年,特別是致力於提供AI解決方案的科技巨擘,例如IBM、Salesforce、微軟都有設立AI道德長。他們的工作簡單來說,就是幫助企業用AI作對的事情,確保決策符合企業文化與倫理準則,避免為人類社會帶來負面效果。

勤業眾信(Deloitte)報告分析,AI道德長與其團隊要能扮演監督者的角色,必須具備以下4種能力:

  1. 科技知識:AI道德長雖然不需要寫程式,仍要能從技術層面掌握AI開發流程,掌握技術細節。
  2. 監管知識:除了既有法規,各國AI相關法律與審查流程也在成形中,都是企業發布相關功能必須注意的。
  3. 商業與產業知識:在訂定內部規範時,必須符合產業與企業現況,避免遵循AI規範成為企業的負擔。
  4. 溝通與跨域工作能力:同時與技術研發、法律遵循以及政府關係部門協作,扮演跨部門之間的橋樑。

負責任AI,為何說得到、做不到?

AI道德長的任務,也反映了企業發展AI過程的兩難。

許多企業已經將「AI道德」與「負責任AI」納入開發準則。例如在微軟、Sony與Adobe等跨國企業網站,就有一頁說明如何打造「負責任AI」、企業如何建立與落實AI規範。以Adobe為例,就明確列出如何在訓練、測試、影響力評估等層面監督AI開發。

儘管如此,內部監督AI的力量在多數企業裡依舊不足。波士頓諮詢公司AI道德長米爾斯(Steve Mills)接受網路媒體《AI Business》專訪時提到,許多企業無力處理AI道德問題,建立負責任AI的原因有3:

第一,負責人權力不足。AI的道德與法遵議題涵蓋各部門,米爾斯表示,「必須要由有權威的人來啟動組織變革,才能達成這個目的。」

第二,資源不足。不論是對於AI、法遵或ESG部門的人而言,AI道德議題並非他們的「本業」。就像是抽出額外時間,反過來挑自己既有業務的毛病,自然缺乏推動意願。

第三,機制不足。AI技術仍持續發展中,企業內部普遍缺乏專業能力與經驗,無法結合既有風險控管流程發揮監督作用。

事實上,AI道德議題之廣,已經遠超過企業內部監督範圍。

政治大學法學院教授王立達以企業間的價格競爭為例,早在2018年歐盟就已發現,3C製造業者會透過演算法監控網路各賣場價格,並且根據競爭對手價格自動出價。當所有主要廠商透過演算法「上下交相賊」,很有可能變相價格勾結,聯手控制市場。屆時政府如何從演算法中看出蛛絲馬跡,甚至舉證並追究責任,這都是很大的挑戰。

換句話說,不論是政府端或是企業端,AI規範才剛開始。人類發展了數千年,透過思辨形成人際間的道德、法律規範;但如今AI橫空出世,並且快速滲透人類生活,同時,我們顯然沒有下個一千年來思考如何應對AI,這恐怕才是對全人類最大的挑戰。

資料來源:BCG勤業眾信

(原文標題:AI時代最難的職位!「AI道德長」如何阻止企業危機?


【百工的一天】開啟你的職涯任意門

新興熱門工作、最新轉職趨勢都在這 ⮕ 馬上看

推薦閱讀:

加入粉專,每天收看職場力最新文章

AI
台灣最大工作人交流平台,協助新世代透過學習、成長,實踐熱情工作與快樂生活。是對年輕人最具正向影響力的媒體,創造企業與人才間的對話,克服學用落差,推動世代互助與典範傳承。在人生每個重要時刻,給予工作者實用建議。