用FoxBrain學老師傅看家本領!鴻海打造的AI模型如何幫省8成基礎工?

天下雜誌
2025.07.17
2205次觀看

鴻海自研語言模型FoxBrain,靠著自建算力與產線數據優勢,讓生成式AI走進工廠現場,不只學會老師傅的技術,更預告未來產品開發流程將全面加速,這背後藏著什麼關鍵技術和策略?一起來揭開鴻海智慧製造的秘密。

文/鄧凱元 天下雜誌授權轉載

本文導覽

地表最大代工廠鴻海,靠著自建算力,打造出繁體中文AI大型語言模型「FoxBrain」,把當今最具話題的AI代理人運用到工廠第一線,省下80%基礎工,它怎麼做到?

AI上工!鴻海FoxBrain讓人機對話成為工廠日常

今年5月的台北國際電腦展(Computex),鴻海董事長劉揚偉拋出一個驚人的數字:鴻海內部測試結果顯示,在生成式AI協助下,80%的基礎工作可以由AI代勞,剩下20%的困難工作,才是人類的天下。

劉揚偉口中,產線人員與AI代理人互動的實況長這樣:

AI代理:已完成熔膠階段參數推薦。

員工:確認並下一步。

AI代理:已完成射出階段參數推薦。如果沒有出現缺陷,請點擊「先保加壓」。如果當前出現缺陷,請選擇是先解決缺陷還是先保加壓。

員工:先解決缺陷。

AI代理:請告知缺陷類型。

員工:射紋。

靠AI代理推薦、優化機台參數,省下八成基礎的調機工作,這對擁有90萬名員工的鴻海來說,是個巨大的改變。源頭是鴻海自行開發的大型語言模型FoxBrain。

主導FoxBrain開發的鴻海研究院人工智慧研究所所長栗永徽,在接受《天下》專訪時信心滿滿地表示,「FoxBrain有潛力成為台灣推理能力最強的繁體中文大型語言模型。」


從租用到自建算力,鴻海砸近億成本訓練FoxBrain

但開發自家的大型語言模型,對硬體起家的鴻海,是一條崎嶇之路。

栗永徽回憶,3年前在鴻海科技日,董事長要他分析AI的未來,他講的主題是當時學界已經熱烈討論的AI訓練與生成式AI大突破,「我們已經看到大型語言模型就是未來的趨勢。」不過,當時熱潮還沒起,在鴻海內部尚未獲得太多迴響,之後ChatGPT很快橫空出世,AI在集團內開始獲得重視。

一開始,鴻海開發大型語言模型是以租用算力的方式進行,但計算後發現,自建算力還比較划算,成本算得很精的鴻海,開始花錢建構自家算力,建立訓練大型語言模型需要的彈藥。

鴻海積極用AI實現智慧工廠,圖為富士康深圳龍華廠。

▲鴻海積極用AI實現智慧工廠,圖為富士康深圳龍華廠。(攝/謝佩穎,由天下雜誌授權轉載)

「算力是所有的基礎,沒有算力談模型,也是空談,」他坦言。

算力也是財力,一張100多萬台幣的輝達H100 GPU,鴻海用了上百張,短短4個月,栗永徽帶團隊餵了大量的繁體中文資料,完成模型的先期訓練。

栗永徽當時就認為,鴻海來自台灣,當然希望FoxBrain不但要繁體中文、能理解在地知識與意識形態,同時還讓模型開源,幫助社會大眾。

另外,FoxBrain在接受一般性資料的先期訓練後,真正要落地,還要透過被稱為擷取增強生成(RAG)的方法,餵入企業的專業知識,「才能準確回到企業需要知道的答案,而不是不懂裝懂亂答,」栗永徽強調。


從DeepSeek缺陷學經驗:FoxBrain強化推理、聰明又節能

FoxBrain有個其他模型沒有的鴻海DNA:成本撙節能力強。內部實測中國年初火爆全球的DeepSeek時,栗永徽察覺到這個當紅模型竟然常過度思考,也就是在回答一個問題時,反覆使用不同的邏輯打斷推理過程,這會吃掉非常多「token」(語言模型的基礎單位)。

若把token想像成「字的積木」,AI模型就是用這些積木一個一個拼出回答,而不是一次就說出整句話。答案愈長、內容愈複雜,用掉的token就愈多,這意味著推理的時間變長,運算成本也更高。

「吐出每個token都要花錢,吐愈多花愈多,」栗永徽直言。

DeepSeek實測,啟發了栗永徽和團隊在發展FoxBrian時,設計出在推論前,先告知推論方法,以及要花多少運算資源,再由人為判斷要採取哪種模式展開,節省不必要的浪費。

另外,FoxBrain也加入了推理能力,能把複雜問題拆成多個小問題,分頭解決後再組成最終答案,透過這樣的方法讓AI變得更聰明。

一位與輝達合作開發模型應用的AI公司開發主管觀察,先前由台灣學界開發全球首創繁體中文專家模型的Project TAME,餵入的繁中資料廣度更多,但受限學界的資源,模型本身不容易持續疊加新發展。而FoxBrain有鴻海的企業資本奧援,模型才有本錢持續更新維護。

鴻海已對外揭露,FoxBrain推出後,將逐步用在智慧製造、智慧電動車、智慧城市三大關鍵應用場景。

實際怎麼用在三大平台?在一場由輝達主辦的論壇上,鴻海首度對外揭露,FoxBrain在製造產線落地的實況。


老師傅「教」AI!「擷取增強生成」讓FoxBrain懂業內知識

身為全球最大的代工製造廠,塑膠成型機擔綱重要角色,必須把塑膠粒子加熱後,射出至模具上定型,製作出筆電、手機、連接器、電視、遊戲機用到的塑膠件。

要把塑膠表面做得光滑、結構扎實又沒有毛邊,必須靠老師傅控制塑膠加熱的溫度與射速等關鍵參數。不過,新人上手時間長、缺工與經驗難傳承等,一直是問題。

所以,AI派上用場了。

鴻海董事長辦公室智能系統研發處長郭錦斌透露,鴻海把訪談現場老師傅的經驗、機台參數、研究等資料餵給FoxBrain,經過短短5個月的訓練,AI已經學會80%的基礎調機工作。

栗永徽解釋,這是透過擷取增強生成的方法,把企業擁有的行業知識傳授給AI,讓模型可以針對特定問題,從資料庫裡精確回答。

透過這樣的方法,AI把老師傅的經驗建構成「知識圖譜」,讓產線人員如同使用ChatGPT般,和AI對話。「這種協作方式以後會是我們產線上的標配,」郭錦斌表示。

「知識圖譜」讓老師傅經驗得以傳承。

▲「知識圖譜」讓老師傅經驗得以傳承。(攝/鄧凱元,由天下雜誌授權轉載)

這樣的應用,也代表大型語言模型搭配AI代理,已經從雲端落地到企業實戰。

相較剛開始反應冷淡,現在每天都有很多單位寫email或傳訊給栗永徽,「都是要來找我們討論FoxBrain怎麼開發、應用,」他笑著說。


AI應用下一步,協助新品開發時間減半

鴻海發展AI應用,有個難以複製的優勢:模型、現場數據、應用到算力的開發者生態圈,正逐步成形。

最快今年第三季,鴻海採用輝達的四櫃AI伺服器GB200 NVL72就有可能落地,屆時GPU數將增加一倍以上。劉揚偉更在Computex宣布,和輝達、台積要新建的AI工廠,GPU的張數有可能增加至萬張以上。

「這個建起來之後,算力絕對是台灣最大,」栗永徽說。

因此,AI除了用來調整機台參數,後續還有更多的工作要做。下一個應用,將是縮短從接單、模具開發到產線參數調整所需的時間。

「新產品開發要花不少時間,所以我們透過生成式AI,提供模具設計的建議,接著再讓AI調整參數,」郭錦斌估計,開發時間可省下將近一半。

未來,鴻海也將逐步把這樣的方法論,導入其他製程。

從塑膠射出產線,再落地到其他製程產線,甚至導入其他事業部的應用場域及平台,鴻海還需要更多時間。但AI這場競賽,已經從雲端高閣,漸漸落地到現場。一場比數據、比算力、比應用的競賽正式展開。

(原文標題:鴻海AI大腦FoxBrain,包下廠內八成基礎工作 如何連老師傅經驗也吸收?

更多104【鴻海】精選職缺

沒看到有興趣的職缺嗎?


延伸閱讀:

我可以自願降職減薪嗎?公司能不能拒絕?勞工該怎麼做才能安全撤退?

我可以自願降職減薪嗎?公司能不能拒絕?勞工該怎麼做才能安全撤退?

當員工主動提出「我想降職減薪」時,公司就必須答應嗎?這背後涉及了哪些法律規範?勞工應該怎麼做才能自保?本文將為大家拆解自願降職背後的權利義務。

員工離職非小事,可能是星星之火

員工離職再找就好?企業別低估「星星之火」之兆

部分企業常存有「員工來來去去很正常,離職了、人再找就有了!」的心態,但專家指出,如果員工離職符合三種狀態:無預警主動終止契約、突然「故意情節重大違規」的比例升高、不少人開始表達對年終獎金的不滿,這時候應該特別警覺,建議企業應謹慎觀察找出病因,避免離職的「星星之火」延燒成動搖國本的「燎原之火」。

跨界轉職迷惘「不知喜歡什麼」…用EAT系統找出職涯破局點

跨界轉職迷惘「不知喜歡什麼」…用EAT系統找出職涯破局點

想換工作卻對職涯感到迷惘、不知道自己喜歡什麼?作者透過自身跨界經歷,建立出一套職涯轉換方法「EAT系統」:透過探索(Explore)、累積(Accumulate)、轉換(Transit),找出職涯破局點,成功實現跨界轉職!本文節錄自《讓每次的轉職更成功》。

績效考核招人怨?台積電資歷十年主管:3步驟,避免考績不公、下屬不服

【職場小調查】你最反感的主管類型?

你反感的主管是哪類型?甩鍋王?搶攻者?花一分鐘、簡單2題告訴我們

HR用AI篩履歷有觸法風險嗎?避開企業招募的AI隱性地雷

HR用AI篩履歷有觸法風險嗎?解析企業招募的AI隱性地雷

HR能將履歷上傳至ChatGPT等AI工具來做篩選嗎?本文解析最新法規,深入分析企業使用LLM評估人選時,可能面臨的《個資法》特定目的外利用、就業歧視及違反人力銀行合約等風險,避免可能觸犯法律規範及面臨高額罰鍰!

精選財經、國際、管理、教育、經濟學人、評論、時尚;互動圖表、影音等多媒體報導,深入解讀世界脈動,掌握前瞻觀念。以溫和、理性的態度,積極、正向的角度,為台灣及全球華人社會,提出一束客觀、冷靜、可信賴的聲音。