鴻海自研語言模型FoxBrain,靠著自建算力與產線數據優勢,讓生成式AI走進工廠現場,不只學會老師傅的技術,更預告未來產品開發流程將全面加速,這背後藏著什麼關鍵技術和策略?一起來揭開鴻海智慧製造的秘密。
文/鄧凱元 由天下雜誌授權轉載
本文導覽
地表最大代工廠鴻海,靠著自建算力,打造出繁體中文AI大型語言模型「FoxBrain」,把當今最具話題的AI代理人運用到工廠第一線,省下80%基礎工,它怎麼做到?
今年5月的台北國際電腦展(Computex),鴻海董事長劉揚偉拋出一個驚人的數字:鴻海內部測試結果顯示,在生成式AI協助下,80%的基礎工作可以由AI代勞,剩下20%的困難工作,才是人類的天下。
劉揚偉口中,產線人員與AI代理人互動的實況長這樣:
AI代理:已完成熔膠階段參數推薦。
員工:確認並下一步。
AI代理:已完成射出階段參數推薦。如果沒有出現缺陷,請點擊「先保加壓」。如果當前出現缺陷,請選擇是先解決缺陷還是先保加壓。
員工:先解決缺陷。
AI代理:請告知缺陷類型。
員工:射紋。
靠AI代理推薦、優化機台參數,省下八成基礎的調機工作,這對擁有90萬名員工的鴻海來說,是個巨大的改變。源頭是鴻海自行開發的大型語言模型FoxBrain。
主導FoxBrain開發的鴻海研究院人工智慧研究所所長栗永徽,在接受《天下》專訪時信心滿滿地表示,「FoxBrain有潛力成為台灣推理能力最強的繁體中文大型語言模型。」
但開發自家的大型語言模型,對硬體起家的鴻海,是一條崎嶇之路。
栗永徽回憶,3年前在鴻海科技日,董事長要他分析AI的未來,他講的主題是當時學界已經熱烈討論的AI訓練與生成式AI大突破,「我們已經看到大型語言模型就是未來的趨勢。」不過,當時熱潮還沒起,在鴻海內部尚未獲得太多迴響,之後ChatGPT很快橫空出世,AI在集團內開始獲得重視。
一開始,鴻海開發大型語言模型是以租用算力的方式進行,但計算後發現,自建算力還比較划算,成本算得很精的鴻海,開始花錢建構自家算力,建立訓練大型語言模型需要的彈藥。

▲鴻海積極用AI實現智慧工廠,圖為富士康深圳龍華廠。(攝/謝佩穎,由天下雜誌授權轉載)
「算力是所有的基礎,沒有算力談模型,也是空談,」他坦言。
算力也是財力,一張100多萬台幣的輝達H100 GPU,鴻海用了上百張,短短4個月,栗永徽帶團隊餵了大量的繁體中文資料,完成模型的先期訓練。
栗永徽當時就認為,鴻海來自台灣,當然希望FoxBrain不但要繁體中文、能理解在地知識與意識形態,同時還讓模型開源,幫助社會大眾。
另外,FoxBrain在接受一般性資料的先期訓練後,真正要落地,還要透過被稱為擷取增強生成(RAG)的方法,餵入企業的專業知識,「才能準確回到企業需要知道的答案,而不是不懂裝懂亂答,」栗永徽強調。
FoxBrain有個其他模型沒有的鴻海DNA:成本撙節能力強。內部實測中國年初火爆全球的DeepSeek時,栗永徽察覺到這個當紅模型竟然常過度思考,也就是在回答一個問題時,反覆使用不同的邏輯打斷推理過程,這會吃掉非常多「token」(語言模型的基礎單位)。
若把token想像成「字的積木」,AI模型就是用這些積木一個一個拼出回答,而不是一次就說出整句話。答案愈長、內容愈複雜,用掉的token就愈多,這意味著推理的時間變長,運算成本也更高。
「吐出每個token都要花錢,吐愈多花愈多,」栗永徽直言。
DeepSeek實測,啟發了栗永徽和團隊在發展FoxBrian時,設計出在推論前,先告知推論方法,以及要花多少運算資源,再由人為判斷要採取哪種模式展開,節省不必要的浪費。
另外,FoxBrain也加入了推理能力,能把複雜問題拆成多個小問題,分頭解決後再組成最終答案,透過這樣的方法讓AI變得更聰明。
一位與輝達合作開發模型應用的AI公司開發主管觀察,先前由台灣學界開發全球首創繁體中文專家模型的Project TAME,餵入的繁中資料廣度更多,但受限學界的資源,模型本身不容易持續疊加新發展。而FoxBrain有鴻海的企業資本奧援,模型才有本錢持續更新維護。
鴻海已對外揭露,FoxBrain推出後,將逐步用在智慧製造、智慧電動車、智慧城市三大關鍵應用場景。
實際怎麼用在三大平台?在一場由輝達主辦的論壇上,鴻海首度對外揭露,FoxBrain在製造產線落地的實況。
身為全球最大的代工製造廠,塑膠成型機擔綱重要角色,必須把塑膠粒子加熱後,射出至模具上定型,製作出筆電、手機、連接器、電視、遊戲機用到的塑膠件。
要把塑膠表面做得光滑、結構扎實又沒有毛邊,必須靠老師傅控制塑膠加熱的溫度與射速等關鍵參數。不過,新人上手時間長、缺工與經驗難傳承等,一直是問題。
所以,AI派上用場了。
鴻海董事長辦公室智能系統研發處長郭錦斌透露,鴻海把訪談現場老師傅的經驗、機台參數、研究等資料餵給FoxBrain,經過短短5個月的訓練,AI已經學會80%的基礎調機工作。
栗永徽解釋,這是透過擷取增強生成的方法,把企業擁有的行業知識傳授給AI,讓模型可以針對特定問題,從資料庫裡精確回答。
透過這樣的方法,AI把老師傅的經驗建構成「知識圖譜」,讓產線人員如同使用ChatGPT般,和AI對話。「這種協作方式以後會是我們產線上的標配,」郭錦斌表示。

▲「知識圖譜」讓老師傅經驗得以傳承。(攝/鄧凱元,由天下雜誌授權轉載)
這樣的應用,也代表大型語言模型搭配AI代理,已經從雲端落地到企業實戰。
相較剛開始反應冷淡,現在每天都有很多單位寫email或傳訊給栗永徽,「都是要來找我們討論FoxBrain怎麼開發、應用,」他笑著說。
鴻海發展AI應用,有個難以複製的優勢:模型、現場數據、應用到算力的開發者生態圈,正逐步成形。
最快今年第三季,鴻海採用輝達的四櫃AI伺服器GB200 NVL72就有可能落地,屆時GPU數將增加一倍以上。劉揚偉更在Computex宣布,和輝達、台積要新建的AI工廠,GPU的張數有可能增加至萬張以上。
「這個建起來之後,算力絕對是台灣最大,」栗永徽說。
因此,AI除了用來調整機台參數,後續還有更多的工作要做。下一個應用,將是縮短從接單、模具開發到產線參數調整所需的時間。
「新產品開發要花不少時間,所以我們透過生成式AI,提供模具設計的建議,接著再讓AI調整參數,」郭錦斌估計,開發時間可省下將近一半。
未來,鴻海也將逐步把這樣的方法論,導入其他製程。
從塑膠射出產線,再落地到其他製程產線,甚至導入其他事業部的應用場域及平台,鴻海還需要更多時間。但AI這場競賽,已經從雲端高閣,漸漸落地到現場。一場比數據、比算力、比應用的競賽正式展開。
(原文標題:鴻海AI大腦FoxBrain,包下廠內八成基礎工作 如何連老師傅經驗也吸收?)
沒看到有興趣的職缺嗎?
延伸閱讀:
當員工主動提出「我想降職減薪」時,公司就必須答應嗎?這背後涉及了哪些法律規範?勞工應該怎麼做才能自保?本文將為大家拆解自願降職背後的權利義務。
部分企業常存有「員工來來去去很正常,離職了、人再找就有了!」的心態,但專家指出,如果員工離職符合三種狀態:無預警主動終止契約、突然「故意情節重大違規」的比例升高、不少人開始表達對年終獎金的不滿,這時候應該特別警覺,建議企業應謹慎觀察找出病因,避免離職的「星星之火」延燒成動搖國本的「燎原之火」。
想換工作卻對職涯感到迷惘、不知道自己喜歡什麼?作者透過自身跨界經歷,建立出一套職涯轉換方法「EAT系統」:透過探索(Explore)、累積(Accumulate)、轉換(Transit),找出職涯破局點,成功實現跨界轉職!本文節錄自《讓每次的轉職更成功》。
你反感的主管是哪類型?甩鍋王?搶攻者?花一分鐘、簡單2題告訴我們
HR能將履歷上傳至ChatGPT等AI工具來做篩選嗎?本文解析最新法規,深入分析企業使用LLM評估人選時,可能面臨的《個資法》特定目的外利用、就業歧視及違反人力銀行合約等風險,避免可能觸犯法律規範及面臨高額罰鍰!