You are on page 1of 46

PCB產業報告-AI 為主旋律

福邦投顧 研究部
2024.03
結論:AI重塑PCB+CCL的供應格局
1. 硬板-
• HDI:台系在HDI領域取得重要供應位置,AI OAM部分,欣興的技術和良率領先
同業,為優先選擇供應商,金像電亦獲得國際大客戶採用;車用部分,隨著
自動駕駛類產品要求難度接近於AI應用,具備穩定HDI製造能力+車規認證的
定穎、健鼎受惠較高。
• PCB:台系中以金像電為全球技術領先大廠,受惠AI多項產品應用要求,也是
國際大廠優先考量供應商,高技為台系技術中僅次於金像電的廠商;其餘台
廠受限於供應經驗、產能因素,可作為高階PCB 產能滿載下的備用選擇。
2. 載板-
• AI訓練供應暫時缺席:當前在AI領域、PC/NB領域,均以日本供應商為Top
Priority,台廠尚未取得主流產品可供應資格(H100~B100/MI300)。
• PC/NB供應順位落後國際同業,國際大客戶需求優先以日、歐供應商供應。
• 當前台系載板廠的機會-外溢效果:市佔率較小的ASIC(取得日歐產能難度高)、
推論類GPU可望由台廠供應,PC/NB則作為支援地位。

【僅供內部教育訓練使用,嚴禁外流】 2
結論
3. CCL-
• AI 伺服器:台系廠商(台光電、聯茂),分別在訓練、推理型GPU伺服器佔有重
要的供應地位;ASIC市場部分,亦是台光電、聯茂的主戰場;未來在AI PC/NB
部分,具備性價比的聯茂也將享有優勢。
• 交換器:400G市場仍會是2024年主流,台光電為歐美台系主要供應商;800G市
場部分,考量過去供應實績,市占率變化不大,台光電、日韓供應鏈會佔有
主要供應地位。

4. 建議關注個股:台光電、金像電、高技、聯茂、定穎、健鼎、欣興、台燿
5. 建議關注題材:AI伺服器、NB/PC換機、自動駕駛、人形機器人

【僅供內部教育訓練使用,嚴禁外流】 3
目錄

一 雲端巨頭資本支出與伺服器出貨預估 5

二 一般伺服器與AI伺服器成本估算 10

三 伺服器新平台帶動PCB&CCL單價提升 12

四 AI 伺服器PCB&CCL供應關係 19

五 Nvidia H100升級至B100的供應鏈預測 21

六 加速中的400G、800G需求帶動升級 25
七 AI PC 與換機潮對PCB、CCL要求升級 30

八 自動駕駛帶動PCB、CCL的升級 29
35

九 相關個股介紹 43

【僅供內部教育訓練使用,嚴禁外流】 4
雲端中心三巨頭資本資出呈現成長
根據彭博最新共識數字,扣除Amazon,三大CSP廠的2023年資本支出成
長率為8%,2024年YoY+25%,2023年AI投入較積極的微軟為主要資本支出
成長貢獻來源,2024年Meta重返成長、Google擴大支出。(2024Q1更新)
圖一:北美四大雲端廠商資本支出概況
200,000 100.0%
Amazon Meta Microsoft Alphabet 整體YOY(RHS) YOY扣除Amazon(RHS)
180,000 90.0%
86%
160,000 80.0%

70.0%
140,000
60.0%
120,000
資料來源:彭博、福邦投顧 50.0%
100,000 單位:百萬美元
40.0%
80,000 32% 30.0%
25% 25%
60,000
20% 21% 20.0%
40,000 10.0%
8%
4% 5%
20,000 0.0%
-2%
- -10.0%
2015 2016 2017 2018 2019 2020 2021 2022 2023 2024F

【僅供內部教育訓練使用,嚴禁外流】 5
全球伺服器出貨2024年小幅成長
短期:受到AI伺服器排擠效應影響,參考Digitimes最新數據預估,2023年伺服
器出貨量YoY-18.3%,23H2在AI伺服器、新平台出貨帶動,逐季好轉;2024年可
望恢復增長,但仍有排擠效應,YoY+4.9%。
中長期:根據IDC資料預估,伺服器出貨量2022-27CAGR+4.5%。
圖二:全球伺服器出貨量成長預測
2017 2018 2019 2020 2021 2022 1Q23 2Q23 3Q23 4Q23(F) 2023(F) 1Q24(F) 2024(F)
Trendforce 出貨量 12,893 13,602 14,241 13,395 13,703
YoY 3.50% 5.50% 4.70% -5.9% 2.30%
QoQ -16% 8% 8%
Gartner 出貨量 12,918 13,815 12,963 14,017
2023.06 YoY 6.9% -6.2% 8.1%
QoQ
Digitimes 出貨量 13,910 15,238 15,060 16,255 17,008 18,122 3,807 3,591 3,646 3,759 14,803 3,822 15,532
2024.02 YoY 9.5% -1.2% 7.9% 4.6% 6.5% -13.6% -21.1% -23.2% -14.9% -18.3% 0.4% 4.9%
QoQ -13.8% -5.7% 1.5% 3.1% 1.7%
MIC 出貨量 11,814 12,092 12,423 12,987 13,611 13,320 13,817
2023.08 YoY 6.2% 2.4% 2.7% 4.5% 4.8% -2.1% 3.7%
QoQ
IDC 出貨量 10,241 11,849 11,800 12,668 13,546 14,960 3,018 3,084 3,066 3,425 12,594 14,676
預估 14,945 3,002 3,477 4,005 3,425 13,533 3,313 14,676
2023.12 YoY 15.7% -0.4% 7.4% 6.9% 10.4% -10.0% -19.9% -22.8% -9.6% -15.8% 9.8% 16.5%
QoQ -20.3% 2.2% -0.6% 11.7% -3.3%
1.單位:千台
2. Digitimes預估數為板卡,IDC等預估為機箱

資料來源:福邦投顧整理(FEB.2024)

【僅供內部教育訓練使用,嚴禁外流】 6
雲巨頭陸續推出AI相關應用
四大CSP對AI的關注程度持續上升,AI為2024-25年各家必投項目,對於2024-25
年高階伺服器、光通訊的升級有顯著幫助。
表一:國際四大CSP資本支出和大模型近況 資料來源:各公司(2024Q1),福邦投顧整理

公司 內容
微軟 • Open AI 合作:發布NewBing,導入Copilot至Microsoft 365、Dynamics 365等核心產品,訂價Microsoft 365
Copilot 30美元/月,未來BingChat企業版訂價 5美元/月;
• Azure:目前擁有5.3萬個AI客戶,其中1/3是新客戶,23Q4新增GPT 4.0支援、GPT Forward Vision等服務,
財富前500大公司中,有1/2以上比重是客戶。
• Github Copilot用戶持續上升:有超過130萬個付費用戶,5萬家訂閱Copilot for Business。
• 資本支出:23Q4資本支出關於資產和設備約97億美金,以支持雲端需求;24Q1開始仍預期會逐季成長。
Google • 推出下一代多模Gemini 1.0,適用於TPU運行,並結合當前Google服務,未來將提供訂閱版服務:
1. 分為Ultra(高複雜任務)、Pro(擴展任務)、Nano(手機設備使用,Pixel8),將很快推出Ultra AI模型
2. 具備歸納並流暢理解、操作及組合不同類型訊息(文件、代碼、影音、圖像等)多模能力。
3. 近期推出Gemini1.5(Pro算力可達1.0 Ultra),可達到百萬等級上下文長度,意味具備寫出更高品質的論文
或研究報告潛力。
• 將推出Bard Advanced AI聊天機器人的高級版本,可望在原有的基礎上提供更精準的答覆。
• 公司在23Q4資本支出提升至110億美元,多為伺服器/AI支出;2024年資本支出將顯著超過2023年,主要
針對TPU、GPU、資料中心加強投資。
Meta • 2024年將推出Liama3(7月),擴大Meta AI 助手實用性,推動AI工作室Roadmap。
• 2024年全年資本支出約300~370億美元,較上季展望上修,主要用於資料中心加快建設腳步,預計2024年
底將擁有35萬H100,以及其他GPU約當60萬張H100算力。
Amazon • 基礎設施:推出EC2 P5(H100),並開始研發自研的AI訓練和推理晶片,並轉投資Anthropic。
• 模型:Bedrock提供客戶基礎的模型API服務,包括Liama2、Anthropic、Stability AI、Cohere以及Titan模型。
• 應用:以建構AmazonCodeWhisperer,提高開發人員效率。
• 公司表示將透過AWS基礎設施將增加,達到2024年資本支出年成長。(包含生成式AI和LLM模型投資)
【僅供內部教育訓練使用,嚴禁外流】 7
雲巨頭積極將AI導入終端應用
四大CSP在當前生成式AI快速發展中,加快了AI商業化的腳步,陸續推出具有AI
功能的服務。
表二:國際四大CSP針對終端裝置導入AI彙整 資料來源:各公司,福邦投顧整理

公司 內容
微軟 1. OPEN AI 推出Sora 文生影音封閉模型,通用人工智慧AGI實現的可能性:
• 透過1920*1080的解析度訓練,推論產出約1分鐘的連貫式影音,優於當前現有的競爭模型(3~4秒、人工剪
輯)。
• Sora模型能保證3D空間和比例的穩定,優於其他AI模型。
• 遵循Scaling Law,算力需求將持續增加,訓練算力估是Stable Diffusion v1-5的百倍以上:
 一般動態影片需要30fps,一分鐘需要產出1800張圖,推升算力需求,算力提升越高,影片解析度越高。
 影片場景的穩定、人物表情、配件、服裝,每增加一個維度,都需要重新產出圖片,都需要耗用算力。
2. Surface Pro 10&Laptop 6: 將於3/21發布,預計搭載Core Ultra和高通Snapdragon X Elite,也將發表AI
Explorer功能,使用者可透過此功能在任何程式上搜尋文件、圖片和聊天。
Google • 發表Assistant with Bard: 為Google助理與Bard的新組合,使用者可以藉由發問、文字查詢、智慧拍照等,
經由Google開發的生成式AI提供支援,Assistant with Bard能夠更聰明回應,目前已應用於Pixel系列,未
來有機會往其他Android手機、iOS推出。
• AI已經納入搜索等核心消費端應用,透過SGE( 搜尋生成式體驗),廣告商付費意願提升;其餘如Youtube
等,都會導入AI以提升生產效率。
Amazon • AI導入智慧語音助理Alexa:Alexa AI 能夠記下個人喜好,亦能執行傳送訊息和更新訊息等任務;同時,大
模型技術可以感知上下文、識別情緒和語氣,並在回覆中呈現,Alexa AI擁有先進的語音辨識,可增強對
化體驗。
Meta • 消費者人工智能聊天機器人:公司表示將推出Meta AI 聊天助理,並將在WhatsApp、Instagram、Messenger
等平台推出一系列的AI角色。
• 推出Quest 3: 除遊戲、體育賽事直播、辦公外,Meta AI 也將導入。
• 推出Ray-Ban Meta智慧眼鏡: 支援Meta AI,可使用”Hey Meta”語音指令更深入發揮創造力和控制功能。
【僅供內部教育訓練使用,嚴禁外流】 8
AI伺服器出貨量成長將優於整體
根據福邦投顧預估,2022年配備GPU的AI伺服器約53.7萬台,隨著AIGC的發展,AI伺服器的出貨量
CAGR預估為66%,2023~2025年預估出貨量70(訓練15)/133(訓練42)/246(訓練105)萬台。(以NVIDIA產
品為計算基準,2025年GB200可做為訓練和推論,訓練推論界線模糊,採用75%GB200和25%B100做估
計)。
圖三:2022-2025年AI伺服器(GPU)出貨量成長預測 圖四:AI伺服器出貨客戶比重
)
AI伺服器出貨量預估(GPU系列訓練+推理)
3,000 120.00%
GPU系列伺服器 YOY
100.00%
2,500

80.00%

2,000
60.00%
單位:千台

1,500 40.00%

20.00%
1,000

0.00%

500
-20.00%

- -40.00%
2019 2020 2021 2022 2023(F) 2024(F) 2025(F)

資料來源:Trendforce,IDC,產業調研,福邦投顧預估

【僅供內部教育訓練使用,嚴禁外流】 9
伺服器BOM表估算-PCB佔比不高,價值成長驚人
伺服器分成一般型、訓練型、推理型,AI訓練型和推理型由於高性能計算等需求,規格均會較一般型提
升,一般型伺服器單價約在3,000~15,000美金、AI用伺服器約200,000~1,500,000美金。
(估算假設:一般型9,500美金、訓練型250,000美金、推理型60,000美金、訓練+推理混合150~240萬美金)

AI相較於一般型,新增GPU,舊有的規格升級部分,來自於儲存裝置(用量提升)、散熱(氣冷轉水冷)、電
源(能耗提升)、PCB(耗損、散熱要求提升),GB200架構下採用4+9+5/8+9+10的設計,對PCB有更多的需求。
表三:AI伺服器BOM表預估
訓練型 成本 訓練型/一般型 成本 訓練+推理整合 成本 較訓練型
類型 一般型 成本佔比 推理型
8U 佔比 產值增幅(%) 佔比 2U RACK 佔比 增加(%)
x86 CPU * 2 21%x86 CPU*2 2.1% x86 CPU*2 13.9%Grace*18
計算 77%
GPU 0%H100*8 74.0% L4/L40/L40S*4 38.8%B100*36
3200Mhz*12 19%3200Mhz*24 1.5% 100% 3200Mhz*24 10.0%9TB LPDDR5 0.2%
記憶體
HBM 0%HBM*8 7.6% HBM 0%HBM 192G *18 7.2% 476%
儲存
SSD 41%SSD 4.2% 150% SSD 27.7%SSD 1.2%
空間
晶片互連 PCIE*11 3%Nvlink+Nvswitch 8.4% 233% PCIE 0.8%NVSWITCH 0.8%
網卡 10G網卡 1%10G網卡 0.1% 10G網卡 0.7%DPU+CX網卡 4.1%
OAM+GPU
UBB+OAM+ Tray+
PCB CPU主板 5% 0.8% 300% CPU主板 2.9% 1.4% 894%
交換板+CPU主板 NVLINK
SWITCH
電源 800~1200W 5%2800~3000W 0.8% 300% 1000~2000W 3.3%5,500W 1.0% 620%
散熱 風冷 0%風冷 0.3% 1,279% 風冷 0.2%水冷 2.9% 6,747%
機殼、
其他 機殼、連接器等 4%機殼、連接器等 0.2% 機殼、連接器等 1.7% 4.4%
連接器等
合計 100% 100% 100% 100%
資料來源:福邦投顧整理預估

【僅供內部教育訓練使用,嚴禁外流】 10
伺服器中需要運用PCB的部份
伺服器主要PCB類型分為主板、背板、交換板、電源板、網卡板,以及交換器
段的主板、背板。
表四:伺服器PCB分佈
圖五:伺服器結構 序號 名稱 PCB種類
3 主板+OCP 主板PCB
模組 光通訊模組用PCB
記憶體模組PCB+
記憶體BT載板
4 PSU 電源背板
6 風扇板 風扇控制板
7 互聯中板 背板
9 Switch板+Riser+硬 交換板、ASIC用
碟模組 載板、硬碟背板、
Nand BT載板、
Raid 卡板、Riser
卡板
10 NVIDIA HGX GPU載板、
GPU模組 NVSwitch、
GPU加速卡、
資料來源:浪潮英信伺服器技術手冊,福邦投顧整理 GPU UBB

【僅供內部教育訓練使用,嚴禁外流】 11
伺服器新平台換代帶動單價躍升-PCB
層數逐代提升,對於PCB製造工藝的要求也在增加,層數提升,對良率的控制難
度提高,除了傳統高多層的設計方案,亦有導入HDI的製程;若是有運用到背鑽
製程,產值多增加10~15%。
表五:伺服器平台與PCB層數演進
推出時間 2018 2020 2022 2024 2026
PCIe Gen 3.0 4.0 5.0 5.0(II) 6.0

傳輸速率 8GT/s 16GT/s 32GT/s 32 GT/s 64 GT/s

記憶體規格 DDR4 DDR4 DDR5 DDR5 DDR5~6?


PCB板層數 8~12L 12~16L 16~20L 18~22L 20~24L
ASP(TWD/平呎) 200~900 1,500~2,000 2,000~2,200 2,200~3,300 3,300+
Intel 平台 Purley Whitley Eagle Stream Birch Stream OAK Stream
CPU型號 SkyLake; Cooper / Sapphire Rapids; Sierra Forest ; CleanWater Forest;
CasadeLake Ice Lake Emerald Rapids Granite Rapids Diamond Rapids
AMD平台 Zen Zen2;Zen3 Zen4 Zen5 Zen6
CPU型號 Naples Rome; Genoa Turin Venice
Milan
資料來源:產業調研、福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 12
伺服器新平台換代帶動單價躍升-CCL
CCL 在傳輸速率隨著換代翻倍下,要求有更低的Dk(介電常數)、更低的Df(介質
耗損)、更低粗糙度(Ra),技術難度更高,使得價值提升。
表六:伺服器平台與CCL等級演進
推出時間 2018 2020 2022 2024 2026
CCL材料等級 Mid Loss Mid Loss~ Very /Ultra Very /Ultra Super Ultra
Low Loss Low Loss Low Loss low loss
CCL 代表 M2以上 M4以上 M6以上 M6以上 M7以上
ASP(TWD/張) 800 1,200 2,000 2,000 3,000+
PCIe Gen 3.0 4.0 5.0 5.0 6.0
傳輸速率 8GT/s 16GT/s 32GT/s 32GT/s 64 GT/s
記憶體規格 DDR4 DDR4 DDR5 DDR5 DDR5
Intel 平台 Purley Whitley Eagle Stream Birch Stream Oak Stream
CPU型號 SkyLake; Cooper / Sapphire/ Sierra Forest ; CleanWater Forest;
CasadeLake Ice Lake Emerald Rapids Granite Rapids Diamond Rapids
AMD平台 Zen Zen2;Zen3 Zen4 Zen5 Zen6
CPU型號 Naples Rome;Milan Genoa Turin Venice
資料來源:產業調研、福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 13
AI伺服器用PCB產值為一般型的3~4倍
參考雲端大廠對於AI伺服器的設計,最高階的層數來到交換器等級。
CCL材料採用領先廠商台光電/斗山(Nvidia),其餘競爭同業一同競爭客製化產品;供應
AI伺服器板的廠商相對較少,屬於寡占市場,擁有優異的HDI製程能力者,可望獲得更多
的訂單,多層板PCB供應商為金像電、健鼎、博智、WUS、TTM、韓國ISU、勝宏、景旺、臻
鼎(先豐)、欣興;高階HDI供應商欣興、勝宏、金像電、健鼎、定穎。
PCB單價來看,會較一般的方案(Whitley平台16L)增加75~150%(若有通孔、盲埋孔等會
更高),材料價格會增加20~230%。
表七:AI伺服器UBB設計方案
低階 中階 高階
PCB層數 20L 24L 28L
CCL材料 M6+ M7+ M8
FR4 FR4
(High TG、Low CTE) (High TG、Low CTE)
混壓 混壓
CCL ASP(TWD/張) 1,400~1,600 2,100~2,400 4,000
PCB ASP(TWD/平呎) 3,500+ 4,000+ 5,000+
資料來源:產業調研、福邦投顧整理預估
【僅供內部教育訓練使用,嚴禁外流】 14
AI 伺服器PCB組成BOM分析
拆解Nvidia DGX A100,AI伺服器PCB涉及GPU Board Tray、CPU Mother Board Tray、
其他,整體產值估計1,697美元,產值配比來看,GPU 79%、CPU 19%、其他2%
一般型伺服器產值約300~400美金,若採用AI訓練型(A100)的配置,將會多出一張GPU板
產值,整體產值會較一般型增加3~4倍(PCB+載板)。
圖六:NVidia PCB產值組成和剖面圖 資料來源:NVidia、福邦投顧整理
DGX A100 的PCB產值組成

2%

19%

79%

GPU板組 CPU板組 其他

【僅供內部教育訓練使用,嚴禁外流】 15
DGX H100 VS.A100:GPU部分仍為主要貢獻
 DGX H100 跟 A100的整體差異:
福邦投顧估算H100的整體PCB產值會較A100提升34%,主要來自於CPU載板(增幅20%) 、
CPU主板(增幅30%)、OAM加速卡板(增幅29%)、UBB板(增幅88%)。
表八:A100 與 H100 的PCB&載板產值比較 資料來源:NVidia、福邦投顧估算
單位:美元 DGX-A100 DGX-H100 增減幅
PCB&載板產值 1,697 2,280 34%
GPU Board Tray(HGX)
GPU載板(55*55*12L) 176 176 0%
Nvswitch載板 180 160 -11%
OAM(四壓16L→5壓18L) 560 720 29%
UBB(24L) 426 800 88%
GPU Board Tray Total 1,342 1,856 38%
CPU Mother Board Tray
CPU載板 100 120 20%
CPU主板 164 213 30%
功能性配板 58 58 0%
CPU Mother Board Tray Total 321 390 21%
其他 34 34 0%

【僅供內部教育訓練使用,嚴禁外流】 16
開放式加速型基礎設施-HIB
 雲端廠商取得Nvidia H100 SXM模組,交由ODM廠商處理L10部分,為了讓GPU和CPU、網
卡等以PCIE協定的方式進行溝通,會有一張專門用於PCIE協定的溝通板—Host
Interface Board(HIB),為當前為市場所知的Switch Board。
 NVIDA A100架構為4顆PCIE Switch對應8顆A100 GPU;升級至H100,設計架構為8顆
PCIE Switch對應8顆 H100 GPU(1 PCIE :1 OAM設計架構)。
 根據訪查,HIB板的設計架構同UBB等級,採用M7等級CCL材料,層數設計20~30層,有
利出貨廠商毛利率。
圖七:HIB範例 圖八:ODM廠設計的OAI架構

【僅供內部教育訓練使用,嚴禁外流】 資料來源:OCP,福邦投顧整理 17
開放式加速器基礎設施PCB彙整
表九:AI 伺服器PCB 比較
OAI-OAM OAI-UBB OAI-HIB MotherBoard
層數 20~30L 20~30L 20~30L 16~20L
(NV:16~20L)
CCL M6~M7 M7以上 M7以上 M6
材料等級
製程 四階HDI以上 多層板 多層板 多層板
工藝
功能 乘載GPU 或ASIC 乘載8顆 與UBB、BMC和 PCIE 搭載CPU、記憶體等元
的模組板 加速卡模組和 Switch、PCIE擴充槽做共 件
連結網路拓樸 面連接(連結GPU、CPU、
DPU等)
資料來源:福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 18
AI伺服器的PCB供應鏈關係-A/H100&ASIC
 GPU (ASIC)Board:
(1) NVidia方案-HGX基板:Nvidia設計,欣興製造OAM後,交工業富聯打件;TTM、滬士電子製造UBB,交緯創、工業
富聯打件,最後Nvidia供應給所需的ODM廠(客戶代工廠)。

(2) ODM方案(專案):

• GPU加速卡掌握在Nvidia, ODM參考Nvidia的設計,設計UBB(ex:MGX平台);雲廠商(ex:Google)可採購單張H100
加速卡,進行客製化UBB設計(韓系、台系板廠)。

• CSP廠商採用ASIC的設計(ex:TPU),亦需要使用到OAM、UBB,ODM廠會找尋適合的板廠配合。
表十:AI伺服器PCB供應鏈關係 資料來源:產業調查、福邦投顧整理
項目 CCL供應商 PCB供應商 載板主要供應商 板卡供應商 設計方案掌握者
HGX-GPU 台光電(H100、H200獨家)、 UBB(PCB): Ibiden 鴻海、緯創 Nvidia
Board Tray 斗山(B100獨家) TTM、滬電、VGT(未MP)
OAM、網卡(HDI):
欣興100%、VGT(未MP)
ODM- 台光電(高階)、生益(中系)、 GCE、WUS、TTM、 Ibiden(CoWoS優 ODM廠 Nvidia(GH/GB)、AMD、
GPU/ASIC 聯茂(中低階、中系)、 VGT、廣和科技、ISU、 先供應商)、 Intel、ODM(MGX)、
Board Tray Panasonic(Google)、 健鼎、生益電子、高技等 欣興(ASIC) ASIC(CSP廠商)
台燿(打樣) 南電(ASIC)
ODM- 台光電(主供)、台燿(二~三 GCE、TTM、ISU、 欣興、南電、 ODM廠 CSP廠商
SwitchBoard 供)、聯茂 健鼎等 景碩 (委託ODM設計)
CPU 台光電、生益(中系)、聯茂、 GCE、WUS、TTM、、 Ibiden、AT&S、 ODM廠 CPU廠商
Motherboard Panasonic、台燿 VGT、ISU、廣和科技、 欣興、南電 CSP廠商
Tray 奧士康、健鼎等

【僅供內部教育訓練使用,嚴禁外流】 19
AI伺服器中的推論-L40S
 L40S採用非CoWoS製程,屬於RTX4000/6000系列的伺服器使用版本,未使用Nvlink傳輸,有利企業
級用戶採用,建立私人AI資料中心,與A/H100分屬不同的市場。
 應用:推論型AI(影響雲端廠商自研ASIC 和 AMD MI系列滲透)
 載板: 約10層的設計,供應商iBiden、欣興
 CCL供應商:採用M6 Very Low loss等級材料,主要供應商聯茂。
 OAM: 採用3階HDI設計,單價預估50~60美金,主要供應商勝宏科技,二供滬士電子。
 板卡:工業富聯獨供。
 ODM:廣達、Supermicro等。

表十一:L40S與競爭產品規格比較
L40S MI300 Inferentia2 TPU v5e Gaudi2
廠商 Nvidia AMD Amazon Google Intel
製程 4nm 5nm 5nm 7nm 7nm
算力(TFLOPS) 91.6(FP32) 47.87(FP32) 47.5(FP32) 197(BF16) TBC
733(BF16) 312(BF16) 190(FP8/BF16)

記憶體 48G GDDR6 128GB(HBM3) 32GB(HBM) 32GB(HBM2) 96GB(HBM2E)


記憶體頻寬 864 GB/s 3,277 GB/s 820 GB/s 819 GB/s 2,450 GB/s
【僅供內部教育訓練使用,嚴禁外流】 資料來源:各公司、福邦投顧整理 20
關於H100的下一代版本-B100/GB200
表十二: H100 VS.B100 VS. GB200 資料來源:產業調研、福邦投顧整理
名稱 H100 HGX B100 HGX GB200
時間 22Q1發表, 24Q1發表,24H2晶片投片, Oberon 24Q3(理論25Q1)
23上半年開始交貨 25H1交貨 Miranda 24Q4(理論25Q2)
晶圓製程 4nm 4nm 4nm
配合的PCIE版本 5.0 5.0 6.0
CoWoS製程 CoWoS-S CoWoS-L 雙GPU封裝 CoWoS-L 雙GPU封裝
單晶圓可切割數(顆) 25~30 15~16 15~16
TDP/散熱方式 700W/氣冷 700W/氣冷 1,200W/水冷
載板供應商 IBiden獨家 IBiden獨家 IBiden獨家
-載板價格(USD/顆) 20~25 60+ 60+
CCL材料供應 • 台光電獨家 • 台光電 • 台光電(認證中)
OAM:EM-528K OAM:EM-892K+370Z OAM:EM-892K+370Z
UBB:EM-890K UBB:EM-892K GPU Tray:EM-892K
• 斗山電子(獨家) • 斗山電子(認證中)
DS 7409 DQN2 DS 7409 DQN2
CCL上游材料供應 玻布:Asahi、台玻 玻布:Asahi、台玻 玻布:Asahi、台玻
樹脂:Sabic、MGC、Asahi 樹脂:Sabic、MGC、Asahi 樹脂:Sabic、MGC、Asahi
銅箔:台銅、古河 銅箔:台銅、古河 銅箔:台銅、古河
OAM PCB 製程 5階HDI(18層/5-8-5) 5階HDI(20層/5-10-5) 5階HDI(20層?/5-10-5)
-OAM PCB供應商 欣興(獨家)、勝宏科技(打樣) 欣興(主要)、WUS 欣興(主要)、WUS
UBB PCB製程/GPU Tray PCB 高多層板(通孔系)24L 高多層板(通孔系)24L 高多層板 20L
-UBB PCB供應商 TTM、滬電、勝宏(打樣) TTM、滬電、ISU(打樣) 金像電、滬電等
NVSwitch Tray PCB X X 欣興、WUS/24L
L6供應商【僅供內部教育訓練使用,嚴禁外流】 緯創(UBB) 、 緯創(UBB)、 鴻海-FII (OAM) 21
鴻海-FII(OAM) 鴻海-FII(OAM)
H100,B100,GB200 PCB/CCL預估
表十三: H100 VS.B100 VS. GB200
ASP(USD) H100 B100(F) 產值增幅 GB200(4+9+5)(F)

UBB/GPU Tray($) 800~1000 1500 275*18


規格 EM890K /24L DS 7409 DQN2/24L M8等級/20L
用量 1 1 18
對應CCL產值 370 600 +62% 110*18
OAM($)/顆 150~160 220 220*36

規格 EM528K/18L DS 7409 DQN2/20L M8等級/20L?


用量 8 8 36
對應CCL產值 83 117 +41% 527
NVSwitch 700~1300*9
規格 整合於UBB 整合於UBB M8等級/24L
用量 x x 9
對應CCL產值 290~520*9
資料來源:產業調研、福邦投顧整理預估

【僅供內部教育訓練使用,嚴禁外流】 22
現有資料中心架構不利於AI訓練
傳統資料中心採用三層結構(縱向傳輸:用戶 to IDC or Cloud),雲端體系採用開放
式架構(Leaf-Spine),增加了更多橫向傳輸(資料中心內部),交換機數量變多,網路
規模擴大。
資料中心的葉脊架構若面臨流量增加,將會面臨網路阻塞,不利AI訓練需求;Nvidia的
Infiniband的Fat Tree架構,這類無阻塞技術在為確保網路頻寬不收斂,上下行頻寬需要
保持一致,有利光通訊模組的使用。
推理型架構方案可採用過去葉脊式設計,200G/400G為主的技術架構。
表十四:資料中心架構比較
客戶類型 傳統企業 北美雲端 中國雲端 AI訓練
資料中心 資料中心 資料中心 資料中心
規模 小 大 中/大 大
價構 三層架構 Spine/leaf架構 Spine/leaf架構 Fat Tree架構
流量& 小 大 中/大 大
流向 南北向為主 東西向為主 東西向為主 東西向為主
光模組 1G/10G 50G/400G 25G/100G 400G/
速率 800G~1.6T
資料來源:Hisilicon 白皮書、產業調研、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 23
AI伺服器需求加速800G光通訊模組採用
Nvidia在2018年发布第一代NVSwitch,至今進入第三代;第三代在伺服器外部
添加第二層NVSwitch,以解決東西向GPU的串聯,NVLink網路一個POD可連結32個
伺服器,256個GPU,並提供57.6TB/s的頻寬。
根據Nvidia H100架構,Nvlink需要18對、36個OSFP(可用於800G),一個SUPER
POD需要36*32=1,152個800G光通訊模組,光通訊模組:GPU=3:1
圖九:NVidia H100方案

資料來源:NVidia、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 24
雲端資料中心光通訊速率技術路線圖(2023.12更
 新)
Google:2022年採用2*200G FR4 (OSFP、中際旭創供貨);2023年會提升採購
2*200G(需求量YOY+40%),以及採購800G和400G SR8產品。
 Amazon:2022年100G DR1、400G DR4為主;2023年開始採用2*200G FR4架構,上半
年有庫存調整影響,下半年會開始採購,2024年需求至約400萬支(VS.原2023年需求約
140~150萬支),新增的250~260萬支需求用於AI用途機率高。(新易盛、中際旭創),
2024年下半年可能轉400G矽光方案。
 Meta:2022年200G FR4為重心,佔有70%的市場,2023年與2022年200G需求YOY持
平,亦會開始部分轉換至400G。
 Microsoft:2022年公司著重在資料中心互聯,以400GZR/ZR+為主,以及Leaf to Spine 的
400G DR4; 2023年400G DR4和400GZR4+的需求量+30%。
 2023年出貨量約380萬套,2024年預估400G全年需求約800萬套(上游與800G重疊)。
表十五:四大CSP速率路線圖
2020/2021 2022 2023 2024 2025-27 光收發模組
Google 400G 400G 400G→800G 800G→1.6T 1.6T OSFP
Amazon 400G 400G 400G 400G→800G 1.6T(26-27) QSFP-DD
Microsoft 400G 400G 400G→800G 800G→1.6T? 1.6T(26-27) OSFP/QSFP-DD
Meta 200G 200G 200G→400G 400G→800G 1.6T(25) QSFP-DD
資料來源:JPM、中際旭創、福邦投顧
【僅供內部教育訓練使用,嚴禁外流】 25
800G蓬勃發展,1.6T將至(2024.1)
 2023年800G採購量達150萬套(單模約100~110萬套(G的需求),多模50萬套(N的需求)。
 2024年800G需求達到800~1000萬套,其中多模40%,單模60%;Nvidia採購需求300萬
套多模+100萬套單模;Google採購需求約270~300萬套(200萬套單模,70萬套多模);
Meta約150萬套;上游EML產能可供應約350-400萬套單模,供應難以滿足需求。
 2024年1.6T出貨量預估10萬套,預計在24Q4出貨。

 Google: 主要供應商為中繼旭創(佔比較高)、 Cloud Light (出貨30%單模)。


 Nvidia
• 主要供應商為中繼旭創(長距離)、Coherent(短距離) to Mellanox、
Mellanox自行開發(約12萬套,矽光版本,天孚通訊(光引擎)→Fabrinet組裝→DGX Cloud)
• 2024年將會有矽光DR4的供貨(中際旭創),預期運用在800G。
 微軟:光通訊模組透過交換器廠Arista、思科、Nvidia採購,協助NVidia建立資料中心。
 Meta:對於800G需求尚在觀望,考量開發時程,實際應用到800G的時間點預期落在2024H2。
 Amazon: 考量800G交換器研發進度遞延,Amazon 800G的相關需求約至2024H2~2025才有機會見
到需求開出,2024年仍會以400G為主。

 CPO方案:目前品牌端在CPO採用上興趣不高,仍是以傳統PCB設計為主,主要考量可靠度和維修
成本。

【僅供內部教育訓練使用,嚴禁外流】 26
交換器市場:2023年將以200/400G為驅動力,800G加速
根據Dell’Oro數據,資料中心交換器市場於2022年時,產值約在157億美元,
其中100G佔43%、200G佔比4%,400G佔15%;2023年200G比重提升至
6%(YOY+75%);2023/24年400G比重提升至20%(YoY+43%)/28%(YoY+46%);2023/24年
800G佔比從1%提升到4%(YOY+394%)、14%(YOY+267%);至2027年交換器產值預估
可達到220億美元,2022-27CAGR+8%,
圖十:交換器速率營收組成&成長性預估
25,000 25.00%
1600G+ 800G 400G 200G 100G 50G 40G 25G 10G 1G YOY(右軸)

20,000 20.20% 20.00%

15,000 15.00%

10.83%
10,000 9.91% 10.00%
7.71%
5.78%
5,000 4.99% 5.00%

- 0.00%
2021 2022 2023F 2024F 2025F 2026F 2027F

【僅供內部教育訓練使用,嚴禁外流】 資料來源:Dell’Oro(202302)、福邦投顧 27
單位:百萬美元
交換器板層數大幅躍升
 資料中心需要承載流量大+高速傳輸,在此需求下,高多層板成為此需求的解決方案,
其優點在於電子元件間連線縮短下,訊號傳輸速度提高,而且也方遍佈線。
交換器在400G的層數要求在24層以上,平均是Whitley/Milan伺服器的2倍,也較100G增
加36%;進入AI/ML領域,預期800G將成為主流,800G交換器層數平均是Whitley/Milan伺
服器的2.5~3倍,較100G提升86%,但單價預估較100G增加4倍。
根據板廠和材料廠的訪查,800G交換器預計2024H2進入小量,2025年放量,主要材料廠
商為台光電,其餘韓、台系同業多屬於二~三供位置。

表十六:交換器供應鏈劃分
板層數劃分 產品 銅箔基板主要供應商 PCB主要供應商
400G 台光電
Cisco TTM、滬電股份、金像電、ISU
800G 台光電
400G 台光電
Arista TTM、滬電股份、金像電、ISU
800G 台光電
400G:24~36L 400G 台光電/Doosan 金像電、ISU
Celestica
800G:38~48L (NPO:28L) 800G 台光電/Doosan 金像電、ISU
400G 台光電 TTM、ISU、高技
Edgecore
800G 台光電 TTM、ISU、高技、金像電?
400G 台光電 TTM、滬電股份
Mellanox
800G 台光電 TTM、滬電股份
資料來源:產業調查,福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 28
交換器中對CCL特性要求更高
在交換器升級的過程中,由於高速傳輸需求,對於耗損也是嚴格規範,對於材
料的升級明顯,400G材料價格將較100G的單價增加50%,800G材料價格則會較
400G材料增加一倍以上。
表十七:各速率材料概況
100G 400G 800G 1.6T
Extreme
材料耗損等級 Very low loss (Super )Ultra low loss TBD
Ultra low loss
Df 0.005~0.006 ~0.003 ~0.002 TBD
頻率 13Ghz(NRZ) 13Ghz(PAM4) 28Ghz(PAM4) 56Ghz(PAM4)
PPO+LowK/
設計 PPO PPO+Low K Glass 碳氫樹脂+Q Glass
LowK2 Glass
平均單價/張 2,000 3,000~4000 5000+ TBD
代表型號 松下M6 松下M7 松下M8 松下M9
ThunderClad ThunderClad
TU883
3+/3/2SP/2A 4SN/4SR
競爭同業 IT 968/968G IT988G IT998GSE?
EM-528/626 EM-528K/EM-890K EM-892K/K2 實驗開發階段
產品儲備
Synamic 6/6N Synamic 8GN Synamic 9GN
DS7409DQN2/
DS7409DV(N) DS7409DJG(N)
DS8502SQ
資料來源:各公司,福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 29
AI應用之始-AI NB/PC:雲端與本地的協作
AI PC: 雲端與本地端協同合作,利用雲端的大數據處理能力來完善本地端的PC使用情
境,依賴雲端算力來提升本地端的性能。
根據聯想的定義,AI PC 能夠建立本地資料庫,執行個人大模型,支持人工智慧計算,
運用自然交換的更強大、更具創造能力的智慧生產力工具,其中最重要的是能夠使用自身
的資料庫,在保護用戶隱私安全前提下,滿足用戶客製化需求。
表十八:傳統 PC與AI PC的比較
傳統PC AI PC
硬體 依賴通用電腦硬體 整合專用AI硬體,例如CPU+NPU+GPU架構

軟體 主要使用通用的電腦軟體 透過人工智慧軟體集合300多項AI加速功能
具備更強的能耗表現和AI體驗,以實現更好的智慧
性能 效能普通,執行一般任務和娛樂
協作
效率 低,需要更多軟硬體配合 高,雲端協作
簡化操作介面
易用性 操作複雜
門檻低
應用領域 基礎辦公,資料處理等傳統功能 學習式,智慧分析預測,機器學習等
運用感測器,簡化交互,與用戶自然互動,例如語
交互體驗 仰賴鍵盤和滑鼠
音識別、免接觸等
成本 低 中 資料來源:聯想、群智諮詢、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 30
整合NPU的AI PC 晶片持續推出
NPU整合於CPU的產品,首見於Apple M1~M2晶片,M2 Ultra的算力可達31.6
Tops,AMD的7系列產品,亦整合了10Tops算力的NPU。
Intel:推出AI加速計畫,推出Meteor lake產品,預計2025年支持一億台AI
PC。
AMD:推出XDNA架構,可以離線網路和雲端在本地PC/NB執行AI工作,亦可在端~
雲的混合場景運行;8系列NPU算力達到16 Tops。
高通:透過採用混合AI架構,將雲端推理和邊緣PC運算結合,推出X
表十九:各家AI PC 用CPU整理 Elite。
Intel AMD 高通 蘋果
產品 14th Core Ultra Ryzen 8系列 Snapdragon M3
X Elite
製程 Intel 4(7nm)+ TSMC TSMC 4 nm TSMC 3nm
TSMC6/5nm 4 nm/3 nm
總算力 34 TOPS 39 TOPS 75 TOPS TBC
AI引擎算力 11TOPS 16TOPS 45 TOPS 18 TOPS
AI能力 整合NPU, 整合AI NPU, 具備處理 整合16顆NPU,具
可支持PC/NB的 較7系列提升 130億參數 備獨立執行小模型
高效AI加速和本地推理 1.6倍的AI處理能力 模型能力 能力
【僅供內部教育訓練使用,嚴禁外流】 資料來源:Intel、AMD、高通、蘋果、福邦投顧整理 31
2024年大廠AI PC/NB產品陸續問世
2024年品牌客戶將陸續推出搭載NPU核心的產品,若需要滿足Microsoft
Copilot運行需求(算力需要30-40TOPS),均要搭載獨立顯卡因應。
根據群智諮詢預估(右圖),2024年AI PC出貨量可望達到1,300萬台,至2027年
出貨量可達到1.5億台,CAGR+126%。
表二十:近期品牌廠產品彙整 圖十一:AI PC出貨量預估(百萬
ASUS Lenovo Dell HP 160 台) 90%
發佈 2023.12.15 2023.12.15 2024 CES展 2023.12.14 出貨量 滲透率
時間 140 79% 80%
型號 Zenbook14 小新Pro 2024 XPS 16 OMEN 16
70%
(UX3405MA) 120
CPU Intel Core™ Intel Core™ Intel Core™ Intel Core™ 60%
Ultra 7 155H Ultra Ultra Ultra 9 100 56%
50%
GPU Intel Arc IGPU RTX系列 RTX 4070 RTX 4070 80
155H 40%
RTX 40系列
60
記憶體 32GB DDR5 32GB DDR5 32~64GB 32GB DDR5 30%
28%
7467Mhz 7467Mhz DDR5 40
20%
硬碟 1TB 1TB~5TB(擴充) 512GB~4TB 1TB
20 10%
電池容 75Whr 84Whr 99.5Whr 97Whr 7%
量 0 0% 0%
【僅供內部教育訓練使用,嚴禁外流】 32
售價 6K RMB TBC TBC 8.4萬新台幣 2023F 2024F 2025F 2026F 2027F
2024年換機潮將現,為復甦的主要動能
福邦投顧認為,2024年PC/NB市場的復甦關鍵,在於Win10升級Win11,和AI對於規格的
要求提昇(AI Ready)所帶來的換機潮。
根據IDC 2023.8的調查指出,當前約24%大型企業用戶(樣本158家)、14%中小企業用戶
(樣本225家)已將作業系統升級至Win11,隨著Windows 10將於2025年10月停止更新下,
45%大型企業用戶和37%中小型企業用戶傾向於2024年完成升級至Windows 11。
根據IDC預估,2023年PC/NB出貨量預估達2.51億台,YoY-13.8%,2024年在換機潮和AI
PC/NB的帶動下,可望迎來復甦,預估出貨量可達2.6億台,YoY+3.4%。
圖十二:全球PC/NB出貨量預估 出貨量(左軸) 年成長率(右軸)
400,000,000 20%
17.4% 16.7%
350,000,000 15.3% 15.1% 15%
13.7% 13.6%
12.1%
11.0% 10.8%
300,000,000 10%

250,000,000 5.1% 5.9% 5%


3.2% 3.4%
2.5% -0.2%
1.7% 1.5% 1.8%
200,000,000 0.0% 0%
-2.1%
-3.7% -4.0%
150,000,000 -5.7% -5%

100,000,000 -9.8% -10.6% -10%

-13.8%
50,000,000 -15%
-16.6%

- -20%

【僅供內部教育訓練使用,嚴禁外流】 33
PC/NB 相關PCB供應要求-材料升級
載板:CPU換代時,出貨比重最高的NB(70-80%)載板變化不大;出貨量的提升,才有利載板供應商稼
動率表現,預期會以日本Ibiden(Intel)和AT&S(AMD)為主要供應商,而非市場認知的台廠同步受惠。
硬板:CCL仍以Standard loss為主,部分會有往Mid Loss升級;AI相關應用優先於商務型機種採用
下,有利出貨商務電腦的主機板PCB廠商,此類製程要求以HDI為主。
表二十一:PC/NB PCB供應要求
Intel AMD
產品 Core™ Ultra Ryzen 8000 series
PCIE 5.0 4.0
載板要求(VS.前代) DT:Intel(耗用面積+29%/10L),AMD面積維持不變(12L)
NB:面積層數維持不變(10L)
ABF供應商 • Intel: Ibiden(優先供應商/優先滿足)、Shinko、欣興、
AT&S、Semco
• AMD: AT&S(優先供應商)、南電、欣興
CCL等級要求 Standard-Loss→Mid-Loss
供應商 聯茂、南亞、台光電
主機板製程要求 6層~一~四階HDI(往商務款越高階)
供應商 金像電、健鼎、華通等
資料來源:產業訪查、各公司、Prismark、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 34
AI最全面的應用-自動駕駛
Tesla AI Day公布其軟體架構,採用BEV(鳥瞰圖)+Transformer+時間序列模型
和自動標示算法+向量地圖,來提升特斯拉的智慧駕駛軟體能力。
 Tesla FSD Beta性能隨著版本升級下,軟體性能顯著提升。

圖十五:特斯拉AI DAY自動駕駛神經網路模型 表二十二:近期FSD更新版本


FSD版本 時間 升級內容節錄
Beta 12 2023.11月 • 首次採用NPU進行車輛控制
底 • 可沿著彎道行駛、交叉路口
先停再通行、左右轉彎
• 可自動駛入/駛出高速公路
Beta 11.4 2023.5.10 • 部分切入召回率提高39%
• 車道變換到鄰近車道導致假
陽性切入的精度提高66%
• 車道變化預測誤差減少33%
• 光子控制車輛延遲提高2%
Beta 11.3 2023.2.14 • 降低神經網路目標位置預測
誤差40%,縮短執行時間3倍
• 相關車道幾何錯誤減少34%,
交叉車道錯誤減少21%。
• 行人和自行車速度誤差提高
17%
【僅供內部教育訓練使用,嚴禁外流】 資料來源:Tesla,福邦投顧整理 35
因應自動駕駛需求,特斯拉硬體持續升級
2023年4月,特斯拉發布新一代HW4.0自動駕駛域控制器,採用特斯拉自行研發
的FSD 2.0晶片,算力預期將是HW3.0 2~3倍。
表二十三:特斯拉HW1.0~4.0規格整理
HW1.0 HW2.0 HW 2.5 HW3.0 HW4.0
上市時間 2014.9~2016.10 2016.10~2017.8 2017.8~2019.4 2019.4~2023.3 ?
攝像頭(顆) 2 8 8 8 11+1(備用)
前向毫米波雷達 前向毫米波雷 前向毫米波雷達 前向毫米波雷達 4D毫米波雷達
毫米波雷達(顆)
(Bosch) 達(Bosch) (Continental) (Continental) (鳳凰/Arbe?)
Nvidia Parker Nvidia Parker
Mobileye EyeQ3 Tesla FSD 1.0 *2 Tesla FSD 2.0*2
SoC SoC*2
處理器
Nvidia Pascal
Nvidia Pascal GPU 神經網路加速器NPU*2 第二代自研NPU*2
GPU
Infineon TriCore Infineon TriCore
MCU MCU
FPS 36 110 110 2300 TBC
TOPS 0.256 12 12 144 300~500
記憶體 6GB 8GB
16GB,8xLPDDR4 32GB,16xGDDR6
娛樂系統板、自動駕駛板 CPU 和GPU 整合於
設計
獨立兩塊板子 一張PCB上
高速公路NOA、壅塞、複雜的道路都市和高速公路NOA、有交通號誌的複雜路段、
應用 高速公路和行車
環境 停車標誌等
主動巡航控制/輔
基本功能 助轉向/自動變換 車庫召喚/車道維持/自動調整車速 自動辨識紅綠燈、路標等複雜路段並自動控制
【僅供內部教育訓練使用,嚴禁外流】 36
車道/自動停車
自動駕駛所需的算力要求
當前主流搭載L2/L2+等級的算力要求達到200Tops,往L3前進下,算力要求更加提高。
表二十四:自動駕駛等級L2~L5算力需求
自動駕 名稱 算力要求 應用範圍 應用晶片
駛級別 (TOPS)
L2 組合駕駛輔助 10 ACC、LCC、AEB、APA Mobileye EQ4
Nvidia Drive PX1/2
L2+ 200 ALC、 Nvidia Drive Orin
NOA(自動輔助導航駕駛) Mobileye EQ6
Tesla FSD 1.0
L3 有條件 500 車輛特定情況有條件自動 Tesla FSD 2.0
自動駕駛 化,駕駛根據情況回應 昇騰610
L4 高度自動駕駛 2000 車輛特定情況自動化, 高通 Ride Flex
駕駛解放雙手 Nvidia Thor
L5 完全自動駕駛 / 無人駕駛 /
資料來源:CSDN、NVidia、高通、Mobileye、福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 37
電子電氣-E/E架構升级方式
Bosch汽車電子電氣架構分成三大階段,每個大階段分為兩個小階段
• 分散式架構:模組化(ECU對應單一功能)、整合化(ECU整合多功能),傳統車廠處在此階段。
• 跨域集中式架構:域內集中(域控制器對應單一域)、跨域融合(跨域控制器同時控制多個域),例
如:特斯拉等新創車廠位在此階段。
• 車輛集中式電子電氣架構: 車輛融合(一個車載中央電腦控制全車域控制器)、車輛雲端計算(更
多車輛附加功能由雲端來執行),此為終極目標(並朝向往人形機器人發展)。

圖十三:E/E電子電氣架構圖

資料來源:Bosch、福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 38
域控制器技術要求
域:指控制汽車的功能模組電子電氣架構的集合,每一個域由一個域控制器進行統一控
制,域控制器的出現,能解決分散式ECU協作性差的缺點,以下為Bosch定義的五個控制
域,其中以自動駕駛域技術含量最高。

表二十五:五大域控制域规格
控制器 晶片性能要求 計算能力 操作系統 應用方向
類型
動力域 32bit MCU 要求較低 符合CP 控制轉向/驅動等底盤
AutoSAR標準 執行單位
底盤域 32bit MCU 要求較低 控制驅動/制動/轉向等
底盤操作功能
車身域 32bit MCU 要求較低 在原有BCM上整合更多
功能
座艙域 高性能 40~200K DMIPS Linux客製化系 單一晶片多螢幕等智慧
SOC 晶片 統 駕駛艙功能
自動駕駛域 高性能AI晶片 20~1000TOPS QNX或Linux 自動駕駛感測、判斷
即時操作系統
資料來源:Bosch 、蓋世汽車、福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 39
自動駕駛控制域是汽車智慧化的重要關鍵
自動駕駛控制域是L3等級以上的關鍵:自動駕駛控制域是E/E架構中最重要的關鍵;高
等級的自動駕駛,需要處理Camera、Radar、Lidar等各種感測資訊,並在短時間完成計算
和制定決策,這類處理過程均需要透過自動駕駛控制域處理。

表二十六:域控制域構成 圖十四:自動駕駛域控制器架構
組成 功能
硬體 計算晶片 處理圖片、進行深度學習、輸出識
別結果/感測器融合/軌跡預測
Safety MCU 處理安全要求較高的資料運算
記憶體 儲存資料
散熱 氣冷/水冷散熱,提高域控制器效率
密封金屬外殼 保護
PCB 內部元件承載
插槽 外接攝像頭、雷達、光達等
軟體 底層操作系統 基礎汽車操作等

中層軟體 軟硬體協調和即時通訊 資料來源:EDN電子技術設計、福邦投顧整理

上層應用軟體 執行汽車智慧化功能
【僅供內部教育訓練使用,嚴禁外流】 40
L2+等級汽車快速發展,域控制器同步受惠
IDC(2022.8)預估2022-2026年,L1~L4等級汽車出貨量將以CAGR+14.8%的成長率,從
2021年的4,400萬台(L2+~L4 3%)成長至8,900萬台(L2+~L4 24%)。
麥肯錫(2023.1)報告指出,2020年時域控制器的產值達920億美金,預估至2025年可達
1,290億美金、2030年可達1,560億美金,2020-30CAGR+5%,其中自動駕駛域隨著L3以上的
發展下(2025/2030 10%/21%),成長最為顯著。

圖十五:全球自動駕駛汽車出貨量預期 圖十六:2025~2030域控制器市場
SAE Level 1 SAE Level 2 (單位:十億美金)
100,000.00 20
SAE Level 2+ SAE Level 3 180
90,000.00 18
SAE Level 4 整體成長率(%)-右軸 160
80,000.00 16
70,000.00 14 140
45
120 動力域
60,000.00 12
39 車身域
50,000.00 10 100 30 主動安全
40,000.00 8 80 27 29 娛樂域
26
30,000.00 6 60 底盤域
23 11
26 自動駕駛域
20,000.00 4 40
19 13
10,000.00 2 20 14 34
0.00 0 13
2021 2022F 2023F 2024F 2025F 2026F 0 0
2020 2025(F) 2030(F)

【僅供內部教育訓練使用,嚴禁外流】 41
自動駕駛下對PCB的要求
表二十七:傳統汽車與具備自動駕駛功能汽車PCB比較
傳統汽車 具備L2級別自動駕駛功能汽車
架構 分散式架構 域控制架構
晶片 ECU SOC+MCU
車規認證時間 系統級認證0.5~1年→產品認證(車廠ABC)
樣品板至車廠整車上市約2-3年
產品保證 10年+
CCL 要求 Standard loss MidLoss、雷達板(碳氫)、光達板(鐵氟龍)
供應商 聯茂、台光電、南亞、生益、Rogers等
PCB製程要求 傳統板2-6L 從傳統多層~4階HDI製程能力
毛利率 10~20% 20%~30%,越高階製程有機會到40%+
供應商 Meiko、CMK、 自動駕駛控制域-四階HDI(健鼎、定穎、TTM)
敬鵬、AT&S等 智慧座艙域-二階HDI+(健鼎、定穎、勝宏)
雷達-多層板(滬電、定穎、燿華、臻鼎)
資料來源:產業訪查,福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 42
重點PCB、CCL公司產品比重與客戶
股票代號 股票名稱 產品組合 客戶 資料來源:各公司,福邦投顧整理
2368 金像電 伺服器60% AI伺服器PCB供應能力:CPU主板、SwitchBoard、非Nvidia體系OAM加速
交換器20~25% 卡、UBB
高階產能在台灣、蘇州 伺服器:微軟、Google、Amazon、Meta、Supermicro、Dell、HP、Intel、
AI占比15~20% AMD;交換器:Arista、Cisco、Celestica
8155 博智 伺服器50~70% AI伺服器PCB供應能力:CPU主板、UBB
主要產能台灣 伺服器:Supermicro、Dell
5349 高技 網通40%、伺服器目標10% 伺服器(AI):Intel-Gaudi、Amazon-Tranium
主要產能台灣 交換器/Smart NIC :智邦(台灣廠)
3044 健鼎 伺服器20% AI伺服器PCB供應能力:CPU主板、SwitchBoard
主要產能中國無錫 伺服器:Dell、微軟、Amazon、Meta
3715 定穎 伺服器~4%,目標5~10% AI伺服器PCB供應能力:OAM
主要產能中國黃石 OAM:Broadcom、Cisco
3037 欣興 ABF 20%+(16L以上) 台廠載板(非NVidia訓練體系)領先供應商、Nvidia OAM、Mellanox網卡
HDI 19% 伺服器:Nvidia
主要產能台灣、中國 晶片:Intel、AMD、Nvidia(L40S)、Broadcom等
2383 台光電 基礎設施35~40% 全球AI GPU/ASIC/400G/800G主要M6/M7/M8材料供應商,大廠優先指定
量產供應商
伺服器:微軟、Amazon、Meta、Dell、HP
交換器:Cisco、Arista、Mellanox、Celestica、Juniper、Edgecore等
6213 聯茂 基礎設施59% AI伺服器材料供應:Nvidia L40S、雲端廠商UBB和OAM(推理型主供)、
MGX平台主要大板供應商
伺服器:微軟、Amazon、Meta、Dell、HP
6274 台燿 高速材料45% M6等級材料供應商,M7等級Switchboard二~三階供應商、M8驗證階段
伺服器:微軟、Amazon、Meta、Supermicro、Dell、HP、ZT、技嘉
交換器:Arista(打樣)等
【僅供內部教育訓練使用,嚴禁外流】 43
重點PCB、CCL公司獲利預估
股票 股票
股本(百萬) 總市值(億) 23EPS(F) 24EPS(F) 25EPS(F) 24PE 25PE
代號 名稱
2368 金像電 4,918 1,242 7.1 12.9 16.6 20 15
3037 欣興 15,251 2,631 7.8 5.8 9.1 30 19
3044 健鼎 5,256 1,154 11.7 14.4 17.3 15 13
3715 定穎 2,776 208 3.6 7.5 9.4 10 8
5439 高技 930 110 5.1 8.2 10.9 14 11
8155 博智 512 73 3.5 8.1 10.6 17 13
2383 台光電 3,439 1,795 16.2 24.2 32 22 16
6213 聯茂 3,630 322 1.9 5.9 7.8 15 11
6274 台燿 2,710 444 3.1 7.7 9.4 21 17
資料來源:福邦投顧整理預估(2024.03.07)

【僅供內部教育訓練使用,嚴禁外流】 44
謝謝指教
Q&A
【揭露事項與免責聲明】
本報告僅提供相關部門的內部教育訓練及相關人員之參考資料,並非針對特定客戶所作的投資建議,且在
本報告撰寫過程中,並未考量讀者個別的財務狀況與需求,故本報告所提供的資訊無法適用於所有讀者。
本報告係根據本公司所取得的資訊加以彙集及研究分析,本公司並不保證各項資訊之完整性及正確性。本
報告中所提出之意見係為本報告出版當時的意見,邇後相關資訊或意見若有變更,本公司將不會另行通知
。本公司亦無義務持續更新本報告之內容或追蹤研究本報告所涵蓋之主題。本報告中提及的標的價格、價
值及收益隨時可能因各種本公司無法控制之政治、經濟、市場等因素而產生變化。本報告中之各項預測,
均係基於對目前所得資訊作合理假設下所完成,所以並不必然實現。本報告不得視為買賣有價證券或其他
金融商品的要約或要約之引誘。
可能個別基於特定目的且針對特定人士出具研究報告、提供口頭或書面的市場看法或投資建議(下稱“提
供資訊”),鑑於提供資訊之單位、時間、對象及目的不同,本報告與本集團其他單位所提供資訊可能有
不一致或相牴觸之情事;本集團各單位對於本報告所涵蓋之標的可能有投資或其他業務往來關係,各單位
從事交易之方向亦可能與本報告不一致,讀者應審慎評估自身投資風險,自行決定投資方針,不應以前述
不一致或相抵觸為由,主張本公司或本集團其他成員有侵害讀者權益之情事。

You might also like