NVIDIA RTX PRO 6000 Blackwell
AI 伺服器 GPU NVIDIA

NVIDIA RTX PRO 6000 Blackwell

NVIDIA RTX PRO 6000 Blackwell 台灣現貨採購。Workstation NT$345,000、Max-Q NT$335,000 起,96GB GDDR7、原廠保固 3 年。專為 AI 訓練與 LLM 推論設計,量大可議價。

  • 96GB GDDR7 ECC 大容量顯存,可載入大型 LLM 模型
  • 24,064 CUDA Cores、752 顆第 5 代 Tensor Cores
  • NVIDIA Blackwell 架構,AI 訓練與推論效能大躍進
  • NVIDIA 原廠保固 3 年|兩款版本可選(標準 600W 或 Max-Q 300W)
參考價
Workstation Edition NT$ 375,000 NT$ 345,000
Max-Q Workstation Edition NT$ 365,000 NT$ 335,000
量大採購可議價,歡迎來信討論
NVIDIA 原廠保固 3 年 開立統一發票 企業採購支援

產品規格(共用)

兩款版本共用的核心規格

GPU 架構
NVIDIA Blackwell
CUDA Cores
24,064
Tensor Cores
752(第 5 代)
RT Cores
188(第 4 代)
顯示記憶體
96 GB GDDR7 with ECC
記憶體頻寬
1,792 GB/s
記憶體介面
512-bit
匯流排介面
PCIe Gen 5 x16
顯示輸出
4× DisplayPort 2.1b

版本選擇

依工作負載與機房環境選擇合適版本

NVIDIA RTX PRO 6000 Blackwell Workstation Edition
標準版 — 極致效能

Workstation Edition

SKU: RTX-PRO-6000-WS

NT$ 375,000 NT$ 345,000 省 8%

NVIDIA 原廠保固 3 年

最大功耗 (TGP)
600W
散熱設計
雙風扇主動散熱
外型規格
Dual-slot, Full-height
適合場景
高效能 AI 訓練工作站、單卡高吞吐推論
詢問此版本
NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition
Max-Q — 效能/功耗最佳化

Max-Q Workstation Edition

SKU: RTX-PRO-6000-MAXQ

NT$ 365,000 NT$ 335,000 省 8%

NVIDIA 原廠保固 3 年

最大功耗 (TGP)
300W
散熱設計
鼓風扇 (Blower)
外型規格
Dual-slot, Full-height
適合場景
多卡並排部署、機殼散熱受限、需要降低風扇噪音的環境
詢問此版本
深度比較 · 採購指南

RTX PRO 6000 Workstation vs Max-Q:兩款怎麼挑?

Level1Techs 實測數據、整機配置成本、採購決策邏輯——10 分鐘搞清楚要選哪款

閱讀完整比較

適用情境

大型語言模型(LLM)訓練與微調

深度學習推論伺服器

AI 影像 / 影片生成

科學運算與資料分析

3D 渲染與專業視覺化

加值服務

不只賣顯卡,協助你從採購到上線

AI 導入策略諮詢

盤點哪些業務環節適合用本地 AI(客服、文件問答、流程自動化、內部知識庫),評估導入後的降本與增效效果,再決定硬體規模——而不是先買卡才煩惱用途。

工作站整機交付

依工作負載配置 GPU、CPU、主機板、電源、散熱、機殼,預裝驅動、CUDA、PyTorch、vLLM 等框架。拿到就能跑 LLM 推論,不用自己摸索硬體相容性與框架調校。

AI 應用上線與優化

從 LLM、ASR、TTS 部署,到 RAG / Agent 整合進業務系統。協助 PoC 到上線、持續優化與新場景擴充,作為長期合作夥伴。

為什麼選擇 NVIDIA RTX PRO 6000 Blackwell

96GB GDDR7:把整個大型語言模型放進一張卡裡。 對於 LLM 訓練與推論工作負載而言, 顯存容量幾乎決定了你能跑多大的模型、能用多大的 batch size。RTX PRO 6000 Blackwell 的 96GB ECC 記憶體,意味著 70B 等級的模型可以做完整 LoRA 微調、可以在單卡上載入量化後 的更大模型,也讓多並發推論 session 成為可能——不再被 OOM (Out of Memory) 限制工程設計。

Blackwell 架構:AI 工作負載的世代躍進。 第 5 代 Tensor Cores 對 FP8 / FP4 精度提供 原生加速,相較上一代 Ada 架構,訓練吞吐量與推論延遲都有顯著提升。對於要在台灣本地 部署 AI 伺服器、追求極致 TCO 的團隊來說,RTX PRO 6000 的單卡效能讓你用更少的卡達到 更高的產出。

Workstation Edition vs Max-Q:怎麼選?

選 Workstation Edition(600W) 如果你需要單卡極致效能,且機房散熱與電力充足。 適合 AI 訓練工作站、深度學習研究、單卡高並發推論。

選 Max-Q Edition(300W) 如果你要在工作站機殼裡並排 2 張卡,或者單卡但機殼散熱 不夠。Max-Q 採用鼓風扇設計(直排出風),即使兩張並排也不會互相加熱;功耗減半也讓 電源規格與整機噪音都好應付。

兩款都配備相同的 96GB GDDR7、24,064 CUDA cores 與 752 顆 Tensor Cores—— 核心效能完全一致,差別只在散熱設計與功耗目標。

典型應用場景與細節

96GB 顯存讓以下場景變得可行:

  • LLM 微調 (Fine-tuning):可容納 70B 等級模型的 LoRA 訓練,或對中型模型 進行全參數微調
  • 推論伺服器:單卡支援多並發推論 session,適合企業內部建置 LLM API Gateway
  • 深度學習研究:CV、NLP、多模態模型訓練;多卡擴展可組成中型訓練叢集
  • AI 影像 / 影片生成:Stable Diffusion XL、Flux、HunyuanVideo 等模型本地部署
  • 企業 AI 工作站:本地化部署、資料不出機房,符合金融、法律、醫療等高合規場景需求
  • 3D 渲染與專業視覺化:影視特效、產品設計、科學視覺化等高精度繪圖工作

為什麼向荔枝智慧採購

我們不只是賣卡。荔枝智慧本身就是企業 AI 導入團隊,所以你買卡時 也可以順便聊聊它要用在哪——LLM 客服、文件問答、RAG 知識庫、AI Agent 等地端應用,我們都能協助規劃與上線。

需要詳細報價或 AI 導入諮詢,請來信 support@lychee.tw, 我們會在 2 個工作日內回覆。

想了解詳細規格與報價?

Email 聯繫荔枝智慧,1 個工作日內回覆,依您的應用情境提供配置建議