超微電腦(NASDAQ: SMCI)正在服務器市場下一盤新棋。4月28日,這家公司更新了數據中心模塊化解決方案(DCBBS),推出基于Arm架構的服務器平臺和符合OCP ORv3標準的機架產品。核心賣點很明確:用Neoverse V3技術打造的Arm AGI CPU,主打"每瓦性能"——說白了,就是讓AI算力更省電。
這次發布有20多款OCP風格系統,邏輯是模塊化、可擴展,降低開放數據中心的部署門檻,同時把計算密度拉滿。液冷是重頭戲。FlexTwin雙節點平臺塞進1U機箱,配上Supermicro自研的DLC-2液冷方案,號稱能帶走CPU、內存和VRM上90%的熱量。這對下一代AI的散熱壓力是個直接回應。
![]()
GPU側也有動作。新款2U GPU系統兼容OCP ORv3機架,集成了NVIDIA HGX B300 8-GPU平臺,瞄準大規模AI訓練和推理的帶寬需求。Arm產品線覆蓋2U和5U兩種規格,最高136核、6TB DDR5內存——單看數字,這是要搶云基礎設施的蛋糕。
超微的業務版圖可以拆成幾塊:液冷/風冷AI服務器、存儲系統、5G/IoT/邊緣嵌入式設備,以及各類刀片和多節點系統(SuperBlade、MicroBlade、FlexTwin、GrandTwin、BigTwin),還有Hyper、CloudDC、WIO等機架方案和MicroCloud服務器系統。這次新品屬于現有產品線的延伸,而非開辟全新戰場。
股價層面,SMCI目前被部分投資者視為"50美元以下值得關注的AI股"。但需注意,原文在披露部分提到,作者認為存在"上漲空間更大、下行風險更小"的其他AI標的,并推薦了一份關于"受益于特朗普關稅和回流趨勢"的短期AI股免費報告——這屬于投資觀點披露,不構成對SMCI的買入建議。
行業背景上,Arm架構進數據中心不是新故事,但AI算力需求讓"能效比"重新成為硬指標。超微選擇此時加碼Arm+OCP組合,邏輯是清晰的:一方面蹭AI基礎設施的建設周期,另一方面用開放標準對抗傳統x86陣營的封閉生態。液冷方案從可選變成標配,也說明功率密度已經逼到了物理極限。
值得觀察的變量:OCP生態的實際采納速度、Arm芯片在AI訓練場景的真實性能表現,以及液冷部署的成本回收周期。超微的模塊化策略能否轉化為市場份額,接下來幾個季度的訂單數據會更誠實。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.