• < 返回列表

    【客戶案例】ALINX VD100低功耗端側大模型部署方案,運行3B模型功耗僅5W?!

    2025-09-03

    大模型能運行≠用戶體驗好。

     

    IDC 預測,到 2026 年,全球超過 50% 的企業 AI 工作負載將部署在邊緣設備上。在 AI 部署逐漸從云端轉向邊緣端的趨勢下,越來越多智能終端開始嘗試在本地運行完整模型,以降低延遲、保護隱私并節省通信成本。但真正落地時卻發現:功耗吃緊、模型裁剪嚴重、開發流程繁瑣,使得“能運行”遠遠達不到“用得好”。

     

    基于 ALINX VD100 開發平臺,客戶打造出一套面向 AI 終端的大模型部署方案,實測可支持 8B 模型運行、運行 3B 模型功耗僅 5W,推理速度達 12 tokens/s,遠優于市面同類產品。

      

    VD100-3.jpg


    本方案基于 AMD Versal ACAP 架構,通過硬件架構、推理框架、模型壓縮等多個層級的全棧優化,顯著提升大模型端側部署的能耗比。


     

    可重構數據流硬件架構

    → 在同等功耗下,平臺可以支持更多模型層級與更大參數規模。

     

    自研開發工具鏈

    → 快速搭建模型、開發體驗友好。

     

    優化推理運行

    → 讓模型跑得穩,持續運行不掉鏈子。

     

    敏捷開發推理框架

    → 優化大模型推理流程,實現敏捷開發,遷移更快,體驗更流暢。

     

    模型壓縮

    → 模型輕巧運行穩,真正適配邊緣與終端AI場景。

     

     

    實測效果

    5W 功耗實現行業領先推理性能

     

    基于 ALINX VD100 平臺實測,模型運行結果如下:

     18 (1).png

    完整實測報告和對比報告,聯系 ALINX 獲取。

     

    應用場景

    AI 終端的可能性不止于你想象

     

    這套端側大模型部署方案已在多種高要求場景中落地:

     

    如果你也在評估“端側+大模型”,

    歡迎和我們聊聊

     

    如果您正在:

     

     

    歡迎聯系我們,掃碼留下您的需求信息,獲取完整技術白皮書、項目評估與對接服務。


     客戶信息登記表.png

     


    Copyright © 芯驛電子科技(上海)有限公司 All Rights Reserved 滬ICP備13046728號

    国产精品久久久久精品日日