近日,科技圈愛好者問起最多的一句話就是:“你‘養龍蝦’了嗎?”一只“龍蝦”以超乎想象的速度爆火出圈。這只“龍蝦”是一款名為OpenClaw的開源AI智能體,因其圖標酷似一只紅色龍蝦而得名。用戶親切地把部署、訓練、使用OpenClaw的過程稱為 “養龍蝦”。OpenClaw的強大之處在于,它主打一個“真正能干活的AI”——自動整理文件、跨應用協同辦公、編寫代碼、抓取網頁信息……把用戶從重復勞動中解放出來。想要養這樣一只能干又聰明的“龍蝦”,自然需要高性能的硬件來支撐。銘瑄 Intel Arc Pro B60系列顯卡,憑借原生支持的推理軟件棧LLM-Scaler-vLLM與硬核算力,打造OpenClaw 軟硬一體解決方案,成為 “養龍蝦” 的更佳算力伙伴,讓本地 AI 智能體部署更輕松、更高效、更具性價比!

深度適配 Qwen3.5,AI 體驗拉滿
Intel Arc Pro B60的推理軟件棧LLM-Scaler-vLLM目前已適配 Qwen3.5 大模型,原生支持256K 超長上下文,處理百萬字長文檔、大篇幅數據分析、超長指令任務時毫無壓力;同時實現32Token/S 高吞吐量,指令響應速度快,交互體驗流暢,讓 “龍蝦” 的思考與執行更高效。
原生多模態支持,更適合“養龍蝦”
銘瑄 Intel Arc Pro B60 系列顯卡原生支持文本、圖像、視頻多模態輸入,讓OpenClaw不僅能處理文字類任務,還能直接解析圖片、視頻內容,解鎖圖片分析、視頻剪輯輔助、多模態內容創作等更多場景,讓 “龍蝦” 的能力邊界持續拓展,適配更豐富的實際應用需求。

大模型的推理、量化、多模態處理都對顯卡的顯存提出了挑戰。隨著內存價格的上漲,用戶想要獲得更高性能,裝機成本也相對更為高昂。動態量化是讓大模型在有限顯存上運行的關鍵技術,但傳統方式往往需要先將權重加載到內存再轉換,導致顯存占用高、速度慢。銘瑄 Intel Arc Pro B60系列顯卡通過設置環境變量,能大幅降低模型在動態量化時的內存占用,從而實現在維持運行性能的同時,降低整機內存成本。

如圖所示,在未設置環境變量時,雙卡MAXSUN Intel Arc Pro B60 Dual 48G 顯卡運行Qwen3-32B模型需要內存64G,而設置環境變量后只需要24G即可運行;四卡MAXSUN Intel Arc Pro B60 Dual 48G 顯卡運行DeepSeek-R1-Distill-Llama-70B模型需要內存192G,而設置環境變量后只需要64G即可運行。換而言之,在設置環境變量后,分別只需要24G和64G即可運行模型,整機內存成本預計降低60%!(Intel Arc Pro B60的LLM-Scaler-vLLM軟件棧通過設置環境變量:export VLLM_OFFLOAD_WEIGHTS_BEFORE_QUANT=0
支持直接將模型權重載入顯存進行動態量化)

快來選擇銘瑄 Intel Arc Pro B60系列顯卡,輕松養出你的高效能 “龍蝦” 吧!
*注:文中所示數據來源銘瑄實驗室,實際可能存在部分差異