![]()
2026年4月30日,威聯通(QNAP)正式發布QAI-h1290FX邊緣AI存儲服務器。該產品精準定位私有部署場景,專為私有部署大語言模型(LLM)、檢索增強生成(RAG)搜索引擎及各類生成式AI應用量身打造,助力企業實現AI本地化高效部署。
該服務器搭載威聯通基于ZFS文件系統開發的QuTS hero企業級操作系統,具備企業級數據完整性保障、近乎無限次快照及內聯重復數據刪除能力,有效守護AI數據安全與可用性,避免數據丟失或損壞。
依托QNAP Container Station(容器工作站)可實現容器原生顯卡直通,借助Virtualization Station(虛擬化工作站)可為虛擬機分配顯卡透傳資源。IT運維團隊、開發者及科研人員可靈活運行推理模型、生成式AI應用與RAG業務流程,全程自主掌控性能調度與資源分配,適配多樣化使用需求。
![]()
設備預裝精選多款AI工具,包括AnythingLLM、OpenWebUI、Ollama等,可快速搭建私有大語言模型業務流程,實現開箱即用;同時還在持續整合Stable Diffusion、ComfyUI、n8n、vLLM等主流AI應用,進一步拓展功能生態,助力用戶在安全、可擴展、完全自主可控的環境中,快速搭建本地AI平臺并實現工作流自動化。
產品核心特性
1、搭載16核 AMD EYPC 7302P處理器
擁有32線程服務器級算力,可高效適配AI推理、虛擬化及高并發重載并行業務負載,為各類AI任務提供穩定、強勁的算力支撐,確保多任務同時運行時依然流暢高效。
![]()
2、全閃存存儲架構
配備12個U.2 NVMe/SATA固態硬盤插槽,為高頻AI模型運行、海量數據流轉提供極速IO讀寫支撐,有效降低AI任務延遲,大幅提升模型加載、數據處理的整體運行效率。
3、專業顯卡適配架構
可選配英偉達RTX PRO 6000 Blackwell Max-Q專業工作站顯卡,最高搭載96GB顯存,支持CUDA、TensorRT及Transformer引擎加速,可大幅提升本地大模型推理、AI圖像生成及深度學習任務的運行效率,輕松應對高負載AI應用場景。
4、容器化AI環境與顯卡資源管理
![]()
兼容Docker、LXD容器架構,支持可視化顯卡資源分配,操作便捷高效;內置AI應用中心,可一鍵啟動各類AI工具,無需復雜命令行配置即可完成顯卡資源精準調配,降低IT運維及開發者的操作門檻。
5、純本地部署 零云端依賴
可私有化部署AI對話助手、文檔搜索引擎、企業知識庫等核心應用,確保敏感數據全程在內網留存,保障數據主權與隱私安全,同時顯著提速AI業務流程,避免云端傳輸延遲與數據泄露風險。
6、高速網絡與可擴展架構
![]()
標配雙25GbE+雙2.5GbE高速網口,PCIe插槽支持選配升級100GbE網絡,滿足高帶寬AI數據傳輸需求;同時兼容威聯通JBOD擴展柜,可靈活擴容存儲容量,適配大規模AI數據存儲場景,兼顧當下需求與未來擴展。
典型應用場景
1、企業內部AI助手/本地對話交互界面
該服務器可用于搭建私有化AI對話入口,用于企業知識查詢、員工培訓、規章制度問答,全程自主管控數據與服務,保障企業內部信息安全,提升員工辦公效率。
2、企業檢索增強生成(RAG)搜索
依托私有RAG業務鏈路,對合同、報表、內部文檔等企業核心數據進行快速語義檢索與智能解析,快速挖掘關鍵信息,提升信息獲取效率與準確性。
![]()
嗯嗯嗯3、創意團隊AI圖像生成
可用于部署Stable Diffusion、ComfyUI等專業工具,賦能AI設計工作流與視覺內容創作,助力創意團隊提升產出效率與作品質量,降低設計成本。
4、AI驅動IT自動化運維
通過n8n平臺實現推理任務、內容生成、告警通知等流程自動化,將AI能力無縫融入企業業務流程,降低IT運維成本,提升運維效率與響應速度。
總體而言,借助QAI-h1290FX,威聯通為企業提供了一套實用、高性能且高安全的本地化生成式AI部署方案。無論是法務、人事、創意設計還是IT運維等不同場景,該產品都能助力團隊提升工作效率、滿足行業合規要求,并在邊緣側牢牢掌控自身AI戰略布局與數據主權。
小編將在第一時間分享更多相關最新動態和爆料,敬請關注。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.