一站式配齐、深度优化
成本可控,数据不出域,隐私与性能兼得,OpenClaw 部署的终极保险箱
管
1Panel 运维面板
1Panel 提供直观易用的 Web 管理界面,让用户轻松部署和管理 AI 智能体和模型。
知
MaxKB AI 知识库
高效构建部门专属AI知识库,支持多种格式的文档导入, 支持文本自动拆分和向量化。
智
能做事的 AI 助理
支持 OpenClaw / CoPaw 多实例同时运行,支持对接国内主流聊天软件,内置常用 Skills。
模
本地 AI 模型
基于 vLLM 运行 Qwen3.5-35B-A3B-FP8 多模态模型,智能密度高,并发效率高。
硬
FusionXpark 硬件
巴掌大小的 AI 超算:128GB 统一内存、NVIDIA Blackwell GB10、1 PFLOPS 算力、2TB 存储,1.2kg,办公桌即放即用。
一体机价格
飞致云 联合 超聚变 为用户带来专属限时优惠
硬件
FusionXpark™ GB 10
巴掌大小的 AI 超算,仅 1.2kg
128GB 统一内存、2TB 存储
NVIDIA Grace Blackwell GB10,1 PFLOPS 算力
* 含一年硬件保修
服务
专属交流群
应用场景交流
最佳实践分享
同行业案例分享
* 5x8 线上支持
限时优惠中....
扫码立即咨询
微信扫码咨询
硬件规格
FusionXpark™ GB10 详细参数
| 规格名称 | 规格参数 |
|---|---|
| 架构 | NVIDIA Grace Blackwell |
| GPU | Blackwell 架构 |
| CPU | 20 core Arm, 10 Cortex-X925 + 10 Cortex-A725 |
| CUDA Core | 6144 |
| Tensor Core | 第五代 |
| Tensor 性能 | 1 petaFLOP |
| 系统内存 | 128 GB LPDDR5x,统一系统内存 |
| 显存接口 | 显存带宽 | 256 位 | 273 GB/s |
| 存储 | 2 TB NVMe M.2(自加密) |
| USB | 4 个 USB4 Type C |
| 以太网 | 1 个 RJ-45,10 GE |
| NIC | ConnectX-7 Smart NIC |
| Wi-Fi | Wi-Fi 7 |
| 蓝牙 | BT 5.4 |
| 显示器接口 | 1× HDMI 2.1a |
| 重量 | 1.2 kg |
| 尺寸 | 150 mm × 150 mm × 50.5 mm |
| OS | 预装 NVIDIA DGX OS |
本地 AI 模型 性能
基于同款硬件的 Qwen3.5-35B-A3B 实测数据,开源可复现
推理速度(vLLM,BF16)
| 场景 | 输出长度 | 速度 |
|---|---|---|
| 短回复 | 128 tokens | 约 31 TPS |
| 中等回复 | 1,024 tokens | 约 32 TPS |
| 长回复 | 3,831 tokens | 约 32 TPS |
首 token 延迟约 0.1s,输出长度变化下速度稳定
多用户并发(RAG 场景)
| 并发用户 | 适用场景 | 总吞吐 |
|---|---|---|
| 5~10 人 | 小团队助手 | 65~82 TPS |
| 20~50 人 | 部门级部署 | 186~308 TPS |
| 100 人 | 企业峰值 | 约 424 TPS |
200 token 回复、思考模式关闭,零错误完成
能力与基准
- · 35B 总参数、3B 激活(MoE),推理成本低
- · 原生 262K 上下文,可扩展至 1M+
- · 多模态:文本、图像、视频输入
- · 思考模式、工具调用 / MCP
- · MMLU-Pro 85.3、GPQA Diamond 84.2
- · 经典推理题全通过,Apache 2.0 开源
数据来源:Qwen3.5-35B-A3B on NVIDIA DGX Spark、【实测】NVIDIA DGX Spark 本地部署 Qwen3.5-35B-A3B-FP8 完整教程
Model Card:Huggingface: Qwen3.5-35B-A3B-FP8