专为大众而生的 一站式GenAI落地训练及高效推论解决方案

量身定制,预算无压力
简单易用,一键部署
数据隐私,安全无忧

经济高效

aiDAPTIV+ 能够实现 HBM、GDDR 内存与成本效益更高的闪存之间的动态资源调配,有效降低硬件开支,同时大幅减少模型训练对昂贵且高耗能 GPU 显卡的依赖

它将大型数据集保存在本地,避免了将数据传输到其他地方进行处理所产生的成本。

aiDAPTIV+ 能够实现 HBM、GDDR 内存与成本效益更高的闪存之间的动态资源调配,有效降低硬件开支,同时大幅减少模型训练对昂贵且高耗能 GPU 显卡的依赖

它将大型数据集保存在本地,避免了将数据传输到其他地方进行处理所产生的成本。

轻松上手

无论在家中、办公室、教室还是数据中心,都可轻松部署。设备小巧,仅需普通电力和冷却设备即可运行。

支持命令行操作与直观图形界面,内置多种功能套件,助您轻松完成模型导入、微调、验证与推理。

Easily deploys in your home, office, classroom or data center with a small footprint while using commonplace power & cooling.

 

Offers command line access or intuitive GUI with all-in-one toolset for model ingest, fine-tuning, and validation and inference.

数据隐私保障

支持在防火墙内进行大语言模型 (LLM) 训练,全程掌控私人数据,确保符合数据隐私合规要求,使用更安心。

快速、私有的地端推理,随处部署

相较于云端运算,aiDAPTIV+ 可在本地 PC 与边缘设备上运行大型语言模型(LLMs),以更低的成本、更少的计算资源与更低的功耗完成推理。同时提升响应速度,并支持更多上下文内容,以提供更精准、定制化的回答,并确保数据保持私有性与主权可控。

模型训练尽在掌握

为个人和企业提供具成本效益的 AI 训练平台,不仅助您掌握推理技术,更能深入学习模型微调。有效解决 LLM 训练技术人才短缺问题,让您轻松使用自有数据进行训练。

释放IoT边缘运算及机器人技术

NVIDIA Jetson IoT 设备搭载群联 aiDAPTIV+ 技术,不仅可以进行 LLM 训练,还能加速首次 token 召回的时间,提高推论性能,并通过增加 token 长度,增强上下文识别,提供更长且更精确的回答。

AI笔记本电脑

搭载 GPU 及群联 aiDAPTIV+ 技术的 AI 笔记本电脑,让用户可以在家中、办公室或教室学习如何训练 LLM。此外,您也能在本地运行训练过的 LLM,并通过模型扩充其数据,使其提供更为量身定制的推论应答。使用 aiDAPTIV+ 技术还能提升提示召回时间,并提供更多的上下文空间,进而产生更长且更精确的回复。

LLM训练应用场景

地端 LLM 训练帮助企业及个人将特定领域的数据整合进通用知识模型中,提高模型在如医疗诊断、财务预测、法律分析及产品开发等各类专业领域的可用性、相关性及准确性。

群联 aiDAPTIV+大语言模型训练整合方案

使用命令行或aiDAPTIV+ Pro Suite进行LLM训练

模型支持

  • Llama, Llama-2, Llama-3, CodeLlama
  • Vicuna, Falcon, Whisper, Clip Large
  • Metaformer, Resnet, Deit base, Mistral, TAIDE
  • 更多模型将持续加入
and/or

内置高效内存管理方案

体验无缝的 PyTorch 兼容性,无需调整 AI 应用程序即可轻松扩展节点。系统供应商可获得 AI100E SSD、Middleware 中间件授权及群联全方位支持,助您顺利完成系统整合

and

无缝扩展 GPU 内存

通过 aiDAPTIVCache 和优化的中间件扩展 GPU 内存,为 PC 提供高达 320GB 的额外容量,工作站和服务器最高可扩展至 8TB,支持低延迟 LLM 训练。同时具备行业领先的 100 DWPD 高耐用性,结合专业 SSD 设计和先进 NAND 纠错技术,提供更具竞争力的解决方案。

无缝整合

  • 优化的中间件以扩展 GPU 内存容量
  • 2x 2TB aiDAPTIVCache,支持70B模型
  • 低延迟

高耐久度

  • 业界领先,高达100次的五年内每日写入次数(DWPD)
  • 采用业界先进NAND 纠错算法的SLC NAND

加强推论

aiDAPTIV+ 能通过加速首次召回 Token 的时间来实现更快速的响应,提升推理使用体验,同时延长 Token 长度,提供更丰富的上下文,从而生成更长且更准确的回答。

释放模型无限潜能

aiDAPTIV+ 通过整合闪存与 DRAM,提供更大的内存资源,使模型规模不再受限于 GPU 显卡的 HBM 或 GDDR 内存容量

这让您能够训练更大规模的模型,并以更具性价比的方式完成过去仅大型企业和云服务供应商才能承担的计算任务

其他资源

行业支持

技术支持

群联提供专属技术支持,覆盖 aiDAPTIV+ 产品从实施到持续运行与优化的整个生命周期。专业团队为您提供快速故障排除、固件调优和性能优化服务,确保系统顺利整合并达到最佳性能。借助 AI 工程师的专业协助与工具,群联的 aiDAPTIV+ 客户及合作伙伴可加速产品商业化进程,最大化 AI 项目的投资回报

Phison’s dedicated technical support offers end-to-end assistance for aiDAPTIV+ throughout the entire product lifecycle, from initial implementation to on-going operation and optimization.

 

Our team of experts provides rapid troubleshooting, firmware adjustments, and performance tuning to ensure seamless integration and maximum product efficiency.

 

With access to our support engineers and cutting-edge tools, Phison’s aiDAPTIV+ customers and partners can accelerate time-to-market while maximizing return on investment for their AI workloads.