群联电子于CES 2026宣布,将其独家专利的aiDAPTIV+ 技术正式延伸至集成式GPU(iGPU)的PC架构。此项技术突破让笔记本、台式机及迷你计算机等主流设备,能以更低的门槛解锁大型AI模型的运算潜能,标志着边缘AI(Edge AI)普及化的重要里程碑。

NAND Flash转化为AI内存,突破边缘运算瓶颈

随着边缘AI需求日益复杂,市场急需可负担且能运行于日常设备的解决方案。群联电子宣布凭借25年在NAND控制芯片领域的深厚实力,开发出aiDAPTIV+ 方案,其核心技术在于将NAND Flash作为AI延伸内存使用。这不仅有效解决了市场上内存资源短缺的痛点,更让大型AI模型得以在本地端进行推论(Inference)与微调(Fine-Tuning)。

群联与宏碁(Acer)的深度技术合作充分验证了此技术的威力。通过工程优化,aiDAPTIV+ 让原本需要极大内存才能运行的gpt-oss-120b等大型模型,在仅配备32GB内存的Acer笔记本上顺利运行,大幅提升了用户与设备端Agentic AI互动的流畅度,无论是智能查询或生产力应用皆有显著进步。

三大关键优势,成本、性能与规模的全面提升

群联在展览期间揭示了aiDAPTIV+ 在实际应用中的三大核心价值:

  1. 显著降低总持有成本(TCO):在Mixture of Experts (MoE) 架构下,aiDAPTIV+ 将原本依赖昂贵DRAM的需求转移至成本较低的NAND存储缓存。测试显示,处理120B参数模型时,DRAM需求可从96GB大幅降至32GB,极大扩展了可支持AI的硬件平台范围。
  2. 推论性能大幅加速:通过优化KV cache的存储机制,该技术能将已计算的token存储于NAND中,避免重复计算,使推论回应速度最高提升达10倍,并同步降低功耗。初步测试在Time-to-First-Token (TTFT) 表现上有显著改善。
  3. 小型设备处理大型模型的能力:结合Intel Core Ultra Series 3(内置Intel Arc GPU),aiDAPTIV+ 让笔记本也能进行70B参数模型的微调训练。过去这类工作通常需要依赖成本高出10倍以上的专业工作站或数据中心服务器,现在则让学生与开发者能以低廉成本取得强大算力。

业界生态链共襄盛举,驱动AI普及化

群联电子首席执行官潘健成表示,内存需求已成为AI普及的关键挑战,群联通过aiDAPTIV+ 成功突破iGPU的运算限制,让AI模型能真正落实于日常使用的PC中。他强调,这能让企业与个人在兼顾成本、性能与隐私的前提下,加速AI的应用落地。

此次CES展场上,包含Acer、Corsair、MSI、NVIDIA、ASUS与Emdoor等多家合作伙伴均展示了集成aiDAPTIV+ 的相关系统。其中,MSI现场展示了如何利用此技术加速会议记录摘要等线上AI应用场景。

(首图来源:群联提供)