7月26日,2025世界人工智能大会(WAIC)在上海世博中心盛大启幕。芯动力携全矩阵产品亮相H1-A124展位,全方面展示了芯动力在AI计算领域的最新突破,吸引了众多专业观众和行业人士驻足参观交流。
展开剩余86%左右滑动查看更多
芯动力产品全方位解读
芯动力成立于2017年,经过八年持续的技术研发与产品迭代,公司已建立起完整的AI计算产品矩阵。在本次WAIC展会上,我们充分展示了经过长期技术沉淀后的产品性能突破。
RPP-R8 AE7100E芯片 :高性能 低功耗 兼容CUDA
AE7100E芯片是基于RPP架构自主研发的一款紧凑型高性能芯片,其精巧尺寸是业界最小、最薄的GPGPU。该芯片功耗极低,可控制在10w以下,适合为终端和边缘计算设备提供强劲的AI处理能力,已适配包括Qwen、Llama、Stable Diffusion等主流大模型,为边缘设备提供高效的AI加速能力。
AzureBlade M.2智能加速卡:小体积、高性能、低功耗、高性价比M.2加速卡成AI PC致胜利器
芯动力基于RPP架构自主研发的AI芯片AE7100尺寸仅为17mm×17mm,集成了该芯片的M.2加速卡尺寸为22mmx88mm,大小与半张名片相当。 与之相匹配的是强大的性能,M.2加速卡拥有高达32TOPs的算力以及60GB/s的内存带宽,功耗也可以做到动态控制,同时可支撑大模型在笔记本电脑等设备上运行,适配了Deepseek、Llama3-8B、Stable Diffusion、通义千问,BitNet等开源模型。
在联想新一代AI PC的研发中,如何高效部署端侧大模型成为关键挑战。基于对高性能、低功耗AI加速方案的严苛需求,联想最终选择芯动力AzureBlade M.2加速卡(dNPU)作为其AI体验的核心算力支撑。
芯动力的可重构并行处理器(RPP)架构凭借其独特的计算弹性,完美适配大模型推理的高吞吐需求,同时保持极低功耗,使联想AI PC能在本地高效运行AI应用,而无需依赖云端算力。此外,dNPU的M.2形态设计使其能无缝集成于PC系统,在释放显卡压力的同时,显著提升整体能效比。
这一合作不仅是联想对芯动力技术创新实力的认可,更印证了RPP架构在大模型端侧部署领域的领先性。
AzureBlade M.2加速卡
不仅是产品的视觉展示,芯动力技术团队更是在现场通过多场景实测演示,全面展示了AE8100芯片、AzureBlade PCIe X4智能加速卡,以及AzureEdge Si7、SN5、SR8-HM边缘服务器、AI NAS等产品在实际应用中的卓越表现。
本次展会不仅全方位展示了芯动力的技术实力与创新成果,更收获了来自行业专家、合作伙伴及专业观众的高度认可。现场热烈的互动、深度的技术探讨以及众多合作意向的达成,印证了我们在AI芯片领域的领先地位。观众对产品性能的肯定、对团队专业能力的赞赏,以及对未来合作的热切期待,都成为我们持续突破的动力。
展会的结束,是芯动力新征程的开始。我们将继续深耕技术创新,加速产品迭代,与行业伙伴携手推动国产算力的发展。感谢每一位到访的观众,您的信任与支持,将激励我们不断超越,共同开创AI芯片赋能千行百业的新未来!
来源:芯动力AZURENGINE公众号
发布于:江西省网眼查-免费配资-配资平台官网网址-好的配资平台提示:文章来自网络,不代表本站观点。