近期,外媒评测对比了AMD Ryzen 7 7840U(15W)和Intel Core Ultra 7 155H(28W)两款处理器,主要是进行大语言模型(LLM)性能的较量,特别是在Llama 2和Mistral Instruct 7B测试上。结果表明AMD的解决方案在速度、功耗及成本上均显著优于Intel,尤其在本地AI处理能力上更是领先于Intel。
在此次对比中,采用了包括“首个令牌响应时间”和“每秒令牌处理速度”在内的多种性能衡量标准,结果全面展现了Ryzen处理器的强劲表现。特别值得一提的是,AMD强调,其最新的Ryzen芯片能够协同使用NPU、RDNA 3 GPU和Zen 4 CPU三种核心,实现本地AI加速。在AMD演示中,一位高管指出,正是Zen 4 CPU核心内置的AVX512和VNNI加速技术决定了此次测试的结果。
测试是在安装了LM Studio软件的笔记本电脑进行,LM Studio无需联网即可本地运行多种LLM。此次测试利用了Llama 2和Mistral Instruct 7B完成了包括多次编故事、在Unity中创建弹跳球演示和作诗等任务。其中,Llama 2是由Meta开发的尖端LLM,Mistral Instruct 7B则是由前Meta及DeepMind的开发者打造,拥有73亿参数的LLM。
针对这些测试结果,Intel已经意识到其Meteor Lake系列在AI性能上的不足,并官方预告其下一代的Arrow Lake和Lunar Lake处理器在GPU和NPU上的AI性能将提升三倍,预计这些新一代的笔记本及桌面处理器将在今年晚些时候推出。
AMD还推出了一篇博客,详细介绍了如何在本地设备上运行LM Studio和各种LLM的指南,无论是“AMD Ryzen AI PC”还是装有Radeon RX 7000系列或更新GPU的PC,均能轻松上手。这为用户在确保隐私的同时,享受无需订阅和网络的本地LLM运行体验,提供了极大的便利。
通过这次的性能测试,AMD不仅证明了其在AI领域的竞争力,也为用户提供了一个更快速、更节能、更经济的本地AI处理方案。同时,Intel对未来产品的持续改进和承诺,也展示了其在AI性能竞争中追赶的决心。
0 comments:
New comments are not allowed.