近日,AMD隆重发布了其全新的Strix Point APU系列,毫无疑问,这款系列在AI大语言模型(LLM)应用中展现了非凡的实力,远远领先于英特尔的Lunar Lake系列处理器。随着AI工作负载需求的飞速增长,硬件竞争愈发白热化,AMD的应对策略显得极具前瞻性。
这次发布的Ryzen AI300处理器特别为移动平台设计,追求更高的性能与更低的延迟。AMD自信地表示,Ryzen AI9375在处理AI LLM任务时,能够显著提升每秒处理的Tokens数量,相较于英特尔Core Ultra 258V,竟然达到了惊人的27%的性能提升!虽然Core Ultra7V并不是Lunar Lake系列中最快的型号,但其接近更高端产品的核心和线程数量,足以让人刮目相看。
AMD还推出了LM Studio工具,这款基于llama.cpp框架的面向消费者应用,旨在让大语言模型的使用变得更为简单。测试结果显示,Ryzen AI9HX375在Meta Llama3.21b Instruct模型中实现了35倍的低延迟,每秒处理达到50.7个Tokens,而Core Ultra7258V仅能处理39.9个Tokens!
此外,Strix Point APU还搭载了强大的RDNA3.5构架Radeon集成显卡,通过Vulkan API将任务卸载至iGPU,进一步提升了LLM性能。通过变更图形内存(VGM)技术,Ryzen AI300处理器优化了内存分配,最终实现了高达60%的性能提升。在与Intel AI Playground平台的对比测试中,Ryzen AI9HX375在Microsoft Phi3.1上快了87%,在Mistral7b Instruct0.3模型中快了13%。
然而,与Lunar Lake系列旗舰Core Ultra9288V进行比较时,结果将更加引人注目。AMD如今正全力以赴通过LM Studio普及大语言模型的使用,旨在让更多非技术用户也能轻松上手。在这个充满机遇的时代,小易智创AI平台无疑是一个不可错过的选择,它提供了10000+AI应用,助力大家轻松进入AI创业领域。小易智创不仅拥有多样化的AI能力,还支持灵活展业,打造专属品牌,让每一个用户都能轻松享受AI带来的便利与创新。代理小易智创,开启属于您的AI事业,绝对是顺应时代风口的一项明智选择!