当前位置: 网站首页 > 手机 > 详情

ai吃内存还是cpu(ai cpu)

2024-04-11 13:47:28 手机 0

1 月18 日消息,TrendForce 近日发布报告,预计2024 年全球AI 服务器(包括AI Training 和AI Inference)数量将突破160 万台,同比增长超过40%。

2025年开始普及

TrendForce认为,部分厂商将在2024年下半年推出AI PC(算力40 TOPS),而随着Intel于2024年底前推出Lunar Lake,AI PC预计将越来越多2025年流行。

ai吃内存还是cpu(ai cpu)

注:TOPS 是Tera Operations Per Second 的缩写。 1TOPS 意味着处理器每秒可以执行一万亿次运算(10^12)。

TrendForce集邦咨询认为,推动AI PC商用与落地的主要力量有两股:

首先,是终端应用需求驱动。微软通过Windows、Office等软件产品集成各种AI功能,推动AI PC的发展。

其次,英特尔通过AI PC推广CPU+GPU+NPU架构,推动各类终端AI应用的发展。

Arm要挑战X86

在处理器方面,Snapdragon ; Intel去年12月推出的Meteor Lake,CPU+GPU+NPU算力仅为34 TOPS,达不到微软的要求。今年即将推出的Lunar Lake预计将超过40 TOPS。

值得注意的是,未来高通、英特尔和AMD对于AI PC的竞争也将影响x86和Arm两大CPU阵营在Edge AI市场的竞争。

戴尔、惠普、联想、华硕、宏碁等各大主机厂将在2024年陆续开发搭载高通CPU的机型,试图瓜分AI PC蛋糕,这将对X86阵营构成一定的威胁。

内存要 16GB起步

从微软现有的AI PC规格来看,DRAM的基本需求从16GB开始。长远来看,TrendForce认为AI PC将有机会带动PC DRAM需求增长,其次是消费者需求。更新换代浪潮增加了业界对PC DRAM的比特需求。

内存均采用 LPDDR5x

此外,在满足微软定义的NPU 40 TOPS的CPU方面,有3种型号,从出货时间来看分别是高通Snapdragon X Elite、AMD Strix Point和Intel Lunar Lake。其中,三款CPU的共同点是都采用了LPDDR5x,而不是目前主流使用的DDR SO-DIMM模块。主要考虑的是提高传输速度;就DDR5规格而言,目前的速度为4800-5600Mbps,而LPDDR5x则落在7500-8533Mbps之间,这对于需要接受更多语言指令并缩短响应速度的AI PC将有所帮助。