欢迎来到亿配芯城! | 免费注册
你的位置:DATEL半导体IC芯片模块采购平台 > 芯片资讯 > 什么是AI PC、AI手机?AI PC和AI手机出现的来龙去脉
什么是AI PC、AI手机?AI PC和AI手机出现的来龙去脉
发布日期:2024-01-19 08:29     点击次数:162

AI PC和AI手机出现的来龙去脉。 相信大家现在每天经常可以在报章媒体上看到“AI PC”、“AI 手机” 这两个词吧?特别是财经新闻,这几个月时不时就可以看见哪一只股票又因是AI PC 概念股上扬之类。有的报道中甚至表示2024 年是“AI PC 元年”。

你会不会好奇,这些大厂或者是报章杂志整天在喊的AI PC、AI 手机, 到底是什么?他们跟一般的PC、手机,又差在哪边?这篇文章就是要用最通俗的方式告诉你,AI PC、AI 手机,他们为什么会出现的来龙去脉,以及未来可能的发展方向。

顾名思义AI PC、AI 手机就是可以运行人工智能的PC 跟手机。但没有这么简单,不然现在就算是一台配备普通中低端手机,不都可以通过app 或浏览器,用上ChatGPT、Bard 或是DALL-E、Midjourney 等AI 了吗?

现在大家在喊的AI PC、AI 手机,最简单的定义就是“不用连网,就可以在本机端运算AI 模型的PC/手机”。

相信就有的读者会问了:“跑AI 模型?那不是有GPU/显卡就可以跑了吗?”理论上没错,其实有一张不错的消费级显卡,就很够拿来跑许多一般中小型AI 模型了。

不过,这是不考虑一台电脑效能功耗比的状况下所得出的结论。现在大厂们喊的AI PC、AI 手机,其实就是装了NPU(神经网络处理器)的PC/手机。

这里跟不太熟的读者们稍微科普一下:我们现在所熟悉的AI 模型,像是前面提到ChatGPT 或是DALL-E,背后通通都是“神经网络模型”所写出来的,这是一种模仿人脑的系统,人脑中我们是使用神经元接收、发送讯息,而在神经网络中,是使用数学上的模型来模仿这种行为。

NPU 就是专门拿来算神经网络模型的芯片,单一“块”NPU 跟一块GPU 的算力,当然是GPU 强,但单一“块”NPU 的成本、能耗又小又便宜,拿来跑AI模型的话可以好好分担GPU 的工作量。

简言之,就是Intel、AMD高通以及联发科这些大厂看准了未来AI 模型会走进每个人的电脑与手机里,纷纷推出了“CPU+GPU+NPU”的架构,反正多多益善,何乐不为?但为什么会是“现在”2023-2024 之际,这些大厂才推出这种三层运算架构的产品呢?

一言以蔽之:大型语言模型(LLM)。更精确的说,是Meta(Facebook)在消费市场上开了这扇大门。在ChatGPT 掀起生成式AI 的狂潮之后, 众多科技大厂(特别是网络跟软件这端) 开始猛起直追, 纷纷加大投入大型语言模型研究。在这些大厂之中,Meta 比较特别,走了一条开源的路,把它的LLM“LLaMA”让各机构提出申请,以非商业授权使用。

不过说来也很崎岖, 电子元器件采购网 LLaMA 没几天就意外外流,让有意的使用者都能下载到使用,再过几天事情快速发酵,陆续有人把容量比较小的LLaMA 装在Mac、Google 手机Pixel,甚至还装在Raspberry Pi 4 上,大家瞬间了解到就算技术上还有很多待突破的地方,但要把LLM 装在终端装置上,是可行的。也是从这一刻起,Meta 主动意识到大有可为,在随后7 月发布新版Llama 2 第一时间就宣布已跟高通携手,要把Llama 2 积极带进智能手机、 PC 等终端装置。

再说通俗一点:这波AI PC、AI 手机风潮,是被Meta、高通有意带动起来的。高通去年也凭借这股底气,用Snapdragon X Elite 正式向苹果、AMD、Intel 下战帖,不然像AMD,也是早早就有Ryzen AI 摆在那边。

不然NPU 说白了也不是全新玩意,像是苹果很早就开始在用了,早在什么时候呢?早在2017 A11 Bionic,那还是iPhone 8 就有非图形专用的神经处理单位。然后苹果不管是在手机、电脑,只要是自己研发的芯片,每年都越塞越多颗NPU,理论上来说他们才是AI PC、AI 手机的鼻祖。至于非消费者端的部分,Google 就更早了,早在2015 年Google 就开始偷偷把自己设计的TPU 用在数据中心。

那到底AI PC、AI 手机会是真主流,还是只是又一场泡沫?这是一个很难现在就用yes 或no 二分法回答的问题,其一是因为这个问题,其实已经在2018 年“计算摄影”(也就是AI 优化手机照相)时被问过一次了,事后证明NPU 确实被越来越多开发者重视,但消费端反而还没那么(在表面)重视NPU 的表现。

但笔者认为,不妨从几条轴线来观察AI PC、AI 手机的发展:一是观察LLM 的压缩率跟硬体什么时候到达“甜蜜点”,像是手机存储器的部分,普遍都需要24GB 以上才够运行LLM(但现在的主流规格只有8~16GB);软件这边去年已经有非常多研究单位,在压缩LLM 上有丰硕的成果(最著名的就是SpQR 法),就看双方什么时候可以耦合。

二则是观察开发框架的发展速度,像是苹果最近就推出专为Apple Silicon 芯片进行优化的深度学习框架“MLX”,经开发者证实,MLX 在跑模型时已经优于自家的MPS,且跟用CUDA 的V100 PCIe 相比也不逊色。苹果自家开发框架的表现相当快速、优异,至于一般PC 这里,就要看有没有同样出色的开发框架出现了。

审核编辑:刘清