欢迎访问深圳市中小企业公共服务平台电子信息窗口
Meta每每落后对手竟是因为一枚芯片!GPU才是AI模型的“神”
2023-04-27 来源:网络整理
1210

关键词: 晶体管 芯片 GPU

ChatGPT大战,Meta为何迟迟没有动作?

就在今天,路透社记者挖出了一个大瓜,原因让人瞠目结舌——相比谷歌、微软等大厂,Meta跑AI时,用的竟然是CPU!

很难想象,在深度学习几乎占机器学习半壁江山的时代,一个科技巨头竟然能用CPU坚持这么久。虽然他们也曾尝试过自研AI芯片,但最终遭遇滑铁卢。

现在,ChatGPT引爆的生成式AI大战打得昏天黑地,这就更加剧了Meta的产能紧缩。




用CPU训练AI,Meta怎么想的?

Meta迟迟不肯接受用GPU的原因,令人匪夷所思。

GPU芯片非常适合AI处理,因为它们可以同时执行大量任务,从而减少处理数十亿条数据所需的时间。然而,GPU 也比其他芯片更昂贵,英伟达控制着80%的市场份额,并在配套软件上,也保持着绝对的领先地位。

直到去年,Meta在处理AI工作负载时,主要使用的还是CPU。CPU是计算机的主力芯片,几十年来数据中心用的也是CPU,但它在AI工作上表现并不佳。

据悉,Meta还曾自研芯片,在内部设计的定制芯片上进行推理。但在2021年,Meta还是失望地发现,比起GPU,这种双管齐下的方法速度更慢、效率更低。而且GPU在运行不同类型的模型上,远比Meta的芯片更灵活。

而且,小扎决定All In元宇宙这一举措,也直接榨干了Meta的算力。不管是AI的部署,还是威胁的应对上,都遭到了极大的削弱。

这些失误,引起了前Meta董事会成员Peter Thiel的注意,随后,他于2022年初辞职。

据内部人士透露,在离开前的一次董事会会议上,Thiel告诉小扎和高管们,他们对Meta的社交媒体业务太自满,并且过分关注元宇宙了,这让公司很容易被TikTok的挑战所撼动。




AI为什么使用GPU而不是CPU?

随着人工智能技术的快速发展,AI越来越多地使用GPU(图形处理器)来加速计算,而不是传统的CPU(中央处理器)。那么为什么AI使用GPU而不是CPU呢?


1、GPU的结构

GPU是专门用于并行处理的设备,具备大量的核心,可以同时处理数百个线程,而CPU则一般只有几个核心,每秒能够处理的线程数量较少。这就使得GPU比CPU更加适合于并行计算,使得训练深度学习模型更高效。

举个例子:如果你需要计算一个高清电影的每一帧画面,CPU计算需要循环处理每个像素点,因为每个像素点都是单独的。每个像素点计算需要几个步骤,但是循环重复多少次,一个像素点的计算都是独立的。但是,使用GPU可并行化处理每一个像素,这样相当于在一秒钟内同时处理数百个像素点,大大节省了时间。这就是GPU的并行处理能力的优越性。

此外,GPU还拥有高速缓存和显存,而且显存的容量比CPU要大得多,可以同时存储大量的数据。AI训练需要处理大量的矩阵和向量运算,这就需要大量的数据存储和高速访问,而GPU的显存就能很好地满足这个需求。

2、AI的特点

AI的训练需要处理大量的数据,具有计算密集型特点,因此需要使用高性能的计算设备。另外,AI的模型越来越复杂,需要更多的计算资源才能完成训练。而GPU的高性能和并行计算能力,正好解决了这个问题。

而CPU是为了兼容处理各种任务所设计的,因此具有处理多种语言和控制任务的优势,对于AI训练的计算密集型任务相对较弱。这就导致使用CPU来训练AI需要更长的时间,并且更难以满足计算资源的需求。

此外,随着GPU技术的发展,GPU价格越来越实惠,越来越多的公司和个人都选择使用GPU来训练他们的AI模型。有些GPU甚至是抢占市场,一发布网即被购买一空。

综上所述,AI使用GPU而非CPU是因为GPU具有并行处理、高性能以及更大程序的数据存储空间等优越性能,能更好地满足AI计算的要求。对于AI来说,选择GPU训练和应用,能大幅提高AI算法的效率和性能,从而更好地应用到各个领域中。




搭上人工智能的快车,GPU未来取代CPU?

AI人工智能、虚拟现实与自动驾驶等技术,近年来引起了很高的市场关注,成为当下科技领域和投资领域最为火热的话题。特别是以深度学习为首的AI应用,因为AlphaGo在人机对战中的大获全胜,更是在全世界吹起一股AI风潮。

随着科学技术的发展,GPU早已不是计算机当中最为基础的“搬运工”,因为擅长大规模并发计算,所以GPU除了图像处理,也越来越多地参与到计算当中来,在人工智能、金融学、密码学、云服务等领域开始发挥越来越重要的作用。尤其是人工智能产业中,甚至成为行业内公认的“利器”之一。

GPU为何在AI应用当中崭露头角?杨旭东解释说,除了机器学习的帮忙,深度学习的类神经演算法也在人工智能应用当中发挥着重要的作用。深度学习当中有一种技术叫“卷积神经网络CNN”,这种网络在数学上是许多卷积运算和矩阵运算的组合,恰恰和GPU本来能做的矩阵运算十分相似,因此深度学习就可以用GPU进行加速。

从2011年人工智能研究人员首次使用GPU为深度学习加速之后,GPU就开始在人工智能领域发挥巨大作用,这也让GPU本身有了跨越式的发展。十年时间内,不仅在性能上提升了20多倍,市场规模也得到了大幅提升。有机构预测,到2027年,全球GPU市场规模有望突破2000亿美元,从2020年到2027年,复合增长率有望高达33%。

因此有观点认为,按照现在的发展速率,因为CPU处理器已经出现了性能过剩等问题,若干年以后,GPU有望取代CPU。而在2017年的某场会议当中,英伟达(NVIDIA)CEO黄仁勋也曾公开表示,摩尔定律已经失效,GPU最终会取代CPU。

摩尔定律是由英特尔创始人之一戈登?摩尔所提出,其主要内容为:集成电路(芯片)上可容纳的晶体管数目,约每隔18至24个月便会增加一倍,性能也将提升一倍。

但近年来,随着以智能手机处理器性能的过剩以及性能提升的放缓,摩尔定律开始受到越来越多的质疑。

“GPU很难取代CPU,甚至在未来很长一段时间都无法实现。”杨旭东对这样的观点给予了否认。他解释说,这是因为从设计逻辑上来看,两者就有着根本的区别,CPU要统筹控制整个系统,各种复杂的指令都要它来执行,GPU如果也要这样做,自身就会变得复杂起来,连本职工作也无法完成了,所以GPU是无法取代CPU的。

“目前主流CPU晶体管数量在10亿左右,而顶级GPU晶体管数量已经达到了100亿甚至更多,所以CPU做不了GPU的事情,GPU也完成不了CPU的工作。”但杨旭东强调,未来随着制造技术进步和芯片的缩小,CPU和GPU架构之间将得到很好的融合。也就是说,CPU进一步强化处理数据模块的能力,GPU也可以承担更复杂的指令,最终促进计算机性能的大幅提升。