从GPU到ASIC:AI领域里最佳芯片之争到底谁会是赢家

从GPU到ASIC:AI领域里最佳芯片之争到底谁会是赢家

首页动作格斗领域之争更新时间:2024-05-04

目前,人工智能已经成了科技圈里最大的热门。而随着人工智能与AI的开发,处理数据的芯片及芯片的算力就变得更加惹人瞩目起来。

当前,人工智能的开发方大多会选择适合的GPU、CPU以及GPU、CPU混合架构来进行AI计算。最常见也需求量最大的则是图形处理器GPU。

那么,在人工智能与AI的开发中还有没有更多的芯片选择呢?这看来是个值得聊聊的事。

专用的会比通用的更强

当下,各家有志于人工智能及AI领域的大厂们都在抢购GPU,似乎GPU成为了AI的“偏爱”。

不过,图形处理器的GPU虽然并行算力能力很强,与CPU(中央处理器)相比GPU可以同时处理更多的任务,让GPU在处理大量数据和复杂计算时比CPU更加高效。但是它也有功耗高,体积大,价格贵的问题。

而作为计算机主核心的中央处理器CPU,其强项是管理和调度。CPU的任务非常复杂,既要应对不同类型的数据计算,还要响应人机交互。真正在处理大量数据和复杂计算时,反而不强。

可真要说起来,GPU和CPU还算是通用性的算力芯片。只是目前在进行AI计算方面有着很高的适应性。

但通用的肯定是比不上专用的。而在用户对算力性能的要求越来越高且算力的使用场景开始细分后,通用的算力芯片已经变得有些无法满足用户更高的需求了。

AI领域也有专用芯片

于是,越来越多的企业开始加强对专用计算芯片的研发。而ASIC(Application Specific Integrated Circuit,专用集成电路)就是一种专用于特定任务的芯片。

简单来说,ASIC就是指按用户的需求或特定电子系统的需要,专门设计、制造的集成电路芯片。

例如,Google公司开发的TPU,就是一种ASIC芯片。

在2015年,为了更好地提升AI算力来完成深度学习任务,Google开发出了一款专门用于神经网络训练的芯片,也就是TPU v1。

相比传统的CPU和GPU,在神经网络计算方面TPU v1可以获得15-30倍的性能提升,能效提升更是达到30-80倍。

其后,在2017年和2018年,Google又推出了用于AI训练和推理方面能力更强的TPU v2和TPU v3。

在2021年,Google还有采用7nm工艺,性能相较上代提升了10倍,比英伟达的A100还强1.7倍的TPU第四代产品TPU v4。

这种专用与AI训练和推理的ASIC芯片出现,给行业带来了很大震动。

当然除了Google公司开发的TPU芯片之外,也还有几种ASIC芯片。

例如,数据处理单元(Data Processing Unit)DPU,就是主要用于数据中心的专用算力芯片。

这种ASIC芯片主要用于数据中心、云计算这种大规模算力场景。其主要作用是提升数据中心等算力基础设施的效率,减少能耗浪费,进而降低成本。

在AI开发方面还有一种在电路层模拟人类神经元和突触,用深度学习指令集来处理数据的神经网络处理单元(Neural Processing Unit)NPU。

NPU也是一种专用于特定任务的芯片,专门用于神经网络推理,能够实现高效的卷积、池化等操作。

有意思的是,在比特币盛行的时期,有些厂商也开发出矿机专用的算力芯片。

这种芯片其实也是一种ASIC芯片。相比与基于用GPU、CPU芯片制造的矿机芯片,专用ASIC的芯片在挖矿计算时算力更强,效率更高,能耗更低。

开发门槛很有些高

不得不说,定制专用的算力芯片在性能方面肯定都会比通用芯片(CPU、GPU)更强。这类芯片的可靠性、保密性、算力、能效都很强,也还可以实现极致的体积、功耗。

不过问题也就来了。专用的芯片虽然能力、性能等多方面都要强过通用性芯片。但在研发、设计方面的门槛也相当高。

对芯片进行定制设计,对一家芯片厂商的研发技术水平要求极高,且耗资极为巨大。

而想要开发做一款ASIC芯片,除了要经过代码设计、综合、后端等复杂的前期研发设计流程,还得要再经过一段时间的生产加工以及封装测试,也就是试生产才能拿到芯片成品。拿到芯片成品之后,还得需要芯片来搭建系统测试,验证是否能达到预计设计要求。

一旦这些流程的出现状况,导致试生产的芯片达不到预计设计要求,这次设计开发可就算失败了。一切的研发所花费的成本都算是打了水漂。

据说,不算前期的开发设计环节,仅14nm工艺芯片的一次试生产就需要300万美元左右。而5nm工艺,更是高达4725万美元。

这样巨大的开发成本,一般的小公司可真有点玩不起。所以,目前有能力进行ASIC芯片开发的企业都是行业类的巨头企业。

进入到数字时代,在数字浪潮下各行各业都对算力的需求已经开始变得越来越大。特别是人工智能应用的走向普及则进一步加大了对算力的需求强度。

这么一来,在人工智能与AI的开发及应用中是GPU和CPU这种通用性算力芯片好用,还是专用于AI算力的ASIC芯片更适用?这个问题的答案应该会快要见分晓了。

那么,今后在人工智能与AI的开发里会不会有更多的专用与AI的ASIC芯片出现来取代GPU、CPU呢?这可就很值得一看。

查看全文
大家还看了
也许喜欢
更多游戏

Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved