首页 / 文章列表 / 文章详情 /

AI芯片专家会议纪要

AI芯片专家会议纪要

1.AI芯片市场概述:

2022年训练芯片(用于机器循环学习获得更佳参数的芯片)中国市场规模45万片,单价1万美元/片,市场规模为45亿美元

2022年推演芯片(模型训练完成后不需要庞大计算量,需要尽快获得推理结果的芯片),中国市场规模35万片,单价2500美元/片,市场规模为8.7亿美元

训练芯片:GPU占95%,ASIC和FPGA约占5%。

推理芯片:ASIC占5-10%(国内华为比较领先),FPGA占不到1%,剩下都是GPU。国外的推理芯片里ASIC占比比中国相对高一些。

2022年中国AI芯片整体规模增速大概在15%左右,如果受到欧美影响,增速可能会降到10%

总体市场规模国内占全球的20%左右,各类芯片所占比重相似,增速也类似大概在15%左右。主要AI芯片的需求在美国和欧洲,GOOGLE,FACEBOOK,微软等公司都在自研AI芯片。

2.各类芯片相关特点与情况:

2.1.GPU:

GPU具有生态和先发优势。技术发展时间较长,相应的代码社区比较完善,且有相应的开源代码,算力也是三者中最优秀的。英伟达是绝对龙头。使用成本最低,泛用性最高,但是一般来说功耗较高。我国的GPU还是比较弱,技术上面还有5-10年。        

GPU的主要应用领域在云端推理与训练。是AI芯片中适用范围最广的芯片。

2.2.ASIC:

ASIC具有单位算力功耗较低的优势,相应的代码社区不够完善,使用成本较高,功耗有不同规格。我国在ASIC上国产替代可能性相对较大,技术相对成熟(不过目前没有批量商用的情况)。对海康威视,大华股份这样被美国限制的企业,可以采购国内生产的ASIC芯片进行商用,不过这部分可能仅限定在语音场景(图像处理要求高一点)。ASCI需要对应用场景定制优化和策略,才能有较低的使用成本。

ASIC主要应用领域在安防,数据中心,车载等相关对功率有要求的方面,也应用于观测和边缘计算等领域。

2.3.FPGA

FPGA为可编程芯片,因此生产和使用成本是三者中最高的,很难大规模商用,且底层语言的社区生态不完善。如果用C编程的话,有bug,且性能大幅下降。

FPGA主要应用于研发领域,和一部分需要在一个板子上使用不同功能的应用场景。

3.目前AI芯片发展的制约因素:

2021年晶圆厂产能紧张,但是国内产能相对需求而言还算可以。主要是国内高端GPU的技术比较弱,且没有经历过长时间的商用,商用进程推进比较缓慢。主要还是依靠国外(我听他的意思,国产替代应用上有难度,需要时间)。下游配套产能也存在不足的情况。比如去年浪潮信息的服务器产能不足,导致了光有芯片但是没地方用的情况。总体而言国内电子元器件的产能还是比较低,制约了AI芯片的出货情况。目前小厂的AI芯片很难大批量商用,主要是商业化的问题,技术层面的问题可以慢慢解决,如果商业化不解决的话,未来可能会死一批企业。

美国制裁对我国的AI芯片发展也有很大的风险。=很多GPU芯片都用的英伟达的IO口设计,到时候如果国内被美国制裁,说知识产权问题,可能有这个专利的风险。

4.GPU和ASIC的具体应用数据情况:

对训练芯片而言,算力需求无止境,计算量越大越好。云端服务器大概要用到64T-512T。GPU如之前所说,主要用于云端的计算和推理。

对推理芯片和边缘计算而言要看具体的应用要求。

(1)摄像头:低算力要求,2T算力,2W功耗

(2)盒子(具体啥盒子没说):8-16T算力,5W-10W功耗

(3)边缘服务器:32T算力,40W功耗

5.AI芯片竞争格局:

国外GPU目前还是垄断性质的。基本上国产GPU的价格都是英伟达的70%。英伟达推出新的GPU基本上是性能翻2.5倍,价格翻1.5倍这样子。

国内的几个牌子:壁仞,摩尔线程,灵汐,寒武纪(上市),平头哥

其中寒武纪有硬性的毛利率要求,60%,低了寒武纪不干,高了下游的人不干。其他的没上市公司毛利率可能会第一点,主要困难在变现。

景嘉微和芯原有自主IP.

景嘉微主要做渲染和军工,性能不咋地,只能做桌面显卡。国外对国内有技术的原理出口限制,很多自研也没办法用在WINDOWS上,也没办法购买授权。加上军工本来就不让买国外的东西,所以可能公司也受到了一定的限制。

目前国内很多AI芯片,包括国外,主要应用在互联网数据分析上。比如百度,阿里,他们都有自研AI芯片,也很少会向别的网络公司采购AI芯片,基本都是自己研制出来自己用。但是互联网的AI应用肯定量是很大的。

阿里也在研究类脑芯片,处于研究,概念阶段。如果做出来会重新构造目前的X86,GPU,CPU体系。但是很难,技术发展预计5-10年(还不一定能研究出来),商用生态初级要5年,成熟要10年,所以最终类脑芯片也要20年才能正式商用,目前先不用看。