JavaScript is required

算力

2022 年11月30日,由包括埃隆-马斯克和山姆-奥特曼等人创立的 OpenAI 公司正式对外发布聊天机器人软件 ChatGPT,并迅速在全球 范围获得大量用户青睐。ChatGPT 1 月月活跃用户达到 1 亿,是史上月活用户增长最快的消费者应用,而近日 ChatGPT 因用户量激增而频繁宕机,更加体现了 ChatGPT 对算力层的高度依赖。

从二级市场投资角度,市场关注度已经从应用层、模型层向日渐不足的算力层逐渐蔓延。

在技术架构层面,AI芯片可以分为 GPU(图形处理器)、FPGA(现场可编程门阵列)、ASIC(专用集成电路),同时CPU也可用以执行通用AI计算。

ChatGPT 应用场景下的 GPU 通常指 GPGPU,去掉 GPU 为了图形处理而设计的加速硬件单元,保留了 GPU 的 SIMT 架构和通用计算单元。 所以对于 ChatGPT 场景下的 AI 训练、矩阵运算等通用计算类型的任务仍然保留了 GPU 的优势,即高效搬运,运算,重复性的有海量数据的任务。

在应用层面,AI芯片又可以划分为云端、边缘端和终端三个类型,不同场景对芯片的算力和功耗的要求不同,单一芯片难以满足实际应用的需求。


在云端层面,由于大多数AI训练和推理工作负载都在此进行,需要运算巨量、复杂的数据信息,因此对于 AI 芯片的性能和算力要求最高;边缘端是指处理云端和终端之间的传输网络,承担着汇集、分析处理和通信传输数据的功能,一定程度上分担云端的压力,降低成本、提升效率。终端AI芯片由于直面下游产品,大多以实际需求为导向,主要应用于消费电子、智能驾驶、智能家居和智慧安防等领域,终端产品类型和出货量的增加,也相应刺激了对芯片的需求。

不单单对于Open AI,所有涉及到聊天机器人的公司,增加算力都是绕不开的一道坎,这也就意味着,人工智能芯片的需求将会持续迎来井喷。目前,采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元。对于ChatGPT而言,支撑其算力基础设施至少需要上万颗英伟达GPU A100,一次模型训练成本超过1200万美元

所有的国内芯片公司在算力上比不过AMD、NVIDIA,且高端芯片制造问题,看好Chiplet突破先进制程的封锁。

概念股
嵌入式CPU
致力于嵌入式 CPU 内核研发的半导体设计企业,公司以 M*Core、开源的 PowerPC 和 RISC-V 指令集架构为基础,建立了具有自主知识产权的高性能低功耗 32 位 RISC 嵌入式 CPU 技术
自主可控CPU
自主可控指令集架构LoongArch,龙芯 1 号、龙芯 2 号、龙芯 3 号三大系列处理器芯片及桥片等配套芯片
X86 CPU
深算一号DCU产品
景嘉微 300474
GPU JM9
国内GPU龙头厂商,JM5系列、JM7系列、JM9系列等具有自主知识产权的高性能GPU芯片
IP
NPU IP,飞桨和芯原的工程团队共同合作完成了Paddle-Lite和芯原TIM-VX的对接,让飞桨用户可以更方便地基于芯原NPU的芯片快速落地应用。
长沙韶光依托承接军改后的体制外溢的优秀科研团队,公司专用数字芯片(FPGA、GPU)和通用类模拟芯片目录快速在体系内大单位院所客户放量。
控股 GPU 芯片公司合肥曲速,已于 22 年 Q3 实现并表,曲速科技自研 GPU 芯片可以用于数据中心服务器、网络安全检测、自动驾驶等领域,去年 9 月已签订芯片合同 1700 万元。
FPGA、SIM卡
于 2022 年推出了 2x 纳米的低功耗FPGA 系列产品,新一代 1x 纳米更高性能 FPGA 系列产品也在顺利推进中,进一步完善了产品种类。
FPGA、存储器、MCU
电具备 65nm 制程千万门级和 28nm 制程亿门级产品,目前以 28nm 制程的 FPGA 产品为主
FPGA
形成了由 PHOENIX高性能产品系列、EAGLE 高效率产品系列、ELF 低功耗产品系列组成的产品矩阵
机顶盒SoC
推出了A311D、S905D3等内置独立NPU的通用型SoC,自研布局C系列AI视觉芯片。
AI芯片龙头
NPU架构的Cambricon-1A、Cambricon-1H、Cambricon-1M
富瀚微 300613
安防芯片
以视频为中心的,提供高性能视频编解码及 AI SoC 芯片、图像信号处理器 ISP 芯片及完整的产品解决方案。
瑞芯微 603893
智能应用处理器SoC
国内 SOC 龙头厂商,其 RK3588 产品在汽车,安防等未来的人工智能下游应用端具备广泛的应用场景
DDR5、内存接口芯片龙头
第一代 AI 芯片工程样片已经在 22 年底如期完成流片,后续将进一步测试验证、给客户进行送样。
*ST左江 300799
2020年4月23日成立成都北中网芯,着手研发DPU芯片。目前子公司人员在60人左右,近90%人员为研发,其产品为自行流片ASIC,预计 2022年下半年开始芯片量产。该芯片可应用于多个场景,根据市场需求预测规划了DPU领域多系列多款芯片,设计研发将于2022年陆续开展。
罗普特 688619
布局AI芯片领域,致力于构建人工智能芯片平台。公司与中国工程院院士倪光南共同设立院士工作站,从事计算机视觉存算一体化AI芯片开发。公司还与国产芯片龙头企业天津飞腾信息技术有限公司签订战略合作协议,针对自主可控技术领域进行合作。
NOR Flash、MCU
CiNOR存算一体AI推理芯片,基于65nm NOR Flash制程,拟用于小算力、低功耗应用场景,主要专注在边缘和终端设备上
国内服务器龙头,公司在AIGC已从算力、算法和应用三个方面进行布局和长期研发投入,其中源1.0大模型也是预训练巨量自然语言模型。
海光CPU
参股海光信息,智能计算服务器、高性能计算机
新华三
作为构建云能力的物理底座,新华三集团拥有业界最全的服务器产品线,在出货量与市场份额方面,稳居中国市场第一阵营。
与华为合作的“鹏霄”服务器将在多领域大规模商用
代工华为鲲鹏服务器和PC
飞腾
公司目前持有天津飞腾 31.50%的股权,天津飞腾是国内采用 ARM 架构的代表厂商,拥有 ARMv8 指令集架构的永久授权,有望在国内芯片厂商中率先崛起
自主品牌服务器搭载ARM架构的鲲鹏处理器