2022 年11月30日,由包括埃隆-马斯克和山姆-奥特曼等人创立的 OpenAI 公司正式对外发布聊天机器人软件 ChatGPT,并迅速在全球 范围获得大量用户青睐。ChatGPT 1 月月活跃用户达到 1 亿,是史上月活用户增长最快的消费者应用,而近日 ChatGPT 因用户量激增而频繁宕机,更加体现了 ChatGPT 对算力层的高度依赖。
从二级市场投资角度,市场关注度已经从应用层、模型层向日渐不足的算力层逐渐蔓延。
在技术架构层面,AI芯片可以分为 GPU(图形处理器)、FPGA(现场可编程门阵列)、ASIC(专用集成电路),同时CPU也可用以执行通用AI计算。
ChatGPT 应用场景下的 GPU 通常指 GPGPU,去掉 GPU 为了图形处理而设计的加速硬件单元,保留了 GPU 的 SIMT 架构和通用计算单元。 所以对于 ChatGPT 场景下的 AI 训练、矩阵运算等通用计算类型的任务仍然保留了 GPU 的优势,即高效搬运,运算,重复性的有海量数据的任务。
在应用层面,AI芯片又可以划分为云端、边缘端和终端三个类型,不同场景对芯片的算力和功耗的要求不同,单一芯片难以满足实际应用的需求。
在云端层面,由于大多数AI训练和推理工作负载都在此进行,需要运算巨量、复杂的数据信息,因此对于 AI 芯片的性能和算力要求最高;边缘端是指处理云端和终端之间的传输网络,承担着汇集、分析处理和通信传输数据的功能,一定程度上分担云端的压力,降低成本、提升效率。终端AI芯片由于直面下游产品,大多以实际需求为导向,主要应用于消费电子、智能驾驶、智能家居和智慧安防等领域,终端产品类型和出货量的增加,也相应刺激了对芯片的需求。
不单单对于Open AI,所有涉及到聊天机器人的公司,增加算力都是绕不开的一道坎,这也就意味着,人工智能芯片的需求将会持续迎来井喷。目前,采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元。对于ChatGPT而言,支撑其算力基础设施至少需要上万颗英伟达GPU A100,一次模型训练成本超过1200万美元
所有的国内芯片公司在算力上比不过AMD、NVIDIA,且高端芯片制造问题,看好Chiplet突破先进制程的封锁。