admin管理员组

文章数量:1530018

GPU、AI芯片技术市场分析
市场将高速增长,GPU曙光初现,预计到2024年,国内人工智能技术市场规模将达到172亿美元;全球占比将从2020年12.5%上升到15.6%,是全球市场增长的主要驱动力,在AI计算的训练和推理两个领域,已经有不少初创公司发布了GPU产品。
异构计算是灵活性和效率综合平衡的结果,训练指模拟人类接收、学习并理解外界信息能力的AI技术;推理指模拟人类通过学习、判断、分析等心理活动获取信息内含逻辑的AI技术。
从部署的灵活性来看,CPU最为灵活 ,GPU次之 ,FPGA和ASIC分列最后两位。从计算的效率来看,ASIC 效率最高,FPGA次之,GPU和CPU则分列最后两位。
异构计算是一个平衡的结果:考虑到部署的灵活性和计算效率,异构计算是一个平衡的结果,CPU + GPU、FPGA、ASIC是趋势。
训练主要使用CPU、GPU,部分FPGA和ASIC;推理主要使用CPU、FPGA、ASIC,部分GPU。
本文参考了动力君 智享新动力文章改进
https://mp.weixin.qq/s/O5JZ8YdFwNL3NsCG4whB2A
未来的 AI计算,将形成以CPU为控制中心,GPU、FPGA、ASIC(NPU、VPU…)为特定场景加速卡的异构计算格局。
异构计算是指不同类型的指令集和体系架构的计算单元组成的系统的计算方式 , 目前 “CPU+GPU”以 及“CPU+FPGA” 都是受关注的异构计算平台。
异构计算最大的优点是具有比传统CPU并行计算更高效率和低延迟的计算性能,尤其是在业界对计算性能需求水涨船高的情况下,异构计算变得愈发重要。

01.算力时代GPU开拓新场景
广义上讲只要能够运行人工智能算法的芯片都叫作 AI 芯片。但是通常意义上的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片。
AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。到目前位置,AI芯片算力发展走过了三个阶段:
第一阶段:因为芯片算力不足,所以神经网络没有受到重视;
第二阶段:通用芯片CPU的算力大幅提升,但仍然无法 满足神经网络的需求;
第三阶段:GPU和和新架构的AI芯片推进人工智能落地。

▲AI芯片算力发展阶段
目前,GPT-3模型已入选了《麻省理工科技评论》2021年“十大突破性技术。GPT-3的模型使用的最大数据集在处理前容量达到了45TB。根据 OpenAI的算力统计单位petaflops/s-days,训练AlphaGoZero需要1800-2000pfs-day,而GPT-3用了3640pfs-day。

▲自然语言模型/会话式AI平台
AI运算指以“深度学习” 为代表的神经网络算法,需要系统能够高效处理大量非结构化数据(文本、视频、图像、语音等) 。需要硬件具有高效的线性代数运算能力,计算任务具有:单位计算任务简单,逻辑控制难度要求低,但并行运算量大、参数多的特点。对于芯片的多核并行运算、片上存储、带宽、低延时的访存等提出了较高的需求。
自2012年以来,人工智能训练任务所需求的算力每 3.43 个月就会翻倍,大大超越了芯片产业长期存在的摩尔定律(每 18个月芯片的性能翻一倍)。针对不同应用场景,AI芯片还应满足:对主流AI算法框架兼容、可编程、可拓展、低功耗、体积及价格等需求。
从技术架构来看,AI芯片主要分为图形处理器

本文标签: 市场分析芯片技术GPUAI