感知芯片

龙8国际官网娱乐人工智能算力第二回:芯片篇

2024-04-10 13:49:03来源:龙8国际官网注册 作者:龙8国际官网唯一入口

  ,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责);伴随数据海量增长,算法模型趋向复杂,处理对象异构,计算性能要求高,AI 芯片在人工智能的算法和应用上做针对性设计,可高效处理人工智能应用中日渐多样繁杂的计算任务。

  AI芯片主要包括图形处理器(GPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、神经拟态芯片(NPU)等。

  AI 芯片重要指标是算力和带宽。算力是一秒钟所能完成的处理的数量,决定了 AI 芯片的数据计算速度;带宽决定了AI芯片每秒钟可以访问的数据量。

  大算力是 AI 芯片的发展方向。如果AI芯片的算力不足, 对于大量算力需求的模型训练需要耗费更长时间,同时考虑到 AI 芯片板卡之间的互联损 耗,AI 芯片板卡增大到一定数量时,会有类似边际效应的情况发生,算力的增长大幅减 小,因此无法通过无限增加 AI 芯片数量来实现算力提升。

  高带宽是 AI 芯片的发展方向。带宽决定了 AI 芯片获得数据的能力,如果算力非常高的 AI 芯片其带宽极小,访问数据能力不足,则无法让算力完全发挥,也会限制性能。

  人工智能芯片多用传统型芯片,或用昂贵的图形处理器 (GPU),或用现场可编程门阵列芯片配合中央处理器 (FPGA+CPU)为主, 用以在云端数据中心的深度学习训练和推理通用/专用型 AI 芯片(ASIC)或特定用途集成电路 (ASIC),主要是针对具体应用场景,三类芯片短期内将共存并在不同应用场景形成互补。

  GPU(Graphics Processing Unit)又被称为图形处理器、显示芯片,多用于个人电脑、工作站、游戏主机以及移动设备(智能手机、平板电脑、VR 设备)上专门运行绘图运算的微处理器。

  GPU是NVIDIA公司在1999年8月发表NVIDIA GeForce 256绘图处理芯片时首先提出的概念,在此之前,电脑中处理影像输出的显示芯片,通常很少被视为是一个独立的运算单元。

  GPU具有数百或数千个内核,经过优化可并行运行大量计算。虽然GPU在游戏中以3D渲染而闻名,但它们 对运行分析、深度学习和机器学习算法尤其有用;GPU允许某些计算比传统CPU上运行相同的计算速度快10 倍至100倍;此外,还有将GPU的图形处理能力用于通用计算领域的处理器GPGPU 。

  独立GPU 一般焊接在显卡的电路板上,位置在显卡的风扇下面。独立GPU 使用的是专用的显示存储器,显存带宽决定了GPU的连接速度;集成GPU一般与CPU集成在一起,一般只支持电脑日常办公,性能较低,但功耗和成本也低;独立GPU具有更强大的性能,可以支持大型游戏或图像处理软件运行,但具有更高的功耗和成本。


龙8国际官网娱乐
上一篇:英特尔一年亏损70亿美元!芯片代工行业不易市场竞争 下一篇:深度解析人工智能芯片:发展史、CPU、FPGA和专