写这篇文章的起因是老板想了解下AI芯片(NPU/GPU区别等),他不是搞技术那一挂的,所以就简单整理下,留作记录,顺便分享给各位。

文章目录

一、AI芯片是什么?

二、AI芯片分类

1.Training(训练)

2.Inference(推理)

三、AI芯片应用领域

四、AI芯片技术路线

五、APU、CPU、DPU、GPU、NPU和TPU

六、AI芯片厂家

一、AI芯片是什么?

AI芯片:针对人工智能算法做了特殊加速设计的芯片,也被称为AI加速器,即专门用于处理人工智能应用中的大量计算任务的功能模块。 AI任务中99%以上的运算都是矩阵运算。现在的AI模型中包含大量的矩阵运算,AI专用芯片都是对矩阵乘法做了优化,通过引入各种处理单元来高效进行矩阵运算。

本文章秉承对新手友好的原则,简单直白,如果有用请您点个关注鼓励一下,后续继续分享。

二、AI芯片分类

从业务应用来看,可以分为**Training(训练)和Inference(推理)**两个类型。 训练芯片需要考虑的因素更多,设计上也更加复杂,精度通常为FP32、FP16。 推理芯片考虑的因素较少,推理芯片考虑的因素较少,对精度要求也不高,INT8即可。

1.Training(训练)

Training环节通常需要训练出一个复杂的深度神经网络模型。训练过程涉及海量的训练数据和复杂的深度神经网络结构,运算量巨大,需要庞大的计算规模,对于处理器的计算能力、精度、可扩展性等性能要求很高。常用的例如华为的Atlas900集群、NVIDIA的GPU集群等。

2.Inference(推理)

Inference环节指利用训练好的模型,使用新的数据去“推理”出各种结论,如视频监控设备通过后台的深度神经网络模型,判断一张抓拍到的人脸是否属于特定的目标。虽然Inference的计算量相比Tra

还原度超高!用这两款工具轻松翻新老照片,享受超清画质!
《爱情岛澳大利亚版》