首页 > 其他 > 详细

DNN中的Sparsity研究

时间:2021-08-18 15:17:13      阅读:16      评论:0      收藏:0      [点我收藏+]

原文章。

https://www.sigarch.org/the-future-of-sparsity-in-deep-neural-networks/

从三方面分析

1. Sparse Algorithms

第一层面是算法。

算法可以直接减少需要的workload。

2. Sparse Kernels

kernel可以提升计算效率。

Sparse kernel大约在65%可以计算超过density。

但是sparse所能达到的peak perf仍然有限,大约17~33%。而Dense大约可以达到55%~80%。

这样在硬件资源使用效率上大概差3,也就是说sparse / dense至少加速3倍才真正有意义的加速。

随着硬件的支持, sparse的peak perf应该会越来越高。

 

3. Sparse Hardware

hardware层面的支持可以提高硬件层面的计算效率。

4. Structured Sparsity

这里不做讨论

 

DNN中的Sparsity研究

原文:https://www.cnblogs.com/simpleminds/p/15156139.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!