深度 向手机端神经网络进发: MobileNet 压缩指南
选自 Machine Think 作者: Matthijs Hollemans 机器之
心编译
随着 MobileNet 等面向移动设备的模型不断出现,机器学
习正在走向实用化。不过,由于深度学习等方法需要消耗大
量计算资源的因素,目前我们距离真正的移动端人工智能应
用还有一段距离。在硬件之外,我们也需要对模型本身进行
压缩,最近,荷兰工程师 Matthijs Hollemans 向我们展示了
他压缩 MobileNet 的方法:通过删除卷积层的部分滤波器,
他在保证准确性不变的情况下,让模型体量缩小了 25%,
让我们看看他是怎么做的。
随着机器学习技术向移动设备渗透的趋势,人们正在越来越
注重于寻找让深度神经网络更快、更简洁的方式。
一种方法是提出更智能化的神经网络设计。 例如:MobileNet
可以在获得相同结果的情况下