论文速读_20200321

带来的是一些 MobiSys 2017 的相关工作,是自己看完论文后的一些简单笔记,部分内容参考了互联网上一些解读,在此表示感谢。能力一般,水平有限,不足之处还请指正交流。

  • Mobile Sensing Through Deep Learning 1 中提出了一种移动深度学习框架,让 DNN 能够在移动设备上运行。这需要面对三个挑战:
    i. 数据不对称:大多数模型为训练数据设计,而与移动设备实际捕获的数据不同(例如视角,大小)。
    ii. 多模态感知:除了图像外,移动设备还可以获得 GPS、陀螺仪等信息
    iii. 移动设备的资源限制。
    框架包含三个模块:数据提供(管理与提供数据),模型提供(训练与优化),任务管理(定义任务信息)。另外,作者还使用了模型压缩技术。
    论文中提到了进行了实验并效果不错,但没有看到具体的数据或图表。

  • DeepMon2 实现了在商用智能手机上以每秒 1~2 帧的速度(当前一般 3-4 秒 / 帧)运行面部识别或异物监测的 DNN 模型,而无需卸载到云。并且。作者在论文中指出,增加 CNN 的层数(一般是卷积层)可以增加模型精度,但卷积层的计算量大,增大了开销。为了应对这些问题,作者采用了三种方法:
    i. 模型转换与载入:作者是利用了一些经典的 CNN 进行试验,需要转换以能够在移动设备上运行,并合理分配内存。
    ii. 卷积层缓存:卷积层会耗费大量的计算资源,对于上一步推断过的特征不再重复计算是一种节约资源的方法。
    iii. 优化计算:利用分解卷积参数、优化矩阵乘法等方法,配合 2)进一步减少延迟。
    作者在 OpenCL 和 Vulkan 中实现了 DeepMon,并使用了三种 GPU 实现,还和有云的方案进行了对比。结果表明,DeepMon 性能优于现有方案,但准确率略有下降,不过结合云服务的话准确性可以得到弥补。

  • DeepEye3 开发了一种硬件,能够同时运行多个 CNN 进行推断任务。其以高通骁龙 410 位基础,加上定制的载板。作者分析认为 CNN 在卷积层要去计算资源而内存要求少,全连接层则相反。并以此为指导设计了一种多模型调度和批处理方案,在最大限度利用硬件的同时运行多个 CNN 来完成多个任务。这点是论文的主要创新,因为其他的设备大多仅能够运行某一个 CNN。

以下是一些海报:

  • Camera Images Offloading4 提到逐一分析摄像头拍摄的连续照片是不经济的,因此设计了一套系统。先在本地计算图像差异,然后仅传输差异,在服务端还原图像用于分析(过程类似于有损压缩)。本地分析差异以减少不必要的传输这一思路在后续大量工作如 Glimpse5 中有体现。
  • Flood Monitoring using Computer Vision6 介绍了一种用洪水中的人像身高来推断积水深度的方法。该工作首先检测图像中的人脸,确定人的位置和性别。确定性别是为了使用平均身高数据。然后根据人的身高和人被遮挡住的部分估算洪水深度。该工作的一大启发是对于低成本的边缘推断,可以利用一些先验知识(如本文中人的身高)。在我们的工作中,可以利用类似的知识,例如人的身高,步长等对运动预测做辅助。
  • EPS7 介绍一种边缘个性化服务(edge-hosed personalized services,EPS)来解决依赖云的移动工作负载和优化问题。通过在网络边缘部署特定的计算节点来优化用户体验。

参考文献


  1. 1.Zeng X. Mobile Sensing Through Deep Learning[A]. Proceedings of the 2017 Workshop on MobiSys 2017 Ph.D. Forum - Ph.D. Forum ’17[C]. Niagara Falls, New York, USA: ACM Press, 2017: 5–6.
  2. 2.Huynh L N, Lee Y, Balan R K. DeepMon: Mobile GPU-based Deep Learning Framework for Continuous Vision Applications[A]. Proceedings of the 15th Annual International Conference on Mobile Systems, Applications, and Services - MobiSys ’17[C]. Niagara Falls, New York, USA: ACM Press, 2017: 82–95.
  3. 3.Mathur A, Lane N D, Bhattacharya S, 等. DeepEye: Resource Efficient Local Execution of Multiple Deep Vision Models using Wearable Commodity Hardware [A]. Proceedings of the 15th Annual International Conference on Mobile Systems, Applications, and Services - MobiSys ’17 [C]. Niagara Falls, New York, USA: ACM Press, 2017: 68–81.
  4. 4.Xiong W, Zheleva M. Poster: Camera Images Offloading in Low-resource Wireless Networks[A]. Proceedings of the 15th Annual International Conference on Mobile Systems, Applications, and Services - MobiSys ’17[C]. Niagara Falls, New York, USA: ACM Press, 2017: 172–172.
  5. 5.Chen T Y-H, Ravindranath L, Deng S, 等. Glimpse: Continuous, Real-Time Object Recognition on Mobile Devices [A]. Proceedings of the 13th ACM Conference on Embedded Networked Sensor Systems - SenSys ’15 [C]. Seoul, South Korea: ACM Press, 2015: 155–168.
  6. 6.Nair B B, Rao S N. Poster: Flood Monitoring using Computer Vision[A]. Proceedings of the 15th Annual International Conference on Mobile Systems, Applications, and Services - MobiSys ’17[C]. Niagara Falls, New York, USA: ACM Press, 2017: 165–165.
  7. 7.Hao P, Bai Y, Zhang X, 等. Poster: EPS: Edge-hosted Personal Services for Mobile Users [A]. Proceedings of the 15th Annual International Conference on Mobile Systems, Applications, and Services - MobiSys ’17 [C]. Niagara Falls, New York, USA: ACM Press, 2017: 163–163.