【国际学术论坛】2021英才学院国际学术论坛会议通知

发布者:史宁发布时间:2021-10-06浏览次数:1306

    为提升我校拔尖人才培养质量,提升我校国际化水平和综合实力,拓宽英才拔尖学生的国际学术视野,启迪学生的研究智慧,提升学生的国际交流能力,为增强拔尖学生的创新能力搭建一个高水平的学术交流平台,现开展2021年英才学院国际学术论坛。

 

本期论坛信息如下:

 

Date: 2021/10/8

Time: 19:00 ~ 20:30

会议号:961130604

邀请人:电信学院 李杨教授


【主讲人介绍】

 

秦柱伟Zhuwei Qin, Ph.D.

Assistant Professor of Computer Engineering

School of Engineering

College of Science and Engineering

San Francisco State University

Email: zwqin@sfsu.edu

Website: http://sfsu-miclab.org/

 

秦柱伟博士旧金山州立大学计算机工程***理教授, 移动与智能计算实验室主任。2020在美国乔治梅森大学取得博士学位, 2016年在美国俄勒冈州里大学取得硕士学位。研究兴趣主要包括深度神经网络压缩和加速, 深度神经网络的可解释性, 和分布式边缘计算等领域。在过去几年的研究中,秦博士和杜克大学, 马里兰大学巴尔的摩分校的相关研究人员,建立了广泛的合作。提出了基于神经网络可解释性的深度神经网络的计算优化方法, 优化方法能显著降低神经网络在图像识别任务上的计算开销, 使神经网络能够更高效的部署在移动计算设备上。相关论文发表在了British Machine Vision Conference, International Conference on Computer-Aided Design, and IEEE Transactions on Computer-Aided Design of Integrated Circuits and System, 等国际顶级会议和期刊上。

 

 

【报告题目】        Title: Interpretable Deep Learning Compression for Mobile Computing

用于移动计算的可解释深度学习压缩

【讲座摘要】

 

Promoted by the evolution of artificial intelligence, more and more intelligent applications have emerged on mobile devices. As one of the most representative deep learning technologies, Convolutional Neural Networks (CNNs) have been considered as a primary tool for computer vision fields, such as image recognition, object detection, etc. However, the heavy computation, memory, and energy demands of the CNN model restrict their deployment on resource-constrained mobile devices. In this talk, I will introduce various CNN visualization methods which qualitative interpret CNN structure and learning algorithm. Subsequently, I will discuss how such interpretation can be incorporated in CNN computation acceleration. Finally, I will introduce a filter functionality-oriented CNN model compression method that can achieve significant computation load reduction without losing model accuracy.

 

 

随着人工智能发展,越来越多的智能应用出现在移动设备上。 作为最具代表性的深度学习技术之一,卷积神经网络已经成为计算机视觉领域的主要工具,例如图像识别、目标检测等等。然而,运行卷积神经网络需要大量的计算资源,内存和能源的开销,从而限制了它们在计算能力有限的移动设备上的部署。本次报告将介绍如何通过卷积神经网络可视化的方法来定性的分析卷积神经网络的结构和训练算法 讨论如何将这种可解释性的分析方法融入到卷积神经网络计算加速优化中介绍一种面向卷积滤波器功能的神经网络模型压缩方法,该方法可以在不损失模型精度的情况下实现显著的计算负载降低。同时秦博士也会分享一些在大学生活时的经历和心得,希望对同学们今后的大学学习和生活有所帮助。