新闻中心

陈怡然主讲清华校友学习日第11讲:从高效神经网络到专用人工智能芯片

2020-01-02 | 图/文 郭晓旭 | 来源 继教学院 |

活动现场

12月28日下午,“清华校友终身学习支持计划”学习日活动第11讲在清华大学罗姆楼三层报告厅开讲。本次讲座邀请杜克大学电子与计算机系教授、清华1994级电子工程系杰出校友陈怡然为大家带来“从高效神经网络到专用人工智能芯片”的主题报告。清华大学继续教育学院院长刘震、校友总会副秘书长杨柳以及200多位校友参加了学习。清华2009级历史系校友、继续教育学院远程教育中心副主任李阳主持活动。

杜克大学电子与计算机系教授、清华1994级电子工程系杰出校友陈怡然主讲

清华2009级历史系校友、清华大学继续教育学院远程教育中心副主任李阳主持活动

陈怡然从人工智能的定义起源出发,在简要介绍了人工智能与深度学习的基本概念、发展历程以及最新的应用场景后,引出了本次讲座的主题:如何在硬件领域发展日益接近瓶颈的情况下,解决现代人工智能应用场景中模型大小与计算量日益庞大所带来的挑战。

讲座主要分为两个部分,分别从硬件设计和算法优化的角度介绍了实现高效处理大规模深度学习模型的最新技术。

在第一部分中,以英伟达、英特尔、寒武纪等公司的深度学习处理器技术发展路线为案例,辅以部分大学中近期出现的研究成果,介绍了通用处理器、FPGA以及ASIC平台下深度学习加速器的设计理念与技术特性,分析了不同平台的优势与劣势。除传统技术外,还着重介绍了新兴的以忆阻器为代表的存内计算技术,并分析了其在神经网络加速领域相对于传统技术的优势。

在第二部分中,从算法的角度介绍了如何压缩现有的神经网络模型,以及如何直接自动搜索出高性能且高效的神经网络结构。在网络压缩方面,从神经网络参数量及参数精度两个层面的冗余出发,介绍了一系列带来稀疏网络的非结构化与结构化剪枝算法,以及对不同参数精度下神经网络性能的实验结果。关于网络结构搜索,介绍了常见的的搜索空间、搜索策略以及性能评估方法,并展示了一些最新算法得到的结果。

讲座最后,陈怡然以近期出现的软硬件协同优化得到的神经网络加速器架构为例,再次梳理了存内运算的硬件技术、网络压缩的算法技术如何与流水线、并行化等计算机体系结构技术相结合,设计出高效的神经网络处理数据通路。提出不同硬件平台的性能对比与适用场景分析以及对多种平台间加速器级的并行和新型纳米器件带来的新机遇的展望。

清华大学继续教育学院院长刘震为陈怡然颁发讲座纪念牌

在校友提问环节,校友们从芯片的选择、人工智能在水利方面的应用、端对端平台系统的使用等方面提出了问题,陈怡然结合自己的研究与思考,针对校友们的问题一一作答。

清华校友总会副秘书长杨柳出席活动

陈怡然在接受采访时表示,他非常高兴有机会和校友们交流,认为本次讲座不仅是在传递知识,更重要的是让大家了解当前最先进的技术进展和变化。对于校友终身学习,他认为除了为校友们提供课程学习的机会外,同行业校友的小范围交流也尤其重要。

校友提问

“清华校友学习日”系列活动由清华校友总会、教育基金会、继续教育学院、校长办公室、终身教育处共同组织并协作实施。2018年11月25日开启学习日活动首次讲座,此后每个月的最后一个周六,将根据校友们的学习需求开展“专题讲座”。本次讲座为学习日活动第11讲。“清华校友学习日”将持续整合优质资源,为校友提供职业发展与学业需求的支持和服务,构建一个互帮互助、终身学习的校友交流空间和氛围,期待更多校友关注和参与。


相关新闻