旷视研究院联合北京大学数学科学学院机器学习实验室开设的《深度学习实践》全套课程(视频+PPT,共计28课时)今日在AI研习社正式全面上线,让你足不出户也能享有高水平的教学资源。

深度学习实践课|旷视研究院 X 北大联合出品,正式上线,免费报名!

“与其疫情宅家玩游戏,不如家里蹲大学把课上。”疫情期间,我们每日听到的最多的信息之一可能就是号召大家在线坚持学习。不过,在左有“名师授课”、右有“速成深度学习”,多重信息的围攻之下,大部分人最终还是选择了那条无数“英雄”选择的道路——“收藏+下次一定”,重回电子虚拟世界,麻痹自己,蹉跎人生。

 

  怎么办?旷视研究院为你支招! 

今日,旷视研究院联合北京大学数学科学学院机器学习实验室开设的《深度学习实践》全套课程(视频+PPT,共计28课时)全面向社会免费开放!从深度学习基础理论到计算机视觉实践,由旷视首席科学家兼研究院长孙剑,及身经百战的研发总监、资深研究员亲身授课,真正将高水平深度学习课程带给大家。知识全面、循循善诱、透彻又不枯燥是本课程最大的特点。


《深度学习实践》是旷视研究院联合顶尖高校开设的系列深度学习精品课程之一。作为旷视的研发中心,旷视研究院一直基于自研的人工智能算法平台Brain++和深度学习框架MegEngine开展最前沿学术、产业技术研究、交流,累计收获27项世界冠军;并实现在个人物联网、城市物联网、供应链物联网三大领域的应用落地。值得一提的是,旷视后续将对Brain++及其核心框架、平台进行开源、开放,强大的算力、SOTA模型、框架资源任你用,敬请期待~


此次课程录制于2017年秋季旷视研究院在北京大学授课期间,已连续开设3年,后续将开放更多精彩课程供同学们学习、研究。

 

      课程大纲   

1、Lecture 1(Intro of CV and DL)

本节课是一堂入门性的概述课程,主要通过向学生介绍计算机视觉的含义,计算机视觉的主要应用场景,以及计算机视觉从经典方法发展到现在基于深度学习的方法的理路变迁来引导学生获得对该领域的一个全局性的理解。


2、Lecture 2(Math In DL)

本节课着重介绍深度学习技术中使用的数学知识。与其它课程、书籍不同,本课程忽略了很多过分抽象、复杂且使用频率不高的内容,以便同学们能够较为容易地对深度学习涉及到的核心数学知识有良好掌握。


3、Lecture 3(Network Basics & Architecture Design)

本节开始正式介绍深度神经网络相关的基础知识。在神经网络基础介绍中,讲者从视觉识别的困难切入,逐步深入分析了神经网络架构的特点以及训练优化方法。进一步,课程还介绍了网络架构设计的具体细节。


4、Lecture 4(Computation Technology)

本课程介绍深度学习涉及的计算技术,包含人们常用的深度学习框架背后实现的思想与原理;如何在现有如CPU、GPU的构架下,实现快速数学计算;以及在分布式深度学习中的通信与优化技术。


5、Lecture 5(Neural Network Approximation)

本课程介绍神经网络压缩技术。众所周知,一个真正有效地神经网络在训练和推理过程中往往需要消耗高额的计算成本,如何更快、更高效地让其进行工作就成了技术落地的关键。本课程从三个方面:低质、稀疏与量化逐一介绍了神经网络压缩技术。


6、Lecture 6(Modern Object Detection)

本课程介绍基于深度学习的物体检测技术。物体检测技术不要求系统精准识别某个物体的具体属性,例如这辆车是保时捷 911,而是让系统能够在画面中识别出所有被称为车的物体,即(Category-level Recognition,而非Instance-level Recognition),本课将对此展开介绍。


7、Lecture 7(Text Detection and Recognition)

本课程介绍了近年来场景文字检测与识别中的进展,以及旷视在该领域的工作与成果。具体而言,分为文字识别任务的背景与经典方法回顾、近来基于深度学习的技术进展。需要强调的是在第三部分。课程重点介绍了文字识别任务的数据集与比赛。


8、Lecture 8(Image Segmentation)

当前,越来越多的应用场景需要精确且高效的图像理解能力,如自动驾驶、室内导航、甚至虚拟现实与增强现实等,图像分割技术就是实现这一切的关键技术之一。本课程介绍了图像分割中语义分割与实例分割技术的具体细节。


9、Lecture 9(Recurrent Neural Networks)

本课程从循环神经网络(RNN)的基础到前言应用进行了介绍。作为图灵完备的模型,循环神经网络相较于卷积神经网络能够做更复杂的工作。从课程设置来看,在介绍了RNN基础之后,课程会讨论部分经典RNN架构,如LSTM、有Attention的RNN和有External Memory的RNN。


10、Lecture 10 (Introduction to Generative Models)

本课程介绍生成式模型的基本概念与发展现状,同时也针对其背后的数学原理进行细致剖析。生成式模型是概率统计与机器学习中的一类重要模型,指一系列用于随机生成可观测数据的模型,应用十分广泛,可用来自不同的数据进行建模。


11、Lecture 11(Person Re-Identification)

本节课程着重于对行人重识别技术的解读。作为图像检索领域的一个重要子问题,行人重识有着重要应用价值。为了帮助学生更好理解,课程以人脸识别为例,通过分析其与行人重识别的区别之处来向学生介绍后者。进一步,课程还介绍了如何依据一些额外时空信息来辅助开展行人重识别工作。


12、Lecture 12 (Shape from X)

本课程介绍3D重建,即研究如何用视觉的方法来获得3维信息。具体而言,课程介绍了多种传统建构物体形状的方法,与之相对应的,基于神经网络的3D重建在灵活性与效果上都有着显著优势。


13、Lecture 13(Visual Object Tracking)

本课程介绍目标跟踪技术,由于不同种类的目标跟踪任务的假设可能有巨大不同,所以本课程首先会介绍运动估计,然后分别专门介绍单目标跟踪与多目标跟踪。最后,讲者对一些特殊且重要的情形(如快速运动、多个摄像头)进行了分析。


14、Lecture 14(Neural Network in Computer Graphics)

本课程介绍计算机图形学中的神经网络。具体而言,首先介绍了计算机图形学的含义,与基本情况。进一步,对引入其中的神经网络技术进行专项解读,涉及用神经网络进行渲染、进行3D建模以及visual media retouching。最后,课程介绍了如何将图形学技术应用到计算机视觉问题之中。



  更多信息  

课程传送门: 

http://www.mooc.ai/course/749

深度学习实践课|旷视研究院 X 北大联合出品,正式上线,免费报名!

添加小助手,加入线上交流群:

 深度学习实践课|旷视研究院 X 北大联合出品,正式上线,免费报名!


  最后讲个真实的故事  

1665年,牛顿在剑桥三一学院就读期间,伦敦发生大瘟疫,造成数万人死亡。牛顿回家自我隔离,亲戚也不走,聚会也不去。

但正是这段清浄的时间,让他有机会思考数学、光学、力学的问题,硕果累累,成功创立了二项式定理和光的分解,确立了牛顿第一、第二定律和引力定律的基本思想……

深度学习实践课|旷视研究院 X 北大联合出品,正式上线,免费报名!

恩?仿佛听到有人在谈论我?

祝大家身体健康,少出门、多运动,提高免疫力的同时也不要忘了加倍努力学习思考哦~

雷锋网雷锋网雷锋网