范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

什么是深度学习

  现在各种名词非常火,什么人工智能、机器学习、深度学习,那么我要学习它,当然是要在一个大的方向、轮廓上看到它。比如爬一座山,先远远的看看,对它有一个大致的了解。
  好了,先上一张图,远远的看一下:
  如何理解人工智能、机器学习和深度学习三者的关系
  嗯嗯,这么一看是不是清楚了很多呢?再来一张:
  概念
  深度学习(人工神经网络的研究的概念),英文:Deep Learning,简称:DL。
  PS:看到ML、DL不要再理解成Make Love、Do Love哦!还清晰的记得有个小伙伴看到HTML问我,这是"How To Make Love?"。
  以下内容来自百科:深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。
  深度学习的概念由Hinton等人于2006年提出。基于深度置信网络(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。
  深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。深度学习的好处是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。
  同机器学习方法一样,深度机器学习方法也有监督学习与无监督学习之分.不同的学习框架下建立的学习模型很是不同.例如,卷积神经网络(Convolutional neural networks,简称CNNs)就是一种深度的监督学习下的机器学习模型,而深度置信网(Deep Belief Nets,简称DBNs)就是一种无监督学习下的机器学习模型。释意
  看完概念你懂了吗?我是没懂。
  在理解深度学习之前我们要先了解两个概念,机器学习和神经网络。
  机器学习和深度学习的具体区别和联系是啥?机器学习
  简单的说机器学习就是让机器去分析数据找规律,并通过找到的规律对新的数据进行处理。
  机器学习理论主要是设计和分析一些让计算机可以自动"学习"的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多推论问题属于无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。神经网络
  神经网络简单点将就是由好多个神经元组成的系统。这是模拟人类的神经网络。
  神经元是一个简单的分类器,你输入一个
  比如我们有一大堆猫、狗照片,把每一张照片送进一个机器里,机器需要判断这幅照片里的东西是猫还是狗。我们把猫狗图片处理一下,左边是狗的特征向量,右边是猫的
  神经元一个缺点是:它只能切一刀!你给我说说一刀怎么能把下面这两类分开吧。
  解决办法是多层神经网络,底层神经元的输出是高层神经元的输入。我们可以在中间横着砍一刀,竖着砍一刀,然后把左上和右下的部分合在一起,与右上的左下部分分开;也可以围着左上角的边沿砍10刀把这一部分先挖出来,然后和右下角合并。
  每砍一刀,其实就是使用了一个神经元,把不同砍下的半平面做交、并等运算,就是把这些神经元的输出当作输入,后面再连接一个神经元。这个例子中特征的形状称为异或,这种情况一个神经元搞不定,但是两层神经元就能正确对其进行分类。
  只要你能砍足够多刀,把结果拼在一起,什么奇怪形状的边界神经网络都能够表示,所以说神经网络在理论上可以表示很复杂的函数/空间分布。但是真实的神经网络是否能摆动到正确的位置还要看网络初始值设置、样本容量和分布。深度学习
  那什么是深度学习呢?深度学习简单点说就是一种为了让层数较多的多层神经网络可以训练,能够运行起来而演化出来的一系列的新的结构和新的方法。
  就像下图
  普通的神经网络可能只有几层,深度学习可以达到十几层。深度学习中的深度二字也代表了神经网络的层数。现在流行的深度学习网络结构有"CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的等。现在流行的深度学习框架有MXnet,tensorflow,caffe等,而在这些框架之上(或许不太准确),还有PyTorch,Keras等。应用场景
  深度学习目前的行业应用、一些标志性公司、代表性的技术等
  语音识别技术:国内公司讯飞、百度、阿里,国外公司亚马逊,微软等,行业应用就是智能音箱等产品。
  图像识别技术:比如做安防的海康威视,图森科技,依图科技,旷视科技,代表性的就是面部识别,人脸识别,刷脸解锁、支付等。
  自动驾驶技术:比如特斯拉,uber,百度等公司开发的。
  金融领域的如:预测股价、医疗领域的疾病监测,教育领域的技术赋能等。小结
  看山是山,这里我们弄明白它属于机器学习,而机器学习属于人工智能,而人工智能呢?也就是由人来实现的东西,智能本不是机器的,而是人的;是人通过一些技术手段赋予机器的,而赋予它的一个强有力的方法就是深度学习。而深度学习中的神经网络模型,其设计灵感来自于生物神经网络。历史上,科学家一直希望模拟人的大脑,造出可以思考的机器。人为什么能够思考?科学家发现,原因在于人体的神经网络。
  附深度学习的25个概念
  神经网络基础
  1)神经元(Neuron)——就像形成我们大脑基本元素的神经元一样,神经元形成神经网络的基本结构。想象一下,当我们得到新信息时我们该怎么做。当我们获取信息时,我们一般会处理它,然后生成一个输出。类似地,在神经网络的情况下,神经元接收输入,处理它并产生输出,而这个输出被发送到其他神经元用于进一步处理,或者作为最终输出进行输出。
  2)权重(Weights)——当输入进入神经元时,它会乘以一个权重。例如,如果一个神经元有两个输入,则每个输入将具有分配给它的一个关联权重。我们随机初始化权重,并在模型训练过程中更新这些权重。训练后的神经网络对其输入赋予较高的权重,这是它认为与不那么重要的输入相比更为重要的输入。为零的权重则表示特定的特征是微不足道的。
  让我们假设输入为a,并且与其相关联的权重为W1,那么在通过节点之后,输入变为a * W1
  3)偏差(Bias)——除了权重之外,另一个被应用于输入的线性分量被称为偏差。它被加到权重与输入相乘的结果中。基本上添加偏差的目的是来改变权重与输入相乘所得结果的范围的。添加偏差后,结果将看起来像a* W1 +偏差。这是输入变换的最终线性分量。
  4)激活函数(Activation Function)——一旦将线性分量应用于输入,将会需要应用一个非线性函数。这通过将激活函数应用于线性组合来完成。激活函数将输入信号转换为输出信号。应用激活函数后的输出看起来像f(a * W1 + b),其中f()就是激活函数。
  在下图中,我们将"n"个输入给定为X1到Xn而与其相应的权重为Wk1到Wkn。我们有一个给定值为bk的偏差。权重首先乘以与其对应的输入,然后与偏差加在一起。而这个值叫做u。
  U =ΣW* X+ b
  激活函数被应用于u,即 f(u),并且我们会从神经元接收最终输出,如yk = f(u)。
  常用的激活函数
  最常用的激活函数就是Sigmoid,ReLU和softmax
  a)Sigmoid——最常用的激活函数之一是Sigmoid,它被定义为:
  Sigmoid变换产生一个值为0到1之间更平滑的范围。我们可能需要观察在输入值略有变化时输出值中发生的变化。光滑的曲线使我们能够做到这一点,因此优于阶跃函数。
  b)ReLU(整流线性单位)——与Sigmoid函数不同的是,最近的网络更喜欢使用ReLu激活函数来处理隐藏层。该函数定义为:
  当X>0时,函数的输出值为X;当X<=0时,输出值为0。函数图如下图所示:
  使用ReLU函数的最主要的好处是对于大于0的所有输入来说,它都有一个不变的导数值。常数导数值有助于网络训练进行得更快。
  c) Softmax——Softmax激活函数通常用于输出层,用于分类问题。它与sigmoid函数是很类似的,唯一的区别就是输出被归一化为总和为1。Sigmoid函数将发挥作用以防我们有一个二进制输出,但是如果我们有一个多类分类问题,softmax函数使为每个类分配值这种操作变得相当简单,而这可以将其解释为概率。
  以这种方式来操作的话,我们很容易看到——假设你正在尝试识别一个可能看起来像8的6。该函数将为每个数字分配值如下。我们可以很容易地看出,最高概率被分配给6,而下一个最高概率分配给8,依此类推……
  5)神经网络(Neural Network)——神经网络构成了深度学习的支柱。神经网络的目标是找到一个未知函数的近似值。它由相互联系的神经元形成。这些神经元具有权重和在网络训练期间根据错误来进行更新的偏差。激活函数将非线性变换置于线性组合,而这个线性组合稍后会生成输出。激活的神经元的组合会给出输出值。
  一个很好的神经网络定义——
  "神经网络由许多相互关联的概念化的人造神经元组成,它们之间传递相互数据,并且具有根据网络"经验"调整的相关权重。神经元具有激活阈值,如果通过其相关权重的组合和传递给他们的数据满足这个阈值的话,其将被解雇;发射神经元的组合导致"学习"。
  6)输入/输出/隐藏层(Input / Output / Hidden Layer)——正如它们名字所代表的那样,输入层是接收输入那一层,本质上是网络的第一层。而输出层是生成输出的那一层,也可以说是网络的最终层。处理层是网络中的隐藏层。这些隐藏层是对传入数据执行特定任务并将其生成的输出传递到下一层的那些层。输入和输出层是我们可见的,而中间层则是隐藏的。
  7)MLP(多层感知器)——单个神经元将无法执行高度复杂的任务。因此,我们使用堆栈的神经元来生成我们所需要的输出。在最简单的网络中,我们将有一个输入层、一个隐藏层和一个输出层。每个层都有多个神经元,并且每个层中的所有神经元都连接到下一层的所有神经元。这些网络也可以被称为完全连接的网络。
  8)正向传播(Forward Propagation)——正向传播是指输入通过隐藏层到输出层的运动。在正向传播中,信息沿着一个单一方向前进。输入层将输入提供给隐藏层,然后生成输出。这过程中是没有反向运动的。
  9)成本函数(Cost Function)——当我们建立一个网络时,网络试图将输出预测得尽可能靠近实际值。我们使用成本/损失函数来衡量网络的准确性。而成本或损失函数会在发生错误时尝试惩罚网络。
  我们在运行网络时的目标是提高我们的预测精度并减少误差,从而最大限度地降低成本。最优化的输出是那些成本或损失函数值最小的输出。
  如果我将成本函数定义为均方误差,则可以写为:
  C= 1/m  (y–a)^2,
  其中m是训练输入的数量,a是预测值,y是该特定示例的实际值。
  学习过程围绕最小化成本来进行。
  10)梯度下降(Gradient Descent)——梯度下降是一种最小化成本的优化算法。要直观地想一想,在爬山的时候,你应该会采取小步骤,一步一步走下来,而不是一下子跳下来。因此,我们所做的就是,如果我们从一个点x开始,我们向下移动一点,即Δh,并将我们的位置更新为x-Δh,并且我们继续保持一致,直到达到底部。考虑最低成本点。
  在数学上,为了找到函数的局部最小值,我们通常采取与函数梯度的负数成比例的步长。
  11)学习率(Learning Rate)——学习率被定义为每次迭代中成本函数中最小化的量。简单来说,我们下降到成本函数的最小值的速率是学习率。我们应该非常仔细地选择学习率,因为它不应该是非常大的,以至于最佳解决方案被错过,也不应该非常低,以至于网络需要融合。
  12)反向传播(Backpropagation)——当我们定义神经网络时,我们为我们的节点分配随机权重和偏差值。一旦我们收到单次迭代的输出,我们就可以计算出网络的错误。然后将该错误与成本函数的梯度一起反馈给网络以更新网络的权重。 最后更新这些权重,以便减少后续迭代中的错误。使用成本函数的梯度的权重的更新被称为反向传播。
  在反向传播中,网络的运动是向后的,错误随着梯度从外层通过隐藏层流回,权重被更新。
  13)批次(Batches)——在训练神经网络的同时,不用一次发送整个输入,我们将输入分成几个随机大小相等的块。与整个数据集一次性馈送到网络时建立的模型相比,批量训练数据使得模型更加广义化。
  14)周期(Epochs)——周期被定义为向前和向后传播中所有批次的单次训练迭代。这意味着1个周期是整个输入数据的单次向前和向后传递。
  你可以选择你用来训练网络的周期数量,更多的周期将显示出更高的网络准确性,然而,网络融合也需要更长的时间。另外,你必须注意,如果周期数太高,网络可能会过度拟合。
  15)丢弃(Dropout)——Dropout是一种正则化技术,可防止网络过度拟合套。顾名思义,在训练期间,隐藏层中的一定数量的神经元被随机地丢弃。这意味着训练发生在神经网络的不同组合的神经网络的几个架构上。你可以将Dropout视为一种综合技术,然后将多个网络的输出用于产生最终输出。
  16)批量归一化(Batch Normalization)——作为一个概念,批量归一化可以被认为是我们在河流中设定为特定检查点的水坝。这样做是为了确保数据的分发与希望获得的下一层相同。当我们训练神经网络时,权重在梯度下降的每个步骤之后都会改变,这会改变数据的形状如何发送到下一层。
  但是下一层预期分布类似于之前所看到的分布。 所以我们在将数据发送到下一层之前明确规范化数据。
  卷积神经网络
  17)滤波器(Filters)——CNN中的滤波器与加权矩阵一样,它与输入图像的一部分相乘以产生一个回旋输出。我们假设有一个大小为28 * 28的图像,我们随机分配一个大小为3 * 3的滤波器,然后与图像不同的3 * 3部分相乘,形成所谓的卷积输出。滤波器尺寸通常小于原始图像尺寸。在成本最小化的反向传播期间,滤波器值被更新为重量值。
  参考一下下图,这里filter是一个3 * 3矩阵:
  与图像的每个3 * 3部分相乘以形成卷积特征。
  18)卷积神经网络(CNN)——卷积神经网络基本上应用于图像数据。假设我们有一个输入的大小(28 * 28 * 3),如果我们使用正常的神经网络,将有2352(28 * 28 * 3)参数。并且随着图像的大小增加参数的数量变得非常大。我们"卷积"图像以减少参数数量(如上面滤波器定义所示)。当我们将滤波器滑动到输入体积的宽度和高度时,将产生一个二维激活图,给出该滤波器在每个位置的输出。我们将沿深度尺寸堆叠这些激活图,并产生输出量。
  你可以看到下面的图,以获得更清晰的印象。
  19)池化(Pooling)——通常在卷积层之间定期引入池层。这基本上是为了减少一些参数,并防止过度拟合。最常见的池化类型是使用MAX操作的滤波器尺寸(2,2)的池层。它会做的是,它将占用原始图像的每个4 * 4矩阵的最大值。
  你还可以使用其他操作(如平均池)进行池化,但是最大池数量在实践中表现更好。
  20)填充(Padding)——填充是指在图像之间添加额外的零层,以使输出图像的大小与输入相同。这被称为相同的填充。
  在应用滤波器之后,在相同填充的情况下,卷积层具有等于实际图像的大小。
  有效填充是指将图像保持为具有实际或"有效"的图像的所有像素。在这种情况下,在应用滤波器之后,输出的长度和宽度的大小在每个卷积层处不断减小。
  21)数据增强(Data Augmentation)——数据增强是指从给定数据导出的新数据的添加,这可能被证明对预测有益。例如,如果你使光线变亮,可能更容易在较暗的图像中看到猫,或者例如,数字识别中的9可能会稍微倾斜或旋转。在这种情况下,旋转将解决问题并提高我们的模型的准确性。通过旋转或增亮,我们正在提高数据的质量。这被称为数据增强。
  循环神经网络
  22)循环神经元(Recurrent Neuron)——循环神经元是在T时间内将神经元的输出发送回给它。如果你看图,输出将返回输入t次。展开的神经元看起来像连接在一起的t个不同的神经元。这个神经元的基本优点是它给出了更广义的输出。
  23)循环神经网络(RNN)——循环神经网络特别用于顺序数据,其中先前的输出用于预测下一个输出。在这种情况下,网络中有循环。隐藏神经元内的循环使他们能够存储有关前一个单词的信息一段时间,以便能够预测输出。隐藏层的输出在t时间戳内再次发送到隐藏层。展开的神经元看起来像上图。只有在完成所有的时间戳后,循环神经元的输出才能进入下一层。发送的输出更广泛,以前的信息保留的时间也较长。
  然后根据展开的网络将错误反向传播以更新权重。这被称为通过时间的反向传播(BPTT)。
  24)消失梯度问题(Vanishing Gradient Problem)——激活函数的梯度非常小的情况下会出现消失梯度问题。在权重乘以这些低梯度时的反向传播过程中,它们往往变得非常小,并且随着网络进一步深入而"消失"。这使得神经网络忘记了长距离依赖。这对循环神经网络来说是一个问题,长期依赖对于网络来说是非常重要的。
  这可以通过使用不具有小梯度的激活函数ReLu来解决。
  25)激增梯度问题(Exploding Gradient Problem)——这与消失的梯度问题完全相反,激活函数的梯度过大。在反向传播期间,它使特定节点的权重相对于其他节点的权重非常高,这使得它们不重要。这可以通过剪切梯度来轻松解决,使其不超过一定值。

5G时代,如何使用VR搭建景区直播打造城市名片?2020年春节一场突然其来的疫情不仅改变了人们的生产生活方式,给各行各业的发展也带来了巨大的影响。受交通阻滞销售渠道单一供应链瘫痪企业营销模式滞后等多重因素影响,全国各地的企业商户好物不套路放价就得了618数码专场翼联EDUP值得一看是不是觉得小编又要放点软(guang)文(gao)了?今天周五,又是618,放松点,此处无文案,省略两百字。言归正传,每年的618,平台总要送点优惠券,商家总要弄点满减抵扣的活动。录取通知书到手后,你的大学数码装备选好了吗?随着高考成绩放榜以及录取工作的进行,相信录取通知书将到达准大学生们手中。然而,在这个智能数码产品普及的年代,即将陪伴你开启大学生活的数码产品,你都准备好了吗?其实,数码产品选择除了最低只需2499起,首款支持60倍数码变焦的手机价格再创新低!如果5G对于你来说不是刚需!如果你所在的区域5G覆盖还没有那么快!如果你预算买一台2500价位的中端机!那么下面这款手机绝对比现在市场上的5G中端机更值得购买!OPPOReno10宜丽客数码背包这下可以带游戏本出门了!作为一名数码爱好者,我平时周末需要携带各种数码装备出门,包括数码相机移动电源移动硬盘,甚至笔记本电脑,至于背包里的东西确实需要小心去呵护,这不看中了Elecom宜丽客数码背包,这下科学家有祖国!华裔学术泰斗朱松纯回归,或将领衔科研人员回国潮科学成就离不开精神支撑。科学家精神是科技工作者在长期科学实践中积累的宝贵精神财富。科学无国界,科学家有祖国。这就是科学家精神!据清华大学发布的公示,朱松纯拟进入自动化系工作,职务为开载人航天探索之先河,明代航天始祖万户飞天近年来,我国在航天探索领域取得了辉煌的成就。从2003年杨利伟在中国神舟五号载人飞船上第一次将五星红旗展示在太空之上,到2013年玉兔号月球车传回着陆器携带五星红旗的清晰全景照片,ampampquot铁腕ampampquot控价成果显现?飞天茅台市场价一降再降集团回应称是市场行为财联社(成都,记者熊嘉楠)讯,飞天茅台市场价的阶梯式下跌,似乎正在兑现铁腕控价的预期。对此,贵州茅台集团相关人士向财联社记者回应称,价格的波动是市场经济行为,希望消费者客观理性看待颜值巅峰华为P40系列告诉你什么叫手机艺术品4月8日晚,华为P40系列正式面向国内市场发布,再一次重新定义了手机拍照,以手机摄影史上最大底首款十倍光学变焦手机等世界之最,问鼎2020年最强拍照旗舰。一起被改变的,还有外界对于区块链游戏的真正未来是第九艺术一提到区块链游戏,大部分人很有可能会想到加密猫那样的游戏。2017年底,加密猫刚开始在全世界病毒式营销,吸引住了成千上万游戏玩家搜集繁育和买卖这种可爱的猫咪,变成了第一款现象级DA卡组推荐合理搭配卡牌,提高基地攻防战胜率基地攻防战作为SGEM的主打玩法,一直深受广大玩家喜爱。新的一年里又有不少新人入坑,但是由于卡牌和英雄搭配太复杂,很多人并不知道如何搭配自己的卡组,对此下面就为大家带来一篇基地攻防
惊艳!全球首款可进化超跑SUV高合HiPhiX亮相北京车展9月25日,华人运通旗下豪华智能纯电品牌高合HiPhi首款量产车型可进化超跑SUV高合HiPhiX亮相2020年北京国际汽车展览会E1展馆E113展台。作为全球上市后在国际A级车展阳台小改造生活大不同小天鹅洗烘套装双11开启阳台上神仙日子除了晾晒衣服,你在阳台上做过什么呢?本应是休闲遛娃健身创作的最佳空间,却一步步沦为晒满衣物堆满杂物的杂物间。阳台小改造,生活大不同,10月30日,小天鹅洗衣机携手博洛尼举办神仙阳台一场旧机发布会,老罗究竟能帮转转找回失去的两年吗?苹果12发布当天,老罗开了一场主题为IAMBACK的罗永浩X转转2020秋季旧机发布会,宣告正式回归手机圈,同时受邀担任转转品牌推广大使。开旧机发布会是噱头,老罗以回归手机圈再一次多场景实拍华为Mate40Pro秘银色,和你想象的有些不同10月30日,史上最强Mate华为Mate40系列正式发布,一时间成为业界焦点,作为科技自媒体燕山派也第一时间拿到了其中的华为Mate40Pro秘银色款。全球首款5nm5GSoC麒从重构电视价值峰会,看京东家电2020年电视重点发力方向电视正在由单向娱乐工具,逐步拓展应用范围至教育游戏等双向互动应用工具。电视的价值将被重构,在5G和AI的支持下为消费者实现智能场景互联生活,京东家电黑电业务部总经理戴可在9月17日带上你的P40出发,畅游双节,快乐加倍带上你的P40出发,畅游双节,快乐加倍!新机上手陪伴双节专属福利马上是国庆和中秋双节了,是快乐加倍的时候。带着P40全面激活您的完美旅行吧以P40ProPRO作为样例,本文大部分功手环也玩专业化和全面屏,荣耀手环6发布售价249元起荣耀手环6的健康监测和运动模式升级也是本次新品的亮点。依托荣耀在穿戴设备领域历代的技术积累,荣耀手环6在实时心率监测血氧饱和度检测科学睡眠监测等健康功能的精准度均有较大提升运动监测华为nova8Pro图赏自带主角光环的Vlog专业手机伴随着社交平台的兴起和5G时代的来临,Vlog成了年轻一族表达自我表现创意的全新方式。作为专为年轻时尚人群打造的产品系列,华为nova系列每一代都代表着业内最高自拍水准。12月23资本策划师课程获中国企业培训最优实践课程大奖!2018年8月30日,蓉城成都,2018(第14届)中国企业教育百强论坛在龙之梦酒店盛大召开。中国资本策划研究院院长广州市厦天管理顾问有限公司创始人朱耿洲博士创新打造的资本策划师(科创板注册制圆中国纳斯达克梦1718日,中国资本策划研究院(CCP)院长朱耿洲博士应浙江大学管理学院邀请,再次来到杭州西湖畔的浙江大学西溪校区,为浙江大学求是精英九班的学员们授课。这几天,杭州的天气又冷又湿,资本策划师(CCP)中国本土实战型CFA资本策划师(CCP)创始人朱耿洲博士专访记者获知,中国资本策划研究院院长朱耿洲博士将在本周末到深圳清华研究生院授课,之前一直约访朱院长都由于时机不巧,约访不成功,这次刚好在深圳,记