范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

百面读书笔记九

  第9章 前向神经网络
  深度前馈网络(Deep Feedforward Networks)是一种典型的深度学习模型。其目标为拟合某个函数f,即定义映射y=f (x;θ)将输入x转化为某种预测的输出y,并同时学习网络参数θ的值,使模型得到最优的函数近似。由于从输入到输出的过程中不存在与模型自身的反馈连接,此类模型被称为"前馈"。
  9.1 多层感知机表示异或逻辑时最少需要几个隐含层(仅考虑二元输入)?
  我们先来分析一下具有零个隐藏层的情况(等同于逻辑回归)能否表示异或运算。仅考虑二元输入的情况,设X取值为0或1,Y的取值也为0或1,Z为异或运算的输出。也就是,当X和Y相同时,异或输出为0,否则为1,具体的真值表如表9.1所示:
  X
  Y
  Z=X+Y
  0
  0
  0
  0
  1
  1
  1
  0
  1
  1
  1
  0
  逻辑回归的公式: Z=sigmoid(AX+BY+C)   其中Sigmoid激活函数是单调递增的:当AX+BY+C的取值增大时,Z的取值也增大;当AX+BY+C的取值减少时,Z的取值也减小。而AX+BY+C对于X和Y的变化也是单调的,当参数A为正数时,AX+BY+C以及Z的取值随X单调递增;当A取负数时,AX+BY+C和Z随X单调递减;当参数A为0时,Z的值与X无关。观察异或运算的真值表,当Y=0时,将X的取值从0变到1将使输出Z也从0变为1,说明此时Z的变化与X是正相关的,需要设置A为正数;而当Y=1时,将X的取值从0变为1将导致输出Z从1变为0,此时Z与X是负相关的,需要设置A为负数,与前面矛盾。因此,采用逻辑回归(即不带隐藏层的感知机)无法精确学习出一个输出为异或的模型表示。   通过精心设计一个模型参数以说明包含一个隐含层的多层感知机就可以确切地计算异或函数:   隐层神经元Z 1 的真值表:   X   Y   H1 = X+Y-1   Z1=max(0,H)   0
  0
  -1   0
  0
  1
  0
  0
  1
  0
  0
  0
  1
  1
  1
  1
  隐层神经元Z 2 的真值表:   X   Y   H2 = -X-Y+1   Z2=max(0,H)   0
  0
  1
  1
  0
  1
  0
  0
  1
  0
  0
  0
  1
  1
  -1   0
  输出层Z的真值表:   Z1   Z2   Z=Z1 + Z2   0
  1
  1
  0
  0
  0
  0
  0
  0
  1
  0
  1
  9.2 如果只使用一个隐层,需要多少隐节点能够实现包含n元输入的任意布尔函数?   9.3 考虑多隐层的情况,实现包含n元输入的任意布尔函数最少需要多少个网络节点和网络层?   9.4 写出常用激活函数及其导数。   9.5 为什么Sigmoid和Tanh激活函数会导致梯度消失的现象?   Sigmoid激活函数的曲线如图9.7所示。它将输入z映射到区间(0,1),当z很大时,f(z)趋近于1;当z很小时,f(z)趋近于0。其导数 在z很大或很小时都会趋近于0,造成梯度消失的现象。   Tanh激活函数的曲线如图9.8所示。当z很大时,f(z)趋近于1;当z很小时,f(z)趋近于−1。其导数 在z很大或很小时都会趋近于0,同样会出现"梯度消失"。实际上,Tanh激活函数相当于Sigmoid的平移:tanh(x)=2sigmoid(2x)−1 .   9.6 ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点是什么?它们有什么局限性以及如何改进?   优点:   (1)从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。   (2)ReLU的非饱和性可以有效地解决梯度消失的问题,提供相对宽的激活边界。   (3)ReLU的单侧抑制提供了网络的稀疏表达能力。   局限性:   ReLU的局限性在于其训练过程中会导致神经元死亡的问题。这是由于函数f(x)=max(0,z)导致负梯度在经过该ReLU单元时被置为0,且在之后也不被任何数据激活,即流经该神经元的梯度永远为0,不对任何数据产生响应。在实际训练中,如果学习率(Learning Rate)设置较大,会导致超过一定比例的神经元不可逆死亡,进而参数梯度无法更新,整个训练过程失败。   改进:   设计了ReLU的变种Leaky ReLU(LReLU):   9.7 写出多层感知机的平方误差和交叉熵损失函数。   9.8 根据问题1中定义的损失函数,推导各层参数更新的梯度计算公式。   9.9 平方误差损失函数和交叉熵损失函数分别适合什么场景?   平方损失函数更适合输出为连续,并且最后一层不含Sigmoid或Softmax激活函数的神经网络;交叉熵损失则更适合二分类或多分类的场景。   9.10 神经网络训练时是否可以将全部参数初始化为0?   9.11 为什么Dropout可以抑制过拟合?它的工作原理和实现?   9.12 批量归一化的基本动机与原理是什么?在卷积神经网络中如何使用?   9.13 卷积操作的本质特性包括稀疏交互和参数共享,具体解释这两种特性及其作用。   9.14 常用的池化操作有哪些?池化的作用是什么?   常用的池化操作主要针对非重叠区域,包括均值池化(mean pooling)、最大池化(max pooling)等。其中均值池化通过对邻域内特征数值求平均来实现,能够抑制由于邻域大小受限造成估计值方差增大的现象,特点是对背景的保留效果更好。最大池化则通过取邻域内特征的最大值来实现,能够抑制网络参数误差造成估计均值偏移的现象,特点是更好地提取纹理信息。池化操作的本质是降采样。   池化操作除了能显著降低参数量外,还能够保持对平移、伸缩、旋转操作的不变性。平移不变性是指输出结果对输入的小量平移基本保持不变。   9.15 卷积神经网络如何用于文本分类任务?   对于文本来说,局部特征就是由若干单词组成的滑动窗口,类似于N-gram。卷积神经网络的优势在于能够自动地对N-gram特征进行组合和筛选,获得不同抽象层次的语义信息。由于在每次卷积中采用了共享权重的机制,因此它的训练速度相对较快,在实际的文本分类任务中取得了非常不错的效果。   9.16 ResNet的提出背景和核心理论是什么?

袁公,国之脊梁今日上午,国之脊梁袁公离我们而去,举国悲凉,痛失脊梁。我们习惯了有他的日子,有他在的时候,我们只是感觉心里是踏实的,我们不用去考虑温饱的问题,也习惯了袁公带给我们的那份安全感。可是爱的最高境界是心疼文连苇2020年第152篇最早听到这句话是当年在文学院时,跟宿舍人一块去听别的专业的老师讲文学。有时候就是这样,听了两个小时课其他什么都没记住,就这一句话永远留在了心里。为什么突然希望在失望中诞生原创作者李伟失望有时成就希望,只要这种失望是暂时的,并能在它一点火星的复活中再一次把希望的火炬点燃。一时的失望可做希望暂时的休息,但这种休息不应该是长久的,要是把这种失望变成一种长久,那么希望父爱,是不动声色的温柔父爱,是不动声色的温柔作者张淑萍主播江南金蝉子如果说生命体现的是一种存在感,那么,人内心的世界,在红尘的繁华中所能拥有地最美触动,便是和自己有缘分的人,于时光中所共守的一份情愫,和男人想你了,才会有这些举动,别不知道思念是源于脑海深处的想法,能够给人带来苦楚与甜蜜,提起思念,大家就会联想到对亲人的思念对爱人的思念。其实,在不同的年龄阶段,思念的主题也不尽相同,比如在年轻的时候,人们的思想往往以临潭县第18个民族团结进步宣传月正式启动为贯彻落实中央和全省民族工作会议精神,巩固提升民族团结进步创建工作,5月10日,临潭县举行以铸牢中华民族共同体意识,以优异成绩庆祝建党100周年为主题的民族团结进步宣传月启动仪式。花半秒钟看懂事物本质,和花一辈子都看不懂得,人生注定是不同的世界上原本就没什么神话,所谓的神话不过是常人的思维所不易理解的平常事。想干什么和能干什么是两码事,得根据条件判断。生存法则很简单,就是忍人所不忍,能人所不能。忍是一条线,能是一条线关于袁老的一篇散文送站一次普通的送站,袁隆平老师又给我上了一课那天,袁老师在北京开完会,乘坐的是下午3点开往长沙的高铁。跟往常一样,我们又去了离西客站不远的那家湖南米粉屋,袁老师照例点了一个小炒河虾一个十分搞笑的沙雕文案1。在网吧打LOL,保洁阿姨来我身边说这个水瓶。。我不喝了,阿姨你拿走吧。阿姨不是,我是说你这个水平挺菜的。2。第一次紧,第二次疼,第三次舒服,后面慢慢就松了,新鞋子刚穿都是这样,我的闲言碎语之矢志不移(九十五)原创作者李伟巡视和巡查,是职级的区别,它的界限严格,这个巡查体现的是对具体事件的了解,这就很明晰了,区别也很清楚了!(看黑龙江省纪委监委网站有感写此文字)思想缺钙,脚步必走不直,歪斜的路,必会我的闲言碎语的矢志不移(七十八)原创作者李伟穷途末路是那些作恶多端者最终的必然下场,快要开报,时间已到!疯狂的表演过后,他该以一败涂地而谢幕,这是那些巧占先机恶人的最终下场。人渣的结果是败类!流氓恶霸不可怕,最可怕的是那些保
感恩,你给我带来的瞬间感动洁白的云朵从桃林的上空飘过以俯瞰的姿态,欣赏漫山桃花如火千般不舍,万般留恋带不走一片花瓣,带不走一缕花香只因我太过高远暗羡桃林,花开如火,花谢漫天的潇洒而,自己将随风飘散的无影无踪春日,不经意的碰见秋风,今天的风,很刻薄1hr春雨无恙俗话说春雨贵如油。因为春雨总是绵绵蒙蒙,不容易浪费,浸润在每一个动植物的毛细血管里。今天的春雨有点大,昨天夜里还伴随着几声很响亮的春雷,每次春雷,总会意味着什么,前一黑夜不孤单点击上方文字关注婷婷随笔图片来源摄图网全文共683字,阅读需要2分钟夜深人静,整个世界都安静了,只属于你一个人的世界。黑色吞噬了那白昼的虚伪与懒散,渐渐地也看不到了你的身影,与黑夜人过60岁,最怕这三件事,如果你成功躲过,那你的后半生就会幸福活过60岁,人就应该偷偷的活了。在古时候,这是国家下令活埋的年龄,意思是老而无用,白废粮食,不如活埋省事。到如今,活过60,已参加过无数比自己大或年龄相近的人的葬礼。每回都有不同感80岁老人有保姆侍候有儿女陪伴,身体也行,但很不幸福人到老时,最关心的是如何养老?如何让自己从容而幸福的走完一生?没病没灾,是每个老人盼望的理想生活,儿女孝顺也是老人衷心希望的事情,有了这两大保障,才是最好的晚年。然而这两项说起来简老年人到老必须学会独处不合群,这样才是晚年幸福的秘诀退休后,放下了工作,拾起了悠闲,感觉突然万事抛却天地宽,人生又换了个活法。开启了人生最美时光,有钱,有闲,有心情,虽然一切美好的尽乎完美,但你的人生就在不经意中已走入老年。虽然不再老了才明白人生就是薄薄的六张纸,看淡,看开,就会幸福一辈子人的生命说长不长,说短不短,长的可以血脉相承,子子孙孙无穷尽也,短的如电光火石,一闪而过就是一生。人在世上满打满算,也就三万多天。这三万多天归根结底就是六张纸,为这六张纸,累死累活新婚是这样滋味?几位新郎告诉你花有花期,从春到冬,从鲜艳妩媚到了残枝败叶,一年就是一生。人也有花期,少年。青年,中年,老年,从活蹦乱跳走向步履蹒跚,一辈子就是一生。这一生中,结婚就是一个由半成品到成品转化的过程新郎18888元的上轿钱你上车不?新娘再加一万,这婚结吗结婚是人生大事,男女自今天起成为合法夫妻,为了纪念这件人生大事,必须要举行一个仪式。男方要非常隆重的把女方接到家中,期间有很多繁文褥节,很多规矩,但一般有钱就可摆平,比如彩礼钱,上春日里的一场白日梦点击上方文字关注婷婷随笔图片来源摄图网全文共1376字,阅读需要3分钟听,是鸟儿叽叽喳喳鸣叫的声音,听,是流水从高处倾泻而下湍急的声音,听,是风吹动柳树摇摆的沙沙声音,听,是波澜起怎舍得,让自己的一生都在岁月的长河中奔跑时间,被我填得满满当当方有些许踏实落在心上看着负重的时间没有放慢脚步疲惫的自己却随着健跑的时光踉跄着捡拾着自己没有完成的梦想,一点一滴摆在岁月的长河里暗自神伤有些时候,人需要放慢脚