范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

AI算法卷积神经网络CNN原理与实现

  1 算法思想
  卷积神经网络通过所设计的卷积核与图像进行卷积操作,提取图像中的某些特征。通过卷积网络层数的加深,提取的特征从局部到整体,从而对物体进行识别。 2 算法推导2.1 边缘特征检测示例
  图1. 图像边缘检测
  假如有一张图像,想让计算机搞清楚图片上有什么物体,可以做的事情是检测图像的水平边缘与垂直边缘。
  (1)卷积操作
  如图1所示,是一个6*6的灰度图像,构造一个3*3的矩阵,在卷积神经网络中,通常称为filter(过滤器),对6*6的图像进行卷积操作得到4*4的矩阵。
  图2. 卷积操作
  如图2所示,3*3的filter与6*6的灰度图像左上角3*3区域进行卷积3*1+0*0+1*(-1)+1*1+5*0+8*(-1)+2*1+7*0+2*(-1)=-5,从而得到4*4左上角的-5。
  (2)边缘提取
  图3. 垂直边缘提取
  为什么这种卷积操作可以得到图像的边缘?
  如图3所示,原图是6*6的灰度图像,10的部分为亮区域,0的部分为暗区域。从10->0为垂直边缘。用一个3*3的过滤器,对图像进行卷积操作,得到图像中间亮,两边暗。亮暗交接处为边缘。
  (3)过滤器类型
  图4. 垂直过滤器与水平过滤器
  ​  通过图4的垂直过滤器与水平过滤器可实现垂直边缘与水平边缘检测。
  图5. 过滤器类型
  ​  图5列出了一些常用的过滤器,如sobel算子,scharr算子等。在卷积神经网络中,把这些过滤器当成我们要学习的参数, 卷积网络训练的目标就是去理解过滤器的参数。 2.2 边缘填充padding
  图6. padding示意图
  ​  (1)为什么进行padding?
  按照上述的描述,图片每经过一次卷积运算,会存在以下两个问题: 图片会缩小导致无法进行深层卷积运算; 原始图片边缘信息对输出贡献得少,输出图片丢失边缘信息。
  (2)怎样进行padding? 假设输入的图片大小:
  过滤器的大小:
  两个水平与垂直边缘padding大小:
  则经过卷积操作的输出:
  2.3 卷积步长stride
  图7. 卷积步长为2对于input=7*7,filter=3*3,stride=2,padding=0; 经卷积操作输出: ; 通用表示: ,  表示向下取整。 2.4 彩色图像的卷积
  以上讲述的卷积都是灰度图像的,如果想要在RGB图像上进行卷积,过滤器的大小不再是3*3,而是3*3*3,最后的3对应为通道数(channels)。卷积生成图像中,每个位置的像素值,为3*3*3的过滤器与图像相应位置相乘 累加。 如图8所示,过滤器依次在RGB图像上滑动,最终生成的图像大小为4*4。
  图8. 单一filter彩色图像卷积
  ​  另外一个问题是,如果我们在不仅仅在图像总检测一种类型的特征,而是要同时检测垂直边缘、水平边缘、45度边缘等,也就是多个过滤器的问题。如果有两个过滤器,最终生成图像为4*4*2的立方体,这里的2来源于我们采用了2个过滤器。
  图9. 多个filter彩色图像卷积
  写成通用的形式: 输入维度:
  每个滤波器的维度:
  权重维度:
  偏置维度:
  输出维度:
  其中:
  2.5 池化层Pooling
  图10. Max pooling示意图
  ​  在卷积神经网络中,除了使用卷积层外,还使用池化层来缩减模型大小,提高计算速度。池化层分为最大池化层(max pooling)与平均池化层(average pooling)。池化层中的max pooling是求每个过滤器滑动区域内的最大值;average pooling是求每个过滤器滑动区域内的平均值。 经过padding后的输出:
  一般情况下padding=0,输出表示:
  2.6 简单卷积神经网络示例LeNet-5
  LeNet(LeNet-5)由两个卷积层和三个全连接层构成。 这两卷积层的卷积核均为5*5,第一个卷积层的输出通道为6,第二卷积层的输出通道为16。 每个池化层窗口的大小为2*2,步长为2。 三个全连接层分别有120、84和10个输出。 3 算法实现
  (1)下载数据集 import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from torchvision import datasets, transforms import time from matplotlib import pyplot as plt   pipline_train = transforms.Compose([     #随机旋转图片     transforms.RandomHorizontalFlip(),     #將圖片尺寸resize到32x32     transforms.Resize((32,32)),     #將圖片轉化為Tensor格式     transforms.ToTensor(),     #正則化(當模型出現過擬合的情況時,用來降低模型的複雜度)     transforms.Normalize((0.1307,),(0.3081,)) ]) pipline_test = transforms.Compose([     #將圖片尺寸resize到32x32     transforms.Resize((32,32)),     transforms.ToTensor(),     transforms.Normalize((0.1307,),(0.3081,)) ]) #下載数据集 train_set = datasets.MNIST(root="./data", train=True, download=True, transform=pipline_train) test_set = datasets.MNIST(root="./data", train=False, download=True, transform=pipline_test) #載入数据集 trainloader = torch.utils.data.DataLoader(train_set, batch_size=64, shuffle=True) testloader = torch.utils.data.DataLoader(test_set, batch_size=32, shuffle=False)
  (2)搭建LeNet-5网络结构,并确定前向传递过程 class LeNet(nn.Module):     def __init__(self):         super(LeNet, self).__init__()         self.conv1 = nn.Conv2d(1, 6, 5)         self.relu = nn.ReLU()         self.maxpool1 = nn.MaxPool2d(2, 2)         self.conv2 = nn.Conv2d(6, 16, 5)         self.maxpool2 = nn.MaxPool2d(2, 2)         self.fc1 = nn.Linear(16*5*5, 120)         self.fc2 = nn.Linear(120, 84)         self.fc3 = nn.Linear(84, 10)      def forward(self, x):         x = self.conv1(x)         x = self.relu(x)         x = self.maxpool1(x)         x = self.conv2(x)         x = self.maxpool2(x)         x = x.view(-1, 16*5*5)         x = F.relu(self.fc1(x))         x = F.relu(self.fc2(x))         x = self.fc3(x)         output = F.log_softmax(x, dim=1)         return output
  (3)将定义好的网络结构部署至CPU/GPU上,并定义优化器 #建立模型,部署gpu或cpu device = torch.device("cuda" if torch.cuda.is_available() else "cpu") model = LeNet().to(device) #定义优化器 optimizer = optim.Adam(model.parameters(), lr=0.001)
  (4)定义训练过程 def train_runner(model, device, trainloader, optimizer, epoch):     #訓練模型, 啟用 BatchNormalization 和 Dropout, 將BatchNormalization和Dropout置為True     model.train()     total = 0     correct =0.0      #enumerate迭代已載入的数据集     for i, data in enumerate(trainloader, 0):         inputs, labels = data         #把模型部署到device上         inputs, labels = inputs.to(device), labels.to(device)         #初始化梯度         optimizer.zero_grad()         #儲存訓練結果         outputs = model(inputs)         #計算損失和         #多分類情況通常使用cross_entropy(交叉熵損失函式), 而對於二分類問題, 通常使用sigmoid         loss = F.cross_entropy(outputs, labels)         #获取最大概率的預測結果         #dim=1表示返回每一行的最大值對應的列下標         predict = outputs.argmax(dim=1)         total += labels.size(0)         correct += (predict == labels).sum().item()         #反向傳播         loss.backward()         #更新参数         optimizer.step()         if i % 1000 == 0:             #loss.item()表示當前loss的數值             print("Train Epoch{} 	 Loss: {:.6f}, accuracy: {:.6f}%".format(epoch, loss.item(), 100*(correct/total)))             Loss.append(loss.item())             Accuracy.append(correct/total)     return loss.item(), correct/total
  (5)定义测试过程 def test_runner(model, device, testloader):     #模型驗證, 必須要寫, 否則只要有輸入数据, 即使不訓練, 它也會改變權值     model.eval()     #統計模型正確率, 設定初始值     correct = 0.0     test_loss = 0.0     total = 0     #torch.no_grad將不會計算梯度, 也不會進行反向傳播     with torch.no_grad():         for data, label in testloader:             data, label = data.to(device), label.to(device)             output = model(data)             test_loss += F.cross_entropy(output, label).item()             predict = output.argmax(dim=1)             #計算正確數量             total += label.size(0)             correct += (predict == label).sum().item()         #計算損失值         print("test_avarage_loss: {:.6f}, accuracy: {:.6f}%".format(test_loss/total, 100*(correct/total)))
  (6)执行训练与测试 if __name__=="__main__":     epoch = 5     Loss = []     Accuracy = []     for epoch in range(1, epoch + 1):         print("start_time", time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(time.time())))         loss, acc = train_runner(model, device, trainloader, optimizer, epoch)         Loss.append(loss)         Accuracy.append(acc)         test_runner(model, device, testloader)         print("end_time: ", time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(time.time())), " ")     print(model)     torch.save(model, "./models/model-mnist.pth") #儲存模型     print("Finished Training")     plt.subplot(2, 1, 1)     plt.plot(Loss)     plt.title("Loss")     plt.show()     plt.subplot(2, 1, 2)     plt.plot(Accuracy)     plt.title("Accuracy")     plt.show()
  (7)保存网络模型 print(model) torch.save(model, "./models/model-mnist.pth") #儲存模型

王者荣耀后期神装,对于黄金卖掉鞋子,钻石卖掉打野刀的说法怎么看?那么王者段位卖什么?王者荣耀后期神装,对于黄金卖掉鞋子,钻石卖掉打野刀的说法怎么看?那么王者段位卖什么?我们都知道这个版本王者荣耀,天美可是一直控制一局游戏时间,一直在加快游戏节奏,但是,游戏拖到后期得了结肠癌,有人觉得人固有一死无所谓,有人觉得没有事不想它,哪个心态对?我就是结肠癌中晚期患者,已经手术,化疗过后两年了!我来回答这个问题比较合适吧。患了结肠癌,是谁都不愿意的,不管是遗传因素还是自己不规律饮食因素,既然已经患病了,我们就要在心理上藐视北斗卫星启用后,手机能用吗?北斗导航卫星起用,国产手机大多数都可以使用。手机是否使用的是美国的GPS或者中国的北斗导航在手机硬件上是自动切换的。就在昨天北斗三号全球卫星导航系统建成暨开通仪式7月31日上午在北
南宁这个学校火了!一大片三角梅华丽盛放,拍照免费!超美!南宁又一片三角梅火了!就在南宁十七中门口,沿途三角梅盛开,远远看过去像一片粉红色的云,成了一幅绝美春景。一眼望去,整条路都是粉粉的!满满都是少女心!难怪人们总说,最好的风景是此人参与四川国军起义,建国后到学校教学,一年后却被处刑1949年11月,开国大典刚刚结束,全国都洋溢着喜庆的氛围,一片欢腾。但是南方的战事还没有结束,二野大军经过数月的筹划之后,准备发起解放四川的战役。当时四川的国民党守军最高将领是胡探寻webpack打包vue项目特别慢问题前端vue2项目中,多人开发,从一段时间开始发现打包变得特别慢,每次线上更新也至少要10几20分钟,正常项目线上更新一般也就12分钟,新需求开发拉新分支本地运行也要至少56分钟才能宝馨科技拟定增募资不超30亿元持续推进异质结电池等项目3月13日晚间宝馨科技(002514)披露定增预案,拟募资不超30亿元,用于宝馨科技怀远2GW高效异质结电池及组件制造项目宝馨科技鄂托克旗2GW切片2GW高效异质结电池及组件制造项5门5座,颜值在线,江汽全新纯电代步小车曝光,名叫EV3近日,江淮汽车带来了一款全新纯电两厢小型车江汽EV3,新车定位于A0级纯电轿车,造型有点复古,也有点保时捷的味道,相较于以往的车型,颜值确实是高了不少。预计新车上市后的竞争对手会锁好评率高达99!细数FindN2有哪些好体验,让用户赞不绝口要说现如今热门的数码单品,相信不少人会投票给折叠屏手机。诚然,经过近几年的发展,折叠屏手机已摆脱奢侈品的标签,逐渐从尝用变为常用。而且随着大厂的发力,折叠屏手机的许多使用痛点也慢慢电商该怎么选择外呼系统?电商行业的外呼系统是帮助企业提高客户服务质量和效率,增大销售接触面以及拓展新客户群体的重要工具。那么,在外呼系统选择的过程中,应该考虑哪些因素呢?下面就为大家分享几个选购外呼系统的充电20分钟扣款99元?小电科技被疑价格刺客,共享充电宝成投诉重灾区本文来源时代周报作者涂梦莹曾以便捷便宜取得市场的共享充电宝,正在失去用户信赖。截至3月14日,在黑猫投诉平台上,包含街电怪兽充电小电科技与美团搜电等共享充电宝品牌的投诉量累计超过1定义标准电气单位电学单位可以用正式的方法来描述,这便是我们要做的。标准电学单位是按顺序来定义的。安培是最先被定义的。它是一个SI基本单位,唯一一个从实验中定义的电学单位。之后便是库仑和一个电子的电阿克苏地区航线上新!直达兰州广州郑州青岛好消息!3月26日起阿克苏红旗坡机场将开通阿克苏兰州广州往返航线库车龟兹机场将开通库车郑州青岛往返航线进一步满足广大旅客出行需求阿克苏兰州广州往返航线3月26日,阿克苏红旗坡机场将酣畅淋漓西部第一?说打也就打了!经历了漫长的无比赛空窗期后,终于迎来了比赛日。长达4天的调整,给了马刺众将在魔鬼般的牛仔之旅和数个背靠背之后喘息的机会。此役,面对战绩几乎是相反的西部第一掘金,任谁看都是一场结局十