本专题小编共整理了11篇文章,来自北达科他州州立大学、北京农业智能装备技术研究中心、北京市农林科学院、上海大学、中国农业科学院农业信息研究所、中国农业科学院植物保护研究所、中国农业科学院作物科学研究所、中国农业大学等单位。 文章包含苹果的检测和产量测定、玉米作物营养状况识别、番茄植株相近色目标识别和番茄叶部病害快速识别、大豆幼苗期玉米杂苗检测、草地贪夜蛾及其近缘种成虫识别、蔬菜短期价格预测、杂草检测、小麦倒伏率检测、大豆籽粒快速计数等内容。供大家阅读、参考。 专题农业人工智能 TopicAgriculturalArtificialIntelligence 〔1〕夏雪,孙琦鑫,侍啸,柴秀娟。基于轻量级无锚点深度卷积神经网络的树上苹果检测模型〔J〕。智慧农业(中英文),2020,2(1):99110。 XIAXue,SUNQixin,SHIXiao,CHAIXiujuan。Appledetectionmodelbasedonlightweightanchorfreedeepconvolutionalneuralnetwork〔J〕。SmartAgriculture,2020,2(1):99110。 摘要:为提高现有苹果目标检测模型在硬件资源受限制条件下的性能和适应性,实现在保持较高检测精度的同时,减轻模型计算量,降低检测耗时,减少模型计算和存储资源占用的目的,本研究通过改进轻量级的MobileNetV3网络,结合关键点预测的目标检测网络(CenterNet),构建了用于苹果检测的轻量级无锚点深度学习网络模型(MCenterNet),并通过与CenterNet和单次多重检测器(SingleShotMultiboxDetector,SSD)网络比较了模型的检测精度、模型容量和运行速度等方面的综合性能。对模型的测试结果表明,本研究模型的平均精度、误检率和漏检率分别为88。9、10。9和5。8;模型体积和帧率分别为14。2MB和8。1fps;在不同光照方向、不同远近距离、不同受遮挡程度和不同果实数量等条件下有较好的果实检测效果和适应能力。在检测精度相当的情况下,所提网络模型体积仅为CenterNet网络的14;相比于SSD网络,所提网络模型的AP提升了3。9,模型体积降低了84。3;本网络模型在CPU环境中的运行速度比CenterNet和SSD网络提高了近1倍。研究结果可为非结构环境下果园作业平台的轻量化果实目标检测模型研究提供新的思路。 知网阅读 〔2〕吴刚,彭要奇,周广奇,李晓龙,郑永军,严海军。基于多光谱成像和卷积神经网络的玉米作物营养状况识别方法研究〔J〕。智慧农业(中英文),2020,2(1):111120。 WUGang,PENGYaoqi,ZHOUGuangqi,LIXiaolong,ZHENGYongjun,YANHaijun。Recognitionmethodforcornnutrientbasedonmultispectralimageandconvolutionalneuralnetwork〔J〕。SmartAgriculture,2020,2(1):111120。 摘要:水肥一体化自动装备的使用能够有效提高水肥资源利用率,但需要在作业前获知作物的营养状况及水肥需求量,而通过人工手持测量仪器来获取这些信息,存在着时效性差和劳动强度大等缺点。针对以上问题,本研究以常见的作物玉米为研究对象,使用大疆精灵无人机携带RedEdgeM多光谱相机在田间上空采集玉米多光谱图像,同时使用YLSD系列植株营养测定仪测量玉米植株的氮素和水分含量等营养信息,根据这些信息将采集的图像分为3个等级(每个等级共包含530幅五通道图像,其中480幅作为训练集,50幅作为验证集),提出了一种基于卷积神经网络的玉米作物营养状况识别方法。并基于TensorFlow深度学习框架搭建了ResNet18卷积神经网络模型,通过向模型输入彩色图像数据和五通道多光谱图像数据,分别训练出适合于彩色图像和多光谱图像的玉米植株营养状况等级识别模型。试验结果表明:训练后的模型能够识别玉米作物的彩色图像和多光谱图像,能够输出玉米的营养状况等级和GPS信息,识别彩色图像模型在验证集的正确率为84。7,识别多光谱图像模型在验证集的正确率为90。5,模型训练平均时间为4。5h,五通道图像识别平均用时为3。56s。该识别方法可快速无损地获取玉米作物的营养状况,为有效提高水肥资源利用率提供了方法和依据。 知网阅读 〔3〕冯青春,陈建,成伟,王秀。面向番茄植株相近色目标识别的多波段图像融合方法〔J〕。智慧农业(中英文),2020,2(2):126134。 FENGQingchun,CHENJian,CHENGWei,WANGXiu。Multibandimagefusionmethodforvisuallyidentifyingtomatoplant’sorganswithsimilarcolor〔J〕。SmartAgriculture,2020,2(2):126134。 摘要:针对温室番茄智能化管理需要,研究茎秆、叶片和绿果等3类相近色目标的多波段图像融合方法,以凸显目标与背景亮度差异,提高目标视觉识别效率。根据其各自在3001000nm范围的反射光谱特征差异,建立了针对其光谱数据分类的Lasso正则化逻辑回归模型。基于模型的稀疏解特征,确定具有较大权值系数的450、600和900nm等3个波段作为最优成像波段,在此基础上构建了温室番茄植株多波段图像在线采集系统。结合最优成像波段下相近色目标图像特征分析,提出了基于NSGAII的多波段图像加权融合方法,以增强特定目标与近色背景物体的图像亮度差异。最后通过现场试验对多波段图像融合效果进行评估。结果表明,分别以茎秆、叶片和绿果器官作为识别目标,通过多波段图像融合处理后,目标与背景之间的图像灰度差异绝对差值相应达到单波段图像的2。02、8。63和7。89倍,即被识别目标与其他近色背景的亮度差异显著增强,且背景物的亮度波动得到抑制。本研究结果可以为农业环境近色目标视觉识别相关研究提供参考。 知网阅读 〔4〕FLORESPaulo,张昭,MATHEWJithin,JAHANNusrat,STENGERJohn。利用图像和机器学习检测大豆作物幼苗期玉米杂苗〔J〕。智慧农业(中英文),2020,2(3):6174。 FLORESPaulo,ZHANGZhao,MATHEWJithin,JAHANNusrat,STENGERJohn。Distinguishingvolunteercornfromsoybeanatseedlingstageusingimagesandmachinelearning〔J〕。SmartAgriculture,2020,2(3):6174。 摘要:在大豆玉米轮作生产过程中,玉米杂苗会与大豆苗竞争水和肥料,而且很容易遮住大豆苗,影响害虫(如玉米根虫)的防控,降低大豆品质。因此,在大豆幼苗期及时检测出玉米杂苗并对其进行处理非常重要。传统的人工检测方法主观性强、效率低,传感器和算法的发展为自动检测玉米杂苗提供了更好的解决方案。本研究在温室环境下模仿田间条件,待玉米和大豆发芽后,连续5天用因特尔RealSenseD435相机采集彩色图像,并人工裁剪幼苗图像区域,在此基础上对图像进行分割和去噪。在采集图像形状、色彩和纹理特征值后,对所采集的特征值进行权重分析,保留前10种重要的特征值导入基于特征的机器学习算法中进行模型训练和预测。预测结果表明,支持向量机模型(SVM)、神经网络(NN)和随机森林(RF)的预测精度分别为85。3,81。5和82。6。将数据集导入GoogLeNet和VGG16两种深度学习模型进行训练,预测精度分别为96。0和96。2。VGG16模型在区分大豆幼苗和玉米杂苗中有较好的表现,彩色图像和VGG16模型组成的系统可以自动检测大豆生长过程中玉米杂苗的情况,为农民提供准确的信息,帮助其进行生产决策和田间管理。 知网阅读 〔5〕魏靖,王玉亭,袁会珠,张梦蕾,王振营。基于深度学习与特征可视化方法的草地贪夜蛾及其近缘种成虫识别〔J〕。智慧农业(中英文),2020,2(3):7585。 WEIJing,WANGYuting,YUANHuizhu,ZHANGMenglei,WANGZhenying。IdentificationandmorphologicalanalysisofadultSpodopteraFrugiperdaanditscloserelatedspeciesusingdeeplearning〔J〕。SmartAgriculture,2020,2(3):7585。 摘要:草地贪夜蛾是对粮食安全具有巨大威胁的害虫,早发现、早防治对虫情控制具有重要意义。目前,利用深度学习方法进行草地贪夜蛾及其近缘种成虫识别的相关研究存在数据量严重偏小的情况,有可能造成模型未能真正学习到草地贪夜蛾及其近缘种成虫的环形纹、肾形纹等关键视觉特征。针对上述问题,本研究在建立包含草地贪夜蛾在内的7种夜蛾科成虫,10,177幅图像组成的数据库基础上,采用迁移学习方式建立了VGG16、ResNet50和DenseNet121,3种夜蛾成虫识别深度学习模型,并用相同的测试集测试了所有模型。结果表明,构建的模型识别准确率均超过了98。此外,本研究用特征可视化技术展现了模型习得的特征,并验证了这些特征和专家进行人工识别的关键视觉特征的一致性ResNet50和DenseNet121的平均特征识别率在85左右,进一步支持了用深度学习进行草地贪夜蛾成虫实时识别的可行性。研究发现,不同模型对夜蛾科成虫视觉特征的学习能力不一样,在评价模型时不能仅看识别率,还需要加入视觉特征识别率指标对模型的学习内容进行评价。本研究通过试验证明可视化分析可以直观认识模型的特征学习情况,可为行业内或其他领域的研究人员提供参考。 知网阅读 〔6〕张燕,李庆学,吴华瑞。基于核相互子空间法的番茄叶部病害快速识别模型〔J〕。智慧农业(中英文),2020,2(3):8697。 ZHANGYan,LIQingxue,WUHuarui。Rapidrecognitionmodeloftomatoleafdiseasesbasedonkernelmutualsubspacemethod〔J〕。SmartAgriculture,2020,2(3):8697。 摘要:近年来,基于叶片图像的番茄病害识别研究受到广泛关注。本研究利用番茄叶部病害图像中病斑的颜色和纹理的差异,通过提取番茄病害叶片图像的颜色矩(CM)、颜色聚合向量(CCV)和方向梯度直方图(HOG)等颜色纹理特征,引入核相互子空间法(KMSM),建立了番茄叶部病害快速识别模型(CCHKMSM)。该模型首先通过高斯核函数,将从不同类别叶部病害图像数据中抽取的颜色及纹理特征映射到高维空间;然后对映射的高维空间进行主成分分析,建立非线性病害特征空间;最后基于非线性特征空间最小正则角对病害进行识别。本研究分别以公共农业病虫害数据集PlantVillage中的9种番茄病害类和1类健康番茄叶片图像,以及实际场景下采集的3种叶部病虫害图像数据集开展算法验证试验。基于PlantVillage的试验结果表明,当每类样本集数量为350张时,本研究所提出的CCHKMSM模型识别率达到100,模型训练时间为0。1540s,平均识别时间为0。013s;同时,在样本数量150张到1000张的测试区间内,模型平均识别率为99。14。该识别率高于其他典型的机器学习模型,与基于深度学习的识别方法相当。基于实际复杂场景下采集病害图像集的实验中,通过对原始图像切割分块后,对各病害的平均识别率为96。21。试验结果表明,本研究提出的CCHKMSM模型识别准确率高且计算量小,其训练时间和测试时间都远低于深度学习等方法。该方法对系统要求低,具有在手持设备、边缘计算终端等低配置感知系统中的应用潜力。 知网阅读 〔7〕喻沩舸,吴华瑞,彭程。基于Lasso回归和BP神经网络的蔬菜短期价格预测组合模型研究〔J〕。智慧农业(中英文),2020,2(3):108117。 YUWeige,WUHuarui,PENGCheng。ShorttermpriceforecastofvegetablesbasedoncombinationmodelofLassoregressionmethodandBPneuralnetwork〔J〕。SmartAgriculture,2020,2(3):108117。 摘要:蔬菜是居民生活饮食的重要组成部分,蔬菜价格预测存在着价格波动幅度大、影响因素复杂多样、精度不高等难点。本研究以黄瓜为研究对象,分析了影响黄瓜价格的供给、需求、流通等因素,引入Lasso回归模型对影响因素进行筛选,获得12项关联度较大的因素。在此基础上,构建了一种基于影响因素的Lasso回归方法与BP神经网络相结合的组合模型(LBPNN),开展黄瓜短期价格预测,并与Lasso回归模型、BP神经网络模型、RBF神经网络模型等回归分析和智能分析方法等进行了对比验证研究。结果表明:使用LBPNN模型预测黄瓜价格,其平均相对误差最小,仅为0。66,比Lasso回归模型、BP神经网络模型和RBF神经网络模型分别低64。52、82。11和86。2,具有较高的预测精度。本研究结果实现了黄瓜的短期价格预测,也可推广到其他蔬菜品种,对于保障菜农收入、稳定蔬菜市场价格等具有重要意义。 知网阅读 〔8〕苗中华,余孝有,徐美红,何创新,李楠,孙腾。基于图像处理多算法融合的杂草检测方法及试验〔J〕。智慧农业(中英文),2020,2(4):103115。 MIAOZhonghua,YUXiaoyao,XUMeihong,HEChuangxin,LINan,SUNTeng。Automaticweeddetectionmethodbasedonfusionofmultipleimageprocessingalgorithms〔J〕。SmartAgriculture,2020,2(4):103115。 摘要:自动化除草是现代精确农业科学领域的研究热点。已有的自动化除草解决方案中普遍存在鲁棒性不强、过度依赖大量样本等问题,针对上述问题,本研究提出了基于图像处理多算法融合的田间杂草检测方法,设计了一套田间杂草自动识别算法。首先通过设置颜色空间的阈值从图像中分割土壤背景。然后采用面积阈值、模板匹配和饱和度阈值三种方法对作物和杂草进行分类。最后基于投票的方式,综合权衡上述三种方法,实现对作物和杂草的精准识别与定位。以大豆田间除草为对象进行了试验研究,结果表明,使用融合多图像处理算法的投票方法进行作物和杂草识别定位,杂草识别平均错误率为1。79,识别精度达到98。21。相较单一的面积阈值、模板匹配和饱和度阈值方法,基于投票权重识别杂草的精度平均提升5。71。同时,针对复杂多变的农业场景,进行了存在雨滴和阴影干扰的鲁棒性测试,实现了90以上的作物识别结果,表明本研究方法具有较好的适应性和鲁棒性。本研究算法可为智能移动机器人除草作业等智慧农业领域应用提供技术支持。 知网阅读 〔9〕FLORESPaulo,张昭。基于无人机图像以及不同机器学习和深度学习模型的小麦倒伏率检测〔J〕。智慧农业(中英文),2021,3(2):2334。 FLORESPaulo,ZHANGZhao。WheatlodgingratiodetectionbasedonUASimagerycoupledwithdifferentmachinelearninganddeeplearningalgorithms〔J〕。SmartAgriculture,2021,3(2):2334。 摘要:小麦在生长过程中发生倒伏会严重影响其产量,因此实时且准确地对小麦倒伏状况监测有很重要的意义。传统的方法采用手工方式生成数据集,不仅效率低、易出错,而且生成的数据集不准确。针对这一问题,本研究提出了一种基于图像处理的自动数据集生成方法。首先利用无人机在15、46和91m三个高度采集图像数据;采集完数据后,根据无倒伏、倒伏面积50和倒伏面积50的标准对每一块地的小麦倒伏情况进行人工评估;采用三种机器学习(支持向量机、随机森林、K近邻)和三种深度学习(ResNet101、GoogLeNet、VGG16)算法对小麦倒伏检测情况进行分类。结果显示,ResNet101的分类结果优于随机森林,并且在91m高度采集的数据分类精度并不低于在15m高度采集的数据。本研究证明了针对在91m高度采集的无人机图像,采用ResNet101对小麦倒伏率检测是一种有效的替代人工检测的方法,其检测精度达到了75。 知网阅读 〔10〕李志军,杨圣慧,史德帅,刘星星,郑永军。基于轻量化改进YOLOv5的苹果树产量测定方法〔J〕。智慧农业(中英文),2021,3(2):100114。 LIZhijun,YANGShenghui,SHIDeshuai,LIUXingxing,ZHENGYongjun。YieldestimationmethodofappletreebasedonimprovedlightweightYOLOv5〔J〕。SmartAgriculture,2021,3(2):100114。 摘要:果树测产是果园管理的重要环节之一,为提升苹果果园原位测产的准确性,本研究提出一种包含改进型YOLOv5果实检测算法与产量拟合网络的产量测定方法。利用无人机及树莓派摄像头采集摘袋后不同着色时间的苹果果园原位图像,形成样本数据集;通过更换深度可分离卷积和添加注意力机制模块对YOLOv5算法进行改进,解决网络中存在的特征提取时无注意力偏好问题和参数冗余问题,从而提升检测准确度,降低网络参数带来的计算负担;将图片作为输入得到估测果实数量以及边界框面总积。以上述检测结果作为输入、实际产量作为输出,训练产量拟合网络,得到最终测产模型。测产试验结果表明,改进型YOLOv5果实检测算法可以在提高轻量化程度的同时提升识别准确率,与改进前相比,检测速度最大可提升15。37,平均mAP最高达到96。79;在不同数据集下的测试结果表明,光照条件、着色时间以及背景有无白布均对算法准确率有一定影响;产量拟合网络可以较好地预测出果树产量,在训练集和测试集的决定系数R2分别为0。7967和0。7982,均方根误差RMSE分别为1。5317和1。4021,不同产量样本的预测精度基本稳定;果树测产模型在背景有白布和无白布的条件下,相对误差范围分别在7以内和13以内。本研究提出的基于轻量化改进YOLOv5的果树产量测定方法具有良好的精度和有效性,基本可以满足自然环境下树上苹果的测产要求,为现代果园环境下的智能农业装备提供技术参考。 知网阅读 〔11〕王莹,李越,武婷婷,孙石,王敏娟。基于密度估计和VGGTwo的大豆籽粒快速计数方法〔J〕。智慧农业(中英文),2021,3(4):111122。 WANGYing,LIYue,WUTingting,SUNShi,WANGMinjuan。FastcountingmethodofsoybeanseedsbasedondensityestimationandVGGTwo〔J〕。SmartAgriculture,2021,3(4):111122。 摘要:为快速准确计数大豆籽粒,提高大豆考种速度和育种水平,本研究提出了一种基于密度估计和VGGTwo(VGGT)的大豆籽粒计数方法。首先针对大豆籽粒计数领域可用图像数据集缺乏的问题,提出了基于数字图像处理技术的预标注和人工修正标注相结合的快速目标点标注方法,加快建立带标注的公开可用大豆籽粒图像数据集。其次构建了适用于籽粒图像数据集的VGGT网络计数模型,该模型基于VGG16,结合密度估计方法,实现从单一视角大豆籽粒图像中准确计数籽粒。最后采用自制的大豆籽粒数据集对VGGT模型进行测试,分别对有无数据增强的计数准确性、不同网络的计数性能以及不同测试集的计数准确性进行了对比试验。试验结果表明,快速目标点标注方法标注37,563个大豆籽粒只需花费197min,比普通人工标注节约了1592min,减少约96的人工工作量,大幅降低时间成本和人工成本;采用VGGT模型计数,其评估指标在原图和补丁(patch)情况下的平均绝对误差分别为0。6和0。2,均方误差为0。6和0。3,准确性高于传统图像形态学操作以及ResNet18、ResNet18T和VGG16网络。在包含不同密度大豆籽粒的测试集中,误差波动较小,仍具有优良的计数性能,同时与人工计数和数粒仪相比,计数11,350个大豆籽粒分别节省大约2。493?h和0。203?h,实现大豆籽粒的快速计数任务。 知网阅读 微信交流服务群为方便农业科学领域读者、作者和审稿专家学术交流,促进智慧农业发展,为更好地服务广大读者、作者和审稿人,编辑部建立了微信交流服务群,有关专业领域内的问题讨论、投稿相关的问题均可在群里咨询。 入群方法:加小编微信331760296,备注:姓名、单位、研究方向,小编拉您进群,机构营销广告人员勿扰。 信息发布 科研团队介绍及招聘信息、学术会议及相关活动的宣传推广