|
|
“飞蛾扑火”——基于计算机视觉跟踪和深度学习的飞蛾诱捕器 | MDPI Sensors |
|
论文标题:Tracking Quantitative Characteristics of Cutting Maneuvers with Wearable Movement Sensors during Competitive Women’s Ultimate Frisbee Games (在女子极限飞盘比赛中使用可穿戴运动传感器跟踪切割动作的定量特征)
期刊:Sensors
作者:Kim Bjerge, Jakob Bonde Nielsen, Martin Videbæk Sepstrup, Flemming Helsing-Nielsen and Toke Thomas Høye
发表时间:6 January 2021
DOI:10.3390/s21020343
微信链接:
期刊链接:
研究背景
地球上所有已记录的物种中,有一半以上是昆虫。其中由飞蛾 (88%) 和蝴蝶 (12%) 组成的鳞翅目昆虫就有超过160,000种,是物种数最多的昆虫种类之一。飞蛾在自然界中扮演着重要的角色,它既是传粉媒介和食草动物,同时也是鸟类和蝙蝠的食物来源之一。与此同时,在农业和林业中,飞蛾属于最具破坏性的害虫之一。对飞蛾等昆虫种群的监测与研究,具有重要的现实意义。
监测飞蛾应用最为广泛的方法是使用光诱捕器。这种方法通常需要在杀死飞蛾后,人工对其进行计数和分类,对专业知识有一定要求,且劳动强度大。来自丹麦Aarhus University的Kim Bjerge等学者,近期在Sensors上发表了一项研究,详细介绍了一种基于计算机视觉算法和光诱捕器的飞蛾监测系统,能够自动地对活体飞蛾进行计数和种群分类。
系统与算法
系统介绍
自动飞蛾光诱捕器的主要组件有能够吸引昆虫的紫外线荧光灯管、让昆虫停留的光台、拍摄记录昆虫的高清摄像头、提供光的灯环、用于处理和存储图片的树莓派 (Raspberry Pi 4) 计算机以及为整个系统提供电力的太阳能电池板和DC-DC电压转换器 (图1)。
图1. 自动飞蛾光诱捕器系统示意图 (左) 和实拍图 (右)。
算法介绍
作者开发了一套新颖的计算机视觉算法,来实现对飞蛾物种识别和计数 (代码:)。算法的流程图如图2所示,总共可分为四步:标记:从诱捕器中读取被分割成黑白两色的图像,进行斑点检测,在每个检测到的昆虫周围标记一个边界框;跟踪:对图像序列中的每个昆虫进行跟踪,并确保它们在相机视野停留期间只被计数一次;分类:利用算法对每只被跟踪记录的昆虫进行评估,将其进行分类,最终将每只昆虫分类到某一已知蛾类或“其他昆虫”类。物种分类是此算法中最重要的的部分,作者受先前研究启发,设计了一个定制的轻量化卷积神经网络 (CNN) 来实现该功能 (图3);统计:对分类结果进行统计,用于后续分析。
图2. 飞蛾计数与分类算法流程图。
图3. 定制卷积神经网络结构图。
实验结果及分析
作者在2019年夏季的48个夜晚,利用设计的光诱捕器在丹麦的里斯科夫森林附近记录了272,683张图像,并人工标记了2000张飞蛾图像用于训练定制卷积神经网络,使得其能够检测和分类8种不同种群的飞蛾。
● 跟踪方面,作者基于对6000幅图像的调查,计算得出算法的跟踪检测率 (Tracker Detection Rate, TDR) 为79%,误报率 (False Alarm Rate, FAR) 为22%。
● 分类方面,由于被标记的图片数量较小,作者采用了数据增强的方法对原有的2000张图片进行增强,得到72,000张图像,用于CNN网络训练与验证。通过调整网络的超参数,得到了实现0.93的高验证F1得分的CNN网络。基于对三个晚上30,225张图像中观察到的485只飞蛾,对该算法的实际效果进行验证,测得的平均分类精确率、召回率以及F1分数分别为0.67、0.74和0.71,表明该算法具有较好的分类效果。
作者分析认为主要有两个因素影响了算法效果。一是一些飞蛾会在摄像头前移动太快或者部分飞蛾相隔太近,导致算法难以识别其边界,进行识别与分类。二是用于训练和验证神经网络的飞蛾图片需要相关专业人员进行人工识别与标注,导致本文的数据量还不够大,无法更好地训练网络。
结论
总体而言,文章所提出的光诱捕器和计算机视觉系统作为一种低成本的解决方案,表现出了良好的效果。该方案实现了对飞蛾的无损自动监测和物种分类,在全球范围内,给基于图像的昆虫监测提供了新的方法与思路。
期刊介绍
主要刊载传感器明升体育app和技术研究领域的学术文章。在JCR Instruments & Instrumentation学科分类中排名居Q1 (14/64),在 Scopus Physics and Astronomy: Instrumentation 学科分类中排名居Q1 (13/128)。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。