亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)ResNet50模型的咖啡生豆質(zhì)量和缺陷檢測(cè)方法

        2024-01-01 00:00:00紀(jì)元浩許金普嚴(yán)蓓蓓薛俊龍
        關(guān)鍵詞:注意力機(jī)制咖啡豆卷積神經(jīng)網(wǎng)絡(luò)

        摘要:

        咖啡生豆的質(zhì)量決定著商品咖啡豆的價(jià)格,目前對(duì)咖啡生豆的篩選主要由人工完成,費(fèi)時(shí)費(fèi)力。提出一種基于改進(jìn)ResNet50模型來識(shí)別咖啡生豆的方法,首先收集8 000張咖啡生豆圖像建立數(shù)據(jù)集,并對(duì)其進(jìn)行數(shù)據(jù)增強(qiáng),基于ResNet50模型加入CBAM注意力機(jī)制,引入遷移學(xué)習(xí)機(jī)制,并使用深度可分離卷積來代替ResNet50殘差單元中的傳統(tǒng)卷積,構(gòu)建適用于咖啡生豆分類識(shí)別的ResNet50-CBAM-DW模型。為評(píng)估模型改進(jìn)的有效性,與ResNet50、AlexNet、VGG16、MobileNetV2等模型進(jìn)行比較,改進(jìn)后模型準(zhǔn)確率達(dá)到91.1%,相較于原ResNet50模型準(zhǔn)確率提升3.0%,參數(shù)量降低39.0%。

        關(guān)鍵詞:殘差網(wǎng)絡(luò);咖啡豆;注意力機(jī)制;卷積神經(jīng)網(wǎng)絡(luò);深度可分離卷積

        中圖分類號(hào):S571.2; TP391.41

        文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):2095-5553 (2024) 04-0237-07

        收稿日期:2023年3月7日" 修回日期:2023年5月24日

        基金項(xiàng)目: 山東省重大科技創(chuàng)新工程(2021LZGC014—3);青島農(nóng)業(yè)大學(xué)研究生創(chuàng)新計(jì)劃項(xiàng)目(QNYCX22038)

        第一作者:紀(jì)元浩,1998年生,男,山東菏澤人,碩士研究生;研究方向?yàn)檗r(nóng)業(yè)工程與信息技術(shù)。E-mail: summerwen2023@163.com

        通訊作者:許金普,1979年生,男,山東博興人,博士,副教授,碩導(dǎo);研究方向?yàn)檗r(nóng)業(yè)信息技術(shù)。E-mail: xjp@qau.edu.cn

        A method for detecting quality and defects in raw coffee beans based on

        improved ResNet50 model

        Ji Yuanhao1, Xu Jinpu1, Yan Beibei1, Xue Junlong2

        (1. College of Animation and Media, Qingdao Agricultural University, Qingdao, 266109, China;

        2. Shandong Institute of Innovation Development, Jinan, 250101, China)

        Abstract:

        The quality of raw coffee beans determines the price of commercial coffee beans. Currently, the screening of raw coffee beans is mainly done manually, which is time-consuming and laborious." This paper proposes a method to identify raw coffee beans based on an improved ResNet50 model. Firstly, 8 000 images of raw coffee beans were collected to build a dataset and data enhancement was applied to it. A ResNet50-CBAM-DW model for coffee bean classification recognition was constructed based on the ResNet50 model by adding a CBAM attention mechanism, by introducing a migration learning mechanism and using deep separable convolution instead of the conventional convolution in the ResNet50 residual unit. In order to evaluate the effectiveness of the model improvement, the accuracy of the improved model was compared with ResNet50, AlexNet, VGG16, MobileNetV2 and other models, and the accuracy of the improved model reached 91.1%, which improved 3.0% compared with the original ResNet50 model and reduced the number of parameters by 39.0%.

        Keywords:

        residual networks; coffee beans; attention mechanism; convolutional neural networks; deep separable convolution

        0 引言

        中國(guó)已成為世界上主要的咖啡生產(chǎn)大國(guó)、貿(mào)易大國(guó)和消費(fèi)大國(guó)之一,近些年我國(guó)逐漸發(fā)展出了自己獨(dú)特的咖啡文化和咖啡產(chǎn)業(yè)鏈[1],其中對(duì)咖啡生豆的篩選是一個(gè)重要的環(huán)節(jié)??Х壬沟耐獗砜赡軙?huì)有破損、褪色、腐爛等情況,這些瑕疵豆的質(zhì)量較差,容易影響咖啡飲料的口感和質(zhì)量[2]。因此,找到一種高效精準(zhǔn)的咖啡生豆智能檢測(cè)方法尤為重要。

        除傳統(tǒng)的人工目測(cè)方法外,目前應(yīng)用于咖啡生豆的檢測(cè)技術(shù)主要有近紅外光譜、多光譜成像和機(jī)械分選等。Khuwijitjaru等[3]采用近紅外光譜技術(shù)對(duì)優(yōu)質(zhì)、缺陷、污染的生咖啡豆進(jìn)行分類,準(zhǔn)確率為97.5%。Gomes等[4]使用多光譜成像技術(shù)區(qū)分傳統(tǒng)和特殊類別的生咖啡豆實(shí)現(xiàn)了96%的準(zhǔn)確率。但是上述方法都存在成本過高,現(xiàn)實(shí)較為復(fù)雜的問題而難以大規(guī)模推廣應(yīng)用。

        隨著近些年卷積神經(jīng)網(wǎng)絡(luò)模型的不斷更迭[5],各種網(wǎng)絡(luò)層次越來越深,結(jié)構(gòu)越來越復(fù)雜,精度也不斷提升。目前,深度學(xué)習(xí)在解決農(nóng)業(yè)產(chǎn)品品質(zhì)檢測(cè)[6]、分類檢測(cè)[7]、病蟲害[8]等問題方面表現(xiàn)出色。

        國(guó)內(nèi)外也有部分學(xué)者根據(jù)咖啡生豆缺陷豆識(shí)別的需求,以深度學(xué)習(xí)為基礎(chǔ)提出了多種解決方案。如Huang等[9]利用深度學(xué)習(xí)算法對(duì)同品種咖啡生豆進(jìn)行二分類(優(yōu)質(zhì)豆、壞豆)劃分,準(zhǔn)確率達(dá)到了93%。Adiwijaya等[10]從咖啡豆顏色角度入手,將小樣本同品種咖啡生豆中的優(yōu)質(zhì)豆劃分為AA、A、B三類,實(shí)現(xiàn)了83%的準(zhǔn)確率。趙玉清等[11]采用機(jī)器視覺技術(shù)提取咖啡豆輪廓、顏色和紋理3類特征,將特征組合并在SVM檢測(cè)模型上平均精度達(dá)86.1%。上述提到的各種方法雖然實(shí)現(xiàn)了對(duì)咖啡生豆的分類,但是在精度上還有很大的提升空間,另一方面在實(shí)際生產(chǎn)過程中,不同形狀的咖啡生豆經(jīng)濟(jì)價(jià)值也不盡相同,如咖啡生豆優(yōu)質(zhì)豆中的外觀為圓形的小圓豆[2]因其特殊價(jià)值通常被篩選出來,另一種外觀特征與優(yōu)質(zhì)豆相似的但形態(tài)較為細(xì)長(zhǎng)扁平的長(zhǎng)粒豆也被篩選出來,而缺陷豆通常不必做具體的細(xì)節(jié)劃分直接將其剔除。

        本文針對(duì)以上存在的問題,選擇使用網(wǎng)絡(luò)層次較深、提取特征能力較強(qiáng)的ResNet網(wǎng)絡(luò),提出一種基于改進(jìn)ResNet50的識(shí)別模型,通過對(duì)原有的ResNet50模型結(jié)構(gòu)進(jìn)行修改,并借鑒MobileNet網(wǎng)絡(luò)[12]的思想,使用深度可分離卷積方法代替?zhèn)鹘y(tǒng)卷積層,在不影響準(zhǔn)確率的前提下,減少模型參數(shù),提高收斂速度。并且引入CBAM注意力機(jī)制,使其能夠更加精準(zhǔn)地提取圖像的特征,增加模型的精準(zhǔn)度,同時(shí)將ImageNet數(shù)據(jù)集的預(yù)訓(xùn)練權(quán)重進(jìn)行遷移訓(xùn)練,以加快模型的訓(xùn)練和擬合,從而有效地減少模型的訓(xùn)練時(shí)長(zhǎng),實(shí)現(xiàn)咖啡生豆高精準(zhǔn)分類,為后續(xù)在咖啡生豆智能篩選設(shè)備的應(yīng)用上提供基礎(chǔ)。

        1 材料與方法

        1.1 數(shù)據(jù)來源

        本文采用USK-Coffee[13]項(xiàng)目所收集的阿拉比卡咖啡生豆圖片集合,此數(shù)據(jù)集共包含4種類別:小圓豆、長(zhǎng)粒豆、壞豆、優(yōu)質(zhì)豆。圖像尺寸為256像素×256像素。試驗(yàn)樣本共計(jì)8 000幅圖像,每種類別圖像樣本各2 000幅。圖像樣本示例如圖1所示。

        1.2 數(shù)據(jù)處理

        在對(duì)圖像數(shù)據(jù)集進(jìn)行分類之前,首先要對(duì)圖像進(jìn)行預(yù)處理,圖片大小需適配網(wǎng)絡(luò)輸入要求,將圖像大小調(diào)整為統(tǒng)一的尺寸,并使用ImageNet權(quán)重進(jìn)行圖像歸一化,使模型在訓(xùn)練和預(yù)測(cè)時(shí)能夠更容易地處理不同大小和像素范圍的圖像。將圖像的尺寸縮放為224像素×224像素,另外對(duì)圖像使用裁剪、翻轉(zhuǎn)、平移、旋轉(zhuǎn)組合方式來進(jìn)行數(shù)據(jù)增強(qiáng),從而提高模型的泛化能力[14]。并按照7∶2∶1的比例劃分訓(xùn)練集驗(yàn)證集和測(cè)試集,數(shù)據(jù)集圖片數(shù)量如表1所示。驗(yàn)證集用于檢驗(yàn)?zāi)P托Ч目煽啃?,測(cè)試集在模型訓(xùn)練和數(shù)據(jù)增強(qiáng)過程中不參與,而是用于評(píng)估模型最終表現(xiàn)的優(yōu)劣。

        2 模型結(jié)構(gòu)

        2.1 ResNet50殘差網(wǎng)絡(luò)

        ResNet是由He等[15]提出的一種深度卷積神經(jīng)網(wǎng)絡(luò),與傳統(tǒng)的深度卷積神經(jīng)網(wǎng)絡(luò)不同,ResNet采用了殘差學(xué)習(xí)機(jī)制,即在每個(gè)卷積塊中添加殘差連接,使得網(wǎng)絡(luò)中的每一層輸出都能和輸入相加。這樣就可以使得網(wǎng)絡(luò)在訓(xùn)練時(shí)能夠更快地收斂,并且由于引入了殘差連接可以有效地防止梯度消失和梯度爆炸的發(fā)生,從而達(dá)到更好的性能。ResNet50網(wǎng)絡(luò)通過引入殘差結(jié)構(gòu)解決由于網(wǎng)絡(luò)過深導(dǎo)致的退化問題,使梯度在傳遞過程中不會(huì)消失。

        在殘差網(wǎng)絡(luò)中,網(wǎng)絡(luò)的每一層的輸出都是通過計(jì)算H(x)=F(x)+x得到的,其中F(x)是這一層的殘差映射,x是這一層的輸入,H(x)是這一層的輸出。殘差映射F(x)的作用是把前面層的輸出作為輸入,并通過一系列卷積和非線性激活函數(shù)來計(jì)算出新的特征。如果在殘差映射之后加上一個(gè)恒等映射層,那么網(wǎng)絡(luò)的輸出就等于輸入,這使得殘差網(wǎng)絡(luò)的網(wǎng)絡(luò)深度可以非常大,但是不增加誤差,從而提高了網(wǎng)絡(luò)的表達(dá)能力。

        本文選擇ResNet50殘差網(wǎng)絡(luò)作為基本骨架,并對(duì)其進(jìn)行了改進(jìn),并使用ResNet50的殘差塊作為基本的構(gòu)建模塊,然后在其上進(jìn)行修改和擴(kuò)展,以適應(yīng)咖啡生豆的應(yīng)用場(chǎng)景。另一方面通過遷移訓(xùn)練的方式,使用已有的ImageNet權(quán)重遷移至模型進(jìn)行訓(xùn)練,從而獲得較好的模型性能。殘差網(wǎng)絡(luò)如圖2所示。

        2.2 模型改進(jìn)

        2.2.1 注意力機(jī)制

        注意力機(jī)制是深度學(xué)習(xí)中一種模仿人的認(rèn)知注意力的技術(shù),可以有效地分配模型的計(jì)算能力,使其集中在需要注意的特征上。這能夠提升模型的特征學(xué)習(xí)能力,并且避免在不必要的特征上浪費(fèi)資源,從而使網(wǎng)絡(luò)能夠更加關(guān)注于重要的局部信息[16]。CBAM注意力機(jī)制(Convolutional block attention module, CBAM)結(jié)構(gòu)包括2個(gè)子模塊:通道注意力子模塊和空間注意力子模塊。其結(jié)構(gòu)如圖3所示。

        通道注意力子模塊通過計(jì)算每個(gè)通道的權(quán)重來調(diào)整輸入張量的每個(gè)通道的貢獻(xiàn),輸入是一個(gè)三維張量,維度分別為高度(H)、寬度(W)和通道數(shù)(C)。

        2.2.2 深度可分離卷積

        本文使用的骨干網(wǎng)絡(luò)ResNet50在通過不斷堆疊網(wǎng)絡(luò)層的基礎(chǔ)上利用殘差結(jié)構(gòu)避免了梯度爆炸和梯度消失,做到了提取特征能力強(qiáng),準(zhǔn)確率高[17]。但是隨著網(wǎng)絡(luò)層數(shù)的增加,網(wǎng)絡(luò)的參數(shù)量也隨之增加,從而影響網(wǎng)絡(luò)訓(xùn)練效率。針對(duì)此問題,本文借鑒了MobileNet網(wǎng)絡(luò)中的深度可分離卷積技術(shù)[18],并將其應(yīng)用于ResNet50網(wǎng)絡(luò)中的傳統(tǒng)卷積,以實(shí)現(xiàn)網(wǎng)絡(luò)的輕量化。

        深度可分離卷積是一種卷積操作,其主要目的是降低參數(shù)量,提高卷積的效率;將傳統(tǒng)的卷積操作分成深度卷積和逐點(diǎn)卷積兩部分,如圖5所示。

        本文使用深度可分離卷積(Depthwise separable convolutions)來替換ResNet50中的殘差模塊的第二個(gè)卷積層,如圖6所示。

        首先,對(duì)輸入特征圖的每個(gè)通道分別使用M個(gè)大小為k×k的卷積核進(jìn)行卷積,得到M個(gè)特征圖。然后,使用N個(gè)逐點(diǎn)卷積將這M個(gè)特征圖在通道上疊加。通過這樣的操作,深度可分離卷積可以在空間和通道維度上分別學(xué)習(xí)特征。相比傳統(tǒng)卷積,深度可分離卷積所需要的參數(shù)量要少很多,k×k×M+M×N,是傳統(tǒng)卷積參數(shù)量的1N+k21。

        3 試驗(yàn)結(jié)果與分析

        3.1 試驗(yàn)環(huán)境

        試驗(yàn)采用的處理器為Intel Core i7 12700H,內(nèi)存16 G,顯卡為NVIDIA GeForce RTX 3080,顯存8 GB,深度學(xué)習(xí)框架為TensorFlow2.7.1,編程語言為Python3.7.0。

        3.2 參數(shù)設(shè)置

        在訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型時(shí),模型參數(shù)的設(shè)置會(huì)直接影響訓(xùn)練的效果。在本試驗(yàn)中,批大?。˙atch_size)設(shè)置為4,訓(xùn)練迭代20個(gè)時(shí)期(Epochs),并使用Adam優(yōu)化器。初始學(xué)習(xí)率設(shè)置為0.002,在將圖像輸入網(wǎng)絡(luò)訓(xùn)練之前,先對(duì)圖像進(jìn)行預(yù)處理和歸一化處理。

        由于網(wǎng)絡(luò)層數(shù)較多,模型參數(shù)量大,因此將ImageNet上訓(xùn)練好的模型參數(shù)來初始化當(dāng)前模型權(quán)重,以加快模型的訓(xùn)練和擬合,有效地提高模型的訓(xùn)練效率。

        3.3 注意力機(jī)制和深度可分離卷積的影響

        為證實(shí)本文試驗(yàn)改進(jìn)的有效性,對(duì)比ResNet50在添加SA注意力模塊、CA注意力模塊、CBAM注意力模塊、不添加注意力模塊、僅修改深度可分離卷積層和ResNet50-CBAM-DW模型。將6種模型應(yīng)用于測(cè)試集,最終得到6種模型準(zhǔn)確率分別為89.5%、88.3%、91.8%、88.1%、87.0%、91.1%。6種模型的驗(yàn)證集性能對(duì)比如圖7所示。

        試驗(yàn)將深度可分離卷積來替換ResNet50的殘差模塊中的第二個(gè)卷積層,試驗(yàn)結(jié)果表明,本模型(ResNet50-CBAM-DW)的準(zhǔn)確率為91.1%,相對(duì)于修改之前的模型(ResNet50-CBAM)準(zhǔn)確率僅降低0.7%,而參數(shù)量減少了40.9%。參數(shù)量對(duì)比如表2所示。在模型的損失值方面,ResNet50-CBAM-DW模型損失值最小,相比較而言表現(xiàn)良好,綜合以上方面,ResNet50-CBAM-DW模型相對(duì)于ResNet50模型準(zhǔn)確率有了3.0%的提升,通過在驗(yàn)證集性能上的表現(xiàn)可以看出,模型在第10輪左右開始穩(wěn)定收斂,且沒有較大波動(dòng),得益于深度可分離卷積的存在,使模型在參數(shù)量和模型準(zhǔn)確率之前取得了一個(gè)平衡,在保證網(wǎng)絡(luò)訓(xùn)練效率的同時(shí),也能有效減少參數(shù)的數(shù)量,從而緩解隨著網(wǎng)絡(luò)層數(shù)增加而導(dǎo)致的網(wǎng)絡(luò)訓(xùn)練效率下降的問題,為以后在移動(dòng)端部署打下基礎(chǔ)。

        3.4 ResNet50-CBAM-DW模型改進(jìn)前后對(duì)比

        為驗(yàn)證模型ResNet50-CBAM-DW改進(jìn)的有效性,將本模型與其他常見的應(yīng)用與圖像分類的卷積神經(jīng)網(wǎng)絡(luò)模型MobileNetV2、InceptionV3、VGG16、AlexNet在咖啡生豆數(shù)據(jù)集上作對(duì)比。訓(xùn)練時(shí)保持各個(gè)模型參數(shù)一致,Softmax輸出統(tǒng)一為4分類,在相同的訓(xùn)練環(huán)境下迭代20次。各個(gè)模型的訓(xùn)練集性能對(duì)比如圖8所示。

        由圖8可知,ResNet50-CBAM-DW模型表現(xiàn)最好,且相對(duì)于其他模型更加穩(wěn)定,20次迭代訓(xùn)練后準(zhǔn)確率為91.1%,AlexNet模型震蕩明顯,準(zhǔn)確率達(dá)到84.8%,InceptionV3和MobileNetV2模型表現(xiàn)較差,兩種模型準(zhǔn)確率分別為85.2%和84.6%。VGG16模型相比于其他CNN模型表現(xiàn)較好,準(zhǔn)確率達(dá)到了87%,相比本試驗(yàn)?zāi)P蜏?zhǔn)確率低4.1%,但是其參數(shù)量是本試驗(yàn)?zāi)P偷娜蹲笥遥囼?yàn)數(shù)據(jù)如表3所示。

        通過與其他卷積神經(jīng)網(wǎng)絡(luò)模型比較,本文提出的ResNet50-CBAM-DW模型在咖啡生豆識(shí)別方面取得了較好效果。通過在殘差結(jié)構(gòu)中添加CBAM注意力機(jī)制,增加了模型對(duì)特征信息的關(guān)注權(quán)重,提高了算法性能,另一方面將殘差結(jié)構(gòu)中的傳統(tǒng)卷積替換為深度可分離卷積,大幅減少了模型的參數(shù)量。

        3.5 咖啡生豆分類識(shí)別結(jié)果的模型評(píng)價(jià)指標(biāo)和混淆矩陣分析

        準(zhǔn)確率(Accuracy)為所有被正確識(shí)別的樣本數(shù)占總樣本數(shù)的比例。精確率(Precision)是衡量模型正確預(yù)測(cè)能力的指標(biāo),代表了預(yù)測(cè)正確的樣本數(shù)量占總體的比例。召回率(Recall)表示在真實(shí)樣本中,被正確預(yù)測(cè)的樣本數(shù)量占總樣本的比例。F1分?jǐn)?shù)(F1-Score)是結(jié)合Precision和Recall的綜合指標(biāo),取值為Precision和Recall的調(diào)和平均數(shù),其取值范圍是0~1,1代表模型的最優(yōu)輸出,0代表模型的最差輸出。

        根據(jù)表4可以看出,少量的長(zhǎng)粒豆和優(yōu)質(zhì)豆出現(xiàn)了預(yù)測(cè)錯(cuò)誤。這可能是由于長(zhǎng)粒豆和優(yōu)質(zhì)豆的外觀特征高度相似,導(dǎo)致模型難以區(qū)分。此外,壞豆和優(yōu)質(zhì)豆也出現(xiàn)了混淆,這可能是由于壞豆中的部分瑕疵特征導(dǎo)致模型容易識(shí)別錯(cuò)誤??偟膩碚f,本文提出的ResNet50-CBAM-DW模型在測(cè)試的咖啡生豆數(shù)據(jù)集上表現(xiàn)出優(yōu)良的分類性能,能夠較好地區(qū)分咖啡生豆的種類,并能準(zhǔn)確地對(duì)咖啡生豆進(jìn)行分類。另一方面,通過混淆矩陣可以計(jì)算出分類模型的各個(gè)類別的準(zhǔn)確率、精確度、F1分?jǐn)?shù)、召回率。計(jì)算結(jié)果如表5所示。

        通過表5可知,本模型對(duì)小圓豆的識(shí)別效果最好,對(duì)優(yōu)質(zhì)豆的識(shí)別效果略有不足,以F1分?jǐn)?shù)為標(biāo)準(zhǔn)對(duì)分類性能排序的結(jié)果為:小圓豆、長(zhǎng)粒豆、壞豆、優(yōu)質(zhì)豆??傮w來看,針對(duì)咖啡生豆測(cè)試集的識(shí)別準(zhǔn)確率為91.1%,精確度91.3%,F(xiàn)1分?jǐn)?shù)為91.1%。這說明ResNet50-CBAM-DW模型在咖啡生豆分類任務(wù)上表現(xiàn)出色。

        4 結(jié)論

        1)" ResNet50-CBAM-DW網(wǎng)絡(luò)模型在咖啡生豆分類任務(wù)中識(shí)別準(zhǔn)確率達(dá)到91.1%,相較于ResNet50模型準(zhǔn)確率提升了3%,與MobileNetV2、InceptionV3、VGG16、AlexNet模型相比,在測(cè)試集準(zhǔn)確率上分別提升了6.5%、5.9%、4.1%、6.3%。

        2) 通過使用深度可分離卷積來替代ResNet50模型中的殘差單元里的傳統(tǒng)卷積,使ResNet50-CBAM-DW模型相較于ResNet50-CBAM模型參數(shù)量減少40.9%,而準(zhǔn)確率僅降低0.7個(gè)百分點(diǎn),綜合參數(shù)量、準(zhǔn)確率和內(nèi)存占用量考慮來看,ResNet50-CBAM-DW模型更優(yōu)。

        總體而言,本文提出的ResNet50-CBAM-DW模型采用大量的咖啡生豆數(shù)據(jù)集進(jìn)行訓(xùn)練,可用實(shí)現(xiàn)對(duì)咖啡生豆四個(gè)類別(壞豆、優(yōu)質(zhì)豆、長(zhǎng)粒豆、小圓豆)的快速檢測(cè),準(zhǔn)確高效。不同于人肉眼判斷易受主觀影響,檢測(cè)具有客觀性,可以實(shí)際應(yīng)用與咖啡生豆的智能篩選設(shè)備。在后期的研究中,還會(huì)考慮在復(fù)雜背景中瑕疵豆的不同外觀特征對(duì)模型的影響,使模型能夠更好地投入生產(chǎn)實(shí)踐中,為智慧農(nóng)業(yè)添磚加瓦。

        參 考 文 獻(xiàn)

        [1] 黃家雄, 黃琳, 呂玉蘭, 等. 中國(guó)咖啡產(chǎn)業(yè)發(fā)展前景分析[J]. 云南農(nóng)業(yè)科技, 2018(6): 4-7.

        Huang Jiaxiong, Huang Lin, Lü Yulan, et al. Analysis of development prospect of coffee sector in China [J]. Yunnan Agricultural Science and Technology, 2018(6): 4-7.

        [2] 胡榮鎖, 方樂天, 況沁蕊, 等. 云南臨滄產(chǎn)區(qū)咖啡干香感官特征解析及杯品質(zhì)量分析[J]. 食品科學(xué), 2021, 42(20): 180-187.

        Hu Rongsuo, Fang Letian, Kuang Qinrui, et al. Sensory characteristics of dry aroma and cupping quality of coffee from Lincang, Yunnan [J]. Food Science, 2021, 42(20): 180-187.

        [3] Khuwijitjaru P. Near infrared spectroscopy research performance in food science and technology [J]. NIR News, 2018, 29(3): 12-14.

        [4] Gomes W P C, Gonalves L, da Silva C B, et al. Application of multispectral imaging combined with machine learning models to discriminate special and traditional green coffee [J]. Computers and Electronics in Agriculture, 2022, 198: 107097.

        [5] 張珂, 馮曉晗, 郭玉榮, 等. 圖像分類的深度卷積神經(jīng)網(wǎng)絡(luò)模型綜述[J]. 中國(guó)圖象圖形學(xué)報(bào), 2021, 26(10): 2305-2325.

        Zhang Ke, Feng Xiaohan, Guo Yurong, et al. Overview of deep convolutional neural networks for image classification [J]. Journal of Image and Graphics, 2021, 26(10): 2305-2325.

        [6] 劉云玲, 張?zhí)煊辏?姜明, 等. 基于機(jī)器視覺的葡萄品質(zhì)無損檢測(cè)方法研究進(jìn)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(S1): 299-308.

        Liu Yunling, Zhang Tianyu, Jiang Ming, et al. Review on non-destructive detection methods of grape quality based on machine vision [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(S1): 299-308.

        [7] 趙輝, 喬艷軍, 王紅君, 等. 基于雙通道注意力機(jī)制的ResNet果實(shí)外觀品質(zhì)分類[J]. 光電子·激光, 2022, 33(6): 643-651.

        Zhao Hui, Qiao Yanjun, Wang Hongjun, et al. ResNet fruit appearance quality classification based on dual channel attention mechanism [J]. Journal of Optoelectronics·Laser, 2022, 33(6): 643-651.

        [8] 葉云, 趙小娟, 姜晟. 基于深度學(xué)習(xí)的荔枝蟲害識(shí)別技術(shù)的應(yīng)用與實(shí)現(xiàn)[J]. 中國(guó)農(nóng)業(yè)信息, 2022, 34(4): 30-37.

        Ye Yun, Zhao Xiaojuan, Jiang Sheng. Application and realization of litchi pest identification technology based on deep learning [J]. China Agricultural Informatics, 2022, 34(4): 30-37.

        [9] Huang N F, Chou D L, Lee C A, et al. Smart agriculture: Real-time classification of green coffee beans by using a convolutional neural network [J]. IET Smart Cities, 2020, 2(4): 167-172.

        [10] Adiwijaya N O, Romadhon H I, Putra J A, et al. The quality of coffee bean classification system based on color by using k-nearest neighbor method [C]. Journal of Physics: Conference Series. IOP Publishing, 2022, 2157(1): 012034.

        [11] 趙玉清, 楊慧麗, 張悅, 等. 基于特征組合與SVM的小粒種咖啡缺陷生豆檢測(cè)[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(14): 295-302.

        Zhao Yuqing, Yang Huili, Zhang Yue, et al. Detection of defective Arabica green coffee beans based on feature combination and SVM [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(14): 295-302.

        [12] Sandler M, Howard A, Zhu M, et al. Mobilenetv2: Inverted residuals and linear bottlenecks [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 4510-4520.

        [13] Febriana A, Muchtar K, Dawood R, et al. “USK-COFFEE Dataset: A multi-class green arabica coffee bean dataset for deep learning” [C]. In 2022 IEEE International Conference on Cybernetics and Computational Intelligence (CyberneticsCom). IEEE, 2022.

        [14] 鄭遠(yuǎn)攀, 李廣陽, 李曄. 深度學(xué)習(xí)在圖像識(shí)別中的應(yīng)用研究綜述[J]. 計(jì)算機(jī)工程與應(yīng)用, 2019, 55(12): 20-36.

        Zheng Yuanpan, Li Guangyang, Li Ye. Survey of application of deep learning in image recognition [J]. Computer Engineering and Applications, 2019, 55(12): 20-36.

        [15] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016: 770-778.

        [16] Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 3-19.

        [17] 李書琴, 陳聰, 朱彤, 等. 基于輕量級(jí)殘差網(wǎng)絡(luò)的植物葉片病害識(shí)別[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(3): 243-250.

        Li Shuqin, Chen Cong, Zhu Tong, et al. Plant leaf disease identification based on lightweight residual network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(3): 243-250.

        [18] 鄭光, 魏家領(lǐng), 任艷娜, 等. 基于深度可分離與空洞卷積的輕量化小麥生育進(jìn)程監(jiān)測(cè)模型研究[J]. 江蘇農(nóng)業(yè)科學(xué), 2022, 50(20): 226-232.

        猜你喜歡
        注意力機(jī)制咖啡豆卷積神經(jīng)網(wǎng)絡(luò)
        火星土壤種出咖啡豆
        軍事文摘(2023年12期)2023-06-12 07:51:42
        基于深度學(xué)習(xí)的問題回答技術(shù)研究
        基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
        基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
        軟件工程(2017年11期)2018-01-05 08:06:09
        InsunKBQA:一個(gè)基于知識(shí)庫的問答系統(tǒng)
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
        給咖啡豆洗澡
        2021久久精品国产99国产 | 成人国产精品一区二区网站公司| 亚洲av片不卡无码久久| 精品无吗国产一区二区三区av | 91成人午夜性a一级毛片| 日本一区二区三区在线观看视频| 中文字幕久久波多野结衣av不卡| 国产97在线 | 亚洲| 国产成人精品午夜福利免费APP | 国产自拍一区二区三区| 成年美女黄的视频网站| 99热久久这里只精品国产www | 中文字幕无码精品亚洲资源网久久| 中文字幕高清无码不卡在线| 国产精品久久久黄色片| 又嫩又硬又黄又爽的视频| 欧美午夜精品久久久久免费视| 国产颜射视频在线播放| 成人久久久精品乱码一区二区三区| 三年片大全在线观看免费观看大全 | 国产高清女人对白av在在线| 中文字幕av永久免费在线| 精品国产中文久久久免费| 欧美人与动性xxxxx杂性| av无码人妻中文字幕| 99国产小视频| 亚洲精品av一区二区日韩| 每日更新在线观看av| 精品少妇ay一区二区三区| 中文字幕亚洲精品人妻| 精品视频在线观看日韩| 国产二级一片内射视频插放| 久久久99精品成人片中文字幕 | 精品久久久久久亚洲综合网| 欧美黑人性暴力猛交喷水| 2021国产精品视频| 国产三级精品三级在专区中文| 亚洲精品无码永久中文字幕| 丰满少妇愉情中文字幕18禁片| 91亚洲色图在线观看| 国产精品内射久久一级二|