亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Ghost模塊的農(nóng)資圖像文本檢測(cè)算法及其應(yīng)用

        2024-12-31 00:00:00殷昌山楊林楠羅爽
        湖北農(nóng)業(yè)科學(xué) 2024年8期

        摘要:針對(duì)農(nóng)資圖像中文本的檢測(cè)速度慢并且缺乏移動(dòng)端的應(yīng)用等問(wèn)題,基于農(nóng)資圖像數(shù)據(jù)集,提出了一種基于Ghost模塊的農(nóng)資圖像文本檢測(cè)算法,該算法對(duì)DB網(wǎng)絡(luò)進(jìn)行改進(jìn),使用MobileNetv2網(wǎng)絡(luò)來(lái)提取基礎(chǔ)特征,引入多尺度特征融合模塊來(lái)獲得多層之間的特征融合,并采用可微分二值化后處理算法預(yù)測(cè)文本,使其能夠快速地檢測(cè)農(nóng)資圖像中的文本。該算法在農(nóng)資圖像數(shù)據(jù)集上的準(zhǔn)確率基本達(dá)到了主流算法的標(biāo)準(zhǔn),檢測(cè)速度達(dá)18.6 img/s,參數(shù)量為2.99 M,具備輕量級(jí)的特征,將此算法部署到移動(dòng)端設(shè)備上并成功運(yùn)行。

        關(guān)鍵詞:農(nóng)資圖像;文本檢測(cè);文本識(shí)別;Ghost模塊

        中圖分類號(hào):TP391.1" " " " "文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):0439-8114(2024)08-0061-05

        DOI:10.14088/j.cnki.issn0439-8114.2024.08.011 開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

        The text detection algorithm for agricultural materials image based on"Ghost module and its application

        YIN Chang-shan,YANG Lin-nan,LUO Shuang

        (School of Big Data/Agricultural Big Data Engineering Research Center of Yunnan Province/Green Agricultural Product Big Data Intelligent Information Processing Engineering Research Center, Yunnan Agricultural University, Kunming" 650201,China)

        Abstract: In response to problems such as slow detection speed of text in agricultural materials image and lack of mobile applications, based on the agricultural materials image dataset, a Ghost module-based text detection algorithm for agricultural materials image was proposed, which improved the DB network, used the MobileNetv2 network to extract the base features, introduced a multi-scale feature fusion module to obtain feature fusion between multiple layers, and used a differentiable binary post-processing algorithm to predict the text, making it possible to quickly detect the text in agricultural materials image. The accuracy of the algorithm on the agricultural materials image dataset was basically up to the standard of mainstream algorithms, with a detection speed of 18.6 img/s and a census count of 2.99 M, with lightweight features, and the algorithm was deployed to mobile devices and ran successfully.

        Key words: agricultural materials image;" text detection; text recognition; Ghost module

        農(nóng)資圖像中文本主要包括有效成分含量、產(chǎn)品名稱、登記證號(hào)、生產(chǎn)許可證號(hào)、產(chǎn)品標(biāo)準(zhǔn)號(hào)、使用技術(shù)和使用方法等用于描述該產(chǎn)品相關(guān)信息的內(nèi)容。農(nóng)資消費(fèi)者根據(jù)產(chǎn)品性能來(lái)判斷該產(chǎn)品是否符合自身需求,通過(guò)使用技術(shù)和使用方法來(lái)正確地使用產(chǎn)品,防止產(chǎn)品的效果不佳,并且可以通過(guò)產(chǎn)品登記證號(hào)來(lái)查詢?cè)撧r(nóng)資是否合法,在一定程度上避免了購(gòu)買(mǎi)仿冒劣質(zhì)農(nóng)資的情況,國(guó)外購(gòu)買(mǎi)者也可以依據(jù)該信息對(duì)出口農(nóng)資進(jìn)行識(shí)別。農(nóng)資安全監(jiān)管執(zhí)法部門(mén)通過(guò)傳統(tǒng)的手工紙本記錄監(jiān)管方式進(jìn)行農(nóng)資抽檢,根據(jù)該信息進(jìn)行農(nóng)資安全相關(guān)的檢測(cè)和分析。文本檢測(cè)的主要目的是為了在圖像中找到文本的位置,以便進(jìn)行下一步的文本識(shí)別處理,所以農(nóng)資圖像文本檢測(cè)對(duì)于農(nóng)資安全監(jiān)管和識(shí)別農(nóng)資內(nèi)容非常重要。

        目前,基于深度學(xué)習(xí)的文本檢測(cè)方法主要分為基于區(qū)域建議和基于分割這兩類[1]。基于區(qū)域建議的算法根據(jù)文本獨(dú)有的特點(diǎn),在目標(biāo)檢測(cè)通用算法模型的框架下對(duì)其進(jìn)行改進(jìn)。Tian等[2]提出了CTPN網(wǎng)絡(luò),將骨干網(wǎng)絡(luò)提取的特征送到BiLSTM中學(xué)習(xí),最后加上一個(gè)全連接層,輸出預(yù)測(cè)結(jié)果。Zhang等[3]提出了一種新的網(wǎng)絡(luò)LOMO,通過(guò)考慮文本的幾何特點(diǎn),包括面積、文本中心線和邊緣移動(dòng)來(lái)檢測(cè)場(chǎng)景圖像中的長(zhǎng)文本和任意形狀的文本。當(dāng)使用嚴(yán)格的字級(jí)邊界框進(jìn)行訓(xùn)練時(shí),上述方法在分析任意形狀的文本區(qū)域時(shí)表現(xiàn)出局限性。而基于分割的方法則是受到經(jīng)典語(yǔ)義分割算法的啟發(fā),在像素級(jí)上對(duì)每個(gè)點(diǎn)進(jìn)行分類,經(jīng)后處理輸出文本區(qū)域。Li等[4]提出了PSENet,該網(wǎng)絡(luò)使用漸進(jìn)式擴(kuò)張算法,有助于緊密文本區(qū)域的分離,能夠精確地定位任意形狀的文本實(shí)例。Wang等[5]提出了一種像素聚集網(wǎng)絡(luò)PAN,該網(wǎng)絡(luò)由特征金字塔增強(qiáng)模塊和特征融合模塊組成低計(jì)算量的分割頭,以此來(lái)彌補(bǔ)PAN采用的骨干網(wǎng)絡(luò)特征感受野較小且表征能力不足。此外還提出像素聚合法,能夠通過(guò)預(yù)測(cè)出的相似向量來(lái)引導(dǎo)文字像素去糾正核參數(shù)。

        不同的農(nóng)資圖像中包含不同尺寸、顏色、形狀、對(duì)比度的文本,并且農(nóng)資圖像的背景更加復(fù)雜,例如包裝自身褶皺、光照的影響,文本形狀以水平形狀規(guī)則文本居多,但也有任意形狀文本存在,導(dǎo)致農(nóng)資圖像中的文本檢測(cè)更具有難度,此外,農(nóng)資圖像中文本的檢測(cè)速度慢并且缺乏移動(dòng)端的應(yīng)用?;谝陨想y題,提出了一個(gè)基于Ghost模塊的農(nóng)資圖像文本檢測(cè)算法,算法首先使用MobileNetV2[6]作為骨干網(wǎng)絡(luò),然后設(shè)計(jì)了多尺度特征融合模塊,使用Ghost模塊和上采樣來(lái)進(jìn)行多層之間的特征融合,通過(guò)可微分二值化運(yùn)算得到近似二值圖,最后經(jīng)過(guò)簡(jiǎn)單的后處理輸出結(jié)果。試驗(yàn)結(jié)果表明,該算法參數(shù)量低,可移植到移動(dòng)設(shè)備上,可以對(duì)農(nóng)資圖像文本區(qū)域進(jìn)行快速地檢測(cè)。

        1 算法設(shè)計(jì)

        圖1為算法的網(wǎng)絡(luò)架構(gòu),算法由3個(gè)部分組成,骨干網(wǎng)絡(luò)、多尺度特征融合模塊和檢測(cè)頭。該算法對(duì)DB網(wǎng)絡(luò)進(jìn)行改進(jìn),使用MobileNetv2網(wǎng)絡(luò)作為骨干網(wǎng)絡(luò),其網(wǎng)絡(luò)準(zhǔn)確率高且可以部署在移動(dòng)設(shè)備中,然后設(shè)計(jì)了一個(gè)新的多尺度特征融合模塊,先通過(guò)1×1卷積將基礎(chǔ)網(wǎng)絡(luò)提取到的特征圖[C1]、[C2]、[C3]和[C4]的通道統(tǒng)一為256維,再采用Ghost模塊減少大量的浮點(diǎn)型運(yùn)算,得到4張?zhí)卣鲌D,在多尺度特征融合模塊的最后輸出中通過(guò)上采樣和連接的方法融合不同尺度的特征形成最后的特征圖,最后在檢測(cè)頭通過(guò)可微分二值化運(yùn)算得到近似二值圖,經(jīng)過(guò)簡(jiǎn)單的后處理就可輸出檢測(cè)結(jié)果。

        1.1 輕量化網(wǎng)絡(luò)

        為了減少網(wǎng)絡(luò)參數(shù)量,算法將原來(lái)的ResNet-18網(wǎng)絡(luò)更換為MobileNetv2網(wǎng)絡(luò),該網(wǎng)絡(luò)在MobileNetv1[7]的基礎(chǔ)上引入了線性瓶頸和逆殘差模塊來(lái)提高網(wǎng)絡(luò)的表征能力。使用線性瓶頸可以防止非線性破壞太多信息,逆殘差模塊如圖2所示,與普通的殘差模塊不同,逆殘差模塊先通過(guò)1×1的卷積提升通道數(shù),把高維特征映射到低維空間去,再使用3×3的深度可分離卷積來(lái)提取特征,最后用1×1的卷積降低通道數(shù),將低維空間映射到高維空間,這樣可以更好地學(xué)習(xí)到特征,同時(shí)網(wǎng)絡(luò)降低了計(jì)算量和參數(shù)量。此外,還使用了新的ReLU6激活函數(shù)來(lái)增強(qiáng)模型的魯棒性。

        1.2 多尺度特征融合模塊

        為了加強(qiáng)特征提取能力,減小參數(shù)量,重新設(shè)計(jì)了一個(gè)輕量但性能不錯(cuò)的多尺度特征融合模塊,使用GhostNet[8]中的Ghost模塊來(lái)處理多層之間的特征融合問(wèn)題。Ghost模塊主要由3步組成,如圖3所示,先用常規(guī)卷積得到內(nèi)在特征圖[Y],然后對(duì)[Y]中每一個(gè)通道的特征圖[y],用線性操作[Φ]來(lái)生成Ghost特征圖[yij],如式(1)所示,其中線性操作[Φ]就是逐通道卷積,最后將內(nèi)在特征圖[Y]和Ghost特征圖[yij]拼接得到最終結(jié)果,以此來(lái)保留原始特征圖的信息。

        [yij=Φi,j(y′i)] (1)

        多尺度特征融合模塊的具體結(jié)構(gòu)如圖1所示,將骨干網(wǎng)絡(luò)得到的不同尺度的特征圖[C1]、[C2]、[C3]和[C4]先通過(guò)1×1卷積統(tǒng)一通道數(shù),然后通過(guò)Ghost模塊和上采樣運(yùn)算進(jìn)行特征融合,得到不同尺度融合后的特征圖[P1]、[P2]、[P3]和[P4],如式(2)所示,最后先通過(guò)上采樣運(yùn)算將[P1]、[P2]、[P3]和[P4]變?yōu)樵瓐D的1/4大小,再將4個(gè)特征圖拼接起來(lái),用于預(yù)測(cè)輸出。

        [Pi=G?ostConvUp×2(Ci+1)+Ci" " ?i=1,2,3] (2)

        1.3 可微分二值化算法

        可微二值化就是將標(biāo)準(zhǔn)二值化中的階躍函數(shù)進(jìn)行了近似,公式如下所示。

        [B=1e-k(Pi,j-Ti,j)] (3)

        可微二值化本質(zhì)上是一個(gè)帶系數(shù)k的sigmoid 函數(shù),取值范圍為(0,1);k是膨脹因子;[Pi,j]是概率圖像素點(diǎn);[Ti,j]是閾值圖像素點(diǎn)。

        1.4 loss函數(shù)

        損失函數(shù)L由近似二值圖損失函數(shù)[Lb]、概率圖損失函數(shù)[Ls]和閾值圖損失函數(shù)[Lt]三部分組成,如式(4)所示。

        [L=Lb+αLs+βLt] (4)

        式中,[α、β]為權(quán)重系數(shù)。[Lb]使用Dice損失,如式(5)所示。[Ls]使用帶 OHEM [9]的 Dice 損失,難樣本挖掘(Online hard example mining,OHEM)是一種特殊的自動(dòng)采樣方式,解決正負(fù)樣本不均衡的問(wèn)題,從而提升模型的訓(xùn)練效果。[Lt]是平滑后的L1損失函數(shù),計(jì)算預(yù)測(cè)值和標(biāo)簽間的距離。

        [s=1-2X∩YX+Y] (5)

        式中,[X]是真實(shí)框元素個(gè)數(shù);[|Y|]是預(yù)測(cè)框元素個(gè)數(shù);[X∩Y]是X和Y之間的交集,可近似為真實(shí)框和預(yù)測(cè)框之間的點(diǎn)乘,并將點(diǎn)乘元素的結(jié)果相加。

        2 試驗(yàn)研究

        2.1 數(shù)據(jù)集

        選用自構(gòu)建的農(nóng)資圖片數(shù)據(jù)集[10],含有708幅圖像和11 322個(gè)文本框的數(shù)據(jù)集,采用自助采樣法劃分?jǐn)?shù)據(jù)集,其中訓(xùn)練集圖像為448幅且包含7 171個(gè)文本框,測(cè)試集圖像為260幅且包含4 151個(gè)文本框。

        2.2 試驗(yàn)平臺(tái)與模型訓(xùn)練細(xì)節(jié)

        試驗(yàn)測(cè)試環(huán)境的硬件配置為2塊NVIDIA 3090顯卡,cpu型號(hào)為Intel(R) Xeon(R) Silver 4210R CPU @ 2.40 GHz,操作系統(tǒng)為Ubuntu20.04,軟件環(huán)境使用Pytorch深度學(xué)習(xí)框架。

        在試驗(yàn)中,模型在自建數(shù)據(jù)集上做600個(gè)epoch的微調(diào)訓(xùn)練,采用自適應(yīng)梯度優(yōu)化器,初始學(xué)習(xí)率為0.000 1,在第200次、第400次迭代進(jìn)行學(xué)習(xí)率衰減。為了提高模型的泛化能力,增強(qiáng)模型的魯棒性,對(duì)訓(xùn)練圖像按50%的概率進(jìn)行水平翻轉(zhuǎn)、隨機(jī)縮放、色彩抖動(dòng)來(lái)做在線數(shù)據(jù)增強(qiáng),最后將圖像尺寸隨機(jī)裁剪成640×640。

        3 結(jié)果與分析

        3.1 評(píng)價(jià)指標(biāo)

        本研究的評(píng)價(jià)指標(biāo)采用準(zhǔn)確率(Precision)、召回率(Recall)、F分?jǐn)?shù)(F-score),還包含模型復(fù)雜度評(píng)價(jià)標(biāo)準(zhǔn),即參數(shù)量大?。∕)和每秒浮點(diǎn)運(yùn)算次數(shù)(FLOPs),具體計(jì)算公式如下所示。

        [Precision=TPTP+FP] (6)

        [Recall=TPTP+FN] (7)

        [F-score=2×Precision×RecallPrecision+Recall] (8)

        式中,TP 是真陽(yáng)性;FP是假陽(yáng)性;FN 是假陰性;[F-score] 是F-分?jǐn)?shù)。

        3.2 骨干網(wǎng)絡(luò)的影響

        為驗(yàn)證選用輕量化網(wǎng)絡(luò)的有效性,對(duì)比了不同骨干網(wǎng)絡(luò)對(duì)試驗(yàn)結(jié)果的影響,訓(xùn)練時(shí)使用ImageNet公開(kāi)數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練的模型,具體結(jié)果如表1所示。從表1中可以看出,輕量級(jí)網(wǎng)絡(luò)在參數(shù)量上明顯低于殘差網(wǎng)絡(luò),將骨干網(wǎng)絡(luò)更換為MobileNetV2,模型的參數(shù)量減少了87.5%,浮點(diǎn)運(yùn)算量減少了60.9%,而F分?jǐn)?shù)只降低了0.3個(gè)百分點(diǎn),雖然MobileNetV3在參數(shù)量上減少的更多,但F分?jǐn)?shù)降低了6.0個(gè)百分點(diǎn),檢測(cè)效果太差,而ResNet-18檢測(cè)速度達(dá)到了20.0 img/s,其參數(shù)量為12.34 M,雖然參數(shù)量減少了53.0%,但與MobileNetV2相比,遠(yuǎn)高于其參數(shù)量,所以模型使用MobileNetV2骨干網(wǎng)絡(luò),雖然帶來(lái)了輕微的性能損失,但是減少了模型的參數(shù)量和浮點(diǎn)運(yùn)算,相比其他輕量級(jí)網(wǎng)絡(luò)來(lái)說(shuō),模型效果最好。

        3.3 多尺度特征融合模塊的對(duì)比

        為了驗(yàn)證多尺度特征融合模塊對(duì)模型的影響,通過(guò)試驗(yàn)對(duì)比改進(jìn)前后的模型檢測(cè)性能,如表2所示。新的多尺度特征模塊在精確率、召回率、F分?jǐn)?shù)分別達(dá)83.9%,57.2%和68.0%,評(píng)測(cè)指標(biāo)雖有所下降,但其參數(shù)量減少了0.29 M,檢測(cè)速度提高了0.5 img/s。相較于改進(jìn)前單純使用特征金字塔的方式,多尺度特征融合模塊以微小的準(zhǔn)確率為代價(jià),獲得更低的參數(shù)量,提升了檢測(cè)速度,可以更為高效地檢測(cè)農(nóng)資圖像上的文本。

        3.4 不同算法的對(duì)比

        為了驗(yàn)證提出模型的可靠性,先將提出的模型在IC17-MLT[13]訓(xùn)練集進(jìn)行預(yù)先訓(xùn)練,之后再與主流的文本檢測(cè)算法在自建數(shù)據(jù)集上進(jìn)行了對(duì)比,結(jié)果如表3所示。

        在自建數(shù)據(jù)集上,算法與基準(zhǔn)模型DB算法相比,不僅在檢測(cè)速度上提高了4.6 img/s,而且在參數(shù)量上減少了88.6%;算法與基于區(qū)域建議算法FCENet相比,雖然在三項(xiàng)指標(biāo)上略遜一籌,但是檢測(cè)速度是FCENet的9倍,達(dá)到了18.6 img/s,模型體積卻只有FCENet的10.6%;與基于分割算法的PAN相比,雖然在檢測(cè)速度上落后1.5 img/s,但在參數(shù)量上減少了87.5%,浮點(diǎn)運(yùn)算量減少了61.6%,所以綜合來(lái)看論文算法在參數(shù)量上優(yōu)于其他模型,可以對(duì)農(nóng)資圖像上的文本區(qū)域進(jìn)行快速地檢測(cè),能部署在移動(dòng)設(shè)備上。

        3.5 移動(dòng)端算法結(jié)果的展示

        Paddle-Lite是一個(gè)移動(dòng)端深度學(xué)習(xí)框架,可將模型部署到多種硬件和平臺(tái)上,同時(shí)也兼容支持其他深度學(xué)習(xí)框架訓(xùn)練產(chǎn)出的模型。采用Paddle-Lite框架進(jìn)行移動(dòng)端本地部署,如圖4所示,測(cè)試的手機(jī)型號(hào)為Xiaomi MI 9,Android 版本為10.0,內(nèi)存為6.00 GB,圖中顯示了檢測(cè)的文本框區(qū)域和坐標(biāo)點(diǎn),其中App檢測(cè)一張圖片的時(shí)間大概是0.227 s左右。

        4 小結(jié)

        針對(duì)農(nóng)資圖像文本檢測(cè)速度慢以及缺乏移動(dòng)端應(yīng)用的問(wèn)題,本研究提出了一種快速檢測(cè)農(nóng)資圖像的算法,該算法在DB網(wǎng)絡(luò)上進(jìn)行改進(jìn),使用MobileNetV2作為骨干網(wǎng)絡(luò),并設(shè)計(jì)了多尺度特征融合模塊,使用GhostNet中的Ghost模塊和上采樣來(lái)進(jìn)行多層之間的特征融合,其參數(shù)量為2.99 M,精確率、召回率和F分?jǐn)?shù)分別為83.4%、60.4%和70.4%,檢測(cè)速度達(dá)18.6 img/s,將模型移植到了手機(jī)移動(dòng)端上,基本實(shí)現(xiàn)了快速精確檢測(cè)文本的需求,可以落地到農(nóng)業(yè)電子商務(wù)等實(shí)際場(chǎng)景中。接下來(lái)將致力于將文本識(shí)別加入到算法中,進(jìn)一步提高算法的實(shí)用性。

        參考文獻(xiàn):

        [1] 王建新,王子亞,田 萱.基于深度學(xué)習(xí)的自然場(chǎng)景文本檢測(cè)與識(shí)別綜述[J].軟件學(xué)報(bào),2020,31(5):1465-1496.

        [2] TIAN Z, HUANG W L, HE T, et al. Detecting text in natural image with connectionist text proposal network[A]. European conference on computer vision[C]. 2016. 56-72.

        [3] ZHANG C Q, LIANG B R, HUANG Z M, et al. Look more than once: An accurate detector for text of arbitrary shapes[A]. Proceedings of the 2019 IEEE/CVF conference on computer vision and pattern recognition[C]. 2019.10552-10561.

        [4] LI Y, WU Z, ZHAO S, et al. PSENet: Psoriasis severity evaluation network[A]. Proceedings of the AAAI conference on artificial intelligence[C]. 2020. 800-807.

        [5] WANG W H, XIE E Z, SONG X G, et al. Efficient and accurate arbitrary-shaped text detection with pixel aggregation network[A]. Proceedings of the 2019 IEEE/CVF international conference on computer vision[C]. 2019. 8440-8449.

        [6] SANDLER M,HOWARD A,ZHU M L,et al. MobileNetV2: Inverted residuals and linear bottlenecks[A]. Proceedings of the 2018 IEEE/CVF conference on computer vision and pattern recognition[C]. 2018.4510-4520.

        [7] HOWARD A G, ZHU M L, CHEN B, et al. Mobilenets: Efficient convolutional neural networks for mobile vision applications[J]. arXiv preprint arXiv:1704.04861, 2017.

        [8] HAN K, WANG Y H, TIAN Q, et al. GhostNet: More features from cheap operations[A]. Proceedings of the 2020 IEEE/CVF conference on computer vision and pattern recognition[C]. 2020.1580-1589.

        [9] SHRIVASTAVA A, GUPTA A, GIRSHICK R. Training region-based object detectors with online hard example mining[A]. Proceedings of the 2016 IEEE conference on computer vision and pattern recognition[C]. 2016.761-769.

        [10] 殷昌山,楊林楠,胡海洋.基于注意力機(jī)制的農(nóng)資標(biāo)簽文本檢測(cè)[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2022,43(10):135-140,166.

        [11] TAN M X, LE Q. EfficientNet: Rethinking model scaling for convolutional neural networks[A]. Proceedings of the 36th international conference on machine learning[C]. 2019.6105-6114.

        [12] HOWARD A, SANDLER M, CHEN B, et al. Searching for MobileNetV3[A]. Proceedings of the 2019 IEEE/CVF" " international conference on computer vision[C]. 2019.1314-1324.

        [13] NAYEF N, YIN F, BIZID I, et al. ICDAR2017 robust reading challenge on multi-lingual scene text detection and script identification-RRC-MLT[A]. 2017 14th IAPR international conference on document analysis and recognition (ICDAR)[C].2017. 1454-1459.

        [14] LIAO M H, WAN Z Y, YAO C, et al. Real-time scene text detection with differentiable binarization[A]. Proceedings of the AAAI conference on artificial intelligence[C]. 2020.11474-11481.

        [15] ZHANG S X, ZHU X B, HOU J B, et al. Deep relational reasoning graph network for arbitrary shape text detection[A]. Proceedings of the 2020 IEEE/CVF conference on computer vision and pattern recognition[C]. 2020. 9699-9708.

        [16] ZHU Y Q, CHEN J Y, LIANG L Y, et al. Fourier contour embedding for arbitrary-shaped text detection[A]. Proceedings of the 2021 IEEE/CVF conference on computer vision and pattern recognition[C]. 2021.3123-3131.

        [17] LONG S B,RUAN J Q, ZHANG W J, et al. TextSnake: A flexible representation for detecting text of arbitrary shapes[A]. Proceedings of the European conference on computer vision(ECCV)[C]. 2018.20-36.

        基金項(xiàng)目:云南省重大科技專項(xiàng)計(jì)劃(202102AE090015)

        作者簡(jiǎn)介:殷昌山(1998-),男,安徽全椒人,碩士,主要從事計(jì)算機(jī)視覺(jué)研究,(電話)18855487851(電子信箱)yincss@126.com;通信作者,

        楊林楠(1964-),男,云南保山人,教授,博士,主要從事農(nóng)業(yè)信息化研究,(電話)13888263241(電子信箱)lny5400@163.com。

        亚洲成在人线av品善网好看| 国成成人av一区二区三区| 在教室轮流澡到高潮h免费视| 在线播放真实国产乱子伦| 亚洲人成绝费网站色www| 妞干网中文字幕| 精品日韩一区二区三区av| 伦伦影院午夜理论片| 草草久久久无码国产专区| 欧美精品AⅤ在线视频| 国产毛片精品一区二区色| 亚洲乱码中文在线观看| 手机看片福利一区二区三区| 精品人妻VA出轨中文字幕| 一区两区三区视频在线观看| 插上翅膀插上科学的翅膀飞| 粉嫩虎白女毛片人体| 亚洲动漫成人一区二区| 蜜桃av一区二区三区久久| 亚洲精品无码不卡| 真实单亲乱l仑对白视频| 精品人妻丰满久久久a| 伊人精品成人久久综合97| 国产综合色在线视频区| 欧美白人最猛性xxxxx| 精品亚洲不卡一区二区| 亚洲第一网站免费视频| 熟女体下毛毛黑森林| 精品囯产成人国产在线观看| 国产三级视频在线观看国产| 亚洲av无码无线在线观看| 亚洲中久无码永久在线观看同| 日本一区二区三区中文字幕视频| 成人av综合资源在线| 超级碰碰色偷偷免费视频| 国产自产精品露脸刺激91在线 | 亚洲欧美日韩高清专区一区| 国产精品综合色区av| 精品精品久久宅男的天堂| 乱人伦视频中文字幕| 久久婷婷国产综合精品|