亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于注意力機(jī)制的實(shí)例分割算法

        2021-12-02 04:58:00張聲傳喻松林紀(jì)榮嶸
        導(dǎo)航定位與授時(shí) 2021年6期
        關(guān)鍵詞:機(jī)制特征

        張聲傳,喻松林,紀(jì)榮嶸

        (廈門(mén)大學(xué)信息學(xué)院,廈門(mén) 361005)

        0 引言

        計(jì)算機(jī)視覺(jué)(Computer Vision,CV)是人工智能領(lǐng)域的研究熱點(diǎn),自2012年AlexNet[1]網(wǎng)絡(luò)問(wèn)世以來(lái),CV經(jīng)歷了從簡(jiǎn)單的圖像分類(lèi)到更為精細(xì)的語(yǔ)義分割、實(shí)例分割等任務(wù)的發(fā)展。伴隨深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的發(fā)展,CV在識(shí)別精度和速度上取得了長(zhǎng)足進(jìn)步,十年來(lái)涌現(xiàn)了大量的理論與方法,在諸多領(lǐng)域取得了豐碩的成果。實(shí)例分割的任務(wù)是輸入一張圖像,輸出圖像中每個(gè)物體的類(lèi)別,同時(shí)為每個(gè)物體生成像素級(jí)別的實(shí)例掩碼[2]。圖像分類(lèi)、目標(biāo)檢測(cè)、語(yǔ)義分割和實(shí)例分割四類(lèi)CV任務(wù)難度遞增,圖像分類(lèi)只需要指出圖像中有哪些物體類(lèi)別;目標(biāo)檢測(cè)在圖像分類(lèi)的基礎(chǔ)上同時(shí)需要輸出物體的邊界框;語(yǔ)義分割需要預(yù)測(cè)圖像上每一個(gè)像素點(diǎn)屬于哪個(gè)類(lèi)別;實(shí)例分割在語(yǔ)義分割的基礎(chǔ)上還需要區(qū)分同一類(lèi)別的不同實(shí)例。

        以Mask R-CNN[3]為代表的雙階段實(shí)例分割方案遵循先檢測(cè)后分割的理念,通常會(huì)先由區(qū)域候選網(wǎng)絡(luò)[4](Region Proposal Network,RPN)提出候選區(qū)域,然后針對(duì)興趣區(qū)域(Region of Interest,ROI)進(jìn)行池化和對(duì)齊操作,最后將特征送入后續(xù)網(wǎng)絡(luò)進(jìn)行分類(lèi)和掩碼生成。雙階段分割方案掩碼生成是基于候選區(qū)域特征進(jìn)行的,避免了圖像其他位置對(duì)掩碼生成的干擾,一般分割精度較高。雙階段分割方案的主要問(wèn)題在于存在大量的負(fù)樣本候選區(qū)域,計(jì)算耗時(shí)。為了解決這個(gè)問(wèn)題,以實(shí)時(shí)實(shí)例分割(Real-time Instance Se-gmentation,YOLACT)[5]和基于位置的實(shí)例分割(Segmenting Objects by Locations,SOLO)[6]等為代表的單階段分割方案產(chǎn)生,相比雙階段分割,這類(lèi)方案放棄了提出候選區(qū)域的操作,轉(zhuǎn)而利用全卷積在全圖范圍進(jìn)行卷積操作,一步到位同時(shí)實(shí)現(xiàn)物體種類(lèi)預(yù)測(cè)和掩碼生成,免去了RPN結(jié)構(gòu),提高了分割速率。但是全圖卷積在掩碼生成過(guò)程中無(wú)法避免背景影響,難以區(qū)分同一種類(lèi)的不同實(shí)例,導(dǎo)致精度有所下降。

        為了提高單階段分割精度,本文秉持通過(guò)增加不同實(shí)例特征區(qū)分度,以降低掩碼生成過(guò)程背景干擾的基本思想,針對(duì)全圖卷積的固有缺點(diǎn),提出了在特征圖上添加注意力機(jī)制的方法。該方法在特征圖每個(gè)位置的特征向量上進(jìn)行點(diǎn)積運(yùn)算,例如位置(i,j) 用向量[1,0,0]表示,位置(m,n) 用向量[0,1,0]表示,這樣(i,j)位置和(m,n)位置的特征向量在與自己點(diǎn)積后結(jié)果為1,相互點(diǎn)積后結(jié)果為0,以達(dá)到區(qū)分的目的。同一位置特征向量點(diǎn)積后結(jié)果變大,不同位置特征向量點(diǎn)積后結(jié)果變小,這樣便能提高不同實(shí)例間區(qū)分度,利于掩碼生成,提高了分割精度。

        1 相關(guān)工作

        1.1 特征金字塔

        一個(gè)良好的特征表示是實(shí)例分割的基礎(chǔ)步驟,為后續(xù)準(zhǔn)確地分類(lèi)和分割提供了必要保障。深度學(xué)習(xí)興起后,特征提取的工作基本由深度網(wǎng)絡(luò)來(lái)完成。利用深度網(wǎng)絡(luò)提取圖像特征能夠免去繁瑣的人工運(yùn)算,并且在效果上相較于傳統(tǒng)方法也有較大提升。深度網(wǎng)絡(luò)的淺層含有比較豐富的圖像細(xì)節(jié)信息,語(yǔ)義信息較少;而深層有更大的感受野,以及更豐富的語(yǔ)義信息,但圖像細(xì)節(jié)丟失嚴(yán)重。為了綜合深度網(wǎng)絡(luò)深層和淺層的優(yōu)勢(shì),特征金字塔[7](Feature Pyramid Network,F(xiàn)PN)是一種被廣泛采納的方案。FPN結(jié)構(gòu)包括自下而上、自上而下和橫向連接三部分。自下而上路徑是用于特征提取的常規(guī)卷積網(wǎng)絡(luò),隨著層數(shù)加深,感受野變大,空間分辨率降低,檢測(cè)到更多上下文信息,逐層語(yǔ)義信息遞增。自上而下路徑采用上采樣方式,提高了圖像分辨率,同時(shí)還原了更多細(xì)節(jié)信息。橫向連接是對(duì)自上而下路徑的補(bǔ)充,將原始的高分辨率特征融合到自上而下的路徑中,更好地還原了圖像細(xì)節(jié)。

        1.2 全卷積網(wǎng)絡(luò)

        全卷積網(wǎng)絡(luò)[8](Fully Convolution Network,F(xiàn)CN)能對(duì)圖像進(jìn)行像素級(jí)別分類(lèi),與經(jīng)典CNN在卷積后使用全連接層進(jìn)行類(lèi)別預(yù)測(cè)不同,F(xiàn)CN沒(méi)有全連接層,取而代之的是對(duì)最后一個(gè)卷積層的特征圖進(jìn)行上采樣,使它恢復(fù)到與輸入圖像相同的尺寸,從而對(duì)輸入圖像每一個(gè)像素點(diǎn)進(jìn)行分類(lèi)。理論上,全卷積能對(duì)任意尺寸的圖像進(jìn)行處理,廣泛應(yīng)用于語(yǔ)義分割和實(shí)例分割中。

        1.3 單階段實(shí)例分割

        單階段實(shí)例分割以快速著稱(chēng),相較于雙階段實(shí)例分割其模型更加緊湊。一般而言,整體網(wǎng)絡(luò)分為特征提取、分類(lèi)和掩碼生成三部分[9-10]。以SOLO算法為例,其基本思想是根據(jù)實(shí)例的位置和大小信息進(jìn)行區(qū)分。具體而言,將圖像分割成S×S個(gè)格子,坐標(biāo)(i,j)對(duì)應(yīng)圖像中第i行第j列位置的格子。對(duì)于某個(gè)實(shí)例,如果該實(shí)例的幾何中心落在了(i,j)格子內(nèi),那么該格子將負(fù)責(zé)預(yù)測(cè)這個(gè)實(shí)例的類(lèi)別和掩碼生成。網(wǎng)絡(luò)結(jié)構(gòu)一體化不需要ROI操作,所有卷積都是全圖卷積,不對(duì)特征圖進(jìn)行裁剪,憑借這些特性,單階段實(shí)例分割速度快。然而當(dāng)圖像中出現(xiàn)同一種類(lèi)的不同實(shí)例時(shí),全圖卷積固有弊端顯現(xiàn),同一種類(lèi)提取到的特征相似,而在掩碼生成過(guò)程中要求同一種類(lèi)不同實(shí)例的掩碼單獨(dú)生成,全圖卷積難以區(qū)分,導(dǎo)致精度下降。針對(duì)該問(wèn)題,本文提出了注意力模型,能夠提高同一種類(lèi)不同實(shí)例特征的差異,方便全圖卷積區(qū)分,從而提高分割精度。

        2 基于注意力機(jī)制的實(shí)例分割方案

        2.1 問(wèn)題描述

        總體上,本文是以SOLO算法為框架進(jìn)行改進(jìn)。前文提到,SOLO算法將圖像分割成S×S個(gè)格子,對(duì)于每一個(gè)格子,預(yù)測(cè)幾何中心落在該格子的實(shí)例屬于C個(gè)類(lèi)別的概率,其中C為數(shù)據(jù)集中實(shí)例的種類(lèi)數(shù)。在分類(lèi)網(wǎng)絡(luò)中,每一個(gè)格子對(duì)應(yīng)輸出空間為一個(gè)C維向量,由于圖像被分割成S×S個(gè)格子,因此分類(lèi)網(wǎng)絡(luò)輸出空間為C×S×S。

        同時(shí),每一個(gè)格子將負(fù)責(zé)幾何中心落在該格子內(nèi)實(shí)例的掩碼生成,掩碼生成網(wǎng)絡(luò)輸出空間為S2×2h×2w,第k個(gè)通道對(duì)應(yīng)(i,j)位置格子的生成掩碼,滿(mǎn)足條件:k=i×S+j,圖1所示為網(wǎng)絡(luò)輸出空間。本文提出了添加注意力機(jī)制的掩碼生成網(wǎng)絡(luò)結(jié)構(gòu),如圖2所示。所提方法主要分為特征提取、預(yù)測(cè)頭網(wǎng)絡(luò)結(jié)構(gòu)、注意力機(jī)制、添加注意力機(jī)制的網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)這五部分,下面分別進(jìn)行詳細(xì)介紹。

        圖1 分類(lèi)分支和掩碼分支輸出空間Fig.1 Classification branch and mask branch output space

        圖2 添加注意力機(jī)制的掩碼生成網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Mask generation network structure with attention mechanism

        2.2 特征提取

        特征提取使用了ResNet-FPN結(jié)構(gòu)。具體而言,輸入圖像經(jīng)過(guò)ResNet-50[11]前向計(jì)算,輸出4個(gè)特征層,該過(guò)程對(duì)應(yīng)FPN結(jié)構(gòu)中自下而上計(jì)算。然后每個(gè)特征層經(jīng)過(guò)1個(gè)1×1卷積橫向連接,將特征通道規(guī)整到256,同時(shí)與自上而下特征層上采樣后的結(jié)果相加,最后經(jīng)過(guò)1個(gè)3×3卷積輸出。提取特征自下而上分辨率逐層降低,語(yǔ)義信息逐層豐富。低層特征用于小物體分割,高層特征用于大物體分割。各層分辨率和通道數(shù)如表1所示。

        表1 ResNet-FPN提取各特征層詳細(xì)信息

        2.3 預(yù)測(cè)頭網(wǎng)絡(luò)結(jié)構(gòu)

        預(yù)測(cè)頭網(wǎng)絡(luò)由2個(gè)分支組成,一個(gè)分支負(fù)責(zé)類(lèi)別預(yù)測(cè),另一個(gè)分支負(fù)責(zé)掩碼生成。分類(lèi)分支首先將提取到的各特征層分割成S×S個(gè)格子,不同特征層S取值如表2所示。

        表2 各特征層S取值

        將各層特征圖分割為不同的格子后,輸入到分類(lèi)網(wǎng)絡(luò)進(jìn)行類(lèi)別預(yù)測(cè)。分類(lèi)網(wǎng)絡(luò)由7個(gè)卷積組和1個(gè)輸出卷積組成。每個(gè)卷積組由1個(gè)3×3卷積層、1個(gè)GN(Group Normalization)層[12]和1個(gè)ReLU激活層[13]組成。輸出卷積核大小為3×3,步長(zhǎng)和填充均為1,輸出通道為類(lèi)別數(shù)量。類(lèi)似地,掩碼生成網(wǎng)絡(luò)也由7個(gè)卷積組和1個(gè)輸出卷積組成。不同于分類(lèi)分支,掩碼生成網(wǎng)絡(luò)不需要將特征分割成S×S個(gè)格子,而是為特征層添加2個(gè)坐標(biāo)通道,以區(qū)分同一種類(lèi)的不同實(shí)例。對(duì)于位置(i,j)添加的x、y坐標(biāo)信息,計(jì)算方式如下

        (1)

        其中,w和h分別表示特征圖的寬和高。然后將添加坐標(biāo)信息的特征送入掩碼分支進(jìn)行掩碼生成。

        2.4 注意力機(jī)制

        前文提到,對(duì)于同一種類(lèi)的不同實(shí)例,分類(lèi)網(wǎng)絡(luò)要求輸出相同的物體類(lèi)別,掩碼生成網(wǎng)絡(luò)要求輸出不同的實(shí)例掩碼,為了實(shí)現(xiàn)這個(gè)目的,需要對(duì)特征圖進(jìn)行一定處理。本文提出了一種注意力機(jī)制,在經(jīng)過(guò)ResNet-FPN特征提取后,由輸出特征圖每個(gè)位置的c個(gè)通道組成一個(gè)c維向量表示該位置實(shí)例的特征,對(duì)于同一種類(lèi)不同實(shí)例,在經(jīng)過(guò)注意力操作后應(yīng)當(dāng)具備區(qū)分能力。本文提出的注意力機(jī)制是基于向量點(diǎn)積的一種操作,要求某一位置的c維向量與其他位置的c維向量點(diǎn)積后結(jié)果最小化,而與自己點(diǎn)積后結(jié)果最大化,以達(dá)到區(qū)分不同實(shí)例的目的。具體而言,首先對(duì)特征位置進(jìn)行編號(hào),編號(hào)方式如下

        num=i×S+j

        (2)

        新特征與原特征對(duì)應(yīng)關(guān)系如下

        Fnew(c,i,j)=Vnum=c?Vnum=i×S+j

        (3)

        其中,F(xiàn)new(c,i,j)表示新特征第c個(gè)通道(i,j)位置的特征值;Vnum=c表示編號(hào)為c的特征向量;Vnum=i×S+j表示編號(hào)為i×S+j的特征向量。圖3詳細(xì)說(shuō)明了該過(guò)程。

        圖3 注意力機(jī)制圖解(以編號(hào)為1、7、15的特征向量示例)Fig.3 Illustration of attention mechanism(take the index 1, 7, 15 as examples)

        2.5 添加注意力機(jī)制的網(wǎng)絡(luò)結(jié)構(gòu)

        SOLO算法掩碼分支保留了特征圖h×w的大小,而注意力機(jī)制需要將特征圖分割成S×S的大小,不同格子對(duì)應(yīng)圖像中的不同實(shí)例。經(jīng)過(guò)注意力機(jī)制后,特征空間變?yōu)镾2×S×S。受到ResNet網(wǎng)絡(luò)結(jié)構(gòu)啟發(fā),將注意力機(jī)制單獨(dú)作為一個(gè)分支,該分支的輸出直接按位置加到原SOLO算法掩碼生成分支。因此,最后的掩碼將由兩部分構(gòu)成:原SOLO掩碼分支生成的掩碼和注意力分支生成的掩碼。

        2.6 損失函數(shù)

        本文沿用SOLO算法損失函數(shù),定義為

        L=Lcate+λLmask

        (4)

        其中,Lcate為Focal Loss[14];Lmask為掩碼損失,詳細(xì)參閱文獻(xiàn)[6]。

        3 實(shí)驗(yàn)驗(yàn)證

        3.1 數(shù)據(jù)集

        實(shí)例分割常用數(shù)據(jù)集為微軟發(fā)布的環(huán)境常見(jiàn)對(duì)象(Common Objects in Context, COCO)數(shù)據(jù)集[15],包含80個(gè)類(lèi)別。然而COCO數(shù)據(jù)集較大,需要較高的算力。限于實(shí)驗(yàn)設(shè)備,本文實(shí)驗(yàn)過(guò)程中采用的數(shù)據(jù)集為CityScapes部分?jǐn)?shù)據(jù)集,并將其標(biāo)注轉(zhuǎn)化為COCO格式。構(gòu)造的數(shù)據(jù)集包含450張訓(xùn)練圖像和50張驗(yàn)證圖像,共5個(gè)類(lèi)別,分別為person、rider、car、truck和bus。圖4所示為一個(gè)訓(xùn)練數(shù)據(jù)集示例。

        圖4 訓(xùn)練數(shù)據(jù)集示例Fig.4 Training data examples

        3.2 實(shí)驗(yàn)結(jié)果

        實(shí)驗(yàn)中將去除坐標(biāo)通道的SOLO算法作為基準(zhǔn),對(duì)比了去除坐標(biāo)信息的SOLO算法、原SOLO算法和添加注意力機(jī)制三種方法的分割效果。圖5所示為3個(gè)樣本的分割效果。在樣本1中,SOLO算法對(duì)于畫(huà)面中央的汽車(chē)生成的掩碼不準(zhǔn)確,去除坐標(biāo)信息的SOLO算法對(duì)于畫(huà)面徑深的汽車(chē)沒(méi)有生成掩碼,而注意力機(jī)制則對(duì)這些問(wèn)題有所改善。在樣本2中,畫(huà)面右側(cè)多名行人重疊,SOLO算法和去除坐標(biāo)信息的SOLO算法無(wú)法將重疊行人進(jìn)行區(qū)分,而注意力機(jī)制區(qū)分效果明顯更好。在樣本3中,由于圖像較為空曠且實(shí)例面積小,SOLO算法和去除坐標(biāo)信息的SOLO算法幾乎無(wú)法生成掩碼,而注意力機(jī)制能對(duì)行人生成掩碼。本文對(duì)比了三種方法的準(zhǔn)確率,結(jié)果如表3所示。

        圖5 分割效果示例Fig.5 Segmentation examples

        表3 各算法分割精度對(duì)比

        對(duì)比去除坐標(biāo)通道的SOLO算法和原始SOLO算法發(fā)現(xiàn),僅僅添加2個(gè)通道的坐標(biāo)信息就能將平均準(zhǔn)確率(Average Precision,AP)提高1.8%,足見(jiàn)差異化信息在實(shí)例分割中起到了舉足輕重的作用。對(duì)比SOLO算法和注意力機(jī)制,在添加了注意力機(jī)制后AP提高了1.9%,可見(jiàn)注意力機(jī)制提供了更為豐富的差異化信息,增強(qiáng)了不同實(shí)例的區(qū)分度,進(jìn)而更利于生成準(zhǔn)確的掩碼。

        同時(shí)本文對(duì)比了不同算法對(duì)小、中和大物體的分割效果。仔細(xì)觀察圖5可以發(fā)現(xiàn),在樣本1中較大的汽車(chē)生成的掩碼比較小的行人生成的掩碼更準(zhǔn)確。在樣本2中,畫(huà)面前方較大的行人相比畫(huà)面后方較小的行人生成的掩碼更精確。在樣本3中,對(duì)于較小的行人SOLO算法甚至無(wú)法生成掩碼。本文對(duì)比了SOLO算法和注意力機(jī)制對(duì)不同面積實(shí)例的分割精度,結(jié)果如表4所示。

        表4 不同大小的實(shí)例分割精度對(duì)比

        結(jié)果顯示,不管哪類(lèi)算法在對(duì)小物體的分割上精度都欠佳,而對(duì)大物體的分割則表現(xiàn)良好。小物體分割依舊是實(shí)例分割領(lǐng)域的瓶頸,有待未來(lái)突破。

        4 結(jié)論

        本文針對(duì)單階段目標(biāo)檢測(cè)全圖卷積的固有缺點(diǎn)提出了一種注意力機(jī)制,該機(jī)制能增強(qiáng)不同實(shí)例間的區(qū)分度,從而提高分割精度。實(shí)驗(yàn)結(jié)果表明,注意力機(jī)制相比簡(jiǎn)單的坐標(biāo)信息能提供更豐富的差異化信息,這也為提高單階段實(shí)例分割精度的后續(xù)研究提供了一種思路。CV領(lǐng)域有諸多不同的注意力機(jī)制,本文提出的注意力機(jī)制主要有以下優(yōu)點(diǎn):

        1)基本思想?yún)^(qū)別。不同于其他注意力機(jī)制關(guān)注特定信息的理念,本文注意力機(jī)制的目的是增加不同實(shí)例間的區(qū)分度,以提高各類(lèi)實(shí)例的分割精度。

        2)思路清晰,運(yùn)算簡(jiǎn)便。本文的注意力機(jī)制不需要求相似度,直接在原算法基礎(chǔ)上添加向量點(diǎn)積操作便可實(shí)現(xiàn)。

        但是點(diǎn)積需要遍歷特征圖所有位置,運(yùn)算復(fù)雜且耗時(shí)有所增加。此外,實(shí)例分割雖然取得了一系列進(jìn)步,但也存在諸多挑戰(zhàn):

        1)小物體分割精度低。網(wǎng)絡(luò)層數(shù)增加,感受野變大,但分辨率降低,這對(duì)小物體的分割是一種災(zāi)難。目前的分割方案普遍對(duì)于大物體有更好的分割效果,而對(duì)小物體則欠佳。

        2)實(shí)時(shí)性、高精度的分割算法有待研究。在無(wú)人駕駛領(lǐng)域,不僅對(duì)識(shí)別的時(shí)效性有很高的要求,同時(shí)對(duì)精度也有很高要求。目前的實(shí)例分割方案應(yīng)對(duì)該領(lǐng)域還有些吃力,如何在保證高精度的前提下快速分割也是未來(lái)研究的重要方向。

        3)三維圖像分割研究較少。目前主流方案都是針對(duì)平面圖像分割,然而三維點(diǎn)云應(yīng)用廣泛,且包含更多平面圖像無(wú)法表達(dá)的信息。因此實(shí)現(xiàn)對(duì)三維點(diǎn)云圖的分割,將極大程度豐富實(shí)例分割的應(yīng)用場(chǎng)景。

        猜你喜歡
        機(jī)制特征
        抓住特征巧觀察
        構(gòu)建“不敢腐、不能腐、不想腐”機(jī)制的思考
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        自制力是一種很好的篩選機(jī)制
        文苑(2018年21期)2018-11-09 01:23:06
        抓住特征巧觀察
        定向培養(yǎng) 還需完善安置機(jī)制
        破除舊機(jī)制要分步推進(jìn)
        注重機(jī)制的相互配合
        在线av野外国语对白| 成年性生交大片免费看| 免费人成网ww555kkk在线| 福利视频黄| 国产一区二区三区高清视频| 免费人成网站在线视频| 亚洲av综合av一区| 性一乱一搞一交一伦一性| 国产午夜视频免费观看| 亚洲av网站在线免费观看| aaa日本高清在线播放免费观看| 亚洲狠狠婷婷综合久久久久图片| 456亚洲老头视频| 中文字幕 在线一区二区| 久久精品国产熟女亚洲| 2020年国产精品| 亚洲AⅤ无码国精品中文字慕| 麻豆激情视频在线观看| 久久不见久久见www日本网| 18成人片黄网站www| 亚洲人成网站久久久综合| 中文字幕有码久久高清| 免费观看交性大片| 亚洲av无码资源在线观看| 亚洲夫妻性生活视频网站| 中文字幕亚洲精品在线| 国产成人亚洲精品无码av大片| 国产精品二区在线观看| 国产一区二区三区资源在线观看 | 亚洲精品国产精品乱码视色| 最新亚洲人成网站在线观看| 亚洲伊人久久一次| 国产三级精品三级在线| 欧美男生射精高潮视频网站| 黄色视频在线免费观看| 岛国视频在线无码| 亚洲va视频一区二区三区| 亚洲成av人片在线观看ww| 久久精品爱国产免费久久 | 人妻少妇精品中文字幕专区| 亚洲午夜精品久久久久久人妖|