李宇文 冷凝
摘 要:本文重點(diǎn)分析了如何利用“arXiv數(shù)據(jù)庫(kù)”進(jìn)行有效檢索。同時(shí),通過(guò)具體實(shí)際案例發(fā)現(xiàn),在非專(zhuān)利檢索中,若在google學(xué)術(shù)中檢索到時(shí)間不可用的對(duì)比文件,可繼續(xù)在“arXiv數(shù)據(jù)庫(kù)”中做進(jìn)一步的時(shí)間確定,可能會(huì)檢索到時(shí)間可用的版本。
關(guān)鍵詞:arXiv數(shù)據(jù)庫(kù);檢索
一、引言
檢索是發(fā)明專(zhuān)利申請(qǐng)實(shí)質(zhì)審查程序中的一個(gè)關(guān)鍵步驟,其目的在于找出與申請(qǐng)的主題密切相關(guān)或者相關(guān)的現(xiàn)有技術(shù)中的對(duì)比文件,或者找出抵觸申請(qǐng)文件和防止重復(fù)授權(quán)的文件,以確定申請(qǐng)的主題是否具備專(zhuān)利法規(guī)定的新穎性和創(chuàng)造性[1]。可見(jiàn),檢索的質(zhì)量和效率直接影響著審查的質(zhì)量和效率。那么,如何選取數(shù)據(jù)庫(kù),并從海量的文獻(xiàn)中快速檢索到時(shí)間可用、內(nèi)容有效的對(duì)比文件,提高檢索效率,已經(jīng)成為檢索工作中亟需解決的問(wèn)題。
二、利用arXiv數(shù)據(jù)庫(kù)檢索
arXiv是一個(gè)收錄科學(xué)文獻(xiàn)預(yù)印本的在線數(shù)據(jù)庫(kù)系統(tǒng),其網(wǎng)址為arxiv.org[2]。下面結(jié)合實(shí)際案例來(lái)提供針對(duì)arXiv數(shù)據(jù)庫(kù)檢索相關(guān)技巧和策略。
案例一:
(1)案情介紹
1. 一種圖像檢測(cè)方法,包括:
輸入步驟:將第一圖像輸入經(jīng)過(guò)訓(xùn)練的神經(jīng)網(wǎng)絡(luò);
檢測(cè)步驟:基于所述神經(jīng)網(wǎng)絡(luò)對(duì)所述第一圖像中感興趣區(qū)域進(jìn)行檢測(cè),得到圍繞所述感興趣區(qū)域的多邊形,檢測(cè)所述多邊形的各個(gè)邊所在的直線;
輸出步驟:輸出描述所述各個(gè)邊所在的直線的參數(shù)。
2. 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述經(jīng)過(guò)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型采用以下步驟獲得:
訓(xùn)練數(shù)據(jù)集獲取步驟:對(duì)多個(gè)第二圖像的感興趣區(qū)域進(jìn)行標(biāo)識(shí),得到訓(xùn)練數(shù)據(jù)集;
SSD網(wǎng)絡(luò)訓(xùn)練步驟:利用所述訓(xùn)練數(shù)據(jù)集訓(xùn)練SSD網(wǎng)絡(luò);
神經(jīng)網(wǎng)絡(luò)訓(xùn)練步驟:利用所述訓(xùn)練數(shù)據(jù)集訓(xùn)練神經(jīng)網(wǎng)絡(luò),其中,所述神經(jīng)網(wǎng)絡(luò)通過(guò)如下方式獲得:將訓(xùn)練后的所述SSD網(wǎng)絡(luò)的檢測(cè)(Detection)層的輸入作為L(zhǎng)STM網(wǎng)絡(luò)的輸入,從而將所述SSD網(wǎng)絡(luò)與所述LSTM網(wǎng)絡(luò)組合形成所述神經(jīng)網(wǎng)絡(luò)。
(2)檢索技巧和策略
a)常規(guī)檢索及檢索難點(diǎn)
本申請(qǐng)的發(fā)明構(gòu)思主要體現(xiàn)在兩個(gè)方面,(1)采用線性標(biāo)識(shí)方式對(duì)圖像中的感興趣區(qū)域進(jìn)行標(biāo)識(shí);(2)采用SSD-LSTM卷積神經(jīng)網(wǎng)絡(luò),對(duì)視頻圖像的感興趣區(qū)域進(jìn)行檢測(cè)識(shí)別。
通過(guò)常規(guī)的檢索方式發(fā)現(xiàn),將SSD和LSTM結(jié)合的神經(jīng)網(wǎng)絡(luò)算法均出現(xiàn)在2018-2019年,可見(jiàn)SSD+LSTM結(jié)合的卷積神經(jīng)網(wǎng)絡(luò)算法屬于新的技術(shù)手段。
b)亮點(diǎn)檢索
選擇在google學(xué)術(shù)中對(duì)“SSD+LSTM結(jié)合的卷積神經(jīng)網(wǎng)絡(luò)算法”進(jìn)行檢索,如圖1所示。
經(jīng)檢索發(fā)現(xiàn),文獻(xiàn)1《TSSD: temporal single-shot detector based on attention and LSTM for robotic intelligent perception》中所引用的文獻(xiàn)正是其下面這篇文獻(xiàn)2《Mobile video object detection with temporally-aware feature maps》,該文獻(xiàn)2提出了一種將SSD+LSTM結(jié)合的混合循環(huán)卷積結(jié)構(gòu),其相對(duì)于傳統(tǒng)的LSTM減少了計(jì)算量。但是,從google學(xué)術(shù)中給出的鏈接點(diǎn)進(jìn)去,可以看出該文獻(xiàn)2發(fā)表在CVPR2018上,其時(shí)間不可用,如圖2所示。
于是,繼續(xù)在google學(xué)術(shù)中檢索,發(fā)現(xiàn)文獻(xiàn)3《An Improved objective detection of road scenes based on SSD model》中同樣提到了“SSD+LSTM結(jié)合的混合循環(huán)卷積結(jié)構(gòu)”,其引用的文獻(xiàn)正是文獻(xiàn)2,但是在給出的參考文獻(xiàn)中,卻記載的時(shí)間是2017年。如圖3所示。
該文獻(xiàn)2的時(shí)間究竟是2017還是2018年,若能證明該文獻(xiàn)2在2017年就已經(jīng)公開(kāi),那么,文獻(xiàn)2即可與D1結(jié)合評(píng)述本申請(qǐng)的創(chuàng)造性。于是,需要對(duì)文獻(xiàn)2的公開(kāi)時(shí)間做進(jìn)一步確認(rèn)。
通過(guò)瀏覽文獻(xiàn)2公開(kāi)網(wǎng)址,發(fā)現(xiàn)下面給出了“ ”,即相關(guān)材料,通常我們只關(guān)注PDF,而其給出的文獻(xiàn)是最新更新的文獻(xiàn),其時(shí)間為最新的時(shí)間。往往忽略了“arXiv數(shù)據(jù)庫(kù)”,點(diǎn)進(jìn)“arXiv數(shù)據(jù)庫(kù)”,可以看到文獻(xiàn)2有兩個(gè)版本,即2017年11月17日提交的版本v1和2018年3月28日提交的最終版v2。
同時(shí),該網(wǎng)頁(yè)給出了版本v1和v2的下載版本。由此,我們可以采用2017年11月17日公開(kāi)的版本v1,作為本申請(qǐng)的D2,同時(shí),將D1與D2結(jié)合,評(píng)述本申請(qǐng)權(quán)利要求2的創(chuàng)造性。
三、結(jié)束語(yǔ)
基于該案例,我們發(fā)現(xiàn)同一篇文章,若收錄在“arXiv數(shù)據(jù)庫(kù)”中,則時(shí)間相較于Google學(xué)術(shù)更早。因此,若在google學(xué)術(shù)中檢索到時(shí)間不可用的對(duì)比文件,可繼續(xù)在“arXiv數(shù)據(jù)庫(kù)”中做進(jìn)一步的時(shí)間確定,可能會(huì)檢索到時(shí)間可用的版本。
參考文獻(xiàn):
[1]中華人民共和國(guó)國(guó)家知識(shí)產(chǎn)權(quán)局.專(zhuān)利審查指南[M].北京:知識(shí)產(chǎn)權(quán)出版社,2010.
[2]丁曉萍. 世界知名預(yù)印本數(shù)據(jù)庫(kù)arXiv[J]. 商丘師范學(xué)院學(xué)報(bào),2019,(5):104-106.
(國(guó)家知識(shí)產(chǎn)權(quán)局專(zhuān)利局專(zhuān)利審查協(xié)作湖北中心? 湖北省武漢市? 430000)