日本立命館大學的科學家們開發(fā)了一種神經網絡,可以將2D照片轉化為逼真的3D數(shù)字模型。這項技術近期被用于重建婆羅浮屠寺埋藏浮雕的三維形態(tài)。婆羅浮屠寺是世界上最大的佛教寺廟建筑群之一,也是聯(lián)合國教科文組織收錄的世界遺產。這些浮雕雕刻于石塊上,歷經歲月,逐漸被埋于地下。
這次研究所依賴的關鍵圖像,是一張拍攝于134年前的老照片。照片記錄了當時因寺廟修復工作而短暫露出的浮雕雕刻。在它們再次被掩埋之前,攝影師用鏡頭永久保存了這些石雕的面貌。盡管這些照片為研究提供了珍貴資源,但由于拍攝條件和深度信息的缺失,之前的重建嘗試都面臨重重困難。
立命館大學的田中聰教授表示,以往團隊嘗試過利用單目照片進行3D重建,取得了約95%的重建精確度。然而,這種方法難以恢復浮雕中人臉和裝飾等精細細節(jié)。問題的根源在于,2D圖像中的深度值高度壓縮,特別是邊緣區(qū)域的深度變化提取難度極大。
新研究團隊的突破在于開發(fā)了一個多模態(tài)神經網絡,能夠同時完成語義分割、深度估計和軟邊緣檢測三項任務,從而顯著提升3D重建的精確性。核心技術是創(chuàng)新的軟邊緣檢測器和邊緣匹配模塊。
傳統(tǒng)的邊緣檢測通常僅基于亮度變化進行二元分類,而軟邊緣檢測器則以多分類方式處理圖像中的邊緣,將它們視為曲率和亮度變化的綜合體現(xiàn)。這種方法能夠捕捉到浮雕的微妙邊緣特征,并對其“柔軟度”進行評估,從而在深度估計中提供更多細節(jié)。
為了實現(xiàn)這一目標,研究團隊的神經網絡采用了以下三步工作流程:
1.軟邊緣檢測:通過兩個軟邊緣檢測器提取浮雕圖像中的多類軟邊緣圖和深度圖,分析圖像中邊緣的柔軟度和變化。
2.邊緣匹配模塊:比較兩組圖像中軟邊緣的差異,聚焦于關鍵區(qū)域,提升深度估計的細膩程度。
3.動態(tài)優(yōu)化損失函數(shù):通過整合語義分割、深度估計和邊緣檢測的損失,優(yōu)化重建結果,生成更加清晰且細節(jié)豐富的3D模型。
最終,經過多任務協(xié)作和動態(tài)優(yōu)化,這套系統(tǒng)能夠高效生成細節(jié)清晰、深度準確的浮雕3D圖像。
這一研究成果不僅讓埋藏的婆羅浮屠寺浮雕重現(xiàn)光彩,也為歷史文物的數(shù)字保護帶來了新希望。隨著人工智能技術的不斷進步,類似的方法有望被應用于更多遺址和文物的修復與重建中,為后人提供了解古代文化的新途徑。
正如田中教授所言:“通過結合創(chuàng)新的深度估計和軟邊緣檢測技術,我們正逐步解決歷史照片3D重建中的難題。這不僅是一次技術上的突破,更是一次讓歷史遺產煥發(fā)新生的重要嘗試?!?/p>