目錄
時間序列預測
1、Are Transformers Really Effective for Time Series Forecasting?
2、Are Transformers Effective for Time Series Forecasting (2022)?
3、Anomaly Transformer (ICLR Spolight 2022)
4、WaveBound: Dynamic Error Bounds for Stable Time Series Forecasting (Neurips 2022):
#https://www.php.cn/link/791d3a0048b1
其他有趣的論文
8、Domain Adaptation for Time Series Forecasting via Attention Sharing(ICML 2022)
9、When to Intervene: Learning Optimal Intervention Policies for Critical Events (Neurips 2022)
首頁 科技週邊 人工智慧 2022年深度學習在時間序列預測與分類的研究進展綜述

2022年深度學習在時間序列預測與分類的研究進展綜述

Apr 13, 2023 pm 12:25 PM
模型 深度學習 數據集

時間序列預測的transformers的衰落和時間序列嵌入方法的興起,還有異常檢測、分類也取得了進步

2022年整個領域在幾個不同的方面取得了進展,本文將試著介紹一些在過去一年左右的時間裡出現的更有前景和關鍵的論文,以及Flow Forecast [FF]預測框架。

2022年深度學習在時間序列預測與分類的研究進展綜述


時間序列預測

1、Are Transformers Really Effective for Time Series Forecasting?

#https://www.php.cn/link/bf4d73f316737b26f1e860da0ea63ec8

Transformer相關研究對比Autoformer、Pyraformer、Fedformer等,它們的效果與問題

2022年深度學習在時間序列預測與分類的研究進展綜述

隨著Autoformer (Neurips 2021)、Pyraformer (ICLR 2022)、Fedformer (ICML 2022)、EarthFormer (Neurips 2022) 和Non-Stationary Transformer (Neurips) 等模型的出現,時間序列預測架構的Transformer 系列不斷發展壯大)。但是這些模型準確預測數據並優於現有方法的能力仍然存在疑問,特別是根據新研究(我們將在稍後討論)。

Autoformer :擴充並改進了 Informer 模型的效能。 Autoformer 具有自動關聯機制,使模型能夠比標準注意力更好地學習時間依賴關係。它旨在準確分解時態數據的趨勢和季節成分。

2022年深度學習在時間序列預測與分類的研究進展綜述

Pyraformer:作者介紹了「金字塔注意模組(PAM),其中尺度間樹結構總結了不同解析度下的特徵,尺度內相鄰連接對不同範圍的時間依賴性進行建模。」

Fedformer:該模型著重於在時間序列資料中捕捉全球趨勢。作者提出了一個季節性趨勢分解模組,旨在捕捉時間序列的全局特徵。

Earthformer: 可能是這些論文中最獨特的一個,它特別專注於預測地球系統,如天氣、氣候和農業等。介紹了一種新的cuboid 注意力架構。這篇論文應該是潛力巨大的望,因為在河流和暴洪預測方面的研究,許多經典的Transformer都失敗了。

Non-Stationary Transformer:這是使用transformer 用於預測的最新論文。作者旨在更好地調整 Transformer 以處理非平穩時間序列。他們採用兩種機制:去平穩注意里和一系列平穩化機制。這些機制可以插入到任何現有的Transformer模型中,作者測試將它們插入 Informer、Autoformer 和傳統的Transformer 中,都可以提高效能(在附錄中,也表明它可以提高 Fedformer 的效能)。

論文的評估方法:與 Informer 類似,所有這些模型(Earthformer 除外)都在電力、交通、金融和天氣資料集上進行了評估。主要根據均方誤差(MSE) 和平均絕對誤差(MAE) 指標進行評估:

2022年深度學習在時間序列預測與分類的研究進展綜述

這篇論文很好,但是它只對比了Transformer相關的論文,其實應該要與更簡單的方法比較,例如簡單的線性迴歸、LSTM/GRU、甚至是XGB等樹狀模型。另外就是它們應該不僅僅局限在一些標準資料集,因為我在其他時間序列相關資料集上沒有看到很好的表現。比如說informer在準確預測河流流量方面遇到了巨大的問題,與LSTM或甚至是普通的Transformer相比,它的表現通常很差。

另外是由於與電腦視覺不同,影像維度至少保持不變,時間序列資料在長度、週期性、趨勢和季節性方面可能存在巨大差異,因此需要更大範圍的資料集。

在OpenReview的Non-Stationary Transformer的評論中,一位評論者也表達了這些問題,但它在最終的元評論中被否決了:

“由於該模型屬於Transformer領域,而且Transformer之前已經在許多任務中表現出了最先進的水平,我認為沒有必要與其他'家族'方法進行比較。」

這是一個非常有問題的論點,並導致研究在現實世界中缺乏適用性。就像我們所認知的:XGB在表格資料的壓倒性優勢還沒改變,Transformer的閉門造車又有什麼意義?每次超越,每次都被吊打。

作為一個在實踐中重視最先進的方法和創新模型的人,當我花了幾個月的時間試圖讓一個所謂的「好」模型工作時,但最後卻發現,他的表現還不如簡單的線性迴歸,那這幾個月有什麼意思?這個所謂的好」模型又有什麼意義。

所有的transformer 論文都同樣存在有限評估的問題。我們應該從一開始就要求更嚴格的比較和對缺點的明確說明。一個複雜的模型最初可能並不總是優於簡單模型,但需要在論文中明確指出這一點,而不是掩蓋或簡單地假設沒有這種情況。

但是這篇論文還是很好的,例如Earthformer 在MovingMNIST 資料集和N-body MNIST資料集上進行了評估,作者用它來驗證cuboid 注意力的有效性,評估了它的降水量即時預報和厄爾尼諾週期預報。我認為這是一個很好的例子,將物理知識整合到具有註意力的模型架構中,然後設計出好的測試。

2、Are Transformers Effective for Time Series Forecasting (2022)?

#https://www.php.cn/link/bf4d73f316737b26f1e860da0ea63ec8

2022年深度學習在時間序列預測與分類的研究進展綜述

#這篇論文探討了Transformer 預測資料與基準方法的能力。結果結果。在某種程度上再次證實了Transformers 的性能通常比更簡單的模型差,而且難以調整。這篇論文中的幾個有趣的觀點:

  • 用基本的線性層替換自注意力並發現:「Informer 的表現隨著逐漸簡化而增長,表明至少對於現有的LTSF 基準來說,自註意力方案和其他複雜模組是不必要的」
  • 調查了增加回溯視窗( look-back window )是否會提高Transformer 的效能並發現:「SOTA Transformers 的效能略有下降,表明這些模型僅從相鄰的時間序列序列中捕獲相似的時間資訊。 」
  • 探討了位置嵌入是否真的能很好地捕捉時間序列的時間順序。透過將輸入序列隨機混洗到Transformer中來做到這一點。他們在幾個資料集上發現這種改組並沒有影響結果(這個編碼很麻煩)。

在過去的幾年裡,Transformer模型的無數次時間序列實驗在絕大多數情況下結果都不太理想。在在很長一段時間裡,我們都認為一定是做錯了什麼,或者遺漏了一些小的實現細節。所有這些都被認為是下一個SOTA模型的思路。但是這個論文卻有一致的思路就是?如果一個簡單的模型勝過Transformer,我們應該繼續使用它們嗎?是所有的Transformer都有固有的缺陷,還是只是當前的機制?我們是否應該回到lstm、gru或簡單的前饋模型這樣的架構?這些問題我都不知道答案,但是這篇論文的整體影響還有待觀察。到目前為止,我認為答案可能是退一步,專注於學習有效的時間序列表示。畢竟最初BERT在NLP環境中成功地形成了良好的表示。

也就是說,我不認為我們應該把時間序列的Transformer視為完全死亡。Fedformer的表現非常接近簡單模型,並且在各種消融打亂任務中表現更好。雖然的基準在許多情況下都難以進行預測,但他們對數據的內部表示卻相當不錯。我認為還需要進一步了解內部表示和實際預測輸出之間的脫節。另外就是正如作者所建議的那樣,改進位置嵌入可以在提高整體性能方面發揮關鍵作用。最後有一個Transformer的模型,在各種異常檢測資料集上表現非常好,下面就會介紹。

3、Anomaly Transformer (ICLR Spolight 2022)

#https://www.php.cn/link/ab22e28b58c1e3de6bcef48d3f5d8b4a

#相當多的研究都集中在將transformers 應用於預測,但異常異常檢測的研究相對較少。這篇介紹了一種(無監督)Transformer 來檢測異常。該模型結合使用特別構建的異常注意機制和minmax 策略。

2022年深度學習在時間序列預測與分類的研究進展綜述

本文在五個真實世界的資料集上評估了模型的效能,包括Server Machine Dataset, Pooled Server Metrics, Soil Moisture Active Passive和NeurIPS-TS(它本身由五個不同的資料集組成)。雖然有人可能會對這個模型持懷疑態度,特別是關於第二篇論文的觀點,但這個評估是相當嚴格的。 Neurips-TS是一個最近創建的,專門用於提供更嚴格的異常檢測模型評估的資料集。與更簡單的異常檢測模型相比,該模型似乎確實提高了效能。

作者提出了一種獨特的無監督Transformer,它在過多的異常檢測資料集上表現良好。這是過去幾年時間序列Transformer領域最有前景的論文之一。因為預測比分類甚至異常檢測更具挑戰性,因為你試圖預測未來多個時間步驟的巨大可能值範圍。這麼多的研究都集中在預測上,而忽略了分類或異常檢測,對於Transformer我們是不是應該從簡單的開始呢?

4、WaveBound: Dynamic Error Bounds for Stable Time Series Forecasting (Neurips 2022):

#https://www.php.cn/link/ae95296e27d7f695f891cd26b#f370078

#論文介紹了一種新的正則化形式,可以改進深度時間序列預測模型(特別是上述transformers )的訓練。

作者透過將其插入現有的 transformer LSTNet模型來評估。他們發現它在大多數情況下顯著提高了性能。儘管他們只測試了Autoformer 模型,而沒有測試 Fedformer 這樣的更新模型。

新形式的正則化或損失函數總是有用的,因為它們通常可以插入任何現有的時間序列模型中。如果你 Fedformer 非平穩機制 Wavebound 結合起來,你可能會在效能上擊敗簡單的線性迴歸 :)。

時間序列表示

雖然Transformer 再預測方向上的效果並不好,但在創建有用的時間序列表示方面Transformer還是取得了許多進展。我認為這是時間序列深度學習領域中一個令人印象深刻的新領域,應該進行更深入的探索。

5、TS2Vec: Towards Universal Representation of Time Series (AAAI 2022)

https://www.php.cn/link/7690dd4db7a92524c684e3191919/7690dd4db7a92524c684e3191919196b1 ##TS2Vec是一個學習時間序列表示/嵌入的通用框架。這篇論文本身已經有些過時了,但它確實開始了時間序列表示學習論文的趨勢。

對使用表示進行預測和異常檢測進行評估,該模型優於許多模型,例如 Informer 和 Log Transformer。

6、Learning Latent Seasonal-Trend Representations for Time Series Forecasting(Neurips 2022)

#https://www.php.cn/link/0c5534f554a26f7aeb7c780e12bb155534f554a26f7aeb7c780e12bb155

作者創建了一個模型(LAST),使用變異推理創建季節性和趨勢的分離表示。 2022年深度學習在時間序列預測與分類的研究進展綜述

作者對他們的模型進行了下游預測任務的評價,他們透過在表示上添加一個預測器(見上圖中的B)來做到這一點。它們還提供了有趣的圖來顯示表示的視覺化。該模型在幾個預測任務以及TS2Vec和成本方面都優於Autoformer。在一些預測任務上,它看起來也可能比上面提到的簡單線性迴歸表現更好。

儘管我仍然對那些只評估標準預測任務的模型持懷疑態度,但這個模型的確很亮眼,因為它關注的是表徵而不是預測任務本身。如果我們看論文中展示的一些圖表,可以看到模型似乎確實學會了區分季節性和趨勢。不同資料集的視覺化表示也嵌入到相同的空間中,如果它們顯示出實質的差異,那將是很有趣的。 2022年深度學習在時間序列預測與分類的研究進展綜述

7、CoST: Contrastive Learning of Disentangled Seasonal-Trend Representations for Time Series Forecasting (ICLR 2022)

https://www.php.cn/link/791d3a0048b9c2000

這是2022年早些時候在ICLR上發表的一篇論文,在學習季節和趨勢表示方面與LaST非常相似。由於LaST在很大程度上已經取代了它的性能,這裡就不做過多的描述了。但連結在上面供那些想要閱讀的人閱讀。

其他有趣的論文

8、Domain Adaptation for Time Series Forecasting via Attention Sharing(ICML 2022)

https://www.php.cn/link /d4ea5dacfff2d8a35c0952291779290d

2022年深度學習在時間序列預測與分類的研究進展綜述

當缺乏訓練資料時,預測對DNN 來說是一項挑戰。這篇論文對具有豐富資料的領域使用共享注意力層,然後對目標領域使用單獨的模組。

它所提出的模型使用合成資料集和真實資料集進行評估。在合成環境中,測試了冷啟動學習和少樣本學習,發現他們的模型優於一般 Transformer 和 DeepAR。對於真實資料集採用了 Kaggle 零售資料集,該模型在這些實驗中大大優於基準。

冷啟動、少樣本和有限學習是極其重要的主題,但很少有論文涉及時間序列。該模型為解決其中一些問題提供了重要的一步。也就是說他們可以在更多不同的有限現實世界資料集上進行評估,並與更多基準模型進行比較, 微調或正則化的好處在於可以對任何架構進行調整。

9、When to Intervene: Learning Optimal Intervention Policies for Critical Events (Neurips 2022)

https://www.php.cn/link/f38fef4c0e4988792723c29a0bd3cad

#雖然這不是一篇「典型的」時間序列論文,但我選擇將其列入這個列表,因為本文的重點是在機器發生故障之前找到進行幹預的最佳時間。這被稱為OTI或最佳時間幹預

評估OTI的問題之一是潛在生存分析的準確性(如果不正確,評估也會不正確)。作者根據兩個靜態閾值評估了他們的模型,發現它表現得很好,並且繪製了不同政策的預期表現和命中與失敗的比率。

這是一個有趣的問題,作者提出了一個新穎的解決方案,Openreview的一位評論者指出:「如果有一個圖表顯示失敗機率和預期幹預時間之間的權衡,那麼實驗可能會更有說服力,這樣人們就可以直觀地看到這個權衡曲線的形狀。」

最近的資料集/基準

最後就是資料集的測試的基準

Monash Time Series Forecasting Archive (Neurips 2021):該檔案旨在形成不同時間序列資料集的“主列表”,並提供更權威的基準。該儲存庫包含 20 多個不同的資料集,涵蓋多個行業,包括健康、零售、共乘、人口統計等等。

#https://www.php.cn/link/5d7009220a974e94404889274d3a9553Microsoft

Subseasonal Forecasting Microsoft (2021):這是#Microsoft

Subseasonal Forecasting Microsoft (2021):這是#Microsoft 公開發布的資料集,旨在促進使用機器學習來改善次季節預測(例如未來兩到六週)。次季節預報有助於政府機構更好地為天氣事件和農民的決定做準備。微軟為此任務包含了幾個基準模型,與其他方法相比,一般來說深度學習模型的表現相當差。最好的 DL 模型是一個簡單的前饋模型,而 Informer 的表現非常糟糕。

#https://www.php.cn/link/c3cbd51329ff1a0169174e9a78126ee1

#Revisiting Time Series Outlier Detection:本文評述了許多現有的異常/異常值檢測資料集,並提出了35個新的合成資料集和4個真實世界資料集用於基準測試。

#https://www.php.cn/link/03793ef7d06ffd63d34ade9d091f1ced

#開源的時序預測框架FF

Flow Forecast是是一個開源的時序預測框架,它包含了以下模型:

Vanilla LSTM (LSTM)、SimpleTransformer、Multi-Head Attention、Transformer with a linear decoder、DARNN、Transformer XL、Informer、DeepAR、DSANet 、SimpleLinearModel等等

這是一個學習使用深度學習進行時間預測的很好的模型程式碼來源,有興趣的可以看看。

#https://www.php.cn/link/fea33a31df7d05a276193d32621ecbe4

#總結

#在過去的兩年裡,我們已經看到了Transformer在時間序列預測中的興起和可能的衰落和時間序列嵌入方法的興起,以及異常檢測和分類方面的額外突破。 ###

但是對於深度學習的時間序列來說:可解釋性、視覺化和基準測試方法還是有所欠缺,因為模型在哪裡執行,在哪裡出現效能故障是非常重要的。此外,更多形式的正規化、預處理和遷移學習來提高效能可能會在未來中出現。

也許Transformer對時間序列預測有好處(也許不是),就像VIT那樣如果沒有Patch的出現Transformer可能還會被認為不行,我們也會繼續關注Transformer在時間序列的發展或替代。

以上是2022年深度學習在時間序列預測與分類的研究進展綜述的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

<🎜>:泡泡膠模擬器無窮大 - 如何獲取和使用皇家鑰匙
3 週前 By 尊渡假赌尊渡假赌尊渡假赌
北端:融合系統,解釋
3 週前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1664
14
CakePHP 教程
1423
52
Laravel 教程
1318
25
PHP教程
1269
29
C# 教程
1248
24
全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

超越ORB-SLAM3! SL-SLAM:低光、嚴重抖動和弱紋理場景全搞定 超越ORB-SLAM3! SL-SLAM:低光、嚴重抖動和弱紋理場景全搞定 May 30, 2024 am 09:35 AM

寫在前面今天我們探討下深度學習技術如何改善在複雜環境中基於視覺的SLAM(同時定位與地圖建構)表現。透過將深度特徵提取和深度匹配方法相結合,這裡介紹了一種多功能的混合視覺SLAM系統,旨在提高在諸如低光條件、動態光照、弱紋理區域和嚴重抖動等挑戰性場景中的適應性。我們的系統支援多種模式,包括拓展單目、立體、單目-慣性以及立體-慣性配置。除此之外,也分析如何將視覺SLAM與深度學習方法結合,以啟發其他研究。透過在公共資料集和自採樣資料上的廣泛實驗,展示了SL-SLAM在定位精度和追蹤魯棒性方面優

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

牛津大學最新! Mickey:3D中的2D影像匹配SOTA! (CVPR\'24) 牛津大學最新! Mickey:3D中的2D影像匹配SOTA! (CVPR\'24) Apr 23, 2024 pm 01:20 PM

寫在前面項目連結:https://nianticlabs.github.io/mickey/給定兩張圖片,可以透過建立圖片之間的對應關係來估計它們之間的相機姿態。通常,這些對應關係是二維到二維的,而我們估計的姿態在尺度上是不確定的。一些應用,例如隨時隨地實現即時增強現實,需要尺度度量的姿態估計,因此它們依賴外部的深度估計器來恢復尺度。本文提出了MicKey,這是一個關鍵點匹配流程,能夠夠預測三維相機空間中的度量對應關係。透過學習跨影像的三維座標匹配,我們能夠在沒有深度測試的情況下推斷度量相對

See all articles