亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

時空數據挖掘的目的是在大的空間和時空數據中發現有趣的、有用的但非平凡的模式。應用于公共安全、生態學、流行病學、地球科學等領域。這個問題是具有挑戰性的,因為虛假模式的高社會成本和過高的計算成本。近年來的時空數據挖掘研究因其快速增長而需要更新。此外,他們沒有充分研究時空數據挖掘的并行技術。本文介紹了時空數據挖掘方法的最新進展。其次,對時空數據挖掘的并行計算方法進行了詳細的綜述; 時空數據挖掘是在大規模的時空數據中發現新的、非平凡的但潛在有用的模式的過程。時空(ST)數據包括地理參考的氣候變量、流行病爆發、犯罪事件、社交媒體、交通、交通動態等。由于其跨學科性質,分析和挖掘這些數據對于推進許多科學問題和現實世界應用的最先進技術是非常重要的。因此ST數據在公共安全、生態學、流行病學等多個領域的應用尤為突出。

圖1展示了時空數據挖掘的整體過程。輸入數據經過預處理去除噪聲、誤差等后進行時空分析,了解其時空分布。采用合適的時空數據挖掘算法產生輸出模式,然后由領域專家進行研究和驗證,發現新的見解,并相應地改進數據挖掘算法。

圖2顯示了時空(ST)模式的一個示例。該圖描述了一個城市犯罪數據集輸出的級聯時空模式[45],涉及幾種事件類型(酒吧倒閉、醉駕、襲擊)。圖2(a) -2 (c)顯示了每個事件類型的實例及其時間和位置,圖2(e)顯示了相同的事件實例。檢測到的ST模式提出了一個有趣的假設,即酒吧在關閉時是附近地區醉酒駕駛和攻擊犯罪的潛在發生期。這些信息可以幫助執法機構、公共安全組織和決策者確定適當的減輕犯罪行動。

通過算法挖掘時空數據帶來了獨特的計算挑戰。例如,由于數據量大,由于數據的多樣性,用戶可能會經歷不可接受的運行時間或花費大量的精力進行預處理。除了數量和種類,相對于吸收容量的高數據速度是另一個計算挑戰,用戶經常體驗到數據丟失。例如,數百萬條推文的實時處理涉及到對某些信息的實時預處理和挖掘。COVID 19安全數據[1]通過全國各地的附近信息(如poi、企業類別)每分鐘記錄人類流動情況。這涉及到信息的實時更新,例如對不同POI的訪問數量,導致大量的數據量(tb),這是不可能在本地機器上存儲和處理的。此外,US Census[2]包括保存在不同表和模式中的數百萬條記錄,跨越TB級的數據空間.

查詢這樣的數據可能非常耗時,而且在科學或地理計算平臺上,進一步應用算法在大規模計算時的性能通常很差。這樣的計算需要一個可擴展和可靠的軟件生態系統來解決廣泛的研究問題,并有效地幫助社會的決策者。因此,重要的是要讓廣大的科學家和用戶了解高性能、可擴展和開源的軟件工具,這些工具可以通過并行計算促進時空數據分析,從而顯著推進領域研究。然而,這些工作在最近的空間和時空數據挖掘研究中卻很少受到重視。

在這里,我們提供了一個全面的時空數據挖掘技術,并簡要描述了它們的統計基礎和主要輸出模式家族(例如,異常值,預測,熱點等)。我們還提供了在順序處理和并行處理環境中被廣泛研究的最近方法的最新文獻。與Shekhar等人[62]類似,本次調研首先回顧了以往的綜述,然后陳述了我們對本次綜述的貢獻(第2節)。第3節提供了與空間和時空數據相關的關鍵術語,描述了它們的統計基礎,并簡要陳述了時空數據挖掘中并行處理的社會重要性。第4節描述了六個主要的輸出模式家族(即時空異常值、遙耦、預測、劃分和總結、熱點和變化檢測)以及它們各自在順序和并行框架下的檢測方法。第5節將討論一些當前的研究工具,包括最先進的并行工具、框架和庫,它們正在許多應用程序中使用。第六部分總結了本章的研究現狀和未來的研究方向。

付費5元查看完整內容

相關內容

最近,以人工智能(ai)為基礎的新藥開發大幅縮短了新藥開發的時間和成本,因此備受關注。隨著深度學習(DL)技術的進步和藥物相關數據的增長,許多基于深度學習的方法正在藥物開發過程的所有步驟中出現。尤其值得一提的是,藥物化學家面臨著選擇和設計潛在藥物以進行臨床前試驗的重大問題。兩個主要的挑戰是預測藥物和可藥物靶點之間的相互作用,以及生成適合感興趣靶點的新分子結構。因此,我們回顧了近年來深度學習在藥物-靶點相互作用(DTI)預測和藥物從頭設計方面的應用。此外,我們還介紹了各種藥物和蛋白質表示、DL模型以及用于模型訓練和測試的常用基準數據集或工具的全面總結。最后,我們提出了未來基于dl的DTI預測和從頭設計藥物的剩余挑戰。

//www.ncbi.nlm.nih.gov/pmc/articles/PMC8470987/

付費5元查看完整內容

摘要

檢測、預測和緩解交通擁堵旨在提高交通網絡的服務水平。隨著對更高分辨率的更大數據集的訪問越來越多,深度學習與此類任務的相關性正在增加。近年來的幾篇綜合調查論文總結了深度學習在交通領域的應用。然而,交通網絡的系統動態在非擁堵狀態和擁堵狀態之間存在很大差異,因此需要清楚地了解擁堵預測所面臨的挑戰。在本次綜述中,我們展示了深度學習應用在與檢測、預測和緩解擁堵相關任務中的當前狀態。重復性和非重復性擁堵將單獨討論。我們的綜述使我們發現了當前研究狀態中固有的挑戰和差距。最后,我們對未來的研究方向提出了一些建議,作為對已確定挑戰的答案。

關鍵詞:深度學習、交通、擁堵、重復性、非重復性、交通事故

1 引言

交通擁堵降低了道路網絡的服務水平 (LOS)。LOS 的降低會給社會帶來直接和間接的成本。已經進行了廣泛的研究來估計擁堵對經濟和整個社會的影響(Weisbrod 等人,2001 年, Litman,2016 年)。交通擁堵的第一個影響是工作時間的損失。Schrank等人(2012 年)估計,僅美國一年就因交通擁堵損失了 88 億小時的工作時間。當時間作為一種商品的價值在緊急情況下急劇增加時,擁堵的不利影響會急劇上升。堵車會影響個人的行為。 Hennessy 和 Wiesenthal (1999)報告說,高度擁堵會導致司機的攻擊性行為。這種攻擊性可以表現為攻擊性駕駛,從而增加發生事故的機會(Li等人, 2020a)。高度擁堵也會導致溫室氣體排放量增加(Barth 和 Boriboonsomsin,2009 年)。

就可處理性而言,擁堵預測是比非擁堵條件下的交通預測更困難的問題(Yu等人, 2017)。預警系統使交通管制員能夠采取緩解措施。幾十年來,交通數據收集所需的基礎設施得到了改善。這一改進與計算資源可用性的提高相結合,使交通運輸研究人員能夠利用深度神經網絡對該領域進行預測。在本次調查中,我們討論了深度學習在檢測、預測和緩解擁堵中的應用。我們研究了兩種類型的擁堵的各個方面——重復性和非重復性。在本次調查結束時,我們確定了該領域研究現狀的一些差距,并提出了未來的研究方向。

2 預備知識

本綜述論文的目標受眾是來自交通和深度學習兩個背景的研究人員。本節介紹了預備知識并介紹整個綜述中使用的術語。(略,詳見原文)

3 以往的綜述和本綜述的組織

深度神經網絡中的非線性激活函數可以捕捉交通數據中的非線性(Polson 和 Sokolov,2017)。如第 2.1 節所述,網絡的深度使我們能夠對數據中的高級特征進行建模。交通數據的特點是空間和時間的變化。兩種專門的神經網絡架構,CNN 和 RNN(也在 2.1 中討論過)對于捕捉這些變化非常有幫助。 CNN 在建模空間相互依賴性時很有用,而 RNN 在建模數據時間變化時很有用。在我們的文獻回顧過程中,我們發現大多數成功的交通預測神經網絡架構都是使用 CNN 和 RNN 單元作為構建塊設計的。

Wang (2019)等人對交通系統各個方面的深度神經網絡進行了廣泛的總結。它們使用深度神經網絡涵蓋了廣泛的交通相關預測任務——交通信號識別、交通變量預測、擁堵識別和交通信號控制。Nguyen等人(2018 年)除了涵蓋了上述任務外,還包括其他三個任務中,即出行需求預測、交通事故預測和駕駛員行為預測。Wang等人(2020a) 調查了深度學習在使用時空數據的各個領域(交通、人類流動、犯罪分析、神經科學和基于位置的社交網絡)中的應用。他們的評論包括最近處理諸如交通變量預測、軌跡分類、軌跡預測和出行模式推斷等任務的深度學習方法的論文。Wu等人(2020)對圖神經網絡 (GNN) 進行了分類調查,并強調了 GNN 在包括交通運輸在內的不同領域應用。Xie等人(2020) 總結了將深度學習用于城市中最常見的流量類型的各種方法——人群流量、自行車流量和交通流量。

擁堵預測是指對即將發生擁堵時的交通狀態變量進行預測。這是交通預測的一個特例。與交通預測相比,擁堵預測任務的相對困難可歸因于超出最大流量點的交通動態不穩定性(Chung,2011)。這種較高的相對難度也很明顯,因為典型的交通預測模型性能隨著交通狀態的接近而下降。與其他數據驅動方法相比,深度學習對擁堵預測的重要性還在于深度學習模型的穩定性相對較高(Yu等人, 2017)。據我們所知,不存在涵蓋深度學習在擁堵相關任務中應用的全面調查論文。這篇調查論文試圖彌合文獻中的這一差距。我們討論了深度學習在檢測、預測和緩解兩種類型的擁堵(重復性與非重復性)中的應用。擁堵預測部分沒有區分重復性與非重復性情況,因為從交通圖像中檢測擁堵的深度學習模型可以檢測這兩種類型的擁堵。只要有可能,我們就試圖從政策制定者的角度考慮挑戰。納入政策制定者的觀點對于使研究成果可在現實世界環境中部署非常重要。當前調查的范圍如圖 8 所示。

圖 8. 顯示調查各個部分的總體流程圖。問號表示重復性與非重復性擁堵緩解之間的潛在聯系。

深度學習架構關鍵設計方面和每篇論文中使用的數據集方面都已進行了總結,以便讀者在處理類似數據集時可以參考這些論文。一些論文對他們的模型進行了廣泛的敏感性分析。我們在每個小節末尾的摘要中復制并強調了關鍵見解。

本次調查涵蓋的大多數研究論文發表于 2016 年至 2021 年期間。有時,為了簡要討論一些算法范式的背景,我們參考了過去的經典論文。

4 用于擁堵檢測的深度學習

隨著對新數據源的訪問越來越多,正在探索自動檢測交通擁堵的新機會。與其他兩個部分不同,擁堵檢測模型不區分重復性與非重復性擁堵。之所以如此,是因為擁堵檢測模型總是檢測這兩種類型的擁堵,而不管它們背后的因果因素如何。相反,它們會根據所使用的數據源進行區分。檢測這兩種類型的擁堵最常用的來源是從交通攝像機獲得的圖像和視頻。

無一例外,使用交通攝像頭圖像的好處是,所有車輛都被捕獲在交通圖像中。因此,不需要考慮滲透率(被跟蹤車輛的百分比)等其他因素。隨著道路上攝像機數量的增加,人類從圖像中識別擁堵的認知負荷很高。為了減少認知負荷,深度學習已被廣??泛應用于交通圖像擁堵的自動檢測。眾所周知,在計算機視覺 (CV) 任務中表現良好的深度學習模型已被用于檢測交通擁堵。 CV 指的是從圖像中提取有用信息的任務。

卷積神經網絡 (CNN) 構成了用于圖像分類任務的常用深度學習架構的模塊。該領域的開創性工作有:AlexNet (Krizhevsky等人, 2012), InceptionNet (Szegedy等人, 2015), Resnet (He et al., 2016), R-CNN (Girshick et al., 2014), Mask-RCNN (He et al., 2017)、VGGNet (Simonyan and Zisserman, 2014) 和 YOLO (Redmon等人, 2016)。在 ImageNet (Lin等人, 2014) 和 COCO (Lin等人, 2014) 等大型圖像數據集上預訓練的深度神經網絡很容易獲得。當使用眾所周知的架構進行交通圖像分類時,三種方法是可能的。當手頭數據集中可用的交通圖像數量非常多(大約 10000 張圖像)時,可以使用可用數據從頭開始訓練這些模型。當可用數據集較小時,將采用的深度學習模型的權重初始化為可用的預訓練模型。第三種方法是保留預訓練的模型,并按順序添加另一個模塊。當應用于圖像時,深度學習模型可用于估計圖像中的車輛總數,從而使我們能夠估計交通密度。當應用于視頻數據(一系列圖像)時,深度學習模型可用于估計交通速度。

利用基于 CNN 的架構的兩種變體(AlexNet 和 YOLO)(Chakraborty 等人,2018 年),對從美國愛荷華州 121 臺攝像機在 6 個月內收集的交通圖像,采用二進制分類來檢測擁堵。將交通圖像手動標記為擁堵和非擁堵標簽是一項耗時的任務。因此,作者使用使用車輛環路檢測器 (VLD) 獲得的占用數據,根據占用情況將圖像自動標記為兩類(占用被標記為“擁堵”)。據報道,AlexNet 檢測擁堵的準確率為 90.5% 和 YOLO 為 91.2%。Wang等人(2018) 比較了 AlexNet 和 VGGNet 的兩種變體,以檢測從中國陜西省的 100 多臺攝像機獲得的交通圖像的擁堵情況。他們的數據集非常多樣化——包括白天和夜間交通和不同天氣條件的圖像。他們的結果顯示兩種架構的性能相當(AlexNet 為 78%,VGGNet 為 81%)。他們報告說,由于神經網絡的規模較小,AlexNet 的訓練速度明顯更快。他們使用了二進制分類(“jam”或“no jam”)。 Impedovo 等人(2019)比較了 YOLO 和 Mask-RCNN 在從兩個交通圖像數據源(GRAM 和 Trafficdb)獲得的三個手動標記數據集上的性能。這三個數據集的圖像質量各不相同——首先,包含 23435 張低分辨率 (480×320p) 的圖像,其次,包含 7520 幀中等分辨率 (640×480p) 的圖像,第三個包含 9390 幀高分辨率 (1280×720p) 的圖像。他們分兩步實現擁堵檢測。第一步側重于識別每幀中的車輛數量。在這一步中,Mask-RCNN 的準確率分別為 46%、89%、91%,而 YOLO 的準確率分別為 82%、86%、91%。 YOLO 的性能對圖像質量有抵抗力,訓練時間幾乎是 Mask-RCNN 的一半。他們選擇 YOLO 作為目標檢測器模型,并將其輸出作為第二步的輸入。第二步,他們在 YOLO 的輸出上使用 Resnet 來預測交通擁堵,作為一個多類分類任務(3 類)。報告的輕度、中度和重度擁堵準確率分別為 99.7%、97.2% 和 95.9%。

Kurniawan 等人(2018)使用了 CNN 模型。為了對在印度尼西亞雅加達獲得的交通圖像進行分類。使用 14 個攝像頭位置,收集數據 15 天。他們使用手動將交通圖像標記為“擁堵”和“未擁堵”類別。使用 10 倍交叉驗證報告的平均準確率為 89.5%。 Rashmi 和 Shantala (2020) 研究了在流量高度異構時 YOLO 的性能。他們從印度卡納塔克邦收集了一周的數據。他們使用在 COCO 數據集上預訓練的 YOLO 模型進行遷移學習。在計算圖像中的車輛時,YOLO 在公共汽車、汽車和摩托車方面表現良好(準確率在 92% 和 99% 之間),但在預測研究區域特定的交通方式時,性能下降到任何有用的水平以下。

摘要:我們觀察到基于數據源的圖像質量存在顯著差異。這導致模型性能的差異。由于交通流的巨大異質性,從發展中國家獲得的交通圖像提出了一項重大挑戰。數據集之間的另一個主要區別是,當存在替代數據源(例如 VLD)時,可以自動創建訓練數據的標簽,而不是手動標記。如果從交通攝像頭獲得的圖像質量不高,可以使用基于深度學習的圖像超分辨率進行改進。圖像超分辨率是指提高輸入圖像分辨率的任務。基于深度學習的超分辨率已經在計算機視覺界得到了廣泛的研究,但我們還沒有看到它在提高交通圖像質量方面的應用。Wang 等人(2020b)對圖像超分辨率的深度學習應用進行了全面調查。改進攝像機擁堵檢測的另一個潛在途徑是基于深度學習的視頻幀率增量(Jiang et al., 2018)。

5 用于擁堵預測的深度學習

5.1 用于重復性擁堵預測的深度學習

由于基礎設施瓶頸不足以應對高峰需求,因此經常發生擁堵。根據定義,重復性擁堵發生在網絡中熟悉的位置。根據這個定義,預測重復擁堵的具體任務是預測發生時間的每日變化和重復擁堵的嚴重程度。最常用的擁堵預測任務是二進制分類(“擁堵”或“無擁堵”)。一些論文將擁堵預測為多類分類任務(“輕”、“中”和“重”擁堵)。需要注意的是,本節中的一些論文并未預測交通擁堵,而是將短期交通預測作為回歸任務(預測速度、密度、流量、隊列長度等)。如果在交通狀況接近擁堵時報告其模型性能穩定,則此類論文已被包括在內。對于此處列出的每篇論文,我們都報告了其績效指標的關鍵方面以及敏感性分析的關鍵要點。本小節討論的論文總結在表 1 中。

表1 總結了第 5.1 節中討論的論文(用于重復擁堵預測的深度學習)

使用 LSTM 模型:Yu 等人(2017)使用了 LSTM 模型。 預測高峰時段的交通速度。他們使用來自美國加利福尼亞州車輛環路檢測器 (VLD) 速度記錄的公開可用的 Caltrans 數據集,并嘗試預測每個傳感器位置下一小時的交通速度。據報道,在預測高峰時段的交通速度時,他們的 LSTM 模型實現了 5% 的 MAPE。他們研究的一個重要觀察結果是時間戳特征(一天中的時間和一周中的一天的編碼值)顯著提高了高峰時段的預測性能。這種合并時間戳的做法已在后來出現的論文中采用。在本文中,每個 VLD 都是單獨建模的。在隨后的論文中,研究人員開發了將空間信息整合到 LSTM 模型中的技術,因此提出了一個用于同時預測多個交叉口擁堵的單一模型。 Rahman 和 Hasan (2020) 使用 LSTM 模型通過有效地結合空間信息來預測交叉口的隊列長度。為了預測下一個交通周期(紅色信號)查詢路口的隊列長度,他們的模型將查詢路口的隊列長度和當前周期的兩個上游路口的隊列長度作為輸入。然后他們嘗試預測下一個周期的查詢交叉點的隊列長度。他們使用在佛羅里達州奧蘭多市為期三個月的 11 個十字路口收集的 VLD 數??據。在預測隊列長度時,他們報告的平均 RMSE 接近 1(從他們的圖中推斷)。

比較 LSTM 和 CNN:Sun 等人(2019)介紹了卷積神經網絡 (CNN) 和循環神經網絡 (RNN) 在預測交通擁堵方面的性能比較。他們的數據集包括中國成都 2000 輛出租車的 28 天 GPS 軌跡。他們使用地圖匹配將 GPS 軌跡映射到路段,并計算每個路段在 5 分鐘時間段內的平均速度。然后,他們使用平均速度值根據平均交通速度定義四個擁堵級別。報告的最佳模型平均速度預測的 RMSE 為 3.96 km/h。然后針對預測的擁堵程度報告分類精度。他們得出的結論是,給定足夠長的輸入范圍(90 分鐘),CNN 模型的性能與循環網絡模型一樣好。我們認為這是一個重要的觀察結果,原因有二。首先, CNN 模型的訓練速度更快,因為它們通過構建以更有效的方式支持 GPU 并行化,如果在探索 LSTM 之前將 CNN 作為建模選項進行探索,則可以節省研究人員的時間。其次,由于 LSTM 在獨立使用時通常用于捕獲交通數據中的長期依賴關系,因此它們對于短期交通預測可能不是很有用。本小節以下的論文使用 CNN 和 RNN 的組合來設計專門的架構。

使用 LSTM 和 CNN 的組合:Liu 等人(2017) 提出了 Conv-LSTM,它由 CNN 和 LSTM 單元組成。卷積運算用于捕獲空間相關性。卷積運算的輸出用作 LSTM 單元的輸入。在使用他們的 Conv-LSTM 模型來預測交通流量時,他們實現了 9.53% 的 MAPE。此外,它們還包括一個雙向 LSTM 模塊,以包含歷史數據的影響并實現 6.98% 的較低 MAPE。據報道,性能在不同的交通流量水平上是穩定的,因此我們將他們的論文作為擁堵預測模型納入其中。Ranjan 等人(2020)預測了 10、30 和 60 分鐘三個城市范圍內的交通熱圖。由于輸入和輸出熱圖具有相同的維度,因此他們提出了一種對稱的 U 形架構,在兩端(輸入和輸出端)都有 CNN 塊。瓶頸層(最高深度)由四個 LSTM 單元組成,跳躍連接用于連接不同深度的 CNN 輸出。提出的架構稱為 PredNet。該數據集包含基于從韓國首爾收集的空間平均交通速度的交通熱圖。他們數據的時間分辨率為 5 分鐘。擁堵被定義為基于交通平均速度的三級變量。他們報告說 PredNet 的性能隨著輸出范圍長度的增加而穩定。在預測未來 60 分鐘的擁堵時,PredNet 的平均準確率為 84.2%(相比之下,在相同數據上使用 Conv-LSTM 時為 75.67%)。據報道,與本段前面討論的 Conv-LSTM 模型相比,PredNet 的訓練速度要快得多(快 8 倍)。

特別關注路網異質性:一些論文強調了基于路網異質性的擁堵預測任務復雜度的差異。當嘗試在網絡的大部分區域進行多個時間步長的擁堵預測時,尤其會報告此類觀察結果。 Shin 等人(2020) 使用三層 LSTM 網絡來預測從韓國首爾及其周邊地區的城市和郊區收集的數據中的擁堵程度。道路連接總數為 1630,數據以 5 分鐘的分辨率收集了一個月。數據集丟失了 33% 的記錄。為了處理丟失的數據,他們提出了一種基于趨勢過濾的時空異常值檢測和數據校正算法。該模型預測交通速度,根據當地政策制定機構推薦的閾值輸出擁堵程度。該模型的性能在整個交通速度范圍內都是穩定的,因此我們將他們的工作納入到擁堵預測模型中。他們報告了該模型在預測首爾周圍兩種不同類型道路網絡的交通速度時的差異(郊區的 MAPE 為 4.297%,城市道路的 MAPE 為 6.087%)。然而,與城市道路相比,一些郊區道路的平均絕對誤差 (MAE) 更高(城市:2.54 公里/小時,郊區:2.78 公里/小時)。他們承認郊區道路的高 MAE 誤差實際上具有誤導性,因為郊區道路的平均速度更高。從他們的論文中得出的結論是,在應用深度學習來預測擁堵時,不同類型的道路呈現出不同的復雜性。

Cheng等人(2018)提出了一種使用 CNN、RNN 和注意力機制構建的專用架構來預測擁堵水平。他們的數據集稱為 MapBJ,由 4 個月的數據組成,這些數據在北京的 349 個道路連接處以 5 分鐘的時間分辨率收集。基于稱為“限制級別”的速度限制標準化變量,每個道路連接都被標記為四個擁堵級別(流暢、緩慢、擁堵、極端擁堵)之一。沒有給出“限制水平”的確切數學表示,但是,這個想法類似于使用由 () 給出的實際速度與速度限制的比率。將道路網絡轉換為具有代表性的圖,其中道路鏈接表示為頂點,交叉點表示為邊。目標頂點的上游和下游頂點按頂點順序分組。來自不同頂點組的輸入流量狀況被輸入到 CNN 模塊,然后是 RNN 模塊。此后,使用注意力模型為不同的頂點組分配不同的權重。上游和下游道路的單獨模塊允許深入了解上游和下游鏈路對目標鏈路擁堵預測的影響。在預測未來 60 分鐘的擁堵狀態時,觀察到更高階下游鄰居的權重更高。而對于高階上游鄰居,觀察到較低的權重。這樣的分析為需求和交通流量提供了有用的見解。他們使用一種稱為二次加權 Kappa (QWK) 的指標(Ben-David,2008 年)。他們報告的平均 QWK 約為 0.6。QWK 值分別為 0.69、0.63、0.57 和 0.52,分別在 15、30、45 和 60 分鐘進行預測。作為比較,堆疊自動編碼器模型的 QWK 分別為 0.68、0.62、0.56 和 0.49,分別在 15、30、45 和 60 分鐘進行預測。

大規模循環擁堵預測(Congestion propagation) 擁堵傳播可以理解為擁堵預測的一種特例。它研究的是網絡中更大一部分擁堵的演變,而不是通常擁堵預測模型所涵蓋的范圍。擁堵傳播可以和擁堵預測放在同一個標題下研究。然而,在本次調查的文獻搜索過程中,我們發現,當使用深度學習模型預測整個網絡的交通擁堵時,會遇到特殊的挑戰。

Li 等人(2017a)提出了一種稱為 DCRNN 的專門架構。為了預測幾個時間步長(15 分鐘、30 分鐘和 1 小時)的交通流量。使用的數據集是 PeMS。該模型在高峰時段和不同流量水平下的性能沒有變化,因此本文已作為擁堵預測模型包含在內。 DCRNN 由編碼器和解碼器組件組成。編碼器將帶有空間參數的交通流數據編碼成圖形并輸出隱藏狀態。解碼器嘗試使用編碼器的隱藏狀態概率,或使用地面實況數據概率 () 來預測下一步的交通流。在訓練開始時,的值接近 1,在訓練結束時減小到 0。報告的 MAPE 在 15、30 和 60 分鐘內分別為 2.9%、3.9% 和 4.9%。 Andreoletti等人(2019) 還使用 DCRNN 模型將擁堵預測為基于交通密度的二元分類任務。二進制分類的閾值是使用道路鏈接特定負載因子 () 定義的。鏈路的負載因子 () 定義為當前流量密度與平均流量密度的比率()。當設置為 3 時,報告的擁堵預測準確度為 96.67%。在為高值下,假陰性率 (FN) 會增加。較高的 alpha 值意味著只有非常高的交通密度才被歸類為擁堵。=3時似乎是最佳的,假陰性率為 2.4%。為了更好地泛化深度學習模型,閾值的最佳選擇已在隨后出現的論文中進一步探討。

Ma 等人(2015) 使用受限玻爾茲曼機 (RBM) 與遞歸神經網絡 (RNN) 模型相結合來預測擁堵的演變。該數據集包括在中國寧波 515 條道路上行駛的出租車的 GPS 軌跡。他們使用網絡范圍的流量速度閾值來確定預測的流量速度是否意味著擁堵。他們報告的平均準確率為 88.2%。他們的敏感性分析中一個有趣的觀察是閾值的增加會降低模型的性能。他們假設這可能是由于當較高百分比的道路鏈接屬于擁堵類別時,擁堵傳播模式的波動較大。Fouladgar 等人(2017) 使用來自加利福尼亞的 PeMS 數據集,并提出了一個分布式網絡,其中道路網絡的每個交叉點都使用單獨的深度學習模型進行建模。他們結合使用 CNN 和 RNN 架構來預測擁堵程度。為了二值化擁堵,他們引入了節點特定的閾值,而不是網絡范圍的通用閾值,從而使他們的模型與 (Ma 等人, 2015) 的模型相比更具表現力。節點特定的閾值是使用平均速度與速度限制的比率 () 來定義的。他們模型的敏感性分析顯示,隨著擁堵程度的增加,模型的性能下降。他們假設這種下降是由于階級失衡(非擁擠案例的大量數據點)。他們試圖通過優先權衡擁堵嚴重的數據點來彌補這種下降。優先加權是通過修改它們的均方誤差損失函數來實現的,以包括對每個數據點 i 的懲罰 ()。預測流和地面實況之間的差異是。如果數據點 i 的流量小于,則值為1,否則為0。β值是預測誤差的度量。現在,使用變量,當流量超過最大流量的一半時,模型會對錯誤施加額外的懲罰。

Wang等人(2016) 提出了 erRCNN,它是使用 CNN 單元和 RNN 單元構建的。在圖 7 中,我們觀察到當流量超過閾值時,速度-密度曲線變得分散,并觀察到平均速度的突然變化。他們的 erRCNN 架構被證明可以處理這些突然的變化。糾錯 RNN 允許在預測性能因流量狀態變化而下降時更新模型。因此,該模型能夠處理流數據。他們使用了從中國北京的兩條主要環路收集的 GPS 數據集。報告的速度預測 RMSE 在預測范圍為 10 分鐘時的 5 km/h 和預測范圍為 50 分鐘時的 8 km/h 之間變化。此外,為了了解擁堵傳播的來源,他們提出了一個稱為分段重要性的度量標準。每個網段都會影響其他網段的流量。如果所討論的道路有n個路段,則可以假設經過訓練的 errRCNN 模型已經學習到了每個路段在 t+1 時刻的交通速度與每個路段的交通速度之間的映射。數學上,利用這個假設,他們首先將的影響定義為 w.r.t 的導數。最后,他們將一個線段重要性定義為對所有其他線段的影響的總和。然后,他們將具有高路段重要性的路段映射到網絡中的物理位置,并發現一些擁堵源(例如連接兩條高速公路的交叉口)。盡管這些觀察是直觀的,但它們的貢獻是顯著的,因為它揭示了如何使用深度學習模型來提供可解釋的見解,從而促進交通部門的更廣泛接受。

擁堵樹的深度學習:歷史上用于對擁堵傳播進行建模的另一種流行方法利用了擁堵樹的概念。已經嘗試使用深度學習來模擬擁堵樹的演變。當一個路段的擁堵導致相鄰路段的擁堵累積時,就形成了擁堵樹。可以通過去除它們之間的冗余來組合幾個擁堵樹。這就產生了擁堵圖。Di等人(2019)通過組合擁堵樹創建有向無環圖(DAG)來消除擁堵樹之間的冗余。然后將該 DAG 轉換為擁堵級別的空間矩陣,矩陣的每個單元最多代表一個段。空間矩陣有助于保留路段之間的鄰接信息。然后將這些空間矩陣 (SM) 的序列傳遞給 Conv-LSTM 模型,用于在下一個時間步預測 SM。預測的 SM 被轉換回擁堵圖,然后轉換為擁堵樹,然后可用于提供預測的擁堵演變的可視化表示。當使用 5 分鐘的預測范圍時,他們報告了工作日流量的均方誤差 (MSE) 為 0.27,周末流量為 0.07。 15 分鐘的 MSE 為 0.73(工作日)和 0.37(周末)。在他們的結果中,MSE 沒有單位,因為它不是針對交通變量計算的,而是針對空間矩陣計算的。作為比較,當使用 5 分鐘的預測范圍時,LSTM 模型在工作日實現了 0.59 的 MSE,在周末實現了 0.32 的 MSE。

小結:在本小節中,討論了深度學習在預測重復擁堵中的各個方面的應用。本小節的要點總結如下:

表1 總結了第5.1節(用于重復擁堵預測的深度學習)中討論的論文。

  • 我們觀察到,在保持數據集和特定預測任務固定不變的情況下,很少有人嘗試全面比較不同深度學習模型的性能。我們知道,深度學習模型的性能很大程度上取決于超參數的選擇(例如隱藏層數、卷積數、學習率等)。當針對特定任務提出新的深度學習架構時,與以前使用的架構進行公平比較可能不可行。這背后的原因是深度學習模型的最佳性能涉及訓練大量模型以確定最佳超參數集。因此,對之前的所有工作進行如此微調是不合理的。解決方案可能是為每個數據集建立公共基準,同時保持測試、訓練、驗證拆分固定。這種特定于數據集的基準在計算機視覺社區中廣受歡迎。它們可能會顯著減少復制先前論文結果的重復工作。這種基準的另一個好處是減少數據預處理的重復,因為它可能比訓練深度神經網絡本身更耗時。

  • 特別是,在預測網絡大部分時間步長的擁堵時,我們觀察到一些論文中報告了廣泛的敏感性分析,以揭示性能的時間和空間變化。突出這種性能差異導致未來的工作旨在改善深度學習模型的空間和時間泛化。我們相信這是一個很好的趨勢,未來的研究應該包括更多這樣的分析。它還有助于我們了解使用深度學習進行短期流量預測的局限性。根據此處介紹的論文,預測的最大時間范圍似乎是 60 分鐘。我們相信,未來增加預測范圍的嘗試將有助于獲得對基于深度學習的交通擁堵預測解決方案的信任。

  • 我們發現很少有論文提出深度學習模型,這些模型會隨著新數據的到來而更新。這被稱為在線學習。在線學習是一個框架,而不是一個模型。因此,理論上任何深度學習模型都可以集成到在線學習框架中,并且可以演示模型更新。到目前為止,它并不流行,因為研究人員不容易獲得實時交通數據。即使流式傳輸新的流量數據不可用,仍然可以通過使用歷史數據的時間拆分來展示在線學習能力,并在模型在越來越多的數據上進行訓練時評估模型性能。

5.2.針對非重復性擁堵的深度學習

目前還不清楚非重復性擁堵背后的詳細原因(McGroarty, 2010)。隨著新數據源的可用以及新的相關性和因果關系的建立,新的原因也隨之增加。一些經過充分調查的非重復性擁堵原因是交通事故、多變的天氣條件、災難和計劃中的事件。在本次調查中,我們專注于預測事故造成的擁堵的深度學習應用。將重點放在事故上的三個原因。首先,在這個經過充分研究的原因列表中,交通事故是大部分非重復性擁堵背后的主要原因(Hallenbeck 等人,2003 年)。其次,深度學習已被廣??泛用于預測交通事故后的擁堵。第三,調查由其他原因(天氣、計劃事件和災難)引起的交通擁堵最適合使用交通模擬器進行基于場景的研究。此類研究通常在規劃階段進行,因此使用交通模擬器的高計算時間并不構成挑戰(Aljamal 等人,2018 年)。文獻檢索表明,在使用深度學習方法預測交通事故后的擁堵時,特定的深度學習任務存在很大差異。我們將研究分為以下兩類:

? 事故后交通擁堵預測

? 事故后交通擁堵清除時間預測

本小節討論的論文總結在表 2 中。

事故后交通擁堵預測:Sun 等人(2017)提出了一種基于 CNN 的架構來預測事故后的交通流量。從交通信息系統(HERE api)獲得的交通速度數據被轉換為交通熱圖圖像。如果速度 (v) 小于 80 英里/小時,則將像素值設置為 ,否則設置為0。單個閾值用于定義具有兩個類別的二元分類任務——重復性和非重復性擁堵。報告的準確率為 86.6%,誤報率為 13.71%,誤報率為 4.44%(FN:模型錯誤地將非重復性擁堵歸類為重復性擁堵)。他們工作的一個有趣貢獻是使用交叉算子來減少數據不平衡問題(與“無事故”數據點相比,“事故”數據點的數量較少)。交叉是遺傳學中常用的一種技術,通過部分交換親本染色體的遺傳物質來模擬新染色體的產生。他們假設在短時間內收集的各種交通數據點具有相同的事件標簽,因此,對交通熱圖中的隨機位置應用交叉可以在不影響數據質量的情況下增加數據。

Yu 等人(2017)提出了一個混合模型,它有兩個組件,一個由 LSTM 組成,另一個由自動編碼器組成。事件數據被饋送到自動編碼器,交通數據被饋送到 LSTM。最后,將兩個組件的輸出連接起來,并使用一個全連接層來輸出每個傳感器位置的交通速度。他們使用來自美國加利福尼亞州公開可用的 Caltrans 數據集的車輛環路檢測器 (VLD) 速度記錄。在預測 3 小時預測范圍內的事后交通速度時,他們的模型實現了 0.97% 的 MAPE。相比之下,LSTM 模型的 MAPE 為 1.00%,三層前饋神經網絡的 MAPE 為 3.65%。他們工作的一個有趣貢獻是使用信號刺激來研究突然降低輸入速度對模型響應的影響。他們報告說,當刺激僅持續很短的時間(<5 分鐘)時,模型的響應保持不變,從而表明該模型對輸入數據的微小波動具有魯棒性。此外,他們報告說,當在高峰時段注入刺激時,模型響應會被放大。

Fukuda等人(2020) 提出了 X-DCRNN,它是 DCRNN 的擴展,以明確輸入事件數據。他們的數據集是使用微觀交通模擬器 MATES (Yoshimura, 2006) 上的模擬創建的。使用從當地交通部門獲得的元數據校準交通需求。模擬器中的網絡基于日本岡山市的中央商務區,由橫跨 339 個路段的 206 個交通傳感器組成,分布在 3 平方公里。他們的模型預測事故發生后的交通速度,并報告事故段和相應的下游段的錯誤。對于事故路段,報告的 MAE 為 0.74 英里/小時,RMSE 為 0.87 英里/小時。作為比較,在同一數據集上,DCRNN 模型實現了 1.97 英里/小時的 MAE 和 5.64 英里/小時的 RMSE。在預測緊鄰下游路段的交通時,DCRNN 和 X-DCRNN 都達到了相似的性能水平。對于直接下游段,X-DCRNN 實現了 3.68 英里/小時的 MAE 和 6.39 英里/小時的 RMSE。作為比較,DCRNN 模型實現了 3.81 英里/小時的 MAE 和 6.33 英里/小時的 RMSE。

預測擁堵消除時間:擁堵消除時間是評估事故對交通擁堵影響的有用指標。事故發生后,由于受影響車道上的移動受限,交通流量減少。通常,流量最終會降低到最小值,然后恢復。在對擁堵消除時間進行建模時,這里介紹的大多數論文都關注從達到最大擁堵水平(最低流量)到流量恢復到事故前水平的時間之間的持續時間。 Zhang 等人(2019a)使用了具有兩個隱藏層的 FFNN。他們使用從中國上海的 173 個車輛環路檢測器 (VLD) 獲得的平均速度和來自交警記錄的事故數據來創建具有 9 個特征的輸入向量。在預測擁堵清除時間時,他們的模型實現了 40% 的 MAPE 和 8.3 分鐘的 RMSE。作為比較,多線性回歸模型實現了 49.8% 的 MAPE 和 10.22 分鐘的 RMSE。數據集中的事故記錄總數為 4017 條。

Lin 和 Li(2020)利用了這樣一種觀點,即在事故后擁堵的情況下,無法立即獲得有關事故的確切細節。當旁觀者、相關方或應急響應人員評估損壞情況時,可以獲得有關類型、位置、嚴重程度和受影響車道的更多信息。他們提出了一個能夠隨著新信息的到來更新預測的框架。他們將非重復擁堵預測定義為多類分類任務(5 類)。使用事故發生后達到的擁堵延遲指數 () 最大值的閾值來定義擁堵等級。擁堵清除時間定義為,從其最大值恢復到事故前水平所經過的時間。然后,他們預測每種事故的擁堵清除時間。他們提出了一個框架,由具有一個隱藏層的 FFNN 組成,該隱藏層能夠使用在擁堵清除期間可用的新數據更新模型。模型更新功能顯著提高了最嚴重事故等級的性能:RMSE(分鐘)從 10.8 降低到 7.62,MAPE 從 17.4% 降低到 9.33%。他們的數據是使用來自中國北京的匿名導航系統收集的。

Li 等人(2020b)提出了一種稱為融合 RBM 的架構,它是通過連接兩組堆疊 RBM 的輸出而創建的。他們模型的融合方面受到以下事實的啟發:事故數據由分類變量組成,而交通數據是連續的。一個堆疊 RBM 單元將分類事故數據作為輸入,而另一個堆疊 RBM 單元將連續數據作為輸入。最后,將兩個單元的輸出連接起來并通過單個神經元,最終輸出擁堵清除時間。使用 10 分鐘增量(0-10、10-20 等)將預測的擁堵清除時間量化為 10 個級別。報告的 MAPE 為 20.23%,RMSE 為 11.84 分鐘。他們使用了從加利福尼亞 (PeMS) 收集的交通數據和從高速公路安全信息系統 (HSIS) 收集的交通事故數據。他們數據集中的事故總數為 968 起,平均擁堵清除時間為 37 分鐘。

小結:我們討論了深度學習在預測事故后交通擁堵及其通行時間方面的應用。與重復擁堵預測的主要區別在于,必須融合來自多個來源的數據才能預測事故后的擁堵。這里介紹的每篇論文都以不同的方式處理數據融合的挑戰,它們之間幾乎沒有達成共識。對來自多個來源的標準數據融合算法進行基準測試可能有助于為未來的研究人員提供有關最有效的交通數據融合技術的見解。數據融合已在物聯網 (IOT) 社區中得到廣泛研究。物聯網研究的重點是不同設備之間的普遍通信,因此有效的數據融合得到了廣泛的研究。交通研究人員可以從這些來源中汲取靈感,并探索使用有效數據融合技術改進事故后擁堵預測的可能性。Gao等人(2020)比較了不同深度學習架構的數據融合性能。他們調查中提出的大多數架構通常用于基于深度學習的擁堵預測任務,因此使用其中提出的見解會很有趣。預測事故后的交通擁堵也可以根據第 2.2 節中介紹的交通滯后曲線來理解。

表2 總結了第5.2節(用于非重復擁堵預測的深度學習)中討論的論文。

6. 緩解擁堵的深度學習

擁堵緩解技術對于重復性和非重復性擁堵有很大不同。一方面,重復性擁堵是由于基礎設施瓶頸不足以應對交通高峰需求造成的。因此,針對重復性擁堵的深度學習解決方案旨在通過以最佳方式分配需求來降低重復性擁堵的嚴重性。另一方面,非重復性擁堵主要是由于事故造成的。因此,緩解非重復性擁堵的深度學習應用旨在減少事故。深度學習已被廣??泛用于預測事故風險。預測的事故風險可用于提醒駕駛員或施加速度限制以減少事故。在本節的最后,我們討論了減少重復性擁堵的努力與減少非重復性擁堵的努力之間的潛在聯系。如前 5.1 節所述,非重復性擁堵的其他原因,如計劃中的事件、惡劣天氣和自然災害,最適合使用交通模擬器進行基于場景的研究,因此,深度學習尚未廣泛應用于非重復性擁堵由于這些原因。

6.1 用于緩解重復擁堵的深度學習

一旦擁堵預測模型預測出重復擁堵,就可以采取緩解措施來減少擁堵的累積。在網絡層面,這可以通過控制供應參數來實現,例如十字路口的交通信號控制、匝道計量、實施限速限制和實施車道使用限制。在個人層面,這可以通過使用描述性、規范性或混合方法來實現。描述性方法包括向司機廣播有關網絡交通狀況的重要信息,并幫助他們就行程開始時間和選擇的路線做出明智的決定。規定性方法涉及對司機的具體行程建議(例如最佳開始時間和最佳路線選擇)。混合方法使用描述性和規范性方法的組合。由于在這些方法中增加了人類行為建模層,描述性和規范性方法面臨著重大挑戰。在本次調查中,我們關注最近使用深度學習在網絡層面緩解擁堵的研究。

使用需求方解決方案的挑戰:使用描述性和規范性方法緩解擁堵時遇到的挑戰在 Balakrishna 等人(2013)中進行了介紹。最大的挑戰是信息從駕駛員流回網絡。這些信息對于估計建議路線對道路的影響至關重要。他們強烈主張需要大規模跟蹤數據。由于智能手機在城市地區的高普及率,這種實時交通信息越來越多地通過他們的手機傳遞給司機。然而,挑戰來自描述性和規范性解決方案通常組合在一起的事實。當用戶查詢行車路線時,導航應用程序返回的首選路線會包含一些路線建議。這種個性化路線建議的最終目標尚不清楚,因為提供此類服務的公司將移動性作為一種服務提供,而算法細節是商業機密。 2018 年在美國進行的一項調查報告稱,87% 的司機使用一些導航應用程序來獲取行車路線建議(Manifest,2018 年)。谷歌地圖發布的一份報告指出,每天有超過 10 億公里的旅行使用他們的應用程序進行跟蹤(Google,2020)。當這種個性化路線建議的覆蓋范圍和合規性增加時,它可能會改變交通系統中的用戶平衡。由于私營部門的此類努力旨在將路線選擇創建為一種服務,并且確切的方法作為商業機密被隱藏起來,因此很難估計與此類解決方案的公平性相關的潛在缺陷。在缺乏真實數據的情況下,研究人員使用經濟工具來提高合規性,從而減輕對人類行為建模的任務。可以使用懲罰性措施或獎勵來提高咨詢措施的合規性。在這兩種方法中哪一種被證明更有效,這是一個很難做出的選擇。不同地理位置的懲罰措施的有效性相似,而基于獎勵的措施的有效性差異很大(Tillema 等人, 2013, Li 等人, 2019)。兩種常用的懲罰措施是擁堵收費和可交易代幣。de Palma 等人(2018 年)提出了一種比較兩種方法效果的方法,并強烈支持可交易代幣。 de Palma 和 Lindsey(2011 年)討論了使用新興技術實現高效擁堵收費的各種方法。他們的建議之一是自動車牌識別 (ANPR)。深度學習已廣泛應用于 ANPR。但是,本次調查未涵蓋此應用程序。有興趣的讀者可以參考 Connie 等人,2018 年,Khan 和 Ullah,2019 年。Kyaw(2018 年)等人介紹了將 ANPR 應用于發展中國家所遇到的挑戰。

網絡層面的供給側解決方案:我們專注于網絡層面的緩解擁堵的深度學習應用。大多數此類工作都使用深度強化學習。如第 2.1 節所述,強化學習框架有四個主要組成部分:代理、動作、獎勵和環境。策略的概念非常適合交通信號控制問題。可以通過優化獎勵(例如網絡中的最大累積流量)最小化的模型來找到最佳策略(例如,交叉路口不同方向的紅燈和綠燈的順序)。在最近的研究中,深度 Q 網絡 (DQN) 被普遍使用,作者對調查此類解決方案的公平性方面越來越感興趣。交通控制基礎設施(例如交通信號或限速標志)被建模為代理。代理的選擇決定了允許哪些操作。論文根據所選代理分為兩個標題。

? 自適應交通信號控制(TSC)

? 可變限速控制(VSLC)

本小節中討論的論文總結在表3

表3 總結了第6.1 節中討論的論文(使用深度學習緩解經常性擁堵的供應側解決方案)。

6.1.1.自適應交通信號控制 (TSC)

在 Genders 和 Razavi (2016) 中提出了基于 CNN 的 DQN,以便在交通模擬器中對信號控制代理進行建模。目標是通過優化這些代理的行為來最大化網絡范圍的吞吐量。他們根據三個參數分析模型的性能——累積延誤、交叉路口的排隊長度和平均行駛時間。他們為一個交叉口建模,該交叉口有四個路段,四個方向,每個路段有四個車道。車輛以 0 至 450 輛/小時的不同流速裝載。左轉和右轉交通使用逆 Weibull 分布加載 (Rinne, 2008),而直通交通使用 Burr 分布加載 (Tadikamalla, 1980)。使用基于 CNN 的 DQN 來控制交通控制代理的動作,他們實現了 719 秒的累積延遲和 13 輛車的平均排隊長度。作為比較,基于 FFNN 的具有一個隱藏層的 DQN 的平均隊列長度為 33。他們強調了研究 DQN 優化策略的公平性方面的必要性。在沒有模型的公平度量的情況下,算法可能會支持或不支持特定的流量移動。他們斷言,最公平的策略可能不會產生最佳的流量吞吐量——因此,需要通過調整獎勵函數來尋找兩個目標之間的平衡。Yen等人(2020)試圖通過在獎勵函數中加入功率度量來解決這種目標差異。功率度量定義為最大吞吐量與端到端延遲的比值 ()。當功率指標最大化時,吞吐量(流量)最大化,端到端延遲(行程時間)最小化。他們的網絡由九個交叉點(3×3 網格)組成。然而,使用功率度量作為獎勵函數并沒有導致 DQN 模型的收斂。因此,他們使用 DSARSA 而不是 DQN 來實現收斂。 SARSA 代表狀態-行動-獎勵-狀態-行動。它是在 Rummery 和 Niranjan (1994) 中引入的,與 DQN 的不同之處在于下一步行動的選擇。 SARSA 算法使用相同的策略來選擇下一個動作以及更新獎勵函數,而 DQN 使用不同的(貪婪)策略來選擇下一個動作。使用他們基于 CNN 的 DSARSA,他們實現了 35 的功率度量。

在這個方向上的另一個嘗試是 Zeng 等人(2018) ,他們提出了使用基于 LSTM 的 DQN 的 DRQN(深度遞歸 Q 學習)。他們報告說,在由單個四向交叉口組成的合成網絡上使用 DRQN 時,平均等待時間為 17.71 秒。用于裝載車輛的分布是二項式的。基于 LSTM 的 DQN 的性能類似于 Genders 和 Razavi (2016) 中使用的基于 CNN 的 DQN。然而,當穿透率變化時,LSTM-DQN 模型的性能是穩定的。滲透率定義為道路上共享數據的車輛的百分比。當滲透率低于 0.5 時,基于 CNN 的模型表現不佳。在滲透率(意味著所有車輛的數據都可用)下,兩種模型的性能相似。 Genders 和 Razavi (2019) 使用基于前饋神經網絡 (FFNN) 的 DQN 來優化高峰時段的交通控制策略。與傳統使用的交通信號控制驅動方法相比,他們報告說,使用由單個交叉口組成的合成網絡,平均總車輛延誤減少了約 40%(Newell,1989 年)。

本段討論的大部分研究都使用交通模擬器來觀察每個路口交通管制政策變化的影響。我們觀察到 SUMO (Behrisch 等人, 2011) 是為此目的最常用的交通模擬器。 SUMO受歡迎的主要原因是它有一個python接口。 Python 是深度學習研究中最常用的語言,因此與 SUMO 的集成非常順暢。

公平性是 TSC 基于深度學習的解決方案的一個重要因素,以確保交通規劃者和政策制定者廣泛接受此類解決方案。當考慮到優先車輛時,公平的重要性顯著增加。優先車輛包括公共汽車等運輸車輛和救護車等緊急交通工具。研究人員試圖將公平約束納入強化學習解決方案的獎勵功能中。 Dusparic 等人(2016) 使用經典的(不使用神經網絡)強化學習算法并修改了它們的獎勵函數,以便在每次優先車輛在交叉路口排隊時懲罰信號控制代理。深度學習社區采用了類似的懲罰措施,以證明基于深度學習的強化學習解決方案的公平性。Shabestray 和 Abdulhai (2019) 提出了一種使用 DQN 的多模式信號控制器,并分析了對各種交通方式的影響。與本小節中總結的其他研究不同,這是唯一一篇使用真實數據來校準交通需求的論文。他們使用商用交通模擬器 PARAMICS 對代表加拿大安大略省一個城市繁忙部分的 6 個十字路口的道路網絡進行了建模。他們沒有特別確定車輛的優先級,而是在他們的獎勵功能中使用控制器的基于人的性能。這會自動優先考慮人數較多的車輛,這意味著公共汽車的優先級高于汽車;完全占用的總線比部分占用的總線具有更高的優先級。不利的一面是,當使用這種方法時,像救護車這樣的高優先級但人數較少的車輛處于劣勢。Wu等人(2020b)使用在 SUMO 中建模的具有多個交叉口的合成網絡,并提出了一種基于 LSTM 的 DQN 來為車輛分配優先級,并將行人等待時間納入其獎勵函數中。這種在獎勵函數中使用功率度量的概念受到無線網絡文獻的啟發(Kleinrock,2018)。

6.1.2.可變速度限制控制 (VSLC)

與 TSC 類似,VSLC 方法旨在降低即將發生的交通擁堵的嚴重性。具體目標是最大化網絡中的總流量,同時最小化平均行程時間。 VLSC 的強化學習框架的設計類似于 TSC。在這里,VSLC 標志被建模為采取行動的代理。 VSLC 代理允許的行為是在可變信息標牌 (VMS) 上張貼可變速度限制標志。微觀交通模擬器用于評估 VSLC 代理所采取行動的效果。但是,TSC 和 VSLC 在現實世界中實現的潛力有很大不同。 VSLC 在現實世界中實施的挑戰源于驅動程序可能缺乏合規性。因此,為了確保更高的合規性,在制定基于 VSLC 的解決方案時必須考慮駕駛員的舒適度。相比之下,在基于 TSC 的解決方案中,駕駛員合規性問題不大,因為在實踐中,違反交通信號燈的情況遠低于違反交通速度的情況(Wu 和 Hsu,2021 年)。此處總結的研究試圖在使用深度強化學習模型找到最佳 VSLC 時結合駕駛員舒適度指標。

Greguri? 等人 2020 年)提出了一個基于 CNN 的三層 DQN 模型。他們的獎勵函數是三個分量的加權和。第一個組件旨在增加交通流量。第二個組成部分通過對 VMS 發布的速度限制的變化幅度施加限制來確保安全。第三個組件通過最小化 VMS 發布的速度限制中的振蕩來確保駕駛舒適性。他們的網絡使用 VISSIM 微觀交通模擬器進行建模,由 8 公里的高速公路和一個可變信息標志牌 (VMS) 組成。綜合需求足以在網絡上創建 20 分鐘的模擬擁堵。使用他們的 DQN 模型,他們展示了平均速度提高了 13.5%,平均交通密度降低了 25%。Wu等人(2020a)考慮一個未來場景,其中聯網和自動駕駛汽車無處不在。在這種情況下,高合規系數允許 VSLC 代理進行更多動態更改。他們通過應用車道特定的可變速度限制,提出了一個差分車速限制模型。他們訓練了四種不同的模型以獲得不同的獎勵:增加流量、減少旅行時間、減少快速加速和減少排放。與以前的工作相比,本研究中使用的交通需求更加現實。該網絡代表加利福尼亞州一條 850 米的主要高速公路,所使用的需求是使用該高速公路的可用數據進行校準的。交通方式構成為 85% 的乘用車和 15% 的公共汽車和卡車。與無 VSL 的情況相比,他們的 DVSL 模型平均旅行時間減少了 5.8%。他們使用 SUMO 作為他們的微觀交通模擬器,并包含有關如何利用 SUMO 應用程序界面中的不同功能來實現獎勵功能的各種組件的具體細節。

小結:我們討論了深度學習在使用網絡級流量控制來限制供應時的應用。我們觀察到該領域當前研究狀態的兩個主要挑戰,總結如下:

? 用于這些研究的道路網絡的小??規模和交通流的同質性對將研究作為部署選項進行驗證提出了重大挑戰。交通需求是使用數學分布而不是使用真實的交通需求來創建的。這里只有一篇論文使用真實數據來校準他們的需求。其次,DQN 模型的報告性能通常無法與現有的網絡控制方法(如固定相變、驅動)進行比較。相反,使用不同神經網絡架構的 DQN 之間的比較很常見。除非基于 DQN 的解決方案被證明比現有方法執行得更好,否則此類解決方案的實際部署可能會很困難。

? 另一個方面是缺乏用于管理旅行需求的基于深度學習的解決方案。大多數大規模解決方案由私營部門提供,學術研究受到數據可用性的限制。個人出行數據與其他來源融合時,可以揭示有關旅行者的大量信息,因此公眾對共享數據的猶豫是有道理的。我們相信,在研究界廣泛采用安全數據管道可能是在共享數據的用戶中獲得信任的重要一步。物聯網 (IOT) 社區已經探索了隱私保護數據融合技術。 Ding 等人(2019)給出了總結。交通研究人員可以從這些來源中汲取靈感,并采用最佳實踐來保護隱私。

6.2 用于緩解非重復性擁堵的深度學習

事故是非重復性擁堵的主要原因。因此,對短期事故風險的準確預測使我們能夠主動提醒駕駛員注意相同的情況,并可能指示他們降低速度(Ren 等人,2018 年)。最近,深度學習已被廣??泛用于預測事故風險。為了進行事故風險預測,通常的做法是將研究區域劃分為網格,然后預測每個網格中不同時間間隔的事故數量。事故風險預測可以設計為二元預測任務,其中訓練深度學習模型來預測每個網格的標簽(“高風險”或“低風險”)。它也可以設計為回歸任務,訓練深度學習模型以預測電網中潛在的事故數量。本小節討論的論文總結在表 4 中。

展示遷移學習能力 Najjar 等人(2017) 使用衛星圖像作為其模型的輸入。他們使用類似于 AlexNet(圖 2)的模型將事故風險預測為三個級別。 Gupta 等人, 2019, Najjar 等人, 2017 展示了用于事故風險預測任務的遷移學習能力。他們使用來自一個城市的數據訓練他們的深度學習模型,并使用訓練后的模型來預測不同城市(紐約到丹佛;倫敦到紐約)的事故風險。Gupta等人(2019 年)報告使用在倫敦數據上訓練的模型分別預測紐約和丹佛的數據時,準確率分別為 74.77% 和 76.20%。同樣,Najjar 等人(2017) 對來自紐約的數據進行了模型訓練,并獲得了 78.2% 的準確率。然后,他們在使用紐約的模型對丹佛的數據進行預測時報告了可比的性能 (73.1%)。

路網的空間相關性和異質性:路網特征、駕駛員行為和出行需求在空間上存在差異。一方面,這種空間異質性導致深度學習模型的預測性能存在空間差異。另一方面,它提供了利用從位于彼此附近的傳感器收集的數據之間的高度相關性的機會。

Zhao 等人(2018)對交通和事故數據應用主成分分析 (PCA),然后使用具有兩個隱藏層的前饋神經網絡來預測碰撞風險。他們的數據基于英國一年的車禍記錄。 PCA 用于識別數據集中不相關的組件。作者提倡使用 PCA,因為在運輸數據集中,許多相關的傳感器和車輛產生的數據在一定程度上是相關的。他們的實驗結果表明,與不使用 PCA 相比,使用 PCA 時碰撞風險預測的準確性略有提高(1%)。

García de Soto等人(2018) 使用具有一個隱藏層的 FFNN 來預測事故風險。他們定義了三個級別的事故嚴重性,并預測了三個級別中每個級別的風險。他們的數據集基于來自瑞士 13109 個路段的 2 年交通和事故數據。每次事故的數據都被編碼成 10 個特征并用作輸入。他們的敏感性分析表明,如果針對不同的道路類型(例如高速公路和隧道)訓練不同的 FFNN,則平均性能優于對整個網絡使用單個 FFNN,道路類型作為輸入之一。

Yuan 等人(2018)提出了 Hetero-ConvLSTM,顧名思義,它是 ConvLSTM (Xingjian 等人, 2015) 架構的擴展。作者承認道路網絡的異構特征,因此,與以前的工作相比,利用它來產生更好的性能。他們為城市的不同部分訓練不同的神經網絡,然后創建一個集合來預測全市范圍的事故風險。他們報告城市道路的 MSE 為 0.021,農村道路的 MSE 為 0.006。作為比較,LSTM 模型在農村和城市道路上分別達到了 0.187 和 0.042。他們的數據集由 8192 個網格組成,每個網格的面積為 5×5 25 平方公里。它包含來自美國愛荷華州各種來源(天氣、交通、事故、衛星)的 8 年數據。其他研究已經考慮到空間異質性問題。一些例子是 Huang 等人(2019),他提出了一個分層融合網絡來處理數據的時間和空間異質性,以及 Zhou 等人(2019),他們使用注意力模型優先加權網絡相似性因素來預測每小時崩潰風險。 Gupta等人(2019) 使用注意力模型來處理空間異質性,并使用來自倫敦的交通數據報告準確率為 86.21%。

在線學習:Fan等人(2019) 提出了一種在線 FC 深度學習模型來預測事故黑點。他們報告了三種不同天氣類型的準確率,即晴天、陰天和大風天的準確率分別為 88.70%、85.19% 和 83.33%。

表 4 總結了第 6.2 節(深度學習緩解非重復性擁堵)中討論的論文。

6.3 非重復性和重復性擁堵緩解之間的潛在聯系

“事故導致擁堵”的說法是直觀且無可爭議的,但反向因果關系尚未以普遍方式建立。 Retallack 和 Ostendorf (2019) 詳細總結了當前對交通擁堵與??事故之間關系的理解。他們報告說,研究人員在這個問題上遠未達成共識,基于不同類型道路和不同研究國家的研究報告相互矛盾。然而,他們發現擁堵水平和事故之間的 U 形曲線似乎是最近工作中的常見觀察結果,該工作使用了足夠多的數據點(圖 9)。 U 形曲線意味著非常高和非常低的交通密度水平會導致更多的事故。如果 U 形曲線可以在未來的研究中重現,這將對減少事故和擁堵的嘗試產生深遠的影響。如圖 9 所示,這意味著減少事故的努力也會將擁堵減少到最大交通流量的水平(Pasidis,2019 年)。除了事故數量外,另一個需要考慮的重要因素是事故的嚴重程度。確定事故嚴重程度背后的因果關系是道路安全研究的主題,不在本次調查的范圍內。感興趣的讀者可以參考(Wang 等人 ,2013)。

圖 9. 事故與擁堵之間的假設 U 形曲線。在最近的研究中已經觀察到了這樣的曲線。

7 挑戰和未來方向

7.1 挑戰

在本節中,我們總結了在為本調查編寫研究論文時明顯的挑戰。這些挑戰已在特定部分的小結中詳細討論。

7.1.1 識別最先進的模型

為了建立最先進的模型,應該對相關工作進行公平的比較。可以通過一次僅使用一個參數比較性能來確保公平——同時保持所有其他參數不變。確保這種公平性在任何研究領域都是一項具有挑戰性的任務。在這里,我們討論了本調查中討論的預測任務所特有的挑戰。

1.基于不同流量變量的不同擁堵定義:如第 2.3 節所述,可以使用不同的流量變量來定義擁堵。由于這些變量之間缺乏統一的關系,變量選擇的這種差異使得報告的預測性能之間的比較變得困難。

2.同一流量變量的不同量化:即使兩篇研究論文使用相同的流量變量來定義擁堵,它們的量化也可能不同。例如,如果擁堵是根據速度定義的,一篇論文可能會呈現一個二元預測任務('jam' 或 'no jam'),而另一篇論文可能會呈現一個多級變量('low traffic'、'heavy traffic ','完全堵塞')。如果數據集是固定的,二元預測任務通常比多類預測任務更容易解決 (Allwein 等人, 2000)。

3.不同國家的數據分辨率不同:來自不同國家的研究人員可能從事相同的預測任務,但由于數據分辨率的差異,比較他們的性能水平可能是不公平的。這種分辨率差異可歸因于數據收集所需的基礎設施。從發達國家道路上的靜態傳感器收集的數據在空間和時間上可能具有更高的分辨率。數據分辨率的差異意味著手頭預測任務的復雜性不同。數據分辨率的提高是否會使預測任務變得更容易或更困難,這是一個有趣的問題。這種預測任務相對難度的差異可以通過一個例子來更好地解釋。讓我們考慮兩名研究人員 A 和 B 試圖預測接下來 5 分鐘的交通速度。 A 可以以 5 s 的分辨率訪問歷史交通速度數據,而 B 可以以 1 s 的分辨率訪問歷史交通速度數據。現在,如果 A 和 B 都嘗試以 5 秒的分辨率預測交通速度,那么 B 的任務比 A 更容易——因為 B 有更多信息用于同一任務。然而,如果 A 和 B 都試圖以與其輸入數據相同的分辨率(A:5 s;B:1 s)來預測交通速度,那么評論誰的任務更容易變得具有挑戰性。需要注意的是,一些數據源顯著減少了數據分辨率差異的問題。使用分布式傳感器收集的數據(例如 GPS 數據)在不同國家/地區具有相似的分辨率。 Ma 等人(2015 年)已經對預測任務的相對難度的這種差異進行了實證研究。

4.不同長度的預測范圍:不同長度的預測范圍導致預測任務的復雜程度不同。如 Yu 等人(2017)所述,當預測范圍的長度增加時,大多數模型的性能都會下降。隨著預測范圍的增加,這種性能下降是整個研究的共同發現(Wang 等人,2016 年,Di 等人,2019 年)。我們想強調一個明顯的事實,即預測范圍的長度和預測任務的有用性成反比。

5.用于衡量績效的不同指標:在比較不同的研究時,選擇不同的績效指標會帶來困難。使用一個指標展示卓越的模型性能并不一定意味著使用其他一些指標時的卓越性能。擁堵預測任務是不平衡數據集的示例,因此分類任務最常見的指標(例如準確性)通常具有誤導性。在這種情況下,只有在與攜帶補充信息(例如,誤報率)的其他指標一起報告時,準確性才有意義。 Sokolova 和 Lapalme (2009) 對分類任務的指標選擇進行了系統研究。

6.交通流異質性的差異:由于不同類型車輛的混合和駕駛行為的高度差異,交通流異質性在發展中國家很常見。相應地,當深度學習模型用于發展中國家的擁堵相關任務時,我們觀察到模型性能的系統性下降。我們觀察到這種趨勢在每個擁堵檢測、預測和緩解部分都是有效的。

最近嘗試在各個領域定義和維護最先進的技術是 //paperswithcode.com/sota。他們的網站為不同領域的不同任務提供排行榜,包括流量預測領域。這個門戶在機器學習社區中逐漸流行起來。

7.1.2 缺乏在線學習

在線學習(通常稱為持續學習)是指隨著新數據的到來而更新模型的過程。在沒有在線學習的情況下,研究人員會在嘗試對系統的行為進行建模之前收集所有數據。然后,他們將數據點分成三部分——訓練、驗證和測試。該模型使用訓練數據進行訓練。為了調整超參數(例如神經網絡中的層數),模型性能在驗證數據上進行評估。最后,在整個訓練過程完成后,在測試數據上評估模型性能。如果驗證數據和測試數據的模型性能相似,則該模型可以很好地泛化。上述方法似乎符合機器學習的標準做法。然而,一個重要的警告是,原則上,測試數據的標簽不僅對模型而且對建模者都是不可見的。當建模者事先可以獲得測試數據時,需要格外小心以確保不會發生任何形式的目標泄漏。 Wujek 等人(2016) 總結了避免任何無意目標泄漏的最佳實踐。

在線學習完全解決了這一挑戰。此外,在線學習幫助我們更緊密地模擬現實世界的場景。在流量預測模型的實際部署中,測試數據只有在解決方案部署后才可用。但是,我們找不到很多使用具有在線學習能力的模型的研究論文示例。這可能是由于實時交通數據被轉發給研究人員的安全和隱私問題。

7.2 結論和未來的研究方向

本小節強調了未來研究的可能方向。提出這些方向是為了應對上一小節中提出的挑戰。在這里,我們強調了數據標準化的重要性、與其他工作領域的潛在協同作用以及基于模擬和深度學習方法在交通預測任務中的潛在協同作用。

7.2.1.標準化數據集和競賽

深度學習的成功是優質數據如何改變工作領域的一個例子——最著名的例子是計算機視覺 (CV)。 CV 是指與從圖像中提取信息有關的任務的總稱。特定 CV 任務的一些示例是對象定位、圖像分類和面部識別。考慮到一些限制,深度學習方法在 CV 任務上已經達到了接近人類的性能水平。 CV 研究的兩個最大推動力是 ImageNet (Deng 等人, 2009) 數據集的發布及其在 Pascal 視覺對象識別中的使用 (Everingham 等人, 2010)。人們注意到,已經存在了幾十年的深度神經網絡在 ImageNet 上訓練時開始表現得非常好。

對于交通擁堵預測領域,訪問標準化數據集會出現幾種新的可能性。首先,深度學習模型的性能隨著優質數據量的增加而提高。其次,對公共數據庫的訪問可以讓從業者以明確的方式建立最先進的技術。第三,它可以為遷移學習開辟道路,在這種情況下,在龐大的交通數據集上訓練的深度神經網絡可以很容易地應用于可能無法獲得交通數據的新城市(Tan 等人, 2018)。除此之外,標準化還解決了上一小節中提到的訓練-驗證-測試拆分問題,因為參與比賽的個人看不到測試數據。

交通預測數據標準化的一些獨家成就有(Snyder 和 Do,2019 年),(Wang 等人,2018 年,Cheng 等人,2018 年,Moosavi 等人,2019 年)。在“蒙特利爾理工學院智能交通和道路安全研究”網站上維護了最新的公開交通數據來源列表,但視頻和圖像構成了列表的大部分。流量預測任務在機器學習大會的競賽賽道上也越來越受歡迎。最近的一些例子是 2020 年 NIPS 的 traffic4cast 比賽和 2020 年 CVPR 的 Night-owls 比賽。

7.2.2 其他領域的類似預測任務

使用機器學習進行互聯網流量分類的論文在無線網絡社區中已經流行了很長時間。無線網絡中的一些預測任務類似于流量預測。來自無線網絡領域的調查論文可能為交通研究人員提供了寶貴的想法。相關調查的一些例子包括(Mao 等人, 2018, Zhang 等人, 2019b, Nguyen and Armitage, 2008)。路由協議是交通網絡中交通信號控制策略的對應物。因此,無協議無線路由類似于自適應信號控制。 Tang 等人(2017)討論了使無線網絡擺脫(固定)協議的問題。 Yu等人(2019)研究使用深度強化學習來處理無線網絡中的異構性。類似地,無線網絡的擁堵感知路由(Chen 等人, 2007)是交通中的擁堵緩解算法的對應物。天氣預報是預測任務和數據集類似于交通的另一個領域。一個經典的例子是(Xingjian 等人, 2015),促使其在流量方面的大量應用(Wang 等人, 2020a)。

7.2.3 模型驅動和基于深度學習的方法之間的協同作用

深度神經網絡具有很高的預測能力,與校準交通模擬器相比,可以更快、更輕松地進行訓練。深度學習模型缺乏可解釋性。當這兩種方法結合使用時,深度學習研究人員可以利用交通模擬器固有的可解釋性。這種協同作用已經在基于深度強化學習的交通信號控制方法中得到探索。一些研究人員使用微觀交通模擬器來生成擁堵標簽數據,從而解決類別不平衡問題。需要在這兩種方法之間產生協同作用的方向上做出更多努力。

其他

這項工作是新加坡-ETH 中心 (SEC) 未來彈性系統項目的成果,該項目由新加坡總理辦公室國家研究基金會在其卓越研究和科技企業 (CREATE) 計劃下提供支持。

付費5元查看完整內容

半監督學習(Semi-supervised learning, SSL)是機器學習的一個分支,其目的是在標簽不足的情況下利用未標記的數據來提高學習性能。最近,具有深度模型的SSL已被證明在標準基準測試任務上是成功的。然而,在現實應用中,它們仍然容易受到各種健壯性威脅,因為這些基準提供了完美的無標簽數據,而在現實場景中,無標簽數據可能被破壞。許多研究人員指出,在利用被破壞的未標記數據后,SSL會遭受嚴重的性能退化問題。因此,迫切需要研發SSL算法,能夠穩健地處理損壞的未標記數據。為了充分理解健壯的SSL,我們進行了一項調查研究。我們首先從機器學習的角度闡明了健壯SSL的正式定義。然后,我們將魯棒性威脅分為三類: i) 分布損壞,即未標記數據分布與標記數據不匹配; ii) 特征損壞,即未標記例子的特征被敵方攻擊; iii) 標簽損壞,即未標簽數據的標簽分布不均衡。在這個統一的分類下,我們提供了一個全面的綜述和討論最近的工作,重點關注這些問題。最后,我們提出了在健壯SSL中可能的有前途的方向,為未來的研究提供了見解。

//arxiv.org/abs/2202.05975

引言

機器學習,特別是深度學習[1],在圖像分類[2]、物體檢測[3]、語音識別[4]、產品推薦[5]、自然語言處理[6]等任務上取得了令人印象深刻的性能和成功的應用。通常,機器學習模型是從包含大量訓練示例的訓練數據集中學習的。一個訓練示例由兩部分組成:描述示例所對應的事件/對象的特征向量,以及指示ground-truth輸出的標簽。例如,在圖像分類任務中,feature是圖像中的像素,label是圖像所屬的類別。大多數成功的機器學習技術都需要為大規模的訓練數據集提供ground-truth標簽,例如ImageNet數據集,該數據集包含數百萬張標簽圖像,用于圖像分類任務。然而,在許多現實世界的應用中,獲取如此多的帶標簽的數據可能是一個挑戰,因為帶標簽的示例獲取[7],[8],[9],[10]通常是困難的、昂貴的或耗時的。例如,在醫學圖像分析任務中,不可能期望醫學專家為所有醫學圖像標記病變。另一方面,無標簽數據通常是廉價和豐富的,我們可以從醫院收集大量的無標簽醫學圖像。因此,機器學習模型能夠處理無標記數據是非常理想的。

在標注數據不足的情況下,采用學習范式提高學習性能。SSL的研究可以追溯到20世紀90年代,當時在現實世界的應用中,對未標記數據的需求不斷上升,推動了這一領域的發展。據我們所知,SSL跨越了機器學習的兩個重要階段:統計學習(即淺學習)和深度學習。在統計學習階段,SSL方法可以分為四種代表性的學習范式: i)生成式SSL方法[11]、[12]、[13]、半監督支持向量機(S3VM)[14]、[15]、[16]、[17]、基于圖的SSL[18]、[19]、[20]、[21]和基于分歧的SSL[22]。我們推薦感興趣的讀者閱讀[23]和[7],它們提供了統計SSL方法的全面概述。2012年,Geoffrey Hinton的團隊利用深度神經網絡AlexNet[2]在ImageNet的比賽中以顯著優勢獲勝,從此深度學習在機器學習領域占據主導地位。因此,引入了深度模型對經典SSL框架的優勢的深度SSL引起了廣泛的關注,并提出了大量的深度SSL方法。深SSL方法可以分為五類,即一致性正則化方法[24],[25],[26],[27],[28],[29],[30],[31],[32],[33],pseudo-labeling方法[34],[35],[36],[37],[38],[39],[40],[41],[42],[43],[44],整體一致性正則化方法和pseudo-labeling [45], [46], [47], [48], [49],deep生成SSL方法[50]、[51]、[52]、[53]、[54]、[55]和deep graph-based SSL方法[56]、[57]、[58]、[59]、[60]。深度SSL方法已成功應用于圖像分類[49]、目標檢測[61]、語義分割[62]、文本分類[63]、問題回答[64]等任務。據報道,在某些情況下,比如圖像分類[49],深度SSL方法可以實現純監督學習的性能,即使在給定數據集中的大部分標簽已經被丟棄的情況下。

魯棒半監督學習

上述所有積極的結果都是基于一個條件,即無標簽數據是完美的,允許SSL利用它來提高性能。無標記數據的完善在于兩個方面: 首先,對于有標記數據和無標記數據之間的關系,SSL意味著有標記數據集和無標記數據集從同一個分布中獨立抽取,從而利用無標記數據提高學習性能。因此,完美的無標簽數據要求無標簽數據的分布與有標簽數據的分布一致。此外,對于無標簽數據本身,完美的無標簽數據要求數據的兩個基本組成部分——特征分布和標簽分布(未知)不被破壞。然而,在現實世界的應用中,期望一個完美的無標簽數據集是困難的,甚至是不可能的,因為沒有標簽的數據不能被手工驗證,否則它違背了SSL減少人工勞動的目的。因此,不可避免地會遇到不完美(或損壞)的未標記數據,例如對抗的未標記例子、分發外的未標記例子、類別不平衡的未標記數據等。許多研究人員已經指出,SSL的性能容易受到這些損壞的未標記數據[9],[65],[66],[67],[68],[69],[70],[71]的影響。例如,當未標記數據集包含分發外示例時,SSL算法會出現性能下降問題[66],[67];當未標記的例子被敵方攻擊時,SSL模型可能會做出錯誤的預測[63]、[71]、[72];當未標記的數據集是類不平衡時,SSL在少數類上表現很差[69],等等。

為了將SSL技術應用到更廣泛的應用,迫切需要研究健壯的SSL方法,也就是說,當未標記的數據被破壞時,確保SSL算法不會遭受嚴重的性能下降,如圖1所示。如上所述,通常有三種類型的未標記數據損壞。第一種是分布損壞,即,未標記數據的分布與標記數據的分布不同。這種情況發生在各種任務中。例如,在圖像分類中,從互聯網上收集的無標簽圖像通常包含非分布的圖像[66]。第二種是特征損壞,即未標記示例的特征被噪聲惡意干擾。再考慮圖像分類任務,很容易將對抗特征噪聲注入到無標簽圖像中[72],[73]。第三種類型是標簽損壞,即,未標簽數據的標簽分布(未知)是高度傾斜的。這種情況是自然發生的。例如,在圖像分類中,我們日常生活中視覺類目的頻率分布是長尾的[74],常見的標簽很少,罕見的標簽更多。SSL中健壯性威脅的總體分類如圖2所示。

健壯SSL是一個綜合性術語,涵蓋了各種試圖通過學習標記數據和損壞的未標記數據來構建健壯預測模型的研究。在本文中,我們將討論這一研究領域的一些進展,重點是學習分布損壞、特征損壞和標簽損壞的未標簽數據。為了清楚而具體地解釋健壯的SSL,我們將重點討論深層SSL方法。據我們所知,我們是第一個對健壯的深度SSL進行調研的人。目前已有一些關于淺SSL[7]、[23]和深SSL算法的研究[75],但不包括健壯SSL的研究。Li和Liang[76]對安全SSL進行了調研,但他們主要關注的是統計(即淺層)SSL方法。我們的主要貢獻可以總結如下。

我們瞄準了關鍵但卻被忽視的健壯SSL問題。從機器學習的角度,給出了健壯SSL的形式化定義。該定義不僅具有足夠的普遍性,可以包括現有的健壯SSL方法,而且具有足夠的特殊性,可以闡明健壯SSL的目標是什么。

我們指出,無標簽數據損壞是對SSL的健壯性威脅,并提供了一個完整的分類無標簽數據損壞類型,即分布損壞、特征損壞和標簽損壞。我們給出了每個問題的形式化定義和標準化描述。這有助于其他研究人員清楚地理解健壯的SSL。 對于每一種健壯性威脅,我們都對最近構建健壯SSL模型的工作進行了全面的回顧。他們的關系,pros, and cons也被討論。您可以很快掌握健壯SSL的前沿思想。 在現有的健壯SSL研究之外,我們提出了幾個有前景的未來方向,如健壯的通用數據類型,健壯的復合弱監督數據,健壯的SSL與領域知識,在動態環境中學習,以及構建真實的數據集。我們希望它們能夠為健壯的SSL研究提供一些見解

魯棒半監督學習

分布損壞

SSL通常假設所有標記和未標記的示例都是從相同的底層數據分布中采樣的IID。然而,在實際應用中,經常會發現未標記的數據分布與標記的數據分布不同。下圖提供了針對分布不匹配的健壯SSL方法的分類。解決SSL標簽分布不匹配問題的兩種主要策略是: 對未標記樣本分配不同權重的樣例調整權重和開放集檢測評分,旨在設計一種開放集檢測評分機制。樣例重權與開集檢測分值的區別在于,開集檢測分值可以看作是一個僅包含0和1的離散權值,它們簡單地舍棄開集樣本,對所有保留的樣本一視同仁。理想情況下,示例重新加權方法可以導致更好的性能,因為并非所有未標記的示例都是一樣的,即使是所有的內集示例[97]。但在實際中,最優權重的計算較為困難,需要開發高效、準確的優化方法。開放集檢測評分方法的性能取決于評分機制。學習如何設計一個更好的評分函數是提高模型性能的關鍵。

特征損壞 特性損壞是指給定示例的特性被惡意干擾,從而導致學習到的模型對目標示例進行錯誤分類。下圖提供了用于特性損壞的健壯SSL方法的分類。攻擊技術主要有兩種策略:誤導性的序列注入和對抗性的擾動生成。所有這些方法都可以欺騙SSL模型,使其做出任何預期的錯誤預測。不同的是,誤導序列注入在給定的訓練數據中增加了新的訓練樣本,而擾動生成方法直接對給定的訓練樣本進行擾動。在防御技術方面,主要有兩種策略:魯棒正則化和分布魯棒學習。由于魯棒正則化方法直接在原損失函數中加入可微正則化項,因此相對于DRL方法,魯棒正則化方法更易于優化。DRL的優點在于它具有良好的理論性質。

標簽損壞 SSL方法假設無標簽數據(未知)的標簽分布是平衡的,即每個類中的示例數量幾乎相等。然而,在許多現實場景中,訓練數據的底層類分布是高度不平衡的。下圖提供了用于標記損壞的健壯SSL方法的分類。如前所述,SSL中處理標簽損壞問題的策略可以分為偽標簽對齊方法、實例重權方法和實例重權方法。偽標簽對齊方法的優點是,改進后的偽標簽可以匹配到無標簽數據的類分布的ground-真值,缺點是需要知道無標簽數據類分布的ground-真值,這在實際任務中很難獲得。另外,分布估計的精度對方法的性能影響很大。重權法和重抽樣法是處理班級不平衡學習問題的經典方法。然而,在SSL任務中,由于它們不能直接根據標簽重新采樣或重新加權示例,因此它們需要比監督設置中更多的計算成本,原因是它們具有復雜的訓練過程或難以實現的優化目標。

付費5元查看完整內容

摘要: 作為人工智能領域的一個重要分支, 智能規劃被廣泛應用于機器人、工業生產、商業應用等領域。時態規劃是智能規劃的前沿子領域。本文從時態特征、規劃方法、應用等三個角度出發, 對時態規劃進行綜述。與規劃能力相比, 時態特征的發展已足夠成熟; 基于啟發式的狀態空間搜索是目前的最佳選擇; 研究人員仍在尋找更多更好的應用場景。本文旨在用通俗易懂的方式幫助入門學者快速認識時態規劃。

付費5元查看完整內容

深度學習在計算機視覺和語言理解領域取得了驚人的成功,受此影響,推薦研究已經轉向了基于神經網絡的新推薦模型的發明。

近年來,神經網絡推薦模型的發展取得了顯著的進展,由于神經網絡具有強大的表示能力,使得傳統的推薦模型得到了推廣和超越。

在本文中,我們對神經推薦模型進行了系統性回顧,旨在對該領域進行總結,以促進未來的發展。與現有的基于深度學習技術分類法對現有方法進行分類的調研不同,我們從推薦建模的角度對該領域進行了總結,這可能對研究推薦系統的研究者和從業者更有指導意義。

具體來說,我們根據他們用于推薦建模的數據將工作分為三種類型:

  1. 協同過濾模型,它利用了用戶-物品交互數據;

  2. 內容豐富模型,利用與用戶和物品相關的側面信息,如用戶檔案和物品知識圖譜;

3)上下文豐富模型,它解釋了與互動相關的上下文信息,如時間、地點和過去的互動。

在回顧了每種類型的代表性工作后,我們最后討論了該領域的一些有前途的方向,包括標桿推薦系統、基于圖推理的推薦模型,以及可解釋和公平的社會公益推薦。

//www.zhuanzhi.ai/paper/cbf33028b44f85138520717fd1d72792

由于互聯網的擴散,信息過載在人們的每一個生活中都是一個日益嚴重的問題。與搜索引擎一樣,推薦系統是緩解信息過載問題的有效解決方案,方便用戶尋找所需信息,增加服務提供商的流量和收入。它已經被廣泛應用于電子商務、社交媒體網站、新聞門戶、應用商店、數字圖書館等。它是現代信息系統中最普遍的以用戶為中心的人工智能應用之一。

關于推薦的研究可以追溯到20世紀90年代的[1],在那個年代早期的工作開發了許多基于內容的啟發式和協同過濾(CF)[2]。由于Netflix的挑戰,Matrix Factorization (MF)[3]后來很長一段時間(從2008年到2016年)成為主流推薦模型[4],[5]。然而,因子分解模型的線性性質使其在處理大而復雜的數據時效率較低。復雜的用戶-物品交互,這些物品可能包含復雜的語義(例如,文本和圖像),這需要對它們進行徹底的理解。大約在2010年中期的同一時期,機器學習領域的深度神經網絡(deep neural networks,又稱“深度神經網絡”)興起。(比如深度學習)已經在語音識別、計算機視覺和自然語言處理等領域產生了革命性的變化。深度學習的巨大成功源于神經網絡相當大的表達能力,尤其有利于從具有復雜模式的大數據中學習。這自然為推薦技術的發展帶來了新的機會。毫不奇怪,在過去的幾年中出現了很多關于開發神經網絡方法的推薦系統的工作。在這項工作中,我們的目的是提供一個系統的回顧推薦模型使用神經網絡-稱為“神經推薦模型”。這是當前推薦研究中最熱門的話題,不僅近年來取得了許多令人興奮的進展,而且顯示出了成為下一代推薦系統的技術基礎的潛力。

我們專注于物品推薦的一般任務,即向用戶推薦項目,而忽略了對其他推薦任務的討論,如向一組用戶推薦物品、特定領域推薦(如教育推薦和時尚推薦)。此外,我們專注于利用單個域的數據的工作,而忽略了關于跨域推薦[8]的討論。我們的目標是提供一個單一領域的一般性項目推薦的全面綜述,并幫助青年研究者掌握該領域的主要研究方向。

本次綜述的組織結構如下。在第2節中,我們將回顧使用ID和交互歷史進行建模的協同過濾模型。在第3節中,我們回顧了將用戶和商品的側面信息整合到推薦中的模型,如用戶簡介和社交網絡、商品屬性和知識圖譜。我們將它們稱為內容豐富的模型,它通過集成側信息自然地擴展了CF。在第4節中,我們將回顧解釋上下文信息的模型。上下文數據與每個用戶-項目交互相關聯,例如時間、位置和過去的交互序列。上下文感知模型基于上下文數據進行預測。由于頁面限制,我們主要關注時間信息,這是最常見的上下文數據之一。最后,對研究結果進行了總結,并提出了展望。

付費5元查看完整內容

行人檢測技術在智能交通系統,智能安防監控等領域表現出了極高的應用價值,已經成為計算機視覺領域的重要研究方向之一。得益于深度學習的飛速發展,基于深度卷積神經網絡的通用目標檢測模型被不斷擴展應用到行人檢測領域,并取得了良好的性能。但是由于行人目標內在的特殊性、復雜性,特別是考慮到復雜場景下的行人遮擋、尺度變化等問題,深度學習方法也面臨著嚴峻的挑戰。本文針對上述問題,以基于深度學習的行人檢測技術為研究對象,在充分調研文獻的基礎上,分別從基于錨點框、基于無錨點框以及通用技術改進(例如損失函數,非極大值抑制等)三個角度,對各類行人檢測算法進行細分,并選取具有代表性的方法進行詳細介紹和對比分析。此外,本文對行人檢測的通用數據集進行了詳細的介紹,對該領域先進算法的性能進行了對比分析,對行人檢測中待解決的問題與未來的研究方向做出預測和展望。

//www.cjig.cn/jig/ch/reader/view_abstract.aspx?flag=2&file_no=2020&journal_id=jig

付費5元查看完整內容

全球定位、移動通信技術迅速發展的背景下涌現出了海量的時空軌跡數據,這些數據是對移動對象在時空環境下的移動模式和行為特征的真實寫照,蘊含了豐富的信息,這些信息對于城市規劃、交通管理、服務推薦、位置預測等領域具有重要的應用價值,而這些過程通常需要通過對時空軌跡數據進行序列模式挖掘才能得以實現。時空軌跡序列模式挖掘旨在從時空軌跡數據集中找出頻繁出現的序列模式,挖掘時空數據中隱藏的信息,例如: 位置模式(頻繁軌跡、熱點區域)、活動周期模式、語義行為模式。綜述近來年時空軌跡序列模式挖掘的研究進展,先介紹時空軌跡序列的數據特點及應用,再描述時空軌跡模式的挖掘過程:從基于時空軌跡序列來挖掘位置模式、周期模式、語義模式三個方面來介紹該領域的研究情況,最后闡述現有時空軌跡序列模式挖掘方法存在的問題,展望其未來的發展趨勢。

//www.joca.cn/CN/abstract/abstract24577.shtml

付費5元查看完整內容

深度神經網絡(DNN)是實現人類在許多學習任務上的水平的不可缺少的機器學習工具。然而,由于其黑箱特性,很難理解輸入數據的哪些方面驅動了網絡的決策。在現實世界中,人類需要根據輸出的dna做出可操作的決定。這種決策支持系統可以在關鍵領域找到,如立法、執法等。重要的是,做出高層決策的人員能夠確保DNN決策是由數據特征的組合驅動的,這些數據特征在決策支持系統的部署上下文中是適當的,并且所做的決策在法律上或倫理上是可辯護的。由于DNN技術發展的驚人速度,解釋DNN決策過程的新方法和研究已經發展成為一個活躍的研究領域。在定義什么是能夠解釋深度學習系統的行為和評估系統的“解釋能力”時所存在的普遍困惑,進一步加劇了這種復雜性。為了緩解這一問題,本文提供了一個“領域指南”,為那些在該領域沒有經驗的人提供深度學習解釋能力指南: i)討論了研究人員在可解釋性研究中增強的深度學習系統的特征,ii)將可解釋性放在其他相關的深度學習研究領域的背景下,iii)介紹了定義基礎方法空間的三個簡單維度。

付費5元查看完整內容
北京阿比特科技有限公司