亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

在過去的十年里,深度學習的興起重新定義了許多計算機視覺和自然語言處理任務中的最先進技術,其應用范圍從自動個人助理和社交網絡過濾到自動駕駛汽車和藥物開發。這些算法的普及源于GPU普及帶來可用于訓練的計算能力的指數級增長。準確度的提高創造了對適合部署在邊緣設備上的更快、更省電的硬件需求。在這篇論文中,我們提出了一系列創新和技術,這些創新和技術屬于這種需求所引發的眾多研究領域之一,重點是卷積神經網絡的高能效硬件。

我們首先研究了標準28納米CMOS工藝在深度學習加速器設計方面的表現,特別考慮了在使用降低精度的算術和短SRAM內存字節時,基于標準單元電路的功率和面積。這一分析的結果表明,降低位精度后的功率效率增益是如何非線性的,以及在使用16位精度時如何達到飽和。

我們提出了Nullhop,一個率先使用卷積神經網絡典型的特征圖稀疏性的加速器,并通過量化來提高硬件能力。Nullhop的創新之處在于它能夠跳過所有的乘法運算,包括零值激活。在6.3平方毫米的空間內,它的功率效率達到3 TOP/s/W,吞吐量幾乎達到0.5 TOP/s。

我們提出了一種基于硬件-軟件代碼設計方法的神經網絡量化算法。我們在分類、物體檢測、分割和圖像生成等各種任務上訓練幾個網絡,以證明其能力。該量化方案在Elements中實現,Elements是一個卷積神經網絡加速器架構,支持可變權重位精度和稀疏性。我們通過多種設計參數化來展示Elements的能力,適合于廣泛的應用。其中一個參數化被稱為Deuterium,僅用3.3平方毫米就達到了超過4 TOP/s/W的能源效率。

我們用第三個卷積神經網絡加速器架構進一步探索稀疏性的概念,該架構被稱為TwoNullhop,能夠跳過特征圖和內核的零值。我們用Carbon測試了TwoNullhop架構,這個加速器盡管只有128個乘積單元,而且運行頻率只有500MHz,但在只有4平方毫米的空間里,實現了超過2.4TOP/s的能效,10.2TOP/s/W。

論文最后概述了我們預見的未來深度學習硬件發展的挑戰和可能性,試圖預測哪些主題將在未來幾年主導該領域。

付費5元查看完整內容

相關內容

下一代測序技術已經將生物學領域推向了大數據時代,而計算技術的不斷進步現在已經使探索復雜的生物系統變得更加容易。然而,用傳統的機器學習算法來分析這種高度復雜的數據可能會很麻煩,因為這些技術需要相當多的特征工程。幸運的是,機器學習的一個子領域,即深度學習,最近已經顯示出克服這些問題的證據。這種算法最初被應用于基因組和轉錄組環境。然而,測序技術的進步已經使蛋白質組學成熟到深度學習現在是一個可行的選擇。這篇論文將主要考慮深度學習在模擬蛋白質的各種屬性方面的應用。

盡管深度學習解決了在分析Omic數據時遇到的一些初步問題,但在應用深度學習算法時仍然存在著一系列不同的挑戰。即使使用最新的方法,深度學習模型也常常需要大量的標記數據,而這些數據的獲取可能是高成本和耗時的。如果沒有足夠的數據量,那么與傳統機器學習算法相比,標準的深度學習方法往往表現不佳。另外,這些模型是黑盒算法,這給模型所產生的預測的解釋帶來了問題。

鑒于蛋白質內部的差異性,要有效地總結數據是很困難的,因為有關蛋白質的信息可能會因特征工程而丟失。在本論文的每個研究章節中,通過使用深度學習,我們解決了應用傳統機器學習來為蛋白質數據建模的缺點。在第一個技術章節中,我們首先使用了最先進的子詞編碼方案。我們證明,與標準基線相比,這些新的表征對預訓練更有利、更實用。在下一章中,我們更進一步,解決將深度學習模型應用于較小的數據集的問題。在此過程中,我們探討了如何利用度量學習來形成一個強大的模型架構,該架構能夠從少數標記的例子中學習并對蛋白質進行排名。之后,我們考慮了一種同時利用預訓練和公因子學習的方法,通過使用大型無監督網絡達到新的最先進水平。在這一章中,我們利用在大量蛋白質組學數據上預訓練的BERT模型,只用少量的數據對回歸任務的集合進行建模。我們采用三重網絡結構來為每個數據集微調BERT模型,并評估其在一組下游任務上的表現。所提到的前三個策略在各種下游任務上進行了測試:四個蛋白質特性預測任務(質膜定位、熱穩定性、吸收峰值波長、對映選擇性)。

此外,本論文還包括另外兩章,考慮了在對蛋白質數據建模時遇到的其他挑戰。這一章首先介紹了應用預訓練來提高磷酸化位點建模的最先進水平,使用了一個全新的基于卷積變換器的模型。我們在一般的磷酸化位點數據集和各種特定的激酶數據集上評估我們的方法。此外,為了強調這是一個白盒深度學習的例子,我們將模型的特征可視化,以獲得對每個站點預測背后的更好理解。

最后一個研究章節考慮了為蛋白質和藥物之間的相互作用建模的最先進方法。在這一章中,我們利用了一組BERT式的模型,這些模型已經在大量的蛋白質和藥物數據上進行了預訓練。然后,每個模型產生的編碼被用作圖卷積神經網絡的節點表示,該網絡反過來對相互作用進行建模,而不需要同時對蛋白質和藥物BERT模型進行微調來完成任務。我們在兩個藥物-目標相互作用數據集上評估了我們的方法的性能,這兩個數據集在最近的工作中曾被用作基準。

付費5元查看完整內容

【導讀】如今在越來越多的情況下,設備數據無法通過云端處理。尤其在工業機器人和自動駕駛汽車領域,它們需要高速處理,但當數據流增大而產生處理時延時會非常危險。針對日益多樣化的邊緣硬件,至今沒有一個高效的功能模型設計的AI解決方案。最近來自麻省理工學院韓松等《移動設備深度學習:方法系統應用

深度神經網絡(DNNs)在人工智能(AI)領域取得了前所未有的成功,包括計算機視覺、自然語言處理和語音識別。然而,其卓越的性能是以計算復雜度為代價的,這極大地阻礙了其在許多資源受限設備(如移動電話和物聯網設備)中的應用。因此,為了實現大量的邊緣人工智能應用,需要在保持DNNs的高精度的同時,提升效率瓶頸的方法和技術。本文綜述了有效的深度學習方法、系統和應用。首先介紹了常用的模型壓縮方法,包括剪枝法、因式分解法、量化法以及緊湊模型設計。為了減少這些手工解決方案的巨大設計成本,我們討論了每個解決方案的AutoML框架,例如神經體系結構搜索(NAS)和自動修剪和量化。然后,我們將介紹有效的設備上訓練,以支持基于移動設備上的本地數據的用戶定制。除了一般的加速技術,我們還展示了幾個特定于任務的加速,用于點云、視頻和自然語言處理,利用它們的空間稀疏性和時間/令牌冗余。最后,為了支持所有這些算法的進步,我們從軟件和硬件兩個角度介紹了高效的深度學習系統設計。

//www.zhuanzhi.ai/paper/cfebf5f04cbacdfaf6936db4f5d10021

引言

深度神經網絡(DNNs)已經徹底改變了人工智能(AI)領域,并在計算機視覺[118,155,263]、自然語言處理[22,71,271,291]和語音識別[69,122,328]等領域取得了令人矚目的成績。它們可以應用于各種現實場景,如手機[131,217,329],自動駕駛汽車[5,20,59,194]和智能醫院[116,183,338]。然而,它們的卓越性能是以高計算復雜度為代價的。例如,最先進的機器翻譯模型[291]需要超過10G的乘法累加(multiply-and-accumulate, mac)來處理一個只有30個單詞的句子;目前流行的LiDAR感知模型[56]需要每秒超過2000G mac(即10幀)。

如此高的計算成本遠遠超出了大多數移動設備的能力,從汽車到移動電話和物聯網設備,因為它們的硬件資源受到外形因素、電池和散熱的嚴格限制。然而,這些計算工作量不能委托給云服務器,因為它們對延遲(例如,自動駕駛)和/或隱私(例如,醫療保健)非常敏感[199,360]。因此,高效的深度學習是移動AI應用的一大需求。為了加快神經網絡推理的速度,研究者們提出了多種模型壓縮技術,包括剪枝[115,121,195]、低秩分解[149,332,352]和量化[62,114,133]。除了建立在現有的大型模型之上,研究人員還探索了直接從零開始設計高效的神經網絡,包括MobileNets[125,250]、ShuffleNets[202,351]和SqueezeNets[202,351]。這些解決方案通常需要大量人力的努力,因為有一堆參數需要共同調整,以實現最佳性能:例如,修剪比和每一層的量化位寬。為此,有很多探索使用自動機器學習(AutoML)調節參數解決人類的設計過程的耗時,如神經結構搜索(NAS)[29、106、187、277、366),自動修剪(120、196、336)和自動量化(299、300、306)。然而,AutoML的好處并不是免費的,因為它會顯著增加碳足跡: 進化Transformer [264]產生了5輛美國汽車的終生二氧化碳排放量(見圖2)。為了實現綠色和可持續的人工智能,研究人員提出了高效搜索高效神經結構[25,296],該神經結構可以達到相同的精度水平,同時減少碳足跡的數量級。

深度學習可以引入較大的碳足跡:例如,進化Transformer[264]產生5輛汽車的終身碳排放量。因此,高效的深度學習對于綠色和可持續的人工智能至關重要。

除了推理之外,神經網絡訓練也可能非常昂貴,這阻礙了設備上的訓練,從而阻礙了移動設備上的用戶定制。為了解決這一問題,研究人員提出了各種高效的記憶訓練算法,如梯度檢查點[44]、激活剪枝[65]和低比特量化[356]。在大多數用例中,移動模型只需要對本地用戶數據進行少量的微調,以提供專門化。因此,另一種研究試圖提高遷移學習的效率[26,214]。最近,研究人員也引入了聯邦學習[151],在不損害隱私的情況下聚合用戶的訓練模型。除了原則上可以應用于任何任務的一般加速外,在特定領域的加速方面已經有了廣泛的研究。在本文中,我們將重點研究點云處理、視頻理解和自然語言處理,因為它們廣泛應用于移動應用,如自動駕駛和移動視覺/NLP。一方面,由于內存占用較大,它們的計算成本比傳統2D視覺要高得多。另一方面,它們還通過利用和刪除空間和時間冗余提供了獨特的加速機會:空間冗余(點云)、時間冗余(視頻)和標記級冗余(自然語言)。

然而,并不是所有的算法改進都能轉化為硬件上可測量的加速。例如,通用推理庫(如cuDNN[52])和硬件(如CPU、GPU)不支持稀疏和低位計算(由細粒度剪枝和量化引入)。最近在設計專業軟件系統[43,72,137,138]和硬件系統[4,48,113,219,256,298,353]方面的努力逐漸彌合了這一差距。專門的軟件系統探索神經網絡內部和內部操作的并行性,并通過啟發式規則甚至基于學習的方法優化計算圖和內存調度。專門的硬件系統從硬件架構層面直接支持修剪網絡的稀疏性和混合精度量化。軟件和硬件系統的專業化開辟了一個與算法空間正交的新的設計空間,可以進一步利用這個空間來釋放專業化未實現的潛力。因此,研究人員探索了多種協同設計解決方案,如自動分配不同平臺上的計算資源用于神經網絡模型[140,144,211,212],自動調整硬件架構[335,366],甚至聯合搜索神經網絡和加速器設計,包括處理元素之間的連接和循環調度[181]。

已有許多研究涉及模型壓縮[50,54,68]、自動化機器學習[78,119,317]、高效硬件架構設計[272]和特定任務優化[283]。本文旨在涵蓋更廣泛的有效深度學習方法和應用:從手動到自動,從新的原語/操作設計到設計空間探索,從訓練到推理,從算法到硬件,從通用到特定應用的優化。我們相信,這篇綜述論文將為這一領域提供一個更全面的視角。本文其余部分的結構如下(圖1): * 第二節討論了各種模型壓縮方法,包括剪枝、低秩分解、量化、知識精餾和緊湊模型設計。 * 第三節研究用于模型壓縮和神經結構搜索的AutoML框架。 * 第四節描述了有效的設備上訓練(一般/遷移學習技術)。 * 第五節研究點云、視頻和語言的特定應用程序加速。 * 第六節介紹了深度學習的高效軟件/硬件設計。

左:有效深度學習解決方案的范圍(從推理到訓練,從算法到軟件/硬件系統,從一般到特定領域)。右:論文組織概述。

模型壓縮

深度神經網絡通常是過度參數化的。剪枝去除神經網絡中的冗余元素,以減少模型大小和計算成本(圖3)。

低秩分解利用矩陣/張量分解來降低深度神經網絡中卷積層或全連通層的復雜性。利用低秩濾波器加速卷積的思想在信號處理領域已經研究了很長時間。 網絡量化通過減少表示深度網絡所需的每權重比特數來壓縮網絡(圖4)。量化網絡在硬件支持下可以有更快的推理速度。 知識蒸餾(KD)[23,123]可以將在大模型(教師)中學習到的“暗知識”轉移到較小模型(學生)中,以提高較小模型的表現。小模型要么是一個壓縮模型,要么是一個淺/窄模型。Bucilua等[23]通過訓練學生網絡匹配輸出logit來達到目標;Hinton等人[123]在softmax輸出中引入了temperature 的概念,并訓練學生模擬教師模型的softmax輸出的軟化分布。KD算法雖然實現簡單,但在各種圖像分類任務中都有很好的效果。 除了壓縮現有的深度神經網絡,另一個被廣泛采用的提高效率的方法是設計新的神經網絡結構。一個CNN模型通常由卷積層、池化層和全連接層組成,其中大部分的計算來自卷積層。例如,在ResNet-50[118]中,超過99%的乘法累加操作(multiple -accumulate operations, MACs)來自卷積層。因此,設計高效的卷積層是構建高效CNN架構的核心。目前廣泛使用的有效卷積層有1×1/點態卷積、群卷積和深度卷積三種。

自動壓縮和神經結構搜索

上述模型壓縮策略和高效的神經網絡架構的成功依賴于手工制作的啟發式,這需要領域專家探索較大的設計空間,在模型大小、延遲、能量和準確性之間進行權衡。這是耗時且次優的。在本節中,我們將描述處理此挑戰的自動化方法。

上圖報告了ImageNet上自動設計和人工設計CNN模型的總結結果。NAS節省了工程師的人工成本,并提供了比人工設計的CNN更好的模型。除了ImageNet分類,自動設計的CNN模型在目標檢測[46,91,278,367]和語義分割[40,184]方面也優于手動設計的CNN模型。

高效設備學習

在現實世界的邊緣人工智能應用中,智能邊緣設備每天通過傳感器收集新數據,同時被期望在不犧牲隱私的情況下提供高質量的定制服務。這些都對高效的人工智能技術提出了新的挑戰,這些技術不僅可以運行推斷,而且還可以根據新收集的數據不斷調整模型(即設備上學習)。雖然設備學習可以實現許多有吸引力的應用,但這是一個極具挑戰性的問題。首先,邊緣設備是內存受限的。例如,一個樹莓派1模型a只有256MB的內存,這足以進行推理,但仍然不足以進行訓練(圖9),即使使用輕量級的神經網絡(MobileNetV2[250])。此外,內存被各種設備上的應用程序(例如,其他深度學習模型)和操作系統共享。單個應用程序可能只分配了總內存的一小部分,這使得這個挑戰更加關鍵。第二,邊緣設備是能量受限的。訪問DRAM比訪問片內SRAM多消耗兩個數量級的能量。激活的大內存占用不能適應有限的片內SRAM,因此它必須訪問DRAM。例如,在批處理大小為16的情況下,MobileNetV2的訓練內存接近1GB,這遠遠大于AMD EPYC CPU的SRAM大小(圖9),更不用說低端平臺了。如果訓練存儲器能與片上SRAM相匹配,將大大提高速度和能源效率。

付費5元查看完整內容

摘要

檢測、預測和緩解交通擁堵旨在提高交通網絡的服務水平。隨著對更高分辨率的更大數據集的訪問越來越多,深度學習與此類任務的相關性正在增加。近年來的幾篇綜合調查論文總結了深度學習在交通領域的應用。然而,交通網絡的系統動態在非擁堵狀態和擁堵狀態之間存在很大差異,因此需要清楚地了解擁堵預測所面臨的挑戰。在本次綜述中,我們展示了深度學習應用在與檢測、預測和緩解擁堵相關任務中的當前狀態。重復性和非重復性擁堵將單獨討論。我們的綜述使我們發現了當前研究狀態中固有的挑戰和差距。最后,我們對未來的研究方向提出了一些建議,作為對已確定挑戰的答案。

關鍵詞:深度學習、交通、擁堵、重復性、非重復性、交通事故

1 引言

交通擁堵降低了道路網絡的服務水平 (LOS)。LOS 的降低會給社會帶來直接和間接的成本。已經進行了廣泛的研究來估計擁堵對經濟和整個社會的影響(Weisbrod 等人,2001 年, Litman,2016 年)。交通擁堵的第一個影響是工作時間的損失。Schrank等人(2012 年)估計,僅美國一年就因交通擁堵損失了 88 億小時的工作時間。當時間作為一種商品的價值在緊急情況下急劇增加時,擁堵的不利影響會急劇上升。堵車會影響個人的行為。 Hennessy 和 Wiesenthal (1999)報告說,高度擁堵會導致司機的攻擊性行為。這種攻擊性可以表現為攻擊性駕駛,從而增加發生事故的機會(Li等人, 2020a)。高度擁堵也會導致溫室氣體排放量增加(Barth 和 Boriboonsomsin,2009 年)。

就可處理性而言,擁堵預測是比非擁堵條件下的交通預測更困難的問題(Yu等人, 2017)。預警系統使交通管制員能夠采取緩解措施。幾十年來,交通數據收集所需的基礎設施得到了改善。這一改進與計算資源可用性的提高相結合,使交通運輸研究人員能夠利用深度神經網絡對該領域進行預測。在本次調查中,我們討論了深度學習在檢測、預測和緩解擁堵中的應用。我們研究了兩種類型的擁堵的各個方面——重復性和非重復性。在本次調查結束時,我們確定了該領域研究現狀的一些差距,并提出了未來的研究方向。

2 預備知識

本綜述論文的目標受眾是來自交通和深度學習兩個背景的研究人員。本節介紹了預備知識并介紹整個綜述中使用的術語。(略,詳見原文)

3 以往的綜述和本綜述的組織

深度神經網絡中的非線性激活函數可以捕捉交通數據中的非線性(Polson 和 Sokolov,2017)。如第 2.1 節所述,網絡的深度使我們能夠對數據中的高級特征進行建模。交通數據的特點是空間和時間的變化。兩種專門的神經網絡架構,CNN 和 RNN(也在 2.1 中討論過)對于捕捉這些變化非常有幫助。 CNN 在建模空間相互依賴性時很有用,而 RNN 在建模數據時間變化時很有用。在我們的文獻回顧過程中,我們發現大多數成功的交通預測神經網絡架構都是使用 CNN 和 RNN 單元作為構建塊設計的。

Wang (2019)等人對交通系統各個方面的深度神經網絡進行了廣泛的總結。它們使用深度神經網絡涵蓋了廣泛的交通相關預測任務——交通信號識別、交通變量預測、擁堵識別和交通信號控制。Nguyen等人(2018 年)除了涵蓋了上述任務外,還包括其他三個任務中,即出行需求預測、交通事故預測和駕駛員行為預測。Wang等人(2020a) 調查了深度學習在使用時空數據的各個領域(交通、人類流動、犯罪分析、神經科學和基于位置的社交網絡)中的應用。他們的評論包括最近處理諸如交通變量預測、軌跡分類、軌跡預測和出行模式推斷等任務的深度學習方法的論文。Wu等人(2020)對圖神經網絡 (GNN) 進行了分類調查,并強調了 GNN 在包括交通運輸在內的不同領域應用。Xie等人(2020) 總結了將深度學習用于城市中最常見的流量類型的各種方法——人群流量、自行車流量和交通流量。

擁堵預測是指對即將發生擁堵時的交通狀態變量進行預測。這是交通預測的一個特例。與交通預測相比,擁堵預測任務的相對困難可歸因于超出最大流量點的交通動態不穩定性(Chung,2011)。這種較高的相對難度也很明顯,因為典型的交通預測模型性能隨著交通狀態的接近而下降。與其他數據驅動方法相比,深度學習對擁堵預測的重要性還在于深度學習模型的穩定性相對較高(Yu等人, 2017)。據我們所知,不存在涵蓋深度學習在擁堵相關任務中應用的全面調查論文。這篇調查論文試圖彌合文獻中的這一差距。我們討論了深度學習在檢測、預測和緩解兩種類型的擁堵(重復性與非重復性)中的應用。擁堵預測部分沒有區分重復性與非重復性情況,因為從交通圖像中檢測擁堵的深度學習模型可以檢測這兩種類型的擁堵。只要有可能,我們就試圖從政策制定者的角度考慮挑戰。納入政策制定者的觀點對于使研究成果可在現實世界環境中部署非常重要。當前調查的范圍如圖 8 所示。

圖 8. 顯示調查各個部分的總體流程圖。問號表示重復性與非重復性擁堵緩解之間的潛在聯系。

深度學習架構關鍵設計方面和每篇論文中使用的數據集方面都已進行了總結,以便讀者在處理類似數據集時可以參考這些論文。一些論文對他們的模型進行了廣泛的敏感性分析。我們在每個小節末尾的摘要中復制并強調了關鍵見解。

本次調查涵蓋的大多數研究論文發表于 2016 年至 2021 年期間。有時,為了簡要討論一些算法范式的背景,我們參考了過去的經典論文。

4 用于擁堵檢測的深度學習

隨著對新數據源的訪問越來越多,正在探索自動檢測交通擁堵的新機會。與其他兩個部分不同,擁堵檢測模型不區分重復性與非重復性擁堵。之所以如此,是因為擁堵檢測模型總是檢測這兩種類型的擁堵,而不管它們背后的因果因素如何。相反,它們會根據所使用的數據源進行區分。檢測這兩種類型的擁堵最常用的來源是從交通攝像機獲得的圖像和視頻。

無一例外,使用交通攝像頭圖像的好處是,所有車輛都被捕獲在交通圖像中。因此,不需要考慮滲透率(被跟蹤車輛的百分比)等其他因素。隨著道路上攝像機數量的增加,人類從圖像中識別擁堵的認知負荷很高。為了減少認知負荷,深度學習已被廣??泛應用于交通圖像擁堵的自動檢測。眾所周知,在計算機視覺 (CV) 任務中表現良好的深度學習模型已被用于檢測交通擁堵。 CV 指的是從圖像中提取有用信息的任務。

卷積神經網絡 (CNN) 構成了用于圖像分類任務的常用深度學習架構的模塊。該領域的開創性工作有:AlexNet (Krizhevsky等人, 2012), InceptionNet (Szegedy等人, 2015), Resnet (He et al., 2016), R-CNN (Girshick et al., 2014), Mask-RCNN (He et al., 2017)、VGGNet (Simonyan and Zisserman, 2014) 和 YOLO (Redmon等人, 2016)。在 ImageNet (Lin等人, 2014) 和 COCO (Lin等人, 2014) 等大型圖像數據集上預訓練的深度神經網絡很容易獲得。當使用眾所周知的架構進行交通圖像分類時,三種方法是可能的。當手頭數據集中可用的交通圖像數量非常多(大約 10000 張圖像)時,可以使用可用數據從頭開始訓練這些模型。當可用數據集較小時,將采用的深度學習模型的權重初始化為可用的預訓練模型。第三種方法是保留預訓練的模型,并按順序添加另一個模塊。當應用于圖像時,深度學習模型可用于估計圖像中的車輛總數,從而使我們能夠估計交通密度。當應用于視頻數據(一系列圖像)時,深度學習模型可用于估計交通速度。

利用基于 CNN 的架構的兩種變體(AlexNet 和 YOLO)(Chakraborty 等人,2018 年),對從美國愛荷華州 121 臺攝像機在 6 個月內收集的交通圖像,采用二進制分類來檢測擁堵。將交通圖像手動標記為擁堵和非擁堵標簽是一項耗時的任務。因此,作者使用使用車輛環路檢測器 (VLD) 獲得的占用數據,根據占用情況將圖像自動標記為兩類(占用被標記為“擁堵”)。據報道,AlexNet 檢測擁堵的準確率為 90.5% 和 YOLO 為 91.2%。Wang等人(2018) 比較了 AlexNet 和 VGGNet 的兩種變體,以檢測從中國陜西省的 100 多臺攝像機獲得的交通圖像的擁堵情況。他們的數據集非常多樣化——包括白天和夜間交通和不同天氣條件的圖像。他們的結果顯示兩種架構的性能相當(AlexNet 為 78%,VGGNet 為 81%)。他們報告說,由于神經網絡的規模較小,AlexNet 的訓練速度明顯更快。他們使用了二進制分類(“jam”或“no jam”)。 Impedovo 等人(2019)比較了 YOLO 和 Mask-RCNN 在從兩個交通圖像數據源(GRAM 和 Trafficdb)獲得的三個手動標記數據集上的性能。這三個數據集的圖像質量各不相同——首先,包含 23435 張低分辨率 (480×320p) 的圖像,其次,包含 7520 幀中等分辨率 (640×480p) 的圖像,第三個包含 9390 幀高分辨率 (1280×720p) 的圖像。他們分兩步實現擁堵檢測。第一步側重于識別每幀中的車輛數量。在這一步中,Mask-RCNN 的準確率分別為 46%、89%、91%,而 YOLO 的準確率分別為 82%、86%、91%。 YOLO 的性能對圖像質量有抵抗力,訓練時間幾乎是 Mask-RCNN 的一半。他們選擇 YOLO 作為目標檢測器模型,并將其輸出作為第二步的輸入。第二步,他們在 YOLO 的輸出上使用 Resnet 來預測交通擁堵,作為一個多類分類任務(3 類)。報告的輕度、中度和重度擁堵準確率分別為 99.7%、97.2% 和 95.9%。

Kurniawan 等人(2018)使用了 CNN 模型。為了對在印度尼西亞雅加達獲得的交通圖像進行分類。使用 14 個攝像頭位置,收集數據 15 天。他們使用手動將交通圖像標記為“擁堵”和“未擁堵”類別。使用 10 倍交叉驗證報告的平均準確率為 89.5%。 Rashmi 和 Shantala (2020) 研究了在流量高度異構時 YOLO 的性能。他們從印度卡納塔克邦收集了一周的數據。他們使用在 COCO 數據集上預訓練的 YOLO 模型進行遷移學習。在計算圖像中的車輛時,YOLO 在公共汽車、汽車和摩托車方面表現良好(準確率在 92% 和 99% 之間),但在預測研究區域特定的交通方式時,性能下降到任何有用的水平以下。

摘要:我們觀察到基于數據源的圖像質量存在顯著差異。這導致模型性能的差異。由于交通流的巨大異質性,從發展中國家獲得的交通圖像提出了一項重大挑戰。數據集之間的另一個主要區別是,當存在替代數據源(例如 VLD)時,可以自動創建訓練數據的標簽,而不是手動標記。如果從交通攝像頭獲得的圖像質量不高,可以使用基于深度學習的圖像超分辨率進行改進。圖像超分辨率是指提高輸入圖像分辨率的任務。基于深度學習的超分辨率已經在計算機視覺界得到了廣泛的研究,但我們還沒有看到它在提高交通圖像質量方面的應用。Wang 等人(2020b)對圖像超分辨率的深度學習應用進行了全面調查。改進攝像機擁堵檢測的另一個潛在途徑是基于深度學習的視頻幀率增量(Jiang et al., 2018)。

5 用于擁堵預測的深度學習

5.1 用于重復性擁堵預測的深度學習

由于基礎設施瓶頸不足以應對高峰需求,因此經常發生擁堵。根據定義,重復性擁堵發生在網絡中熟悉的位置。根據這個定義,預測重復擁堵的具體任務是預測發生時間的每日變化和重復擁堵的嚴重程度。最常用的擁堵預測任務是二進制分類(“擁堵”或“無擁堵”)。一些論文將擁堵預測為多類分類任務(“輕”、“中”和“重”擁堵)。需要注意的是,本節中的一些論文并未預測交通擁堵,而是將短期交通預測作為回歸任務(預測速度、密度、流量、隊列長度等)。如果在交通狀況接近擁堵時報告其模型性能穩定,則此類論文已被包括在內。對于此處列出的每篇論文,我們都報告了其績效指標的關鍵方面以及敏感性分析的關鍵要點。本小節討論的論文總結在表 1 中。

表1 總結了第 5.1 節中討論的論文(用于重復擁堵預測的深度學習)

使用 LSTM 模型:Yu 等人(2017)使用了 LSTM 模型。 預測高峰時段的交通速度。他們使用來自美國加利福尼亞州車輛環路檢測器 (VLD) 速度記錄的公開可用的 Caltrans 數據集,并嘗試預測每個傳感器位置下一小時的交通速度。據報道,在預測高峰時段的交通速度時,他們的 LSTM 模型實現了 5% 的 MAPE。他們研究的一個重要觀察結果是時間戳特征(一天中的時間和一周中的一天的編碼值)顯著提高了高峰時段的預測性能。這種合并時間戳的做法已在后來出現的論文中采用。在本文中,每個 VLD 都是單獨建模的。在隨后的論文中,研究人員開發了將空間信息整合到 LSTM 模型中的技術,因此提出了一個用于同時預測多個交叉口擁堵的單一模型。 Rahman 和 Hasan (2020) 使用 LSTM 模型通過有效地結合空間信息來預測交叉口的隊列長度。為了預測下一個交通周期(紅色信號)查詢路口的隊列長度,他們的模型將查詢路口的隊列長度和當前周期的兩個上游路口的隊列長度作為輸入。然后他們嘗試預測下一個周期的查詢交叉點的隊列長度。他們使用在佛羅里達州奧蘭多市為期三個月的 11 個十字路口收集的 VLD 數??據。在預測隊列長度時,他們報告的平均 RMSE 接近 1(從他們的圖中推斷)。

比較 LSTM 和 CNN:Sun 等人(2019)介紹了卷積神經網絡 (CNN) 和循環神經網絡 (RNN) 在預測交通擁堵方面的性能比較。他們的數據集包括中國成都 2000 輛出租車的 28 天 GPS 軌跡。他們使用地圖匹配將 GPS 軌跡映射到路段,并計算每個路段在 5 分鐘時間段內的平均速度。然后,他們使用平均速度值根據平均交通速度定義四個擁堵級別。報告的最佳模型平均速度預測的 RMSE 為 3.96 km/h。然后針對預測的擁堵程度報告分類精度。他們得出的結論是,給定足夠長的輸入范圍(90 分鐘),CNN 模型的性能與循環網絡模型一樣好。我們認為這是一個重要的觀察結果,原因有二。首先, CNN 模型的訓練速度更快,因為它們通過構建以更有效的方式支持 GPU 并行化,如果在探索 LSTM 之前將 CNN 作為建模選項進行探索,則可以節省研究人員的時間。其次,由于 LSTM 在獨立使用時通常用于捕獲交通數據中的長期依賴關系,因此它們對于短期交通預測可能不是很有用。本小節以下的論文使用 CNN 和 RNN 的組合來設計專門的架構。

使用 LSTM 和 CNN 的組合:Liu 等人(2017) 提出了 Conv-LSTM,它由 CNN 和 LSTM 單元組成。卷積運算用于捕獲空間相關性。卷積運算的輸出用作 LSTM 單元的輸入。在使用他們的 Conv-LSTM 模型來預測交通流量時,他們實現了 9.53% 的 MAPE。此外,它們還包括一個雙向 LSTM 模塊,以包含歷史數據的影響并實現 6.98% 的較低 MAPE。據報道,性能在不同的交通流量水平上是穩定的,因此我們將他們的論文作為擁堵預測模型納入其中。Ranjan 等人(2020)預測了 10、30 和 60 分鐘三個城市范圍內的交通熱圖。由于輸入和輸出熱圖具有相同的維度,因此他們提出了一種對稱的 U 形架構,在兩端(輸入和輸出端)都有 CNN 塊。瓶頸層(最高深度)由四個 LSTM 單元組成,跳躍連接用于連接不同深度的 CNN 輸出。提出的架構稱為 PredNet。該數據集包含基于從韓國首爾收集的空間平均交通速度的交通熱圖。他們數據的時間分辨率為 5 分鐘。擁堵被定義為基于交通平均速度的三級變量。他們報告說 PredNet 的性能隨著輸出范圍長度的增加而穩定。在預測未來 60 分鐘的擁堵時,PredNet 的平均準確率為 84.2%(相比之下,在相同數據上使用 Conv-LSTM 時為 75.67%)。據報道,與本段前面討論的 Conv-LSTM 模型相比,PredNet 的訓練速度要快得多(快 8 倍)。

特別關注路網異質性:一些論文強調了基于路網異質性的擁堵預測任務復雜度的差異。當嘗試在網絡的大部分區域進行多個時間步長的擁堵預測時,尤其會報告此類觀察結果。 Shin 等人(2020) 使用三層 LSTM 網絡來預測從韓國首爾及其周邊地區的城市和郊區收集的數據中的擁堵程度。道路連接總數為 1630,數據以 5 分鐘的分辨率收集了一個月。數據集丟失了 33% 的記錄。為了處理丟失的數據,他們提出了一種基于趨勢過濾的時空異常值檢測和數據校正算法。該模型預測交通速度,根據當地政策制定機構推薦的閾值輸出擁堵程度。該模型的性能在整個交通速度范圍內都是穩定的,因此我們將他們的工作納入到擁堵預測模型中。他們報告了該模型在預測首爾周圍兩種不同類型道路網絡的交通速度時的差異(郊區的 MAPE 為 4.297%,城市道路的 MAPE 為 6.087%)。然而,與城市道路相比,一些郊區道路的平均絕對誤差 (MAE) 更高(城市:2.54 公里/小時,郊區:2.78 公里/小時)。他們承認郊區道路的高 MAE 誤差實際上具有誤導性,因為郊區道路的平均速度更高。從他們的論文中得出的結論是,在應用深度學習來預測擁堵時,不同類型的道路呈現出不同的復雜性。

Cheng等人(2018)提出了一種使用 CNN、RNN 和注意力機制構建的專用架構來預測擁堵水平。他們的數據集稱為 MapBJ,由 4 個月的數據組成,這些數據在北京的 349 個道路連接處以 5 分鐘的時間分辨率收集。基于稱為“限制級別”的速度限制標準化變量,每個道路連接都被標記為四個擁堵級別(流暢、緩慢、擁堵、極端擁堵)之一。沒有給出“限制水平”的確切數學表示,但是,這個想法類似于使用由 () 給出的實際速度與速度限制的比率。將道路網絡轉換為具有代表性的圖,其中道路鏈接表示為頂點,交叉點表示為邊。目標頂點的上游和下游頂點按頂點順序分組。來自不同頂點組的輸入流量狀況被輸入到 CNN 模塊,然后是 RNN 模塊。此后,使用注意力模型為不同的頂點組分配不同的權重。上游和下游道路的單獨模塊允許深入了解上游和下游鏈路對目標鏈路擁堵預測的影響。在預測未來 60 分鐘的擁堵狀態時,觀察到更高階下游鄰居的權重更高。而對于高階上游鄰居,觀察到較低的權重。這樣的分析為需求和交通流量提供了有用的見解。他們使用一種稱為二次加權 Kappa (QWK) 的指標(Ben-David,2008 年)。他們報告的平均 QWK 約為 0.6。QWK 值分別為 0.69、0.63、0.57 和 0.52,分別在 15、30、45 和 60 分鐘進行預測。作為比較,堆疊自動編碼器模型的 QWK 分別為 0.68、0.62、0.56 和 0.49,分別在 15、30、45 和 60 分鐘進行預測。

大規模循環擁堵預測(Congestion propagation) 擁堵傳播可以理解為擁堵預測的一種特例。它研究的是網絡中更大一部分擁堵的演變,而不是通常擁堵預測模型所涵蓋的范圍。擁堵傳播可以和擁堵預測放在同一個標題下研究。然而,在本次調查的文獻搜索過程中,我們發現,當使用深度學習模型預測整個網絡的交通擁堵時,會遇到特殊的挑戰。

Li 等人(2017a)提出了一種稱為 DCRNN 的專門架構。為了預測幾個時間步長(15 分鐘、30 分鐘和 1 小時)的交通流量。使用的數據集是 PeMS。該模型在高峰時段和不同流量水平下的性能沒有變化,因此本文已作為擁堵預測模型包含在內。 DCRNN 由編碼器和解碼器組件組成。編碼器將帶有空間參數的交通流數據編碼成圖形并輸出隱藏狀態。解碼器嘗試使用編碼器的隱藏狀態概率,或使用地面實況數據概率 () 來預測下一步的交通流。在訓練開始時,的值接近 1,在訓練結束時減小到 0。報告的 MAPE 在 15、30 和 60 分鐘內分別為 2.9%、3.9% 和 4.9%。 Andreoletti等人(2019) 還使用 DCRNN 模型將擁堵預測為基于交通密度的二元分類任務。二進制分類的閾值是使用道路鏈接特定負載因子 () 定義的。鏈路的負載因子 () 定義為當前流量密度與平均流量密度的比率()。當設置為 3 時,報告的擁堵預測準確度為 96.67%。在為高值下,假陰性率 (FN) 會增加。較高的 alpha 值意味著只有非常高的交通密度才被歸類為擁堵。=3時似乎是最佳的,假陰性率為 2.4%。為了更好地泛化深度學習模型,閾值的最佳選擇已在隨后出現的論文中進一步探討。

Ma 等人(2015) 使用受限玻爾茲曼機 (RBM) 與遞歸神經網絡 (RNN) 模型相結合來預測擁堵的演變。該數據集包括在中國寧波 515 條道路上行駛的出租車的 GPS 軌跡。他們使用網絡范圍的流量速度閾值來確定預測的流量速度是否意味著擁堵。他們報告的平均準確率為 88.2%。他們的敏感性分析中一個有趣的觀察是閾值的增加會降低模型的性能。他們假設這可能是由于當較高百分比的道路鏈接屬于擁堵類別時,擁堵傳播模式的波動較大。Fouladgar 等人(2017) 使用來自加利福尼亞的 PeMS 數據集,并提出了一個分布式網絡,其中道路網絡的每個交叉點都使用單獨的深度學習模型進行建模。他們結合使用 CNN 和 RNN 架構來預測擁堵程度。為了二值化擁堵,他們引入了節點特定的閾值,而不是網絡范圍的通用閾值,從而使他們的模型與 (Ma 等人, 2015) 的模型相比更具表現力。節點特定的閾值是使用平均速度與速度限制的比率 () 來定義的。他們模型的敏感性分析顯示,隨著擁堵程度的增加,模型的性能下降。他們假設這種下降是由于階級失衡(非擁擠案例的大量數據點)。他們試圖通過優先權衡擁堵嚴重的數據點來彌補這種下降。優先加權是通過修改它們的均方誤差損失函數來實現的,以包括對每個數據點 i 的懲罰 ()。預測流和地面實況之間的差異是。如果數據點 i 的流量小于,則值為1,否則為0。β值是預測誤差的度量。現在,使用變量,當流量超過最大流量的一半時,模型會對錯誤施加額外的懲罰。

Wang等人(2016) 提出了 erRCNN,它是使用 CNN 單元和 RNN 單元構建的。在圖 7 中,我們觀察到當流量超過閾值時,速度-密度曲線變得分散,并觀察到平均速度的突然變化。他們的 erRCNN 架構被證明可以處理這些突然的變化。糾錯 RNN 允許在預測性能因流量狀態變化而下降時更新模型。因此,該模型能夠處理流數據。他們使用了從中國北京的兩條主要環路收集的 GPS 數據集。報告的速度預測 RMSE 在預測范圍為 10 分鐘時的 5 km/h 和預測范圍為 50 分鐘時的 8 km/h 之間變化。此外,為了了解擁堵傳播的來源,他們提出了一個稱為分段重要性的度量標準。每個網段都會影響其他網段的流量。如果所討論的道路有n個路段,則可以假設經過訓練的 errRCNN 模型已經學習到了每個路段在 t+1 時刻的交通速度與每個路段的交通速度之間的映射。數學上,利用這個假設,他們首先將的影響定義為 w.r.t 的導數。最后,他們將一個線段重要性定義為對所有其他線段的影響的總和。然后,他們將具有高路段重要性的路段映射到網絡中的物理位置,并發現一些擁堵源(例如連接兩條高速公路的交叉口)。盡管這些觀察是直觀的,但它們的貢獻是顯著的,因為它揭示了如何使用深度學習模型來提供可解釋的見解,從而促進交通部門的更廣泛接受。

擁堵樹的深度學習:歷史上用于對擁堵傳播進行建模的另一種流行方法利用了擁堵樹的概念。已經嘗試使用深度學習來模擬擁堵樹的演變。當一個路段的擁堵導致相鄰路段的擁堵累積時,就形成了擁堵樹。可以通過去除它們之間的冗余來組合幾個擁堵樹。這就產生了擁堵圖。Di等人(2019)通過組合擁堵樹創建有向無環圖(DAG)來消除擁堵樹之間的冗余。然后將該 DAG 轉換為擁堵級別的空間矩陣,矩陣的每個單元最多代表一個段。空間矩陣有助于保留路段之間的鄰接信息。然后將這些空間矩陣 (SM) 的序列傳遞給 Conv-LSTM 模型,用于在下一個時間步預測 SM。預測的 SM 被轉換回擁堵圖,然后轉換為擁堵樹,然后可用于提供預測的擁堵演變的可視化表示。當使用 5 分鐘的預測范圍時,他們報告了工作日流量的均方誤差 (MSE) 為 0.27,周末流量為 0.07。 15 分鐘的 MSE 為 0.73(工作日)和 0.37(周末)。在他們的結果中,MSE 沒有單位,因為它不是針對交通變量計算的,而是針對空間矩陣計算的。作為比較,當使用 5 分鐘的預測范圍時,LSTM 模型在工作日實現了 0.59 的 MSE,在周末實現了 0.32 的 MSE。

小結:在本小節中,討論了深度學習在預測重復擁堵中的各個方面的應用。本小節的要點總結如下:

表1 總結了第5.1節(用于重復擁堵預測的深度學習)中討論的論文。

  • 我們觀察到,在保持數據集和特定預測任務固定不變的情況下,很少有人嘗試全面比較不同深度學習模型的性能。我們知道,深度學習模型的性能很大程度上取決于超參數的選擇(例如隱藏層數、卷積數、學習率等)。當針對特定任務提出新的深度學習架構時,與以前使用的架構進行公平比較可能不可行。這背后的原因是深度學習模型的最佳性能涉及訓練大量模型以確定最佳超參數集。因此,對之前的所有工作進行如此微調是不合理的。解決方案可能是為每個數據集建立公共基準,同時保持測試、訓練、驗證拆分固定。這種特定于數據集的基準在計算機視覺社區中廣受歡迎。它們可能會顯著減少復制先前論文結果的重復工作。這種基準的另一個好處是減少數據預處理的重復,因為它可能比訓練深度神經網絡本身更耗時。

  • 特別是,在預測網絡大部分時間步長的擁堵時,我們觀察到一些論文中報告了廣泛的敏感性分析,以揭示性能的時間和空間變化。突出這種性能差異導致未來的工作旨在改善深度學習模型的空間和時間泛化。我們相信這是一個很好的趨勢,未來的研究應該包括更多這樣的分析。它還有助于我們了解使用深度學習進行短期流量預測的局限性。根據此處介紹的論文,預測的最大時間范圍似乎是 60 分鐘。我們相信,未來增加預測范圍的嘗試將有助于獲得對基于深度學習的交通擁堵預測解決方案的信任。

  • 我們發現很少有論文提出深度學習模型,這些模型會隨著新數據的到來而更新。這被稱為在線學習。在線學習是一個框架,而不是一個模型。因此,理論上任何深度學習模型都可以集成到在線學習框架中,并且可以演示模型更新。到目前為止,它并不流行,因為研究人員不容易獲得實時交通數據。即使流式傳輸新的流量數據不可用,仍然可以通過使用歷史數據的時間拆分來展示在線學習能力,并在模型在越來越多的數據上進行訓練時評估模型性能。

5.2.針對非重復性擁堵的深度學習

目前還不清楚非重復性擁堵背后的詳細原因(McGroarty, 2010)。隨著新數據源的可用以及新的相關性和因果關系的建立,新的原因也隨之增加。一些經過充分調查的非重復性擁堵原因是交通事故、多變的天氣條件、災難和計劃中的事件。在本次調查中,我們專注于預測事故造成的擁堵的深度學習應用。將重點放在事故上的三個原因。首先,在這個經過充分研究的原因列表中,交通事故是大部分非重復性擁堵背后的主要原因(Hallenbeck 等人,2003 年)。其次,深度學習已被廣??泛用于預測交通事故后的擁堵。第三,調查由其他原因(天氣、計劃事件和災難)引起的交通擁堵最適合使用交通模擬器進行基于場景的研究。此類研究通常在規劃階段進行,因此使用交通模擬器的高計算時間并不構成挑戰(Aljamal 等人,2018 年)。文獻檢索表明,在使用深度學習方法預測交通事故后的擁堵時,特定的深度學習任務存在很大差異。我們將研究分為以下兩類:

? 事故后交通擁堵預測

? 事故后交通擁堵清除時間預測

本小節討論的論文總結在表 2 中。

事故后交通擁堵預測:Sun 等人(2017)提出了一種基于 CNN 的架構來預測事故后的交通流量。從交通信息系統(HERE api)獲得的交通速度數據被轉換為交通熱圖圖像。如果速度 (v) 小于 80 英里/小時,則將像素值設置為 ,否則設置為0。單個閾值用于定義具有兩個類別的二元分類任務——重復性和非重復性擁堵。報告的準確率為 86.6%,誤報率為 13.71%,誤報率為 4.44%(FN:模型錯誤地將非重復性擁堵歸類為重復性擁堵)。他們工作的一個有趣貢獻是使用交叉算子來減少數據不平衡問題(與“無事故”數據點相比,“事故”數據點的數量較少)。交叉是遺傳學中常用的一種技術,通過部分交換親本染色體的遺傳物質來模擬新染色體的產生。他們假設在短時間內收集的各種交通數據點具有相同的事件標簽,因此,對交通熱圖中的隨機位置應用交叉可以在不影響數據質量的情況下增加數據。

Yu 等人(2017)提出了一個混合模型,它有兩個組件,一個由 LSTM 組成,另一個由自動編碼器組成。事件數據被饋送到自動編碼器,交通數據被饋送到 LSTM。最后,將兩個組件的輸出連接起來,并使用一個全連接層來輸出每個傳感器位置的交通速度。他們使用來自美國加利福尼亞州公開可用的 Caltrans 數據集的車輛環路檢測器 (VLD) 速度記錄。在預測 3 小時預測范圍內的事后交通速度時,他們的模型實現了 0.97% 的 MAPE。相比之下,LSTM 模型的 MAPE 為 1.00%,三層前饋神經網絡的 MAPE 為 3.65%。他們工作的一個有趣貢獻是使用信號刺激來研究突然降低輸入速度對模型響應的影響。他們報告說,當刺激僅持續很短的時間(<5 分鐘)時,模型的響應保持不變,從而表明該模型對輸入數據的微小波動具有魯棒性。此外,他們報告說,當在高峰時段注入刺激時,模型響應會被放大。

Fukuda等人(2020) 提出了 X-DCRNN,它是 DCRNN 的擴展,以明確輸入事件數據。他們的數據集是使用微觀交通模擬器 MATES (Yoshimura, 2006) 上的模擬創建的。使用從當地交通部門獲得的元數據校準交通需求。模擬器中的網絡基于日本岡山市的中央商務區,由橫跨 339 個路段的 206 個交通傳感器組成,分布在 3 平方公里。他們的模型預測事故發生后的交通速度,并報告事故段和相應的下游段的錯誤。對于事故路段,報告的 MAE 為 0.74 英里/小時,RMSE 為 0.87 英里/小時。作為比較,在同一數據集上,DCRNN 模型實現了 1.97 英里/小時的 MAE 和 5.64 英里/小時的 RMSE。在預測緊鄰下游路段的交通時,DCRNN 和 X-DCRNN 都達到了相似的性能水平。對于直接下游段,X-DCRNN 實現了 3.68 英里/小時的 MAE 和 6.39 英里/小時的 RMSE。作為比較,DCRNN 模型實現了 3.81 英里/小時的 MAE 和 6.33 英里/小時的 RMSE。

預測擁堵消除時間:擁堵消除時間是評估事故對交通擁堵影響的有用指標。事故發生后,由于受影響車道上的移動受限,交通流量減少。通常,流量最終會降低到最小值,然后恢復。在對擁堵消除時間進行建模時,這里介紹的大多數論文都關注從達到最大擁堵水平(最低流量)到流量恢復到事故前水平的時間之間的持續時間。 Zhang 等人(2019a)使用了具有兩個隱藏層的 FFNN。他們使用從中國上海的 173 個車輛環路檢測器 (VLD) 獲得的平均速度和來自交警記錄的事故數據來創建具有 9 個特征的輸入向量。在預測擁堵清除時間時,他們的模型實現了 40% 的 MAPE 和 8.3 分鐘的 RMSE。作為比較,多線性回歸模型實現了 49.8% 的 MAPE 和 10.22 分鐘的 RMSE。數據集中的事故記錄總數為 4017 條。

Lin 和 Li(2020)利用了這樣一種觀點,即在事故后擁堵的情況下,無法立即獲得有關事故的確切細節。當旁觀者、相關方或應急響應人員評估損壞情況時,可以獲得有關類型、位置、嚴重程度和受影響車道的更多信息。他們提出了一個能夠隨著新信息的到來更新預測的框架。他們將非重復擁堵預測定義為多類分類任務(5 類)。使用事故發生后達到的擁堵延遲指數 () 最大值的閾值來定義擁堵等級。擁堵清除時間定義為,從其最大值恢復到事故前水平所經過的時間。然后,他們預測每種事故的擁堵清除時間。他們提出了一個框架,由具有一個隱藏層的 FFNN 組成,該隱藏層能夠使用在擁堵清除期間可用的新數據更新模型。模型更新功能顯著提高了最嚴重事故等級的性能:RMSE(分鐘)從 10.8 降低到 7.62,MAPE 從 17.4% 降低到 9.33%。他們的數據是使用來自中國北京的匿名導航系統收集的。

Li 等人(2020b)提出了一種稱為融合 RBM 的架構,它是通過連接兩組堆疊 RBM 的輸出而創建的。他們模型的融合方面受到以下事實的啟發:事故數據由分類變量組成,而交通數據是連續的。一個堆疊 RBM 單元將分類事故數據作為輸入,而另一個堆疊 RBM 單元將連續數據作為輸入。最后,將兩個單元的輸出連接起來并通過單個神經元,最終輸出擁堵清除時間。使用 10 分鐘增量(0-10、10-20 等)將預測的擁堵清除時間量化為 10 個級別。報告的 MAPE 為 20.23%,RMSE 為 11.84 分鐘。他們使用了從加利福尼亞 (PeMS) 收集的交通數據和從高速公路安全信息系統 (HSIS) 收集的交通事故數據。他們數據集中的事故總數為 968 起,平均擁堵清除時間為 37 分鐘。

小結:我們討論了深度學習在預測事故后交通擁堵及其通行時間方面的應用。與重復擁堵預測的主要區別在于,必須融合來自多個來源的數據才能預測事故后的擁堵。這里介紹的每篇論文都以不同的方式處理數據融合的挑戰,它們之間幾乎沒有達成共識。對來自多個來源的標準數據融合算法進行基準測試可能有助于為未來的研究人員提供有關最有效的交通數據融合技術的見解。數據融合已在物聯網 (IOT) 社區中得到廣泛研究。物聯網研究的重點是不同設備之間的普遍通信,因此有效的數據融合得到了廣泛的研究。交通研究人員可以從這些來源中汲取靈感,并探索使用有效數據融合技術改進事故后擁堵預測的可能性。Gao等人(2020)比較了不同深度學習架構的數據融合性能。他們調查中提出的大多數架構通常用于基于深度學習的擁堵預測任務,因此使用其中提出的見解會很有趣。預測事故后的交通擁堵也可以根據第 2.2 節中介紹的交通滯后曲線來理解。

表2 總結了第5.2節(用于非重復擁堵預測的深度學習)中討論的論文。

6. 緩解擁堵的深度學習

擁堵緩解技術對于重復性和非重復性擁堵有很大不同。一方面,重復性擁堵是由于基礎設施瓶頸不足以應對交通高峰需求造成的。因此,針對重復性擁堵的深度學習解決方案旨在通過以最佳方式分配需求來降低重復性擁堵的嚴重性。另一方面,非重復性擁堵主要是由于事故造成的。因此,緩解非重復性擁堵的深度學習應用旨在減少事故。深度學習已被廣??泛用于預測事故風險。預測的事故風險可用于提醒駕駛員或施加速度限制以減少事故。在本節的最后,我們討論了減少重復性擁堵的努力與減少非重復性擁堵的努力之間的潛在聯系。如前 5.1 節所述,非重復性擁堵的其他原因,如計劃中的事件、惡劣天氣和自然災害,最適合使用交通模擬器進行基于場景的研究,因此,深度學習尚未廣泛應用于非重復性擁堵由于這些原因。

6.1 用于緩解重復擁堵的深度學習

一旦擁堵預測模型預測出重復擁堵,就可以采取緩解措施來減少擁堵的累積。在網絡層面,這可以通過控制供應參數來實現,例如十字路口的交通信號控制、匝道計量、實施限速限制和實施車道使用限制。在個人層面,這可以通過使用描述性、規范性或混合方法來實現。描述性方法包括向司機廣播有關網絡交通狀況的重要信息,并幫助他們就行程開始時間和選擇的路線做出明智的決定。規定性方法涉及對司機的具體行程建議(例如最佳開始時間和最佳路線選擇)。混合方法使用描述性和規范性方法的組合。由于在這些方法中增加了人類行為建模層,描述性和規范性方法面臨著重大挑戰。在本次調查中,我們關注最近使用深度學習在網絡層面緩解擁堵的研究。

使用需求方解決方案的挑戰:使用描述性和規范性方法緩解擁堵時遇到的挑戰在 Balakrishna 等人(2013)中進行了介紹。最大的挑戰是信息從駕駛員流回網絡。這些信息對于估計建議路線對道路的影響至關重要。他們強烈主張需要大規模跟蹤數據。由于智能手機在城市地區的高普及率,這種實時交通信息越來越多地通過他們的手機傳遞給司機。然而,挑戰來自描述性和規范性解決方案通常組合在一起的事實。當用戶查詢行車路線時,導航應用程序返回的首選路線會包含一些路線建議。這種個性化路線建議的最終目標尚不清楚,因為提供此類服務的公司將移動性作為一種服務提供,而算法細節是商業機密。 2018 年在美國進行的一項調查報告稱,87% 的司機使用一些導航應用程序來獲取行車路線建議(Manifest,2018 年)。谷歌地圖發布的一份報告指出,每天有超過 10 億公里的旅行使用他們的應用程序進行跟蹤(Google,2020)。當這種個性化路線建議的覆蓋范圍和合規性增加時,它可能會改變交通系統中的用戶平衡。由于私營部門的此類努力旨在將路線選擇創建為一種服務,并且確切的方法作為商業機密被隱藏起來,因此很難估計與此類解決方案的公平性相關的潛在缺陷。在缺乏真實數據的情況下,研究人員使用經濟工具來提高合規性,從而減輕對人類行為建模的任務。可以使用懲罰性措施或獎勵來提高咨詢措施的合規性。在這兩種方法中哪一種被證明更有效,這是一個很難做出的選擇。不同地理位置的懲罰措施的有效性相似,而基于獎勵的措施的有效性差異很大(Tillema 等人, 2013, Li 等人, 2019)。兩種常用的懲罰措施是擁堵收費和可交易代幣。de Palma 等人(2018 年)提出了一種比較兩種方法效果的方法,并強烈支持可交易代幣。 de Palma 和 Lindsey(2011 年)討論了使用新興技術實現高效擁堵收費的各種方法。他們的建議之一是自動車牌識別 (ANPR)。深度學習已廣泛應用于 ANPR。但是,本次調查未涵蓋此應用程序。有興趣的讀者可以參考 Connie 等人,2018 年,Khan 和 Ullah,2019 年。Kyaw(2018 年)等人介紹了將 ANPR 應用于發展中國家所遇到的挑戰。

網絡層面的供給側解決方案:我們專注于網絡層面的緩解擁堵的深度學習應用。大多數此類工作都使用深度強化學習。如第 2.1 節所述,強化學習框架有四個主要組成部分:代理、動作、獎勵和環境。策略的概念非常適合交通信號控制問題。可以通過優化獎勵(例如網絡中的最大累積流量)最小化的模型來找到最佳策略(例如,交叉路口不同方向的紅燈和綠燈的順序)。在最近的研究中,深度 Q 網絡 (DQN) 被普遍使用,作者對調查此類解決方案的公平性方面越來越感興趣。交通控制基礎設施(例如交通信號或限速標志)被建模為代理。代理的選擇決定了允許哪些操作。論文根據所選代理分為兩個標題。

? 自適應交通信號控制(TSC)

? 可變限速控制(VSLC)

本小節中討論的論文總結在表3

表3 總結了第6.1 節中討論的論文(使用深度學習緩解經常性擁堵的供應側解決方案)。

6.1.1.自適應交通信號控制 (TSC)

在 Genders 和 Razavi (2016) 中提出了基于 CNN 的 DQN,以便在交通模擬器中對信號控制代理進行建模。目標是通過優化這些代理的行為來最大化網絡范圍的吞吐量。他們根據三個參數分析模型的性能——累積延誤、交叉路口的排隊長度和平均行駛時間。他們為一個交叉口建模,該交叉口有四個路段,四個方向,每個路段有四個車道。車輛以 0 至 450 輛/小時的不同流速裝載。左轉和右轉交通使用逆 Weibull 分布加載 (Rinne, 2008),而直通交通使用 Burr 分布加載 (Tadikamalla, 1980)。使用基于 CNN 的 DQN 來控制交通控制代理的動作,他們實現了 719 秒的累積延遲和 13 輛車的平均排隊長度。作為比較,基于 FFNN 的具有一個隱藏層的 DQN 的平均隊列長度為 33。他們強調了研究 DQN 優化策略的公平性方面的必要性。在沒有模型的公平度量的情況下,算法可能會支持或不支持特定的流量移動。他們斷言,最公平的策略可能不會產生最佳的流量吞吐量——因此,需要通過調整獎勵函數來尋找兩個目標之間的平衡。Yen等人(2020)試圖通過在獎勵函數中加入功率度量來解決這種目標差異。功率度量定義為最大吞吐量與端到端延遲的比值 ()。當功率指標最大化時,吞吐量(流量)最大化,端到端延遲(行程時間)最小化。他們的網絡由九個交叉點(3×3 網格)組成。然而,使用功率度量作為獎勵函數并沒有導致 DQN 模型的收斂。因此,他們使用 DSARSA 而不是 DQN 來實現收斂。 SARSA 代表狀態-行動-獎勵-狀態-行動。它是在 Rummery 和 Niranjan (1994) 中引入的,與 DQN 的不同之處在于下一步行動的選擇。 SARSA 算法使用相同的策略來選擇下一個動作以及更新獎勵函數,而 DQN 使用不同的(貪婪)策略來選擇下一個動作。使用他們基于 CNN 的 DSARSA,他們實現了 35 的功率度量。

在這個方向上的另一個嘗試是 Zeng 等人(2018) ,他們提出了使用基于 LSTM 的 DQN 的 DRQN(深度遞歸 Q 學習)。他們報告說,在由單個四向交叉口組成的合成網絡上使用 DRQN 時,平均等待時間為 17.71 秒。用于裝載車輛的分布是二項式的。基于 LSTM 的 DQN 的性能類似于 Genders 和 Razavi (2016) 中使用的基于 CNN 的 DQN。然而,當穿透率變化時,LSTM-DQN 模型的性能是穩定的。滲透率定義為道路上共享數據的車輛的百分比。當滲透率低于 0.5 時,基于 CNN 的模型表現不佳。在滲透率(意味著所有車輛的數據都可用)下,兩種模型的性能相似。 Genders 和 Razavi (2019) 使用基于前饋神經網絡 (FFNN) 的 DQN 來優化高峰時段的交通控制策略。與傳統使用的交通信號控制驅動方法相比,他們報告說,使用由單個交叉口組成的合成網絡,平均總車輛延誤減少了約 40%(Newell,1989 年)。

本段討論的大部分研究都使用交通模擬器來觀察每個路口交通管制政策變化的影響。我們觀察到 SUMO (Behrisch 等人, 2011) 是為此目的最常用的交通模擬器。 SUMO受歡迎的主要原因是它有一個python接口。 Python 是深度學習研究中最常用的語言,因此與 SUMO 的集成非常順暢。

公平性是 TSC 基于深度學習的解決方案的一個重要因素,以確保交通規劃者和政策制定者廣泛接受此類解決方案。當考慮到優先車輛時,公平的重要性顯著增加。優先車輛包括公共汽車等運輸車輛和救護車等緊急交通工具。研究人員試圖將公平約束納入強化學習解決方案的獎勵功能中。 Dusparic 等人(2016) 使用經典的(不使用神經網絡)強化學習算法并修改了它們的獎勵函數,以便在每次優先車輛在交叉路口排隊時懲罰信號控制代理。深度學習社區采用了類似的懲罰措施,以證明基于深度學習的強化學習解決方案的公平性。Shabestray 和 Abdulhai (2019) 提出了一種使用 DQN 的多模式信號控制器,并分析了對各種交通方式的影響。與本小節中總結的其他研究不同,這是唯一一篇使用真實數據來校準交通需求的論文。他們使用商用交通模擬器 PARAMICS 對代表加拿大安大略省一個城市繁忙部分的 6 個十字路口的道路網絡進行了建模。他們沒有特別確定車輛的優先級,而是在他們的獎勵功能中使用控制器的基于人的性能。這會自動優先考慮人數較多的車輛,這意味著公共汽車的優先級高于汽車;完全占用的總線比部分占用的總線具有更高的優先級。不利的一面是,當使用這種方法時,像救護車這樣的高優先級但人數較少的車輛處于劣勢。Wu等人(2020b)使用在 SUMO 中建模的具有多個交叉口的合成網絡,并提出了一種基于 LSTM 的 DQN 來為車輛分配優先級,并將行人等待時間納入其獎勵函數中。這種在獎勵函數中使用功率度量的概念受到無線網絡文獻的啟發(Kleinrock,2018)。

6.1.2.可變速度限制控制 (VSLC)

與 TSC 類似,VSLC 方法旨在降低即將發生的交通擁堵的嚴重性。具體目標是最大化網絡中的總流量,同時最小化平均行程時間。 VLSC 的強化學習框架的設計類似于 TSC。在這里,VSLC 標志被建模為采取行動的代理。 VSLC 代理允許的行為是在可變信息標牌 (VMS) 上張貼可變速度限制標志。微觀交通模擬器用于評估 VSLC 代理所采取行動的效果。但是,TSC 和 VSLC 在現實世界中實現的潛力有很大不同。 VSLC 在現實世界中實施的挑戰源于驅動程序可能缺乏合規性。因此,為了確保更高的合規性,在制定基于 VSLC 的解決方案時必須考慮駕駛員的舒適度。相比之下,在基于 TSC 的解決方案中,駕駛員合規性問題不大,因為在實踐中,違反交通信號燈的情況遠低于違反交通速度的情況(Wu 和 Hsu,2021 年)。此處總結的研究試圖在使用深度強化學習模型找到最佳 VSLC 時結合駕駛員舒適度指標。

Greguri? 等人 2020 年)提出了一個基于 CNN 的三層 DQN 模型。他們的獎勵函數是三個分量的加權和。第一個組件旨在增加交通流量。第二個組成部分通過對 VMS 發布的速度限制的變化幅度施加限制來確保安全。第三個組件通過最小化 VMS 發布的速度限制中的振蕩來確保駕駛舒適性。他們的網絡使用 VISSIM 微觀交通模擬器進行建模,由 8 公里的高速公路和一個可變信息標志牌 (VMS) 組成。綜合需求足以在網絡上創建 20 分鐘的模擬擁堵。使用他們的 DQN 模型,他們展示了平均速度提高了 13.5%,平均交通密度降低了 25%。Wu等人(2020a)考慮一個未來場景,其中聯網和自動駕駛汽車無處不在。在這種情況下,高合規系數允許 VSLC 代理進行更多動態更改。他們通過應用車道特定的可變速度限制,提出了一個差分車速限制模型。他們訓練了四種不同的模型以獲得不同的獎勵:增加流量、減少旅行時間、減少快速加速和減少排放。與以前的工作相比,本研究中使用的交通需求更加現實。該網絡代表加利福尼亞州一條 850 米的主要高速公路,所使用的需求是使用該高速公路的可用數據進行校準的。交通方式構成為 85% 的乘用車和 15% 的公共汽車和卡車。與無 VSL 的情況相比,他們的 DVSL 模型平均旅行時間減少了 5.8%。他們使用 SUMO 作為他們的微觀交通模擬器,并包含有關如何利用 SUMO 應用程序界面中的不同功能來實現獎勵功能的各種組件的具體細節。

小結:我們討論了深度學習在使用網絡級流量控制來限制供應時的應用。我們觀察到該領域當前研究狀態的兩個主要挑戰,總結如下:

? 用于這些研究的道路網絡的小??規模和交通流的同質性對將研究作為部署選項進行驗證提出了重大挑戰。交通需求是使用數學分布而不是使用真實的交通需求來創建的。這里只有一篇論文使用真實數據來校準他們的需求。其次,DQN 模型的報告性能通常無法與現有的網絡控制方法(如固定相變、驅動)進行比較。相反,使用不同神經網絡架構的 DQN 之間的比較很常見。除非基于 DQN 的解決方案被證明比現有方法執行得更好,否則此類解決方案的實際部署可能會很困難。

? 另一個方面是缺乏用于管理旅行需求的基于深度學習的解決方案。大多數大規模解決方案由私營部門提供,學術研究受到數據可用性的限制。個人出行數據與其他來源融合時,可以揭示有關旅行者的大量信息,因此公眾對共享數據的猶豫是有道理的。我們相信,在研究界廣泛采用安全數據管道可能是在共享數據的用戶中獲得信任的重要一步。物聯網 (IOT) 社區已經探索了隱私保護數據融合技術。 Ding 等人(2019)給出了總結。交通研究人員可以從這些來源中汲取靈感,并采用最佳實踐來保護隱私。

6.2 用于緩解非重復性擁堵的深度學習

事故是非重復性擁堵的主要原因。因此,對短期事故風險的準確預測使我們能夠主動提醒駕駛員注意相同的情況,并可能指示他們降低速度(Ren 等人,2018 年)。最近,深度學習已被廣??泛用于預測事故風險。為了進行事故風險預測,通常的做法是將研究區域劃分為網格,然后預測每個網格中不同時間間隔的事故數量。事故風險預測可以設計為二元預測任務,其中訓練深度學習模型來預測每個網格的標簽(“高風險”或“低風險”)。它也可以設計為回歸任務,訓練深度學習模型以預測電網中潛在的事故數量。本小節討論的論文總結在表 4 中。

展示遷移學習能力 Najjar 等人(2017) 使用衛星圖像作為其模型的輸入。他們使用類似于 AlexNet(圖 2)的模型將事故風險預測為三個級別。 Gupta 等人, 2019, Najjar 等人, 2017 展示了用于事故風險預測任務的遷移學習能力。他們使用來自一個城市的數據訓練他們的深度學習模型,并使用訓練后的模型來預測不同城市(紐約到丹佛;倫敦到紐約)的事故風險。Gupta等人(2019 年)報告使用在倫敦數據上訓練的模型分別預測紐約和丹佛的數據時,準確率分別為 74.77% 和 76.20%。同樣,Najjar 等人(2017) 對來自紐約的數據進行了模型訓練,并獲得了 78.2% 的準確率。然后,他們在使用紐約的模型對丹佛的數據進行預測時報告了可比的性能 (73.1%)。

路網的空間相關性和異質性:路網特征、駕駛員行為和出行需求在空間上存在差異。一方面,這種空間異質性導致深度學習模型的預測性能存在空間差異。另一方面,它提供了利用從位于彼此附近的傳感器收集的數據之間的高度相關性的機會。

Zhao 等人(2018)對交通和事故數據應用主成分分析 (PCA),然后使用具有兩個隱藏層的前饋神經網絡來預測碰撞風險。他們的數據基于英國一年的車禍記錄。 PCA 用于識別數據集中不相關的組件。作者提倡使用 PCA,因為在運輸數據集中,許多相關的傳感器和車輛產生的數據在一定程度上是相關的。他們的實驗結果表明,與不使用 PCA 相比,使用 PCA 時碰撞風險預測的準確性略有提高(1%)。

García de Soto等人(2018) 使用具有一個隱藏層的 FFNN 來預測事故風險。他們定義了三個級別的事故嚴重性,并預測了三個級別中每個級別的風險。他們的數據集基于來自瑞士 13109 個路段的 2 年交通和事故數據。每次事故的數據都被編碼成 10 個特征并用作輸入。他們的敏感性分析表明,如果針對不同的道路類型(例如高速公路和隧道)訓練不同的 FFNN,則平均性能優于對整個網絡使用單個 FFNN,道路類型作為輸入之一。

Yuan 等人(2018)提出了 Hetero-ConvLSTM,顧名思義,它是 ConvLSTM (Xingjian 等人, 2015) 架構的擴展。作者承認道路網絡的異構特征,因此,與以前的工作相比,利用它來產生更好的性能。他們為城市的不同部分訓練不同的神經網絡,然后創建一個集合來預測全市范圍的事故風險。他們報告城市道路的 MSE 為 0.021,農村道路的 MSE 為 0.006。作為比較,LSTM 模型在農村和城市道路上分別達到了 0.187 和 0.042。他們的數據集由 8192 個網格組成,每個網格的面積為 5×5 25 平方公里。它包含來自美國愛荷華州各種來源(天氣、交通、事故、衛星)的 8 年數據。其他研究已經考慮到空間異質性問題。一些例子是 Huang 等人(2019),他提出了一個分層融合網絡來處理數據的時間和空間異質性,以及 Zhou 等人(2019),他們使用注意力模型優先加權網絡相似性因素來預測每小時崩潰風險。 Gupta等人(2019) 使用注意力模型來處理空間異質性,并使用來自倫敦的交通數據報告準確率為 86.21%。

在線學習:Fan等人(2019) 提出了一種在線 FC 深度學習模型來預測事故黑點。他們報告了三種不同天氣類型的準確率,即晴天、陰天和大風天的準確率分別為 88.70%、85.19% 和 83.33%。

表 4 總結了第 6.2 節(深度學習緩解非重復性擁堵)中討論的論文。

6.3 非重復性和重復性擁堵緩解之間的潛在聯系

“事故導致擁堵”的說法是直觀且無可爭議的,但反向因果關系尚未以普遍方式建立。 Retallack 和 Ostendorf (2019) 詳細總結了當前對交通擁堵與??事故之間關系的理解。他們報告說,研究人員在這個問題上遠未達成共識,基于不同類型道路和不同研究國家的研究報告相互矛盾。然而,他們發現擁堵水平和事故之間的 U 形曲線似乎是最近工作中的常見觀察結果,該工作使用了足夠多的數據點(圖 9)。 U 形曲線意味著非常高和非常低的交通密度水平會導致更多的事故。如果 U 形曲線可以在未來的研究中重現,這將對減少事故和擁堵的嘗試產生深遠的影響。如圖 9 所示,這意味著減少事故的努力也會將擁堵減少到最大交通流量的水平(Pasidis,2019 年)。除了事故數量外,另一個需要考慮的重要因素是事故的嚴重程度。確定事故嚴重程度背后的因果關系是道路安全研究的主題,不在本次調查的范圍內。感興趣的讀者可以參考(Wang 等人 ,2013)。

圖 9. 事故與擁堵之間的假設 U 形曲線。在最近的研究中已經觀察到了這樣的曲線。

7 挑戰和未來方向

7.1 挑戰

在本節中,我們總結了在為本調查編寫研究論文時明顯的挑戰。這些挑戰已在特定部分的小結中詳細討論。

7.1.1 識別最先進的模型

為了建立最先進的模型,應該對相關工作進行公平的比較。可以通過一次僅使用一個參數比較性能來確保公平——同時保持所有其他參數不變。確保這種公平性在任何研究領域都是一項具有挑戰性的任務。在這里,我們討論了本調查中討論的預測任務所特有的挑戰。

1.基于不同流量變量的不同擁堵定義:如第 2.3 節所述,可以使用不同的流量變量來定義擁堵。由于這些變量之間缺乏統一的關系,變量選擇的這種差異使得報告的預測性能之間的比較變得困難。

2.同一流量變量的不同量化:即使兩篇研究論文使用相同的流量變量來定義擁堵,它們的量化也可能不同。例如,如果擁堵是根據速度定義的,一篇論文可能會呈現一個二元預測任務('jam' 或 'no jam'),而另一篇論文可能會呈現一個多級變量('low traffic'、'heavy traffic ','完全堵塞')。如果數據集是固定的,二元預測任務通常比多類預測任務更容易解決 (Allwein 等人, 2000)。

3.不同國家的數據分辨率不同:來自不同國家的研究人員可能從事相同的預測任務,但由于數據分辨率的差異,比較他們的性能水平可能是不公平的。這種分辨率差異可歸因于數據收集所需的基礎設施。從發達國家道路上的靜態傳感器收集的數據在空間和時間上可能具有更高的分辨率。數據分辨率的差異意味著手頭預測任務的復雜性不同。數據分辨率的提高是否會使預測任務變得更容易或更困難,這是一個有趣的問題。這種預測任務相對難度的差異可以通過一個例子來更好地解釋。讓我們考慮兩名研究人員 A 和 B 試圖預測接下來 5 分鐘的交通速度。 A 可以以 5 s 的分辨率訪問歷史交通速度數據,而 B 可以以 1 s 的分辨率訪問歷史交通速度數據。現在,如果 A 和 B 都嘗試以 5 秒的分辨率預測交通速度,那么 B 的任務比 A 更容易——因為 B 有更多信息用于同一任務。然而,如果 A 和 B 都試圖以與其輸入數據相同的分辨率(A:5 s;B:1 s)來預測交通速度,那么評論誰的任務更容易變得具有挑戰性。需要注意的是,一些數據源顯著減少了數據分辨率差異的問題。使用分布式傳感器收集的數據(例如 GPS 數據)在不同國家/地區具有相似的分辨率。 Ma 等人(2015 年)已經對預測任務的相對難度的這種差異進行了實證研究。

4.不同長度的預測范圍:不同長度的預測范圍導致預測任務的復雜程度不同。如 Yu 等人(2017)所述,當預測范圍的長度增加時,大多數模型的性能都會下降。隨著預測范圍的增加,這種性能下降是整個研究的共同發現(Wang 等人,2016 年,Di 等人,2019 年)。我們想強調一個明顯的事實,即預測范圍的長度和預測任務的有用性成反比。

5.用于衡量績效的不同指標:在比較不同的研究時,選擇不同的績效指標會帶來困難。使用一個指標展示卓越的模型性能并不一定意味著使用其他一些指標時的卓越性能。擁堵預測任務是不平衡數據集的示例,因此分類任務最常見的指標(例如準確性)通常具有誤導性。在這種情況下,只有在與攜帶補充信息(例如,誤報率)的其他指標一起報告時,準確性才有意義。 Sokolova 和 Lapalme (2009) 對分類任務的指標選擇進行了系統研究。

6.交通流異質性的差異:由于不同類型車輛的混合和駕駛行為的高度差異,交通流異質性在發展中國家很常見。相應地,當深度學習模型用于發展中國家的擁堵相關任務時,我們觀察到模型性能的系統性下降。我們觀察到這種趨勢在每個擁堵檢測、預測和緩解部分都是有效的。

最近嘗試在各個領域定義和維護最先進的技術是 //paperswithcode.com/sota。他們的網站為不同領域的不同任務提供排行榜,包括流量預測領域。這個門戶在機器學習社區中逐漸流行起來。

7.1.2 缺乏在線學習

在線學習(通常稱為持續學習)是指隨著新數據的到來而更新模型的過程。在沒有在線學習的情況下,研究人員會在嘗試對系統的行為進行建模之前收集所有數據。然后,他們將數據點分成三部分——訓練、驗證和測試。該模型使用訓練數據進行訓練。為了調整超參數(例如神經網絡中的層數),模型性能在驗證數據上進行評估。最后,在整個訓練過程完成后,在測試數據上評估模型性能。如果驗證數據和測試數據的模型性能相似,則該模型可以很好地泛化。上述方法似乎符合機器學習的標準做法。然而,一個重要的警告是,原則上,測試數據的標簽不僅對模型而且對建模者都是不可見的。當建模者事先可以獲得測試數據時,需要格外小心以確保不會發生任何形式的目標泄漏。 Wujek 等人(2016) 總結了避免任何無意目標泄漏的最佳實踐。

在線學習完全解決了這一挑戰。此外,在線學習幫助我們更緊密地模擬現實世界的場景。在流量預測模型的實際部署中,測試數據只有在解決方案部署后才可用。但是,我們找不到很多使用具有在線學習能力的模型的研究論文示例。這可能是由于實時交通數據被轉發給研究人員的安全和隱私問題。

7.2 結論和未來的研究方向

本小節強調了未來研究的可能方向。提出這些方向是為了應對上一小節中提出的挑戰。在這里,我們強調了數據標準化的重要性、與其他工作領域的潛在協同作用以及基于模擬和深度學習方法在交通預測任務中的潛在協同作用。

7.2.1.標準化數據集和競賽

深度學習的成功是優質數據如何改變工作領域的一個例子——最著名的例子是計算機視覺 (CV)。 CV 是指與從圖像中提取信息有關的任務的總稱。特定 CV 任務的一些示例是對象定位、圖像分類和面部識別。考慮到一些限制,深度學習方法在 CV 任務上已經達到了接近人類的性能水平。 CV 研究的兩個最大推動力是 ImageNet (Deng 等人, 2009) 數據集的發布及其在 Pascal 視覺對象識別中的使用 (Everingham 等人, 2010)。人們注意到,已經存在了幾十年的深度神經網絡在 ImageNet 上訓練時開始表現得非常好。

對于交通擁堵預測領域,訪問標準化數據集會出現幾種新的可能性。首先,深度學習模型的性能隨著優質數據量的增加而提高。其次,對公共數據庫的訪問可以讓從業者以明確的方式建立最先進的技術。第三,它可以為遷移學習開辟道路,在這種情況下,在龐大的交通數據集上訓練的深度神經網絡可以很容易地應用于可能無法獲得交通數據的新城市(Tan 等人, 2018)。除此之外,標準化還解決了上一小節中提到的訓練-驗證-測試拆分問題,因為參與比賽的個人看不到測試數據。

交通預測數據標準化的一些獨家成就有(Snyder 和 Do,2019 年),(Wang 等人,2018 年,Cheng 等人,2018 年,Moosavi 等人,2019 年)。在“蒙特利爾理工學院智能交通和道路安全研究”網站上維護了最新的公開交通數據來源列表,但視頻和圖像構成了列表的大部分。流量預測任務在機器學習大會的競賽賽道上也越來越受歡迎。最近的一些例子是 2020 年 NIPS 的 traffic4cast 比賽和 2020 年 CVPR 的 Night-owls 比賽。

7.2.2 其他領域的類似預測任務

使用機器學習進行互聯網流量分類的論文在無線網絡社區中已經流行了很長時間。無線網絡中的一些預測任務類似于流量預測。來自無線網絡領域的調查論文可能為交通研究人員提供了寶貴的想法。相關調查的一些例子包括(Mao 等人, 2018, Zhang 等人, 2019b, Nguyen and Armitage, 2008)。路由協議是交通網絡中交通信號控制策略的對應物。因此,無協議無線路由類似于自適應信號控制。 Tang 等人(2017)討論了使無線網絡擺脫(固定)協議的問題。 Yu等人(2019)研究使用深度強化學習來處理無線網絡中的異構性。類似地,無線網絡的擁堵感知路由(Chen 等人, 2007)是交通中的擁堵緩解算法的對應物。天氣預報是預測任務和數據集類似于交通的另一個領域。一個經典的例子是(Xingjian 等人, 2015),促使其在流量方面的大量應用(Wang 等人, 2020a)。

7.2.3 模型驅動和基于深度學習的方法之間的協同作用

深度神經網絡具有很高的預測能力,與校準交通模擬器相比,可以更快、更輕松地進行訓練。深度學習模型缺乏可解釋性。當這兩種方法結合使用時,深度學習研究人員可以利用交通模擬器固有的可解釋性。這種協同作用已經在基于深度強化學習的交通信號控制方法中得到探索。一些研究人員使用微觀交通模擬器來生成擁堵標簽數據,從而解決類別不平衡問題。需要在這兩種方法之間產生協同作用的方向上做出更多努力。

其他

這項工作是新加坡-ETH 中心 (SEC) 未來彈性系統項目的成果,該項目由新加坡總理辦公室國家研究基金會在其卓越研究和科技企業 (CREATE) 計劃下提供支持。

付費5元查看完整內容

深度是深度神經網絡的關鍵,但更多的深度意味著更多的序列計算和更多的延遲。這就引出了一個問題——是否有可能構建高性能的「非深度」神經網絡?

近日,普林斯頓大學和英特爾實驗室的一項研究證明了這一觀點的可行性。該研究使用并行子網絡而不是一層又一層地堆疊,這有助于在保持高性能的同時有效地減少深度。

論文地址://arxiv.org/abs/2110.07641

通過利用并行子結構,該研究首次表明深度僅為 12 的網絡可在 ImageNet 上實現超過 80%、在 CIFAR10 上實現超過 96%、在 CIFAR100 上實現 81% 的 top-1 準確率。該研究還表明,具有低深度主干網絡的模型可以在 MS-COCO 上達到 48% 的 AP 指標。研究者分析了該設計的擴展規則,并展示了如何在不改變網絡深度的情況下提高性能。最后,研究者提供了關于如何使用非深度網絡來構建低延遲識別系統的概念證明。

付費5元查看完整內容

幾十年來,不斷增長的計算能力一直是許多技術革命背后的推動力,包括最近在人工智能方面的進步。然而,由于集成電路進程規模的放緩,對于系統架構師來說,要繼續滿足當今應用不斷增長的計算需求,他們現在必須采用具有專門加速器的異構系統。

然而,建構這些加速器系統是極其昂貴和耗時的。首先,硬件的開發周期是出了名的長,這使得它很難跟上算法的快速發展。同時,現有的編譯器無法導航由新型加速器架構暴露的棘手映射空間。最后算法的設計通常沒有將硬件效率作為關鍵指標,因此,在設計高效硬件方面提出了額外的挑戰。

本文解決了聯合設計和優化算法、調度和加速硬件設計的重大挑戰。我們的目標是通過三管齊下的方法來推進最先進的技術: 開發從高層抽象自動生成加速器系統的方法和工具,縮短硬件開發周期; 適應機器學習和其他優化技術,以改進加速器的設計和編譯流程; 以及協同設計算法和加速器,以開發更多的優化機會。

本文的目標應用領域是深度學習,它在計算機視覺、神經語言處理等廣泛的任務中取得了前所未有的成功。隨著智能設備的普及,可以預見,深度學習將成為我們日常生活中的主要計算需求。因此,本文旨在通過硬件加速進行端到端系統優化,釋放前沿深度學習算法的普遍采用,改變生活的各個方面。

//www2.eecs.berkeley.edu/Pubs/TechRpts/2021/EECS-2021-202.html

付費5元查看完整內容

隨著深度學習在移動端的興起,推理延遲(inference latency)已經成為在各種移動和邊緣設備上運行深度神經網絡(DNN)模型的一個重要指標。為此,預測DNN模型推理的延遲非常必要,尤其是對于無法在真實設備上測試延遲或者代價太高的任務,例如從巨大的模型設計空間中尋找具有延遲約束的有效的DNN模型。然而,由于不同邊緣設備上運行時(runtime)的不同優化導致了模型推理延遲的巨大差異,準確預測推理延遲仍然非常具有挑戰性。目前,現有方法無法實現高精度的預測。

//air.tsinghua.edu.cn/Uploads/UEditor/Files/20210709/63766118804429.pdf

在本文中,我們提出并開發了 nn-Meter,可高效、準確地預測 DNN 模型在不同邊緣設備上的推理延遲。它的關鍵思想是將整個模型推理劃分為內核(kernel),即設備上的執行單元,然后執行內核級預測。nn-Meter 建立在兩個關鍵技術之上:

內核檢測:通過一組設計好的測試用例來自動檢測模型推理的執行單元; 自適應采樣:從大空間中有效地采樣最有益的配置,以構建準確的內核級延遲預測器。

我們在三個常用的邊緣硬件平臺(移動 CPU、移動 GPU 和Intel VPU)上實現了nn-Meter系統、并使用包含26,000個模型的大型數據集進行評估,結果nn-Meter的表現明顯優于先前的最好方法。

付費5元查看完整內容

近年來,自然語言處理(NLP)和信息檢索(IR)領域取得了巨大的進展,這要歸功于深度學習模型,如回歸神經網絡(RNNs)、門控回歸單元(GRUs)和長短時記憶(LSTMs)網絡,以及基于Transformer (Vaswani et al., 2017)的雙向編碼器表示模型(BERT) (Devlin et al., 2018)。但這些模型都是巨大的。另一方面,現實世界的應用程序要求較小的模型尺寸、低響應時間和低計算功率。在這個綜述中,我們討論了六種不同類型的方法(剪枝、量化、知識蒸餾、參數共享、張量分解和基于線性變壓器的方法)來壓縮這些模型,使它們能夠在實際的工業NLP項目中部署。考慮到構建具有高效和小型模型的應用程序的迫切需要,以及最近在該領域發表的大量工作,我們相信,本論文調研組織了“NLP深度學習”社區在過去幾年里所做的大量工作,并將其作為一個連貫的故事呈現出來。

//www.zhuanzhi.ai/paper/3fba50f6f54fa8722b1c7fd56ec0bcfb

付費5元查看完整內容

過去的十年見證了深度學習(DL)應用數據量的巨大增長。因此,深度神經網絡(DNNs)的訓練時間過長已經成為機器學習(ML)開發者和研究者的瓶頸。例如,在8個P100 gpu上完成90-epoch ImageNet/ResNet-50的訓練需要29個小時。在16個v3 TPU芯片上完成BERT預訓練需要81小時。本文主要研究的是快速準確的ML訓練。盡管生產團隊希望充分利用超級計算機來加速訓練過程,但傳統的優化器無法擴展到數千個處理器。在本論文中,我們設計了一系列基本的優化算法來提高DL系統的并行度。我們的算法為谷歌、英特爾、騰訊、英偉達等最先進的分布式系統提供支持。本文的重點是彌合高性能計算(HPC)和ML之間的差距。

在2017年HPC和ML之間有很大的差距。一方面,我們擁有強大的超級計算機,每秒可以執行2x10^17個浮點運算。另一方面,我們甚至不能充分利用1%的計算能力來訓練一個最先進的機器學習模型。原因是超級計算機需要極高的并行度才能達到其峰值性能。然而,高并行性導致ML優化器的收斂性很差。為了解決這個問題,我和我的合著者提出了LARS優化器、LAMB優化器和CA-SVM框架。這些新方法使ML訓練擴展到數千個處理器而不會失去準確性。在過去的三年里,我們觀察到ResNet-50的訓練時間從29小時下降到67.1秒。事實上,自2017年12月以來,所有最先進的ImageNet訓練速度記錄都是由LARS創造的。LARS在MLPerf v0.6中成為行業指標。此外,即使沒有超級計算機,我們的方法也比現有的求解器要快。如果我們固定訓練預算(例如1個GPU 1小時),我們的優化器可以達到一個更高的精度比最先進的基線。

付費5元查看完整內容
北京阿比特科技有限公司