未來的不確定性、復雜的軍事系統的相互依賴性和裝備軍隊的昂貴的公共投資,使國防投資優先次序(DIP)成為任何國家最難做出的決定之一。它們的難度和重要性促使SAS-134號文件對文獻進行調查并制定指導,以幫助各國做出最有可能實現預期國家成果的DIP決策。在文獻的基礎上,我們編制了一份關于國家DIP實踐的105項調查問卷,涉及投資規劃的時間框架和過程、投資目標和偏好的發展、用于分析的運籌學(OR)方法、成本類別和資源限制的處理、以及投資互動和風險的處理。根據13個國家的答復,該調查發現運籌學方法的使用是有限的,而且方法也有很大差異。大多數國家認為資金是一個堅實的制約因素,一些國家建立了運營預算模型,但沒有其他成本類別。DIP設計的多樣性表明,程序性指導不如指導性原則有用,我們從文獻中提供了決策質量結構,以便各國在認識到需要時評估和推進自己的決策過程。
SAS-134研究任務組"將戰略投資和撤資與國防成果聯系起來 "的啟動是為了從文獻和對當前國際慣例的調查中確定在計劃投資組合(PIP)中確定國防投資優先次序的最佳做法的實質性指導。對一些相關文獻的調查為制定和解釋國家間國防投資優先次序(DIP)的做法提供了依據。在第2.0節中,我們介紹了最相關的文獻和相應的見解,然后介紹我們解釋調查結果的結構。在第3.0節中,我們描述了調查的發展和執行,并在第4.1-4.6節中總結了調查結果,然后在第5.0節中簡要總結。
有效的項目管理有賴于對風險的細致和精確的量化。根據Kaplan和Garrick(1981)的說法,風險是概率和影響。然而,影響往往是多維的,包括進度維度、安全維度、財務維度或技術維度等。本文打算介紹利用統計科學將多個風險維度合并為一個數值。在美國國家航空航天局(NASA)的許多項目中都使用了一種叫做MRISK的多維風險工具來評估和確定風險和緩解措施的優先次序。此外,本文將總結北約盟軍司令部轉型(ACT)目前的風險管理準則,并將告知北約ACT在風險評估和管理方面可以從統計科學中獲益的潛在方式。
MRISK工具是由博思艾倫咨詢公司在NASA蘭利研究中心開發的。我曾作為MRISK的開發者,通過這篇論文,我旨在提高對定量風險評估的認識,并介紹其在北約ACT的潛在應用。博思艾倫咨詢公司撰寫的MRISK原始論文是美國國家航空航天局的專利,并存放在美國國家航空航天局科學和技術信息(STI)庫中。本文所表達的觀點僅代表我個人,不代表我以前或現在的雇主的觀點或意見。
所有的項目,無論其組織、復雜性、時間框架或目標如何,都會有風險。項目管理協會將風險定義為 "一個不確定的事件或條件,如果它發生,會對一個或多個目標產生積極或消極影響"。一個積極的風險被認為是一個機會,而一個消極的風險被認為是一個威脅。大多數情況下,風險管理意味著威脅管理。鑒于,不可能避免項目威脅,有效的項目管理必須包括成功管理它的方法。特別是考慮到減輕風險的缺陷最終會給聯盟帶來大量的資金,以及戰爭能力發展和進展的潛在滯后,它被證明是項目管理的一個重要組成部分。
風險管理包括風險識別、風險評估和風險應對。風險評估階段的目標是定性和/或定量地評估風險的概率和影響。傳統上,風險評估是定性進行的,這意味著它依賴于對單個風險的概率和影響的判斷。判斷可以基于過去的經驗、可比較的項目、或項目主題領域的專業知識。以這種方式進行的風險評估可以由一個人完成,也可以在一個有不同利益相關者和專家的團隊環境中完成。然而,僅僅是定性的風險評估并不總是充分的。
如果風險評估的主要目的是對風險進行優先排序,以確定哪些風險需要進一步研究和應對,那么定性評估就可能是足夠的。相反,如果風險評估需要高度的精確性和更多的結論性評價,那么定量評估與定性評估一起進行將對項目有益。
任務規劃對于建立成功執行任務所需的形勢意識至關重要。全面的計劃有助于預測不同的情況,這一點尤其重要,因為威脅的多樣性和復雜性會增加。規劃過程是團隊的努力,需要收集、分析相關信息并將其整合到一個全面的計劃中。由于第5代平臺、傳感器和數據庫生成的大量信息,這些過程面臨壓力。
本文描述了初始直升機任務規劃環境的創建,在該環境中,來自不同來源的數據被整合、分析和可視化。參與規劃過程的所有人員都可以查看所有可用信息并與之交互。算法處理傳入的數據,為計劃的特定部分提供潛在的解決方案。交互式可視化有助于直觀理解輸入數據和算法輸出,而交互式增強現實環境有助于有效協作。
集成系統和算法是未來智能協作任務規劃的重要組成部分,因為它們可以有效處理與第5代平臺相關的大量多樣的數據流。結合直觀的可視化和協作,這使工作人員能夠構建靈活且響應迅速的操作所需的共享SA。
美國、她的盟國和對手正在為民用和軍事應用擁抱計算環境和技術(以下簡稱AI)的進步。我們的工作建議探討自主和半自主系統中的一個核心矛盾,即無人系統的部署長度(停留時間)與因不定期維護導致的單個系統故障和因對手行動導致的故障之間的基本權衡。本文的獨特之處在于,它將從政策的角度以及應用統計學的角度來探討這個問題,并為更廣泛的無人系統的采購和使用提供見解。
信任一個無人系統意味著什么?這個看似無關緊要的問題是無人駕駛技術的各種民用和軍用應用中的一個核心問題。隨著世界變得越來越自動化,人類看護者的監督越來越少,自主系統將在有限的監控下長期忍受下去。雖然具有長時間續航能力的自主系統可以成為民用和軍用海上監測的寶貴資產,但自主系統群的衰落是一個不可避免的現實。但是,預期的衰減速度和實際速度之間的差異可以為無人系統星座的惡意干擾提供一個早期指標。
上述分析提出了一個重要的問題,那就是當檢測到沒有反應而假定某個系統被摧毀時的故障歸屬。如果無響應是系統失敗的唯一指標,它可能是由各種因素造成的,包括環境、機械故障或最令人擔憂的損耗,我們將其定義為旨在使無人駕駛系統喪失功能并加以摧毀的惡意敵方行動。使用這個定義,損耗與失敗是分開的,因為失敗是由不涉及有目的的敵方行動的情況造成的。對于軍事平臺來說,損耗是最嚴重的情況,因為這些平臺上可能攜帶著操作員不希望落入對手軍隊手中的機密傳感器和有效載荷。
同樣,了解自然退化模式可以使一個國家以一種難以區別于隨機故障的方式使對手的系統退化。這樣的方法可以使一個國家有能力參與進攻性行動,或者在紅方參與軍事行動之前限制藍方對跡象和警告(I&W)的探測。 我們在本說明中的貢獻是在一個統一的結構中考慮無人駕駛系統退化的可靠性和博弈方面。我們的論文結構如下。在第二節中,我們從應用數學和政策的角度回顧文獻。在第三節中,我們對可靠性和博弈論進行了初步的、數學上的統一闡述。在第四節中,我們探討了具體的方案,最后總結了結論并為未來的分析提供建議。
應對氣候變化對北約具有戰略意義。對可能的氣候措施和后果進行充分知情的決策支持分析將決定北約如何很好地應對這一挑戰。環境科學和軍事行動分析的結合將使各國和聯盟能夠做出明智的決定,有可能減少溫室氣體排放和成本,并提高行動效率。
挪威國防部已責成挪威國防研究機構(FFI)在軍事要求規定的范圍內研究挪威武裝部隊減少溫室氣體排放的潛力。
我們對挪威武裝部隊未來的排放量進行了建模,并對七項措施的減排量和成本進行了量化。總的來說,這些措施有可能使溫室氣體排放相對于未來排放的基線減少15-30%,平均估計為22%。此外,我們還確定了幾個同樣重要的措施,這些措施的減排量可能難以量化。
武裝部隊的軍事平臺有很長的服務壽命。現在投資于能源效率低下的解決方案將在未來許多年內產生排放和成本。因此,我們建議,排放預測在采購決策和長期國防規劃過程中得到更突出的作用。
挪威武裝部隊的活動對環境產生了一些負面影響。鑒于武裝部隊任務的性質,其中一些影響是不可避免的。對環境的影響進行了持續的調查,并每年進行報告。國防部門的溫室氣體排放在國際和國內得到了越來越多的關注,挪威國防部責成挪威國防研究機構(FFI)研究減少挪威武裝部隊溫室氣體排放的潛力。
本文的目的是在軍事要求規定的范圍內,對這種潛力進行建模。這項研究并不包含國防部門可能的環境措施的完整清單。我們已經優先考慮了目前知識缺乏的領域。我們還考慮了一個新提出的海上戰爭替代概念的排放效應。這不應該被理解為一種減排措施,它是一種提高能力和降低成本的措施。然而,我們希望證明這樣一個概念的排放后果,并將其作為一個例子,說明如何在國防部門利用技術來實現更多的氣候效率解決方案。
在本章中,我們將簡要地討論氣候變化和對挪威武裝部隊可能產生的后果。在接下來的章節中,我們將說明我們的分析方法和數據、結果和結論。
人工智能領域的進展繼續擴大這組技術的潛在軍事應用范圍。本文探討了信任在人機聯合作戰中的關鍵作用,以及依靠人工智能來補充人類認知的潛在影響。如果依靠人工智能來準確處理傳感器數據,操作自主系統和平臺,或通過擬議的作戰概念(如以決策為中心的戰爭)提供有利的決策支持,設想機器智能的中央指揮和控制作用,那么信任機器智能將是未來作戰中的一個關鍵組成部分。鑒于這些技術和理論的發展,信任的概念對于機器智能在戰術和作戰層面的軍事行動中的使用變得高度相關,正確校準的信任水平是安全和有效行動的基礎。在簡要回顧了機器智能的最新進展和對信任概念的探索之后,本文概述了人工智能在戰場上的當前和潛在應用,以及由不充分或不合理的高信任度帶來的挑戰。
縱觀歷史,技術已經擴大了武裝沖突的領域,戰術交戰的節奏,戰場的地理范圍,以及指揮官與部隊溝通的手段。技術創新--包括軍事和民用--改變了軍隊的作戰方式以及國家計劃和進行這些沖突的方式。在21世紀,迄今為止,很少有進步能像統稱為人工智能(AI)的一組技術那樣獲得如此多的關注。人工智能正準備迎來一個新的時代,在這個時代,機器智能和自主性正在為軍事行動的規劃和執行產生明顯的新概念。算法戰爭可能會帶來一些獨特的東西:增強甚至取代人類決策過程的系統,其速度可能超過人類規劃者的認知能力。
新興技術的整合提出了任何數量的基本組織和倫理問題,值得關注。本文將采用定性的社會科學方法,重點討論人類-自治團隊(HAT)的一個重要方面:鼓勵對機器智能的適當信任程度。有大量的學術文獻關注自動化或機器人技術中的信任問題,但有關具體軍事應用的工作較少。當人工智能在聯合作戰中被實際部署時,在信任方面有哪些挑戰和機會?在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,本文在分析鼓勵適當信任水平的陷阱和潛在解決方案之前,探討了信任和信任校準的概念。
幾十年來,人類一直對賦予機器某種形式的人工智能的可能性著迷,Nils Nilsson將其定義為 "致力于使機器智能化的活動,而智能是使一個實體在其環境中適當運作并具有預見性的品質"。在數字時代的早期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析一個特定的數據集。對于具有可預測規則的明確定義的環境--諸如分析實驗室結果或下棋等應用--專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法的質量。另一大類使用自下而上的機器學習方法,模擬人類通過檢測數據中的模式進行學習的方式。神經網絡是一種以人腦為模型的機器學習形式,能夠通過使用多個(因此是 "深")人工神經元層來識別復雜的模式,是被稱為 "深度學習 "的技術的基礎。通過其在數據集中尋找關系的能力,這種技術也被稱為 "連接主義"。
自上而下、基于規則的符號系統和自下而上的機器學習連接主義技術之間的差異是很大的,特別是關于它們的潛在應用范圍和靈活性。深度學習方法的顯著特點是能夠將學習與它所訓練的數據集分開,因此可以應用于其他問題。基于規則的算法可以在狹義的任務中表現得非常好,而深度學習方法能夠迅速找到模式,并在 "蠻力 "專家系統計算方法無效的情況下有效地自學應用。最近的一些人工智能進展顯示了模仿創造力的能力,產生了有效的解決問題的方法,這些方法對人類來說可能是反直覺的。
然而,總的來說,人工智能仍然是狹窄的或 "脆弱的",即它們在特定的應用中功能良好,但在用于其他應用時仍然不靈活。與人類的認知相比,鑒于機器的計算速度遠遠超過人腦,機器智能在將邏輯規則應用于數據集時要優越得多,但在嘗試歸納推理時,它必須對數據集或環境進行一般性的觀察,這就顯得不足。大多數機器學習仍然需要大量的訓練數據集,盡管新的方法(包括生成對抗網絡(GAN)和 "小于一次 "或LO-shot學習)正在出現,需要非常小的數據集。圖像識別算法很容易被混淆,不能像人類那樣立即或直觀地理解情景背景。這種脆性也延伸到了其他問題,比如游戲。雖然人工智能在視頻游戲中經常表現出超人的能力,但他們往往不能將這種專業知識轉移到具有類似規則或玩法的新游戲中。
雖然人工智能技術繼續在變得更加適應方面取得重大進展,但任何接近人類的人工通用智能仍然難以實現。評估人工智能的近期前景因該技術的漸進式進展而變得更加復雜。圍繞著人工智能的炒作--在很大程度上被深度學習方法的成功所推動--既導致了對該技術未來的不切實際的期望,也導致了對其非常大的進展的正常化。正如一份報告所指出的,"人工智能將一項新技術帶入普通人的視野,人們對這項技術習以為常,它不再被認為是人工智能,而出現了更新的技術"。盡管象征性的人工智能和各種形式的機器學習構成了該領域最近的大部分進展,也許除了融合這兩種方法的嘗試之外,未來仍然不確定。一些人猜測,機器學習技術帶來的進展可能會趨于平穩,而另一些人則保持樂觀。相關的技術進步,如短期內的計算機芯片設計和長期內的量子計算,可能會影響進一步進展的速度。
在過去的兩年中,海牙戰略研究中心(HCSS) 在軍事背景下對機器人和自主系統 (RAS) 進行了研究,涉及多個方面和困境。在這篇關于 RAS 實施的論文中,其希望激發思考并激發讀者反思 RAS 的未來使用,為 2035 年提出適合“Operationeel Kader voor het Landoptreden”的建議(并將這些建議與預見的“2035 年防御”)并考慮到 2045 年實施 RAS 的建議。
展望未來的理由是雙重的。首先,必須在 RAS 的開發和實施早期解決重大問題。許多技術仍處于起步階段,同樣,我們對 RAS 的政治、戰略、戰術和運營應用的理解也處于早期階段。第二個原因源于人們傾向于在短期內高估技術的成熟度,而在長期內低估技術發展的速度。因此,通過使用短期和長期的時間范圍,創造了開箱即用的思考空間,同時提供了計劃一個看似合理但尚未準備好的未來的機會。
本文評估了在武裝部隊尤其是陸軍中實施 RAS 的一些相關要素。它提出了有關概念和條令的制定、如何組織對 RAS 的指揮和控制以及這些變化對人員(包括他們的培訓)、后勤、基礎設施、組織流程和領導力的影響的問題。在此背景下,本文就必須制定哪些發展路線或政策、應制定的時間框架以及這些政策的先決條件提出建議。
基于 HCSS 在整個為期兩年的項目中進行的研究,即軍事背景下的機器人和自主系統,就與實施 RAS 相關的幾個困境和問題進行了詳細說明。在該項目期間,已就操作應用、道德困境、法律方面、協作以及概念開發和實驗 (CD&E) 編寫了論文。
RAS實施過程中的困境和相關問題
作為本文的第一步,通過預期的合理情景和分析的簡短陳述或出發點構建未來前景。該場景位于 2045 年。選擇將場景分解為個體故事片段是為了使其盡可能具體,并確保它對不同的觀眾具有相關性和可理解性。所有片段中都集成了在兩年研究期間確定的困境或問題。在場景部分(以及隨后的整篇論文)中,引入了新術語,例如“wolfpack”、“fleet”和“line”來描述軍事指揮級別。這使我們能夠脫離關于指揮級別的傳統思維。
所進行分析的第二步是構建未來的 RAS 單元。從研究論文中獲得的關于 RAS 的軍事適用性的見解被考慮在內,然后推斷為一組合理的未來系統。為了建造未來的 RAS 單位,這些系統被組合成一個與當今戰斗旅稍有相似的單位。
第三步描述了四個發展路線,詳細解釋了在武裝部隊中實施 RAS 所需的條件。此時,HCSS 使用嚴肅的游戲工具進行了專家會議,以收集進一步的見解并驗證我們的想法。
Drone Wars UK 的最新簡報著眼于人工智能目前在軍事環境中的應用方式,并考慮了所帶來的法律和道德、作戰和戰略風險。
人工智能 (AI)、自動決策和自主技術已經在日常生活中變得普遍,并為顯著改善社會提供了巨大的機會。智能手機、互聯網搜索引擎、人工智能個人助理和自動駕駛汽車是依賴人工智能運行的眾多產品和服務之一。然而,與所有技術一樣,如果人們對人工智能了解甚少、不受監管或以不適當或危險的方式使用它,它也會帶來風險。
在當前的 AI 應用程序中,機器為特定目的執行特定任務。概括性術語“計算方法”可能是描述此類系統的更好方式,這些系統與人類智能相去甚遠,但比傳統軟件具有更廣泛的問題解決能力。假設,人工智能最終可能能夠執行一系列認知功能,響應各種各樣的輸入數據,并理解和解決人腦可以解決的任何問題。盡管這是一些人工智能研究計劃的目標,但它仍然是一個遙遠的前景。
AI 并非孤立運行,而是在更廣泛的系統中充當“骨干”,以幫助系統實現其目的。用戶不會“購買”人工智能本身;他們購買使用人工智能的產品和服務,或使用新的人工智能技術升級舊系統。自主系統是能夠在沒有人工輸入的情況下執行任務的機器,它們依靠人工智能計算系統來解釋來自傳感器的信息,然后向執行器(例如電機、泵或武器)發出信號,從而對機器周圍的環境造成影響.
人工智能被世界軍事大國視為變革戰爭和獲得戰勝敵人的優勢的一種方式。人工智能的軍事應用已經開始進入作戰使用,具有令人擔憂的特性的新系統正在迅速推出。與軍事和公共部門相比,商業和學術界已經引領并繼續引領人工智能的發展,因為它們更適合投資資金和獲取研究所需的資源。因此,未來人工智能的軍事應用很可能是對商業領域開發的技術的改編。目前,人工智能正在以下軍事應用中采用:
人工智能和英國軍事
綜合審查和其他政府聲明毫無疑問地表明,政府非常重視人工智能的軍事應用,并打算繼續推進人工智能的發展。然而,盡管已經發布了概述使用自動化系統的學說的出版物,但迄今為止,英國國防部 (MoD) 仍然對管理其人工智能和自主系統使用的倫理框架保持沉默,盡管已經做出了一些重大決定。軍事人工智能的未來用途。
英國國防部一再承諾發布其國防人工智能戰略,預計該戰略將制定一套高級倫理原則,以控制軍事人工智能系統的整個生命周期。該戰略是在與來自學術界和工業界的選定專家討論后制定的,盡管政府尚未就與人工智能的軍事用途相關的倫理和其他問題進行公開磋商。該戰略的主要目的之一是向行業和公眾保證,國防部是人工智能項目合作的負責任合作伙伴。
與此同時,在沒有任何道德指南的情況下,計劃和政策正在迅速推進,主要問題仍未得到解答。英國軍隊在什么情況下會采用人工智能技術?政府認為何種程度的人為控制是合適的?風險將如何解決?英國將如何向其盟友和對手證明英國打算采取有原則的方法來使用軍事人工智能技術?
軍事人工智能系統帶來的風險 上述人工智能的每一種不同的軍事應用都會帶來不同的風險因素。作為國防部總部后臺操作的一部分,對數據進行排序的算法會引發不同的問題和擔憂,并且需要與自主武器系統不同級別的審查。
盡管如此,目前正在開發的人工智能系統無疑會對生命、人權和福祉構成威脅。軍事人工智能系統帶來的風險可以分為三類:道德和法律、操作和戰略。
道德和法律風險
-問責制:目前尚不清楚如果出現問題,誰來承擔責任:如果計算機運行不可預測并因此犯下戰爭罪行,懲罰它是沒有意義的。
人權和隱私:人工智能系統對人權和個人隱私構成潛在威脅。
不當使用:在戰斗環境中處于壓力之下的部隊可能會試圖修改技術以克服安全功能和控制。
作戰應用風險
偏見的技術來源:人工智能系統的好壞取決于它們的訓練數據,少量損壞的訓練數據會對系統的性能產生很大影響。
偏見的人為來源:當人類濫用系統或誤解其輸出時,可能會導致偏見。當作戰員不信任系統或系統非常復雜以至于其輸出無法解釋時,也會發生這種情況。
惡意操縱:軍用 AI 系統與所有聯網系統一樣,容易受到惡意行為者的攻擊,這些行為者可能試圖干擾、黑客攻擊或欺騙系統。
戰略風險
降低門檻:人工智能系統帶來了政治領導人在沖突中訴諸使用自主軍事系統而不是尋求非軍事選擇的風險。
升級管理:涉及人工智能的軍事行動的執行速度降低了審議和談判的空間,可能導致快速意外升級并造成嚴重后果。
軍備競賽和擴散:對軍事人工智能的追求似乎已經引發了軍備競賽,主要和地區大國競相發展其能力以保持領先于競爭對手。
戰略穩定性:如果先進的人工智能系統發展到能夠預測敵人戰術或部隊部署的程度,這可能會產生高度不穩定的后果。
本簡報列出了為人工智能設想的各種軍事應用,并強調了它們造成傷害的可能性。它認為,減輕軍事人工智能系統帶來的風險的建議必須基于確保人工智能系統始終處于人類監督之下的原則。
迄今為止,公眾對人工智能和機器人技術進步所帶來的社會變化和風險似乎知之甚少。這份簡報的部分目的是為了敲響警鐘。人工智能可以而且應該用于改善工作場所的條件和對公眾的服務,而不是增加戰爭的殺傷力。
這是由來自22個國家和72個機構/組織的80位專家撰寫的《預測領域》的百科全書式概述。非常值得關注!
預測一直處于決策和規劃的最前沿。圍繞著未來的不確定性既令人興奮,又具有挑戰性,個人和組織都在尋求風險最小化和公用利益最大化。大量的預測應用需要一系列不同的預測方法來應對現實生活中的挑戰。這篇文章提供了一個非系統的回顧理論和預測的實踐。我們提供了一個廣泛的理論、最先進的模型、方法、原則來準備,產生、組織和評估預測。然后,我們展示了這些理論概念是如何應用于各種現實生活的背景。
我們并不認為這篇綜述是方法和應用的詳盡列表。然而,我們希望我們的百科全書式的介紹將為過去幾十年來所進行的豐富工作提供一個參考點,并為預測理論和實踐的未來提供一些關鍵的見解。由于其百科全書的性質,預期的閱讀模式是非線性的。我們提供交叉參考,讓讀者瀏覽各種主題。我們補充了由大量免費或開源軟件實現和公開可用的數據庫所涵蓋的理論概念和應用。
//www.zhuanzhi.ai/paper/869110de988c2d02edb200ddd53e1219
自從早期人類通過觀察天空來判斷天氣是否適合狩獵以來,天氣預報已經取得了長足的進步,甚至自從獵人能夠得到諸如“氣溫高達40度,有可能下雨”這樣的預報以來。現在,獵人只要看一看智能手機,就能立即得到多個地點每小時的氣溫預報和降雨概率,以及顯示未來幾個小時天氣預報模式的地圖視頻。管理人員、政府官員、投資者和其他決策者可以對日益復雜的情況作出定制的預測,為許多不同類型的重要決策提供信息。自De Gooijer和Hyndman(2006)發表優秀的綜述文章以來的15年里,預測領域在理論和實踐方面都取得了驚人的增長。因此,這篇綜述既及時又廣泛,既有高度理論性又非常實用。
計算技術的快速發展使得分析更大更復雜的數據集成為可能,并激發了人們對分析和數據科學的興趣。預測方法工具箱在規模和復雜性上都有所增長。計算機科學以神經網絡和其他類型的機器學習等方法引領潮流,受到預測者和決策者的極大關注。其他方法,包括統計方法,如貝葉斯預測和復雜回歸模型,也從計算的進步中獲益。而且這些改進并不局限于那些基于計算技術的進步。例如,在“群體智慧”概念的推動下,關于判斷預測的文獻得到了相當大的擴展。
預測的結合或聚合并不是一個新的想法,但最近在預測界得到了越來越多的關注,并且表現得很好。例如,Spyros Makridakis舉辦的M4比賽中表現最好的參賽選手綜合了多種方法的預測。目前已經開發了許多模型來預測COVID-19導致的死亡人數,將這些預測結合起來是有意義的,因為很難知道哪種模型最準確。它與貝葉斯的思想是一致的,因為它可以被視為更新,每個單獨的預測添加到組合預測(也稱為集合)提供一些新的信息。
盡管這些新進展令人興奮,但像ARIMA和指數平滑等老方法仍然很有價值。指數平滑,連同其他簡單的方法,是相當穩健的,不像更復雜的方法容易過度擬合。從這個意義上說,它們的有用之處不僅在于它們自身的優點,還在于它們是包括更復雜方法在內的整體的一部分。如果預測方法不同,預測誤差不高度相關,那么組合預測更有價值。
天氣條件使得天氣預報員的工具箱更大、更復雜,也使得數據集更大、網格更密集,應用領域的模型也得到了改進。這種情況已經發生在大氣模型上,這對制定更好的天氣預報非常重要。關于顧客及其偏好的更詳細的信息可以為經理開發出改進的顧客行為模型。反過來,能夠快速處理所有這些信息的預測方法對于決策的目的是有價值的。這一過程引發了在互聯網上收集信息的熱潮。
風險是決策過程中一個重要的考慮因素,而概率預測可以量化這些風險。概率預測的理論工作已經活躍了一段時間,許多實踐領域的決策者已經接受了概率預測的使用。在貝葉斯方法中,推理和預測在本質上是概率性的,概率預測也可以通過許多其他方式產生。
美國國家氣象局從20世紀60年代開始向公眾發布降水的概率。然而,概率的廣泛應用和傳播是本世紀以來才發展起來的。現在,概率預測越來越多地傳達給公眾,并作為決策的輸入。Nate Silver的FiveThirtyEight.com的報告對選舉、醫學和科學、體育賽事、經濟指標和許多其他領域給出了概率預測,通常會單獨考慮多種預測模型,也會將它們組合在一起。
人們渴望確定性是很自然的。當降水概率預報最初廣泛傳播時,許多人對此非常懷疑,有些人指責預報員套期處理,說“別給我概率”。我想知道是否會下雨”。當然,點數預測通常與概率預測一起給出。當前對概率的頻繁接觸有助于公眾更好地理解、欣賞并對它們感到更舒服。當前世界上COVID-19疫情、巨大火災、大風暴、政治兩極分化、國際沖突等的增加,應該有助于他們認識到我們生活在一個充滿巨大不確定性的時代,量化這些不確定性的預測可能很重要。在可能的情況下,視覺效果會有所幫助,正如俗話所說,一張圖片勝過千言萬語。例如,在預測颶風的速度、嚴重程度和未來路徑時,地圖上的不確定性錐體,以及球隊贏得比賽的概率的時間線,每次比賽后都會迅速更新。
簡而言之,這是預測領域的一個激動人心的時代,所有新的理論發展和預測在實踐中的應用。預測是如此普遍,以至于不可能在一篇文章中涵蓋所有這些發展。本文設法涵蓋了相當多的內容,而且種類繁多。對每種方法進行簡短的介紹,由對理論主題或實踐領域“接近實際”的專家來做,可以很好地提供預測理論和實踐的最新狀況。
預測理論的前提是,當前和過去的知識可以用來預測未來。特別是對于時間序列,人們相信可以在歷史值中識別模式,并在預測未來值的過程中成功地實現它們。然而,人們并不指望能準確預測期貨價格。相反,在預測未來時間段內單個時間序列的許多選項中,有期望值(稱為點預測)、預測區間、百分位數和整個預測分布。這組結果集合起來可以被認為是“預測”。預測過程中還有許多其他潛在的結果。目標可能是預測一個事件,如設備故障,時間序列可能只在預測過程中發揮很小的作用。當預測程序與要在實踐中解決的問題有關時,它們是最好的。理論可以通過理解問題的本質特征來發展。反過來,理論的結果可以導致實踐的改進。
預測的目的是在面對不確定性時改進決策。為了實現這一目標,預測應該提供最可能發生的事情的無偏猜測(預測點),以及不確定性的度量,如預測間隔(PI)。這些資料將有助于作出適當的決定和采取適當的行動。預測應該是一項客觀、冷靜的工作,它是建立在事實、合理的推理和合理的方法之上的。但由于預測是在社會環境中產生的,它們受到組織政治和個人議程的影響。因此,預測往往反映的是愿望,而不是不偏不倚的推測。****