亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能(AI)被描述為現代戰爭的 "革命"。這篇論文重點關注迄今為止未被充分探索的復雜和不斷發展的軍事人工智能創新景觀。盡管在全球范圍內推動人工智能系統的采用和使用是一個明顯的轉折點,但關于人工智能在軍事背景下的影響的現有研究是新興的,但也是剛起步的。本論文旨在確定軍事人工智能創新的安全影響,并探索英國、美國和北約在軍事背景下采用人工智能的方法。這項研究采用了多種方法來參與這個迅速崛起的領域,分析了現有的非機密文獻和政策文件、觀察方法和專家訪談。本論文發現,以國防為重點的社區對軍事人工智能創新和相關的安全影響越來越感興趣,認識到人工智能除了創造新的能力外,還將產生深遠的影響。這項研究強調了以安全為重點的國防從業人員和政策專家對人工智能越來越多的認識,即國家必須采用人工智能來確保或保持對敵方的預期軍事優勢。在軍事背景下,人工智能存在重大挑戰,其中包括 (1)技術方面,如網絡安全和數據保護,(2)組織方面,包括采購障礙和軍事創新文化(以及更廣泛的知識和意識),以及(3)戰略方面,包括戰爭速度加快,人類可能沒有時間了解或干擾人工智能的進程,以及鑒于 "人工智能軍備競賽 "活動,能力可能擴大。最后,這項研究強調了國際軍事組織作為發展規范和使用軍事組織的共同方法的有效機制的作用,并探討了北約在這一領域作出貢獻的機會和挑戰。這些討論構成了對學術研究的方法論和政策相關的貢獻,旨在為學術界和以政策為重點的社區提供信息。這項研究主要針對致力于減輕人工智能在軍事背景下負面安全影響的國防專業人士。

引言

1.1 背景

在倫敦大學皇家霍洛威學院(Royal Holloway)的博士培訓中心(CDT)課程中,作者很早就對新興技術和安全的動態和相關話語產生了興趣。在該課程的第一年,其參觀了 "2018年安全與反恐博覽會",這是英國最大的以安全為重點的博覽會之一。在舉辦貿易展的巨大倉庫里,展示了從裝甲車到威脅情報等廣泛的物理和網絡安全系統的選擇。作者參觀了一個智能無人機演示,并對銷售人員展示其產品時的語氣和語言感到不快。在解釋了無人機如何從兩英里外捕捉視覺效果后,銷售人員興奮地將無人機描述為 "你所需要的所有情報,....,有許多商業機會......我們很想和任何發現這一點的人談談"。對于這些部署的系統的隱私、道德和其他更廣泛的關注,顯然是不屑一顧的。這是一個警鐘,并不是每個公司都重視負責任的、有良心的開發。這一刻的憤慨("他們怎么能逃脫這樣的說法?我們不是都要考慮隱私嗎?")是許多兔子洞的開始,深入到國家安全戰略和 "智能 "或 "算法 "戰爭,以及其他主題。

有一些與安全、負責任的使用和穩定性有關的廣泛關注,值得仔細考慮。這篇論文在許多問題仍在展開的時候探討了這些問題,探討國家希望如何有效地整合人工智能并保護自己免受對手惡意使用此類系統的影響。人工智能被認為是相關技術現象的力量倍增器,包括大數據和自主性,有助于加快沖突的節奏和壓縮決策周期。制定國防領域的人工智能政策是一個最近但快速發展的工作領域,自從其在2018年首次接觸這項研究以來,與軍事背景下的人工智能有關的關注和活動明顯增加。當時,沒有一個國家發布了軍事人工智能戰略,也很少有學術論文反映2016年后人工智能技術的軍事應用。隨后的四年里,國家國防部的討論越來越多,軍隊越來越意識到人工智能將在各個部門--包括國家安全和軍事背景下--變得多么關鍵。在撰寫本報告時,美國(U.S.)和法國是唯一有公布國家人工智能防御戰略的北約成員(美國國防部,2018年;法國武裝部隊部,2019年)。英國(U.K.)宣布他們打算在2021年發布一項以國防為重點的人工智能戰略(見英國國防部,2021年,42)。在提交報告時,這項人工智能戰略還沒有公布。2021年10月,北約成員還就第一個北約人工智能戰略達成一致,以幫助協調整個聯盟的軍事創新和人工智能的負責任使用(Sprenger,2021)。

軍方對人工智能技術的興趣已被充分注意到(Scharre和Horowitz,2018;Hoadley和Lucas,2019;北約科學和技術組織,2020)。研究人員和政策制定者之間已經有了越來越多的共識,即國家不能忽視人工智能在戰爭中的影響,否則會落后于戰略競爭對手,因此必須在有資源的地方投資、開發和采用人工智能。近年來,國家人工智能戰略迅速擴散(希爾,2020)。有幾個國家正在大力投資于軍事人工智能能力,最突出的是美國、俄羅斯(Hoadley和Lucas,2018)和中國(Kania,2017)。美國、中國和俄羅斯正在積極尋求提高其運用人工智能進行軍事應用的能力(Kania, 2017b)。一些國家已經發布了公開的文件,概述了人工智能的軍事方法,包括法國(Ministere Des Armées,2019)和德國(German Army Concepts and Capabilities Development Center,2020)。

本論文借鑒了文獻綜述、半結構化訪談、文件分析和基于觀察的實踐技術,提出了一些發現。首先,以國防為重點的社區,包括以政策為重點的工作人員,對人工智能如何影響軍事環境的認識有了顯著提高。有證據表明,在國家和北約層面上,對軍事人工智能創新的關注已經在更多的討論和更多的財政投資方面有所增加,而且這種興趣的增加幾乎沒有減速的跡象。第二,這項研究強烈表明,人工智能將產生深遠的影響,而不是創造新的能力。人工智能是對其他新興趨勢的補充,并正在被整合到包括但不限于情報處理、態勢感知和決策協助、網絡物理系統(包括自動化武器系統)以及事業級后勤和維護的廣泛領域。第三,本研究強調,在本研究過程中,以安全為重點的國防從業人員和政策專家對人工智能的認識不斷提高,并且在國家和北約層面上表現出一種觀點,即美國、英國和志同道合的國家必須采用人工智能以確保或保持對對手的軍事優勢。第四,與軍事背景下的人工智能有關的重大挑戰包括:(1)技術方面,如網絡安全和數據保護,以及減輕對人工智能系統的攻擊,如數據中毒或對抗性人工智能,以及用于惡意攻擊系統的人工智能支持的工具。(2)組織方面,包括采購障礙、公私伙伴關系和軍事創新文化(包括知識和意識);以及(3)戰略方面,包括對手惡意使用人工智能,戰爭速度加快,人類可能沒有時間了解或干擾人工智能的進程,以及鑒于 "人工智能軍備競賽 "活動,能力可能擴大。第五,也是最后一點,這項研究強調了國際軍事組織作為制定軍事組織使用規范和共同方法的有效機制的作用,并探討了北約在這一領域作出貢獻的機會和挑戰

1.2 研究范圍和研究問題

本論文涉及兩個首要的研究問題。

(1) 軍事背景下的人工智能創新有什么影響?

這個研究問題探討了軍事人工智能創新的現象,了解軍隊和政府國防部門在本研究期間如何看待和對待軍事背景下的人工智能。這項研究發現,人工智能有望在戰爭的各個方面持有深刻的影響,從提高支持辦公室和后勤工作的效率到提高戰場環境中的速度和準確性。人工智能的部署具有廣泛的安全影響,越來越成為軍事界關注的焦點。這些影響包括但不限于:確保人工智能系統的完整性和可靠性的技術挑戰;確保所采用的系統被負責任地安全使用的操作挑戰;以及與戰略穩定、相當于 "軍備競賽 "動態的人工智能競爭和更廣泛的地緣政治背景有關的戰略影響。

(2) 行為者如何試圖減輕與軍事背景下人工智能的發展和使用有關的挑戰?

本研究旨在對英國、美國和北約成員現有的軍事人工智能創新動態進行整體概述,確定知識差距和安全挑戰,并概述各行為體采取的新的緩解戰略。本論文利用在這項研究中收集的數據,了解人工智能技術在軍事背景下是如何被接近、投資、部署和保障(對抗)的。熟悉這一研究領域意味著從不同的學科,包括計算機科學、地緣政治學和安全研究中汲取文獻,探索軍事創新和戰略穩定等主題。這項研究發現,各個國家和北約采取了一些新的戰略,以減輕軍事人工智能所帶來的感知挑戰。這些行動和活動包括:大幅增加專門用于相關人工智能研發的資金和資源,例如在美國國防部;在美國和英國建立專門的人工智能國防機構;制定理論和正式采用戰略,包括美國國防部人工智能戰略、英國國防人工智能戰略和北約人工智能戰略;以及通過北約的討論和國家協調的活動,如美國人工智能國防伙伴關系,為發展國際共識作出更廣泛的努力,包括規范和負責任的使用。在這樣一個快速發展的創新環境中,隨著該領域的成熟,新興的緩解技術可能會繼續發展。

1.3 研究人員的隸屬關系

在本研究過程中,作者有兩個附屬機構對促進本研究的各個方面起到了核心作用:貝爾弗科學與國際事務中心的網絡安全研究員職位和北約合作網絡防御卓越中心(CCDCOE)的訪問學者職位。

貝爾弗科學與國際事務中心(通常被稱為貝爾弗中心)是位于哈佛大學肯尼迪政府學院的一個研究機構。該中心的研究員、學生和工作人員進行的研究集中在國際安全、外交、環境挑戰和科技政策主題上。 貝爾弗中心有一個 "網絡項目",這是一個專注于網絡安全主題的跨學科政策研究的倡議,他們歡迎學術研究人員參與其中。作者在2019年12月申請了 "網絡項目 "獎學金,并被錄取,于2020年7月開始。這項研究申請提議通過文件分析和對美國國防部(DoD)專家的采訪,重點研究美國在軍事背景下如何對待人工智能。所進行的研究構成了第七章的研究結果。由于大流行病的原因,這一附屬機構幾乎完全沒有駐場。貝爾弗中心的隸屬關系很有價值,它將作者與其他研究員聯系起來,允許定期交流意見,并幫助作者建立初步聯系,以接觸潛在的受訪者(在第二章中進一步描述)。

北約CCDCOE(也稱為 "中心")是北約認可的專注于網絡防御的跨學科研究中心。該中心設在愛沙尼亞,由來自35個贊助國和捐助國的工作人員組成,提供戰略、法律、技術和行動等重點領域的研究。 作者在北約CCDCCOE的工作始于2020年8月戰略處為期6周的訪問學者職位,實際是在塔林進行的。在這個職位正式結束后,作者仍與該中心保持聯系,并(與本研究分開)以研究員的身份簽訂了臨時兼職就業合同,最近的一份合同跨越2022年1月至2022年5月。訪問學者的身份很有價值,它把作者和中心的相關工作人員聯系起來,他們把作者介紹給合適的工作人員進行采訪,或者他們自己也接受了采訪,并且為邀請北約相關雇員接受本研究的采訪提供了可信度。作者在第二章中反映了這種方法,以及對作者的研究者地位的影響。

1.4 論文提綱

在這段介紹之后,第2章介紹了與軍事人工智能領域有關的廣泛的學術、智囊團、軍事、公共和偶爾的工業創建的研究材料的文獻回顧。這是一個廣泛的領域,隨著技術的突破和國際地緣政治格局的變化,該領域的文獻也在不斷更新。因此,本章必然是在研究問題所規定的范圍內進行的。在探討有關人工智能目前使用情況的材料和探討人工智能在軍事背景下的近期可行應用的材料之前,檢查現有的人工智能的軍事定義,為解決有關人工智能技術對戰爭影響的第一個研究問題奠定了基礎。由此,從各個學科中抽取文獻,探討人工智能在此背景下的安全影響。這些影響包括從技術挑戰和信任主題、用戶如何與人工智能系統互動和監督的人機合作,到人工智能在國家政策和國際穩定層面的戰略影響。在解決國家如何處理與人工智能相關的挑戰這一研究問題時,文獻審查審查了整個文獻中關于如何防止或減輕軍事人工智能的消極影響的建議。

第3章概述了本論文的方法論,并證明了所選方法的使用。本章闡述了確定本研究和文獻審查范圍的理由,并描述了隨后的數據收集,重點是英國、美國和北約對軍事人工智能的做法。本章解釋了數據收集過程的結構,詳細介紹了所選擇的作為人種學實地調查形式的觀察實踐方法、與國防和人工智能技術領域的相關專家的訪談以及文件分析。接下來,本章闡述了時間軸和論文歷程,總結了在訪問、網絡建設和COVID-19相關因素造成的干擾中所面臨的挑戰。最后,本章討論了作者作為平民學術研究者的地位,因此在某種程度上是以軍事為重點/軍事化空間的 "局外人",承認作者在研究的后期階段作為北約CCDCOE的研究人員做出了兼職貢獻。

第4章介紹了作者基于觀察的實踐研究的結果。作者參加了六個實際活動(三個在英國,其他在美國、比利時和愛沙尼亞)。對活動期間的現場筆記的分析揭示了會議和貿易展參與者的不同觀點,他們有不同程度的謹慎和支持人工智能的熱情。本章反思了活動空間如何形成討論發生和發展的環境,分析了活動中的討論內容,以了解參會者如何理解和對待軍事人工智能主題。本章反思了私營部門創新和軍事采購、人機合作和人工智能技術的信任、以及在半封閉空間開會的價值等主題。本章介紹了各個國防社區是如何開始努力解決軍事人工智能主題,并確定2019-2020年期間采用人工智能的有效而安全的軍事方法。

第5、6和7章集中討論了英國、美國和北約對軍事人工智能主題的做法。這幾章介紹了各自創新環境的背景,對每個主題收集的數據進行了分析,并簡要討論了將研究結果置于文獻和更廣泛的研究問題中。英國的第5章研究了英國軍事人工智能創新景觀的背景,并介紹了與英國國防部門相關專家的訪談結果,以探索人工智能在軍事領域發展和采用的基本驅動力。通過第6章中以北約為重點的訪談,本研究探討了北約在緩解人工智能技術所產生或放大的潛在挑戰方面可能發揮的作用。在第7章中考察了美國的方法,這項研究包括采訪美國國防部在人工智能政策方面有經驗的員工,了解他們對美國在人工智能和維持國際局勢穩定方面的看法。認識到在本論文的研究過程中,政策環境有了很大的發展,這些研究結果是按照他們的順序來介紹的。第8章是主要的討論部分,在這里,研究結果被帶入對話,以解決上述研究問題。本章包括研究結果如何建立在現有文獻的基礎上,并對目前尚未開發的研究領域做出貢獻的例子,提供了本研究的主要總結觀點。結論部分對研究的局限性和進一步探索的機會提出了全面的看法。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

本文介紹了詳細而全面的技術文獻結論,旨在確定戰術自主性的當前和未來的研究挑戰。本文非常詳細地討論了當前最先進的強大人工智能(AI)、機器學習(ML)和機器人技術,以及它們在未來軍事和國防應用背景下開發安全和強大自主系統的潛力。此外,我們還討論了在試圖為先進的軍事和國防應用實際建立完全自主系統時出現的一些技術和操作上的關鍵挑戰。我們的論文提供了最先進的可用于戰術自主的先進人工智能方法。據我們所知,這是第一篇論述戰術自主性當前重要趨勢、戰略、關鍵挑戰、戰術復雜性和未來研究方向的作品。我們相信,這項工作將使從事機器人和自主系統領域的學術界和工業界的研究人員和科學家產生極大興趣。我們希望這項工作能鼓勵人工智能多個學科的研究人員去探索更廣泛的戰術自主領域。我們也希望我們的工作能成為設計先進的人工智能和ML模型的重要步驟,對現實世界的軍事和國防環境有實際意義。

關鍵詞:戰術自主性;自主系統;人工智能;軍隊;國防應用;航天;機器倫理;網絡安全;可信賴性;可解釋性

資助

這項工作得到了霍華德大學國防部(DoD)人工智能和機器學習卓越中心(CoE-AIML)的支持,與美國陸軍研究實驗室簽訂了W911NF-20-2-0277合同。

1. 引言

新興技術,如機器人技術和自主系統,正在為潛在的社會革命提供機會[1]。先進的自主系統正在為多個科學領域的科學突破和顛覆性技術創新鋪平道路[2]。自主系統是一個智能系統網絡,能夠獨立完成復雜的任務,在沒有人類明確干預的情況下做出智能決策,以及其他操作管理和控制系統[3,4]。現代自主系統的最新發展對各種潛在的軍事和國防應用越來越關鍵,包括空中監視系統、隱私、網絡安全、導彈防御、航空航天工業等。

背景和動機。來自民用、國防和軍事界的研究科學家們正在通過復雜的工作來確定為工業和現實世界應用實施先進的人工智能和自主系統的最佳方式。利用AI、ML和其他相關的先進技術領域來實現自主系統,是現代自主系統的一個改變戰術的戰略。

現代尖端的人工智能和ML技術已經越來越多地被用于軍事和國防領域的各種成功應用,包括網絡安全[5]、海上安全[6,7]、關鍵基礎設施保護[8,9],以及其他具有重大社會和技術意義的領域。先進的人工智能系統的潛力可以被用來對軍事和國防技術產生積極的影響。人工智能可以在軍事環境中用來評估收集的數據,并提供作戰計劃和戰略支持,加速決策過程。除此之外,人工智能系統可以被設計和部署在戰略、政治、作戰和戰術層面的戰爭中使用。

在政治和戰略層面上,人工智能系統可以用來動態地破壞隱藏的敵人,并實時防御各種形式的對手攻擊。然而,在戰術層面,人工智能可以為無人系統提供更快、更好的態勢感知,以減少其對攻擊的脆弱性。它還可以通過識別可疑的模式和潛在的危險活動有效地自動檢測威脅。然而,盡管在過去的幾十年里,自主性在廣泛的領域內取得了進展,但一些技術和實際的挑戰仍然大大限制了現代自主系統的部署和廣泛采用。第4節、第5節和第6節將討論一些需要解決的關鍵挑戰。因此,必須在人類最低限度的監督或參與下開發現代戰術自主系統,以大幅提高最先進的水平,減少認知工作負荷,增加功能,改善和保持多領域的態勢感知,提高整體機動性和流動性,有效實現部隊保護,支持主動的網絡防御等。

在對自主性越來越感興趣和普及的激勵下,本文對戰術自主性的基本概念和原則進行了全面的技術調查,重點是以前研究工作中沒有充分解決的前沿人工智能和ML方法。據我們所知,這是第一篇論述當前重要趨勢、戰略、基本挑戰、戰術復雜性和未來戰術自主性研究方向的作品。

貢獻。我們論文的主要貢獻總結如下:

  • 我們介紹了戰術自主的基本概念和它在廣泛的應用中的潛力。

  • 我們掌握了在軍事和國防背景下對戰術自主性概念的理解。

  • 據我們所知,我們是第一個提供關于戰術自主性的重要當前趨勢、戰略、基本挑戰、戰術復雜性和未來研究方向的。

  • 我們提出的工作可以作為設計先進和創新的人工智能和ML模型的一個重要步驟,對現實世界的軍事和國防應用具有實際意義。

  • 我們提出了戰術自主性的基本和長期的挑戰。

提綱。本文的其余部分組織如下。第2節提供了簡要的歷史,主要的里程碑,倫理方面,以及戰術自主性的級別。第3節介紹了可用于推進戰術自主能力的不同人工智能技術。第4節描述了對可信人工智能和任務自主性的需求。第5節簡要介紹了平臺之間的廣泛合作和相關的技術挑戰。第6節介紹了最先進的人機協作方法以及與當前方法相關的挑戰。第7節簡要介紹了戰術自主性的網絡安全及其基本挑戰。第8節詳細討論了戰術自主系統的風險和內在挑戰的概述。最后,在第9節中,我們總結了本文并討論了潛在的未來工作。縮略語部分列出了本文中使用的縮略語。

2. 背景

關于自主系統的文獻已經在許多研究工作中得到了廣泛的研究。自主性的概念有不同的內涵,而且在過去幾年里有了很大的發展。例如,[10]中的自主性概念是關于委托的任務。在[10]中詳細解釋了委托的各個方面和層面。一般來說,智能系統背景下的自主性側重于開發智能決策系統,這些系統可以在復雜的戰術環境中自主地進行物理操作,并具有一定程度的自我管理[11]。在本節中,我們只提供明確與歷史、倫理方面、自主的屬性、監管和戰術自主性級別有關的工作背景。

2.1. 戰術自主權的簡要歷史和主要里程碑

根據美空軍研究實驗室(AFRL)的說法,戰術自主性是一個與現代自主系統相關的術語,該系統在人類的授權和約束下行動,以支持與長期戰略愿景相關的戰術、短期行動。近年來,在廣泛的應用中出現了相當多的關于戰術自主性的跨學科研究。軍方長期以來一直對推進機器人技術和自主行動的能力感興趣。美空軍部(DAF)和國防部(DoD)正在推動開展以戰術自主性為重點的創新自主性研究,這將有助于將研究轉化為實際應用。此外,美國AFRL正在大力優先考慮正在進行的數字化改造戰術自主性的研究工作,特別是在軍事領域,以更好地使作戰人員對抗美國對手。圖1描述了戰術自主性的簡要歷史和重要的里程碑。

圖 1. 戰術自主的性簡史和里程碑。

戰術決策。決策系統采用先進的模型,對復雜環境進行預測。由于這些模型中有許多是數據驅動的,自主系統應該能夠獲得更多關于它們所處的復雜環境的數據,并相應地實時調整它們的基本行為。對智能自主系統在嘈雜、動態和現實環境中的強大和有效的戰術決策的需求正在迅速上升。然而,最關鍵的挑戰之一是為自主系統設計戰術決策模型和支持框架。例如,與其他道路使用者的復雜和動態互動,環境的復雜多樣性,以及傳感器信息的不確定性,使得自主駕駛的戰術決策變得非常困難[12]。

一個結合了規劃和深度強化學習(DRL)的通用框架,可用于自主駕駛系統的戰術決策智能體,在[12]中被詳細描述。該框架的性能在兩個概念上不同的高速公路駕駛場景中進行了評估[12]。戰術決策算法被設計用來處理不可預見的環境狀況和不可預測的對抗性攻擊。戰術決策系統的過程可以被建模為概率的(即包括不確定因素時)或完全確定的(即不包括不確定因素時)。不確定性中的計劃和決策在機器人和自主系統中是至關重要的。因此,在設計自動決策模型和算法時,必須考慮到各種不確定性的來源[13]。部分可觀察的馬爾可夫決策過程(POMDP)是一個通用的數學框架,用于模擬不確定性下的決策任務[13]。然而,在以前的工作中,沒有充分解決設計能夠制定不確定性意識的戰術決策任務的有效方法,如POMDP,以及解決其計算復雜性。因此,正如第3節所解釋的,需要基于先進的人工智能/ML方法的不同策略來加強復雜和現實環境中的戰術決策任務的進程。

2.2. 自主性的倫理問題

自主性的倫理問題對人工智能研究者來說是復雜的挑戰。現代基于人工智能的系統的開發和應用在學術界和工業界都在激增。因此,在決策過程的速度和效率大幅提高的激勵下,我們日常生活的各個方面的決策正在完全委托給人工智能/ML驅動的算法。然而,關于自主權與倫理的關系、社會影響、法規、自主權治理、倫理影響以及這種自主技術和活動的能力等許多重要問題在以往的研究中沒有得到充分的解決。因此,探索基于人工智能的完全自主技術的安全和倫理層面,使我們能夠認識到先進機器自主性的當前和未來潛在發展的倫理影響。此外,對機器智能的倫理學進行準確有效的調查,可以促進發現現有倫理學理論的潛在問題,以及它們在現實世界環境中的一般作用。關于機器倫理學的意義、倫理學理論的研究以及自主智能機器的倫理學影響的詳細討論見于[14]。關于[14]的研究工作還表明,現代算法可以被設計成模仿人類的倫理決策。

機器倫理學。隨著人工智能驅動的決策在廣泛的領域中變得越來越普遍,關于其適用性[15]、倫理層面以及在決策算法設計中對基本方面的考慮等新的重大問題也出現了[16]。機器倫理學的最終目的是有效地研究如何設計智能機器來進行道德和倫理上的推理。它關注的是智能機器對人類和其他自主機器的行為。機器倫理學的主要目標是開發一種智能機器,在可接受的道德層面的指導下,對潛在的行動方案做出決定。區分隱性倫理機器和顯性倫理機器很重要[17]。隱性倫理機器意味著約束智能機器的行動以避免不道德的結果。實現這一目標的一個實用技術是通過開發軟件系統的內部功能和特性來隱性支持和促進道德行為[14]。另一方面,顯式倫理機器可以通過使用倫理原則的顯式表示來解釋倫理信息[14,18]。明確的倫理機器可以處理新的情況,并合理地做出明確的倫理判斷[14,18]。

ML研究界已經開始探索將現代ML能力應用于機器倫理。之前已經介紹了各種用于倫理推理的ML方法。例如,[19]中的工作探討了一個神經網絡模型,該模型對特定的道德判斷和基于案例的道德推理進行分類。在[20]的工作中簡要介紹了一種基于案例的推理方法,以開發能夠指導對道德問題和困境進行推理的系統。[20]中提出的一個主要問題是,機器如何協助或潛在地取代人類在道德推理中的位置。

[21]中提出了一種不同的計算倫理學方法,它采用了一種基于行動的倫理學理論方法。作者為一個具有多種計算職責的倫理理論開發了一個高效的決策程序[21]。除了ML能力之外,還有其他方法來解決這個問題,比如說,使用義務邏輯(deontic logic)(哲學邏輯領域關注義務、許可和相關概念)。例如,[22]中的作者描述了如何使用行為邏輯將一套特定的倫理原則納入自主系統的決策過程。另一方面,[23]中的工作評估了應用行為邏輯方法來實現伊曼紐爾-康德關于絕對命令和道德義務的基本原則的可行性。作為伊曼紐爾-康德關于機器倫理學的一般方法,存在一個決策程序,用于生成絕對命令,并從中得出行動規則。根據[23]中提出的方法的結果,道德范疇被表述為禁止的、允許的或強制的行動。

2.3. 自主性的屬性

文獻表明,在分布式人工智能的背景下,有多種方法來定義自主性和自主系統的概念。自主性可以被定義為智能體在沒有直接外部干預的情況下獨立行動的能力,并在最小的人類監督下做出決定。自主系統概念的定義在其自主性屬性方面也有不同。其外部和內部狀態決定了自主性的屬性。當一個系統的行為是非決定性的,可以被認為是自主的。非決定性的系統即使在相同的環境輸入的情況下也可能表現出不同的行為,甚至可能完全失敗。另一方面,如果考慮到系統的內部狀態,一個自主系統也可能是確定性的。一個確定性的系統是一個系統,它的模型從一個給定的環境初始狀態或情況下持續產生相同的結果。在這種情況下,主動性、互動性和涌現是最能描述自主性及其相關基本特征的三個屬性[24,25,26]。自主性的屬性摘要見表1。

表1. 自主性屬性總結。

主動性。智能自主系統必須安全地適應動態和不可預測的環境中的意外情況,以便在各種領域中使用[27]。當自主系統在沒有明確的外部事件的情況下激活目標或啟動行動時,這種自主性的屬性被稱為主動性[24,25,26]。

交互性。這一屬性指的是智能體與環境的交互。自主系統可以動態地與復雜和不可預測的環境互動并作出反應。此外,智能自主系統還能適應動態環境的變化。這一特性在實時應用中非常重要[24,25,26]。

緊急性。復雜的多智能體系統是由多個相互作用的子系統組成的。智能體的交互和主動性產生了新出現的自主屬性,這些屬性事先沒有明確的模型。在大規模多智能體系統的背景下,緊急性的特點是隨著時間的推移,與環境的非線性相互作用引起的意外系統行為。這種特性影響著系統的可靠性和可預測性,它被用作評估自主軟件系統的標準[24,25,26,28]。

2.4. 監管和自主性級別

受監管的自主性。隨著目前人工智能研究的進展和現代自主系統的影響越來越普遍,建立政策、法規和準則以確保人工智能驅動的智能系統保持可信、道德和以人為本是非常重要的。例如,歐盟的一般數據保護條例(GDPR)[29,30]和美國的公平信用報告法(FCRA)[31]所采用的隱私條例對如何處理個人互聯網數據給出了指示,并授予個人訪問其個人信息的權利,以及獲得有關智能自動系統所做決定的合理解釋。采用這樣的一套法規,使我們能夠評估圍繞人工智能驅動的自主系統及其運作方式的法律和倫理問題。

自主性的級別。根據以前的研究工作,自主性的級別被分為強監管、操作性自主、戰術性自主和戰略性自主。自主級別與基礎動態環境屬性的映射在[26]中有所描述。環境的屬性包括可觀察的、決定性的、偶發的、靜態的和智能體。一個可觀察的環境在任何時候都能完全或部分地接觸到系統的所有必要狀態。一個確定的環境是指基礎環境的下一個狀態完全由當前狀態和智能體選擇的行動決定[32]。在偶發環境中,智能體的經驗被分為多個獨立的偶發事件。環境中的每一個情節都由智能體的感知和然后的行動組成。換句話說,偶發環境是指之前的行動不影響下一次的觀察[32]。然而,如果隨后的行動取決于先前的行動,則環境被稱為順序性的。如果一個環境不隨時間的推移而變化,則被稱為靜態環境。如果一個環境在其上運行時發生變化,則被稱為動態環境。單一智能體系統意味著只有一個智能體在一個特定的環境中行動和互動。然而,如果多個相互作用的智能體與他們的環境相互作用,則被稱為多智能體系統。

強監管表示沒有自主能力的系統。這種監管在復雜程度有限的環境中是有效的。操作性自主表示決策的操作層面。實現操作自主性的智能軟件系統在部分可觀察、確定性、偶發性和靜態的環境中實際上是有效的[26]。戰術自主性在自主系統的戰術決策方面擴展了操作自主性。

3. 用于戰術自主能力的人工智能技術

自主性是學術界和工業部門的一個活躍的研究領域。隨著現代分布式自主系統和智能技術的普及,人工智能和ML方法已經大大推進了各種研究領域問題的最新進展。人工智能方法在大幅提高自主系統的性能和安全性方面具有關鍵作用。完全自主的和其他復雜的網絡系統被配置和編程為連續運行。這些復雜的系統不斷從周圍環境中收集復雜的信息。因此,操作和理解完全自主系統的動態和運動學,并實時處理巨大的信息流是極具挑戰性的,超出了人類的能力。這時,基于人工智能的技術及其底層的ML能力就有了壓倒性的幫助。事實證明,人工智能和ML系統在一些領域比人類更強大、更高效[33,34,35,36]。除此之外,人工智能和ML系統經常在復雜情況下指導人類理解和自主決策過程[37,38]。

先進的人工智能和自主系統技術已經改變了我們的生活,并將在未來繼續改變。這種由人工智能驅動的技術革命的空前成功,其潛力在于人工智能系統在各種新興技術中的適用性迅速增加。例如,在過去的幾十年里,人工智能技術在機器人和自主系統界創造了潛在的現實世界影響。除了人工智能的潛在好處外,人們也擔心強大的人工智能系統的長期影響[39,40,41]。最近,強大的人工智能和ML技術在戰術自主方面的進展已經徹底改變了廣泛的領域,包括自主駕駛[42,43,44]、航空和航天工業[45]、無人駕駛飛行器(UAV)導航[46]、海上防御[47,48]等。最近自主系統的大多數方法都是基于不同的人工智能技術。表2列出了用于戰術自主的最先進的人工智能技術的摘要。一些主要類別的方法詳細包括以下內容。

深度學習(DL)。這是一種有效且強大的人工智能應用算法,如計算機視覺、自然語言處理(NLP)、機器人、人工智能游戲和其他應用。自其誕生以來,深度學習(DL)方法已被證明能有效地發現和學習高維訓練數據的復雜結構[49]。由于深度神經模型在復雜環境中帶來的巨大性能,DL技術最近被用來解決一些現實世界的應用,如自動駕駛[50,51,52]、計算機視覺[53]、圖像分類[49]、視頻預測[54]等。作者在[55]中展示了深度Q網絡(DQN)代理如何學習為自主駕駛做出一個通用的戰術決策模型。DL方法也有助于根據當前和過去對周圍環境的觀察,預測復雜駕駛環境中自主車輛的行為和性能[56,57]。此外,[58]中提出了一種使用深度神經網絡估計端到端車道位置的方法。

強化學習(RL)。要實現人工智能技術的全部影響和潛力,需要智能自主系統能夠動態地學習并自動做出獨立的決定。與自主系統相關的戰術決策任務的一個根本不同的方法是利用一種不需要對輸入的訓練數據進行標記的人工智能/ML技術。完成這種任務的一個強大的ML范式是應用強化學習(RL)技術[59]。RL是一個框架,為經驗驅動的順序決策問題提供了有效的解決方案[59]。它關注的是智能人工智能代理應如何在復雜和嘈雜的環境中做出合適的決定,以使特定可執行行動的累積獎勵最大化。RL是基于自我學習的人工智能代理和其復雜環境之間的動態互動序列。通過其在人工智能代理中的自學能力,RL正在使各種科學領域取得令人興奮的進展,如自主機器人[60]、自主駕駛[61,62]、NLP[63,64]、游戲[65,66]和許多其他應用。可以利用RL技術來為自主系統創建一個通用的戰術決策代理。例如,基于神經網絡集合的貝葉斯RL技術被用于自主駕駛的有效戰術決策代理[67]。此外,最近的一些工作也將基于深度RL的技術擴展到移動機器人的自主導航任務中[68,69]。

聯邦學習(FL)。在傳統的ML和DL應用中,來自不同客戶的訓練數據通常被聚集在一個中央服務器或云平臺上,以訓練模型有效地執行一個給定的任務[70]。這是一個常見的數據隱私問題,也是經典的ML和DL方法的基本限制,主要是當訓練數據包含高度敏感和機密的信息(如國家機密和軍事相關信息、醫院等),會引起廣泛的安全和隱私以及法律和道德問題。維護智能系統的安全和隱私仍然是一個公開的挑戰。這種情況下,聯邦學習(FL)技術是有幫助的。聯邦學習是一種新興的、有前途的去中心化ML范式,它通過采用分布式計算來解決數據安全和隱私問題[71],提供了一種解決方案。它使網絡中許多資源有限的分布式客戶端能夠協同訓練ML模型,而無需交流他們的本地數據,主要目的是保護用戶的隱私和安全[72,73,74]。通過利用跨學科的技術和科技,機器人和自主系統正變得越來越普遍。鑒于隱私保護、分散學習、并行訓練和機載處理等獨特的優勢,FL有可能成為分布式自主系統的安全和高效的人工智能框架[75]。例如,在[76]中,作者提出了一個FL框架,使自主控制器模型在一組連接和自主的車輛中進行協作學習。其他作者在[77]中證明了FL模型可以被用來從更大的設備池中檢測和識別不同類型的無人機,通過利用單個無人機傳輸的射頻信號。

表2. 用于戰術自主能力的人工智能技術綜述。

4. 可信的人工智能和任務自主性

最先進的人工智能和ML技術正被越來越多地應用于一系列需要改進操作可靠的時間關鍵型和安全關鍵型系統,如軍事、國防、航空航天、自動駕駛[78]、醫學[79]、科學[80]等。為了提高和確保其端到端的有效性和彈性操作,這些具有人工智能能力的現代自主系統必須被持續驗證、核實和監測。此外,為了使自主系統保持穩健的運行,還需要持續的系統性能評估,以識別不可預見的風險、異常情況和潛在的對抗性威脅。此外,對于超出人類控制的自主武器,也有人工智能支持的軍事關切[81]。

可解釋人工智能。最近ML技術的進步使得人們對人工智能系統的可解釋性越來越感興趣,以幫助人類更深入地了解ML算法的決策過程。在過去的幾年里,先進的人工智能系統在各種復雜的應用中廣泛部署,與此同時,道德、法律和社會對這些系統提供人類可理解的模型解釋和對其輸出的解釋的要求也在增加。作為這些要求的結果,最近有幾項關于要求對基于人工智能的自動系統所做的決定進行解釋和說明的法規的工作被引入[82,83,84]。這也導致了一個不斷增長的研究群體,他們非常關注可解釋的ML技術。如圖2所示,為用戶提供可理解的解釋和說明,可以讓他們更深入地了解系統的自動決策觀點,這是建立對底層人工智能和ML系統信任的關鍵因素[85,86,87]。因此,在關鍵系統的人工智能模型和技術中建立可解釋性和可解釋性也會對安全[88]、倫理[89,90,91]、法律[92,93,94]和可轉移性[95]產生影響。然而,人工智能和ML系統的內部運作是人類難以理解的,被認為是黑箱方法,只有輸入和輸出對用戶可見[96]。這種人工智能和ML系統的算法缺乏透明度,對現實世界的用戶需求缺乏了解,以及我們無法充分解釋這些系統如何以及為什么會達成特定的人工智能驅動的自動決策,使得它從根本上難以理解,即使是該領域的專家[96,97]。為了讓人類充分信任人工智能驅動的系統并建立信心,底層系統的解釋必須與人類的期望和認知一致。最近,越來越多的開源解釋工具和平臺產生了不同的解釋,用于探索和解釋底層的黑盒ML模型,正在被用戶訪問[98,99,100,101]。然而,盡管最近作出了努力,目前大多數最先進的解釋和解釋技術需要更加值得信賴。

圖 2. 可解釋 AI。如第 8 節所述,開發高級 ML 技術以生成可解釋的模型是我們未來工作的一個方向。除此之外,集成最先進的解釋接口以產生對底層模型的有效解釋是我們計劃在未來工作中探索的挑戰。

可信任人工智能。先進的人工智能和ML模型能夠加速復雜系統中數據驅動的自動決策過程。然而,正如前面所解釋的,盡管最近人工智能和ML系統在科學和技術領域被廣泛采用,其系統模型在很大程度上仍然是黑盒方法。對這些復雜的系統如何全面運作有一個清晰和充分的了解,對于建立信任和透明度是很有幫助的。此外,了解人工智能和ML系統的內部運作,可以讓用戶更好地了解底層模型,然后利用它將模型從不可信轉變為可信任的。當模型被用于自動決策系統時,確定人工智能和ML模型的可信度是一個基本問題。正如第6節所解釋的,人類和智能機器之間的合作使現代自主系統得到了快速發展和廣泛使用。在軍事和國家情報機構以及其他關鍵領域有效使用這種復雜的系統,取決于人類和機器之間建立的信任。因此,鑒于人工智能驅動的技術在眾多自主系統中的應用范圍迅速擴大,使這些系統可靠和值得信賴比以往任何時候都更重要[102]。建立一個安全和可信賴的人工智能生態系統對于確保人類安全和在各種應用中采用先進的人工智能技術至關重要[103]。可信的人工智能是一個技術術語,描述了人工智能的安全性、合法性、穩健性和道德原則,包括對人工智能驅動的系統的安全性[104]、隱私[105]、透明度和公平性的基本關注[106,107]。使人工智能系統值得信賴的要求和要素如圖3所示。可信的人工智能的基本概念是基于這樣一個概念:當信任建立起來時,人工智能會充分發揮其潛力。可信性賦予人工智能系統可解釋性技術,使人類更容易理解和信任無處不在的人工智能算法所產生的結果和輸出背后的特征和原因。

圖 3. 可信人工智能的要求和要素 [108]。

任務自主性。它是一個技術術語,大多用于國防和航空航天技術行業和其他下一代自主和智能系統。任務自主性是指自主系統在使用現代數據驅動的人工智能/ML技術對底層系統的了解和理解的基礎上,獨立執行各種基本的復雜任務的能力,如深空探測任務[109]。為了使先進的任務自主系統的開發和實施在戰術上有用,必須解決上述與自主和人工智能系統相關的潛在安全和風險問題。

5. 平臺之間的協作

先進的算法決策系統的激增使得不同平臺之間的協作成為可能。然而,實現和確定人類、智能機器和自主代理之間的直接協作是具有挑戰性的。一些需要解決的主要技術挑戰是互操作性、可組合性和適應性。

互操作性。在自主性方面,互操作性使不同類型的大規模自主系統能夠通過底層平臺獨立地進行通信。當設計具有強烈自主性概念的交互式自主代理系統時,互操作性問題發生在不同的層面。正如在[110]中詳細描述的那樣,互操作性層可以分為連接層、通信層、本體層和服務層。

可組合性。在軟件系統開發領域,可組合性對于創建一個強大、靈活和可互操作的系統來說是必要的,在這個系統中,不同的交互式自主組件可以無縫通信[111]。它能夠將基于組件的系統的獨立功能結合起來,以完成一個特定的、無法獨立完成的總體任務。可組合性使系統設計有能力通過重復使用現有的系統組件和適應新的變化來提高敏捷性[111]。一個可組合的架構允許幾個系統組件的組裝。這樣的方法有重要的好處,包括可重用性、靈活性和改進的模塊化。自主性、模塊化和可發現性是可組合組件的主要元素。在一個可組合的系統中,每個組件都被期望在沒有其他組件的幫助下自主獨立地執行一個給定的任務。另一方面,模塊化是指當一個可組合系統中的每個組件被設計成獨立解決一個特定任務時的系統屬性。這使得系統設計者有可能將模塊化組件組裝成一個系統。除此之外,可組合系統的框架必須可以被其他用戶發現,以便單個組件可以被重復使用。

適應性。一個交互式自主系統需要意識到它的內部狀態和它穩健運行的復雜環境。先進的自主系統有能力自主地、互動地監測和適應復雜環境中的任何意外變化。一個復雜的系統有效處理運行環境中動態功能變化的程度被稱為適應性[112,113]。一個適應性強的、穩健的、有彈性的系統能夠容忍環境中的突然變化和動態情況,而不依賴外部干預[112]。

6. 人機協作

人機協作的概念及其能力是當前人工智能研究中許多進展的核心。人機協作是一種范式,在這種范式中,人類和具有不同能力的智能機器整合并緊密合作,以完成一個需要集體行動的共同目標[114,115]。它關注的是對打算供人類使用的智能機器的深入理解和評估[116]。鑒于最近的指數增長和人工智能技術的預測能力,在智能系統和人類之間創造一個成功的協作操作環境來解決復雜的問題是至關重要的。然而,廣泛采用人工智能系統的主要挑戰之一是將人類和分布式智能系統無縫整合以實現共同目標的能力。

有效地利用人機合作,使人類能夠更深入地了解智能機器的自動決策。然而,正如第4節所解釋的,這高度依賴于人工智能自動決策系統和人類之間的信任。這是因為當人類對人工智能驅動的決策給予更多的信任時,就會產生關于信任問題的疑問。人機合作的有效性主要取決于機器的透明度以及用戶對人工智能系統的行為是否符合預期、安全、可理解的信心程度[117]。跨越多個學科、由現代人工智能技術驅動的自主系統和領域專家的廣泛合作,對于建立人工智能/ML模型的可解釋性,創建一個可信賴的人工智能生態系統,以及釋放人工智能的潛力以解決更多重大問題,是非常引人注目的。

人工智能有可能提高人類的能力,使組織決策自動化,并從根本上改變企業的運作方式[118,119]。人工智能/ML系統的可解釋性是一種潛在的人機合作方式,因為具有解釋和解釋結果能力的自動化使人類能夠更好地理解智能機器的基本行為。使用自主系統的主要好處之一是能夠比人更快地實時處理更多數據。為了確保安全和有效的關鍵任務操作,跨越不同領域的自主系統,如國防、醫療[120]、航空航天、制造、自動駕駛等,都被評估為與人類協作操作。因此,探索更好的人機協作的前沿技術,有能力提高生產力、可用性、可靠性、操作性能、通信接口、設計和操作平臺的成本,在人類和智能機器之間分享知識,并確保安全和現有系統適應新環境和新任務的能力[121,122]。在[123]中提出了一個人機合作框架,指導人工智能開發團隊創建廣泛采用的道德人工智能系統,這些系統是可用的、安全的、值得信賴的。除此之外,主要的參與者,如IBM[124]、DeepMind[125]、谷歌[126]和其他學術機構最近啟動了一項研究工作,以加強人機協作[127,128,129]。

6.1. 自組織人機協作

自主系統的重大進展正在日益提高我們日常生活的質量。鑒于過去幾年的這些技術進步,出現了不同形式的人機協作。自組織編隊是指具有不同知識和能力的人類和智能機器集體合作以實現共同目標的過程[130]。自組織人機編隊是一個具有挑戰性的場景,在這個場景中,智能體與未知的異質隊友合作,事先沒有協調的知識。一個有效的自組織團隊成員是一個善于將其他代理的能力與自己的能力進行比較評估的代理。在軍事、工業和其他自主環境中,在沒有任何先決條件的情況下與異質團隊進行有效和穩健的合作是非常重要的。沒有任何事先協調的協作是人機研究中的一個已知挑戰[131]。作為解決這個問題的一種方法,[132]中提出了一種針對自組織團隊環境的在線規劃算法,該算法是為智能體在沒有任何預先協調的情況下進行合作而設計的。

6.2. 當前人機協作方法相關的挑戰

以下是限制我們在動態操作環境中有效整合人類和智能機器的一些主要挑戰。

異質性。在人機協作中,由于人類決策任務的顯著異質性,智能機器很難預測和適應人類在動態操作環境中的行動。因此,開發可用于解決人機協作環境中異質性問題的最先進的模型和技術非常重要。

通信。人機協作的成功取決于人類和智能機器之間的有效通信。人類的通信能力有限,只能處理有限的信息量。因此,通過簡單地交換基本信息,人類和機器可以有效地溝通信息,支持人機協作。然而,這在人類和機器之間造成了信任問題。有效團隊溝通的一個關鍵組成部分是智能系統和人類之間建立的信任[133]。在人機協作中,信任被定義為用戶對智能系統結論的可靠性及其完成既定目標的能力的信心[134,135]。透明度的概念是信息交流的一個關鍵方面,因為人類和智能機器需要共享知識,對意圖、推理和決策過程、性能和未來計劃有共同的理解[136,137]。

當人類和機器作為團隊一起工作時,通信可能有助于建立信任。此外,它可以用來建立有效設計信息的準則,促進人機合作的整體性能和信任[138]。然而,機器必須首先能夠大致模仿人類處理信息的方式,才能使機器以人類能夠理解的方式交換信息。人機協作關系有三個最重要的組成部分:人、智能機器、以及人與智能機器(或替代品)之間的互動。因此,如上所述,通過開發可解釋和可信賴的人工智能來建立信任,對人機協作的成功至關重要。然而,人工智能系統日益增長的復雜性和脆弱性,以及它們學習和適應動態變化的操作環境的能力,也為在人機團隊中建立信任提出了新的挑戰。

協調。為了充分發揮異質團隊的潛力,人類和智能機器應該以高效和協調的方式進行合作。如上所述,人機協作中的通信是指人與智能機器之間的信息交流,或者說是交替進行。另一方面,協調是指組織和管理團隊成員及其相關行為以實現特定的共同目標[139,140]。根據[141],有效的人機協調涉及三個基本要求。這些要求是共同點、可預測性和可指導性。為了準確有效地進行團隊溝通,參與者必須首先確定適當的共同點,即知識、共同信念和假設、共同目標等。共同點是指參與對話的所有參與者共同相信的信息[141]。而協調小組成員合理預測對方行動和行為的能力被稱為相互可預測性[141]。另一方面,可指導性是指當環境和優先事項突然改變時,團隊成員重新指導、幫助或影響對方行為的能力[142]。因此,根據這三個要求開發一個支持隱性協調的高級模型是很重要的。隱性協調被定義為在不使用行為通信的情況下,基于假設和意圖同步團隊成員的行動和行為的過程[143,144]。這意味著通信對于隱性協調來說不一定是強制性的。隱性協調有助于提高團隊的效率,因為它使團隊成員即使在沒有直接溝通的情況下,也能通過避免分心和有效通信來共同工作[145]。這反過來又大大減少了通信的開銷[146]。

適應性。通過調整策略和行為來有效改變行動方案以應對意外變化的復雜條件的能力被稱為適應性[113]。適應性可以分為兩類:人類輔助的適應性,以及機器輔助的適應性[147]。智能機器應該能夠識別人類隊友的知識和行為。此外,機器還應該能夠預測和應對人類的新知識和行為。然而,這需要開發現代適應性(即機器控制的適應性)和適應性(即人類控制的適應性)系統。

7. 戰術自主性的網絡安全

近年來,自主系統吸引了學術界和工業部門的大量關注。然而,自主系統在各種領域的廣泛和有效采用也帶來了需要解決的安全攻擊的顯著增加。因為網絡攻擊者的目標是大規模自主系統,如現代自主車輛(AV)、載人航天器、空間交通管理系統、船舶、移動機器人、復雜核電站的運營、飛機、智能城市的關鍵基礎設施等,以破壞系統的安全性,并對其運營造成破壞性的損害。因此,設計基于人工智能的方法是至關重要的,它可以主動應對試圖破壞和獲取自主系統及其指揮組件的潛在破壞性攻擊,例如,針對系統的基本自主決策能力。自動檢測和應對鋪天蓋地的安全威脅,處理大量的數據,并發現未知攻擊的新模式,是人工智能系統在網絡安全方面的一些好處[148]。

人工智能在網絡安全方面的挑戰。人工智能會帶來不可預見的法律、道德和社會風險和挑戰,如果不能有效解決,可能會大大降低其潛力。如上所述,人工智能及其先進的ML技術已經發展成為廣泛的創新和動態領域的一項有利技術。人工智能具有戰術和戰略上的潛在好處。然而,在與使用人工智能系統相關的信任和道德考慮方面,它也被認為有一些關鍵的制約和限制。例如,[149]中的作者談到,人工智能本身可能對網絡安全和法律及道德問題構成威脅。他們認為,人工智能系統缺乏可解釋性和可解釋性,可以被利用來隱藏安全攻擊[149]。[150]中的另一項工作也證明了人工智能在網絡安全威脅方面既有積極作用,也有消極作用。此外,鑒于人工智能驅動的網絡欺凌的興起,作者還認為應該允許網絡安全專家繼續做他們的工作,并在人類智能有必要時進行網絡測試。

7.1. 入侵檢測

入侵檢測系統旨在檢測網絡中盡管采取了預防措施但仍不可避免地發生的入侵或安全攻擊[151]。入侵檢測系統有多種方法。一些方法采用了基于簽名的技術,在該技術中,事件被檢測到并與預先定義的已知安全攻擊和入侵的簽名數據庫進行比較[152,153]。其他系統采用異常檢測技術,系統在數據中發現潛在的有害模式,這些模式不符合正常行為的預期概念[154,155,156] 。在現代自主技術中,監測和識別異常情況,檢測非法和惡意活動,并采取補救措施,以確保實時自主決策系統的持續運行,特別是在戰術環境中,同樣重要。[157]中提出了一個原型的分布式入侵檢測架構,該架構使用為戰術環境定制的自主代理。[158]中提出了一種基于人工智能的方法來識別和檢測無人機中的入侵行為。

7.2. 反自主性

反自主技術越來越受歡迎,之前已經提出了各種方法來解決這個問題。當一個自主系統的基本保密性和功能受到損害時,它就會使自己更容易受到未來的安全攻擊,并對其他自主系統構成潛在威脅。因此,在不斷變化的條件下,主動檢測和識別旨在針對自主系統的潛在網絡攻擊是至關重要的。在[159]中,作者調查了需要解決的安全和隱私挑戰,以提高網絡物理系統的復原力。在[160]中介紹了一個用于自駕車的入侵檢測系統。160]中的工作涉及到,自動駕駛汽車如果被破壞,也會對道路上的乘客和行人構成風險。此外,他們的論文還討論了互聯自動駕駛汽車的漏洞如何超越了對道路上的司機、乘客和行人的危害。作者認為,互聯自動駕駛汽車的協調有可能被用來發動影響大規模車輛特設網絡(VANET)的大范圍攻擊[160]。

無人機系統具有巨大的潛力,可以在廣泛的下一代技術應用中徹底改變研究和創新。這些系統有可能受到復雜的攻擊,旨在破壞其復雜的操作和自主決策能力。這些攻擊可以用于進攻性和防御性的網絡行動。因此,有必要制定靈活和積極的戰略,有效地提供一個潛在的防御機制,以應對旨在利用安全關鍵的自主系統在最小的人為控制下的實時漏洞的攻擊。

8. 與戰術自主性有關的一些挑戰

戰術自主性為許多國防和軍事應用提供了一個很好的解決方案,只需有限的人力參與。ML和AI系統為實現民用和軍事應用的自主性創造了前所未有的機會。然而,為了開發長期的、值得信賴的、強大的和安全的自主系統,需要解決基本的挑戰。對智能系統中使用的復雜技術和工藝的實際理解是許多人工智能和ML系統的關鍵部分,這些系統是戰術自主的核心組成部分。

雖然有許多開放性的研究問題需要解決,但要實現戰術自主性在國防和其他應用中的全部潛力,需要解決的一些最長期和最重要的挑戰包括以下幾點。

  • 用于戰術自主的可信賴的人工智能。為關鍵的國防任務開發可信的、強大的和有彈性的人工智能和ML框架,需要了解與可信的人工智能和任務自主性有關的理論和實踐技術和方法,平臺之間的協作,以及通過解決第4節、第5節和第6節分別討論的關鍵技術挑戰實現的人機合作。為了增強對人工智能系統的信心,我們需要進行更多的研究來解決這些問題,使人工智能系統值得信賴。

  • 對基于人工智能的模型進行驗證。確保基于人工智能的解決方案按照預期工作是極其重要的。然而,設計最先進的方法來驗證基于人工智能的系統是具有挑戰性的,需要大量的工作。

  • 平臺之間的協作。改善人類和完全自主的系統(如飛行員和自主副駕駛)之間的實時協作是具有挑戰性的。因此,開發一個有效的、高效的協作性自主解決方案是一個需要克服的關鍵挑戰。

  • 人機聯合協作。深入了解機器如何向人類學習,人類如何向機器學習,以及機器和人類如何共同工作是非常重要的。我們如何才能設計出先進的自主系統,在軍事和國防環境中與人類協同工作?

  • 提高安全性。我們如何設計和部署一個端到端的方法,整合現代安全關鍵型自主系統的安全問題?

9. 結論

軍事和國防工業希望利用AI和ML的能力來推進和改善其在戰術環境中的表現。在本文中,我們對戰術自主的概念、技術和技術進行了全面的技術概述。此外,我們的論文還強調了在試圖為先進的現實世界軍事和國防應用實際建立完全自主系統時出現的一些關鍵和操作挑戰。因此,我們希望本文能鼓勵人工智能和ML研究人員在戰術自主性領域進一步探索開發架構和方法論。

設計先進的人工智能和ML模型,對現實世界的軍事和國防應用具有實際意義,這是一個很大的挑戰。進一步調查這個問題,重點是在以前的研究工作中沒有充分解決的尖端人工智能和ML方法,是未來工作的一個有趣的方向。此外,展示一系列實際應用和最先進的方法,以解決和深入了解本文所討論的一些長期關注的挑戰,是未來戰術自主權實際應用的另一個研究方向的課題。

付費5元查看完整內容

在過去的幾年里,人工智能(AI)的采用非常迅速,其使用也很廣泛。公共和私人部門的組織正在將人工智能用于廣泛的應用。在國防部門,對人工智能對國家安全的潛在影響的認識正在通過對后勤、半自動和自主武器、ISR(情報、監視和偵察)、指揮和控制以及網絡和信息行動的大量投資得到加強。畢竟,人工智能將戰爭的性質從信息化的方式轉變為智能化的戰爭方式。像美國和中國這樣的國家已經在其現有的防御框架中實施了一些形式的智能化戰爭。印度現在正以其新興和顛覆性的技術進步,向強大的軍民融合過渡。這篇背景文章探討了可能通過人工智能及其應用進行的智能化戰爭的所有方面,以及人工智能為國防帶來的挑戰和機遇。

印度的人工智能實施及其路線圖

印度的人工智能在軍事領域的實施處于起步階段;然而,其商業化的建立正以其在醫療保健、農業、教育、智能城市和基礎設施以及智能移動和交通等各個領域的不同應用而發展壯大。NITI Aayog在2018年發布了關于人工智能的國家戰略,主要關注這些領域。2021年,它進一步提出了一份關于負責任的人工智能第一部分和第二部分的報告,其中討論了印度人工智能的發展、采用和人工智能生態系統的培育。它的重點是促進研究、勞動力的技能培訓和再培訓,促進采用人工智能解決方案和發展準則。該報告還提出了對負責任的人工智能管理的問責制、安全、隱私和數據安全的關注。Niti Aayog的人工智能卓越研究中心(COREs)將作為國際轉型人工智能中心(ICTAIs)的技術供給者,旨在為社會領域創造基于人工智能的應用。

  • 印度在國防方面的人工智能研究由國防研究與發展組織(DRDO)領導,由人工智能和機器人中心(CAIR)負責。它的主要重點領域是人工神經網絡、深度學習、計算機視覺和態勢感知,包括以網絡為中心的行動和在龐大的戰場數據知識庫上運作的AIenabled系統。2019年,印國防部成立了一個高級別的國防人工智能委員會(DAIC),負責為國防中的人工智能應用提供戰略方向。其職能是在政府和行業之間建立伙伴關系,以部署這種基于人工智能的創新。一個由政府、軍方、學術界、工業界專業人士和初創企業代表組成的多利益攸關方工作隊,從國家安全的角度和全球范圍內研究人工智能的戰略影響。該報告闡述了印度在國防需求方面的人工智能發展,并就航空、海軍、陸地、網絡、核戰爭和生物戰等領域的國防人工智能能力提出了建議。鑒于這些發展,DAIC和國防人工智能項目局(DAIPA)獲得了1000億盧比的年度預算,專門用于人工智能支持的項目。它將包括開發一個數據管理框架,擴大數據中心的現有能力,建立一個便利的測試床網絡,并在所有國防培訓中心組織人工智能培訓課程。此外,它將與政府機構和行業合作準備政策,對社會和技術的濫用形成威懾。國防部的人工智能路線圖包括國防公共部門企業(PSU)承擔61個國防專用項目。國家任務組已經確定了12個人工智能領域,包括在印度軍隊中采用人工智能進行C4ISR。印度軍方已經與工業界和新技術創業公司合作開展了人工智能項目。

印度的人工智能能力

印度正在帶頭進行人工智能開發和采購,以加強其軍事基礎設施。印度人工智能軍事能力的一些例子包括用于ISR行動的人工智能機器人RoboSen,用于后勤支持的小型化便攜式行走機器人,具有認知能力的機器人,用于維護和維修部件,像黑黃蜂這樣的微型無人機,智能輪椅,以及CAIR的網絡流量分析(NETRA)系統,用于實時監控互聯網流量。印度的無人機能力包括Botlab Dynamics公司的蜂群無人機,HAL和NRT公司的空中發射靈活資產蜂群(ALFA-S),蜂群無人機,DRDO的Rustom 1。 印度海軍還計劃在關鍵任務領域整合基于人工智能的技術,并將INS Valsura作為大數據領域的卓越中心和關于人工智能和大數據分析的最先進實驗室。最近,2022年7月10日,在UDAAN(數字化、自動化、人工智能和應用網絡單位)的支持下,IAF在新德里的空軍站啟動了人工智能(AI)卓越中心。該中心配備了大數據和人工智能平臺,用于處理分析的所有方面,包括機器學習、NLP、神經網絡和深度學習。IIT-Hyderabad已經建立了一個關于自主導航和數據采集系統(TiHAN)的技術創新中心。DRDO的移動自主機器人系統(MARS)UGV和基于Arjun MK 1A戰斗坦克的UGV是正在籌備中的無人駕駛地面車輛,它們將配備120毫米火炮和本土地理信息系統(INDIGIS)。 印度國防部最近在GenNext人工智能解決方案的活動中展示了在過去三年中采取的人工智能舉措。為了促進國防部門的增長和發展,展示了iDEX初創企業技術,今年開始了第六屆國防初創企業挑戰。

付費5元查看完整內容

本評論討論了英國及其盟國在為國防建設可信賴的自主系統方面所面臨的一些挑戰。它是TAS政策前景審查系列的一部分,調查了圍繞設計可信賴的自主系統所出現的問題。這次審查的重點是在國防背景下對新型自主系統的信任,以及與此相關的政策問題。

自主性是什么意思?

  • 談到國防系統的自主性,這是一個程度問題,而不是一個簡單的是或不是的案例。因此,談論具有自主能力的系統(SACs)更為合適。自主性引起了許多實際問題,如SACs的可信度以及人機合作中人的參與程度和質量。

  • SAC的自主性是一個復雜的問題,由(至少)三個變量驅動:1)人類操作員和機器之間的指揮和控制關系的特點和質量;2)完全或部分委托給SAC的決策類型;以及3)SAC的復雜性、成熟度和可靠性。因此,自主權最好被理解為一個包含所有這些因素的總括性術語。

法律和道德方面的挑戰

  • 目前,英國和北大西洋公約組織(NATO)不認為SACs需要對國際法進行修訂或制定新的條約。雖然道德和法律規范可能會隨著時間的推移而變化,但目前英國政府認為,如果SAC的設計符合國際人道主義法律,那么它們的發展和部署就完全在現有法律的范圍內。

  • 雖然大多數對SACs的倫理反思提請注意將決策權下放給機器可能帶來的麻煩,但一些評論家認為SACs將更加精確并受預先定義的規則約束,因此在倫理上是可取的。

  • 雖然國防部(MOD)指出了SACs的效率提升,以及它們如何可能使服務人員免受傷害,但它們確實給政策制定者帶來了一些新的挑戰。這些挑戰包括(算法)問責制的問題和對責任侵蝕的擔憂。部署特別行動小組需要強有力的行為準則和健全、透明的決策過程。

公眾意見

  • 民意研究表明,在英國和美國,公眾對使用致命的SACs有很大的反對意見。然而,如果SACs的部署是有背景的,而不是以生死或人類的圈外決定為框架,那么公眾對SACs的反對就會大幅下降。鑒于自主系統在其他領域的擴散,如醫療保健和自主車輛,一些評論家發現公眾對自主性的接受程度總體上有所提高,這可能會蔓延到SACs領域。然而,經驗性的情況是混合的,而且可能仍然是不穩定的。

人機合作

  • 武裝部隊對SAC的信任目前還沒有得到充分發展。縮小軍隊中的信任差距需要持續的長期參與。對這一領域的經驗情況的研究嚴重不足,這限制了證據基礎。

  • 人機協作對軍事人員的教育、招募和持續培訓提出了新的要求。未來SAC的人類操作員將需要廣泛的培訓。政策制定者應從戰略上考慮招聘問題,以及武裝部隊如何在強大的私營部門競爭中吸引和保留人才。

創新

  • 在很大程度上,新的SAC技術將與新的工業伙伴合作開發,這些伙伴可能之前沒有與國防部合作的歷史。合作可能會繼續模糊公共和私人資助的研究之間的界限。2021年國防和安全工業戰略(DSIS)尋求將政府的研發和創新支出與私營部門的活動更好地結合起來。

  • 在許多情況下,SACs包含了雙重目的技術。這引起了關于發明擴散、知識產權和外國產業參與的問題,其中一些問題在2020年國家安全和投資法案(NSIB)中得到解決。

付費5元查看完整內容

摘要

智能合約、智慧城市和加密貨幣是區塊鏈技術最著名的應用。因此,這些應用在很大程度上打破了傳統做法,顯示了區塊鏈技術的新興和顛覆性特征,以至于有人將這些新應用描述為 "區塊鏈革命 "的結果。在這一領域已經開展了大量的研究項目,并提出了如何在軍事領域采用區塊鏈技術的問題。本文側重于對區塊鏈技術所包含的內容、在后勤領域應用的潛在機會的進行研究,并討論了北約為采用區塊鏈技術而在政策、程序、理論和系統方面的必要轉變。

1.0 引言

在一個數據占主導地位的時代,保持戰略優勢要依靠數據。收集、共享、交換、過濾、分析和使用數據的方式可以提高效率和效益,以支持戰區的作戰人員。技術的進步提供了不同的軟件工具使這種努力成為可能。雖然有多種工具可用,但國防領域的可持續性和復原力需要識別、理解和實施最有效的工具。

縱觀歷史,新思想、新應用和技術革命已經以最深刻的方式改變了世界。雖然一場革命 "區塊鏈 "在1992年發生得非常悄無聲息,但2009年比特幣網絡和數字貨幣的到來,區塊鏈極大地影響了金融服務治理的定義。然而,它的具體特征也在重塑非金融領域的思想、行為、觀念和經營方式。它們正在數字國防領域展開,并在軍事后勤領域的移動和運輸、供應鏈、資產跟蹤和數據共享方面增加實驗和采用。

為了了解區塊鏈技術,探索現有的使用案例,并考慮相關的、未解決的問題,后勤和維持處在2022年3月舉行了關于區塊鏈技術的網絡研討會。該網絡研討會 "將區塊鏈應用于北約[1]",接待了行業專業人士--技術用戶、供應商、開發人員和咨詢人員,并建立了一個區塊鏈技術興趣社區,擴大了國防和民用區塊鏈技術應用的知識,并確定了北約可以利用的機會。網絡研討會之后進行了快速調查,旨在找到 "我們如何通過使用區塊鏈來改造和發展北約的后勤能力 "的答案。

本文在網絡研討會的基礎上,提供了網絡研討會的錄音、我們的調查結果、文章、白皮書和報告的鏈接。在第2節中,對區塊鏈技術所包含的內容有一個共同的理解,然后描述其應用和區塊鏈環境中的主要參與者。隨后,我們將重點討論當前的問題和區塊鏈在北約后勤中的變革作用。之后給出了調查結果和用戶的意見,接著是結論。

2.0 區塊鏈技術認識

2.1 了解區塊鏈技術

區塊鏈通常被描述為分布式數字賬本,就像在若干臺計算機上共享的Excel電子表格。然而,根據技術、法律、商業等特定方面,有可能找到一些不同的定義。例如,Joseph Holbrook的定義是從商業角度來看待區塊鏈。

"一個商業網絡,在同行之間用來交換價值。價值可以是貨幣、跟蹤信息或任何有關各方要求在區塊鏈賬本上維護的東西[2, p.5]。"

霍爾布魯克建議,根據目標受眾的角色和情況為其量身定制定義,可以促進他們的理解。國防后勤的定義可以考慮如下:

"一個分布式的數字軍事賬本,用于聯盟國家之間交換國防后勤價值。國防后勤價值可以是公認的后勤圖片、資產跟蹤信息、跨境紙質文件,或任何感興趣的軍事單位需要在區塊鏈賬本上維護的東西,以提高數字骨干的可持續性。"

這項技術的眾所周知的特點是去中心化、不可更改性和透明度。去中心化簡單地定義為區塊鏈網絡對資產負責[3, p.78]。在傳統系統中,一個中央機構--第三方控制著數據流和數據庫。這樣做,這個權威機構確保了中心化系統環境中各方之間的安全和信任。在去中心化系統中,責任不屬于個人、實體或政府,因為區塊鏈技術將 "信任 "元素從中央結構手中奪走,交給了一個去中心化的結構,在這個結構中,網絡本身發展了信任[22, p.11] 。如下圖1所示,相同的數據被分發到區塊鏈網絡中的每一個用戶,這些數據被存儲在網絡中的每一臺計算機上。

圖1:信任協議[5]

其不可變和不可逆的記錄基礎設施解決了區塊鏈的主要特征。數據被打上時間戳并永久地存儲在這個數字賬本上。未經授權的用戶不能改變或修改永久存儲的記錄。這些時間戳、授權和不可破壞的特性確保了數據的問責制[4, p.155]。換句話說,它是真實的。此外,為了在網絡中提供透明度,它讓每個人都有平等的權利來查看數據。

除了這些特點,區塊鏈還具有無限的只需追加的特點。這允許用戶無休止地在現有記錄中添加新信息,并按時間順序查看[3, p.21]。它還使個人用戶、組織和分類賬能夠以更快的速度單獨、輕松和安全地進行互動,并且不需要任何第三方批準。

區塊鏈值得注意的 "新興技術 "特征依賴于這些重要特征。它們使區塊鏈的受歡迎程度倍增,特別是在金融領域。此外,美國國防部表示,作為一項 "顛覆性技術",它還在重塑反恐、網絡入侵、國防、情報、全球貨幣政策、貨幣估價和操縱[13, p.7]。由于認識到其新興和破壞性的特點,私營和公共部門的許多實體正在逐步在其商業環境中采用這一技術機會。

2.2 區塊鏈技術的應用和機遇

目前,區塊鏈應用的主要用戶是金融和銀行領域,然而,它的使用并不僅限于金融領域。如下圖所示,商業、政府、教育和健康領域都在實施這項技術,為其提供不同的服務。

區塊鏈在不同行業的應用[6, p.17]。

  • 金融:加密貨幣、合同、清算、結算、記錄保存。

  • 商業:市場交易、保險、資源管理、供應鏈、權利管理。

  • 政府:智能城市、交通、電子護照、數字身份證。

  • 醫療保健:健康記錄、管理供應鏈和處方。

  • 教育:管理內容、證書、學習成果評估。

在傳統的金融和商業系統中,大量的跨境匯款是負責不同實體之間的資金流動。這個多人的過程需要長達幾天的時間來處理,其中還需要收取一些轉賬費用。相比之下,區塊鏈技術允許點對點(P2P)的通信,并消除了這個過程中的中介。將中央機關從這個過程中移除也消除了轉賬費用,并允許在對等人之間分配非常微小的付款。例如,德意志銀行的項目,理論上表明,各方可以在沒有中間人的情況下交換合同,并減少操作風險[7,第8頁]。這種P2P技術還可以通過使用分布式數據存儲實現文件共享。因此,用戶可以訪問存儲在連接到同一P2P網絡的其他用戶計算機中的數據[23, p.86]。

傳統的合同在規定的范圍內設定規則和條款。即使在大型組織中,傳統的合同生命周期也大多基于紙質記錄和手工流程。另外,它仍然依賴個人聯系、電子郵件和電話來確認可見數據的真實性,這對啟動下一步合同至關重要。另一方面,智能合約將工作分解為書面代碼,在計算機程序中實現條款的自動化。這樣做,它使合同的生命周期數字化,減少了企業環境中的紙質合同和人工流程。此外,他們可以在多方之間進行一個合作的業務流程[23, p.8]。當所有的條件得到滿足時,他們只需做所述的工作。因此,它改善了對單一真相來源的及時訪問,以及基于紙張和手工流程的低效率。

全球供應鏈很長,并且在操作方面包含多個參與者,因此,供應鏈管理高度依賴于互操作性。例如[8],加拿大沃爾瑪確定的供應鏈問題是。沃爾瑪加拿大公司和其承運商之間使用多個信息系統,但這些系統不能相互對話。為了解決這個問題,有人建議建立一個區塊鏈網絡,將這個過程自動化。該網絡將有爭議的發票數量從70%以上減少到1%以下。不過,該網絡的最初目標是消除爭議和浪費的資源。這個解決方案為沃爾瑪及其供應鏈上的參與者提供了洞察力,導致了重大的運營改進。

為了保持戰略優勢,國防部門正在探索應用這項技術的機會。調查數據和最近的研究表明,軍隊正在后勤領域開展運動和運輸、3D打印、供應鏈、資產跟蹤、數據記錄訪問共享和認證相關的區塊鏈應用。這些與國防有關的應用之一是3D打印。國防部正在尋找這項技術,以便在3D打印過程中保持最大的安全性,其中 "破壞下載的3D打印文件和區塊鏈通道幾乎是不可能的[9]"。

在這些不同的應用中,區塊鏈有各種類型,如私有(有許可)和公共(無許可),以及混合(聯合)架構。有許可和無許可架構的主要區別是網絡的透明程度。在公共網絡中,任何人都可以訪問存儲的數據并進行交易。而私有(許可)區塊鏈網絡允許有一定權限的用戶接觸數據并進行交易。私人和公共分布式賬本的比較見表一[10, p.668]。區塊鏈環境中的行為者可以選擇最合適的結構類型來滿足自己的要求。

表1-1:公共和私有分布式賬本的比較。

這些不同的應用和機會吸引了不同部門的新參與者。隨著技術的不斷完善,開發內部區塊鏈技術需要熟練的勞動力。這增加了新的工作機會,然而,對區塊鏈技能的需求可能會迅速增長。最近舉行的一個活動,區塊鏈技能會議表示,大約50%的公司遇到了招聘困難。此外,據預測,到2029年,全球區塊鏈市場將從70億增長到超過1600億,是其目前價值的23倍。從這些數字中得出的結論是,在即將到來的七年中,在區塊鏈環境中尋求新的區塊鏈機會的行為者的數量將增長和多樣化。

2.3 區塊鏈環境中的主要行為者

對區塊鏈技術日益增長的興趣和不斷增加的投資為生態系統帶來了新的行為者,最明顯的是網絡安全專家和IT專家。之所以需要這種專業知識,是因為無許可結構允許每個擁有個人電子設備的人加入公共區塊鏈網絡。這種高度可及性大多被描述為區塊鏈技術的漏洞之一。為了防止類似的漏洞并安全地部署區塊鏈,專家們進行了業務分析、研究和調查,并引入了新的工具和技術進步,如量子計算。這些努力逐漸增加了學術界、全球咨詢公司和智囊團對環境的參與。

區塊鏈是一項相對較新的技術,其標準仍在開發中。制定標準的廣泛方法是非常重要的,特別是為了建立全球互操作性。國際標準組織(ISO)是這個過程中的關鍵參與者之一。ISO發布了8個標準,目前有10個標準正在開發中。在這個工作領域,有42個參與成員和20個觀察成員。此外,法律部門也在致力于監管方面的發展。

區塊鏈技術可以將一個城市轉變為一個智能城市。在城市轉型過程中,上述功能可以優化和加強城市基礎設施、交通系統、教育、醫療、安全以及通過獲取信息進行連接的維護[11]。例如,荷蘭海牙市就對這些功能進行了評估,并開展了智慧城市基礎設施創新項目。隨著區塊鏈啟用的解決方案在政府間的傳播,要求政策制定者參與到這一過程中來的情況將很有可能增加。

從政府的角度來看,俄羅斯和中國政府也是區塊鏈環境的關鍵參與者。了解他們的能力可以擴大對區塊鏈的認識。例如,中國[12]計劃將區塊鏈應用于供應鏈、電子政務和金融技術,并對智能合約、非對稱加密和共識算法進行了研究和開發。此外,中國軍方將區塊鏈技術評估為改變情報、武器生命周期、人員管理、信息戰、整個軍事供應鏈數據完整性的游戲規則。

俄羅斯也是區塊鏈的積極參與者。俄羅斯政府已經投資于該技術的研究和開發(R&D)。例如[13],俄羅斯國防部開始了一項研究,分析如何利用區塊鏈技術來減輕網絡安全攻擊并支持軍事行動。開發一個智能系統來檢測和防止對重要數據庫和武器系統的網絡攻擊,被認為是這項研究的優先事項。

不同的先進技術也可以被認為是關鍵人物之一。根據最近的研究,區塊鏈技術可以補充人工智能技術。為了保證無人駕駛飛行器(UAVs)存儲數據的真實性,也可以使用區塊鏈。區塊鏈可以增強無人機的能力,使其更安全、更準確、更容易控制[24, p.2]。

量子是另一項關鍵技術,區塊鏈很快就會與之有密切關系,以創建新的網絡安全系統來保護數字價值[3, p.150]。

簡而言之,區塊鏈技術將要求行為者熟悉在公共和私營部門之間的工作,因為該技術逐漸在這兩個領域傳播。考慮到關鍵參與者的努力,在區塊鏈環境下,發展軍事能力與發展非軍事能力同樣重要,這可以在提高所有利益相關者的互操作性方面發揮主導作用。

3.0 北約后勤的轉型

3.1 北約的數字化轉型

為了讓北約擁抱多域作戰并保持戰略優勢,聯盟的數字化轉型成為一種必然。盟軍轉型最高指揮官Philippe Lavigne將軍強調,為了實現跨域作戰、優化效果和保持指揮與控制的優勢,存在著數字化轉型的操作必要性[14]。北約盟軍司令部轉型負責能力發展的副參謀長大衛-朱拉扎德中將將革命性的數字化轉型描述為將盟軍從一個以平臺為中心的組織轉變為一個以數據為中心的安全組織[15]。

數字化轉型可以支持并使指揮官做出正確的決定。然而,其結果高度依賴于在安全的數據環境中,在正確的時間提供正確的數據。此外,它們高度依賴于當前的領導力、人員、流程、組織和技術的能力。

北約數字化轉型的途徑始于北約對新興和顛覆性技術(EDTs)的 "培養和保護 "戰略。該戰略目前側重于九個優先創新領域。為了支持這些關鍵領域,區塊鏈是一個確定的EDT項目,將補充這些優先事項。EDT領域集體可以在整個組織內實現可持續的數字化轉型。

3.2 問題還是 "互操作性 "嗎?

互操作性可以被簡單地描述為與其他能力一起工作的能力。它包括所有與該能力與其他能力、合作伙伴和國家的互動有關的問題,以及信息系統和安全領域的連接。一些成員國轉變其能力的速度更快。然而,任何先進的國家能力在一個聯盟中都可能變得幾乎毫無用處。在一個多元化的組織中,成功的關鍵是要能夠合作。朱拉扎德中將強調[15],互操作性仍然是成功的關鍵,但它不是一個障礙。

技術的進步提供了一個協作、合作的環境,并最終整合個人能力,建立全面的互操作性。實現互操作性目標的核心是北約和各國的數字化轉型,使整個聯盟的大量數據在一個可信賴和安全的網絡環境中得以收集、存儲、訪問、記錄、交換和分享數據。

3.3 區塊鏈在北約后勤鏈中處于什么位置?

后勤被描述為計劃和執行部隊的移動和維護的科學[16, p.1-1.]。它包括計劃、設計、開發、獲取、儲存、移動、運輸、分配、維護、疏散和處置、醫療和衛生服務支持。作為國家努力的補充,北約一直在開發各種能力、概念和軟件工具,以解決能力差距和全聯盟的要求:例如,北約作戰后勤鏈管理(OLCM)能力、后勤功能區服務(LOGFAS)和啟用支持服務,目前正在開發過程中。它們都是對北約前瞻性的后勤概念的補充。

多年來開發的軟件能力旨在為軍事人員提供一個可互操作的后勤環境。然而,軍事后勤利益相關者群體并不只限于軍事實體。在這個生態系統中,需要在軍事和非軍事實體之間建立一座永久的橋梁。目前,在多行為體的后勤環境中,不同部門之間的數據交換已大大增加。簡單地說,30個不同國家的軍事單位,他們的非軍事實體和他們的私營部門,以及北約機構必須能夠與各種軟件能力協同工作。

因此,北約后勤依賴于先進的、可互操作的和可信賴的軟件系統,由所有參與者填充所有可用的、必要的和必需的數據,以便及時、安全和高效地開展后勤服務。在所有參與者之間共享數據是非常關鍵的,在共享和交換數據方面達成廣泛的協議是有效執行北約后勤的必要條件。

在北約數字空間中流通的數據量是巨大的,對對手來說也很有價值。從這個角度來看,安全的數據平臺是非常重要的。在這種情況下,"信任 "就變得非常重要。特別是,安全問題引發了數字世界中同行和非同行之間的信任問題。

大多數時候,人們的興趣都集中在數據收集上,而不是建立數據共享的激勵機制。由于數據的價值增加,顯然,愿意分享這種價值需要激勵。今天的技術解決方案提供了能夠與軍事和非軍事伙伴在相同和可信任的環境中工作,并談論共同的數據語言。

3.4 下一步該怎么做?北約后勤鏈中的去中心化和可信任的賬本

如今人們不得不處理過量的數據、不同的法規、術語、標準和網絡問題。一個組織的努力可以促進克服這些問題。例如,DHL快遞公司的國際政府事務負責人Eugene Laney強調了供應鏈管理中的集體努力:“然而,區塊鏈是一項團隊行動;如今沒有一家公司能獨自完成客戶供應鏈的運輸[17]”。在整個北約,任何一個成員國都可以自己完成運營后勤責任,比如說,不跨越國界,不與不同國家的軟件工具進行任何整合,等等?如果不能,下一步去哪里?

區塊鏈技術可以用來控制和登記整個北約后勤生態系統的貨物和服務[18],因此它可以增加可見數據的數量。回顧寫在比特幣區塊鏈賬本上的第一個創世區塊只是一個文本[19],它不是金融,這表明區塊鏈技術可以作為數據的儲存庫[3, p.43]。一些國家已經開始使用數據存儲庫。

國防環境中的后勤需要協調、合作和同步的聯合和多領域的軍事和非軍事、國際和政府間行動。因此,在平臺之間共享數據的互操作性,以及在所有層面上的橫向和縱向移動數據,對于支持未來的作戰人員變得非常關鍵。通過開發一個數據交換鏈,能夠在正確的時間向正確的人提供正確的數據,可以提高行動的成功率。例如,數據可以在區塊鏈網絡的用戶之間通過單一的分布式賬本在北約之間流動。這些用戶可以是公共和私人領域的軍事和非軍事行為者。

很明顯,擁有機密和巨大數字數據源的大型組織絕不會喜歡公共區塊鏈領域的完全透明記錄。北約的綜合許可區塊鏈能力可以創造出比各國獨立部分之和更大的綜合效應。有權限的區塊鏈可以提供組織級的安全[2, p.7],并保持生態系統中的信任元素。因此,后勤數據在安全環境中的傳播速度可能比其在當前系統中的流動速度更快。它可以確保跨領域的數據共享的互操作性,這對未來的作戰人員來說是至關重要的,以便連貫、有效地共同行動,實現盟軍的戰術、作戰和戰略目標。從理論上講,上述努力也有助于發展一個非紙質的后勤環境。

一些業內人士認為,區塊鏈技術本身的功能就像一個法規[20, p.155]。換句話說,該技術通過減少人類的參與來促進進程,而人類是將數據錯誤引入系統的已知來源,因此減少了錯誤數據的可能性。在北約,標準協議(STANAGs)是規范國家間互動的一種方式,它們是實現互操作性的主要工具。例如,在北約后勤環境中,有50個STANAGs由后勤委員會認可。考慮到需要使用其他STANAGs來管理戰區的后勤工作,后勤人員應該建立關于50多個STANAGs的知識。

智能合約承諾將以前的一些書面規定自動化。換句話說,它們可以被描述為一種數字法規。北約的法規可以被數字化,并轉化為智能合約。這樣做將把許多文件傳達給數字環境,使它們能夠在沒有任何人力的情況下發揮作用。在這個過程中產生的數據可以被儲存為不可改變的和有時間戳的。它可以讓區塊鏈網絡用戶知道什么是真實的--至少在結構化記錄信息方面[20, p.6]。

4.0 調查結果摘要

4.1 受訪者

2022年5月2日至13日期間,以問卷的形式進行了一次快速調查,以尋找 "如何利用區塊鏈改造和發展北約后勤能力?"問題的答案。這是向所有區塊鏈網絡研討會的參與者、2023年有能力的后勤人員初步規劃會議的參與者和北約工業咨詢小組(NIAG)后勤利益共同體成員發出的。該調查旨在收集來自區塊鏈和后勤相關社區的投入。

來自15個國家和北約機構的53人回答了調查問卷。受訪者報告說,他們在北約指揮結構、軍事和非軍事實體中擔任經理、主任、科長、顧問、法律顧問、參謀、工程師等職位。幾乎一半的受訪者在他們的工作空間中承擔戰略和規劃的角色。54%的受訪者通過北約技術相關活動(如會議、網絡研討會、文章、報告)了解區塊鏈技術。

4.2 區塊鏈技術的作用

關于區塊鏈技術的作用的調查問卷問題的分析在三個問題下呈現。

受訪者的國家是阿爾巴尼亞、比利時、捷克共和國、法國、德國、意大利、立陶宛、荷蘭、挪威、波蘭、葡萄牙、羅馬尼亞、西班牙、圖爾基耶和英國(UK)。近47%的受訪者認為他們的國家或他們的軍隊可以領導或開展活動,實現北約后勤能力的區塊鏈轉型。

圖-2 Q. 有一些國家的組織已經將區塊鏈解決方案部署到其核心業務活動中。你們的軍事力量在哪些區塊鏈領域工作?

根據這些回答,前兩個區塊鏈技術解決方案被部署到數據共享和供應鏈的軍事活動中。繼軍事層面的區塊鏈技術工作大體上似乎是由數據訪問、資產追蹤以及移動和運輸組成。然而,近37%的受訪者不知道他們的軍事環境中目前的區塊鏈工作。

圖-3 Q. 在北約后勤能力的區塊鏈轉型中,北約應在哪些領域發揮杠桿作用?

這些答案支持區塊鏈技術可以提高互操作性的能力。具體來說,69%的調查對象表示,北約應該在北約后勤能力的區塊鏈改造中發揮杠桿作用,提供基于區塊鏈技術的互操作工具。此外,創造更好的技術理解,專注于教育和培訓,領導多國努力,以及調整組織、理論和概念被指定為北約應承擔杠桿作用的其他領域。

4.3 區塊鏈轉型的主要關注點

根據調查反饋,75%的受訪者認為,網絡安全問題是采用基于區塊鏈技術的解決方案應考慮的問題之一。

圖4 Q. 以下哪些挑戰會對北約后勤環境中采用基于區塊鏈技術的解決方案產生影響?

采用區塊鏈技術需要克服的主要挑戰是治理審批速度慢,遺留系統和新系統之間的整合過程長。其中一個具體的答案是:"北約需要防止建立另一個‘概念’、‘程序方法’或‘技術可能性’,這在紙面上看起來不錯,但正如目前俄羅斯/英國的情況所證明的那樣,與現實世界的作戰要求相去甚遠。" 這表明,采用區塊鏈技術的努力會受到組織慣性和基于繼續當前軌跡的思維模式的挑戰。正如Tsedal Neeley和Paul Leonardi在《哈佛商業評論》的 "發展數字心態 "一文中所說,"像其他變革舉措一樣,數字轉型往往會遇到阻力,早期的錯誤做法是不可避免的。[21, p.51]."

圖-5 問: 以下哪些障礙可以適用于區塊鏈技術?

缺少有數字思維的領導人和缺少有技能的人是關于更多地采用區塊鏈技術的障礙的前兩個回答。然而,有趣的是,只有25%的受訪者認為這不是一個最低的軍事要求。另一個有趣的觀察是,只有不到19%的人認為數字工具集是不夠的。

在最后一個問題中,調查的重點是受訪者提出的具體意見。綜上所述,他們提出了以下幾點建議:

  • 考慮到區塊鏈技術的相關性。

  • 重新專注于 "運營"。

  • 我們/北約需要減少 "管理"。

  • 從概念的角度和過程來對待區塊鏈技術。

  • 考慮到各國在這項技術上的努力和實施的差異。

5.0 結論

在數字時代,保持戰略優勢有賴于各種技術能力。與其選擇一種先進的技術并對其進行投資,不如識別和了解不同的技術并將其納入數字化轉型組合中,可以提高組織的數字化價值。

任何先進的技術都是完美的,每個技術都有自己的優點和缺點。區塊鏈技術也不例外,涉及其自身的優點和缺點。只有當正確的能力在正確的地方與他人整合,成功的數字轉型才有可能。在數字化轉型的過程中,新的可能性,如果不加以利用,可能會成為新的問題。

對這項技術的更好理解可以通過著手概念性的方法,然后進行實驗來實現。給出答案,一個不起眼的去中心化和可信任的賬本是否可能是在一個數字監管的可持續后勤生態系統中共同工作的解決方案。

為了確保北約區塊鏈術語的標準化,建立標準和定義術語在數字轉型過程中獲得了重要性。這一努力有可能有助于實現互操作性。為了加強區塊鏈技術解決方案的互操作性和有效性,與非軍事伙伴的合作發揮了關鍵作用。

為了加強區塊鏈意識,讓聯盟變得更加積極主動,需要集體努力。"北約后勤鏈中不起眼的賬本"將是2023年北約后勤區塊鏈技術概念的主題。在這個過程中,北約利益相關者的出席和對發展這個概念的貢獻將被高度贊賞。

付費5元查看完整內容

近年來,人工智能(AI)在醫學和醫療領域的應用因其巨大的潛力而備受贊譽,但也一直處于激烈爭議的中心。這項研究概述了人工智能如何有益于未來的醫療保健,特別是提高臨床醫生的效率,改善醫療診斷和治療,以及優化人力和技術資源的配置。該報告確定并澄清了人工智能在醫療保健領域造成的主要臨床、社會和倫理風險,更具體地說: 潛在錯誤和患者傷害;存在偏見和衛生不平等加劇的風險;缺乏透明度和信任;易受黑客攻擊和數據隱私泄露的影響。該研究提出了緩解措施和政策選項,以最大限度地降低這些風險,并使醫療人工智能的利益最大化,包括通過人工智能生產生命周期的多方參與,提高透明度和可追溯性,對人工智能工具進行深入的臨床驗證,以及對臨床醫生和公民進行人工智能培訓和教育。

目標

近年來,人們對人工智能(AI)在醫學和醫療保健領域的應用的興趣和關注迅速增長,成為跨學科科學研究、政治辯論和社會行動主義的中心。本報告的目標是解釋人工智能可以在醫療和保健領域做出貢獻的領域,查明在這個高風險和快速變化的領域中應用人工智能的最重大風險,并提出應對這些風險的政策選項,以優化生物醫學人工智能的使用。這不僅能確保接受人工智能醫療的患者的安全和尊重,還能幫助參與實施人工智能醫療的臨床醫生和開發人員。

方法

本研究采用跨學科方法,基于對現有科學論文、白皮書、近期指南和法規、治理建議、人工智能研究和在線出版物的全面(但非系統性)文獻綜述和分析。本報告涉及的多學科資源包括計算機科學、生物醫學研究、社會科學、生物醫學倫理、法律、工業和政府報告等領域的著作。本報告探討了廣泛的技術障礙和解決方案、臨床研究和結果,以及政府建議和共識指南。

人工智能在醫學和醫療保健中的具體應用

這項研究首先概述了人工智能在醫學領域解決緊迫問題的潛力,特別是人口老齡化和慢性疾病的增加、衛生人員缺乏、衛生系統效率低下、缺乏可持續性和衛生不平等。報告還詳細介紹了生物醫學AI可能做出最重要貢獻的不同領域: 1) 臨床實踐,2)生物醫學研究,3)公共衛生,4)衛生管理。在臨床實踐領域,該報告進一步詳細介紹了具體貢獻-實現和潛在的-特定醫療領域,如放射學,心臟病學,數字病理學,急救醫學,外科手術,醫療風險和疾病預測,適應性干預家庭護理和心理健康。在生物醫學研究方面,該報告詳細介紹了人工智能對臨床研究、藥物發現、臨床試驗和個性化醫療的潛在貢獻。最后,報告介紹了人工智能在公共衛生一級以及對全球衛生的潛在貢獻。

付費5元查看完整內容

引言

俄羅斯總統弗拉基米爾·普京宣布 2021 年為俄羅斯科技年,11 月被命名為人工智能 (AI) 月,這表明俄羅斯領導層對這一總括性術語的濃厚興趣。俄羅斯國防部門尤其被這些人工智能技術相關機遇所吸引。近年來,人工智能、機器人技術以及將自動化和自主性進一步整合到武器系統和軍事決策中,都被強調為俄羅斯武裝部隊現代化的優先事項。

2017 年,普京有句名言:“人工智能是未來,不僅是俄羅斯,也是全人類……誰成為這一領域的領導者,誰就成為世界的統治者”。引用這句話,分析人士經常將俄羅斯的發展歸因于、測試和使用武器化的 AI 來與當前領先的 AI 開發商:美國和中國在所謂的全球 AI 競賽或全球技術競賽中競爭的必要性。雖然認為競爭和追趕的需求是俄羅斯動機的一部分,但它對軍事人工智能的興趣不應僅僅歸因于對相對實力的追求。要了解俄羅斯圍繞人工智能、自治和自動化的辯論的深度和復雜性,需要審查有關其對俄羅斯軍隊的戰略影響、自治的好處和風險,以及更廣泛地說技術現代化和技術現代化的重要性的討論。俄羅斯在世界上的地位的創新。

本報告旨在概述面向國際受眾的不同概念和動機,這些概念和動機一直并正在指導俄羅斯政治和軍事領導人實現其追求武器化人工智能的雄心。首先,它概述了俄羅斯軍隊追求人工智能、自主和自動化背后的各種外部和內部因素。其次,它介紹了俄羅斯在這一領域的一些計劃、對其能力的了解以及加強這些計劃所面臨的挑戰。第三,它深入探討了俄羅斯關于自主,特別是自主武器系統的辯論,以及關于開發所謂的“殺手機器人”或自主戰斗機器人的倫理討論,這是一個經常使用的術語在俄語文學中。

該分析基于對開源材料的調查,包括媒體報道、新聞稿、官方聲明和演講、同行評議的文章和智囊團報告,以及俄羅斯軍事期刊上的出版物。作者希望將其作為正在進行的博士研究項目的第一步,以及對新興的關于俄羅斯如何看待武器化 AI 的英語文獻做出貢獻。

概念注釋

本報告分析了自主、自動化和人工智能的概念——這三個術語在俄羅斯和國外經常相互混淆。值得從探索這些概念開始。自動化是一種基于特定動作或規則序列將任務委派給機器的方式,從而使流程更具可預測性。自動化系統是“根據預編程腳本執行具有定義的進入/退出條件的任務”。自主性是一個更復雜的過程,廣義上的意思是“對機器進行編程以執行通常由人員執行的某些任務或功能人類”,但沒有詳細的規則,因此更難以預測。人工智能可以定義為“數字計算機或計算機控制的機器人執行通常與智能相關的任務的能力。” 人工智能及其子集,例如機器學習,以及其在計算機視覺、面部和聲音識別等方面的應用,可用于實現武器系統更高水平的自動化和自主性。自主武器系統通常被定義為“一旦啟動,無需人工操作員進一步干預即可選擇和攻擊目標的機器人武器系統。” 聯合國安理會 2021 年 3 月發布的一份報告表明,土耳其制造的 Kargu-2在利比亞內戰期間,游蕩彈藥系統被編程為以自主模式選擇和攻擊目標。這被世界各地的媒體描述為首次使用致命的“殺手機器人”。但是,尚不清楚該系統在攻擊時是否真正自主運行。

【在人工智能進步的幫助下,武器系統可以在自主范圍內進一步發展,承擔更多任務,并最終在戰場上取代人類】

圖1. 武器系統的自主性

同時,這些領域之間的能力并不總是相同的。在俄羅斯的案例中,自動化和無人機器人系統的開發比集成更現代的基于機器學習的系統更先進。俄羅斯軍事文獻中經常提到的“自動化”(автоматизация)過程——其他術語包括“機器人化”(роботизация)、“智能化”(интеллектуализация)或“數字化”(дигитализация)并不是一個新現象。 俄羅斯在自動化和遠程控制武器系統方面的能力相對優于其在人工智能總稱下整合機器學習和廣泛技術的其他子元素的能力。許多軍事決策者和分析人士的立場是,借助人工智能的進步,武器系統可以在自主范圍內進一步發展,承擔更多任務,并最終在戰場上取代人類。

付費5元查看完整內容

本報告描述了北約第一個多領域小組IST-173所取得的成果。與會者包括來自不同小組和團體的科學家,以及來自北約機構和軍事利益攸關方、學術界和工業界的科學家,這為AI和軍事決策大數據這一主題創造了第一個利益共同體。該團隊在實踐中證明了一種新的STO方法的可行性,即任務導向研究,以激發公開對話、自我形成的研究合作和跨小組活動。此外,該方法還有助于為人工智能和軍事決策大數據這兩個主要能力領域聯合開發北約首個科技路線圖,以應對北約在這些領域面臨的作戰挑戰。由于新的組織(軍事利益相關者積極參與的多領域團隊)和這種創新方法的應用,確定了一些經驗教訓,應該支持軍事決策AI和大數據的進一步操作。

付費5元查看完整內容
北京阿比特科技有限公司