亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

曾幾何時,在許多人看來,人工智能似乎是終極科幻小說。然而,自 20 世紀 50 年代起,人工智能就開始慢慢受到重視,主要表現為在大型系統中悄然生存的小型專業程序。值得注意的是,在過去的 10 年中,這種緩慢的進步已經變成了閃電般的快速發展。如今,人工智能的應用幾乎遍及我們生活的方方面面,甚至在藝術領域也是如此!

人類的許多互動和交流都已數字化。因此,我們正在接受前所未有的調查。每一次數字互動都會留下痕跡,這些痕跡可以用來為學習算法提供素材。谷歌和 Meta 等公司通過交換服務來換取個人數據。雖然這些公司并不直接出售用戶數據,但它們允許其他公司通過廣告服務與用戶數據互動。政府機構和銀行等其他組織也可以獲取個人數字信息。敏感數據被大規模記錄并用于訓練人工智能算法。在我們生活的世界里,我們的數字行為會對現實世界產生影響。作為人類,我們產生的數據被輸入到算法中,以產生可操作的結果。

1.1 我們需要深度學習的解釋

現代人工智能可應用于現實世界的問題,并產生可操作的結果。本論文重點討論的人工智能類型稱為深度學習(DL),其靈感來源于人類大腦處理信息的方式。深度學習模型從數據集中的模式中學習。深度學習的一般經驗法則是:數據越多越好: 數據越多越好。但并非所有數據都是好數據,因為數據的質量也很重要。我們將在幾章中討論這個話題,并討論偏差如何通過數據集和標簽傳播(第3章),以及數據泄露如何使實驗結果出現偏差(第6章)。深度學習正被應用于各種高風險領域,如軍事[Lundén and Koivunen, 2016]、執法[Goswami et al., 2014]和金融[Chong et al., 2017]等等。在這些領域,深度學習算法必須是可信的 。作為 DNN 從業者和領域專家,我們需要了解算法預測背后的推理。如果每一個深度學習預測都附有關于該預測如何得出的解釋,我們就能更好地判斷深度學習系統的可信度。其原理大致是這樣的: 如果深度學習系統能夠解釋其預測,我們就可以仔細研究該預測,并決定是否要將其納入考慮范圍。如果我們一再決定考慮系統的預測,我們就會越來越信任系統,就像一個人越來越信任另一個人一樣。換句話說,隨著時間的推移,我們會調整對深度學習系統的信任。使深度學習的解釋變得尤為緊迫的是,深度學習帶來了前所未有的能力,而且人們預期深度學習將變得更加強大和廣泛。

試想一下,如果一個關鍵系統(如金融應用程序)決定某些(弱勢)用戶需要支付高得多的費率,但卻不提供任何解釋。無論如何,用戶有權知道他們為什么需要支付更高的費用。當弱勢群體面臨風險時,了解其中的原因就變得更加重要,因為一個錯誤的系統決策可能會決定一個人能否養家糊口。金融機構也有責任向用戶提供解釋。其次,還有一個重大的責任問題。如果出現錯誤,誰該負責,他們又該如何彌補損失?自動預測的結果來自各種因素,包括不正確的因素,如數據中存在偏差的相關性。如果不了解系統的推理過程,就很難糾正可能的錯誤或為特定決策提供正當理由。一旦我們考慮到這些因素,在關鍵應用中對可解釋深度學習的需求就會變得顯而易見。

圖 1.1: 日常行為和互動如何通過信息處理管道傳播,并最終在現實世界中以有形結果的形式反饋給我們的簡化視圖。該圖將模擬管道與數字管道進行了比較。主要區別在于,我們正越來越多地將決策能力交給人工智能算法。圍繞著兩個數字階段的粉色矩形輪廓表明了本論文在這一管道中的位置和重點。

人們通常認為,深度學習在其他領域(如智能手機、廣告、內容推薦)的應用不太值得解釋。一般來說,有兩種觀點支持這種看法。第一種觀點認為,上述應用風險較低,正因為風險較低,所以其決策不值得仔細研究。起初,關鍵算法決策似乎無法與社交媒體算法決策等相提并論。然而,在深度學習決定了數字工具的實用性、我們購買哪些產品、我們消費哪些信息的世界里,深度學習會極大地影響一個人的自我形象以及他與世界的互動方式。因此,如果我們想對自己的生活有任何有意義的控制,了解算法決策背后的原因是至關重要的。所有深度學習的決定都必須經過嚴格審查。

第二個論點將深度學習技術與飛機等其他常用技術進行了比較。它的推論是,由于我們無法百分之百地解釋某些常用技術的確切工作原理,而我們卻能應付自如,因此我們也可以不解釋深度學習。從空氣動力學的角度來看,我們大致知道飛機是如何保持飛行的。然而,在這種相互作用中,有一個關鍵現象我們仍然無法解釋。這種說法是杞人憂天: 無法百分之百地解釋飛機是如何保持上升狀態的,并不意味著我們應該不解釋深度學習。相反,我們應該盡力解釋深度學習模型是如何工作的。

假設讀者您相信深度學習需要解釋,那么可能會問,為什么整個領域都在關注這個話題?為什么我們不能簡單地解釋深度學習呢?與支持向量機、線性回歸或決策樹等其他機器學習(ML)方法不同,DNN 實踐者無法通過查看深度學習模型的內部參數,輕松推斷出 DL 模型決策背后的數學推理。深度學習模型擁有數百萬(如今已達數十億)個參數的情況并不少見。為了解決這個問題,DNN 從業人員正在設計能捕捉模型預測背后推理的方法。該領域要解決的另一個問題是確定向用戶提供解釋的形式。即使 DNN 從業人員能夠理解,也不能保證領域專家能夠以相同的詳細程度解釋解釋。該領域正在努力達成一致的第三個更具哲學意義的問題是,在更廣泛的 ML 范疇內,解釋究竟是什么。這一點非常重要,因為解釋的定義會影響 DNN 實踐者設計的方法。本論文考慮了用于解釋深度學習的方法。

1.2 經解釋校準的信任

本論文主要從校準信任的角度來考慮解釋的必要性。在[van den Brule 等人,2014]一文中,為人機交互構建了校準信任的概念: 機器人外觀所傳達的可信度應與機器人任務表現所產生的信任度保持一致。當兩者不一致時,機器人就會被人類低估或過度信任。這一概念可以推廣到任何人工推理系統中。將這一概念應用到 XAI 中,我們可以指出 人工智能預測的可信度應與人工智能的任務表現和相應解釋所產生的信任度相一致。如果兩者不一致,用戶對人工智能的信任度就會過低或過高。要判斷某個人工智能是否值得信任,我們首先需要獲得必要的信息。也就是說,模型應該是透明的、可訪問的。如果用戶多次收到人工智能的行為符合他們期望的跡象,用戶就可以校準他們對人工智能的信任度[Jacovi 等人,2021 年;Glikson 和 Woolley,2020 年]。用戶應了解人工智能及其決策方式,以校準他們對模型的信任度。對模型決策進行解釋的方法應該是忠實的、通用的,并且具有很強的解釋能力,見第 2 章。如果解釋方法符合這些標準,那么知情者就能充分校準他們對人工智能的信任度。

1.3 不同的解釋方法

細心的讀者很快就會發現,可解釋人工智能(XAI)似乎有不同的方法。就其最一般的形式而言,解釋是任何有助于我們理解模型預測的信息。這些信息可以是輸入的一部分、模型本身的一部分、輸出的一部分、三者的結合以及對模型目的或背景的考慮。根據我們選擇研究的信息類型,我們可以對模型提出不同的問題,得出不同類型的結論,從而從不同的角度研究解釋。本論文并不局限于某一特定類型的解釋,而是首先為讀者提供了一個關于該主題的廣闊視角(第 2 章和第 3 章),然后舉例說明了實驗模型層面的解釋(第 5 章和第 6 章)。迄今為止,XAI有兩種流行的方法:

1.實例層面的解釋: 這種方法也被稱為局部解釋,是這兩種方法中研究最多的一種,它提出的問題是 "既然有這樣的輸入,為什么模型會預測出這樣的輸出?回答了這個問題,我們就找到了輸入中可能影響模型決策的區域。然而,這類解釋只對特定輸入有效。此外,其質量和解釋力(見第 2 章)取決于所使用的 XAI 方法。例如,使用與模型無關的 XAI 方法可為我們指出輸入中的相關區域,但它不會告訴我們預測背后的推理涉及模型邏輯的哪些方面。這類 XAI 方法實質上是將模型視為一個黑盒子。但如果我們使用基于梯度的 XAI 方法,我們就能看到數據在被模型處理時所經歷的一系列轉換。

2.模型層面的解釋: 這種方法也被稱為全局解釋,它提出的問題是:"鑒于此數據集,模型是否顯示出任何明顯的(如有偏差的)行為,如果是,這是為什么?這種方法比前一種方法更費力,但可以說更強大,因為它可以泛化到未見過的輸入。采用這種方法的 XAI 方法可讓我們推斷出模型在新輸入時的行為,并讓我們檢測出模型中的偏差。基于樹的 XAI 方法就是提供模型層面解釋的一個例子。

1.5 論文提綱

如果我們要不斷接受調查,如果我們的數據將被復雜的算法用來塑造我們周圍的世界,我們就需要了解數據的哪些方面會導致哪些決策。本論文的主要貢獻是對可解釋的深度學習的現狀進行深度分析,從一個很高的層次出發,確定該領域的主要利益相關者,創建 XAI 方向分類法,并確定相關主題和挑戰。在最后三章中,我們將研究可解釋的 DL 的具體應用案例。

在本論文中,每一章都從不同角度探討了可解釋深度學習這一主題: 第 2 章從用戶角度探討了可解釋性這一主題,并研究了各種利益相關者在這一環境中的作用。第3章介紹了一份全面的現場指南,向該領域的新手介紹了可解釋深度學習這個密集的話題,但這些新手之前已有深度學習方面的經驗。本領域指南概述了可解釋深度學習的所有相關方面,從方法到倫理考慮,并將可解釋性作為校準深度學習預測信任度的框架。第4章介紹了一種新穎、更透明的三維卷積神經網絡變體,后來被稱為3TConv,并介紹了一項研究,該研究表明3TConvs的性能可以與普通的三維卷積相媲美。本章為第五章將要介紹的工作做了鋪墊。第 5 章以第 4 章為基礎,展示了如何利用 3TConvs 深入了解網絡的內部運作。第 6 章介紹了一項研究,我們在其中分析并試圖解釋圖像背景對深度殘差網絡預測明顯個性的影響有多大。

我們想在整篇論文中強調的信息是,深度學習中的解釋是復雜的,需要考慮很多方面。我們不能盲目相信深度學習的預測,相反,對深度學習系統的信任需要校準。除非我們愿意滿足于與模型無關的、對模型內部工作原理知之甚少的解釋,否則目前還沒有實現一刀切解釋的捷徑方法。當前的 XAI 方法本身需要仔細檢查,但遺憾的是,目前還沒有被廣泛接受的衡量標準來確定其保真度和可用性。因此,XAI 仍將是深度學習的核心課題,因為比沒有解釋更糟糕的是錯誤的解釋。

付費5元查看完整內容

相關內容

這項工作最初只是我們心中的一個好奇問題,即能否幫助選修大型電子學習課程的學生堅持學完所選課程。這篇論文始于 2016 年,是一次探索和學習之旅。從一開始,為了更好地理解手頭的問題并提供可能的解決方案,我們就對一些過程進行了調查。為了實現這一目標,這項研究必須走出純技術解決方案的邊緣,深入到其他學科。雖然這項工作提出的建議純粹是技術性的,但它是以學習心理學、哲學等不同學科為基礎的。此外,還探討了學習的歷史和經濟重要性,但為了不偏離工作的主線,即找到幫助學生完成在線承諾的前進方向,這些研究被放在文件末尾的附錄中。

在文獻綜述一章中,討論了電子學習生態系統的創建。然后,研究轉向了人們的學習方式,以及是什么讓他們更好地抓住重點。對這些現象進行了初步研究,以便為本文的其余部分奠定基礎。也就是說,人們需要參與到學習中來,為他們提供跟進整個過程的手段,為他們的學習提供支架,并在他們的知識庫中加入事實之間的聯系。從本質上講,這使學習成為一種整體體驗。有人認為,許多主流的電子學習平臺并沒有提供這樣的體驗。材料制作非常出色,但學生基本上只能靠自己。學習過程中不同參與者或代理之間的合作是必要的。因此,一旦確定了缺失的環節,研究的重點就放在了如何填補空白并在學習過程中進行代理協作上。隨后,研究重點轉移到了各種技術上,這些技術存在于不同的環境中,但在教育中卻被發現是缺失的。我們引入了一種與推薦系統非常相似的方法。就像在零售網站上對買家進行分析并提供建議一樣,也可以用同樣的方式,以學生的學習進度和行為作為輸入,對學生進行分析。其結果將是向學生推薦其關注的領域。為補充建議,還提出了學習過程中的另一個步驟。那就是解釋。很多時候,人工智能算法工作得很好,但卻沒有留下什么線索來說明它們是如何得出結論的。因此,人類就被排除在了這個循環之外。本論文提出的解決方案并不是創建新的算法來記錄其內部運作。而是為數據添加注釋,以便人類在學習過程中更好地理解。

為了實現更好的自動解釋,研究人員放棄了關系數據庫的僵化模式,轉而采用一種更新穎的方法,即以網絡或圖形的形式表示數據。這樣,數據就可以隨意鏈接、添加和修改,為底層結構增添了靈活性和自由度。學生,甚至教師,都可以將不斷增長的數據庫作為自己的個人知識庫。通過知識圖譜的遍歷,可以解釋 "為什么 "某些事實被聯系在一起,或者突出知識中缺失的關系。這也為探索知識庫提供了可能性。

我們使用了一個人造的學生成績數據集,該數據集密切反映了真實班級的成績。這是對學生進行特征分析的基礎。使用 KNN 算法對數據進行標記和分類。然后將學生的成績輸入算法,將未知成績指標與數據集中的已知組別進行對比。在正確分類后,學生就會被引導到一個預先構建的知識圖譜中,該圖譜包含了提高知識水平所需的答案。

這項研究表明,通過努力,我們可以建立一個能夠跟蹤用戶學習歷程的系統。這是通過密切模仿人類期望知識呈現的方式來實現的。技術并沒有脫離人類的語境,而是進入了人類的領域。

付費5元查看完整內容

機器人正逐漸從工業和實驗室進入我們的日常生活。無論是作為伴侶、教師、接待員、清潔工,還是滿足其他需求,這些機器人都旨在提高我們的生活質量。然而,機器人的自主決策能力仍然是機器人技術面臨的主要挑戰。為了提高機器人的自主性,一方面,研究人員傾向于根據不同的標準對協作進行分類,以收集人機協作之間的共性。這樣做的目的是檢測機器人在執行各種任務時必須能夠完成的相似步驟。另一方面,其他作品則側重于增強建立人機協作所需的一個或多個領域。要實現人機協作,機器人必須完成四個標準步驟:感知、決策、運動執行和評估。

本論文旨在通過改進機器人的決策過程來優化人機協作性能。我們根據不同的可變性能指標來評估協作性能。因此,優化協作的目的是使人類受益,例如更快地完成任務或減少人類智能體的工作量。然而,未優化的協作將不會給人類帶來任何益處,或者相反,即使最終完成了任務,也會給人類帶來麻煩,如減慢人類的速度或使人類負擔過重。

我們首先開發了一個優化機器人決策過程的全局框架。我們將這一框架應用于非直觀的裝配任務,即需要進行復雜的認知處理,以找到擬議裝配游戲中每個部件的正確位置。我們希望提高人機協作團隊完成任務的時間,而無需提高其物理能力(即感知、軌跡規劃或低級控制)。我們提出的框架可在考慮不同性能指標的同時改善人機協作。這些指標的考慮與人類智能體的行為無關。

然后,我們將這一框架應用于第二個更復雜的應用(即軟物體變形),該應用需要通過改進低級控制來提高機器人的操縱靈活性。事實上,我們將考慮第二種應用,這種應用要求提高機器人的操縱靈活性,以最大限度地優化協作性能。人機協作團隊必須共同操縱軟物體,使其達到所需的形狀。協作團隊可以使用深度強化學習方法來實現這一應用。我們的想法是在仿真中訓練智能體(單臂機器人或雙臂機器人),并通過用人類智能體替換第二機械臂進行實際測試。

關鍵詞 人機協作 決策 博弈論 強化學習

通過改變性能指標優化人機協作決策過程的總體框架

前面內容介紹了人機協作(HRC)中使用的決策(DM)方法、DM策略和獎勵函數(或效用函數)。在本章中,我們將介紹在人機協作背景下的新DM框架。最先進的技術將人機交互視為一個優化問題,其中的效用函數(博弈論中使用的名稱),也稱為強化學習中的獎勵函數,被定義為無論交互執行得如何,都要完成任務。當考慮性能指標時,它們不能在同一框架內輕易改變。

相比之下,我們的DM框架可以很容易地處理從一個案例場景到另一個案例場景的性能指標變化。我們的方法將HRC視為一個約束優化問題,其中效用函數(或獎勵函數)分為三個主要部分:

  • 一組評估協作績效的獎勵。這是改變性能指標時唯一需要修改的部分。它提供了對交互方式的控制,同時也保證了機器人的行動能夠實時適應人類的行動。

  • 一組定義如何完成任務的約束條件。

  • 重新組合機器人物理能力的集合。

因此,可以設計效用函數(或獎勵函數)來改善機器人的操縱靈活性。在本章開始,我們將介紹建立這樣一個框架的動機和優勢。然后,我們將我們的工作與最先進的技術進行比較。最后,我們將詳細解釋我們的形式化方法。

動機

如今,HRC已成為機器人領域中一個快速增長的領域。HRC旨在使人類的日常任務變得更加容易。它基于人類和機器人之間的信息交流,共享一個共同的環境,以隊友的身份完成一項任務,實現共同的目標[28]。HRC應用可為人類帶來社會和/或物理益處[11]。

如第2章所述,機器人能夠在不同情況下適應人類,這要歸功于其DM過程,計算機科學中通常使用帶有策略和效用函數的DM方法對該過程進行建模[42]。DM方法對整個情境(包括環境、行動、智能體、任務限制等)進行建模。策略定義了根據獎勵值選擇行動的政策。效用函數(即獎賞函數)通過賦予每個行動以獎賞來評估每個行動。如第2.3節所示,通過考慮性能指標(參見表1.1)來實現獎勵函數,是提高HRC性能的一種可能性。

在本章中,我們將根據一些可改變的性能指標對人類智能體的影響,對機器人與人類之間的協作進行優化和定量評估。因此,優化的協作旨在為人類帶來益處,例如更快地完成任務或減少人類智能體的工作量。然而,未優化的協作將不會給人類帶來任何好處,或者相反,即使最終完成了任務,也會給人類帶來麻煩,如減慢人類的速度或使其負擔過重。本章的主要貢獻在于,所提出的框架可根據一些可變指標,優化一個或多個人類與一個或多個機器人之間的協作性能。與以往的工作不同,我們的框架允許我們輕松地改變性能指標,而無需改變整個任務的形式化方式,因為我們在效用函數中隔離了指標的影響。

這一貢獻的益處在于提高了協作性能,并有可能改善或不改善機器人的操縱靈活性。這在相關的實際案例中非常重要,例如,在使用社交機器人時,這些機器人有很大的局限性(例如,動作遲緩和/或靈巧性降低)[27],而大幅提高其能力并不容易,甚至不可能。因此,我們的工作提供了一個有趣的解決方案,以提高此類受限機器人的協作性能。

我們的框架采用最先進的DM流程,由DM方法、策略和效用函數組成。我們將效用函數(或獎勵函數)分為三個主要部分:根據一個或多個性能指標,通過獎勵來評估協作性能;任務完成度,由于我們只處理可實現的任務,因此將其視為約束條件;以及重新組合機器人物理能力的集合。在下面兩節中,我們將簡要回顧文獻中如何使用效用函數,并提及我們在這方面的貢獻。

效用函數或獎勵函數

正如第二章中提到的,效用是由效用函數(或報酬函數)計算出來的報酬,用來表示一個行動的價值。通過這些效用,DM策略可以選擇正確的行動。之前的一些文獻只考慮了效用函數中的任務完成情況(而沒有考慮性能指標),因為他們的重點是復雜任務的完成情況。例如,在文獻[17]中,一個人機協作團隊抬著一張桌子從一個房間移動到另一個房間。目標是通過讓人類也適應機器人來確保代理之間的相互適應。在這類工作中,沒有考慮表1.1中的任何性能指標。

較近期的作品包含了性能指標(見表1.1)。不過,他們認為,如果不對框架進行重大修改,這些指標是無法改變的。一個相關的例子是[156],通過改變任務分配,作者使機器人遵守裝配過程的實時持續時間,同時按照必要的順序裝配零件。在這種情況下,他們只考慮了一個指標(完成時間),因為遵守零件裝配順序是完成任務的一個約束條件。然而,使用該框架,該時間指標不能被其他指標(如努力或速度)取代。

貢獻

與目前工作中使用的效用函數不同,我們考慮的是可變的、不受限制的性能指標(見表1.1),這些性能指標通常無論人類行為如何都會被優化。總結我們的貢獻,我們提出的框架允許我們

  • 從一個場景到另一個場景,輕松地改變性能指標,而不需要改變我們形式化中的任何東西,除了效用函數中與指標相關的部分,以及

  • 由于我們將獎勵函數中的這一部分分離出來,因此可以在提高或不提高機器人操縱靈活性的情況下提高協作性能。

在下一節中,我們將定義問題的形式化并提出效用函數,該函數優化了性能指標,并以完成任務為目標作為約束條件。

性能指標

只要某項指標可以用數學方法表述,或者至少可以在任務執行過程中進行測量,并作為計算任務獎勵的條件,就可以通過性能指標{M}在選擇行動時加以考慮。表 3.1 列出了我們可以考慮的一些性能指標。表3.1是第一章中表1.1的簡化版。

付費5元查看完整內容

人工智能(AI)是一個創新的引擎,正在推動科學發現和經濟增長。它正日益成為解決方案的一個組成部分,這些解決方案將影響到從日常例行任務到社會層面的挑戰,最終服務于公共利益。同時,也有人擔心人工智能可能會產生負面的社會和環境后果。為了實現人工智能的積極和變革潛力,必須利用美國所有的聰明才智,以解決社會挑戰的方式推進該領域,為所有美國人服務,并維護民主價值觀。

然而,目前人工智能前沿的進展往往與獲得大量的計算能力和數據有關。今天,這種機會往往僅限于那些資源豐富的組織。這種巨大且不斷擴大的資源鴻溝有可能限制和不利于人工智能研究生態系統。這種不平衡威脅著國家培養人工智能研究社區和勞動力的能力,以反映美國豐富的多樣性和利用人工智能來推動公共利益的能力。

如本報告所述,一個可廣泛使用的人工智能研究網絡基礎設施,匯集了計算資源、數據、測試平臺、算法、軟件、服務、網絡和專業知識,將有助于使美國的人工智能研究和開發(R&D)景觀民主化,使所有人受益。它將有助于創造途徑,擴大參與人工智能的研究人員的范圍,并使人工智能的方法和應用增長和多樣化。這種網絡基礎設施也有助于為所有科學領域和學科的進步開辟新的機會,包括在人工智能審計、測試和評估、可信的人工智能、減少偏見和人工智能安全等關鍵領域。反過來,更多的機會和多樣化的視角可以帶來新的想法,否則就不會實現,并為開發設計上具有包容性的人工智能系統創造條件。

作為《2020年國家人工智能倡議法》的一部分,國會成立了國家人工智能研究資源(NAIRR)工作組,以 "調查 "NAIRR作為國家人工智能研究網絡基礎設施的可行性和可取性,并 "提出詳細說明[如何建立和維持NAIRR]的路線圖。" 最近的《2022年CHIPS和科學法案》加強了民主化使用國家人工智能研究網絡基礎設施的重要性,通過投資加速先進計算的發展--從下一代圖形處理單元到高密度內存芯片--以及采取措施積極吸引廣泛和多樣化的美國人才參與前沿科學和工程,包括人工智能。

這份最終報告是特別工作組歷時18個月,為建立NAIRR制定愿景和實施計劃的最終成果。它建立在工作組2022年5月發布的臨時報告中的調查結果和建議的基礎上,提供了一個實現NAIRR目標的實施計劃:以保護隱私、公民權利和公民自由的方式,加強美國的人工智能創新生態系統并使之民主化。

NAIRR的建立應考慮到四個可衡量的目標,即(1)刺激創新,(2)增加人才的多樣性,(3)提高能力,以及(4)推進值得信賴的人工智能。NAIRR應該通過支持來自不同背景的研究人員和學生的需求來實現這些目標,這些研究人員和學生正在從事基礎性的、受使用啟發的和轉化性的人工智能研究。這些用戶應以美國為基地或隸屬于美國的組織,包括學術機構、非營利組織和初創企業或小型企業。

NAIRR應包括一套來自不同供應商的計算、數據、測試平臺和軟件資源,以及技術支持和培訓,以滿足這一目標用戶群的需求。NAIRR的具體設計、實施和評估應圍繞四個關鍵目標進行,并應支持收集數據以評估系統性能的關鍵指標和實現這些目標的成功。

NAIRR的管理和治理應遵循合作管理模式,即由一個聯邦機構作為NAIRR運作的管理機構,由聯邦機構的負責人組成的指導委員會負責推動NAIRR的戰略方向。行政機構內的項目管理辦公室應該為一個獨立的運營實體提供資金和監督,以管理NAIRR的日常運營。由國家人工智能倡議辦公室(NAIIO)共同主持的指導委員會將在NAIRR的管理中納入聯邦各機構的利益和觀點。這些機構也應直接支持資源提供者,他們的資源聯合起來將構成NAIRR。應通過用戶委員會、科學咨詢委員會、技術咨詢委員會和道德咨詢委員會向運營實體提供建議,挖掘多樣化的觀點和專業知識,為NAIRR的運營提供信息。

NAIRR應通過一個綜合門戶網站提供計算和數據資源、測試平臺、軟件和測試工具以及用戶支持服務的聯合組合。計算資源應包括傳統服務器、計算集群、高性能計算和云計算,并應支持訪問邊緣計算資源和人工智能研發的測試平臺。開放的和受保護的數據應在分層訪問協議下提供,并與計算資源共處一地。運營實體本身不應操作構成NAIRR的全部計算機硬件;相反,計算以及數據、測試和培訓資源應作為服務由通過聯邦機構或多機構資助機會選擇的合作伙伴資源提供者提供。當全面實施時,NAIRR應同時滿足人工智能研究界的能力(支持大量用戶的能力)和能力(訓練資源密集型人工智能模型的能力)需求

NAIRR必須能被各種用戶廣泛使用,并提供一個可用于教育和社區建設活動的平臺,以降低參與人工智能研究生態系統的障礙,增加人工智能研究人員的多樣性。NAIRR的訪問門戶和公共網站應提供目錄以及搜索和發現工具,以促進對數據、測試平臺以及為各種經驗水平服務的教育和培訓資源的訪問。

NAIRR應該通過設計和實施其管理程序,為負責任的人工智能研究設定標準。NAIRR必須從一開始就通過整合適當的技術控制、政策和治理機制,積極主動地解決隱私、民權和公民自由問題。運營實體應與道德咨詢委員會合作,制定標準和機制,從隱私、民權和公民自由的角度評估擬納入NAIRR的研究和資源。應根據白宮科技政策辦公室在2022年10月發布的《人工智能權利法案藍圖》,要求定期培訓,以建立NAIRR用戶對人工智能研究中與隱私、民權和公民自由有關的權利、責任和最佳做法的認識。

NAIRR應根據既定的指導方針實施系統保障措施。這些準則包括美國國家標準與技術研究所(NIST)制定的準則和五個安全框架:安全項目、安全人員、安全設置、安全數據和安全產出。運營實體應將NAIRR網絡基礎設施設計成由多個層次組成,首先是兩個主要區域:一個開放的科學區域 "NAIRR-開放 "和一個安全區域 "NAIRR-安全"。每個區域都應該聯合計算、網絡和數據資源,按照安全和訪問控制政策運行,這些政策在區域內是統一的,但在區域之間是不同的,反映了用戶和資源運營商的不同優先級和需求。NAIRR-Open應采用開放科學界20多年來形成的最佳做法;與聯邦開放數據、開放政府和研究安全政策保持一致;使用單點登錄認證和運營實體管理的資源分配機制管理訪問。NAIRR-Secure應該由一個或多個安全飛地組成,遵守一套共同的安全控制,并有能力支持受法律保護的數據所產生的安全要求。

NAIRR的實施應分四個階段,在本報告發表后立即開始。在第一階段,國會應授權并撥款建立NAIRR。行政機構和NAIIO應該協調指導委員會的成立,并建立一個項目管理辦公室,然后準備對運營實體的招標,并管理選擇過程。

圖:階段性NAIRR實施時間表

在第二階段,運營實體應確立其活動,并監督NAIRR門戶網站和用戶界面的創建,建立適當的技術和政策控制。該架構應支持收集關鍵績效指標,以評估NAIRR的進展。資源提供者應通過協調的、多機構的籌資機會來選擇,最好是在運營實體最初授予的6個月內發布。

在第三階段,NAIRR應達到初步的運作能力,運營實體也應正式確定政策、程序和初步的技術資源,提供給人工智能研究人員。最初的能力包括:(1)一個門戶網站和用戶支持資源;(2)一個混合的計算資源提供者;(3)一個分配和身份系統;(4)一個數據發布系統。在第四階段,活動應從建立NAIRR過渡到建立穩定的運作,以及根據用戶的吸收和需求對NAIRR資源進行計劃的演變。

最后,工作組還提出了一個實施NAIRR的試點方案,該方案將與上述階段同時啟動,以加快向人工智能研發界提供NAIRR資源。

按照設想,NAIRR的影響將是巨大而深遠的,使研究人員能夠解決從常規任務到全球挑戰的各種問題。為了實現其愿景和目標,特別工作組估計NAIRR的預算在最初的六年期間為26億美元。這筆投資的大部分(22.5億美元)用于資助通過NAIRR獲得的資源,通過向多個聯邦機構撥款。工作小組根據先進的計算資源以及數據、培訓和軟件資源的近期成本、滿足人工智能研發界當前需求的使用水平估計,以及人工智能研發界的預期增長來估計這一預算。資源提供者應每兩年上線一次,使用壽命為六年,這樣每兩年就會有7.5億美元的新投資,以確保NAIRR的資源保持最先進的水平。運營實體每年將需要5500萬至6500萬美元來支持NAIRR活動的協調和管理。每年還有500萬美元的預算用于對運營實體和NAIRR績效的外部評估。

本報告中提出的NAIRR的愿景旨在滿足國家對增加獲得最先進的資源的需求,以推動人工智能創新。實現這一愿景的路線圖建立在現有的聯邦投資之上;設計了對隱私、民權和公民自由的保護;并促進了多樣性和公平的使用。如果成功,國家人工智能研究資源將改變美國國家人工智能研究生態系統,并通過加強和民主化參與美國的基礎性、使用性和轉化性人工智能研發,促進解決社會層面問題的能力

付費5元查看完整內容

人工智能(AI)在過去十年中在全球技術市場中占據領先地位,觸及工業的各個領域的應用,從人們熟悉的智能家電和消費電子的例子到國防。美國和中國代表著世界上最大的兩個經濟體。兩國都在參與人工智能技術競賽,在全球市場和戰場上實施這項技術。

中美人工智能技術競賽在兩個方面給美國帶來了困境:經濟和國防。如果中國成功地創造出完全自主的人工智能無人機并在全球市場上傳播,它將擁有經濟和戰場上的優勢。人民解放軍(PLA)武器庫中的完全自主的人工智能無人機將提供戰斗空間的實時畫面、先發制人的優勢、拒絕向鄰國開放水域和領土、控制貿易路線和有爭議的島嶼,并對美國在印度太平洋司令部(INDOPACOM)的全球力量投射產生負面影響。本論文試圖研究人工智能如何代表全球經濟和戰場上的關鍵因素,它在印度洋司令部能發揮什么具體功能,以及美國如何在與中國的競爭中贏得這場競賽。

在國家間的競爭中,擁有技術優勢的國家在歷史上能夠獲得優勢,盡管代價是破壞國際關系的穩定。這在歷史上表現為火藥、飛機、化學武器、英格瑪機、雷達、核武器和衛星的發明。在冷戰后和21世紀之交,常規威脅已經發展到新的技術領域。除了美國防部(DoD)公認的陸、海、空領域之外,還增加了兩個新的層面:太空和網絡空間。太空領域包括衛星和高超音速巡航導彈,以取代舊的彈道系統;網絡領域,隨著萬物互聯(IoE)的發明,保護國家免受黑客攻擊、商業機密和知識產權(IP)的盜竊。隨著網絡和太空領域的發展,空中領域現在采用了遙控飛機(RPA)作為無形的智能體。此外,新出現的人工智能(AI)技術,以其顯著的適應性,將把空域推向比RPA今天提供的更多的自主性。盡管人工智能的理論基礎可以追溯到20世紀50年代(Anyoha,2020年),但直到公開展示機器在某一特定領域超越人類智力時,它才成為一個討論的話題。

幾個世紀以來,計算科學已經從算盤發展到二進制邏輯,再到現代計算機,并繼續在私人和政府部門蓬勃發展。美國面臨的安全困境是,如果中國在人工智能技術方面的進步超過了美國,然后中國將其軍事化,美國將再次站在英格瑪機器和斯普特尼克的錯誤一邊。它將被留在另一個行為者的能力和意圖不確定性的斗篷中,其可能將美國從印度-太平洋地區的戰區中取代。

人工智能技術競賽與美國的核戰爭理論和太空競賽并不完全相同。因為這項技術在私營部門的應用非常廣泛,并不專屬于國防工業,所以需要一個更窄的形式。狹義的人工智能(NAI)對于它所構建的特定任務是獨一無二的。與物聯網類似,NAI的政策是基于每個國家如何實施的。人工智能與軍事技術的結合,國家關于人工智能的理論,公共和政府部門的貨幣投資,以及實現人工智能優勢的國內政策都特別有趣。這項技術具有巨大的力量潛力,國家可以利用它來對付他們的對手。研究它的軍事潛力并制定防御戰略以維持力量平衡,對于美國,尤其是印度太平洋戰區來說是當務之急。這篇論文研究了美國和中國是如何建立和維持它們的力量的。

第二章介紹了人工智能的概念,并概述了目前美國消費類電子產品和使用人工智能功能的電子產品的市場價值,讓讀者對這一新興技術有一個貨幣視角。它還定義了人工智能在國防方面的作用。

第三章回顧了全球化社會中技術競爭的廣泛概念,并介紹了中國作為一個崛起的大國和國際競爭者的地位。它描述了為什么這種技術從個人到國家的角度都很重要,這種技術競賽與太空競賽有什么不同,并從廣泛的地緣政治方面研究了中國是什么樣的行為者。

第四章研究了軍事航空如何納入NAI以及自主無人機將如何改變戰斗空間。本章重點關注美國已經在進行的具體人工智能進展,并將其應用于空域,以解釋天空中的狹義人工智能是如何成為首次打擊和保持對對手的戰略優勢的關鍵。

第五章對比了美國和中國為贏得這場技術競賽所追求的架構設計。這些對比包括每個國家的立法和基礎組織,知識產權保護,以及政府與私人產業和教育部門在實現人工智能首要地位方面的互動。

第六章從風險投資(VC)與政府支出的角度分析了人工智能的融資,討論了國防部門的人工智能技術的收購過程,并比較了每個國家之間的現有貨幣數據。

第七章研究了在沒有關于在戰場上使用完全自主性的國際交戰規則(ROE)的情況下,狹義的自主人工智能無人機如何呈現出錯綜復雜的道德困境。

付費5元查看完整內容

人工智能在軍事領域的前景之一是其廣泛的適用性,這似乎可以保證其被采用。在軍事方面,人工智能的潛力存在于所有作戰領域(即陸地、海洋、空中、太空和網絡空間)和所有戰爭級別(即政治、戰略、戰役和戰術)。然而,盡管有潛力,需求和人工智能技術進步之間的銜接仍然不是最佳狀態,特別是在軍事應用的監督機器學習方面。訓練監督機器學習模型需要大量的最新數據,而這些數據往往是一個組織無法提供或難以產生的。應對這一挑戰的絕佳方式是通過協作設計數據管道的聯邦學習。這種機制的基礎是為所有用戶實施一個單一的通用模型,使用分布式數據進行訓練。此外,這種聯邦模式確保了每個實體所管理的敏感信息的隱私和保護。然而,這個過程對通用聯邦模型的有效性和通用性提出了嚴重的反對意見。通常情況下,每個機器學習算法在管理現有數據和揭示復雜關系的特點方面表現出敏感性,所以預測有一些嚴重的偏差。本文提出了一種整體的聯邦學習方法來解決上述問題。它是一個聯邦自動集成學習(FAMEL)框架。FAMEL,對于聯邦的每個用戶來說,自動創建最合適的算法,其最優的超參數適用于其擁有的現有數據。每個聯邦用戶的最優模型被用來創建一個集成學習模型。因此,每個用戶都有一個最新的、高度準確的模型,而不會在聯邦中暴露個人數據。實驗證明,這種集成模型具有更好的可預測性和穩定性。它的整體行為平滑了噪音,同時減少了因抽樣不足而導致的錯誤選擇風險。

關鍵詞:聯邦學習;元學習;集成學習;軍事行動;網絡防御

1 引言

隨著步伐的加快,人工智能(AI)正在成為現代戰爭的重要組成部分,因為它為大規模基礎設施的完全自動化和眾多防御或網絡防御系統的優化提供了新的機會[1]。人工智能在軍事領域[2]的前景之一,似乎保證了它的采用,即它的廣泛適用性。在軍事方面,人工智能的潛力存在于所有作戰領域(即陸地、海洋、空中、太空和網絡空間)和所有級別的戰爭(即政治、戰略、戰役和戰術)[3]。但與此同時,隨著參與連續互聯和不間斷信息交換服務的互聯系統數量的實時擴大,其復雜性仍在成倍增長[4]。從概括的角度來看,可以說人工智能將對以下任務產生重大影響:

1.太快的任務,反應時間為幾秒鐘或更少,在高復雜度(數據、背景、任務類型)下執行。

2.操作時間超過人類耐力的任務,或意味著長期的高操作(人員)成本。

3.涉及巨大的復雜性的任務,需要靈活地適應環境和目標的變化。

4.具有挑戰性的行動環境,意味著對作戰人員的嚴重風險。

支持上述任務的實時監測事件的應用程序正在接收一個持續的、無限的、相互聯系的觀察流。這些數據表現出高度的可變性,因為它們的特征隨著時間的推移而發生巨大的、意想不到的變化,改變了它們典型的、預期的行為。在典型情況下,最新的數據是最重要的,因為老化是基于它們的時間。

利用數據的軍事人工智能系統可以將軍事指揮官和操作員的知識和經驗轉化為最佳的有效和及時的決策[3,4]。然而,缺乏與使用復雜的機器學習架構相關的詳細知識和專業知識會影響智能模型的性能,阻止對一些關鍵的超參數進行定期調整,并最終降低算法的可靠性和這些系統應有的概括性。這些缺點正在阻礙國防的利益相關者,在指揮鏈的各個層級,信任并有效和系統地使用機器學習系統。在這種情況下,鑒于傳統決策系統無法適應不斷變化的環境,采用智能解決方案勢在必行。

此外,加強國防領域對機器學習系統不信任的一個普遍困難是,采用單一數據倉庫對智能模型進行整體訓練的前景[1],由于需要建立一個潛在的單點故障和對手的潛在戰略/主要目標[6],這可能造成嚴重的技術挑戰和隱私[5]、邏輯和物理安全等嚴重問題。相應地,可以使更完整的智能分類器泛化的數據交換也給敏感數據的安全和隱私帶來了風險,而軍事指揮官和操作人員并不希望冒這個風險[7]。

為了克服上述雙重挑戰,這項工作提出了FAMEL。它是一個整體系統,可以自動選擇和使用最合適的算法超參數,以最佳方式解決所考慮的問題,將其作為一個尋找算法解決方案的模型,其中通過輸入和輸出數據之間的映射來解決。擬議的框架使用元學習來識別過去積累的類似知識,以加快這一過程[8]。這些知識使用啟發式技術進行組合,實現一個單一的、不斷更新的智能框架。數據保持在操作者的本地環境中,只有模型的參數通過安全流程進行交換,從而使潛在的對手更難干預系統[9,10]。

2 提出的框架

在提議的FAMEL框架中,每個用戶在水平聯邦學習方法中使用一個自動元學習系統(水平聯邦學習在所有設備上使用具有相同特征空間的數據集。垂直聯邦學習使用不同特征空間的不同數據集來共同訓練一個全局模型)。以完全自動化的方式選擇具有最佳超參數的最合適的算法,該算法可以最佳地解決給定的問題。該實施基于實體的可用數據,不需要在遠程存儲庫中處置或與第三方共享[11]。

整個過程在圖1中描述。

圖1.FAMEL框架。

具體來說就是:

步驟1--微調最佳局部模型。微調過程將有助于提高每個機器學習模型的準確性,通過整合現有數據集的數據并將其作為初始化點,使訓練過程具有時間和資源效率。

步驟2--將本地模型上傳至聯邦服務器。

步驟3--由聯邦服務器對模型進行組合。這種集成方法使用多種學習算法,以獲得比單獨使用任何一種組成的學習算法都要好的預測性能。

步驟4--將集成模型分配給本地設備。

從這個過程中產生的最佳模型(贏家算法)被輸送到一個聯邦服務器,在那里通過啟發式機制創建一個集成學習模型。這個集成模型基本上包含了本地最佳模型所代表的知識,如前所述,這些知識來自用戶持有的本地數據[12]。因此,總的來說,集成模型提供了高概括性、更好的預測性和穩定性。它的一般行為平滑了噪音,同時降低了在處理本地數據的場景中由于建模或偏見而做出錯誤選擇的總體危險[13,14]。

結論

將機器學習應用于現實世界的問題仍然特別具有挑戰性[44]。這是因為需要訓練有素的工程師和擁有豐富經驗和信息的軍事專家來協調各自算法的眾多參數,將它們與具體問題關聯起來,并使用目前可用的數據集。這是一項漫長的、費力的、昂貴的工作。然而,算法的超參數特征和理想參數的設計選擇可以被看作是優化問題,因為機器學習可以被認為是一個搜索問題,它試圖接近輸入和輸出數據之間的一個未知的潛在映射函數。

利用上述觀點,在目前的工作中,提出了FAMEL,擴展了制定自動機器學習的一般框架的想法,該框架具有有效的通用優化,在聯邦層面上運作。它使用自動機器學習在每個聯邦用戶持有的數據中找到最佳的本地模型,然后,進行廣泛的元學習,創建一個集成模型,正如實驗所顯示的那樣,它可以泛化,提供高度可靠的結果。這樣,聯邦機構就有了一個專門的、高度概括的模型,其訓練不需要接觸他們所擁有的數據的聯合體。在這方面,FAMEL可以應用于一些軍事應用,在這些應用中,持續學習和環境適應對支持的行動至關重要,而且由于安全原因,信息交流可能很難或不可能。例如,在實時優化有關任務和情況的信息共享方面就是這種情況。在部署了物聯網傳感器網格的擁擠環境中,FAMEL的應用將具有特別的意義,需要滿足許多安全限制。同樣,它也可以應用于網絡空間行動,在雜亂的信息環境和復雜的物理場景中實時發現和識別潛在的敵對活動,包括對抗負面的數字影響[45,46]。必須指出的是,在不減少目前所描述的要點的情況下,所提出的技術可以擴展到更廣泛的科學領域。它是一種通用的技術,可以發展和產生一種開放性的整體聯邦學習方法。

盡管總的來說,聯邦學習技術的方法論、集成模型以及最近的元學習方法已經強烈地占據了研究界,并提出了相關的工作,提升了相關的研究領域,但這是第一次在國際文獻中提出這樣一個綜合框架。本文提供的方法是一種先進的學習形式。計算過程并不局限于解決一個問題,而是通過一種富有成效的方法來搜索解決方案的空間,并以元啟發式的方式選擇最優的解決方案[47,48]。

另一方面,聯邦學習模型應該對合作訓練數據集應用平均聚合方法。這引起了人們對這種普遍方法的有效性的嚴重關注,因此也引起了人們對一般聯邦架構的有效性的關注。一般來說,它將單個用戶的獨特需求扁平化,而不考慮要管理的本地事件。如何創建解決上述局限性的個性化智能模型,是目前一個突出的研究問題。例如,研究[49]是基于每個用戶必須以聯邦的形式解決的需求和事件。解釋是可解釋系統的各種特征,在指定的插圖的情況下,這些特征有助于得出結論,并在局部和全局層面提供模型的功能。建議只對那些變化程度被認為對其功能的演變相當重要的特征進行再訓練。

可以擴大擬議框架研究領域的基本課題涉及元集成學習過程,特別是如何解決創建樹和它們的深度的問題,從而使這個過程自動完全簡化。還應確定一個自動程序,以最佳的分離方式修剪每棵樹,以避免負收益。最后,探索將優化修剪的樹的版本添加到模型中的程序,以最大限度地提高框架效率、準確性和速度。

(完整內容請閱讀原文)

付費5元查看完整內容

機器人系統正在進入舞臺。在硬件組件和軟件技術進步的推動下,機器人越來越能夠在工廠外運作,協助人類,并與人類一起工作。機器人擴張的限制因素仍然是機器人系統的編程。由于建立一個多機器人系統需要許多不同的技能,只有最大的組織能夠在機器人提供的服務空間中進行創新。

只有最大的組織能夠在機器人提供的服務空間中進行創新。為了使開發新的機器人服務更容易,我在這篇論文中提出了一個規劃模型,在這個模型中,用戶(程序員)給出了需要完成的聲明性規范,然后一個后臺系統確保該規范被安全、可靠地執行。我介紹了Antlab,一個這樣的后端系統。Antlab接受來自多個用戶的線性時態邏輯(LTL)規范,并使用一組不同能力的機器人來執行它們。

在實施Antlab的經驗基礎上,我確定了由所提出的規劃模型產生的問題。這些問題分為兩大類:規范和規劃。

在規范問題的類別中,我解決了從正反兩方面的例子中推斷LTL公式的問題,以及僅從一組正面例子中推斷LTL公式的問題。在這些解決方案的基礎上,我開發了一種方法來幫助用戶將他們的意圖轉移到正式的規范中。本論文所采取的方法是將來自單個演示的意圖信號和用戶給出的自然語言描述結合起來。通過將問題編碼為命題邏輯的可滿足性問題,推斷出一組候選規范。通過與用戶的互動,這組規格被縮小到一個單一的規格;用戶批準或拒絕對機器人在不同情況下的行為進行的模擬。

在規劃問題類別中,我首先解決了目前正在執行任務的機器人的規劃問題。在這種情況下,不清楚應該把什么作為規劃的初始狀態。我通過考慮多個推測的初始狀態來解決這個問題。從這些狀態出發的路徑是根據一個質量函數來探索的,該函數反復估計規劃時間。第二個問題是獎勵函數為非馬爾科夫時的強化學習問題。建議的解決方案包括反復學習代表獎勵函數的自動機,并使用它來指導探索。

付費5元查看完整內容

為了面對軍事防御的挑戰,軍隊及其戰術工具的現代化是一個持續的過程。在不久的將來,各種任務將由軍事機器人執行,以實現100%的影響和0%的生命風險。國防機器人工程師和公司有興趣將各種戰略自動化,以獲得更高的效率和更大的影響,因為陸地防御機器人的需求正在穩步增長。在這項研究中,軍事防御系統中使用的陸地機器人是重點,并介紹了各種類型的陸地機器人,重點是技術規格、控制策略、戰斗參與和使用目的。本研究還介紹了陸地機器人技術在世界軍事力量中的最新整合,其必要性,以及各國際防務公司對世界經濟的貢獻,表明其在軍事自動化和經濟穩定中的優勢。本報告還討論了近期發展的局限性和挑戰、機器人倫理和道德影響,以及與機器人安全有關的一些重要觀點和克服近期挑戰的一些建議,以促進未來的發展。

引言

為了加強軍事防御系統,必須大力發展和提高智能自主戰略能力。在大多數第一世界國家,研究國防技術改進是實現軍事防御現代化的優先事項。未來戰爭的特點可以根據不同領域的沖突進行分析,如:海洋、陸地、空中、網絡、太空、電磁和信息。隨著現代智能和機器人技術的改進,跨域(X域)和多域戰略也需要被關注。無人自主X域(多域)系統,簡稱UAxS,現在是研究和發展的重點,以使軍事力量更加強大、有力和智能。圖1展示了多域和X域的戰爭模式。

圖 1:多域和 X 域戰爭模型

現代防御機制可以在四個相互關聯的領域進行研究:先進的戰艦、良好的通信、人工智能和自主武器。這基本上意味著在軍事防御系統中實施機器人技術。在戰場上,一支裝備精良的機械化部隊是指揮官非常重要的資產。在戰爭中,指揮官必須專注于火力、機動性、人機合作、決策、支持裝甲和指揮步兵。在未來,機器人和自動化系統將通過提供支持和減少負擔來幫助解決這些問題,因為這些系統將更加智能、可靠和合作。在最近的軍事活動中,機器人和自主技術被用于偵察、設備供應、監視、掃雷、災難恢復、受傷士兵的檢索等(Dufourda, & Dalgalarrondo, 2006;Akhtaruzzaman, et al., 2020)。

為了確保可靠的使用和獲得最高的技術影響,機器人必須在半自動化、自動化和人機交互工程方面進行良好的設計。無人地面車輛(UGV)很有前途,在國防應用中具有很大的潛力,在這些應用中高度需要更快和可靠的通信鏈接(鏈接預算)和快速獲取信息(RAtI)(Akhtaruzzaman, et al., 2020)。機器人的價值比人的生命還要低。機器人在感知、檢測、測量和分析方面速度更快。機器人沒有任何激情或情感,不會像人類那樣感到疲勞或疲倦,而是在極端和關鍵條件下保持運作。在不久的將來,機器人將成為作戰計劃和參與的核心技術(Abiodun, & Taofeek, 2020)。它們將能夠通過智能傳感器技術與環境溝通,通過建模理解環境,理解人類的行動,定義威脅,服從命令,以更高的處理能力獲取信息,通過信息交換和共享與其他機器人互動,通過先進的控制技術自主適應敵對環境,并通過強大的計算能力與自動生成的程序應用智能進行自我學習(Akhtaruzzaman, & Shafie, 2010a, 2010b; Karabegovi?, & Karabegovi?, 2019)。

在不久的將來,UGV系統將成為軍事行動的關鍵技術,因為它們將確保幾乎零人力風險,不需要將人力直接安置到戰斗中。UGV系統還將能夠開放各種設施,如負載、自動監視、邊境巡邏、風險降低、障礙物清除、力量倍增器、遠程操縱、信號中繼等(Sathiyanarayanan等人,2014)。陸地防衛機器人必須能夠適應各種崎嶇的地形、惡劣的環境和非結構化的區域,同時發揮指定的作用并保持指揮層次。作為軍事部隊的一種程度,陸地機器人不能給團隊帶來任何額外的工作負擔。因此,必須實施有效的人工智能(AI)工程,以實現UGV或陸地機器人與行動部隊之間可靠的人機合作。

今天的智能機器人或自主武器仍然處于狹義人工智能(ANI)的水平(Horowitz,2019年),或者以某種方式處于ANI和通用人工智能(AGI)之間。這反映出它們還沒有準備好在災難或戰爭等敵對情況下完全自主并做出可靠的決定。人類擁有在很大程度上應用感知經驗的智慧,能夠適應環境,并能在關鍵情況下做出適當的決定。如果這些能力能夠被植入機器人的大腦,該系統就可以說是AGI系統。盡管與人類相比,機器人可以抵御枯燥、骯臟和危險的工作,但它們包括一些有限的功能,如航點或目標導向的導航、障礙物檢測、障礙物規避、威脅檢測、人類檢測和識別、定位、地圖構建、通過圖像和聲音處理提取信息,以及與其他機器人的某種合作。因此,如果能確保機器人和人類之間的良好合作,機器人將在人類的監督下自主工作,那么軍用地面機器人將是最有效的。

本研究對軍用陸地機器人系統、最近的技術進步、應用和道德影響進行了回顧。一些發達國家和不發達國家的現狀,以及通過推進和發展軍事武器、自動化武器和智能技術對世界經濟的工業影響,都反映在審查研究中。本文還闡述了參與戰爭的機器人倫理以及該技術對道德國家的影響。該研究主要試圖通過確定最近的差距、局限性和技術進步的倫理影響,來確定地面機器人技術的最新應用和實施情況

付費5元查看完整內容

人工智能有望徹底改變預測、理解和管理國際危機的方式。具體來說,人工智能系統可以在危機時期為外交官和決策者提供幫助,幫助他們了解正在發生的事情(描述性分析),繪制危機演變的可能趨勢或模式(預測性分析),以及評估應對策略的有效性(規定性分析)。然而,人們不太了解的是,這些模型如何在實踐中發揮作用,以及人工智能模型需要滿足哪些條件才能產生效果。該研究以俄羅斯在烏克蘭的侵略戰爭所產生的國際危機為例,提出了一個將人工智能應用于危機管理的框架,并討論了將人工智能納入外交決策的機會和挑戰。

引言

"人工智能"(AI)一詞最早是由美國計算機科學家約翰-麥卡錫在1956年提出的,他將AI定義為 "制造智能機器,特別是智能計算機程序的科學和工程"(麥卡錫,2011)。雖然在過去的幾十年里,對人工智能的探索經歷了多個 "希望和絕望的季節"(Bostrom,2014年,第6-11頁),但越來越多的人認為現階段的人工智能發展有了質的變化。由于復雜的機器和深度學習算法的快速發展,人工智能應用現在已經達到了無需明確編程就能使用統計模型和類似神經網絡自行學習的程度(Collins, 2021)。因此,人工智能的破壞可能會對危機管理產生強烈的影響,特別是因為數字平臺已經成為協助決策者在數字時代管理危機的關鍵工具。它們已經幫助大使館和外交部實時了解事件的性質和嚴重性,簡化決策過程,管理公眾的期望,并促進危機終止(Bjola & Coplen, 2022)。同時,需要非常謹慎地使用它們,因為事實的不準確、協調的差距、不匹配的披露水平和不良的信號做法很容易破壞危機管理的數字努力(Bjola, 2017)。

正如其他地方詳細討論的那樣,人工智能系統可以在危機時期幫助外交官,幫助他們了解正在發生的事情(描述性分析),確定危機演變的可能軌跡(預測性分析),并規定可能的應對策略(規定性分析)。人工智能已經被譽為預測地緣政治事件(Morstatter等人,2019年)、預測暴力事件的爆發并探究其原因(Guo等人,2018年)或改善有關在復雜社會環境中使用強制和非強制策略的戰略情報評估的可能解決方案(Frank,2017年)。人工智能的主要挑戰是要做出的決定的半結構化性質。鑒于危機決策的高度不確定性,以及一旦出錯不可避免的審查和問責要求,人工智能的整合只有在人類對該過程保持一定程度的控制時才能發揮作用。正如SIPRI的一項研究指出的那樣,當人工智能系統面臨的任務或環境與它們接受的訓練略有不同時,可能會出現驚人的失敗。人工智能算法也是不透明的,這往往使人類難以解釋它們是如何工作的,以及它們是否掩蓋了可能導致有問題--如果不是危險--行為的內在偏見(Boulanin,2019)。

在這些文獻的基礎上,本文試圖通過對外交官在危機時期面臨的挑戰進行理論分析,并開發一個原型模型,以了解如何實時監測、分析和應對正在發生的危機,從而推動關于人工智能可以為危機時期的外交決策產生機會的辯論。為此,本文將首先解釋決策者在危機時期面臨的不確定性挑戰,然后介紹可能有助于解決上述挑戰的人工智能原型模型,最后對該模型的優勢和局限性進行簡短討論。

人工智能建模與危機管理

本文提出的論點是,人工智能可以幫助外交部應對 "戰爭迷霧",通過調整在危機時期有助于減少或增加不確定性的因素的影響。借鑒數據分析中用于區分描述性、預測性和規定性模型的類型學(Lepenioti等人,2020),本文提出了將人工智能納入危機決策的概念模型,該模型基于圖1所示的三個部分。

圖 1:數據分析:描述性 - 預測性 - 規范性模型

第一個組成部分,即描述性分析,涉及到背景映射和相關信息的提取,可以提供問題性質的準確描述。這一部分所要回答的關鍵問題是正在發生什么?在危機的背景下,MFA對檢測可能表明管理危機的潛在挑戰或機會的模式感興趣。回顧烏克蘭戰爭的案例,多邊金融機構可能會問的問題是,參與沖突的各方及其主要支持者的立場是如何實時演變的?他們優先考慮哪些方面?這些立場的一致或分歧程度如何?第二部分,預測性分析,是指通過測試和驗證對問題的性質和原因的某些假設,預測可能的行動方案及其可能的影響(會發生什么?) 鑒于情況的變化,參與危機的各方的立場可能如何演變?X國是否可能支持歐盟對俄羅斯石油和天然氣的禁令?如果是這樣,在什么條件下?最后一個部分,即規范性分析,鼓勵決策者整合在前幾個步驟中收集到的信息,并利用結果來確定要采取的最佳行動方案(應該做什么?) 行動方案A與行動方案B會對外交部與其他國家的關系產生什么影響?X國應否在國際上帶頭努力,以解除俄羅斯對烏克蘭在黑海的糧食的封鎖?這樣的決定可能會影響歐盟或北約成員之間的外交團結?

當然,所有這三個部分都可以在沒有人工智能的協助下進行處理。事實上,多邊金融機構應該能夠在危機時期進行這樣的分析,而且他們已經利用內部和委托的專家定期這樣做。據推測,人工智能所能增加的是實時洞察力,以及對各方相互交換的信號的實質和可信度的更準確評估。人工智能可能無法完全化解 "戰爭迷霧",但它們可能能夠為在危機時期用于決策的信息的價值提供足夠或可操作的信心。要做到這一點,人工智能模型需要考慮到能夠模糊危機信號的因素,并盡可能地減少它們所引起的不確定性水平。如圖2所示,人工智能模型始于外交部及其使館網絡從靜態(如宏觀經濟指標、社會人口數據)和動態來源(如社交媒體信息、官方聲明、報紙報道)收集的數據匯總過程。然后,如此產生的數據集將被分成兩個子集(通常70%為訓練,30%為測試),用于訓練和測試用人工智能算法創建的模型。在運行和微調競爭性的話題、社交網絡和參與度分析模型后,將選擇一個最佳的人工智能模型來提供洞察力以協助決策。該模型應該能夠指出一組主題、影響者網絡以及能夠最有效地捕捉沖突中相關行為者所傳達的信號的參與形式。該框架還可以包括評估整合來自合作國家或國際組織的其他人工智能模型(圖中標有*)的可行性,以努力進一步減少 "戰爭迷霧 "引起的不確定性。然后,從數據分析中獲得的洞察力可以轉化為一個行動計劃,為官方對危機的反應和政策回應提供參考。這個過程繼續進行,新一輪的數據收集直接反饋到數據分析中,使決策者能夠在危機中實時追蹤和應對新的發展。

圖 2:基于人工智能的危機管理模型

雖然圖2中的模型同樣適用于上面討論的三個分析組件中的任何一個,但應該注意的是,人工智能建模的復雜性以及延伸到危機決策的分析價值在描述性、預測性和規定性格式之間有很大的差異。主要區別在于為每個部分的機器學習(ML)技術提供動力所需的數據質量,以及這些技術的復雜程度。追蹤和分析危機演變所需的數據更容易獲得,可以使用相對傳統的ML算法進行處理。之所以如此,是因為描述性分析依賴于已經作出的決定和已經實施的行動。一旦人工智能系統被要求預測可能的行動路線并評估應對策略的可行性,情況可以說變得更加復雜,因為產生這種反應所需的信息是基于尚未作出的決定和尚未實施的行動。因此,關于人工智能在危機管理中的應用的討論必須密切關注描述性、預測性和規定性的順序,以便在每種情況下開發的知識可以適當地告知其他情況下的人工智能解決方案的開發。出于這個原因,以下部分將重點了解人工智能在第一部分(描述性分析)的應用條件,希望從這個階段學到的經驗可以隨后應用和擴展到開發人工智能解決方案,以支持危機管理的預測性和規定性分析。

付費5元查看完整內容

下一代測序技術已經將生物學領域推向了大數據時代,而計算技術的不斷進步現在已經使探索復雜的生物系統變得更加容易。然而,用傳統的機器學習算法來分析這種高度復雜的數據可能會很麻煩,因為這些技術需要相當多的特征工程。幸運的是,機器學習的一個子領域,即深度學習,最近已經顯示出克服這些問題的證據。這種算法最初被應用于基因組和轉錄組環境。然而,測序技術的進步已經使蛋白質組學成熟到深度學習現在是一個可行的選擇。這篇論文將主要考慮深度學習在模擬蛋白質的各種屬性方面的應用。

盡管深度學習解決了在分析Omic數據時遇到的一些初步問題,但在應用深度學習算法時仍然存在著一系列不同的挑戰。即使使用最新的方法,深度學習模型也常常需要大量的標記數據,而這些數據的獲取可能是高成本和耗時的。如果沒有足夠的數據量,那么與傳統機器學習算法相比,標準的深度學習方法往往表現不佳。另外,這些模型是黑盒算法,這給模型所產生的預測的解釋帶來了問題。

鑒于蛋白質內部的差異性,要有效地總結數據是很困難的,因為有關蛋白質的信息可能會因特征工程而丟失。在本論文的每個研究章節中,通過使用深度學習,我們解決了應用傳統機器學習來為蛋白質數據建模的缺點。在第一個技術章節中,我們首先使用了最先進的子詞編碼方案。我們證明,與標準基線相比,這些新的表征對預訓練更有利、更實用。在下一章中,我們更進一步,解決將深度學習模型應用于較小的數據集的問題。在此過程中,我們探討了如何利用度量學習來形成一個強大的模型架構,該架構能夠從少數標記的例子中學習并對蛋白質進行排名。之后,我們考慮了一種同時利用預訓練和公因子學習的方法,通過使用大型無監督網絡達到新的最先進水平。在這一章中,我們利用在大量蛋白質組學數據上預訓練的BERT模型,只用少量的數據對回歸任務的集合進行建模。我們采用三重網絡結構來為每個數據集微調BERT模型,并評估其在一組下游任務上的表現。所提到的前三個策略在各種下游任務上進行了測試:四個蛋白質特性預測任務(質膜定位、熱穩定性、吸收峰值波長、對映選擇性)。

此外,本論文還包括另外兩章,考慮了在對蛋白質數據建模時遇到的其他挑戰。這一章首先介紹了應用預訓練來提高磷酸化位點建模的最先進水平,使用了一個全新的基于卷積變換器的模型。我們在一般的磷酸化位點數據集和各種特定的激酶數據集上評估我們的方法。此外,為了強調這是一個白盒深度學習的例子,我們將模型的特征可視化,以獲得對每個站點預測背后的更好理解。

最后一個研究章節考慮了為蛋白質和藥物之間的相互作用建模的最先進方法。在這一章中,我們利用了一組BERT式的模型,這些模型已經在大量的蛋白質和藥物數據上進行了預訓練。然后,每個模型產生的編碼被用作圖卷積神經網絡的節點表示,該網絡反過來對相互作用進行建模,而不需要同時對蛋白質和藥物BERT模型進行微調來完成任務。我們在兩個藥物-目標相互作用數據集上評估了我們的方法的性能,這兩個數據集在最近的工作中曾被用作基準。

付費5元查看完整內容
北京阿比特科技有限公司