亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

云計算已成為全球數字經濟的基礎要素,釋放出前所未有的創新和連接水平。為了解這一關鍵使能技術對國際安全的深遠影響,本報告概述了云計算的相關用例、益處和風險,以及其關鍵治理挑戰和對軍備控制的影響。本報告分為兩部分--技術入門和治理入門--提供技術見解和政策分析。

本文對技術進行了通俗易懂的描述,解讀了技術的各個組成部分,同時概述了選定的優勢、風險和相關的國際安全應用。云計算實現了計算資源的可擴展性和靈活性,以及成本效益和實時數據處理與共享。與此同時,云計算也會加劇網絡安全威脅,增加跨境管轄問題,增加對少數大型服務提供商的依賴。

該技術入門指南還將云計算置于更廣泛的人工智能(AI)背景下,強調了云計算在促進和加速人工智能發展方面的作用。隨著國防、關鍵基礎設施和人道主義部門等與國際安全有交集的部門越來越多地采用云計算解決方案,謹慎平衡風險與收益至關重要。

有鑒于此,治理入門概述了與國際安全相關的關鍵治理挑戰。這些挑戰源于技術和商業模式本身的固有因素,以及與云計算交織在一起的地緣政治和國際安全現實相關的更廣泛因素。這些挑戰包括云計算的復雜性、數字主權、市場和地理集中度、與其他技術治理工作的交叉,以及軍事領域使用增加所帶來的治理挑戰。

最后,本報告探討了云計算對軍備控制的影響。它為討論軍備控制討論如何更好地考慮云計算帶來的問題,以及傳統軍備控制機制(如出口控制)如何受到新技術現實的影響提供了一個跳板。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

在數字化和戰略競爭日趨激烈的現代,成功與否取決于一個組織是否有能力比競爭對手更好、更快地利用數據和技術。人工智能(AI)技術的飛速發展正在徹底改變公共和私營機構保持領先的方式,影響著傳統的、由人類驅動的分析流程的各個層面。本報告探討了在情報周期中應用人工智能工具的機會,以增強人類分析師的能力,同時減少其局限性,從而推動更加無縫的情報流程

人類分析師擅長批判性思維和直覺判斷。他們解讀細微信息、理解復雜環境并根據不完整數據集做出明智決策的能力無與倫比。然而,數據超載、認知偏差、需要資源密集型培訓以及有限的時間和精力等限制因素卻阻礙了他們的工作效率。相反,人工智能技術擅長數據處理、客觀性和日常任務自動化。它們能以前所未有的速度分析海量數據、識別模式并執行重復性任務,而不會造成身心疲憊。

因此,人類和機器能力的互補優勢表明,分析流程將發生轉變,分析師-機器團隊將自適應地持續合作,以近乎實時的洞察力應對復雜的威脅。這種新模式將需要敏捷的協作框架、能夠有效使用人工智能工具并解讀人工智能生成的洞察力的熟練分析師、可靠而全面的培訓數據和流程,以及強大的監督機制。

付費5元查看完整內容

隨著氣候影響的加速和能源轉型的進行,軍方越來越多地考慮其運營、基礎設施和供應鏈的碳足跡。如今,雖然在測量、報告和減少這些排放方面還存在差距,但許多國家已經采取了減少碳足跡和提高軍隊效率的措施。

本報告分析了氣候變化對軍隊的緊迫性,探討了軍事研究和創新如何既能實現減排,又能增強基礎設施和行動對氣候影響的適應力,同時提高軍事單元和設施的自給自足能力。雖然該報告對世界各地的軍隊都很有用,但其建議主要針對北約成員國的軍隊。

報告顯示,各國軍隊需要采取綜合方法應對氣候挑戰。這不僅應包括研究與開發(R&D),還應包括更廣泛的政策和采購變革。氣候危機并不是軍事研發等單一工具就能解決的挑戰,而是需要更廣泛的伙伴關系、政策和投資,才能構成一個更完整的可持續發展工具箱。

當然,軍事研究作為氣候減緩和適應挑戰的解決方案也有局限性。例如,就作戰裝備而言,其幾十年的生命周期意味著新技術的大規模實施需要一個較長的過渡期。取得進展仍然很重要,但要實現排放目標,并沒有單一或立竿見影的解決方案。此外,軍事研究側重于特定任務的應用。雖然在這一范圍內有機會探索抵御氣候影響作為任務的必要條件(如受災害影響的基地的能源恢復能力),但有關減排的研究更有可能來自商業和民用研究工作。

然而,盡管存在這些限制,解決軍隊的環境成本問題仍然是有益的。提高平臺的能源使用效率,即使是漸進式的,對作戰能力和減少碳足跡都有好處。混合動力車輛是一種合理的創新,幾乎不需要改變后勤支持系統,就能減輕后勤負擔。人工智能將提高效率,減少軍事人員在車輛中的昂貴住宿,并有可能推動新的研究途徑。最有效的方法是采用能與同時出現的其他進步產生協同效應的脫碳技術。隨著這些技術的進步,能源效率的提高也將減少對化石燃料運輸和安全的需求,限制價格波動,提高自給自足能力,并減少燃料泄漏或溢出對環境造成的破壞。

包括但不限于混合動力汽車和人工智能能源使用管理在內的技術研究項目,為提高能源效率和使用中系統的性能提供了創新途徑。然而,減少軍方碳足跡的最佳機會將在創新的采購和政策方法中找到。雖然軍事研究在全球研究組織實體中所占的比重已不如從前,但軍事采購預算仍然極具影響力,往往是各自國家最大的單一客戶。因此,即使在優先考慮軍事任務的同時,采購選擇也能催化和引導市場走向特定的政策成果。

本報告分析了氣候變化對世界各國軍隊的緊迫性,評估了軍事行動、基礎設施和供應鏈中減排和技術進步的進展、不足和機遇,并提出了一些重要建議。

1.以綜合、時效性強的方式進行軍事創新。除了通過創新實現能源效率外,軍隊還必須適應氣候變化的影響。應優先考慮同時滿足這兩個目的的技術。盡早采用這些技術將使軍隊在行動以及國際和國內聲譽方面占據優勢。

2.促進公私合作,利用民用技術進步。許多對軍隊有用的創新將在民用部門實現,軍隊應支持這些進步。例如,鑒于燃料使用,尤其是航空燃料的使用,是作戰排放的最大來源之一,軍方應為可持續航空燃料發出強烈的市場信號。

3.設定基礎設施去碳化目標以及排放監測和可持續采購戰略。明確的減排目標和監測戰略是實現軍事基礎設施去碳化的第一步,包括軍事供應鏈中的產品(范圍 3 排放)。實現這些目標的一個關鍵方法是軍隊為固定設施采購無碳電力。這可以通過有針對性的購電協議或更廣泛的電網綠化來實現。值得注意的是,實現這種電力轉變的技術已經存在于商業領域。

4.利用教育和培訓普及氣候知識。僅有技術解決方案是不夠的:要改變軍隊對去碳化帶來的機遇和挑戰的理解和應對方式,一支具備氣候素養的勞動力隊伍至關重要。考慮到共同的挑戰和目標,北約成員國軍隊有機會促進氣候培訓方面的跨國合作。

5.在軍事供應鏈中激勵能源轉型,降低國防工業排放。對軍方采購產品中較低內含碳水平的采購優惠和投資可加速這一轉變。例如,歐盟可以通過改革分類和貸款實踐,為那些明確承諾通過現實目標實現凈零排放的公司提供更多信貸。

其中許多建議都可以概括為一個核心原則--購置和采購創新。為應對氣候挑戰,各國軍隊需要從根本上改變采購方式和采購內容。這包括采購政策、流程以及滿足任務和可持續發展要求的要求。軍事采購領導者應向民用和商業能源研究人員發出這一市場信號,并通過承諾購買所開發的產品來促進清潔能源研究。

通過擴大創新的范圍,使其不僅包括研究項目,還包括從根本上改變軍事和國防組織的管理方式,軍事創新可以幫助減少對碳排放的影響,幫助軍隊應對氣候挑戰。

報告認為,軍事創新確實可以為應對氣候挑戰做出重大貢獻,但軍隊需要與其他政府機構、決策者和私營企業建立更強有力的伙伴關系,以充分應對挑戰。

付費5元查看完整內容

通過對未來 20 年的預測,本報告的作者旨在將思路延伸到澳大利亞在其國內和印太地區所面臨的直接挑戰之外。確定并提出了眾多新興力量(大趨勢)的影響,以便為中長期規劃提供依據。現在就應該這樣做,因為制定必要的國家應對措施可能需要幾十年的時間。本報告的分析目的是提醒國防部門(以及越來越多地提醒整個政府)注意最突出的問題,使其能夠更好地預測和適應當今最緊迫問題之外的威脅,并據此設計有彈性的部隊結構,在未來幾十年中實現能力投資的最大回報。

主要結論

  • 來自自然、技術和社會系統的威脅正在結合在一起,有可能造成不可逆轉,甚至是災難性的后果。 如果澳大利亞要在當前的大國競爭之外應對未來的多重危機狀態,就必須開始考慮如何在其部隊結構中引入敏捷性,以及在哪些危機或問題上最適合部署敏捷性。
  • 發展民防模式可以加強澳大利亞主動有效應對各種威脅的能力,但可能需要澳大利亞國防軍放棄更適合國內救災任務的能力和人員。作為交換,可以建立一個更廣泛的征兵庫,使民防部隊和澳大利亞國防軍都能從中受益,從而加強民事準備,增強澳大利亞國防軍的力量,使其能夠專注于優先事項。
  • 為了發展作戰專長,促進實驗和冒險的組織結構對于建立對新興技術的信任至關重要,如果要應對常規作戰結構之外的更大范圍的突發事件,這種組織結構也至關重要。
  • 一些惡意活動的支持者正在戰爭門檻之下蓄意實施戰爭行為,特別是在網絡領域,而且越來越多地在太空領域。這模糊了國防與國家安全之間的界限,因此要求國防部更多地、而不是更少地處理模糊問題。
  • 澳大利亞國防軍可能需要在信息安全方面發揮更大的作用,也許是領導作用,應對國家和國際風險,并與民間組織聯手這樣做。

圖 1 2024 年世界經濟論壇全球風險互聯地圖

付費5元查看完整內容

本報告旨在為信息環境評估 (IEA) 從業人員提供指導。這包括了解信息環境和受眾,尤其是在線活動中的信息環境和受眾,并涵蓋必要的技術要素和法律因素。

報告涉及的關鍵問題包括:哪些人工智能(AI)功能對戰略傳播(StratCom)至關重要?哪些模式需要改進?人工智能在這一領域的前景如何?

報告提供了當前的知識,以提高從業人員安全、高效地駕馭人工智能驅動的信息環境并符合法律要求的能力。

了解戰略傳播在北約中的作用

根據《盟軍戰略傳播聯合條令》(AJP-10 (2023),以下簡稱 AJP-10),戰略傳播(StratCom)是指揮集團的一項職能,負責了解所有相關受眾的信息環境(IE),并在此基礎上利用包括行動、圖像和語言在內的所有傳播手段,通過以敘事為主導、以行為為中心的方法,適當地告知和影響受眾的態度和行為,以實現所期望的最終狀態。在北約軍事背景下,戰略傳播負責將傳播能力和信息參謀職能與其他軍事活動結合起來,以了解和塑造國際環境,支持北約的戰略目的和目標。

北約的 J10 戰略傳播局(J10-StratCom)包括信息作戰(Info Ops)的信息參謀職能以及軍事公共事務(Mil PA)和心理作戰(PsyOps)的傳播能力。在我們的研究報告中,雖然主要議題是人工智能在戰略傳播中的作用,但選擇特別關注心理作戰(PsyOps),因為這些領域之間存在重要的相互作用。

北約的 “心理戰 ”以北約或合作盟國、伙伴國或組織的真實信息為基礎。J10 戰略傳播中的心理作戰參謀人員僅存在于作戰層面及以下,并為指揮官的決策過程做出貢獻。他們就可行的心理作戰傳播活動和計劃行動的心理影響提出建議,并就心理作戰人員和非心理作戰人員及單元開展的信息和傳播活動提出建議,以便在IE中產生效果。在 J10-StratCom 內部,心理作戰人員提供五種不同的職能:

1.受眾分析 2.心理作戰計劃 3.反敵對信息和虛假信息 4.網絡行動 5.聯合心理戰特遣部隊總部

圖 9. 人工智能工具在戰略傳播活動各階段的使用情況概述

付費5元查看完整內容

本報告是關于新興技術對美國國土安全部(DHS)任務和能力影響的系列分析報告之一。作為這項研究的一部分,作者負責開發一種技術和風險評估方法,用于評估新興技術并了解其對國土安全的影響。該方法和分析為國土安全部更好地了解新興技術及其帶來的風險奠定了基礎。

本報告重點關注人工智能(AI),尤其是與關鍵基礎設施相關的人工智能。作者借鑒了有關智能城市的文獻,在評估技術時考慮了幾個屬性:技術可用性、風險和情景(作者將其分為威脅、脆弱性和后果)。本分析中考慮的風險和情景與影響關鍵基礎設施的人工智能使用有關。這些用例可以是用于監控關鍵基礎設施,也可以是對手利用人工智能對關鍵基礎設施進行非法活動和邪惡行為。風險和場景由國土安全部科技局和國土安全部政策辦公室提供。作者比較了短期(最多三年)、中期(三至五年)和長期(五至十年)三個時期的屬性,以評估人工智能關鍵基礎設施的可用性和相關風險。

研究問題

  • 未來十年,關鍵基礎設施中人工智能應用的技術可用性如何?
  • 在這十年期間,科技成熟度;用例、需求和市場力量;資源;政策、法律、道德和監管障礙;以及關鍵基礎設施應用的技術可得性將如何變化?
  • 未來十年,人工智能可能會給關鍵基礎設施應用帶來哪些風險和情景(包括威脅、脆弱性和后果)?

主要結論

  • 人工智能是一項變革性技術,很可能被廣泛應用于整個社會,包括關鍵基礎設施。
  • 人工智能可能會受到許多與其他信息時代技術相同的因素的影響,如網絡安全、保護知識產權、確保關鍵數據保護以及保護專有方法和流程。
  • 人工智能領域包含眾多技術,這些技術一旦問世,就會被納入人工智能系統。因此,人工智能科學和技術的成熟度將基于幾個基本技術領域的關鍵依賴性,包括高性能計算、先進半導體開發和制造、機器人技術、機器學習、自然語言處理以及積累和保護關鍵數據的能力。
  • 要將人工智能置于當前的成熟狀態,不妨劃分三個人工智能類別:人工狹義智能(ANI)、人工通用智能和人工超級智能。到本分析報告所述的十年期結束時,人工智能技術很可能還只是達到了窄人工智能(ANI)的水平。
  • 人工智能將為關鍵基礎設施和專用智能城市的最終發展帶來機遇和挑戰。
  • 2023 年 3 月推出的 ChatGPT-4 提供了一個有趣的案例研究,說明這些人工智能技術--這里指的是大型語言模型--將如何走向成熟并融入社會。最初的推廣說明了一個周期--開發、部署、找出不足和其他潛在使用領域,以及快速更新人工智能系統--這可能是人工智能的一個特點。

付費5元查看完整內容

項目概述

本研究報告是聯合國裁研所人工智能建立信任措施項目的一部分。該項目旨在促進在國際和平與安全背景下就人工智能建立信任措施開展多邊討論,并探討建立信任措施的備選方案,這些方案應現實、可行,并能提高人工智能開發和使用過程中的整體信任度和透明度。

建立信任措施是靈活的工具,旨在減少國家間的模糊和不信任,或防止升級。它們由共同利益決定,可以采取各種形式。從歷史上看,各種手段都是建立信任措施工具箱的一部分,如核查措施、軍事限制或信息交流。

人工智能領域的進步,加上該技術的可擴展性以及與其他技術領域的融合,給國際社會帶來了新的風險,包括對國際和平與安全的風險。建立信任措施可在應對技術風險方面發揮重要作用,并為人工智能技術的未來發展和部署形成共同規范。

該項目包括兩個主要階段:

1.繪制風險圖,對風險進行分類,目的是全面概述與人工智能技術有關的主要風險領域。本研究報告有效地實現了項目第一階段的目標;

2.在第一階段研究成果的基礎上,通過多方利益相關者的參與,探索建立信任措施的發展路徑。

執行總結

本研究報告闡述了國際和平與安全背景下的人工智能風險分類。它是聯合國裁軍研究所 "人工智能建立信任措施 "項目的一部分,旨在繪制該技術的風險圖,為今后討論和闡明建立信任措施提供參考。

該分類法將風險分為兩大類:

1.人工智能技術的風險,包括安全風險(人工智能系統固有的脆弱性和局限性)、安全風險(旨在破壞人工智能系統學習或行動方式的蓄意攻擊)、人機交互風險(由于人類操作人工智能系統或與人工智能系統一起工作的復雜動態,導致人工智能系統使用不當);以及 2.

2.人工智能對全球安全的風險,包括三大類風險:誤判(人工智能的使用和應用可能損害使用武力的決定或為國際關系惡化開辟道路)、升級(人工智能技術可能導致沖突有意或無意升級)和擴散(人工智能被濫用于擴散新武器,包括大規模毀滅性武器的風險)。

當然,風險是相互關聯、相輔相成的。例如,人工智能系統的穩健性和復原力不足會迅速轉化為故障,為國家間的誤判和升級開辟道路。對人工智能系統的邊界和能力的不正確使用或理解會導致對系統的過度依賴或依賴不足,從而進一步引發負面或升級后果。

本報告對不同類別的風險進行了技術說明,并對其對全球安全的潛在影響進行了背景分析。在現階段,它并沒有為未來建立信任措施的討論提供備選方案,也不是為了圍繞具體風險確定優先領域的范圍。建立信任措施最終將由相關利益攸關方制定和闡述。本報告為了解風險提供了指南,可作為未來討論的基礎。

付費5元查看完整內容

本研究旨在研究如何通過在大規模文本文檔中執行開放式信息提取技術來構建網絡安全知識圖譜表示法。之后,我們將研究如何將深度學習應用于網絡安全的知識圖譜表示。我們將考慮在圖深度學習模型中使用注意力機制,并比較可用于圖表示數據學習的各種深度學習模型。此外,我們還將研究利用無標記數據的半監督學習框架,以提高預測和排序問題的性能。所提出的方法將用于檢測網絡安全領域的惡意軟件和代碼缺陷。

付費5元查看完整內容

人工智能(AI)的快速發展引發了專家、政策制定者和世界領導人對日益先進的人工智能系統可能帶來災難性風險的日益擔憂。雖然許多風險已被單獨詳述,但目前迫切需要對潛在危險進行系統的討論和說明,以便更好地為減輕這些危險提供信息。本文概述了人工智能災難性風險的主要來源,將其分為四類:惡意使用,即個人或團體故意使用人工智能造成傷害;人工智能競賽,即競爭環境迫使行為者部署不安全的人工智能或將控制權讓給人工智能;組織風險,強調人為因素和復雜系統如何增加災難性事故的幾率;流氓人工智能,描述控制遠比人類智能的代理固有的困難。對于每一類風險,我們都描述了具體的危害,介紹了說明性故事,設想了理想場景,并提出了減輕這些危險的實用建議。我們的目標是促進對這些風險的全面了解,并激發集體的積極努力,確保以安全的方式開發和部署人工智能。最終,我們希望這將使我們能夠實現這一強大技術的益處,同時將災難性后果的可能性降至最低。

圖:本文將介紹四類人工智能風險,并討論如何降低這些風險。

近年來,人工智能(AI)突飛猛進,引起了人工智能專家、政策制定者和世界領導人對先進人工智能所帶來的潛在風險的擔憂。與所有強大的技術一樣,人工智能必須以高度的責任感來管理風險,并利用其潛力來改善社會。然而,關于災難性或生存性的人工智能風險可能如何發生或如何應對,可獲得的信息非常有限。雖然有關這一主題的資料很多,但往往分散在各種論文中,而且通常針對的受眾面較窄,或側重于特定的風險。在本文中,我們將概述災難性人工智能風險的主要來源,并將其分為四類:

惡意使用。行為者可能故意利用強大的人工智能造成廣泛傷害。具體風險包括人工智能賦能的生物恐怖主義,它可以幫助人類制造致命的病原體;蓄意傳播不受控制的人工智能制劑;以及利用人工智能能力進行宣傳、審查和監視。為了降低這些風險,我們建議改善生物安全,限制獲取最危險的人工智能模型,并讓人工智能開發者為其人工智能系統造成的損害承擔法律責任。

人工智能競賽。競爭可能會迫使國家和企業匆忙開發人工智能,并將控制權拱手讓給人工智能系統。軍方可能會面臨開發自主武器的壓力,并將人工智能賦能的網絡戰,從而實現一種新的自動化戰爭,在這種戰爭中,事故可能會在人類有機會干預之前就失控。企業也將面臨類似的激勵,促使人類勞動自動化,并將利潤置于安全之上,從而可能導致大規模失業和對人工智能系統的依賴。我們還討論了從長遠來看,進化壓力可能會如何塑造人工智能。人工智能之間的自然選擇可能會導致自私的特性,而人工智能相對于人類的優勢最終可能導致人類被取代。為了降低人工智能競賽帶來的風險,建議對通用人工智能實施安全監管、國際協調和公共控制。

組織風險。組織事故造成的災難包括切爾諾貝利、三里島和挑戰者號航天飛機災難。同樣,開發和部署先進人工智能的組織也可能遭受災難性事故,特別是如果它們沒有強大的安全文化。人工智能可能會意外泄露給公眾或被惡意行為者竊取。各組織可能無法投資于安全研究,不了解如何以比一般人工智能能力更快的速度可靠地提高人工智能的安全性,或者壓制內部對人工智能風險的擔憂。為了降低這些風險,可以建立更好的組織文化和結構,包括內部和外部審計、多層風險防御以及最先進的信息安全。

流氓人工智能。一個普遍而嚴重的擔憂是,隨著人工智能變得比我們更智能,我們可能會失去對人工智能的控制。人工智能可能會在一種被稱為代理博弈的過程中,將有缺陷的目標優化到極致。人工智能在適應不斷變化的環境時,可能會經歷目標漂移,這與人在一生中獲得和失去目標的過程類似。在某些情況下,人工智能變得追求權力可能是工具理性的。我們還研究了人工智能如何以及為何會進行欺騙,在不受控制的情況下表現出受控制的樣子。與前三個風險來源相比,這些問題更具技術性。我們概述了一些建議的研究方向,以促進我們對如何確保人工智能可控的理解。

在每一節中,我們都提供了一些說明性場景,更具體地展示了風險源如何可能導致災難性結果,甚至構成生存威脅。通過提供一個對風險進行適當管理的更安全未來的積極愿景,我們強調,人工智能新出現的風險雖然嚴重,但并非不可克服。通過積極應對這些風險,我們可以努力實現人工智能的益處,同時最大限度地降低災難性后果的可能性。

付費5元查看完整內容

本研究旨在開發一種區塊鏈數據結構和原型,以跟蹤美國防部(DoD)各部門之間資金流動的預算編制情況。該項目的目標是提高對交易的洞察力,以實現購置資金的靈活性,并為美國防部的規劃、管理和宏觀平衡提供更好的支出跟蹤信息。該報告總結了區塊鏈技術可以加強的一系列解決方案和用例。區塊鏈技術尚未解決預算跟蹤問題。其他領域的現有解決方案只是將區塊鏈作為一種服務來使用。它們沒有考慮如何利用圖分析和機器學習等技術來改進基于區塊鏈的解決方案。不恰當的區塊鏈設計可能會導致系統的數據冗余急劇增加,這可能會導致大規模系統(如政府基礎設施)的系統維護成本居高不下。此外,由于基于區塊鏈的系統數據量大,我們需要一些工具,如與區塊鏈相結合的圖分析,來從數據中提取新的信息和模式。因此,基于區塊鏈和圖分析的混合設計已被用于國防部的預算跟蹤。

在本項目中,借助圖分析概念,提出了組織區塊鏈數據結構的原型。由于難以獲得國防部(DoD)預算管理的真實世界數據,我們利用了基于本項目期間提供的樣本的高級數據結構,作為更真實數據集的替代。在制定了初步路線圖和展示國防部資金轉移的圖表網絡后,我們提出了七個新穎的使用案例,以展示該解決方案的適用性。對于每個用例,我們都確定了所針對的問題、如何應用所建議的設計,以及所建議的解決方案設計如何帶來益處。使用案例涵蓋了與預算管理、數據操作和安全優化有關的幾個問題,以及與成本和成本效益有關的問題。

本項目的成果突出了以下幾點:

  • 區塊鏈可以支持財務數據的不可篡改性,這是一個至關重要的問題。
  • 通過圖形交易展示國防部資金并提取有價值的見解是一種可行的選擇。由于用于分析國防部(DoD)數據的現有基礎設施非常復雜,而且在利用區塊鏈技術后變得更具挑戰性,因此所提出的分析交易和預算的想法增強了數據分析的便利性和安全性。
  • 交易圖表可用于加強監督和問責。此外,還可通過圖形分析提取流量和關系。
  • 區塊鏈與圖表分析的結合為國防部(DoD)的預算跟蹤問題帶來了透明度和問責制。

該項目按以下步驟進行:

  • 從國防部(DoD)獲取數據和數據結構
  • 設計一個圖表模型,以突出顯示模式和趨勢,并獲得各種查詢信息
  • 設計基于區塊鏈的解決方案
  • 設計和演示原型
  • 開發和說明若干使用案例

由于本項目關注的是一個新穎的概念,而基于區塊鏈的預算管理系統此前并無設計,因此我們將重點放在設計問題上,提出了一個原型來支持這一概念,作為概念驗證。我們根據提供的數據樣本調整了設計。建議的用例很有可能被用作本項目的擴展。它們包括

  • 保護合同數據不被篡改
  • 國防工業基地健康
  • 改進地理合同數據查詢
  • 改進應急承包進度和合同數據
  • 知識產權管理
  • 備件合同
  • 預測缺失和不一致的購置數據字段

付費5元查看完整內容

本報告重點討論與人工智能系統可能缺乏可預測性而導致的有關風險--被稱為可預測性問題--及其對國家安全領域人工智能系統治理的影響。人工智能系統的可預測性表明人們可以在多大程度上回答這個問題:人工智能系統會做什么?可預測性問題既可以指人工智能系統的正確結果,也可以指不正確的結果,因為問題不在于這些結果是否符合系統工作的邏輯,而是在部署時是否有可能預見到這些結果。

人們越來越擔心,使用不可預測的人工智能系統為高風險決策提供信息可能會導致災難性的后果,這將破壞公眾對部署這些系統的組織的信任,并可能侵蝕政府的聲譽。在國家安全領域,人工智能的使用引入了一個新的不確定性來源,可能會阻礙風險管理程序,并可能使責任鏈變得混亂。在這個領域,可預測性問題的影響可能導致關鍵基礎設施的安全風險、個人權利和福祉的風險、沖突升級或外交影響。

在本報告中,我們首先從技術和社會技術的角度分析了可預測性問題,然后集中討論了英國、歐盟和美國的相關政策,考慮它們是否以及如何解決這個問題。從技術角度來看,我們認為,鑒于人工智能系統的設計、開發和部署的多層面過程,不可能考慮到所有的錯誤來源或可能產生的新行為。此外,即使在理想的情況下,在設計或開發階段沒有錯誤可以假設或檢測,一旦部署了人工智能系統,仍然可能發展出形式上正確的(但不想要的)結果,這在部署時是無法預見的。

我們通過關注人機編隊(HMT-AI)來分析可預測性問題的社會技術影響。人機編隊代表了一種越來越普遍的人工智能系統部署模式。在HMT-AI中,人類咨詢、協調、依賴、發展并與人工智能代理交換任務。由于HMT-AI結合了人類和人工的自主性,它們通過增加人工和人類代理及其環境之間的互動的數量和類型而加劇了可預測性問題。在這種情況下,我們發現可預測性問題的三個主要來源:人機交互、人員培訓和(過度)信任。人機交互可能會助長不可預測的結果,因為它們可以掩蓋、扭曲或過分詳細地描述人工智能系統的工作原理,而培訓計劃可能沒有考慮到人工智能技術的學習能力和HMT-AI的長期慣例建設。同樣,在HMTAI中,人類代理人不加批判地接受AI系統的結果,這種過度信任的動態也可能導致無法預測的結果。

在確定了可預測性問題的一些根本原因之后,我們分析了英國、歐盟和美國的政策,以評估這些原因是否在相關的政策文件中被涵蓋,如果是的話,如何以及在何種程度上被涵蓋。我們確定了四個主要主題和一個缺口。它們是:控制、監督和價值調整;資源提升的方法;可信賴人工智能的發展;以及缺乏對風險管理措施的關注,以遏制可預測性問題的影響。

我們的政策分析包括八個建議,以減輕與可預測性問題有關的風險。關鍵的建議是將治理方法集中在HMTAI上,而不僅僅是AI系統,并將可預測性問題概念化為多維度的,解決方案集中在HMT-AI組成的共同標準和準則上。在這些標準和準則中,可信人工智能的要求是特別相關的,應該與評估人工智能系統的可預測性的標準和認證計劃以及審計HMT-AI的程序結合起來。支持在國家安全中使用HMT-AI的決定的成本效益分析和影響評估應該考慮到可預測性問題及其對人權、民主價值的潛在影響,以及意外后果的風險。為了確保在部署潛在的不可預測的人工智能系統時進行充分的風險管理,我們建議調整ALARP原則--在合理可行的情況下盡量降低--作為制定HMT-AI中可預測性問題的人工智能特定風險評估框架的基礎。

擬議的基于ALARP的框架將提供有用的實際指導,但僅僅是這樣還不足以識別和減輕可預測性問題所帶來的風險。需要額外的政策、指導和培訓來充分考慮人工智能可預測性問題帶來的風險。人工智能系統支持的決策的影響越大,設計、開發和使用該系統的人的謹慎責任就越大,可接受的風險門檻也越低。這些分析和建議應該被理解為可操作的見解和實用的建議,以支持相關的利益相關者在國家安全背景下促進社會可接受的和道德上合理的人工智能的使用。

建議

建議1. 政府應撥出研究經費,發展公私合作,對HMT-AI進行縱向研究。這項研究應側重于HMT-AI中的新舊決策模式,以評估編隊協議建設和培訓對績效和控制措施的影響。重點應放在為HMT-AI的具體動態定義新的培訓協議,以及加快風險管理標準和HMT-AI績效評估的發展。

建議2. 應該建立一個專門的HMT-AI認證計劃,以促進行業對為HMT-AI設計的AI系統的設計要求和評估的共識。任務之間的通用性、有效的溝通、性能的一致性以及對新隊友的適應性都應該包括在這樣一個認證計劃中。在開發不足的ISO標準的基礎上,這個認證計劃還應該擴展到過程的可追溯性和決策的問責制,以及評估HMT-AI信任程度的審計機制。這對于抑制HMT-AI中的過度信任和自滿態度是必要的,這種態度維持或擴大了可預測性問題。

建議3. 對國家安全領域的可預測性問題的政策反應應該側重于管理HMT-AI團隊,而不是單獨的AI系統。

建議4. 國家安全領域的HMT-AI的成本效益分析(CBA)應該包括對AI系統的可預測性以及技術和操作層面的相關道德風險的評估。為了促進各安全機構之間的一致評估,應該定義一個評估人工智能系統可預測性的標準量表,在這個量表上,使用(或不使用)人工智能的選擇應該根據上下文的CBA以及考慮公眾對風險和相關利益的態度來證明。這個尺度的定義應屬于獨立的第三方行為者的職權范圍,即與部署HMT-AI的公共機構不同。

建議5. 與其說是 "更多 "或 "更少 "的可預測性,政策建議應側重于可預測性的權衡,明確具體建議旨在解決可預測性問題的哪個方面,以何種方式解決,以及它們有可能加劇哪些方面,哪些緩解措施將被落實到位。政策應該認識到,可預測性是一個多維度的概念,在一個層面上可預測性的收益可能會以另一個層面的損失為代價。

建議6. 關于國家安全中人工智能可預測性問題的政策應該在正式和操作層面上解決可信度和不可預測性之間的聯系。例如,應該給人工智能系統一個可修正的可預測性分數,這應該包括在對系統的可信任度的評估中。人工智能系統的可信賴性應包括成本效益分析,以評估不想要的行為在不同部署背景下可能帶來的風險。

建議7. 應該為不可預測的人工智能建立風險閾值,這些閾值將圍繞不可預測行為的風險嚴重程度映射到其自身的可預測程度(例如,劃分為已知的已知因素、已知的未知因素等)。這些閾值反過來將為風險管理過程的發展提供信息,允許根據風險的可預測性及其影響對其進行優先排序。

建議8. 應該制定一個基于ALARP的框架,以評估不可預測的人工智能和HMT-AI的風險,并為任何給定的環境確定可接受的最大程度的不可預測性。這個框架應該包括:

  • 對特定人工智能系統和HMT-AI的可預測程度的定量評估;
  • 對導致部署人工智能系統的設計、開發和/或采購步驟的可追溯性的評估;
  • 對部署條件的評估,例如,HMT-AI、操作員(或HMT-AI成員)的培訓水平、交互的透明程度、人類對AI系統的控制水平;
  • 對部署該系統的潛在風險和預期收益進行成本效益分析(根據建議4);
  • 對假設情況的分析,以考慮風險暴露或緩解措施的有效性如何隨部署情況而變化;
  • 人為推翻系統的協議和補救機制。

付費5元查看完整內容
北京阿比特科技有限公司