亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

未來十年,美國將面臨人工智能領導力被大國奪走的風險,美國霸權面臨風險。當前的人工智能趨勢顯示,自主系統將在軍事領域、大規模失業風險將在經濟領域、社會信任度下降將在信息環境領域帶來革命性的變化,因此決策者必須優先關注人工智能,為近在眼前、充滿風險和不確定性的人工智能未來做好準備。

討論:

雖然現代人工智能早在 20 世紀 50 年代就已出現,但未來人工智能的發展可能會如此迅速,以至于未來幾十年人工智能革命對生活的影響將超過核生化威脅或氣候變化的影響。

本文研究了不斷發展的人工智能背后的驅動力(即計算能力、人工智能專家和數據),人工智能在軍事、經濟和信息領域的一些現狀和未來趨勢,以及未來十年中美之間的人工智能領導權爭奪戰。

在軍事領域,人工智能有可能通過情報分析、改善態勢感知、自主系統、機器人技術、增強決策和網絡能力,徹底改變戰爭方式。在信息領域,人工智能在行為數據分析、模式識別、散布虛假信息、深度偽造或操縱人們看到的內容等方面的能力會變得如此強大,以至于社會信任有可能受到侵蝕。在經濟領域,人工智能將從根本上改變人們的工作方式,如果人工智能取代工作崗位的速度超過創造新工作崗位的速度,就有可能出現大規模失業和不平等現象加劇。這一未來前景需要政策制定者、決策者和社會各界的充分關注。

結論:

雖然美國目前享有人工智能領導地位,但中國正在快速追趕。中國在豐富的數據、堅持不懈的創業者和進步的政府支持方面處于更有利的地位,在人工智能專業技能方面,中國僅次于美國。本文以人工智能的領導力以及人工智能對軍事實力和失業率的影響作為關鍵的不確定性因素,對多個潛在的未來世界進行了分析,結果表明,大多數情景都描述了人工智能對國際安全構成風險的未來。戰略決策者需要將人工智能作為重中之重,并增加關注和資源。

對人工智能的關注應包括:增加政府對教育和研究的資金投入,部分原因是為了緩解大多數人工智能進步源于商業部門的問題;增加政府對企業家的支持,為他們創造合適的條件,使他們能夠進步并領先于大國同行;改善數據收集政策,緩解大國數據日益豐富所帶來的不利因素;最后,加強國際合作,就人工智能政策達成一致。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

機器學習將極大地改變未來戰爭的方式。為了充分利用機器學習帶來的固有能力,海軍陸戰隊必須做出重大改變。

機器學習是人工智能的一個分支,是軍事領域的一場革命(RMA)。它將從根本上改變戰爭的方式。從圖像分類到語音識別、機器人和自動駕駛汽車,其可能性是無窮的。然而,這一進步仍面臨著實際障礙。數據采集和格式化是成功的關鍵,而這兩項工作在政府部門本身就很困難。此外,機器學習也不是萬能的。有些問題機器學習能解決,有些問題機器學習不能解決,因此必須明確兩者之間的區別。因此,要利用這些新趨勢,海軍陸戰隊必須了解技術,并能夠和愿意在必要時適應技術。

海軍陸戰隊尚未做好適應當前 RMA 的準備,需要立即做出實質性改變,以扭轉趨勢。海軍陸戰隊應采用當前的 Project Maven 流程,并在信息副指揮官 (DCI) 下設立一個單元。該單元必須開始整理海軍陸戰隊的不同數據,并利用這些數據與行業領導者建立有意義的關系,以此激勵私營公司參與其中。

付費5元查看完整內容

技術變革幾乎被一致視為當今國防面臨的最大壓力。隨著無人機、比人類反應更快的自主武器以及由低地球軌道衛星集群驅動的智能等尖端技術的引入,技術變革正在對戰爭產生重大影響。96% 的受訪者認為,人工智能和量子計算技術對未來作戰空間具有變革性意義,我們目前還無法想象其全部潛力。

數字創新正在擴大信息戰場的規模,同時也增加了灰色地帶攻擊的數量。這些因素的結合會帶來巨大的挑戰

更多的網絡攻擊,可能造成更大的破壞: 46%的受訪者表示,網絡武器化正在給本國國防技術戰略的發展增加壓力。然而,網絡戰術仍處于灰色地帶,國防部表示,國家可以通過網絡空間造成現實世界的破壞,同時可能不會受到歸因或報復。61%的國防專業人士認為,網絡活動的歸屬困難是灰色地帶最令人擔憂的因素。

數據過剩阻礙情報工作:54%的受訪者表示,改善戰備和決策的數據是有效利用國防技術的最重要因素。

然而,大量數據的產生意味著,一個領域產生的關鍵情報可能對另一個領域至關重要,但可能無法識別或共享數據。

數字柏林墻:94%的受訪者認為,行業、合作伙伴和盟友之間的合作與信息共享對未來戰場的成功至關重要,但信息戰場卻缺乏凝聚力。聯合國秘書長警告說,各國將在各自的金融、地緣政治和軍事觀點指導下,制定各自獨特的互聯網和人工智能戰略,從而形成 "鴻溝 "或 "數字柏林墻"。

本報告主要啟示

1、快速的技術變革正在重塑戰爭,包括擴大信息戰場的規模和灰色地帶的活動規模。這些變化正在模糊傳統領域之間的界限,要求通過協作來取得對抗對手的優勢。

2、多域集成鼓勵數據共享,并在各領域之間編織數字線程,使各國在與對手作戰時更具決策優勢。然而,盡管航空航天和國防領域的受訪者都認識到了多域集成的好處,但即使是最先進的國家,在多域集成方面也還處于起步階段。

3、采用多域集成的國家需要重點關注的領域很多。這些領域包括:實現跨領域協作、為多域集成計劃制定監管標準;以及支持技術集成。

4、人員、流程和技術解決方案需要安全開放,以促進協作。國防文化必須安全開放,以鼓勵各領域之間的合作;國防文化必須與工業界合作,以創建開放標準;國防部門必須建立促進多領域集成的技術。

參考來源:BAE Systems Digital Intelligence

付費5元查看完整內容

關鍵點

  • 將越來越多的自主無人機與有人駕駛飛機組合在一起,對于發展具有在同行沖突中競爭和獲勝所需的復原力、能力和殺傷力的未來空軍至關重要。
  • 國防戰略家、政策制定者和作戰人員對自主性、人工智能及其目前的技術準備水平缺乏深入了解。這可能會滋生對采用這些關鍵技術的不信任和阻力。
  • 需要一個框架來幫助美國國防界更好地了解不同的自主功能,然后定義和開發具有MUM-T行動所需的適當自主水平的系統。
  • 需要一個由自主性的 "作戰人員觀點 "和 "工程師觀點 "組成的兩部分框架來指導該企業。"作戰人員觀點 "定義了無人機執行功能所需的不同自主水平,然后航空航天工程界--工程師觀--可以用來定義和開發必要的技術和系統。
  • 這個框架將幫助空軍和國防部調整規模,加快下一代自主無人機隊友的開發和投入使用,以保持對美國戰略競爭對手的技術優勢。

摘要

在過去十年中,美國空軍發布的幾乎所有愿景、戰略和飛行計劃都將下一代無人駕駛飛機、自主性和人工智能作為確保在未來戰區獲得決定性戰斗優勢的關鍵技術。空軍目前正在開發新的作戰概念,將有人駕駛的戰斗機和轟炸機與自主無人駕駛飛行器(UAV)組成團隊--稱為有人-無人編隊(MUM-T)--以執行打擊、反空、電子戰和其他任務。鑒于作戰人員和工程師之間經常存在的脫節,開發這種能力具有挑戰性。

目前,作戰人員沒有充分理解無人機需要什么樣的自主權和多少自主權來實現預期行為。另一方面,工程師們往往不完全了解如何分解作戰人員的操作性能要求,以使他們能夠快速部署有效的系統。最重要的是,期望的作戰效果和實現這些效果的技術途徑之間的聯系并不明確。因此,與之相關的愿景、戰略、飛行計劃、作戰概念、計劃以及自主飛行器(ATA)的無數研究和開發工作都沒有以一種清晰和一致的方式結合起來。

一個代表作戰人員和工程師觀點的框架將為這兩個群體在創建自主系統時提供一個結構和共同理解。"作戰人員觀點 "代表了作戰人員如何在戰斗空間中組織思維任務,可以整合不同層次的自主性。然后,"工程師觀點 "可以利用這些任務來開發必要的具體算法、技術和系統,以提供滿足作戰人員需求和期望的自主團隊飛機。本文提出了一個框架,以幫助空軍作戰人員、戰略家和政策制定者更好地理解自主技術,并幫助指導企業走向未來人工智能賦能的美國行動。

圖1. 一個由兩部分組成的框架概述,以提高作戰人員對自主性的理解,并將他們的要求傳達給開發和采購部門。

一個擬議的無人駕駛飛機自主性框架

擬議的自主性框架中的 "作戰人員觀點 "有三個主要類別,每個類別又被細分為五個自主性級別。核心類、任務類和團隊類反映了飛行員的認知任務,旨在為作戰人員提供直觀的信息,幫助他們表達對自主系統應如何執行的要求。核心自主性類別包括飛行控制輸入和導航功能,這是飛機在沒有人類直接控制的情況下飛行所必需的。任務類包括完成與任務有關的任務所必需的功能,如管理傳感器操作、向目標釋放武器和執行其他戰術。協作類包括自主無人機與其他飛機(包括有人和無人)進行協作行動所必需的功能和特點。這三大類中的每一類又被細分為五個自主等級。第1級代表在執行任務時幾乎沒有自動化,第5級包括無人機完全自主執行的行動。

該框架的第二部分是工程師觀點。工程師視圖代表了作戰人員視圖的功能分解,將定義的類別和級別分解為功能、技術和數據。這種清晰的重點使工程師能夠將他們的開發工作與所需的車輛屬性和行為進行映射和優先排序。作戰人員關注的是宏觀層面的任務執行、操作行為和人類在行動中的作用,而工程師關注的是建立一個滿足作戰人員需求的自主系統所必需的基本功能、硬件、軟件和數據。換句話說,工程師觀點使航空航天工程師和技術專家能夠將作戰人員的要求解構為基礎技術和基本的自主要素。

這兩種觀點共同充當了作戰人員和工程師之間的連接組織和翻譯。值得注意的是,這個框架并不打算成為一個規范或標準。這類似于SAE的自動駕駛框架,它說該框架的預期目標是 "描述性和信息性,而不是規范性"。本著這一精神,擬議的雙視角自動駕駛框架的主要目的是使作戰人員和航空航天工程師能夠以結構化和一致的方式明確溝通和交流自主無人駕駛飛機的想法和要求。

圖6.作戰人員觀點:自主性類別和等級在作戰人員視圖中一起使用,形成一個描述無人駕駛飛機的操作行為和屬性的評分標準。

圖8. 工程師視圖從作戰人員視圖中獲取每個自主性類別所需的自主性水平,并提供一種結構化的方式,將自主性能力分解為必要的功能、技術和數據。在這個例子中,作戰人員視圖為核心飛行和導航類別分配了4級自主權,同時為任務分配了2級,為團隊分配了1級。

付費5元查看完整內容

生成性人工智能將對所有行業領域產生重大影響。銀行業、高科技和生命科學等行業可能會看到生成性人工智能對他們的收入產生最大影響。例如,跨越銀行業,如果完全實施使用案例,該技術每年可能帶來相當于額外2000億至3400億美元的價值。在零售和消費品包裝領域,潛在影響同樣顯著,每年為4000億至6600億美元。

生成性人工智能有可能改變工作的結構,通過自動化他們的某些個人活動來增強個人工人的能力。目前的生成性人工智能和其他技術有可能自動化那些吸收今天員工60%到70%時間的工作活動。相比之下,我們先前估計技術有可能自動化員工工作時間的一半。技術自動化潛力的加速主要是因為生成性人工智能增強了理解自然語言的能力,這對于占總工作時間25%的工作活動是必需的。因此,生成性AI對與有較高工資和教育要求的職業相關的知識工作的影響,比對其他類型工作的影響更大。

鑒于技術自動化潛力的增加,勞動力轉型的步伐可能會加速。我們更新的采用情況,包括技術發展、經濟可行性和擴散時間表,預計到2030年至2060年,今天的半數工作活動可能被自動化,中點在2045年,比我們先前的估計提前大約十年。

生成性人工智能可以大幅提高整個經濟的勞動生產力,但這需要投資以支持員工在他們轉換工作活動或更換工作時。通過2040年,生成性人工智能可以使勞動生產力每年增長0.1%到0.6%,具體取決于技術采用率和員工時間重新投入其他活動的程度。將生成性人工智能與所有其他技術結合,工作自動化可能每年為生產力增長增加0.2%到3.3個百分點。然而,員工將需要在學習新技能方面得到支持,一些人將會改變職業。如果能管理好員工的過渡和其他風險,生成性人工智能可能對經濟增長作出實質性貢獻,并支持一個更可持續、包容性的世界。

生成性人工智能的時代才剛剛開始。人們對這項技術的興奮是顯而易見的,早期的試點項目也非常吸引人。但是,充分實現這項技術的益處需要時間,商業和社會的領導者們仍然需要面對相當大的挑戰。這些包括管理生成性人工智能固有的風險,確定勞動力將需要什么新的技能和能力,以及重新思考如再培訓和發展新技能等核心業務流程。

付費5元查看完整內容

壓縮的戰術決策周期將是未來快節奏的超級戰爭的支點。人工智能武器系統有望擴展和最大化人類的能力,成為武裝部隊在這種致命作戰環境中的生存能力和殺傷力的關鍵。人工智能不是武器;它是武器系統的組成部分或元素--最可能是一個軍事網絡或 "軍事物聯網",它將加速火力或效果應用的速度和決策。網絡化部隊將為整個企業的態勢感知和戰斗管理提供信息。部隊不太可能出動 "殺手機器人"--攜帶武器、不受人類指揮做出生死決定的單獨實體。相反,創建和使用自主武器系統(AWS)將需要一個定義明確的作戰環境,并獲得豐富、準確、超大的數據集,如GPS,由分布式傳感器提供,加上改進的機器學習算法和高性能處理器,將人工智能融合到殺傷鏈中。殺傷鏈過程結合了多光譜傳感器,以了解作戰環境,積極地識別、跟蹤和選擇目標,并以最適當的效果與他們交戰。(蘇聯將這一過程稱為 "偵察打擊綜合體",而在20世紀90年代,美國的約翰-博伊德推廣了 "OODA循環 "一詞,即武裝部隊在對手面前競相觀察、定位、決定和行動)。人工智能旨在促進這種適應性的、多領域的、高速的決策模式,在此過程中,它有望提供決定性的軍事優勢。本研究的第二部分敘述了美國武裝部隊在武裝沖突期間對人工智能的當前和潛在使用。

在第三部分,研究轉向適用于戰爭中使用人工智能的規則。所有的戰爭方法和手段,包括人工智能,都必須符合戰爭法,也稱為武裝沖突法(LOAC)或國際人道主義法律(IHL)。指揮官有責任確保他們所掌握和指揮的方法和手段,包括人工智能,符合武裝沖突法的原則,如區分、相稱性和攻擊中需要預防的規則。

第四部分探討了《特定常規武器公約》(CCW)成員國為制定有助于確保AWS遵守武裝沖突法的標準所做的努力。特定常規武器公約》召集了一個政府專家小組(GGE),考慮對AWS的人類判斷或控制水平進行標準化的定義,以確保人類對機器的行為負責。政府專家小組最關注的是確保在敵對行動中使用致命性武器(LAWS)符合武裝沖突法。這項工作旨在彌補致命性武器系統在法律上暴露的 "漏洞"。然而,無論這一過程中產生了什么標準,都不可能成為確保致命性武器系統的運作符合武裝沖突法的有效和可靠的指導。

此外,一些非政府組織和有關國家認為,讓指揮官對行為不可預測的自主武器系統負責是不公平的,但這正是軍隊運作的方式--賦予軍事指揮部對部隊的全權和責任。特定常規武器公約》政府專家小組的努力不太可能產生詳細的、被廣泛接受的規則,從而有意義地改進這種模式。作戰的軍事指揮官已經對他們在武裝沖突期間使用人工智能武器系統負責,這是第五部分的重點。

第五部分探討了體現在軍事指揮官身上的人類問責制。軍事指揮官對人工智能武器系統的使用以及在他或她的指導下支持戰爭行動的所有努力路線負責。直接的、個人的指揮責任是長期的、完整的。對所有軍事行動--包括武裝沖突中由人工智能發動的攻擊--的相應責任由指揮系統的最高層承擔。這種問責可能是以刑法的形式,但也包括一系列行政和非司法措施。直接問責涵蓋了武裝沖突期間發生的每一件事,包括那些國際刑事法院缺乏管轄權或證據不足的事件,因此它規范了指揮官的行為,即使他們沒有犯罪意圖,事實上,即使他們沒有直接 "過錯"。

第六部分的結論是,指揮官的直接和個人問責的好處是長期存在,被廣泛理解,并被一線軍官和軍事領導人直觀地理解;它是軍事文化的一部分。雖然它可以利用法律程序,包括軍事司法系統,但它并不完全受制于或依賴這些程序。雖然指揮官仍然要為戰爭罪受到刑事處罰,但軍事問責制也包括一系列非司法和行政制裁。指揮官對人工智能武器系統的問責尤其引人注目,因為與常規武器不同,如果出了問題,沒有額外的人(或更少的人)可以負責。

付費5元查看完整內容

大約五年前,隨著生成性人工智能模型能夠自動進行魚叉式攻擊和漏洞發現的例子,人工智能支持的網絡攻擊話題浮出水面。從那時起,由人工智能支持的社會工程和冒充攻擊已經發生,造成了數百萬美元的經濟損失1。目前人工智能研究的快速進展,加上它所帶來的眾多新應用,使我們相信人工智能技術將很快被用來支持網絡攻擊中通常使用的更多步驟。這就是為什么人工智能支持的網絡攻擊的想法最近從學術界和工業界獲得了越來越多的關注,以及為什么我們開始看到更多的研究致力于研究如何利用人工智能來加強網絡攻擊的原因。

2019年底的一項研究表明,超過80%的決策者關注人工智能支持的網絡攻擊,并預測這些類型的攻擊可能在不久的將來成為主流2。目前的人工智能技術已經支持典型攻擊鏈的許多早期階段。高級社會工程和信息收集技術就是這樣的例子。由人工智能驅動的網絡攻擊已經是一個組織無法應對的威脅。隨著我們見證人工智能方法論的新進展,以及人工智能的專業知識變得更加廣泛,這種安全威脅只會增加。

本報告旨在通過總結當前關于該主題的知識,調查人工智能支持的網絡攻擊的安全威脅。人工智能技術目前只能夠加強少數攻擊者的戰術,它很可能只被高級威脅者,如民族國家的攻擊者所使用。在不久的將來,快速發展的人工智能將通過自動化、隱蔽性、社會工程或信息收集來增強和創造更大范圍的攻擊技術。因此,我們預測,在未來五年內,人工智能支持的攻擊將在不太熟練的攻擊者中變得更加普遍。隨著傳統的網絡攻擊將變得過時,人工智能技術、技能和工具將變得更容易獲得和負擔得起,激勵著攻擊者利用人工智能支持的網絡攻擊。

網絡安全行業將不得不適應,以應對人工智能網絡攻擊的出現。例如,生物識別認證方法可能會因為人工智能帶來的先進冒充技術而變得過時。新的預防和檢測機制也將需要開發,以應對人工智能的網絡攻擊。更多的自動化和人工智能技術也將需要在防御解決方案中使用,以配合人工智能支持的網絡攻擊的速度、規模和復雜程度。這可能會導致攻擊者不受限制地使用人工智能技術,而防御者則受到即將出臺的人工智能應用法規的限制,從而形成不對稱的斗爭。

付費5元查看完整內容

美國戰略家認為,人工智能(AI)有可能實現更好、更快的決策,這在未來的軍事沖突中是決定性的。機器學習應用將越來越多地影響政治和軍事領導人對戰略環境的看法,權衡風險和選擇,并判斷他們的對手。但是,將關鍵的人類決策過程暴露在人工智能系統的中會有什么風險?

要獲得人工智能在決策方面的優勢,首先需要了解其局限性和陷阱。人工智能系統根據數據模式進行預測。總是有一些意外行為或失敗的機會。現有的工具和技術試圖使人工智能對失敗更加穩健,往往會導致性能上的權衡,解決了一個問題,但可能會使另一個問題惡化。人們對人工智能的脆弱性和缺陷的認識不斷提高,但也需要在現實的部署背景下對技術故障的潛在后果進行更深入的分析。

本簡報研究了直接或間接影響決策的人工智能系統故障如何與戰略壓力和人為因素相互作用,從而引發危機或沖突的升級:

  • 納入人工智能的進攻行動或干擾對手的人工智能系統可能導致不可預見的系統故障和連帶效應,引發意外的升級。
  • 不安全的、訓練不足的或應用于錯誤類型問題的人工智能系統可能為決策過程注入不良信息,導致意外升級。
  • 發現人工智能系統被破壞,可能會對關鍵能力的可靠性或生存能力產生不確定性,如果沖突似乎迫在眉睫,會促使決策者故意升級。

這些情景揭示了一個核心困境:決策者希望使用人工智能來減少不確定性,特別是當涉及到他們對戰場的認識,了解對手的意圖和能力,或了解他們自己抵御攻擊的能力。但通過依賴人工智能,他們在人工智能系統技術故障的可能性和后果方面引入了一個新的不確定性來源。

有效利用人工智能需要以一種有謹慎的和有風險的方式來平衡優勢與局限。沒有辦法保證概率性人工智能系統會完全按照預期行為,也沒有辦法保證它能給出正確的答案。然而,軍隊可以設計人工智能系統和依賴它們的決策過程,以減少人工智能失敗的可能性并控制其后果,包括通過:

  • 為決策環境中使用的人工智能系統定義一套特定的任務屬性、標準和要求,如信任度量和保障措施,以檢測妥協或突發屬性。
  • 規定人工智能在決策中的使用,將人工智能應用于非常適合的狹窄問題,同時保留人類判斷問題,如解釋對手的意圖;并考慮在某些領域完全排除人工智能。
  • 盡可能地讓高級決策者參與他們所依賴的系統的開發、測試和評估過程,并讓他們了解人工智能的優勢和缺陷,以便他們能夠識別系統的故障。

美國應繼續帶頭制定負責任地開發和使用人工智能的全球標準,采取步驟展示某些可靠性,并盡可能地鼓勵其他國家采取類似的預防措施:

  • 澄清為限制支持決策的人工智能系統的風險而實施的做法和保障措施。
  • 開展國際合作,制定互利的技術保障措施和最佳做法,以減少人工智能災難性故障的風險。
  • 承諾在使用包含人工智能能力的進攻性行動和針對人工智能系統的行動時保持克制,因為這些行動存在重大升級風險。
付費5元查看完整內容

本報告重點討論與人工智能系統可能缺乏可預測性而導致的有關風險--被稱為可預測性問題--及其對國家安全領域人工智能系統治理的影響。人工智能系統的可預測性表明人們可以在多大程度上回答這個問題:人工智能系統會做什么?可預測性問題既可以指人工智能系統的正確結果,也可以指不正確的結果,因為問題不在于這些結果是否符合系統工作的邏輯,而是在部署時是否有可能預見到這些結果。

人們越來越擔心,使用不可預測的人工智能系統為高風險決策提供信息可能會導致災難性的后果,這將破壞公眾對部署這些系統的組織的信任,并可能侵蝕政府的聲譽。在國家安全領域,人工智能的使用引入了一個新的不確定性來源,可能會阻礙風險管理程序,并可能使責任鏈變得混亂。在這個領域,可預測性問題的影響可能導致關鍵基礎設施的安全風險、個人權利和福祉的風險、沖突升級或外交影響。

在本報告中,我們首先從技術和社會技術的角度分析了可預測性問題,然后集中討論了英國、歐盟和美國的相關政策,考慮它們是否以及如何解決這個問題。從技術角度來看,我們認為,鑒于人工智能系統的設計、開發和部署的多層面過程,不可能考慮到所有的錯誤來源或可能產生的新行為。此外,即使在理想的情況下,在設計或開發階段沒有錯誤可以假設或檢測,一旦部署了人工智能系統,仍然可能發展出形式上正確的(但不想要的)結果,這在部署時是無法預見的。

我們通過關注人機編隊(HMT-AI)來分析可預測性問題的社會技術影響。人機編隊代表了一種越來越普遍的人工智能系統部署模式。在HMT-AI中,人類咨詢、協調、依賴、發展并與人工智能代理交換任務。由于HMT-AI結合了人類和人工的自主性,它們通過增加人工和人類代理及其環境之間的互動的數量和類型而加劇了可預測性問題。在這種情況下,我們發現可預測性問題的三個主要來源:人機交互、人員培訓和(過度)信任。人機交互可能會助長不可預測的結果,因為它們可以掩蓋、扭曲或過分詳細地描述人工智能系統的工作原理,而培訓計劃可能沒有考慮到人工智能技術的學習能力和HMT-AI的長期慣例建設。同樣,在HMTAI中,人類代理人不加批判地接受AI系統的結果,這種過度信任的動態也可能導致無法預測的結果。

在確定了可預測性問題的一些根本原因之后,我們分析了英國、歐盟和美國的政策,以評估這些原因是否在相關的政策文件中被涵蓋,如果是的話,如何以及在何種程度上被涵蓋。我們確定了四個主要主題和一個缺口。它們是:控制、監督和價值調整;資源提升的方法;可信賴人工智能的發展;以及缺乏對風險管理措施的關注,以遏制可預測性問題的影響。

我們的政策分析包括八個建議,以減輕與可預測性問題有關的風險。關鍵的建議是將治理方法集中在HMTAI上,而不僅僅是AI系統,并將可預測性問題概念化為多維度的,解決方案集中在HMT-AI組成的共同標準和準則上。在這些標準和準則中,可信人工智能的要求是特別相關的,應該與評估人工智能系統的可預測性的標準和認證計劃以及審計HMT-AI的程序結合起來。支持在國家安全中使用HMT-AI的決定的成本效益分析和影響評估應該考慮到可預測性問題及其對人權、民主價值的潛在影響,以及意外后果的風險。為了確保在部署潛在的不可預測的人工智能系統時進行充分的風險管理,我們建議調整ALARP原則--在合理可行的情況下盡量降低--作為制定HMT-AI中可預測性問題的人工智能特定風險評估框架的基礎。

擬議的基于ALARP的框架將提供有用的實際指導,但僅僅是這樣還不足以識別和減輕可預測性問題所帶來的風險。需要額外的政策、指導和培訓來充分考慮人工智能可預測性問題帶來的風險。人工智能系統支持的決策的影響越大,設計、開發和使用該系統的人的謹慎責任就越大,可接受的風險門檻也越低。這些分析和建議應該被理解為可操作的見解和實用的建議,以支持相關的利益相關者在國家安全背景下促進社會可接受的和道德上合理的人工智能的使用。

建議

建議1. 政府應撥出研究經費,發展公私合作,對HMT-AI進行縱向研究。這項研究應側重于HMT-AI中的新舊決策模式,以評估編隊協議建設和培訓對績效和控制措施的影響。重點應放在為HMT-AI的具體動態定義新的培訓協議,以及加快風險管理標準和HMT-AI績效評估的發展。

建議2. 應該建立一個專門的HMT-AI認證計劃,以促進行業對為HMT-AI設計的AI系統的設計要求和評估的共識。任務之間的通用性、有效的溝通、性能的一致性以及對新隊友的適應性都應該包括在這樣一個認證計劃中。在開發不足的ISO標準的基礎上,這個認證計劃還應該擴展到過程的可追溯性和決策的問責制,以及評估HMT-AI信任程度的審計機制。這對于抑制HMT-AI中的過度信任和自滿態度是必要的,這種態度維持或擴大了可預測性問題。

建議3. 對國家安全領域的可預測性問題的政策反應應該側重于管理HMT-AI團隊,而不是單獨的AI系統。

建議4. 國家安全領域的HMT-AI的成本效益分析(CBA)應該包括對AI系統的可預測性以及技術和操作層面的相關道德風險的評估。為了促進各安全機構之間的一致評估,應該定義一個評估人工智能系統可預測性的標準量表,在這個量表上,使用(或不使用)人工智能的選擇應該根據上下文的CBA以及考慮公眾對風險和相關利益的態度來證明。這個尺度的定義應屬于獨立的第三方行為者的職權范圍,即與部署HMT-AI的公共機構不同。

建議5. 與其說是 "更多 "或 "更少 "的可預測性,政策建議應側重于可預測性的權衡,明確具體建議旨在解決可預測性問題的哪個方面,以何種方式解決,以及它們有可能加劇哪些方面,哪些緩解措施將被落實到位。政策應該認識到,可預測性是一個多維度的概念,在一個層面上可預測性的收益可能會以另一個層面的損失為代價。

建議6. 關于國家安全中人工智能可預測性問題的政策應該在正式和操作層面上解決可信度和不可預測性之間的聯系。例如,應該給人工智能系統一個可修正的可預測性分數,這應該包括在對系統的可信任度的評估中。人工智能系統的可信賴性應包括成本效益分析,以評估不想要的行為在不同部署背景下可能帶來的風險。

建議7. 應該為不可預測的人工智能建立風險閾值,這些閾值將圍繞不可預測行為的風險嚴重程度映射到其自身的可預測程度(例如,劃分為已知的已知因素、已知的未知因素等)。這些閾值反過來將為風險管理過程的發展提供信息,允許根據風險的可預測性及其影響對其進行優先排序。

建議8. 應該制定一個基于ALARP的框架,以評估不可預測的人工智能和HMT-AI的風險,并為任何給定的環境確定可接受的最大程度的不可預測性。這個框架應該包括:

  • 對特定人工智能系統和HMT-AI的可預測程度的定量評估;
  • 對導致部署人工智能系統的設計、開發和/或采購步驟的可追溯性的評估;
  • 對部署條件的評估,例如,HMT-AI、操作員(或HMT-AI成員)的培訓水平、交互的透明程度、人類對AI系統的控制水平;
  • 對部署該系統的潛在風險和預期收益進行成本效益分析(根據建議4);
  • 對假設情況的分析,以考慮風險暴露或緩解措施的有效性如何隨部署情況而變化;
  • 人為推翻系統的協議和補救機制。

付費5元查看完整內容

美國已經進入了一個大國競爭的新時期。俄羅斯和中國的崛起在全球權力結構中形成了復雜的三足鼎立局面。最近人工智能方面的技術進步使這種多變的國際動態進一步復雜化。學者、政治家和高級軍官已經意識到,人工智能的融入是軍事事務中一場新革命的起源,有能力改變權力的戰略平衡。美國在中東被二十年的反叛亂所困擾,并受到僅延伸至2025年的長期人工智能戰略的阻礙,沒有準備好進入這個 "第六代 "軍事能力,以確保其戰略利益。這種人工智能化的部隊將由半自主和自主系統定義,包括致命的自主武器系統。第一個開發和使用這些武器的國家行為者將在這個新時代獲得對其競爭對手的戰略優勢。雖然美國目前在人工智能方面擁有優勢,但由于缺乏前瞻性思維和重點投資政策,這種優勢正在迅速消失。這是一份旨在解決這一差距的政策文件。20世紀90年代中期的中國軍事現代化模式為美國未來的政策提供了一條潛在的途徑。雖然兩國政府結構存在差異,但其中的幾個基本原則可以在美國的制度框架內適用。因此,美國可以通過制定健全的投資政策、集中的技術發展計劃和新的行動概念來確保人工智能的首要地位,以便在新能力出現時將其最大化。

針對美國的政策建議與評估

大國競爭必須相對于其他大國的能力進行評估。因此,沒有一種能力可以被評估為產生可持續的絕對優勢。然而,在潛在的對手獲得同樣的能力之前,開發人工智能技術和應用為21世紀沖突設計的CONOPS的能力將在整個政治/軍事領域產生一個暫時的戰略優勢。美國目前的公共政策和戰略并沒有延伸到25年后。隨著中國準備在2030年成為占主導地位的人工智能大國,美國為了確保長期戰略利益,不能接受人工智能競賽的現狀。由于人工智能領域的技術發展速度很快,人工智能RMA的狀態和抓住初始優勢的能力正在接近一個拐點。建議美國采取側重于美國在人工智能競賽中的首要地位的政策,特別是在致命性自主武器系統的研究和開發方面。美國在這一領域保持優勢的能力對于國家安全和參與21世紀人工智能輔助和/或人工智能環境的準備工作是至關重要的。

由于致命性自主武器系統是一項仍在開發中的未來技術,因此不可能確定致命性自主武器系統對戰略環境的完整影響。本研究承認,對于評估一個未來武器系統的影響沒有預測性的措施,該系統在實現其全部潛力之前還將經過幾代技術的演變。然而,評估投資政策、技術和CONOPS演變的影響以及它如何影響軍事準備、政治資本和戰略環境的能力是有據可查的。

本文的建議將以1990年至今的中國軍事投資戰略為藍本。在此期間,中國國防開支的增加創造了一個前所未有的能力和軍事力量的增長,為美國未來的人工智能政策提供了一個框架。由于全球力量是以相對而非絕對的方式衡量的,美國至少必須在多極環境中與不斷增長的大國保持平等。雖然從美國的角度來看,中國戰略的某些方面,特別是盜竊知識產權的因素是不切實際的,但那些關于教育和貨幣投資的內容可以被納入美國未來的人工智能政策中。這項研究建議:

1.設立一個負責人工智能政策的助理國防部長的新職位,直接負責人工智能的發展和整合到美國防部。

2.指示ASDAI為美國軍隊制定一個關于第六代能力的預期最終狀態,每十年更新一次。

3.建立30年、15年和5年的人工智能目標,每五年更新一次,讓各個機構,如DARPA、JAIC、國防創新部門(DIU)和相關組織負責特定的發展水平。這將使美國政策制定者有能力根據ASDAI評估和更新的多變的戰略環境,為每個機構提供適當的資金。

4.成立一個委員會,負責發展和保留研究生水平的科學、技術、工程和數學(STEM)人才。

5.建立一個戰略規劃組織,負責研究和整合新的人工智能技術,因為它們出現在15年和5年的基準點上,以便在收購過程中納入其中。

對這些政策的評估必須對照美國對手在人工智能領域的成就和進步。建立在美國在人工智能領域的首要地位上的政策應該集中在教育和經濟投資,新的人工智能技術的初步發展,以及新的CONOPS的發展,以便在新的人工智能能力可用時充分和有效地進行。本研究報告的其余部分重點關注中國國防現代化計劃對美國未來人工智能政策和建議的調整。

付費5元查看完整內容

在這篇簡短的報告中,我們列出了大數據、機器學習和人工智能領域的主要趨勢,重點關注將在未來12-18個月影響所有行業的公司和組織的項目。幫助企業應用數據和人工智能的工具無疑正變得越來越簡單。但對數據和人工智能興趣的增長帶來了更廣泛的應用、更廣泛的用戶,以及有趣的新挑戰。

以下是我們2022年報告中涉及的幾個主題:

現代數據平臺 機器學習中的模型樞紐 大型語言模型 圖情報 以數據為中心的人工智能 新的擴展工具

付費5元查看完整內容
北京阿比特科技有限公司