本研究報告介紹了聯合情報組織 (JIO) 和英國政府通信總部 (GCHQ) 委托開展的一個項目的研究成果,該項目以人工智能 (AI) 和戰略決策為主題。報告評估了應如何向政府戰略決策者傳達人工智能情報,以確保情報報告和評估的分析嚴謹性、透明度和可靠性等原則得到堅持。研究結果是在對英國評估機構、情報機構和其他政府部門進行廣泛的初步研究基礎上得出的。情報評估職能部門在識別、處理和分析呈指數增長的信息來源和數量方面面臨著巨大挑戰。研究發現,人工智能是所有來源情報分析師的重要分析工具,如果不采用人工智能工具,可能會損害所有來源情報評估的權威性和對政府的價值。然而,人工智能的使用既可能加劇情報工作中已知的風險,如偏差和不確定性,也可能使分析人員難以評估和交流人工智能豐富情報的局限性。評估界面臨的一個主要挑戰將是最大限度地利用人工智能的機遇和優勢,同時降低任何風險。為了在向決策者傳達富含人工智能的情報時采用最佳做法,報告建議為傳達與人工智能有關的不確定性開發標準化術語;為情報分析師和戰略決策者提供新的培訓;以及為情報分析和評估中使用的人工智能系統制定認證計劃。
圖 1:聯合條令出版物 2-00《對聯合行動的情報、反情報和安全支持》,國防部,2023 年
本報告介紹了由聯合情報組織(JIO)和英國皇家通信總部(GCHQ)委托開展的CETaS研究項目的結果,該項目以人工智能(AI)和戰略決策為主題。報告評估了應如何向政府戰略決策者傳達人工智能情報,以確保情報報告和評估的分析嚴謹性、透明度和可靠性等原則得到堅持。研究結果基于對英國評估機構、情報機構和其他政府部門進行的廣泛的初級研究,在整個2023-24年期間進行了為期7個月的研究。
這里的 "人工智能豐富情報 "是指部分或全部通過使用機器學習分析或生成式人工智能系統(如大型語言模型)而得出的情報見解。
研究考慮了
主要研究結果如下
1.人工智能是所有來源情報分析師的重要分析工具。人工智能系統處理大量數據的能力遠遠超出人類分析人員的能力,可以識別可能被忽視的趨勢和異常現象。因此,選擇不將人工智能用于情報目的,有可能違反《情報評估專業負責人共同分析標準》中規定的情報評估全面覆蓋原則。此外,如果遺漏了關鍵的模式和聯系,不采用人工智能工具可能會損害所有來源情報評估對政府的權威和價值。
2.然而,人工智能的使用加劇了情報評估和決策過程中固有的不確定性。人工智能系統的輸出是概率計算(而非確定性),目前在數據不完整或有偏差的情況下很容易出現誤差。許多人工智能系統的不透明性也使得人們難以理解人工智能是如何得出結論的。
3.對情報分析和評估中使用的人工智能系統,亟需精心設計、持續監測和定期調整,以減少擴大偏差和錯誤的風險。
4.制作評估產品的情報部門仍對評估用于情報分析和評估的人工智能方法的相關技術指標(如準確率和錯誤率)負有最終責任,所有來源的情報分析員在作出結論和判斷時必須考慮到任何局限性和不確定性。
5.國家安全決策者目前需要人工智能系統性能和安全方面的高度保證,才能根據人工智能豐富的情報做出決策。
6.在人工智能系統缺乏強有力的保證程序的情況下,國家安全決策者普遍對人工智能識別事件和發生的能力比對人工智能確定因果關系的能力表現出更大的信心。決策者更愿意相信人工智能豐富的情報見解,如果這些見解得到非人工智能、可解釋的情報來源的證實。
7.決策者對人工智能系統的技術知識差異很大。研究參與者一再表示,決策者必須對人工智能的基本原理、當前能力以及相應的保證流程有一個基本的了解,才能根據人工智能豐富的情報做出有分量的決策。
本報告建議采取以下行動,在向戰略決策者傳達富含人工智能的情報時采用最佳做法。
1.情報評估專業負責人(PHIA)應制定在所有來源評估中傳達人工智能強化情報不確定性的指南。該指南應概述在向決策者闡明人工智能相關限制和注意事項時應使用的標準化術語。此外,還應就評估應向決策者說明使用人工智能強化情報的閾值提供指導。
2.在向戰略決策者介紹技術信息時,評估界應采取分層方法。在提交給決策者的最終情報產品中,評估應始終能夠為非技術受眾所解讀。然而,應根據要求向那些具有更多技術專長的人提供有關系統性能和局限性的補充信息。
3.英國情報評估學院應代表所有來源評估界完成培訓需求分析,以確定新老 分析人員的培訓需求。該學院應與所有情報來源評估組織合作,根據分析結果開發適當的培訓。
4.應向國家安全決策者(及其工作人員)提供培訓,以建立他們對人工智能情報評估的信任。應向決策者介紹人工智能的基本原理和相應的保證程序。
5.在高風險的國家安全決策會議之前,應立即舉行簡短、可選的專家簡報會,因為在這些會議上,人工智能強化情報是承重決策的基礎。這些會議應向決策者簡要介紹關鍵的技術細節和局限性,并確保他們有機會提前考慮置信度評級。這些簡報會應由聯合信息辦公室和國家安全秘書處共同協調,并應利用首席科學顧問網絡和相關科學咨詢委員會的跨政府專業知識。應制定關于何時提供簡報的指南,并應持續評估簡報的必要性;隨著決策者對消費人工智能情報變得更加得心應手,所需的保證程度可能會降低,簡報最終可能變得沒有必要。
6.應為情報分析和評估中使用的人工智能系統制定一個正式的認證方案,以確保模型在穩健性、安全性、透明度以及固有偏見和緩解記錄方面滿足最低政策要求。將系統應用于特定問題的技術保證應下放給相關組織,每個組織的保證過程都應得到認證。這一計劃將需要專門的資源,將對情報評估標準和程序的理解與技術專長結合起來。PHIA 應協助制定原則和要求,而認證和測試方面的技術專長則應從情報界和政府各部門的技術主管部門抽調。
本文探討了基礎模型的雙重用途挑戰及其對國際安全構成的風險。隨著人工智能(AI)模型越來越多地在民用和軍用領域進行測試和部署,區分這些用途變得更加復雜,有可能導致國家間的誤解和意外升級。基礎模型的廣泛能力降低了將民用模型轉用于軍事用途的成本,從而難以辨別另一個國家開發和部署這些模型背后的意圖。隨著人工智能對軍事能力的增強,這種辨別能力對于評估一個國家構成軍事威脅的程度至關重要。因此,區分這些模型的軍用和民用應用的能力是避免潛在軍事升級的關鍵。本文通過基礎模型開發周期中的四個關鍵因素分析了這一問題:模型輸入、能力、系統用例和系統部署。這一框架有助于闡明民用與軍事應用之間可能產生歧義的點,從而導致潛在的誤解。本文以《中程核力量條約》(INF)為案例,提出了幾項降低相關風險的策略。這些策略包括為軍事競爭劃定紅線、加強信息共享協議、采用基金會模式促進國際透明度,以及對特定武器平臺施加限制。通過有效管理雙重用途風險,這些戰略旨在最大限度地減少潛在的升級,并解決與日益通用的人工智能模型相關的權衡問題。
本報告旨在為信息環境評估 (IEA) 從業人員提供指導。這包括了解信息環境和受眾,尤其是在線活動中的信息環境和受眾,并涵蓋必要的技術要素和法律因素。
報告涉及的關鍵問題包括:哪些人工智能(AI)功能對戰略傳播(StratCom)至關重要?哪些模式需要改進?人工智能在這一領域的前景如何?
報告提供了當前的知識,以提高從業人員安全、高效地駕馭人工智能驅動的信息環境并符合法律要求的能力。
根據《盟軍戰略傳播聯合條令》(AJP-10 (2023),以下簡稱 AJP-10),戰略傳播(StratCom)是指揮集團的一項職能,負責了解所有相關受眾的信息環境(IE),并在此基礎上利用包括行動、圖像和語言在內的所有傳播手段,通過以敘事為主導、以行為為中心的方法,適當地告知和影響受眾的態度和行為,以實現所期望的最終狀態。在北約軍事背景下,戰略傳播負責將傳播能力和信息參謀職能與其他軍事活動結合起來,以了解和塑造國際環境,支持北約的戰略目的和目標。
北約的 J10 戰略傳播局(J10-StratCom)包括信息作戰(Info Ops)的信息參謀職能以及軍事公共事務(Mil PA)和心理作戰(PsyOps)的傳播能力。在我們的研究報告中,雖然主要議題是人工智能在戰略傳播中的作用,但選擇特別關注心理作戰(PsyOps),因為這些領域之間存在重要的相互作用。
北約的 “心理戰 ”以北約或合作盟國、伙伴國或組織的真實信息為基礎。J10 戰略傳播中的心理作戰參謀人員僅存在于作戰層面及以下,并為指揮官的決策過程做出貢獻。他們就可行的心理作戰傳播活動和計劃行動的心理影響提出建議,并就心理作戰人員和非心理作戰人員及單元開展的信息和傳播活動提出建議,以便在IE中產生效果。在 J10-StratCom 內部,心理作戰人員提供五種不同的職能:
1.受眾分析 2.心理作戰計劃 3.反敵對信息和虛假信息 4.網絡行動 5.聯合心理戰特遣部隊總部
圖 9. 人工智能工具在戰略傳播活動各階段的使用情況概述
本研究探討了政府和國防機構的情報搜索人員所面臨的數據超載問題。研究利用認知系統工程(CSE)文獻中的方法,對情報搜索工作領域進行深入分析。這些見解被應用于設計和評估專門用于情報搜索任務的人類-人工智能智能體團隊的支持概念和要求。領域分析揭示了 “價值結構 ”的動態性質,“價值結構 ”是一個術語,用于描述管理情報搜索過程的不斷變化的標準集。此外,領域洞察力還提供了搜索聚合和概念空間的詳細信息,可將價值結構有效地應用于情報搜索。利用這些發現的支持系統設計可以使情報搜索者在更抽象的層次上與數據互動并理解數據,從而提高任務效率。此外,新的系統設計還可以通過相關的系統提示,促進對大型數據域中未被選擇對象的 “環境感知”,從而為搜索者提供支持。通過支持概念和人工智能團隊實現的 “環境感知 ”有可能解決數據超載問題,同時提高搜索覆蓋范圍的廣度和深度。
圖 4. FAN 領域模型。為了強調整個 FAN 的抽象功能結構和目標互動,圖中模糊了流程塊的細節。詳細的智能搜索功能模型見補充材料圖 S1。
政府和國防機構的情報搜索人員面臨著越來越多的數據和文件,他們需要從中查找或 “發現 ”信息,以獲得支持明智決策的見解。這種情況被稱為數據超載問題,即個人在系統或其他代理的幫助下,難以選擇、組合或綜合所需的數據子集,以完成需要在更大的數據領域進行態勢評估的任務[1]。在這種情況下,情報搜索人員與同事一起利用搜索工具,協同努力從幾乎無限的可用于任務的文件中查找、收集和評估文件,以完成為情報目標提供信息的任務。具體地說,數據超載妨礙了搜索人員識別數據子集的能力,而這些數據子集能提供足夠的細節來滿足情報目標,這對行動任務的完成至關重要。
用于一般情報搜索任務的系統可能會導致數據超載癥狀。具體來說,情報搜索工具會表現出與 “鎖孔脆性”[2] 概念有關的缺陷。這里所說的 “鎖孔 ”是指縮小呈現數據的范圍,將剩余數據分配到更多的隱藏屏幕上。這種呈現方式要求研究人員手動瀏覽和綜合來自多個數據屏幕的信息,以了解搜索的效用。同時,這些現有工具的脆性與它們支持從情報搜索工作領域的數據中提取意義的潛力有關。因此,“脆性 ”產生于搜索工具對信息的狹隘表述。對于需要從大量數據中提取意義的復雜任務來說,這種局限性導致了效率的下降,而這些數據又超出了給定系統的表述范圍。此外,由于情報搜索工作和信息領域的結構復雜,無法充分捕捉和傳達,妨礙了對支持行動所需的信息的理解和管理。這就導致效率低下,搜索人員往往會錯過有價值的見解和與目標相關的數據,同時還要花費更多的時間瀏覽各個屏幕來完成任務。
情報工作領域的搜索所面臨的這些廣泛挑戰構成了本研究要探究的問題,圖 1 的頂部對此進行了總結。圖 1 中還列出了應對這些挑戰常用的術語和縮略語,作為本研究的路線圖。
俄烏戰爭已導致無人機的廣泛使用,以提供大規模的精確效果。觀察沖突的各國軍隊正在評估如何將這些能力整合到自己的部隊中,并減輕來自這些能力的威脅。本文是系列報道的第一篇。它探討了無人機如何為陸軍提供最大效用;隨后的論文將探討反無人機方法及其在聯合部隊中的作用。本文可得出六個重要結論。
首先,無人機的主要優勢是能夠以其他手段無法比擬的成本或規模產生效果。這意味著無人機的設計應針對既定任務進行無情的簡化和優化。但是,如果系統要可靠、有彈性,降低成本的幅度也是有限的。事實上,在價格和能力之間存在著非常特殊的交叉點,在這些交叉點上,無人飛行器可以發揮最佳效能。
其次,不應將無人機視為平臺,而應視為系統。隨著時間的推移,任何無人機都會隨著對手反制措施的改進而變得越來越無效。要確保無人機綜合體能夠持續有效地運行,就需要每 6 到 12 周對軟件、行為邏輯、傳感器和無線電進行一次更新。機身是不變但最不重要的部件。無人機的采購必須反映這一點,與供應商簽訂合同是為了提供子系統,而不是集成包。
第三,無人機的效能主要取決于其分層使用、機組人員的技能以及飛行計劃能力。后者需要獲得電磁勘測、氣象數據、敵方防空情報以及對其他無人機活動的了解。由于需要擴大效果,并需要獲得經常必須利用高度機密能力的支持結構,這意味著雖然一些無人機可以作為戰術工具廣泛分布,但大多數類別的無人機最好編入一個專業編隊,該編隊能夠組合使用不同類型的無人機,并具有更新和重新配置其無人機的內部能力。
第四,一個無人機營的裝備可提供近距離和縱深打擊、縱深 ISR 和支援行動,可支持大片作戰空間。雖然無人機提供的能力可對敵方構成挑戰,但無人機的效能最終取決于其與火炮、電子戰、防空和其他部隊要素的互動。無人機可以重新分配分配給不同系統的任務平衡,但并不能消除對傳統火炮的需求。
第五個重要結論是,對無人機的監管是制約其有效設計、采購和使用的主要因素,因此也是制約其戰場效能的主要因素。保持這些系統競爭力所需的發展速度與空域沖突的安全要求之間存在權衡。很明顯,北約國家目前存在的結構往往會增加成本并延緩發展,以至于阻礙北約國家有效使用無人機。應仔細審查監管方法,因為它影響到部隊在這一領域的行動產出。
最后,一支意識到并有能力應對大規模無人機威脅的部隊可以降低其效率。無人機有許多局限性,可以通過適應性戰術加以解決。這些方法很難擴大規模。然而,一支部隊如果不了解無人機或沒有應對無人機的裝備,就有可能讓敵人在態勢感知方面喪失不可逾越的優勢,并受到一定規模的精確打擊,最終被削弱。因此,陸軍不能毫無準備。
本報告是關于新興技術對美國國土安全部(DHS)任務和能力影響的系列分析報告之一。作為這項研究的一部分,作者負責開發一種技術和風險評估方法,用于評估新興技術并了解其對國土安全的影響。該方法和分析為國土安全部更好地了解新興技術及其帶來的風險奠定了基礎。
本報告重點關注人工智能(AI),尤其是與關鍵基礎設施相關的人工智能。作者借鑒了有關智能城市的文獻,在評估技術時考慮了幾個屬性:技術可用性、風險和情景(作者將其分為威脅、脆弱性和后果)。本分析中考慮的風險和情景與影響關鍵基礎設施的人工智能使用有關。這些用例可以是用于監控關鍵基礎設施,也可以是對手利用人工智能對關鍵基礎設施進行非法活動和邪惡行為。風險和場景由國土安全部科技局和國土安全部政策辦公室提供。作者比較了短期(最多三年)、中期(三至五年)和長期(五至十年)三個時期的屬性,以評估人工智能關鍵基礎設施的可用性和相關風險。
無人機系統或無人機技術,包括單個系統和成群的無人機系統,在過去的 25 年里得到了廣泛的應用。因此,隨著技術的不斷成熟,這種技術和使用這些無人機系統的能力既是當前的威脅,也是日益增長的威脅。
在本報告中,研究人員評估了智能蜂群技術,考慮了技術可用性以及未來三年、三至五年和五至十年的風險和情景(威脅、弱點和后果)。此外,研究人員還考慮了隨著技術的發展,是否會開展可降低風險的準備或緩解和響應活動。研究人員得出結論認為,無論是采用代用無人機群還是智能無人機群技術,這些系統都會對國土構成重大風險,而脆弱性和后果的緩解很可能具有挑戰性。
圖:智能蜂群風險評估
本研究報告是聯合國裁研所人工智能建立信任措施項目的一部分。該項目旨在促進在國際和平與安全背景下就人工智能建立信任措施開展多邊討論,并探討建立信任措施的備選方案,這些方案應現實、可行,并能提高人工智能開發和使用過程中的整體信任度和透明度。
建立信任措施是靈活的工具,旨在減少國家間的模糊和不信任,或防止升級。它們由共同利益決定,可以采取各種形式。從歷史上看,各種手段都是建立信任措施工具箱的一部分,如核查措施、軍事限制或信息交流。
人工智能領域的進步,加上該技術的可擴展性以及與其他技術領域的融合,給國際社會帶來了新的風險,包括對國際和平與安全的風險。建立信任措施可在應對技術風險方面發揮重要作用,并為人工智能技術的未來發展和部署形成共同規范。
該項目包括兩個主要階段:
1.繪制風險圖,對風險進行分類,目的是全面概述與人工智能技術有關的主要風險領域。本研究報告有效地實現了項目第一階段的目標;
2.在第一階段研究成果的基礎上,通過多方利益相關者的參與,探索建立信任措施的發展路徑。
本研究報告闡述了國際和平與安全背景下的人工智能風險分類。它是聯合國裁軍研究所 "人工智能建立信任措施 "項目的一部分,旨在繪制該技術的風險圖,為今后討論和闡明建立信任措施提供參考。
該分類法將風險分為兩大類:
1.人工智能技術的風險,包括安全風險(人工智能系統固有的脆弱性和局限性)、安全風險(旨在破壞人工智能系統學習或行動方式的蓄意攻擊)、人機交互風險(由于人類操作人工智能系統或與人工智能系統一起工作的復雜動態,導致人工智能系統使用不當);以及 2.
2.人工智能對全球安全的風險,包括三大類風險:誤判(人工智能的使用和應用可能損害使用武力的決定或為國際關系惡化開辟道路)、升級(人工智能技術可能導致沖突有意或無意升級)和擴散(人工智能被濫用于擴散新武器,包括大規模毀滅性武器的風險)。
當然,風險是相互關聯、相輔相成的。例如,人工智能系統的穩健性和復原力不足會迅速轉化為故障,為國家間的誤判和升級開辟道路。對人工智能系統的邊界和能力的不正確使用或理解會導致對系統的過度依賴或依賴不足,從而進一步引發負面或升級后果。
本報告對不同類別的風險進行了技術說明,并對其對全球安全的潛在影響進行了背景分析。在現階段,它并沒有為未來建立信任措施的討論提供備選方案,也不是為了圍繞具體風險確定優先領域的范圍。建立信任措施最終將由相關利益攸關方制定和闡述。本報告為了解風險提供了指南,可作為未來討論的基礎。
美國海關與邊境保護局(CBP)努力整合情報,以更具戰略性的方式使用收集到的信息。海關及邊境保護局的現場行動辦公室(OFO)可以預測入境口岸新出現的威脅,但在利用現有數據挫敗犯罪網絡方面能力有限。本論文探討了現場行動辦公室如何有效整合情報,以更具戰略性的方式收集、分析和傳播信息,從而改善邊境安全。本研究采用案例研究的方法采納最佳做法,并承認不同的角色和責任,對英國、澳大利亞和德國的國內情報部門進行評估,以了解各自如何協調情報活動。因此,本論文提出了供聯邦外事辦公室考慮的最佳做法;具體而言,本論文為聯邦外事辦公室在入境口岸組建口岸情報單元推薦了兩個可能的框架。在海關及邊境保護局尋求整合情報的過程中,OFO 可以通過在主管官員或任務分擔系統內將口岸情報單元標準化來促進其戰略目標的實現;每個系統都整合了情報,培養了決策優勢,并促進了分析驅動的收集工作。本論文的結論是,港口情報標準化有效地整合了情報,使海關及邊境保護局能夠為情報事業做出有意義的貢獻,完成任務目標。
最近,機器學習和人工智能的快速發展為改進美國防部(DOD)兵棋推演創造了越來越多的機會。本研究旨在利用現代框架、算法和云硬件來提高美國防部的兵棋推演能力,具體重點是縮短訓練時間、提高部署靈活性,并展示經過訓練的神經網絡如何為推薦行動提供一定程度的確定性。這項工作利用開源并行化框架來訓練神經網絡并將其部署到 Azure 云平臺。為了衡量訓練有素的網絡選擇行動的確定性,采用了貝葉斯變異推理技術。應用開源框架后,訓練時間縮短了十倍以上,而性能卻沒有任何下降。此外,將訓練好的模型部署到 Azure 云平臺可有效緩解基礎設施的限制,貝葉斯方法也成功提供了訓練模型確定性的衡量標準。美國防部可以利用機器學習和云計算方面的這些進步,大大加強未來的兵棋推演工作。
圖 4.1. 未來兵棋推演開發者與用戶在云和本地實例中的關系
人工智能(AI)在過去幾十年中取得了顯著進步。最近在深度學習和強化學習(RL)方面取得的進步使人工智能模型在各種視頻游戲中的表現超過了人類。隨著美國國防部(DOD)繼續投資開發用于兵棋推演和戰爭規劃應用的人工智能模型,許多方面都有了改進。
本研究調查了現代機器學習(ML)技術的應用,以提高兵棋推演的功效。這項研究表明,即使在沒有圖形處理器(GPU)的情況下,并行化也能大幅縮短 RL 問題的訓練時間,而且對平均得分的影響微乎其微。這一發現強調了并行處理框架對未來 RL 訓練工作的重要性。本研究利用 Ray 框架來協調 RL 訓練的并行化,并評估了兩種算法:近端策略優化(PPO)和重要性加權行為者學習者架構(IMPALA),包括使用和不使用 GPU 加速的情況。這項研究成功地表明,在保持總體平均性能的同時,訓練時間可以減少一到兩個數量級。
本研究的第二部分探討了將本地訓練的模型與本地環境解耦的實用方法,展示了將這些模型部署到云環境的可行性。采用的模型是利用開源框架開發的,并部署在微軟 Azure 云平臺上。這項研究成功地將訓練有素的 RL 模型部署到云環境中,并集成到本地訓練和評估中。
最后,本論文證明了貝葉斯技術可以集成到 RL 模型中,從而有可能提高人機協作的價值。這是通過將貝葉斯方法納入模型架構,并在運行時利用這些實施層的獨特屬性來實現的。這項研究取得了成功,并展示了如何將人工智能移動選擇的確定性措施合成并呈現給人類。
總之,這項研究強調了并行化的重要性,為基于云環境的訓練模型提供了概念驗證,并證明了將貝葉斯方法納入人工智能模型以改善人機協作的可行性,從而為推進 ML 和兵棋推演技術做出了貢獻。
本研究的主題是研究人工通用智能系統的挑戰--能夠獨立解決人類生活中不同領域問題的系統。本評論性專論研究的目的是探索當前人工狹義智能系統的性質、應用和風險,以及它們演變為具有通用智能的解決方案的可能性。
根據目的,將我們的工作指向以下任務:
1.分析人工智能領域的發展,描述其中的主要研究方法。
2.強調人工狹義智能系統的能力和領域。
3.對狹義智能的解決方案中實施的方法、原理和算法進行系統化。
4.概念化 "通用智能"的特征和具有這種特征的系統的挑戰。
5.將人工狹義智能系統的危害劃分為幾個關鍵點。
6.指導道德人工智能系統發展的監管工具和效果的系統化。
本文的主要研究論點是,盡管自二十世紀初以來,人工智能技術有了不可否認的進化發展,但人工通用智能系統的實現尚未被證明是可能的,應在長期的時間范圍內尋求。
人工狹義智能系統的發展在過去十年中取得了顯著的進步,并對人們、機構和文化產生了真正的影響。執行復雜的語言和圖像處理任務的可能性,即計算機程序在早期進化階段的主要問題,已經有了巨大的改善。目前,深度學習人工智能系統在解決視覺物體識別、機器翻譯、語音識別、語音合成、圖像合成、強化學習、社交媒體內容分析、藝術品識別、醫學圖像分析、移動廣告、金融欺詐檢測、軍事機器人訓練、評價建議等問題上應用最為廣泛。
盡管目前人工智能技術的現狀離在機器中重新創造完全的人類智能能力這一股的基礎愿望還很遠,但一些研究人員和開發人員正在努力將所取得的進展納入到具有生產、商業、運輸、醫療、教育、金融、軍事、實用和文化目的的應用中,面向社會。試圖提供更先進和規模化的服務,許多傳統和新興的人工智能系統制造商繼續投資于此類技術。
人工智能領域的理論和應用成功在該股作為一個獨立的科學分支建立后僅80年就達到了一個拐點。使用人工狹義智能系統的風險和挑戰引起了學術界和社會的嚴重關切。不斷增加的機器自動決策的智能可能性有其黑暗的一面:故意使用深度假象和不受控制的算法來推薦軍事攻擊,會導致誤導、歧視,甚至對人造成身體傷害。訓練有素的人工智能系統的偏見傾向,有助于加劇現有的社會不平等現象。
人工智能的研究已經超越了傳統的計算機和認知科學,也涵蓋了關于這些技術的社會影響問題。盡量減少人工智能系統對社會的負面影響需要創造可持續的技術解決方案。最終應用和具有普遍智能的機器的積極社會影響可以通過其創造者的道德承諾和地方、國家和國際層面的監管政策來實現。
在追求開發和使用人工通用智能系統的過程中,最重要的角色是政府,他們需要應對該股快速發展帶來的挑戰。國家監管部門對人工狹義智能系統的科學、經濟和管理重要性的認可,需要對時間和資源進行可持續的研究和開發投資,并建立一個知情和受教育的社會。
探索人工智能領域當前和未來發展的學術界和研究界在與公眾分享人工智能系統的正反兩方面趨勢和發現方面也發揮著關鍵作用。研究和評估機器學習算法對社會的影響,以實現更高的自主性,應以創造安全和與人類合作的解決方案為前提。人工智能系統必須被整合到社會福利系統中,以便在決策中明確區分人類和機器的特權。
這條線的最終成功將由人工智能系統如何幫助開展我們的日常活動來衡量,而不是它們如何有效地貶低了它們應該服務的人。目前,它們的發展仍受人類因素的制約,但沒有人知道出現什么樣的技術創新會使決策的結果有利于 "創造物 "而不是它們的 "創造者"。