亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能(AI)是一項革命性的技術,它正在覆蓋生活的方方面面,從聊天 GPT 到醫療保健、教育、農業、社交媒體、廣告、客戶服務、金融服務和運輸。然而,它正在徹底改變戰爭和國防。世界主要大國已經開始競相將人工智能引入現代戰爭。目前,人工智能的應用還很有限,也許只是讓算法控制單個武器或無人機群。然而,它正在快速改變現代戰爭的方方面面。正如巴基斯坦駐聯合國代表所表達的擔憂:"我們正站在新一輪軍備競賽的風口浪尖,算法將在其中占據主導地位。隨著人工智能走向戰場,我們有理由問,人類是否以及在多大程度上將繼續控制人工智能并掌握'開關'"。鑒于人工智能在包括戰爭和國防在內的生活各方面日益普及,我們有必要研究一下它在核威懾和未來核態勢中能發揮什么作用(如果有的話)。

前言

美國和俄羅斯的冷戰核歷史中充斥著發出錯誤警報但最終沒有導致意外核沖突的事例。然而,如果由人工智能來評估信息并發起核反擊,那么很有可能會發生核沖突。

人工智能已經得到了應用,未來在全球核威懾架構中的潛在應用可能還會增加。機器學習和自主性是人工智能中與核威懾相關的兩個要素。人工智能可能在核威懾架構的四個關鍵領域發揮作用:預警和 ISR、指揮和控制、運載系統以及網絡等非核行動。機器學習和自主是人工智能與核威懾相關的兩個要素。

  • 早期預警系統和ISR

人工智能驅動的早期預警系統可幫助探測和分析潛在的核威脅,如導彈發射或核設施的異常活動。人工智能算法可以快速處理來自各種傳感器、衛星和情報來源的大量數據,為決策者提供更快、更準確的信息。此外,機器學習還可用于賦予任何類型的 ISR 系統更多感知智能。人工智能驅動的自主系統,如無人機(UAV)或無人潛航器(UUV),已被廣泛用于監視、情報收集和監控對手的活動。

人工智能可以幫助決策者評估核威脅并制定適當的應對措施。它可以分析多種變量,如對手的能力、意圖和歷史數據,以評估威脅的可信度和嚴重性。機器學習算法可用于情報數據的交叉分析,從而更快、更可靠地確定核攻擊的準備工作是否正在進行。人工智能還可以模擬不同的情景,評估不同應對方案的潛在后果。

從本質上講,機器學習可提供更強的態勢感知能力,并可能為決策提供更多時間。相比之下,自主系統可提高有核國家在預警和 ISR 方面的遙感能力。

  • 指揮與控制

核武器專家和決策者似乎普遍認為,不應將自主性納入核指揮與控制系統。不過,它可以用來加強網絡安全措施,保護核設施和系統免受網絡攻擊。人工智能算法可以持續監控和分析網絡流量,識別潛在威脅和漏洞。它們還能協助快速檢測和應對網絡漏洞,最大限度地減少對手可能造成的破壞。

  • 運載系統

許多核運載系統已經使用了某種程度的自主性。洲際彈道導彈(ICBM)和潛射彈道導彈(SLBM)一旦發射,就能自主運行,因為它們依靠自動化來設定飛行軌跡并導航至目標。人工智能的作用主要在于提高運載系統的質量。各國可能已經在運載系統中使用了一些人工智能元素。據報道,俄羅斯已研制出 "波塞冬 "洲際核動力核武裝自主魚雷,據說射程達 1 萬公里,航速 56 節,并能下潛至 1000 米深處。目前尚不清楚該魚雷的自主能力有多大,但可以假定,在作出發射決定后,自主能力將開始運作,這可能是其作戰環境的要求。美國可能還在建造一種具有雙重能力的轟炸機--B-21 "突襲者",據說它將 "選擇性地有人駕駛"。美國尚未明確表示是否準備在攜帶核武器的同時遠程操作該轟炸機。印度的遠程亞音速巡航導彈 "涅爾巴伊"(Nirbhay)也可能使用人工智能來實現機動性和精確打擊。據悉,印度正在研究一些人工智能能力和系統,這些能力和系統未來可能有助于加強綜合預警系統;多智能體機器人框架(MARF)系統,用于機器人在監視和偵察方面的協作;以及使用人工智能增強功能和自主性的無人系統,如 Matsya UUV 和自主無人駕駛研究飛機(AURA)計劃。

  • 非核行動

人工智能可用于具有重要戰略用途并對核威懾產生間接影響的非核領域。這些領域包括常規高精度打擊、導彈、空中和太空防御、網絡戰、電子戰、信息戰以及核武器的實體安全。與核威懾相關的最重要應用是導彈和防空系統。幾十年來,BMD 系統一直依賴于自動化,使用一種稱為自動目標識別(ATR)的人工智能技術,該技術可以探測、跟蹤、優先處理和選擇來襲的空中威脅。人工智能的進步可以提高探測和跟蹤來襲導彈的效率。人工智能還在反制措施中發揮作用。此外,自主性也是網絡防御架構的一部分。然而,自主性的進步使進攻和防御系統都更加高效。

圖:人工智能在核威懾中的潛在用途

人工智能在核威懾中的危險

雖然人工智能已被部分納入世界各地的核威懾架構,但與之相關的危險也不少。任何國家采用或認為采用了新的人工智能能力,都可能使有核國家擔心其核威懾力量的生存能力和可靠性。這種人工智能與核安全的兩難境地可能導致反制措施,從而破壞核穩定。將人工智能納入軍事系統可能會增加因技術故障或未經授權的使用而意外升級為核沖突的風險。

人工智能系統依靠大量數據來執行任務。因此,數據有時可能有偏差、不完整或不準確,從而導致結果或結論有偏差。蓄意對提供給人工智能系統的信息或預警或無人系統或發射器進行數據毒化,可能會被用來欺騙人工智能,使其相信核打擊即將到來。在假設場景中,非國家行為者可以利用人工智能增強型網絡戰術來操縱信息和傳播陰謀論,或破壞指揮、控制和通信系統、預警衛星和雷達。他們可能通過入侵指揮和控制系統,向對手發送錯誤信息或關于對手的錯誤信息,導致事態升級。因此,第三方行為者手中的人工智能工具有可能將核對手卷入沖突或引發核戰爭。

詹姆斯-約翰遜(James Johnson)在其著作中指出,人工智能的進步可能會讓對手瞄準核資產;用人工智能-網絡武器攻擊核指揮、控制和通信系統;以及使用成群的無人機打擊軍事資產。他還宣稱,人工智能算法可能會曲解對手的信號,使核危機中的決策變得復雜。

還有人擔心,雖然核危機中的決策過程已經非常倉促。即使只是在傳感器和目標定位方面有限地使用人工智能,也會進一步縮短本已有限的決定是否發動打擊的時間。這將增加誤判或非理性選擇的風險。

在衛星和其他情報探測系統中使用人工智能也存在風險,這將使隱藏武器和裝備核武器的潛艇變得更加困難。這將有可能降低門檻,并鼓勵核武器國家在沖突中更早地部署核武器,以防敵人將其消滅。

隨著人工智能技術的應用日益廣泛,它很可能會增加事態升級的風險。即使人工智能沒有做出武器發射的決定,人工智能工具也會影響決策的每一個階段,最終影響人機動態。因此,人工智能在本已不可接受的危險程度上又增加了一層風險。

聯合國關注人工智能與安全的聯系

聯合國秘書長在其 "和平新議程 "提案中指出,"人工智能日益普遍,加上其快速擴展性、缺乏透明度和創新速度,對國際和平與安全構成潛在風險,并帶來治理方面的挑戰"。他還強調,"為恐怖主義、犯罪或國家目的惡意使用人工智能系統可能會造成可怕的死亡和破壞,造成廣泛的心理創傷和深刻的心理傷害,其規模難以想象"。人工智能支持的網絡攻擊已經瞄準了關鍵基礎設施以及我們自己的維和行動和人道主義行動,造成了巨大的人類痛苦。此外,包括犯罪分子和恐怖分子在內,獲取信息的技術和資金門檻都很低。因此,聯合國秘書長強調 "人工智能的軍事和非軍事應用都可能對全球和平與安全造成非常嚴重的后果"。此外,"人工智能與核武器、生物技術、神經技術和機器人技術之間的相互作用令人深感震驚"。生成式人工智能具有巨大的潛力,可以在很大程度上造福于人類。它甚至被稱為新的大規模殺傷性武器。他敦促 "人類的機構和控制對于核武器至關重要,永遠都不應取消"。

規范人工智能的軍事用途

鑒于在核武器結構中使用人工智能所帶來的危險,即使人工智能目前尚未完全融入,但現在就開始討論有核國家和國際安全界可以探索的方案,以防止和減輕人工智能以及核武器系統的軍事應用可能對和平與穩定造成的風險,也為時不晚。各國應采取一系列措施:

  • 提高政府從業人員、行業和民間社會等利益相關方對人工智能在核領域帶來的挑戰的認識。
  • 支持有助于減少核武器國家在人工智能相關問題上的誤解和誤會的透明度和建立信任措施。
  • 討論并商定在核力量中使用人工智能的具體限制。

最近幾周采取了一些舉措來規范人工智能的使用。七國集團就《廣島進程國際組織開發先進人工智能系統行為準則》達成一致,"以在全球范圍內促進安全、可靠和值得信賴的人工智能"。美國總統喬-拜登(Joe Biden)發布了一項行政命令,為人工智能的 "安全和安保 "制定了新標準,而英國則主辦了首屆全球人工智能安全峰會。然而,在將人工智能用于武器和軍事技術方面,還有很多工作要做。聯合國第一委員會批準了關于致命性自主武器的新決議,在這方面取得了進展。

結論

人工智能無處不在。無論我們喜歡與否,它都已進入現代戰爭和戰場。人工智能已被納入世界各地的核威懾架構。雖然人工智能在核威懾架構的某些領域具有一定優勢,但讓人工智能完全自主將是災難性的。與此同時,人工智能技術的發展顯然無法阻擋。人工智能遲早會在核武器綜合體中占據重要地位。審慎的做法是為即將到來的一切做好準備。然而,當務之急是,各國應堅定地讓人類參與其中,而不是依靠機器或計算機來做出發射核武器的決定。在利用人工智能進行核威懾時,必須格外謹慎。確保人工智能系統的可靠性、透明度和道德使用,對于防止意外后果或沖突升級至關重要。密切的人工監督和負責任的人工智能開發實踐是確保人工智能有效、安全地融入核威懾戰略的必要條件。最重要的是,世界各國必須就人工智能在軍事技術中的使用制定規范、規則和原則,并頒布國際法。

參考來源:INSTITUTE OF STRATEGIC STUDIES ISLAMABAD

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能(AI)的進步正在快速改變我們的世界,系統現在在從游戲玩耍到科學發現等領域匹敵甚至超越了人類的能力。這一進展的大部分可以追溯到機器學習(ML),特別是深度學習以及其在數據中發現有意義的模式和表示的能力。然而,AI中的真正智能需要不僅僅是原始的預測能力;它需要一種有原則的方法來在不確定性下做決策。這凸顯了概率機器學習的必要性,它通過概率論和貝葉斯推理提供了一種系統的框架來推理未知。

高斯過程(GPs)是一種典型的概率模型,具有靈活性、數據效率和良好校準的不確定性估計。它們對許多順序決策算法至關重要,特別是貝葉斯優化(BO),它已經成為優化昂貴和復雜的黑盒目標函數的不可或缺的工具。盡管已經投入了大量的努力來提高GPs的可擴展性,但在實踐中,與神經網絡(NNs)相比,性能差距仍然存在,主要是因為GPs缺乏表示學習能力。這是GPs的其他自然不足之一,它阻礙了BO解決關鍵的現實世界優化挑戰的能力。

這篇論文旨在在概率方法中釋放深度學習的潛力,并相互借鑒深度學習的概率觀點。其中的貢獻包括改進近似方法,以彌合GPs和NNs之間的差距,提供了一種新的BO公式,可以無縫地容納深度學習方法,以解決復雜的優化問題,以及對圖像風格轉移的一類強大的深度生成模型進行概率解釋。通過豐富深度學習和概率ML之間的相互作用,這篇論文推動了AI的基礎,并促進了更有能力和可靠的自動決策系統的發展。

付費5元查看完整內容

在不斷發展的技術和戰略分析領域,有兩個領域因其深遠的影響和有趣的可能性而脫穎而出:人工智能 (AI) 和博弈論。乍一看,它們可能看起來很不同——人工智能是計算機科學的一個分支,致力于創造智能機器,而博弈論則是研究競爭環境中的戰略決策。然而,當這兩個領域融合在一起時,它們開啟了一個新的可能性領域,徹底改變了我們處理和解決復雜戰略問題的方式。

人工智能和博弈論的交集不僅僅是一個技術聯盟;它代表了我們對戰略、決策和預測分析的理解的范式轉變。人工智能帶來了其無與倫比的計算能力、處理大量數據集的能力和先進的算法。另一方面,博弈論為理解競爭和合作互動的動態提供了一個框架,無論是在個人、公司還是國家之間。它們共同創建了一個強大的工具包,用于駕馭錯綜復雜的戰略決策世界。

在當今數字時代,這種融合尤為有效,因為數字時代數據豐富,計算能力不斷擴展。人工智能的學習、適應和決策能力越來越類似于人類的戰略思維,這是博弈論的一個核心方面。隨著人工智能系統變得越來越復雜,它們不僅在學習下國際象棋或圍棋等游戲。盡管如此,它們也被應用于戰略互動至關重要的現實世界場景——從金融市場到國際外交。

在本文中,我們將踏上人工智能和博弈論的探索之旅。我們將深入研究它們的歷史背景,研究人工智能如何用于解決復雜的博弈論問題,并展望這個令人興奮的跨學科領域的未來。通過了解人工智能和博弈論之間的協同作用,我們可以深入了解戰略決策的未來——一個機器競爭和制定戰略的未來。

人工智能和博弈論的歷史背景和里程碑

人工智能在戰略博弈和博弈論領域的旅程始于不起眼但意義重大的一步。最早的里程碑之一是IBM的“深藍”(Deep Blue)的誕生,這是一款國際象棋計算機,在1997年擊敗了世界冠軍加里·卡斯帕羅夫(Garry Kasparov)。這一事件標志著一個關鍵時刻,展示了人工智能在掌握需要深入戰略思維的游戲方面的潛力。

繼深藍之后,人工智能領域繼續發展,處理更復雜的游戲。一個里程碑式的成就是谷歌DeepMind的AlphaGo,它在2016年擊敗了世界冠軍圍棋選手李世石。圍棋,一個以其大量可能的位置和對直覺的依賴而聞名的游戲,對人工智能來說是一個重大挑戰。AlphaGo的勝利證明了人工智能在學習和制定戰略方面的先進能力,遠遠超出了蠻力計算。

在這些發展的同時,人工智能開始納入博弈論的原理。博弈論的理性決策者之間沖突與合作的數學模型為人工智能算法模擬和分析戰略互動提供了一個框架。這種整合使人工智能能夠超越游戲,應用于現實世界的場景,如經濟建模、政治戰略和社會行為分析。

機器學習是人工智能的一個子集,專注于構建從數據中學習的系統,機器學習的集成進一步推動了人工智能的能力。強化學習等技術,人工智能系統通過執行動作和觀察結果來學習決策,在開發能夠在動態環境中適應和優化策略的人工智能方面發揮了重要作用。

人工智能在預測博弈論中的應用標志著另一個重要的里程碑。人工智能系統經過訓練,可以預測戰略場景中的結果,考慮眾多變量和潛在策略。事實證明,這種能力在金融和經濟等領域非常寶貴,在這些領域,預測市場趨勢和消費者行為至關重要。

隨著人工智能系統越來越善于制定戰略,出現了倫理方面的考慮,特別是在軍事戰略和監視等敏感領域的使用方面。隨著我們邁向未來,圍繞人工智能在戰略決策中的道德使用問題的辯論仍然是一個關鍵的討論。

人工智能在解決博弈論問題中的應用

人工智能在博弈論中的應用在很大程度上延伸到了經濟學和政治學領域。在經濟學中,人工智能算法用于模擬市場行為、模擬競爭性商業場景和優化定價策略。在政治學中,人工智能有助于模擬選舉策略、外交談判和沖突解決。

示例:市場分析中的人工智能 考慮一個簡單的市場場景,公司在價格上競爭。人工智能算法可用于模擬該市場并預測均衡價格。

在政治戰略方面,人工智能可以模擬選舉場景,考慮選民偏好、競選策略和媒體影響等因素。這些模擬有助于了解選舉政治的動態,并制定有效的競選策略。 、

機器學習與預測博弈論

機器學習是人工智能的一個動態子集,它大大增強了博弈論的預測能力。通過分析模式和學習數據,機器學習模型可以預測各種博弈論場景中的結果,為戰略決策過程提供有價值的見解。

在博弈論中,預測建模涉及根據歷史數據和概率算法預測玩家的行動和反應。神經網絡、決策樹和強化學習算法等機器學習模型擅長處理這些復雜的場景。它們可以處理龐大的數據集,找出可能無法立即顯現的模式和戰略,為戰略規劃提供預測優勢。

在商業競爭戰略領域,機器學習模型被用來模擬市場情景,預測各種戰略舉措的結果。例如,公司可以利用這些模型來預測競爭對手對新產品發布、定價變化或營銷活動的反應。這種預測能力使企業能夠更有效地制定戰略,在激烈的市場競爭中領先一步。

行為博弈論中的人工智能

人工智能(AI)在行為博弈論領域發揮著越來越重要的作用,行為博弈論是一門結合了經濟學、心理學和戰略決策學等元素的學科。人工智能在這一領域的貢獻圍繞著理解和預測博弈論背景下的人類行為,為個人如何在戰略情況下做出決策提供了新的視角。

行為博弈論傳統上依賴心理學見解來解釋為什么人們有時會在戰略博弈中做出非理性或意想不到的決策。人工智能,尤其是機器學習模型,通過分析大量的行為數據,加強了對這一問題的理解。這些模型可以識別人類決策中的模式和異常現象,而這些模式和異常現象在傳統分析中可能并不明顯。例如,人工智能有助于理解為什么人們在某些博弈中會偏離納什均衡,或者為什么他們會在經典博弈論預測會出現競爭的情況下進行合作。

考慮一下 "最后通牒博弈"(Ultimatum Game),這是行為經濟學中的一個標準實驗。如果第二個玩家拒絕這個提議,那么兩個玩家都將一無所獲。雖然傳統博弈論認為任何非零提議都應被接受,但人類玩家經常會拒絕他們認為不公平的提議。人工智能模型可以分析此類博弈的數據,預測在什么情況下提議有可能被接受或拒絕,從而深入了解人類的公平與合作觀念。

人工智能的預測能力在涉及復雜人類互動的游戲中尤其有用。通過分析類似游戲的歷史數據,人工智能可以預測玩家在未來游戲中可能的行為。這種能力不僅在學術上很有意義,在市場研究、政治競選和談判策略等領域也有實際應用。

人工智能在博弈論中的未來前景和潛在影響

展望未來,人工智能(AI)與博弈論的交匯蘊含著實現變革性突破的巨大潛力。人工智能技術的飛速發展與博弈論的深刻見解相結合,有望徹底改變各行各業和全球政治的戰略決策方式。

在戰略規劃領域,人工智能分析復雜情景和預測結果的能力將變得越來越復雜。我們可以預見,人工智能系統不僅能模擬商業和經濟領域的可能戰略,還能積極提出最佳行動方案。例如,人工智能可以預測市場波動并提出庫存策略建議,從而徹底改變供應鏈管理;人工智能驅動的交易算法可以預測市場變化并做出實時反應,從而改變金融市場。

在全球政治中,人工智能在博弈論中的作用可以為解決沖突和外交談判帶來開創性的方法。可以開發人工智能系統來模擬國際沖突,并根據歷史數據、當前的政治氣候和潛在的未來情景提出解決方案。這些系統可以協助人類外交官了解不同外交戰略可能產生的結果,幫助預防沖突和促進全球合作。

人工智能系統能夠在戰略規劃和談判方面勝過人類,這一前景帶來了令人興奮和充滿挑戰的可能性。在商業領域,這種人工智能可以談判合同、優化交易,甚至參與高層決策過程。然而,這也帶來了有關透明度、公平性以及人類判斷在關鍵決策過程中的作用等倫理方面的考慮。

結論:引領人工智能與博弈論的未來交匯點

當我們結束對人工智能(AI)與博弈論動態融合的探索時,我們顯然站在了戰略分析與決策新時代的懸崖邊上。從人工智能在戰略博弈中的歷史里程碑、先進的經濟應用、對人類行為的深刻洞察,到人工智能在博弈論中的未來猜想,我們描繪了一幅快速發展的圖景,其中蘊含著豐富的潛力,也充滿了挑戰。

回顧歷程: 我們的旅程始于對歷史的回顧,追溯人工智能從掌握國際象棋和圍棋等棋類游戲到解決經濟學和政治學中復雜博弈論問題的演變過程。這些里程碑不僅展示了人工智能日益增長的實力,也為人工智能更深入地融入戰略決策奠定了基礎。

人工智能在經濟和政治中的作用: 我們深入研究了人工智能在博弈論中的高級經濟應用,探討了人工智能模型如何徹底改變市場分析、消費者行為預測和競爭性商業戰略。在政治領域,人工智能在外交談判和沖突解決建模方面的潛力預示著未來人工智能將在維護全球和平與穩定方面發揮至關重要的作用。

人工智能視角下的人類行為:人工智能在行為博弈論中的探索揭示了人工智能如何促進我們對人類決策的理解。通過分析有關人類行為的大量數據集,人工智能已開始揭示我們如何在戰略背景下做出選擇的復雜性,為從實驗經濟學到社會心理學等領域提供了寶貴的見解。

猜測人工智能的未來影響: 展望未來,我們推測了人工智能在博弈論中的未來,并設想了可能改變行業、重塑全球政治以及重新定義戰略談判性質的突破。人工智能在戰略規劃方面超越人類的潛力既帶來了令人興奮的可能性,也帶來了重大的倫理問題。

平衡技術進步與倫理責任: 當我們擁抱人工智能和博弈論的進步時,我們也必須認識到其對倫理和社會的影響。在將人工智能融入戰略決策過程時,必須堅持透明、公平和維護人類判斷力的原則。人工智能在博弈論中的未來不僅關乎技術實力,還關乎用人工智能增強人類智慧,從而創造一個更具戰略性、更知情、更合作的世界。

用心創新,擁抱未來: 總之,人工智能與博弈論的交叉代表著一個充滿無限可能的前沿領域。它有望徹底改變我們處理和解決復雜戰略問題的方式,為理解和塑造我們周圍的世界提供新的工具。在我們前進的過程中,我們必須以審慎的創新態度對待這一前沿領域,確保人工智能和博弈論的進步能夠為更大的利益服務,并以道德原則為指導,深刻理解其對社會的影響。

參考來源:Enrique J. ávila Mu?oz

付費5元查看完整內容

現代戰爭戰略和最新戰爭技術的能力與當代戰爭的規劃有關。近年來,軍用無人機是值得注意的發展之一。與此同時,現代化的無人機正在成為監視、收集情報和偶爾進攻的重要武器。

本文概述了無人機作為武器的發展,并研究了它們在未來戰斗中的作用。有了這個,一些最復雜的設備,未來的軍用無人機,已經存在。

由于這些情況,軍事機構的整個間諜活動過程發生了根本性的轉變;此外,它們對特派團的行動產生了重大影響。這些裝置是自營的,可以遠程管理;因此,它們適合完美的戰爭。

現代軍用無人機的景觀

沒有軍用無人機,我們的現代戰爭形勢是不完整的,這對于不同類型的軍事任務非常重要。它們適用于執行實時信息收集任務和精確的精確打擊。

這些升級后的無人機模型旨在滿足現代戰爭的要求,并結合了最新的傳感器和強大的戰斗武器庫。未來派軍用無人機應用是當今世界需求增加的方面之一。這些現代機器在飛行時間上更加堅固,耐用,幾乎看不見,是軍隊最強大的武器之一。

無人機與軍事:共生關系

無人機與軍事行動之間的協同作用具有戰術和戰略優勢,使它們有資格成為軍事行動的重要工具。這些無人機發揮著至關重要的作用,包括觀察對手的活動和識別現場發現的危險趨勢。這些有價值的信息有助于決策者做出合理的決策,以避免在戰場上部署士兵的風險。

此外,無人機和軍隊可以在幾秒鐘內完成基本目標并具有最大的精度。使用軍用無人機和導彈炮彈可以減少對平民的任何可能危險,同時保持高度安全。

無人機在不久將來的角色

  • 人工智能驅動的自主無人機:

軍用無人機將包括旨在提高其能力的人工智能。人工智能算法使這些無人機能夠在飛行時追蹤大量信息,以檢測趨勢并立即做出反應。它使無人機能夠適應不斷變化的環境,并最終提高戰場上作戰的效率和靈活性。

  • 蜂群技術進步:

蜂群技術涉及多架獨立和諧運行的先進無人機,可以在任何地方使用。正在研究如何提高群體智能,以便無人機可以協同工作、協調或相互同步。蜂群技術提高了無人機的可擴展性;因此,許多武裝部隊利用這種能力同時用許多無人機壓倒敵人,這給了他們戰術優勢。

  • 能源效率和延長飛行時間:

電池技術的改進和能源利用效率的提高導致這些無人機的飛行時間更長,這是其實施的主要障礙之一。這種增長將促進更多的距離覆蓋、更長的監視和作戰持續時間,從而增加無人駕駛車輛在戰爭行動中的價值。

  • 適應城市戰:

為了適應沖突地區的城市環境,軍用無人機將配備先進的導航系統,幫助他們避開障礙物。工程師們正試圖構建一個創新的、功能強大的系統,由于工程師的智能方面,它可以讓無人機飛過棘手的區域,如城市的峽谷等。這一點很重要,因為在城市地區的偵察和監視期間別無選擇,只能使用常規手段。

  • 與其他技術的互操作性和協作:

盡管如此,軍用無人機可以與其他最先進的技術相結合。無人機可以與其他地面機器人、衛星和各種傳感器一起工作,構成大量的信息收集設備。在軍隊之間共享可互操作的態勢感知,確保了對不同數據庫的決策。

這些下一代戰斗無人機具有人工智能驅動的自主性和高能效,并結合了城市戰的適應性,以跟上當代作戰環境的步伐。

倫理考量和未來挑戰

  • 倫理影響:

在武器系統中使用自主性會引發一些關于其責任、指揮、控制和遵守法律的倫理問題。使用戰斗無人機的道德規范。倫理后果意味著,在大多數情況下,對反人類的軍事必要性問題存在著密切的檢查。

  • 網絡安全威脅:

盡管如此,任何軍事裝備都有可能受到網絡戰的影響,這并不意味著無人機可以豁免。黑客活動也有可能分散飛行員的注意力,這可能會導致軍事行動,這可能是致命的。如果下一代無人機要變得可行,就需要防范此類系統免受網絡威脅。

  • 國際法規:

世界需要適當的規則和指導方針,以便在使用無人機等軍事技術時就行為達成有效的國際共識。因此,未來的軍用無人機不會違反國際條約中反映的人權公約。

無人機系統在現代戰爭中的角色

  • 1.提高精度,減少附帶損害

無人機瞄準敵方單位的精確度是一大優勢。這種平均命中對無罪個人或無辜平民和財產造成更大的威脅。因此,這些未來的軍用無人機擁有先進的傳感武器,可以精確擊中選定的目標。這種類型的準確性減少了附帶品,并使戰爭在戰爭效率方面合乎道德。

  • 2.力倍增效應

力量倍增器、無人機和軍隊。有了這個,軍事單位可以通過使用無人機作為其武器庫的一部分來提高戰場效率。這些無人機為一個區域內的監視提供部隊,并監視敵人的行動,然后在需要時提供重要信息。這個乘數為其他能力提供了其他人的力量,例如在各個領域提供對敵人的優勢。

  • 3.威懾和心理影響

軍隊中的無人機往往會給潛在的對手或敵人灌輸恐懼。這些無人駕駛飛機使敵人感到恐懼和不確定自己的位置。這種心理影響可以遏制沖突,并確保一些脆弱地區保持穩定,因為認識到武裝部隊中存在現代無人機能力。威懾在國際維和問題上是必不可少的,是一種預防措施。

結論

無人機用于現代戰爭,表明無人機鞏固了戰略并徹底改變了戰爭。這些無人機是軍隊最重要的資產之一,從目前的技術到未來的軍用無人機。因此,有必要在利用這些巨大而復雜的技術進步方面保持觀察和道德。

在沒有一人傷亡的情況下對對手進行空襲現在已成為現實,因為這在以前是一個不可能實現的夢想。技術的發展將永不停止,以確保無人機在軍事創新中的未來保持在軍事創新的頂峰,以保護國家,并將下一個時代塑造成一個戰場,在這個戰場上,人類智慧與人工智能相結合,將開辟未被發現的區域。

參考來源:ZenaDrone, Inc.

付費5元查看完整內容

一名烏克蘭軍人,帶有四軸飛行器控制面板,帶有操縱桿和屏幕。圖片由 dvoinik 通過 Adobe Stock 提供

近14年來,以色列特工一直以伊朗頂級核科學家穆赫森·法赫里扎德(Mohsen Fakhrizadeh)為目標,他監督了一項制造核彈頭的秘密計劃。2020 年 11 月 27 日,以色列情報官員暗殺了這位科學家,此舉震驚了世界。法赫里扎德和他的妻子離開了里海海岸,乘坐四輛汽車的車隊前往他們在伊朗鄉村的家。當他們接近掉頭時,一連串的子彈擊碎了他們的擋風玻璃,并反復擊中了法赫里扎德。

實施暗殺的以色列特工槍手使用了遙控機槍,從1000多英里外觸發。摩薩德定制了一支比利時制造的步槍,該步槍配備了先進的機器人設備,可以安裝在皮卡車的床上,并配備了一系列攝像頭,可以全面了解目標和周圍環境。為了解釋向武器傳輸信號的延遲,摩薩德使用人工智能軟件來考慮時間滯后、每顆子彈發射時卡車的晃動以及法赫里扎德車輛的速度。

該操作不是異常,而是創新到來的預兆。大大小小的國家都在競相購買先進的無人機,整合算法瞄準分析,并開發一系列自主的陸基和海基武器,所有這些都幾乎沒有監督或限制。因此,各國迫切需要就這些工具在戰爭中的開發、部署和使用達成一致。

為了加強監督和可預測性,專家和政策制定者應該考慮領先的人工智能大國可以采取哪些措施。美國可以帶頭承諾對自己的人工智能武器開發進行監督。它還可以與其他國家合作,建立一個獨立的專家監測小組,密切關注人工智能在戰爭中的使用情況。最后,各國應該坐到談判桌前,在為時已晚之前決定新興軍事技術的使用規范。

從烏克蘭到加沙。與國家安全相關的人工智能系統應用范圍廣泛,但大致可分為上游任務(情報、監視和偵察、指揮和控制、信息管理、后勤和培訓)和下游任務(目標選擇和參與)。具體而言,人工智能應用使軍隊能夠增強分析能力,以匯總和分析戰場數據,并增強作戰能力,以進行導彈打擊和部署自主人工智能無人機。

一些專家認為,美國不能阻礙發展完全自主武器的進展,以免俄羅斯等大國超越他們的發展。可以肯定的是,人工智能功能正在迅速激增。正如烏克蘭戰爭和加沙的敵對行動所表明的那樣,如果沒有一個共同的框架和商定的限制,各國就有可能競相觸底,在幾乎沒有限制的情況下連續部署更具破壞性的系統。

當前的烏克蘭戰爭被描述為“發明的超級實驗室”,它為科技公司和企業家提供了直接在戰場上測試新工具的機會。這場沖突揭示了戰爭方式的重大轉變。最重要的變化之一是引入了綜合戰斗管理系統,該系統提供了有關部隊調動和位置的最新透明度 - 一直到基本單位級別。“今天,一列坦克或一列前進的部隊可以在三到五分鐘內被發現,再過三分鐘就會被擊中,”烏克蘭軍事情報部門高級官員瓦迪姆·斯基比茨基少將警告說。“移動中的生存能力不超過 10 分鐘。”

烏克蘭前線被無人駕駛飛行器淹沒,這些飛行器不僅可以持續監控戰場發展,而且當與人工智能驅動的瞄準系統相匹配時,還可以近乎瞬間摧毀軍事資產。自然,俄羅斯人和烏克蘭人都轉向反無人機電子戰,以抵消無人機的影響。但這帶來了另一個發展——快速推動完全自治。正如軍事學者T.X.哈姆斯(T.X. Hammes)所寫的那樣,“自主無人機不會與飛行員建立脆弱的無線電鏈路,也不需要GPS制導。自主性還將大大增加一次可以使用的無人機數量。

軍事人工智能同樣正在塑造加沙的戰爭。在哈馬斯武裝分子通過中和該國“鐵墻”的高科技監視能力震驚了以色列軍隊之后 - 一個40英里長的物理屏障,配備了智能攝像機,激光制導傳感器和先進的雷達 - 以色列已經收回了技術主動權。以色列國防軍(IDF)一直在使用一種名為“福音”的人工智能瞄準平臺。據報道,該系統在持續的入侵中發揮著核心作用,為識別和攻擊目標提供“自動建議”。該系統于 2021 年在以色列與哈馬斯為期 11 天的戰爭期間首次啟動。對于 2023 年的沖突,以色列國防軍估計在戰爭的前 35 天內襲擊了加沙的 15,000 個目標。(相比之下,以色列在2014年長達51天的加沙沖突中擊中了5,000至6,000個目標。雖然福音提供了關鍵的軍事能力,但平民傷亡令人擔憂。一位消息人士將該平臺描述為“大規模暗殺工廠”,強調目標的數量而不是目標的質量。還有一種風險是,以色列對人工智能定位的依賴導致了“自動化偏見”,即在人類會得出不同結論的情況下,人類操作員傾向于接受機器生成的建議。

國際共識可能嗎?正如烏克蘭和加沙戰爭所證明的那樣,敵對軍隊正在爭先恐后地部署自動化工具,盡管對在戰場上部署未經測試的技術的道德界限缺乏共識。研究表明,像美國這樣的主要國家致力于利用“所有領域的可消耗的自主系統”。換句話說,主要軍隊正在重新思考關于如何打仗的基本規則,并依靠新技術。鑒于許多懸而未決的問題,這些發展尤其令人擔憂:在人口稠密地區使用致命的自主無人機或機器人機槍時,究竟有哪些規則?需要采取哪些保障措施,如果平民受到傷害,誰應負有責任?

隨著越來越多的國家相信人工智能武器是未來戰爭的關鍵,它們將受到激勵,投入資源開發和擴散這些技術。雖然禁止致命的自主武器或限制人工智能工具可能不切實際,但這并不意味著各國不能采取更多的主動措施來決定它們的使用方式。

美國在這方面發出了好壞參半的信息。雖然拜登政府發布了一系列政策,概述了負責任地使用自主武器,并呼吁各國實施人工智能武器責任的共同原則,但美國也在國際論壇上阻礙了進展。具有諷刺意味的是,在最近的一次聯合國自主武器委員會會議上,俄羅斯代表團實際上支持美國的立場,即將自主武器置于“有意義的人類控制”之下過于嚴格。

美國政策制定者可以做得更好,有三個想法值得考慮。

首先,美國應該承諾對五角大樓自主和人工智能武器的發展進行有意義的監督。白宮關于人工智能的新行政命令要求制定一份國家安全備忘錄,概述政府將如何應對該技術帶來的國家安全風險。該備忘錄的一個想法是建立一個民用國家安全人工智能委員會,可能以隱私和公民自由監督委員會(一個負責確保聯邦政府在預防恐怖主義工作與保護公民自由之間取得平衡的組織)為藍本。這樣的實體可以被賦予監督責任,以涵蓋被認為影響安全和權利的人工智能應用程序,并負責監控正在進行的人工智能進程——無論是為國防部新的生成式人工智能工作組提供建議,還是向五角大樓提供有關人工智能產品和系統的建議私營部門正在開發。一個相關的想法是,國家安全機構建立獨立的人工智能風險評估小組。這些部門將監督綜合評估、設計、學習和風險評估職能,這些職能將制定操作指南和保障措施,測試風險,指導人工智能紅隊活動,并進行行動后審查。

其次,美國和志同道合的民主國家應該推動成立一個國際認可的獨立專家組,以監測戰爭中使用的人工智能工具的持續影響。例如,如果有報道稱加沙沖突中“90%的目標被擊中”是由于人工智能生成的建議,那么政策制定者就應該對此類系統的風險和收益有更詳細的了解。這些目標平臺對平民有何影響?正在使用哪些參數,以及對定位算法進行何種程度的監督?有哪些類型的問責程序?該小組的目的是突出有關活動領域的問題,并就如何解決新出現的問題向各國政府和國際組織提出建議。

最后,各國應就軍隊如何在戰爭中使用新興技術的行為底線達成一致。各國如何部署新技術以推進其安全利益具有狂野西部的特質。風險在于,各國,特別是非民主政權,將發起一場逐底競賽,使用更致命的工具組合來產生破壞性影響。各國政府可以就基本參數達成一致——部分借鑒美國和其他國家提出的軍事人工智能原則——以確保人工智能武器的使用符合國際人道法,并確保保障措施到位,以減輕意外升級和災難性失敗的風險。

這并不是國際領導人第一次面對新技術的毀滅性潛力。正如二戰后全球領導人達成共識,通過《日內瓦公約》建立行為護欄一樣,國際領導人也應該為人工智能技術做出類似的努力。自由國家可以在為部署這些強大的新型戰爭技術制定規范和基線條件方面發揮更大的作用。

參考來源:原子科學家公報

付費5元查看完整內容

現在,瀏覽新聞、社交媒體或雜志時不可能不提到人工智能(AI)。但人工智能從何而來,為何突然變得如此普遍?我們將對該技術、其應用及其與國防的相關性進行總體介紹。

什么是人工智能?

人工智能是計算機領域的一個分支,主要研究能夠執行通常或以前需要人類智能才能完成的任務的系統:學習、解決問題、決策、感知、創造力和社會參與。

人工智能和機器學習(ML)這兩個術語經常被交替使用。雖然它們密切相關,但其核心區別在于,人工智能是基于機器能夠模仿人類智能的一般想法,而機器學習則利用數據和觀察到的模式,特別是為了教會機器如何執行任務并提供結果。

可以說,人工智能領域最早的研究工作是由英國數學家和計算機科學家阿蘭-圖靈在 20 世紀中期開展的。圖靈機 "的概念描述了一臺抽象的計算機器在其無限的內存中移動,根據以前的模式進行學習和預測。雖然這可能與當今市場上的軟件有很大不同,但機器能夠在沒有明確編程的情況下學習、修改或改進的概念是所有人工智能的精髓。

人工智能的興起

雖然人工智能的概念可能已經存在了近一個世紀,但人工智能和機器學習技術得到更廣泛認可的應用卻是在幾十年前。當時,計算能力和存儲是一種極其昂貴的商品,這意味著只有計算領域的專業人士和能夠使用專業機器的人才能探索高能計算。隨著 90 年代末和 21 世紀初設備和互聯網連接的普及,以及處理和數據存儲成本的降低,在普通專業甚至個人電腦環境中處理大數據集的能力變得更加現實。

再加上傳感器技術的發展,實現了更好的數據收集和態勢感知,在線可用數據的增加,以及云計算和邊緣計算方法的興起,人們對更多數據、更快處理的需求同時增加,并希望讓機器承擔許多人類活動的負擔。

人工智能成為頭條新聞

與所有趨勢、技術和其他領域一樣,需要一些備受矚目的使用案例才能將這一過程變成一個家喻戶曉的概念。

最早在這一領域取得突破的公司之一是谷歌的姊妹公司 DeepMind。在過去的十年中,他們開發出了能夠擊敗職業玩家的算法,創建了能夠預測蛋白質復雜三維形狀的蛋白質折疊預測系統,甚至還建立了用于醫療應用的程序,如眼睛疾病診斷。

不過,迄今為止對全球影響最大的應用是 ChatGPT,這是 OpenAI 開發的一種復雜的聊天機器人式人工智能,可以讓您提出復雜的問題,并根據其全球可用數據獲得答案。在短短兩個月內,該平臺的活躍用戶就超過了 1 億,由于服務器難以滿足全球需求,許多用戶無法使用該系統。ChatGPT 和其他類似平臺都是基于一種名為 "生成式人工智能"(Gen-AI)的人工智能。這種人工智能的唯一目的就是根據現有數據或信息的模式生成新內容。ChatGPT 使用文本和語言,而其他 Gen-AI 程序則可以創建不同的媒體,如藝術、音樂和攝影。

ChatGPT 無疑是這些工具中第一個進入大眾消費領域的,未來數月和數年值得關注的還有谷歌的 Bard、微軟必應(基于 OpenAI 技術)、ChatSonic 和中國百度社交媒體應用 Ernie。

現在,人工智能制作的內容通常以事實而非觀點為中心,因此很容易分辨。在最近的 BBC Sounds 廣播紀錄片《A Documentary: By ChatGPT》中,主持人勞拉-萊溫頓(Lara Lewington)使用 ChatGPT 幫助撰寫和制作了一個關于該軟件的節目。雖然它提供了有用的信息和腳本的起點,但很明顯,信息的語氣和呈現方式與主持人和媒體的一貫風格大相徑庭,而且,如果僅使用人工智能來制作節目,對最終聽眾來說并不會很有吸引力。

人工智能在國防和安全行業的應用

雖然人工智能能夠改善我們的日常生活--幫助規劃旅行、撰寫基本內容和提高技能--但人工智能的真正威力卻體現在工業和商業應用中。大型語言模型,即使用深度學習技術處理海量數據集的算法,正在改變許多行業的運作方式。在一瞬間,就有可能處理之前的所有學習成果,并找出創新和前進的新方法。

2020 年 12 月,美國空軍首次在模擬軍事任務中使用人工智能作為副駕駛和 "任務式指揮"。算法完全控制傳感器的使用和戰術導航,而人類隊友則駕駛飛機。在復雜的空中領域,計算機和系統因其高度安全和鎖定的系統而難以更新和創新。

空軍項目背后的團隊將開發、安全和操作融為一體,采用更加敏捷的信息技術方法,更快、更持續地生成更高質量的代碼。算法設計允許操作員選擇人工智能會做什么、不會做什么,以及在哪些方面突破操作風險的界限。

那么,既然這次模擬任務取得了成功,為什么我們不能在國防領域更廣泛地推廣人工智能呢?美國空軍負責采購、技術和后勤的助理部長兼本項目負責人威爾-羅珀(Will Roper)博士強調了幾個關鍵問題: "今天的人工智能很容易被對手的戰術所迷惑,而這恰恰是未來戰爭所要面對的"。

他還在《大眾機械》(Popular Mechanics)雜志上撰文,強調了未來幾年該行業需要努力學習的關鍵知識之一: "在我們完成第一代人工智能的同時,我們還必須研究算法隱身和反制措施,以擊敗人工智能。雖然人類飛行員很可能像雷達波束和干擾器頻閃一樣看不到它們,但在我們發明下一代人工智能時,他們需要對它們有類似的直覺,以及如何與第一代人工智能協同飛行和對抗第一代人工智能。算法戰爭已經開始"。

人工智能將對決策的知情、制定和執行方式產生深遠影響。人工智能能以目前人類無法達到的速度處理大量數據,從而提高對作戰環境的理解,減輕決策者的認知負擔。這使得人工智能能夠應用于國防和安全領域,從監視和偵察到網絡安全、機器人技術和自主性、平臺管理和維護、作戰甚至武器系統。然而,該行業必須同時努力開發應對措施,以挫敗對手并識別錯誤信息,例如深度偽造--一種利用現有數據模仿真人的合成媒體。

隨著人工智能技術的日益普及,人們肯定會呼吁加強對人工智能安全和道德實踐的管理。英國國防部已經制定了《國防人工智能戰略》,并成立了多個工作組和政策文件。在美國,我們也看到了由行業主導的運動,呼吁加強對人工智能公司的監管和審計。明年,我們可能會在這一領域看到全球范圍內最大的變化。

那么,未來人工智能是否會取代人類并領導國防工業?

總體而言,在過去二十年里,人工智能已成為一項日益重要和普遍的技術,應用范圍從語音識別和推薦系統到自動駕駛汽車和醫療診斷。這些進步使人工智能比以往任何時候都更加強大、準確和易用,從而在許多行業實現了廣泛的應用和用例。

正如 BBC ChatGPT 紀錄片所總結的那樣,人工智能很可能主要用于增強人類活動,而不是取代人類(至少目前如此)。如果使用得當,人工智能可以幫助減少人類花在瑣碎工作上的時間,讓我們能夠成長并專注于更具戰略性或創新性的道路。我們應該擁抱它的潛力,而不是害怕它或試圖抵制它。

具體到國防工業,人工智能正迅速成為我們國防戰略的核心部分。全球軍事和情報機構都在擁抱這項新技術,并增強現有的工作力量。這些應用通常側重于匯總和處理大量數據,以便更好地做出決策,縮短處理時間,更好地了解作戰環境。

在這種環境下,除非是低風險、低信任度的應用,否則人工智能不太可能被完全控制。至少就目前而言,重要的是要讓人類參與其中,并將人工智能作為我們更廣泛運營團隊的核心部分,而不是我們的領導者。

參考來源:QinetiQ

付費5元查看完整內容

今天,人工智能(AI)和機器學習/深度學習(ML/DL)已經成為信息技術中最熱門的領域。在當今社會,許多智能設備依賴于AI/ML/DL算法/工具進行智能操作。盡管AI/ML/DL算法和工具已經在許多互聯網應用程序和電子設備中使用,但它們也容易受到各種攻擊和威脅。AI參數可能被內部攻擊者扭曲;DL輸入樣本可能被對手污染;在許多其他攻擊和威脅中,ML模型可能會因改變分類邊界而被誤導。這樣的攻擊會使人工智能產品變得危險。雖然本討論的重點是基于AI/ML/DL的系統中的安全問題(即保護智能系統本身),但AI/ML/DL模型和算法實際上也可以用于網絡安全(即使用AI來實現安全)。由于AI/ML/DL安全是一個新興的領域,許多研究人員和行業專業人士還不能對該領域進行詳細、全面的了解。本書旨在提供各種應用程序中相關安全問題的挑戰和解決方案的完整圖景。它解釋了高級人工智能工具中如何發生不同的攻擊,以及克服這些攻擊的挑戰。然后,書中描述了許多實現人工智能安全和隱私的有希望的解決方案。這本書的特點有七個方面:

  • 這是第一本解釋人工智能系統的各種實際攻擊和對策的書
  • 給出了定量的數學模型和實際的安全實現
  • 它涵蓋了“保護人工智能系統本身”和“使用人工智能實現安全”。
  • 它用詳細的攻擊模型涵蓋了所有先進的AI攻擊和威脅
  • 為人工智能工具中的安全和隱私問題提供了多種解決空間
  • 解釋了機器學習和深度學習在安全和隱私問題上的差異
  • 本書涵蓋了許多實際的安全應用程序

付費5元查看完整內容

類人智能學習是AI界始終追逐的終極目標。自2006年以來,深度學習的出現極大的推動了人工智能的研究進展,人類似乎找到了解決“抽象概念”的方法。人工智能借助深度學習的力量,已可以在多個應用場景落地,特別是互聯網領域。但就總體發展而言,目前的人工智能距離類人類智能還有很長的路要走。類人智能學習是AI界始終追逐的終極目標。

  類人智能的小樣本學習。如果用形象的比喻來說,深度學習(DL)是解決計算機“運籌帷幄”的問題(大量數據形成規律和抽象概念),而小樣本學習是解決計算機“照貓畫虎”的問題(少量數據形成決策)。深度學習更擅長分析規律和預測趨勢,而小樣本學習則具備舉一反三的能力。小樣本學習相當符合人類的思維推理模式,是實現類人人工智能的必由之路。     小樣本研究領域的發展現狀。2011年至2015年,由于小樣本理論不完整,相關論文較少。自2015年以來,隨著深度學習的興起,小樣本學習進入深度學習階段,相關研究論文的數量呈線性大幅增長。國家間,在小樣本學習研究領域的競爭也十分激烈,美國和中國是最大的兩個研究產出國,而美國的私營部門在小樣本學習的投入領先于其他國家。     小樣本學習可以解決AI商業落地難題。2015年是小樣本學習研究進展的分水嶺,開始真正進入深度學習階段,進而帶動AI產業的實質性應用落地。小樣本學習算法的性價比最優,不需要大量數據的標注準備,極大降低了數據標注、算力以及AI交付的工程化成本,對AI應用普惠化起到了至關重要的作用。     工業視覺檢測是小樣本學習的典型應用場景。小樣本學習相關的任務中,計算機視覺是最活躍的研究領域,而AI視覺檢測是小樣本學習在工業領域的突出應用。  

付費5元查看完整內容

作為新一代信息技術的代表,人工智能已經廣泛應用于科學、社會、經濟、管理的方方面面,已經和正在成為創新驅動發展的核心驅動力之一。然而,就其技術發展而言,人工智能還只是突破了從“不可用” 到“可以用”的技術拐點,從“可以用”到“很好用” “用得好”還存在諸多技術瓶頸,正呼喚重大技術變革。

技術變革的先導是理論創新,即基礎研究。它是指對事物本質和規律的科學化探尋和揭示,是啟發、促動技術變革的激發源和理論依據。理論創新既應包括對原有理論體系或框架的新突破、對原有理論 和方法的新修正和新發展,也包括對理論禁區和未知領域的新探索。

本文主要關注人工智能技術發展當前亟待解決的重大數理基礎問題。為什么要特別關注 AI 的數理基礎問題呢?這是因為當前人工智能技術和發展主要是靠“算例、算法、算力”所驅動的,其基礎是數據,其核心是算法,這二者都深刻地以數學為基礎。數學主要提供對所研究問題的形式化手段、模型化工具和科學化語言。沒有形式化就沒有程式化和計算機化,沒有模型化就沒有定量化和知識化,沒有科學化就沒有系統化和現代化。所以,數學在科學技術中具有獨特的作用和價值。對人工智能而言,數學不僅僅是工具,還是技術內涵本身, 而且常常也是最能體現本質、原始創新的部分。

本文提出并闡述人工智能研究與應用中凾待解決的10個重大數理基礎問題,包括:

1 大數據的統計學基礎

2 大數據計算的基礎算法

3 數據空間的結構與特性

4 深度學習的數學機理

5 非正規約束下的最優輸運

6 如何學習學習方法論

7 如何突破機器學習的先驗假設

8 機器學習的自動化

9 知識推理與數據學習的融合

10 智能尋優與人工智能芯片問題

付費5元查看完整內容

機器學習是一種變革性的計算工具,它正在革新許多技術和科學應用。然而,最近在人工智能和機器學習方面的成功,以及隨之而來的模型的廣泛部署,已經改變了經典的機器學習管道。首先,可用數據的絕對規模——在數量和維度上——已經爆炸。此外,現代機器學習架構具有指數級的設計選擇和超參數,但它們都是使用通用的隨機梯度方法進行優化的。這突出了自適應梯度方法的需要,該方法在沒有事先知道實例的情況下充分執行。接著并期望它們即使在不分布的輸入中也能提供良好的預測——這強調了對可靠模型的需要。最后,隨著我們收集越來越多的用戶數據,我們希望在向公眾發布這些模型時,基于這些數據訓練的模型不會損害訓練集中存在的個人的隱私。在這篇論文中,我們證明了解決這些新出現的問題需要優化方面的基本進步。更具體地說,我們首先提出了理解自適應梯度算法的最優性的新的理論結果,并展示了在基于梯度的采樣器的背景下自適應方法的實際用例。然后,我們提出了可擴展的最小最大優化方法,以有效地解決魯棒目標。最后,我們開發了私有優化方法,在更嚴格的隱私要求下最優地學習,以及自適應方法,在簡單的實例上增加“適當數量的噪聲”并顯著降低隱私的代價。

//searchworks.stanford.edu/view/14053711

付費5元查看完整內容
北京阿比特科技有限公司