亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

ChatGPT是OpenAI開發的一個大型語言模型(LLM),它的發布和廣泛使用引起了公眾的極大關注,主要是因為它能夠快速提供可應用于大量不同上下文的現成答案。這些模型具有巨大的潛力。曾經被認為只能處理平凡任務的機器學習,已經證明自己有能力完成復雜的創造性工作。LLM正在不斷改進,并定期推出新版本,技術改進越來越快。雖然這為合法企業和公眾成員提供了巨大的機會,但對他們和對基本權利的尊重也可能是一種風險,因為罪犯和不良行為者可能希望利用LLM來實現自己的邪惡目的。為了響應公眾對ChatGPT日益增長的關注,歐洲刑警組織創新實驗室與來自組織的主題專家組織了許多研討會,以探索罪犯如何濫用ChatGPT等法學碩士,以及它如何幫助調查人員的日常工作。參加講習班的專家代表了歐洲刑警組織的所有專業知識,包括業務分析、嚴重和有組織犯罪、網絡犯罪、反恐以及信息技術。得益于研討會中所代表的豐富的專業知識和專長,這些實踐會議激發了對ChatGPT的積極和消極潛力的討論,并收集了廣泛的實際用例。雖然這些用例并不反映所有潛在應用程序的詳盡概述,但它們提供了可能的一瞥。本報告的目的是審查專門專家研討會的成果,并提高人們對LLMs可能對執法界工作產生的影響的認識。由于這類技術正在迅速發展,本文件進一步簡要展望了未來可能發生的情況,并強調了目前可以做些什么以更好地為其做好準備的一些建議。重要通知:在研討會中被選中的LLM是ChatGPT。選擇ChatGPT是因為它是目前對公眾可用的最高規格和最常用的LLM。本次活動的目的是觀察LLM在面對刑事和執法案件時的行為。這將幫助執法部門了解衍生和生成AI模型可能帶來的挑戰。本報告的較長和較深入版本僅供執法部門使用。

付費5元查看完整內容

相關內容

ChatGPT(全名:Chat Generative Pre-trained Transformer),美國OpenAI 研發的聊天機器人程序 [1] ,于2022年11月30日發布 。ChatGPT是人工智能技術驅動的自然語言處理工具,它能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,真正像人類一樣來聊天交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼,寫論文任務。 [1] //openai.com/blog/chatgpt/

《2022年國家安全戰略》和《國防戰略》明確指出,美國正處于一個決定性的十年,世界大國之間的地緣政治競爭條件將被確定。美國防部將以三種相互關聯的方式推進其優先事項--通過綜合威懾、戰役和建立持久優勢。加快技術進步和創新是通過這些戰略途徑實現美國防部優先事項的關鍵因素。美國和盟國在技術和創新方面的領先地位長期以來一直是其軍事優勢的一部分。其將采取措施保持領導地位,并對抗競爭對手。為了應對這一挑戰,《國家發展戰略》提出"廣泛而深入地改變生產和管理軍事能力的方式......為軍事優勢構建一個持久的基礎。"

根據國家發展戰略,美國國防科技企業必須 "利用美國的不對稱優勢:創業精神和多樣性和多元化的想法和技術生成系統,推動無與倫比的創造力、創新和適應性。" 通過這些不對稱的優勢,將創造、分析、測試、獲取和保護所需的知識和工具,以滿足國家發展戰略的三個戰略途徑。

在這個科學和技術戰略中,確立了競爭優勢的方式。將專注于聯合任務,以速度和規模創造和發揮能力,并確保研究和開發的基礎。

三個方面的任務:

1.關注聯合任務:投資于信息系統,并建立嚴格的、著眼威脅的分析程序,更好地使國防部在其科學和技術投資中做出明智的選擇。

2.以速度和規模創建和部署能力:培育更具活力的國防創新生態系統,加速新技術向應用領域的過渡,在國防部內外建立有效溝通。

3.確保研發的基礎:招募、保留和培養人才,振興基礎設施,提升數字基礎設施,促進利益相關各方更強有力的合作。

維護美國國家安全的三大類14個關鍵技術領域,分別是:

付費5元查看完整內容

隨著技術的飛速發展和威脅環境變得更加復雜,今天的海軍行動經常面臨著具有挑戰性的決策空間。人工智能(AI)的進步為解決海軍行動中日益復雜的問題提供了潛在的解決方案。未來的人工智能系統提供了潛在的意義深遠的好處--提高對態勢的認識,增加對威脅和對手能力和意圖的了解,識別和評估可能的戰術行動方案,并提供方法來預測行動方案決定的結果和影響。人工智能系統將在支持未來海軍作戰人員和保持作戰和戰術任務優勢方面發揮關鍵作用。

人工智能系統為海戰提供了優勢,但前提是這些系統的設計和實施方式能夠支持有效的作戰人員-機器團隊,改善作戰情況的不確定性,并提出改善作戰和戰術結果的建議。實施人工智能系統,以滿足海軍應用的這些苛刻需求,給工程設計界帶來了挑戰。本文確定了四個挑戰,并描述了它們如何影響戰爭行動、工程界和海軍任務。本文提供了通過研究和工程倡議來解決這些挑戰的解決思路。

引言

人工智能是一個包括許多不同方法的領域,目的是創造具有智能的機器(Mitchell 2019)。自動化系統的運作只需要最小的人類輸入,并經常根據命令和規則執行重復性任務。人工智能系統是自動化機器,執行模仿人類智能的功能。它們將從過去的經驗中學習到的新信息融入其中,以做出決定并得出結論。

如表1所述,人工智能系統有兩種主要類型。第一種類型是明確編程的專家系統。Allen(2020,3)將專家系統描述為手工制作的知識系統,使用傳統的、基于規則的軟件,將人類專家的主題知識編入一長串編程的 "如果給定x輸入,則提供y輸出"的規則。這些系統使用傳統的編程語言。第二種類型是ML系統,從大型數據集中進行訓練。ML系統自動學習并從經驗中改進,而不需要明確地進行編程。一旦ML系統被 "訓練",它們就被用于操作,以產生新的操作數據輸入的結果。

表1. 兩類人工智能系統

人工智能系統--包括專家系統和學習系統--為海軍提供了巨大的潛力,在大多數任務領域有不同的應用。這些智能系統可以擴展海軍的能力,以了解復雜和不確定的情況,制定和權衡選擇,預測行動的成功,并評估后果。它們提供了支持戰略、作戰計劃和戰術領域的潛力。

本文確定了工程設計界必須解決的四個挑戰,以便為未來海戰任務實施人工智能系統。表2強調了這四個挑戰領域。這些挑戰包括:(1)復雜的海戰應用領域;(2)需要收集大量與作戰相關的數據來開發、訓練和驗證人工智能系統;(3)人工智能系統工程的一些新挑戰;(4)存在對手的人工智能進展,不斷變化和發展的威脅,以及不斷變化的人工智能系統的網絡弱點。本文側重于海軍戰爭的四個挑戰領域,但認識到這些挑戰可以很容易地被概括為整個軍隊在未來人工智能系統可能應用的所有戰爭領域中廣泛存在的挑戰。

表2. 為海軍實施人工智能系統的四個挑戰領域

挑戰一:戰爭復雜性

人工智能正被視為一種能力,可應用于廣泛的應用,如批準貸款、廣告、確定醫療、規劃航運路線、實現自動駕駛汽車和支持戰爭決策。每個不同的應用領域都提出了一系列的挑戰,人工智能系統必須與之抗衡,才能成為一種增加價值的可行能力。表3比較了一組領域應用的例子,從潛在的人工智能系統解決方案的角度說明了挑戰的領域。該表在最上面一行列出了一組10個因素,這些因素對一個特定的應用程序產生了復雜性。根據每個因素對作為實施人工智能的領域的整體復雜性的貢獻程度,對六個應用領域的特征進行了定性評估。顏色代表低貢獻(綠色)、中貢獻(黃色)和高貢獻(紅色)。

表3中最上面一行顯示的特征包括: (1)認識上的不確定性水平(情況知識的不確定性程度),(2)情況的動態性,(3)決策時間表(可用于決策的時間量),(4)人類用戶和人工智能系統之間的互動所涉及的錯綜復雜的問題、 (5)資源的復雜性(數量、類型、它們之間的距離以及它們的動態程度),(6)是否涉及多個任務,(7)所需訓練數據集的復雜性(大小、異質性、有效性、脆弱性、可獲得性等 8)對手的存在(競爭者、黑客或徹頭徹尾的敵人),(9)可允許的錯誤幅度(多少決策錯誤是可以接受的),以及(10)決策后果的嚴重程度。該表的定性比較旨在提供一個高層次的相對意義,即基于一組樣本的貢獻因素,不同應用領域的不同復雜程度。

表3. 影響應用復雜性的因素比較

對于所有的應用領域來說,人工智能系統的工程都是具有挑戰性的。人工智能系統在本質上依賴于具有領域代表性的數據。獲得具有領域代表性的數據會帶來基于數據大小、可用性、動態性和不確定性的挑戰。決策時間--由情況的時間動態決定--會給人工智能系統工程帶來重大挑戰--特別是當一個應用領域的事件零星發生和/或意外發生時;以及當決策是時間緊迫的時候。具有更多決策時間、充分訪問大型數據集、直接的用戶互動、完善的目標和非致命后果的應用,如貸款審批、廣告、醫療診斷(在某種程度上)面臨工程挑戰,但其復雜程度較低。確定最佳運輸路線和為自動駕駛汽車設計AI系統是更復雜的工作。這些應用是動態變化的,做決定的時間較短。航運路線將在可能的路線數量上具有復雜性--這可能會導致許多可能的選擇。然而,航運錯誤是有空間的,而且后果通常不會太嚴重。對于自動駕駛汽車來說,決策錯誤的空間非常小。在這種應用中,決策失誤會導致嚴重的事故。

影響開發支持海戰決策的人工智能系統的因素在表3所示的所有類別中都具有高度的復雜性。因此,戰術戰爭領域對工程和實施有效的人工智能系統作為解決方案提出了特別棘手的挑戰。表4強調了導致這種復雜性的海戰領域的特點。作為一個例子,海軍打擊力量的行動可以迅速從和平狀態轉變為巨大的危險狀態--需要對威脅保持警惕并采取適當的反應行動--所有這些都是在高度壓縮的決策時間內進行。戰術威脅可能來自水下、水面、空中、陸地、太空,甚至是網絡空間,導致需要處理多種時間緊迫的任務。由于海軍和國防資產在艦艇、潛艇、飛機、陸地和太空中,戰術決策空間必須解決這些分散和多樣化資源的最佳協作使用。制定有效的戰術行動方案也必須在高度動態的作戰環境中進行,并且只有部分和不確定的情況知識。決策空間還必須考慮到指揮權、交戰規則和戰術理論所帶來的限制。人類作為戰術決策者的角色增加了決策空間的復雜性--信息過載、操作錯誤、人機信任和人工智能的模糊性/可解釋性問題等挑戰。最后,對于戰術決策及其可能的后果來說,風險可能非常大。

表4. 導致戰術決策復雜性的因素

解決高度復雜的決策領域是對海軍的挑戰。人工智能為解決海軍作戰的復雜性提供了一個潛在的解決方案,即處理大量的數據,處理不確定性,理解復雜的情況,開發和評估決策選擇,以及理解風險水平和決策后果。Desclaux和Prestot(2020)提出了一個 "認知三角",其中人工智能和大數據被應用于支持作戰人員,以實現信息優勢、控制論信心和決策優勢。約翰遜(2019年)開發了一個工程框架和理論,用于解決高度復雜的問題空間,這些問題需要使用智能和分布式人工智能系統來獲得情況意識,并做出適應動態情況的協作行動方案決定。約翰遜(2020a)建立了一個復雜的戰術場景模型,以證明人工智能輔助決策對戰術指揮和控制(C2)決策的好處。約翰遜(2020b)開發了一個預測分析能力的概念設計,作為一個自動化的實時戰爭游戲系統來實施,探索不同的可能的戰術行動路線及其預測的效果和紅色部隊的反應。首先,人工智能支持的C2系統需要描述戰術行動期間的復雜程度,然后提供一個自適應的人機組合安排來做出戰術決策。這個概念包括根據對目前戰術情況的復雜程度最有效的方法來調整C2決策的自動化水平(人與機器的決策角色)。約翰遜(2021年)正在研究這些概念性工程方法在各種防御用例中的應用,包括空中和導彈防御、超視距打擊、船舶自衛、無人機操作和激光武器系統。

在海軍作戰中實施人工智能系統的一個額外挑戰是在戰術邊緣施加的限制。分散的海軍艦艇和飛機的作戰行動構成了戰術邊緣--在有限的數據和通信下作戰。"在未來,戰術邊緣遠離指揮中心,通信和計算資源有限,戰場形勢瞬息萬變,這就導致在嚴酷復雜的戰地環境中,網絡拓撲結構連接薄弱,變化迅速"(Yang et. al. 2021)。戰術邊緣網絡也容易斷開連接(Sridharan et. al. 2020)。相比之下,許多商業人工智能系統依賴于基于云的或企業內部的處理和存儲,而這些在海戰中是不存在的。在戰術邊緣實施未來的人工智能系統時,必須進行仔細的設計考慮,以了解哪些數據和處理能力可用。這可能會限制人工智能系統在邊緣所能提供的決策支持能力。

在軍事領域使用人工智能必須克服復雜性的挑戰障礙,在某些情況下,人工智能的加入可能會增加復雜性。辛普森等人(2021)認為,將人工智能用于軍事C2可能會導致脆弱性陷阱,在這種情況下,自動化功能增加了戰斗行動的速度,超出了人類的理解能力,最終導致 "災難性的戰略失敗"。Horowitz等人(2020)討論了通過事故、誤判、增加戰爭速度和升級以及更大的殺傷力來增加國際不穩定和沖突。Jensen等人(2020)指出,人工智能增強的軍事系統增加的復雜性將增加決策建議和產生的信息的范圍、重要性和意義的不確定性;如果人類決策者對產出缺乏信心和理解,他們可能會失去對人工智能系統的信任。

挑戰二:數據需求

實施人工智能系統的第二個挑戰是它們依賴并需要大量的相關和高質量的數據用于開發、訓練、評估和操作。在海戰領域滿足這些數據需求是一個挑戰。明確編程的專家系統在開發過程中需要數據進行評估和驗證。ML系統在開發過程中對數據的依賴性甚至更大。圖1說明了ML系統如何從代表作戰條件和事件的數據集中 "學習"。

ML系統的學習過程被稱為被訓練,開發階段使用的數據被稱為訓練數據集。有幾種類型的ML學習或訓練--它們是監督的、無監督的和強化的方法。監督學習依賴于地面真相或關于輸出值應該是什么的先驗知識。監督學習算法的訓練是為了學習一個最接近給定輸入和期望輸出之間關系的函數。無監督學習并不從地面真相或已知的輸出開始。無監督學習算法必須在輸入數據中推斷出一個自然結構或模式。強化學習是一種試錯法,允許代理或算法在獎勵所需行為和/或懲罰不需要的行為的基礎上學習。所有三種類型的ML學習都需要訓練數據集。在部署后或運行階段,ML系統繼續需要數據。

圖1顯示,在運行期間,ML系統或 "模型 "接收運行的實時數據,并通過用其 "訓練 "的算法處理運行數據來確定預測或決策結果。因此,在整個系統工程和采購生命周期中,ML系統與數據緊密相連。ML系統是從訓練數據集的學習過程中 "出現 "的。ML系統是數據的質量、充分性和代表性的產物。它們完全依賴于其訓練數據集。

圖1. 使用數據來訓練機器學習系統

美國海軍開始認識到對這些數據集的需求,因為許多領域(戰爭、供應鏈、安全、后勤等)的更多人工智能開發人員正在了解人工智能解決方案的潛在好處,并開始著手開發人工智能系統。在某些情況下,數據已經存在并準備好支持人工智能系統的開發。在其他情況下,數據存在但沒有被保存和儲存。最后,在其他情況下,數據并不存在,海軍需要制定一個計劃來獲得或模擬數據。

收集數據以滿足海軍領域(以及更廣泛的軍事領域)的未來人工智能/ML系統需求是一個挑戰。數據通常是保密的,在不同的項目和系統中被分隔開來,不容易從遺留系統中獲得,并且不能普遍代表現實世界行動的復雜性和多樣性。要從并非為數據收集而設計的遺留系統中獲得足夠的數據,可能非常昂貴和費時。數據收集可能需要從戰爭游戲、艦隊演習、系統測試、以及建模和模擬中收集。此外,和平時期收集的數據并不代表沖突和戰時的操作。海軍(和軍方)還必須教導人工智能系統在預計的戰時行動中發揮作用。這將涉及想象可能的(和可能的)戰時行動,并構建足夠的ML訓練數據。

數據收集的另一個挑戰是潛在的對抗性黑客攻擊。對于人工智能/ML系統來說,數據是一種珍貴的商品,并提出了一種新的網絡脆弱性形式。對手可以故意在開發過程中引入有偏見或腐敗的數據,目的是錯誤地訓練AI/ML算法。這種邪惡的網絡攻擊形式可能很難被發現。

海軍正在解決這一數據挑戰,開發一個數據基礎設施和組織來管理已經收集和正在收集的數據。海軍的Jupiter計劃是一個企業數據和分析平臺,正在管理數據以支持AI/ML的發展和其他類型的海軍應用,這些應用需要與任務相關的數據(Abeyta,2021)。Jupiter努力的核心是確定是否存在正確的數據類型來支持人工智能應用。為了生產出在行動中有用的人工智能/ML系統,海軍需要在游戲中保持領先,擁有能夠代表各種可能情況的數據集,這些情況跨越了競爭、沖突和危機期間的行動范圍。因此,數據集的開發和管理必須是一項持續的、不斷發展的努力。

挑戰三:工程化人工智能系統

第三個挑戰是,人工智能系統的工程需要改變傳統的系統工程(SE)。在傳統系統中,行為是設定的(確定性的),因此是可預測的:給定一個輸入和條件,系統將產生一個可預測的輸出。一些人工智能解決方案可能涉及到系統本身的復雜性--適應和學習--因此產生不可預見的輸出和行為。事實上,一些人工智能系統的意圖就是要做到這一點--通過承擔一些認知負荷和產生智能建議,與人類決策者合作。表5強調了傳統系統和人工智能系統之間的區別。需要有新的SE方法來設計智能學習系統,并確保它們對人類操作者來說是可解釋的、可信任的和安全的。

SE作為一個多學科領域,在海軍中被廣泛使用,以將技術整合到連貫而有用的系統中,從而完成任務需求(INCOSE 2015)。SE方法已經被開發出來用于傳統系統的工程設計,這些系統可能是高度復雜的,但也是確定性的(Calvano和John 2004)。如表5所述,傳統系統具有可預測的行為:對于一個給定的輸入和條件,它們會產生可預測的輸出。然而,許多海軍應用的人工智能系統在本質上將是復雜的、適應性的和非決定性的。Raz等人(2021年)解釋說,"SE及其方法的雛形基礎并不是為配備人工智能(即機器學習和深度學習)的最新進展、聯合的多樣化自主系統或多領域操作的工程系統而設想的。" 對于具有高風險后果的軍事系統來說,出錯的余地很小;因此,SE過程對于確保海軍中人工智能系統的安全和理想操作至關重要。

表5. 傳統系統和人工智能系統的比較

在整個系統生命周期中,將需要改變SE方法,以確保人工智能系統安全有效地運行、學習和適應,以滿足任務需求并避免不受歡迎的行為。傳統的SE過程的大部分都需要轉變,以解決人工智能系統的復雜和非確定性的特點。在人工智能系統的需求分析和架構開發階段需要新的方法,這些系統將隨著時間的推移而學習和變化。系統驗證和確認階段將必須解決人工智能系統演化出的突發行為的可能性,這些系統的行為不是完全可預測的,其內部參數和特征正在學習和變化。運營和維護將承擔重要的任務,即隨著人工智能系統的發展,在部署期間不斷確保安全和理想的行為。

SE界意識到,需要新的流程和實踐來設計人工智能系統。國際系統工程師理事會(INCOSE)最近的一項倡議正在探索開發人工智能系統所需的SE方法的變化。表6強調了作為該倡議一部分的五個SE重點領域。除了非決定性的和不斷變化的行為,人工智能系統可能會出現新類型的故障模式,這些故障模式是無法預料的,可能會突然發生,而且其根本原因可能難以辨別。穩健設計--或確保人工智能系統能夠處理和適應未來的情景--是另一個需要新方法的SE領域。最后,對于有更多的人機互動的人工智能系統,必須仔細注意設計系統,使它們值得信賴,可以解釋,并最終對人類決策者有用。

表6.人工智能系統工程中的挑戰(改編自:Robinson,2021)。

SE研究人員正在研究人工智能系統工程所涉及的挑戰,并開發新的SE方法和對現有SE方法的必要修改。Johnson(2019)開發了一個SE框架和方法,用于工程復雜的適應性系統(CASoS)解決方案,涉及分布式人工智能系統的智能協作。這種方法支持開發智能系統的系統,通過使用人工智能,可以協作產生所需的突發行為。Johnson(2021)研究了人工智能系統產生的潛在新故障模式,并提出了一套跨越SE生命周期的緩解和故障預防策略。她提出了元認知,作為人工智能系統自我識別內部錯誤和失敗的設計方案。Cruz等人(2021年)研究了人工智能在空中和導彈防御應用中使用人工智能輔助決策的安全性。他們為計劃使用人工智能系統的軍事項目編制了一份在SE開發和運行階段需要實施的策略和任務清單。Hui(2021年)研究了人類作戰人員與人工智能系統合作進行海軍戰術決策時的信任動態。他制定了工程人工智能系統的SE策略,促進人類和機器之間的 "校準 "信任,這是作為適當利用的最佳信任水平,避免過度信任和不信任,并在信任失敗后涉及信任修復行動。Johnson等人(2014)開發了一種SE方法,即協同設計,用于正式分析人機功能和行為的相互依賴性。研究人員正在使用協同設計方法來設計涉及復雜人機交互的穩健人工智能系統(Blickey等人,2021年,Sanchez 2021年,Tai 2021年)。

數據的作用對于人工智能系統的開發和運行來說是不可或缺的,因此需要在人工智能系統的SE生命周期中加入一個持續不斷的收集和準備數據的過程。Raz等人(2021)提出,SE需要成為人工智能系統的 "數據策劃者"。他們強調需要將數據策劃或轉化為可用的結構,用于開發、訓練和評估AI算法。French等人(2021)描述了需要適當的數據策劃來支持人工智能系統的發展,他們強調需要確保數據能夠代表人工智能系統將在其中運行的預期操作。他們強調需要安全訪問和保護數據,以及需要識別和消除數據中的固有偏見。

SE界正處于發展突破和進步的早期階段,這些突破和進步是在更復雜的應用中設計人工智能系統所需要的。這些進展需要與人工智能的進展同步進行。在復雜的海軍應用以及其他非海軍和非軍事應用中實施人工智能系統取決于是否有必要的工程實踐。SE實踐必須趕上AI的進步,以確保海軍持續的技術優勢。

挑戰四:對抗性

海軍在有效實施人工智能系統方面面臨的第四個挑戰是應對對手。海軍的工作必須始終考慮對手的作用及其影響。表7確定了在海軍實施人工智能系統時必須考慮的與對手有關的三個挑戰:(1)人工智能技術在許多領域迅速發展,海軍必須注意同行競爭國的軍事應用進展,以防止被超越,(2)在海軍應用中實施人工智能系統和自動化會增加網絡脆弱性,以及(3)海軍應用的人工智能系統需要發展和適應,以應對不斷變化的威脅環境。

表7. AI系統的對抗性挑戰

同行競爭國家之間發展人工智能能力的競賽,最終是為了進入對手的決策周期,以便比對手更快地做出決定和采取行動(Schmidt等人,2021年)。人工智能系統提供了提高決策質量和速度的潛力,因此對獲得決策優勢至關重要。隨著海軍對人工智能解決方案的探索,同行的競爭國家也在做同樣的事情。最終實現將人工智能應用于海軍的目標,不僅僅取決于人工智能研究。它需要適當的數據收集和管理,有效的SE方法,以及仔細考慮人類與AI系統的互動。海軍必須承認,并采取行動解決實施人工智能系統所涉及的挑戰,以贏得比賽。

網絡戰是海軍必須成功參與的另一場競賽,以保持在不斷沖擊的黑客企圖中的領先地位。網絡戰的特點是利用計算機和網絡來攻擊敵人的信息系統(Libicki, 2009)。海軍對人工智能系統的實施導致了更多的網絡攻擊漏洞。人工智能系統的使用在本質上依賴于訓練和操作數據,導致黑客有機會在開發階段和操作階段用腐敗的數據欺騙或毒害系統。如果一個對手獲得了對一個運行中的人工智能系統的控制,他們可能造成的傷害將取決于應用領域。對于支持武器控制決策的自動化,其后果可能是致命的。海軍必須注意人工智能系統開發過程中出現的特殊網絡漏洞。必須為每個新的人工智能系統實施仔細的網絡風險分析和網絡防御戰略。海軍必須小心翼翼地確保用于開發、訓練和操作人工智能系統的數據集在整個人工智能系統的生命周期中受到保護,免受網絡攻擊(French等人,2021)。

威脅環境的演變是海軍在開發AI系統時面臨的第三個對抗性挑戰。對手的威脅空間隨著時間的推移不斷變化,武器速度更快、殺傷力更大、監視資產更多、反制措施更先進、隱身性更強,這對海軍能夠預測和識別新威脅、應對戰斗空間的未知因素構成了挑戰。尤其是人工智能系統,必須能夠加強海軍感知、探測和識別新威脅的能力,以幫助它們從未知領域轉向已知領域的過程。他們必須適應新的威脅環境,并在行動中學習,以了解戰斗空間中的未知因素,并通過創新的行動方案快速應對新的威脅(Grooms 2019, Wood 2019, Jones et al 2020)。海軍可以利用人工智能系統,通過研究特定區域或領域的長期數據,識別生活模式的異常(Zhao等人,2016)。最后,海軍可以探索使用人工智能來確定新的和有效的行動方案,使用最佳的戰爭資源來解決棘手的威脅情況。

結論

人工智能系統為海軍戰術決策的優勢提供了相當大的進步潛力。然而,人工智能系統在海戰應用中的實施帶來了重大挑戰。人工智能系統與傳統系統不同--它們是非決定性的,可以學習和適應--特別是在用于更復雜的行動時,如高度動態的、時間關鍵的、不確定的戰術行動環境中,允許的誤差范圍極小。本文確定了為海戰行動實施人工智能系統的四個挑戰領域:(1)開發能夠解決戰爭復雜性的人工智能系統,(2)滿足人工智能系統開發和運行的數據需求,(3)設計這些新穎的非確定性系統,以及(4)面對對手帶來的挑戰。

海軍必須努力解決如何設計和部署這些新穎而復雜的人工智能系統,以滿足戰爭行動的需求。作者在這一工作中向海軍提出了三項建議。

1.第一個建議是了解人工智能系統與傳統系統之間的差異,以及伴隨著人工智能系統的開發和實施的新挑戰。

人工智能系統,尤其是那些旨在用于像海戰這樣的復雜行動的系統,其本身就很復雜。它們在應對動態戰爭環境時將會學習、適應和進化。它們將變得不那么容易理解,更加不可預測,并將出現新型的故障模式。海軍將需要了解傳統的SE方法何時以及如何在這些復雜系統及其復雜的人機交互工程中失效。海軍將需要了解數據對于開發人工智能系統的關鍵作用。

2.第二個建議是投資于人工智能系統的研究和開發,包括其數據需求、人機互動、SE方法、網絡保護和復雜行為。

研究和開發是為海戰行動開發AI系統解決方案的關鍵。除了開發復雜的戰術人工智能系統及其相關的人機協作方面,海軍必須投資研究新的SE方法來設計和評估這些適應性非決定性系統。海軍必須仔細研究哪些新類型的對抗性網絡攻擊是可能的,并且必須開發出解決這些問題的解決方案。海軍必須投資于收集、獲取和維護代表現實世界戰術行動的數據,用于人工智能系統開發,并確保數據的相關性、有效性和安全性。

3.第三個建議是承認挑戰,并在預測人工智能系統何時準備好用于戰爭行動方面采取現實態度。

盡管人工智能系統正在許多領域實施,但海軍要為復雜的戰術戰爭行動實施人工智能系統還需要克服一些挑戰。人工智能系統在較簡單應用中的成功并不能保證人工智能系統為更復雜的應用做好準備。海軍應該保持一種現實的認識,即在人工智能系統準備用于戰爭決策輔助工具之前,需要取得重大進展以克服本文所討論的挑戰。實現人工智能系統的途徑可以依靠建模和模擬、原型實驗、艦隊演習以及測試和評估。可以制定一個路線圖,彌合較簡單應用的人工智能和復雜應用的人工智能之間的差距--基于一個積木式的方法,在為逐漸復雜的任務開發和實施人工智能系統時吸取經驗教訓。

海軍將從未來用于戰術戰爭的人工智能系統中獲益。通過安全和有效地實施人工智能系統,戰術決策優勢的重大進步是可能的。此外,海軍必須跟上(或試圖超越)對手在人工智能方面的進展。本文描述了為在海戰中實施人工智能系統而必須解決的四個挑戰。通過對這些新穎而復雜的人工智能系統的深入了解,對研究和開發計劃的投資,以及對人工智能技術進步時限的現實預期,海軍可以在應對這些挑戰方面取得進展。

付費5元查看完整內容

在過去的75年里,蘭德公司進行了支持美國國家安全的研究,目前為聯邦政府管理著四個聯邦資助的研究和發展中心(FFRDCs):一個為國土安全部(DHS),三個為國防部(DoD)。本文將重點評論國防部如何能夠最好地確保人工智能(AI)的進展有利于美國國家安全,而不是降低它。

在一系列廣泛的技術中,人工智能因其進展速度和應用范圍而脫穎而出。人工智能具有廣泛改變整個行業的潛力,包括對我們未來經濟競爭力和國家安全至關重要的行業。由于幾個原因,將人工智能納入我們的國家安全計劃帶來了特殊的挑戰:

  • 這些技術是由商業實體驅動的,而這些商業實體經常在國家安全框架之外。

  • 這些技術正在迅速發展,通常超過了政府內部的政策和組織改革。

  • 對這些技術的評估需要集中在私營部門的專業知識,而這些專業知識很少被用于國家安全。

  • 這些技術缺乏區分良性和惡意使用的常規情報特征。

美國目前是全球人工智能的領導者;然而,這種情況可能會改變,因為中國尋求在2030年前成為世界主要的人工智能創新中心--這是中國人工智能國家戰略的明確目標。此外,中國和俄羅斯都在追求軍事化的人工智能技術,加劇了挑戰。作為回應,將強調美國防部可以采取的四組行動:

1.確保美國防部的網絡安全戰略和網絡紅方活動跟蹤可能影響網絡防御和網絡進攻的人工智能的發展,如網絡武器的自動開發。

2.為防止不良行為者獲得先進的人工智能系統,(1)確保對領先的人工智能芯片和芯片制造設備進行強有力的出口控制,同時許可芯片的良性使用,如果需要的話,可以進行遠程節流;(2)利用國防生產法的授權,要求公司報告大型人工智能計算集群、訓練運行和訓練模型的開發或分發情況;(3) 在美國防部與云計算供應商簽訂的合同中,要求他們在訓練大型人工智能模型之前對所有客戶進行 "了解你的客戶 "篩選;(4) 在美國防部與人工智能開發商簽訂的合同中包括 "了解你的客戶 "篩選,以及強大的網絡安全要求,以防止大型人工智能模型被盜。

3.與情報界合作,大幅擴大收集和分析敵國參與人工智能的關鍵外國公共和私營部門行為者的信息,包括評估關鍵外國公共和私營實體;他們的基礎設施、投資和能力;以及他們的工具、材料和人才供應鏈。通過以下方式加強國防部開展此類活動的機構能力:(1)在美國和盟國政府機構、學術實驗室和工業公司之間建立新的伙伴關系和信息共享協議;(2)招募私營部門的人工智能專家以短期或兼職的方式為政府服務。

4.投資于人工智能安全的潛在計劃,包括(1)嵌入人工智能芯片的微電子控制,以防止開發沒有安全保障的大型人工智能模型,以及(2)在部署人工智能系統之前評估其安全性的通用方法。

付費5元查看完整內容

生成式人工智能技術,如大型語言模型,有可能徹底改變我們高等教育的教學和學習。ChatGPT是一個令人印象深刻的、易于使用的、公開訪問的系統,展示了GPT-4等大型語言模型的力量。其他類似的生成模型可用于文本處理、圖像、音頻、視頻和其他輸出-我們預計在未來幾年內,性能將大幅提高,集成到更大的軟件系統中,并得到推廣。這項技術的發展引發了大學水平教學的重大不確定性和變化。學生們會問這樣的問題:ChatGPT或其他人工智能工具如何支持我?我可以在研討會或期末論文中使用ChatGPT嗎?還是說這是作弊?我怎樣才能最好地使用ChatGPT ?還有其他方法訪問模型嗎,比如GPT-4?既然這樣的工具已經存在,我應該學習哪些技能,哪些是過時的?講師會從不同的角度問類似的問題:我應該教什么技能?我如何測試學生的能力,而不是他們提示生成AI模型的能力?我如何使用ChatGPT和其他基于生成式AI的系統來提高我的效率,甚至改善我的學生的學習體驗和結果?即使當前的討論圍繞ChatGPT和GPT-4展開,這些也只是我們可以從未來基于生成式人工智能的模型和工具中期待的先驅。因此,即使您認為ChatGPT在技術上還不成熟,但它對高等教育的影響是值得研究的。這就是白皮書的用武之地。它將ChatGPT視為利用大型語言模型的當代對話用戶界面的例子。白皮書從學生和講師的角度來看待ChatGPT。它關注高等教育的日常領域:教學課程、為考試而學習、撰寫研討會論文和論文,以及評估學生的學習成果和表現。為此,考慮ChatGPT的機會和具體應用的可能性、限制和風險,以及底層的大型語言模型。這有兩個目的:

首先,我們的目標是為個別學生和講師提供具體的例子和指導,以找到他們處理ChatGPT和類似工具的方法。 * 其次,本白皮書將為在高等教育中擁抱和包含大型語言模型或相關工具的更廣泛的組織意義過程提供信息。

**我們基于我們在信息系統、計算機科學、管理和社會學方面的經驗編寫了這篇白皮書。我們有使用生成式AI工具的實踐經驗。**作為教授、博士后、博士生和學生,我們不斷創新我們的教學和學習。全面擁抱生成型人工智能的機遇和挑戰,需要來自其他各種學科的學者(專注于高等教育的教學和法律方面)、大學管理和更廣泛的學生群體的進一步觀點。總的來說,我們對生成式人工智能模型和工具(如GPT-4和ChatGPT)有積極的看法。一如既往,有光明也有黑暗,改變是困難的。然而,如果我們對大學、學院和教師個人發布明確的指導方針,如果教師和學生有效和負責地使用這些系統,我們的高等教育系統可能會得到改善。我們看到了一個巨大的機會,如果我們接受并適當地管理變化。

付費5元查看完整內容

2023年2月21日,在國家科技圖書文獻中心(NSTL)與中國科學院文獻情報中心(以下簡稱文獻中心)共同主辦的“ChatGPT對科學研究和文獻情報工作的影響專題研討會”上,國家科技圖書文獻中心、文獻中心項目團隊匯報發布了《ChatGPT對科學研究和文獻情報工作的影響》研究報告。會后,項目組根據研討會上各專家的觀點、意見和建議,進一步修改并完善了報告內容。近日,《ChatGPT對文獻情報工作的影響》研究報告(簡版)正式發布。  《ChatGPT對文獻情報工作的影響》研究報告(簡版)由國家科技圖書文獻中心和文獻中心組織撰寫,這也是我國文獻情報界對ChatGPT現象分析和研究的報告。報告研制任務主要由國家重點研發計劃項目“科技文獻內容深度挖掘及智能分析關鍵技術和軟件”與國家社會科學基金重大項目“大數據驅動的科技文獻語義評價體系研究”的項目組完成。  報告回應了文獻情報界對ChatGPT的主要關切,從四個方面探討了ChatGPT對文獻情報工作的影響。一是從ChatGPT的對外表現、實際本質、關鍵技術、核心技術、主要特點五個方面回答ChatGPT是什么。二是分析了計算機解決問題、學習知識、開發利用知識模式的變化以及給我們帶來的啟示。三是闡述了ChatGPT作為最新人工智能技術的代表,它對文獻情報工作帶來的影響。四是提出了文獻情報領域需要守正創新,擁抱新技術與新機會的建議。

付費5元查看完整內容

在與私營和公共部門的合作中,美國國家標準技術研究所 (NIST) 制定了一個框架,以更好地管理與人工智能(AI)相關的個人、組織和社會風險。NIST人工智能風險管理框架(AI RMF)旨在自愿使用,并提高將可信度考慮納入人工智能產品、服務和系統的設計、開發、使用和評估的能力。

該框架于2023年1月26日發布,是通過一個共識驅動、公開、透明和協作的過程制定的,其中包括一個信息請求、幾個征求公眾意見的草案版本、多個研討會以及其他提供意見的機會。它的目的是建立在其他機構的人工智能風險管理工作的基礎上,并與之保持一致和支持。

NIST還出版了一本配套的NIST AI RMF Playbook以及AI RMF路線圖、AI RMF Crosswalk和各種觀點。此外,NIST還提供了一個關于AI RMF的視頻解釋器。

人工智能(AI)技術具有改變社會和人們生活的巨大潛力--從商業和健康到運輸和網絡安全,再到環境和我們的地球。人工智能技術可以推動包容性經濟增長,支持科學進步,改善我們世界的條件。然而,人工智能技術也帶來了風險,可能對個人、團體、組織、社區、社會、環境和地球產生負面影響。與其他類型的技術風險一樣,人工智能風險可以以各種方式出現,并可以被描述為長期或短期,高或低概率,系統性或局部,以及高或低影響。

雖然有無數的標準和最佳實踐來幫助組織減輕傳統軟件或基于信息的系統的風險,但人工智能系統帶來的風險在許多方面是獨特的(見附錄B)。例如,人工智能系統可能會在數據上進行訓練,這些數據會隨著時間的推移而發生變化,有時會發生重大的、意想不到的變化,以難以理解的方式影響系統功能和可信度。人工智能系統及其部署的環境經常是復雜的,這使得在發生故障時很難檢測和應對。人工智能系統本質上是社會技術性的,這意味著它們受到社會動態和人類行為的影響。人工智能的風險--和好處--可以從技術方面與社會因素的相互作用中產生,這些因素涉及一個系統如何被使用,它與其他人工智能系統的相互作用,誰在操作它,以及它被部署的社會環境。

這些風險使得人工智能在組織和社會中的部署和利用成為一種獨特的挑戰技術。如果沒有適當的控制,人工智能系統可以擴大、延續或加劇個人和社區的不公平或不良結果。通過適當的控制,人工智能系統可以減輕和管理不公平的結果。

人工智能風險管理是負責任地開發和使用人工智能系統的一個關鍵組成部分。負責任的人工智能實踐可以幫助將有關人工智能系統設計、開發和使用的決定與預期的目標和價值相一致。負責任的人工智能的核心概念強調以人為本、社會責任和可持續性。人工智能風險管理可以推動負責任的使用和實踐,促使設計、開發和部署人工智能的組織及其內部團隊更嚴謹地思考背景以及潛在或意外的消極和積極影響。了解和管理人工智能系統的風險將有助于提高可信度,并反過來培養公眾信任。

根據美國《2020年國家人工智能倡議法》(P.L. 116-283)的指示,人工智能風險管理框架的目標是為設計、開發、部署或使用人工智能系統的組織提供一種資源,以幫助管理人工智能的許多風險,促進值得信賴和負責任的人工智能系統的開發和使用。該框架的目的是自愿的、維護權利的、非特定部門的和不考慮使用情況的,為所有部門和整個社會的各種規模的組織提供靈活性,以實施該框架中的方法。

該框架旨在使組織和個人(在此稱為人工智能行為者)掌握提高人工智能系統可信度的方法,并幫助促進負責任地設計、開發、部署和使用人工智能系統的時間。經濟合作與發展組織(OECD)將人工智能行動者定義為 "在人工智能系統生命周期中發揮積極作用的人,包括部署或運營人工智能的組織和個人"[OECD (2019) Artificial Intelligence in Society-OECD iLibrary](見附錄A)。

人工智能風險管理框架的目的是實用的,隨著人工智能技術的不斷發展,適應人工智能的情況,并由各組織在不同程度和能力上進行操作,以便社會能夠從人工智能中受益,同時也受到保護,免受其潛在危害。

該框架和支持資源將根據不斷發展的技術、世界各地的標準情況以及人工智能社區的經驗和反饋進行更新、擴展和改進。NIST將繼續使AI RMF和相關指導與適用的國際標準、準則和實踐保持一致。隨著人工智能風險管理框架的投入使用,我們將吸取更多的經驗教訓,為未來的更新和額外的資源提供參考。

該框架分為兩部分。第一部分討論了各組織如何構建與人工智能相關的風險,并描述了目標受眾。接下來,分析了人工智能的風險和可信賴性,概述了可信賴的人工智能系統的特征,其中包括有效和可靠、安全、有保障和有彈性、負責任和透明、可解釋和可說明、隱私得到加強,以及公平,其有害偏見得到管理。

第二部分包括該框架的 "核心"。它描述了四個具體的功能,以幫助組織在實踐中應對人工智能系統的風險。這些功能--GOVERN、MAP、MEASURE和MANAGE--被進一步細分為類別和子類別。GOVERN適用于組織的人工智能風險管理過程和程序的所有階段,而MAP、MEASURE和MANAGE功能可以應用于人工智能系統的特定環境和人工智能生命周期的特定階段。

付費5元查看完整內容

這篇短文分析了英國在最近兩份政策文件中提出的將人工智能(AI)用于軍事目的的方法。第一部分回顧并批評了英國防部于2022年6月發布的《國防人工智能戰略》,而第二部分則考慮了英國對 "負責任的"軍事人工智能能力的承諾,該承諾在與戰略文件同時發布的《雄心勃勃、安全、負責任》文件中提出。

建立自主武器系統所需的技術曾經是科幻小說的范疇,目前包括英國在內的許多國家都在開發。由于無人駕駛飛機技術的最新進展,第一批自主武器很可能是基于無人機的系統。

英國無人機戰爭組織認為,開發和部署具有人工智能功能的自主武器將產生一些嚴重的風險,主要是在戰場上喪失人的價值。賦予機器奪取生命的能力跨越了一個關鍵的道德和法律障礙。致命的自主無人機根本缺乏人類的判斷力和其他素質,而這些素質是在動態戰場上做出復雜的道德選擇、充分區分士兵和平民以及評估攻擊的相稱性所必需的。

在短期內,自主技術的軍事應用可能是在低風險領域,如物流和供應鏈,支持者認為這些領域有成本優勢,對戰斗情況的影響最小。這些系統可能會受到人類操作員的密切監督。從長遠來看,隨著技術的進步和人工智能變得更加復雜,自主技術越來越有可能成為武器,人類監督的程度可望下降。

真正的問題也許不是自主權的發展本身,而是人類控制和使用這一技術發展的里程碑的方式。自主性提出了與人類判斷、意圖和責任有關的廣泛的倫理、法律、道德和政治問題。這些問題在很大程度上仍未得到解決,因此,對于快速推進發展自主武器系統,人們應該深感不安。

盡管自主武器系統似乎不可避免,但有一系列的措施可以用來防止其發展,如建立國際條約和規范,制定建立信任措施,引入國際法律文書,以及采取單邊控制措施。英國無人機戰爭組織認為,英國應充分參與在國際舞臺上制定這些措施。

然而,在這個時候,政府似乎希望保持其選擇的開放性,經常爭辯說,它不希望創造可能阻礙人工智能和機器人技術的基本研究的障礙。盡管如此,大量受控技術,如加密,或在核、生物和化學科學領域,可用于民事或軍事目的,而且受控時不會扼殺基礎研究。

付費5元查看完整內容

本評論討論了英國及其盟國在為國防建設可信賴的自主系統方面所面臨的一些挑戰。它是TAS政策前景審查系列的一部分,調查了圍繞設計可信賴的自主系統所出現的問題。這次審查的重點是在國防背景下對新型自主系統的信任,以及與此相關的政策問題。

自主性是什么意思?

  • 談到國防系統的自主性,這是一個程度問題,而不是一個簡單的是或不是的案例。因此,談論具有自主能力的系統(SACs)更為合適。自主性引起了許多實際問題,如SACs的可信度以及人機合作中人的參與程度和質量。

  • SAC的自主性是一個復雜的問題,由(至少)三個變量驅動:1)人類操作員和機器之間的指揮和控制關系的特點和質量;2)完全或部分委托給SAC的決策類型;以及3)SAC的復雜性、成熟度和可靠性。因此,自主權最好被理解為一個包含所有這些因素的總括性術語。

法律和道德方面的挑戰

  • 目前,英國和北大西洋公約組織(NATO)不認為SACs需要對國際法進行修訂或制定新的條約。雖然道德和法律規范可能會隨著時間的推移而變化,但目前英國政府認為,如果SAC的設計符合國際人道主義法律,那么它們的發展和部署就完全在現有法律的范圍內。

  • 雖然大多數對SACs的倫理反思提請注意將決策權下放給機器可能帶來的麻煩,但一些評論家認為SACs將更加精確并受預先定義的規則約束,因此在倫理上是可取的。

  • 雖然國防部(MOD)指出了SACs的效率提升,以及它們如何可能使服務人員免受傷害,但它們確實給政策制定者帶來了一些新的挑戰。這些挑戰包括(算法)問責制的問題和對責任侵蝕的擔憂。部署特別行動小組需要強有力的行為準則和健全、透明的決策過程。

公眾意見

  • 民意研究表明,在英國和美國,公眾對使用致命的SACs有很大的反對意見。然而,如果SACs的部署是有背景的,而不是以生死或人類的圈外決定為框架,那么公眾對SACs的反對就會大幅下降。鑒于自主系統在其他領域的擴散,如醫療保健和自主車輛,一些評論家發現公眾對自主性的接受程度總體上有所提高,這可能會蔓延到SACs領域。然而,經驗性的情況是混合的,而且可能仍然是不穩定的。

人機合作

  • 武裝部隊對SAC的信任目前還沒有得到充分發展。縮小軍隊中的信任差距需要持續的長期參與。對這一領域的經驗情況的研究嚴重不足,這限制了證據基礎。

  • 人機協作對軍事人員的教育、招募和持續培訓提出了新的要求。未來SAC的人類操作員將需要廣泛的培訓。政策制定者應從戰略上考慮招聘問題,以及武裝部隊如何在強大的私營部門競爭中吸引和保留人才。

創新

  • 在很大程度上,新的SAC技術將與新的工業伙伴合作開發,這些伙伴可能之前沒有與國防部合作的歷史。合作可能會繼續模糊公共和私人資助的研究之間的界限。2021年國防和安全工業戰略(DSIS)尋求將政府的研發和創新支出與私營部門的活動更好地結合起來。

  • 在許多情況下,SACs包含了雙重目的技術。這引起了關于發明擴散、知識產權和外國產業參與的問題,其中一些問題在2020年國家安全和投資法案(NSIB)中得到解決。

付費5元查看完整內容

人工智能商業時代即將來臨。新冠大流行加速了許多公司對快速數字化和利用人工智能增強其業務流程的需求。但是,新技術也帶來了新的責任。

這項針對100位C級數據和分析高管的全球調查揭示了專注于人工智能的高管們正在考慮和解決的復雜問題,以幫助他們的組織能夠以道德的方式實現人工智能。

調查發現強調了人工智能道德問題的真實程度。專注于人工智能的高管們可能會更加關注人工智能道德方面的問題。但對于企業在使用人工智能時所應承擔的責任方面,目前還沒有達成共識。

報告還探討了企業在開發過程中如何有效地克服人工智能模型偏差。

很少有企業有這樣的“設計倫理”方法,可以確保他們糾正人工智能定期測試中的偏差。

報告建議那些希望確保企業負責任地使用人工智能的高管們:

了解與人工智能相關的風險

開發更好的實踐以確保合規性

更加重視持續的模型監控和維護

主要發現: 65%的公司無法解釋具體的 AI 模型決策或預測是如何實現的。只有 35% 的受訪者以透明的方式使用AI并真正負起責任。

22% 的受訪者表示,他們的企業設有 AI 道德委員會。78% 的企業無法確保正確考慮使用新 AI 系統的道德影響。

78% 的受訪者發現優先考慮負責人的AI實踐很難獲得高管的支持。這表明對不負責任的AI使用所帶來的風險缺乏認識。

77% 的受訪者認為 AutoML 技術可能會被濫用。

90% 的高管同意模型監控的低效流程是其企業采用 AI 的障礙。

付費5元查看完整內容
北京阿比特科技有限公司