亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能(AI)有可能為研究人員提供加速科學發現和技術進步的工具,從而徹底改變應對人類最緊迫挑戰的能力。生成式人工智能可以在龐大的數據集和大量計算的基礎上創建內容,其變革性尤為明顯。生成式人工智能的例子包括大型語言模型、圖像生成模型和生成式科學模型。拜登總統在 2023 年 10 月 30 日發布的《關于安全、可靠地開發和使用人工智能的綜合行政命令》中,責成 PCAST 報告 "人工智能......在旨在應對重大社會和全球挑戰的研究中的潛在作用"。

通過精心設計、公平共享和負責任地使用基礎設施,人工智能將使科學家能夠應對緊迫的挑戰,包括改善人類健康和加強氣候變化時期的天氣預測。人工智能可以幫助探索長期存在的科學奧秘,激發和拓展人類的創造力,例如揭開宇宙的起源和進化。人工智能還將幫助研究人員滿足國家的持續需求,從加速半導體芯片設計到發現新材料以滿足能源需求。此外,人工智能正開始消除使科學研究變得緩慢和昂貴的障礙,例如,它提供了快速確定最佳候選藥物的方法(從而減少了昂貴的實驗室試驗數量),幫助優化實驗設計,并比人工或使用傳統數據科學方法更有效地發現數據中的聯系。如果基礎人工智能資源、經過驗證的數據以及科學工具和培訓能夠被廣泛獲取,人工智能技術就有可能實現科學知識的大眾化,將相互關聯的技術概念帶給更多的人,使不同的研究人員能夠將他們的專業知識和觀點用于應對社會和全球挑戰。

與任何其他新工具或技術一樣,要實現人工智能的潛力,就必須解決其局限性。這些問題包括:誤導性或不正確的結果、偏見或不公平的長期存在以及模型訓練數據中蘊含的模式所產生的抽樣誤差、獲取高質量訓練數據的途徑有限、保護知識產權和隱私所面臨的挑戰、訓練或部署模型或運行人工智能算法所需的大量精力,以及壞人或邪惡行為者出于惡意目的使用現成人工智能工具的風險。許多解決這些問題的公共和私營部門活動已經在進行中,包括政府根據 2023 年 10 月的人工智能行政命令所做的努力。可重復性和驗證是科學誠信和科學方法的關鍵原則,在發展負責任地使用人工智能和對人工智能應用進行專業人工監管的文化時,必須繼續高度重視。

人工智能有可能改變每一個科學學科以及進行科學研究的方式的許多方面。科學家們已經在利用人工智能創造目前還不知道如何設計的新型功能材料,其中包括超導體和熱電材料,它們不僅能提高能源效率,還能減少碳足跡。同樣,人工智能模型正在幫助研究人員為制造工藝和產品進行新的設計,并開發新的藥物療法,從而在未來實現對特定癌癥和病毒的個體化治療。人工智能模型還在幫助工程師設計半導體芯片,以更少的人力和時間做出更好的設計。在醫療保健領域,人工智能技術正在創造新的方法來分析廣泛的醫療數據,用于疾病的早期診斷,以便及時干預和發現醫療失誤。PCAST 還預測,人工智能將廣泛提供針對特定個人和疾病過程的超個性化醫療服務,其中包括詳細的病史、遺傳信息和信號,如健康和不健康細胞的行為方式。

人工智能還通過改進科學模型來改變科學。在氣候科學領域,人工智能模型正開始加強天氣預測,并推進水資源管理、溫室氣體監測和災難影響預測的全地球模型。科學家們已經利用人工智能成功預測了蛋白質的結構;新的基礎模型將揭開細胞生物學的更多秘密,并為細胞內相互作用的計算機模擬提供動力,這些模擬可用于探索新療法。人工智能模型有望幫助了解宇宙的起源,能夠通過快速模擬測試眾多宇宙學假設。這種人工智能建模甚至可以幫助科學家發現新的物理定律。

人工智能將使社會科學取得前所未有的進步,用新的定量技術補充定性方法,分析現有數據,開發和分析更新類型的數據,如智能手機上的步數、經許可從搜索和瀏覽中提取的匿名數據或社交媒體上發布的圖像。人工智能可以為使用龐大數據集的研究提供更多動力,例如聯邦統計機構長期以來收集和整理的數據集--最好輔以私營部門掌握的數據集--作為設計有效聯邦政策的輸入。將人工智能應用于這些歷史悠久的和較新的社會科學數據集,可以促進更有效、反應更迅速、更公平的數據驅動型決策和服務的提供。

以上幾個人工智能輔助研究的例子說明,通過負責任地使用人工智能技術,人類科學家將有能力實現變革性的發現。此外,PCAST 還希望,負責任地共享基礎人工智能資源將有助于科學大眾化,并應對重大的社會和全球挑戰。

在全球范圍內,將人工智能用于科學和技術研究的速度正在迅速加快,因此需要致力于在這一強大的新工具的應用方面發揮美國的領導作用。在拜登政府所做工作的基礎上,美國必須大膽而深思熟慮地采取行動,以保持在研究、人工智能的創新應用以及為安全和負責任地使用人工智能建立框架和規范方面的領先地位。在本報告中,PCAST 提出了五項具體的研究成果和行動建議,這將有助于美國充分利用人工智能的潛力。

建議概要

  • 建議 1:擴大現有工作,廣泛共享基礎人工智能資源。

廣泛支持可廣泛訪問的共享模型、數據集、基準和計算資源,對于確保學術研究人員、國家和聯邦實驗室、小型公司和非營利組織利用人工智能為國家創造效益至關重要。在美國,這方面最有希望的努力是國家人工智能研究資源(NAIRR),該資源目前是一個試點項目。PCAST 建議盡快將 NAIRR 試點項目擴大到 NAIRR 特別工作組所設想的規模,并為其提供充足資金。全面的 NAIRR,連同聯邦和州一級的行業伙伴關系和其他人工智能基礎設施努力,可作為國家或國際一級人工智能基礎設施項目的墊腳石,以促進高影響力的研究。

  • 建議 2:擴大對聯邦數據集的安全訪問,以滿足經批準的關鍵研究需求,并提供適當的保護和保障措施。

允許經批準的研究人員有限、安全地訪問聯邦數據集,并允許向諸如 NAIRR 這樣的資源中心發布經過仔細匿名處理的此類數據集,這樣做的好處是巨大的。PCAST 極力鼓勵擴大現有的安全數據訪問試點計劃,并制定聯邦數據庫管理指南,將現有的尖端隱私保護技術納入其中。利用現代人工智能技術實現此類數據集整理工作自動化的潛力巨大。PCAST 鼓勵將使用人工智能改進數據整理作為聯邦數據共享計劃(如 data.gov)的長期目標。

PCAST 支持聯邦機構要求對其資助或開展的研究中產生的數據集進行負責任的共享。鼓勵進一步執行此類任務,包括共享在聯邦資助的研究數據基礎上訓練的人工智能模型,同時提供充足的資源來支持所需的行動。

  • 建議 3:支持人工智能領域的基礎研究和應用研究,這些研究涉及學術界、產業界、國家和聯邦實驗室以及聯邦機構之間的合作,正如 NAIRR 工作組為 NAIRR 制定的愿景所概述的。

聯邦政府資助的學術研究與私營部門研究之間的界限并不清晰。許多研究人員游走于學術機構、非營利組織和/或私營公司之間,而目前所有人工智能研發(R&D)中的很大一部分是由私營公司支持的。要充分利用人工智能對科學的潛在益處,就必須支持涉及各種有前景、有成果的假設和方法的研究。這可能需要資助機構在如何與產業界合作以及哪些研究人員可以得到支持方面放寬姿態,以促進創新研究工作和不同部門之間的合作。此類合作的例子可包括從多個來源創建高質量的公共科學數據集或創建多模式基礎模型。

  • 建議 4:在科學研究過程的所有階段采用負責任、透明和可信的人工智能使用原則。

應在研究項目的初始階段就對人工智能的科學使用所產生的不準確、有偏見、有害或不可復制的研究結果的風險進行管理,而不是事后才考慮。PCAST 建議聯邦資助機構考慮更新其負責任的研究行為指南,要求研究人員制定負責任地使用人工智能的計劃。這些計劃應包括機構辦公室和委員會推薦的最佳實踐,以應對潛在的人工智能相關風險,并說明使用任何自動化流程的監督程序。為了最大限度地減少研究人員的額外行政負擔并建立負責任的文化,在列舉主要風險之后,各機構應提供風險緩解的示范流程。

與此同時,美國國家科學基金會(NSF)和國家標準與技術研究院(NIST)等機構應繼續支持負責任和可信賴的人工智能科學基礎研究。這項研究應包括制定標準基準來衡量人工智能模型的特性,如準確性、可重復性、公平性、彈性和可解釋的人工智能,以及監測自身這些特性的人工智能算法,并在基準不符合規定規范時進行調整。此類研究的另一個目標應該是開發工具,以評估數據集的偏差,并區分合成數據與真實世界的數據。

  • 建議 5:鼓勵采用創新方法,將人工智能輔助工具融入科學工作流程。

科學組織實體是一個極好的 "沙盒",可以在其中實踐、研究和評估人類與人工智能助手之間合作的新模式。目標不應該是最大限度地提高自動化程度,而是讓人類研究人員在負責任地利用人工智能輔助工具的同時,實現高質量的科學研究。

資助機構應認識到這些新工作流程的出現,并設計靈活的程序、衡量標準、資助模式和挑戰問題,鼓勵戰略性地嘗試新的人工智能輔助方式來組織和執行科學項目。這些工作流程的實施也為各種學科的研究人員提供了機會,如人為因素、工業和組織心理學等,以促進在人機協作領域的知識。

更廣泛地說,資助機構、學術界和學術出版業的激勵結構可能需要更新,以支持更廣泛的科學貢獻,如策劃高質量和廣泛可用的數據集,而傳統的研究生產力指標可能無法充分認可這些貢獻。

圖 1. 負責任地使用、共享資源和增強能力的良性循環,以利用人工智能加速科學研究。本報告從多個方面探討了這種相互作用。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

2020 年納戈爾諾-卡拉巴赫戰爭表明,無人機的作用正變得越來越關鍵,并將成為未來行動的關鍵決定因素之一。對自主平臺(包括地面和空中機器人與自主系統 [RAS])的數量和類型進行推斷,并考慮到近似對手的情況,促成了分布式協同智能系統與技術(DCIST)合作研究聯盟(CRA)的成立。這項創新計劃匯集了領先的 RAS 學術界和美國陸軍作戰能力發展司令部陸軍研究實驗室的研究人員,目的是大幅提高我們擴展 RAS 技術的能力,防止對手獲得優勢,并對抗和化解不利力量。DCIST CRA 螺旋式提升技術,展示實驗證明供他人借鑒,并培訓下一代陸軍研究人員,使 RAS 真正融入未來陸軍。本技術報告總結了截至 2020 年 9 月的技術挑戰和研究進展。

通過基礎研究,DCIST 正在探索關鍵的基礎技術和方法,以便在陸軍所有相關環境中開展 RAS 行動;提供更好的態勢感知;提高作戰人員的能力和抗干擾能力;擴大覆蓋范圍并為對手制造困境;提供兵力倍增;實現更快的決策;以及以尚待想象的方式擴展機動性。該計劃分為以下三個基于能力的研究重點和一組跨學科實驗:

分布式智能:該研究重點是多智能體的感知、通信和規劃。這些系統必須高效地共同規劃和工作,協同學習,并適應無線網絡。具體研究目標如下

  • 為分布式智能系統開發能夠實現自適應感知-行動-通信循環的知識表征。
  • 建立可實現分布式推理和決策的分層抽象表征理論。
  • 在可擴展的團隊中實現模塊化、可組合和數據高效的高效學習。

異構群體控制:這項研究的重點是控制具有不同異質性和自治程度的大型自治團隊。要想在這一領域取得進展,就必須從根本上理解和發展必要的形式主義,以便將各種機器人納入作戰和戰術團隊。這項工作以能力為導向,以實現對抗性行動的分級和分布式控制、異構多單元團隊的可擴展任務分配、復雜環境中的戰術交戰以及士兵互動。研究目標包括以下內容:

  • 可擴展團隊的控制和通信
  • 異質團隊的戰術行為
  • 與士兵的多智能體協調

自適應和彈性行為:這項研究的重點是異構團隊的穩健性和適應性,以便在面對動態智能對手和不斷變化的環境條件時,能夠抵御故障、損失和通信能力下降。一些具體的研究領域包括彈性態勢感知、用于分布式協作系統的無線通信網絡、利用異質性實現彈性、面對對手時的多代理行為,以及對大型干擾的快速適應。本重點領域的研究涉及兩個關鍵問題:

  • 如何構建算法和部署可擴展的系統,使其在競爭激烈的情況下仍能保持有效性?

  • 大型分布式智能系統如何在不犧牲穩定性或性能的情況下,對對手造成的快速變化做出反應?

跨學科研究實驗(CDE): 跨學科研究實驗(CDEs)旨在將多位主要研究人員聚集在一個實驗環境中,探索和發現各研究領域之間的相互依存關系,并通過實驗展示新的能力。CDE 包括多機器人物理實驗和三維仿真環境。這兩個 CDE 圍繞以下方面展開

  • 異構多智能體態勢感知
  • 有爭議環境中的動態團隊行動

DCIST 團隊正在探索和開發人工智能(AI)/機器學習(ML)、自主性和機器人學方面的新型算法。這些算法利用來自多個異構機器人(地面和空中)的多感官輸入來感知環境,并幫助在有爭議的環境中進行系統和子系統級的自主團隊操作。算法工作的一個關鍵方面是利用人工智能的進步,實現強大的協作自主機器人操作和行為。例如,學習多機器人規劃的通信、學習多智能體系統中的最佳資源分配、建立豐富世界感知的語義場景理解和推理、學習足夠輕量級的環境稀疏表示法以進行長距離路徑規劃和導航、學習機器人團隊的分散感知行動通信回路,以及整合學習和規劃以在復雜和敵對環境中實現彈性自主行為。

DCIST CRA 還涉及技術使能因素,如強大而有彈性的無線網絡和數據架構。這可確保始終考慮和顧及與陸軍相關的通信制約因素,包括被拒絕、斷斷續續或有限的通信。DCIST 正在探索和開發新型穩健/彈性算法,以優化異構團隊成員的通信,利用移動機器人技術在分布式行動中適應和維護通信,解決間歇性通信環境中的信息共享問題,并學習與誰通信和通信什么,以適應和優化資源和行為。這項研究對于 DCIST 計劃的跨學科實驗至關重要,在這些實驗中,多個異構智能體必須依靠網絡來可靠地交換數據。同樣,DCIST 計劃的重點是將 RAS 感知、規劃和戰術行為擴展到與陸軍相關的作戰環境中的可擴展異構團隊,同時應對現實的基礎設施限制(如無 GPS、地圖陳舊、通信受限/降級)以及任務、環境和對抗的復雜性。

在 DCIST 的頭三年中,按主要領域分列的部分重大成就如下:

分布式智能

  • 多模式和分層知識表示框架,包括度量和語義信息。一個具體的例子是 “Kimera-Multi”,這是一個分布式多機器人繪圖系統,可在有限的通信條件下實時建立環境的度量-語義模型。

  • 學習方法,這種方法可以推廣到多種任務和目標,并能在團隊的背景和約束條件下學習技能和能力,以解決異構多智能體協調問題。

  • 基于視覺的機器人導航框架,該框架可輕松推廣到現實世界的各種環境中,可在全球定位系統缺失的環境中運行,并可通過期望位置、目標地標圖像和潛在(學習的)目標表示,由人類或上游規劃算法實現簡單易用的目標指定。

  • 尊重通信約束的分布式問題數學和算法框架,在此框架下,自主智能體有望共同解決推理、學習和控制問題。

  • 規劃模型應具有層次性和可組合性,并能代表先驗知識和后天知識,以應對復雜性并提高規劃效率。

  • 推進圖神經網絡的發展,將其作為設計可用于大規模協作系統的智能體控制器的基本使能技術。

異構群體控制

  • 針對大型環境中智能體的戰略部署的理論和算法,這些環境具有動態變化的情景,涉及對抗性智能體模型和不完善/延遲通信,當面對快速移動的群對群交戰、不完善的信息交換和非理性參與者的現實時。

  • 以計算可行、分布式和自適應的方式產生足夠或 “足夠好 ”的解決方案的方法,以快速適應和重新分配任務,確保任務成功(即不等待 “最佳 ”解決方案,因為對于給定任務和環境而言,這些解決方案可能無法實現)。

  • 分析和制定團隊合作策略的方法和工具,以應對對抗性智能體的存在。

  • 改進人類如何感知和交流隨時間變化的信息的建模技術,以及人類能力建模框架,目的是在復雜環境下的團隊運作中改進人與機器人的協調。

自適應和彈性行為

  • 主動感知技術不僅能優化計算效率和信息增益,還能動態調整感知和運動,在傳感器故障、通信受阻、探測風險和/或智能體受損的情況下實現彈性態勢感知。

  • 為異構智能體團隊提供動態調整方法,以實現大規模彈性通信和移動,從而確保任務進展,并在面臨故障、中斷和損失時保持團隊的核心能力。

  • 多智能體強化學習算法,可使智能體在動態環境中或面對可能依靠欺騙或其他智能策略執行任務的對手時具有復原力。

  • 跟蹤和接觸敵方團隊的工具,同時管理戰略、執行和環境中的不確定性,適用于多機器人監視和周邊安全場景。

  • 自適應 ML 算法,通過在線學習和元學習算法,使機器人團隊能夠即時適應環境條件、任務參數和機器人狀態中不可預見的巨大快速變化。

有關這些及其他進展的詳細信息,請參閱第 3 節 “方法與結果”: 截至目前的進展和未來計劃",附錄中還包含了截至 20 財年的完整參考書目。

圖 4 學習機器人導航: ViNG 通過學習到的拓撲圖(由之前看到的以自我為中心的圖像組成)進行構建和規劃,并使用學習到的控制器來執行通往視覺指示目標的路徑。與之前的研究不同,我們的方法純粹利用離線經驗,不需要模擬器或在線數據收集。需要注意的是,算法所構建的圖并非幾何圖形,節點也與世界中的坐標無關,而僅與圖像觀測結果相關聯--自上而下的衛星圖像僅用于可視化,并不適用于此方法。

付費5元查看完整內容

人工智能(AI)和機器學習(ML)技術的進步有可能徹底改變軍事組織在日益復雜和充滿競爭的未來作戰環境中如何確定情報的優先次序、收集、處理、分析、傳播和利用情報。通過快速整合大量不同的數據集,人工智能/ML 算法可以加快傳統情報流程,快速識別相關趨勢和異常情況,并協助人類分析人員對潛在威脅和機遇做出有據可依的判斷。當海軍陸戰隊在競爭激烈的信息環境(IE)中持續作戰時,將機器生成的知識與人類的洞察力相結合的能力對于保持認知優勢至關重要。

隨著 “信息 ”被指定為第七項作戰功能,美海軍陸戰隊已認識到信息在規劃和成功實施軍事行動中的重要作用。海軍陸戰隊頂層作戰概念(MOC)進一步認識到,需要利用新興技術在所有領域成功發動信息戰。雖然已經提出了一些支持性概念來解決 IE 的各個方面,但要確定如何系統地整合 AI/ML 技術以增強現有的情報能力和流程,仍有許多工作要做。這份擬議的未來作戰概念文件探討了一些新技術和人機界面可為海軍陸戰隊情報部門帶來重大紅利的初步領域,因為這些部門在快速發展的信息環境中運作并預測變化。

作為一個具有適應和創新歷史的機構,海軍陸戰隊完全有能力在決定如何采用和整合新興人工智能和 ML 技術以支持各種軍事行動方面發揮主導作用。雖然政策辯論通常集中在人工智能是否應用于致命的自主或半自主武器上,但人工智能技術可用于許多非動能用途,在提高情報和信息行動效率的同時,也不會引起太多道德問題。雖然人工智能機器無法取代海軍陸戰隊員和其他軍人固有的智慧和決心,但人類分析師與機器之間的新合作模式可以大大提高情報分析的及時性和實用性,為未來的軍事行動提供支持。

本概念文件探討了人工智能(AI)和機器學習(ML)技術如何幫助解決在未來作戰環境中可能變得更加普遍和復雜的新興軍事問題。它描述了人工智能和 ML 應用如何增強當前的情報收集和分析流程與能力,為在這些復雜環境中工作的軍事決策者提供更快速、更有洞察力的情報支持。盡管這些技術在幫助解決挑戰方面擁有巨大潛力,但任何技術解決方案或解決方案集都不應被視為萬能藥,因為競爭對手將無情地尋求利用漏洞,而人的創造力和性格將繼續是獲得優勢和贏得未來戰斗所需的最具決定性的要素。

付費5元查看完整內容

人工智能(AI)被視為當今時代最具顛覆性的技術。科學界和商業界正在對它進行大量投資和深入研究。它已在許多小工具和設備(如手機、電腦、網絡應用服務器等)中顯示出初步的商業用途,如搜索輔助、需求預測、數據分析和驗證、建模和模擬、語言學、心理學等。谷歌、微軟和亞馬遜等商業巨頭正在利用人工智能進行消費者行為預測。自 2011 年以來,我們一直生活在被稱為 "認知時代 "的時代,因為人工智能正越來越多地融入每個人的日常生活。IBM 的沃森(Watson)可能是首個用于解決各領域問題的人工智能商業應用,于 2013 年推出。2011 年,沃森在 "危險 "游戲中擊敗了有史以來排名最高的兩位選手,從而備受矚目。此后,沃森得到了進一步改進。

據預測,人工智能將在十年左右的時間內滲透到所有主要民用系統和小工具中,形成其軟件基礎。此外,據預測,在二三十年內,人工智能將徹底改變世界的運行方式。美國(US)、歐盟(EU)和中國等主要大國、區域已經出臺了在各個領域開發、采用和推廣人工智能的政策文件和路線圖。

不同的專家對人工智能提出了不同的定義。所有這些定義都趨向于機器獲得類似人類智能的概念,通常遵循一個被稱為感知-認知-行動(或決策)信息處理循環的順序。人工智能的程序同樣遵循這一循環,即人工智能計算機感知周圍的世界,通過優化和驗證算法處理接收到的信息,并以類似于人類的方式做出行動選擇。目前,各種先進的人工智能能力正處于不同的開發和使用階段,包括自然語言處理、信息搜索、面部、物體或手勢識別、自適應學習、直觀感知、綜合推理、混合智能(人機結合智能)、集體蜂群智能、問題解決、預測和響應等。

人工智能在軍事上的應用雖然是人工智能發展的必然產物,具有巨大的潛力和優勢,但一直是一個有爭議的問題,也是科學界經常產生分歧的話題。隨著人工智能的迅猛發展及其進入軍事領域,人工智能已經在以一種重要的方式重塑軍隊的運作。可以預見,它將從根本上改變未來的戰爭和軍事行動。與此同時,由于技術的飛速發展,戰爭本身也在概念層面發生著變化。未來人工智能將如何塑造戰爭,專家學者們仍在探討。

本文旨在根據人工智能的發展軌跡以及圍繞其未來軍事用途的主要問題,確定人工智能在不久的將來--預計未來十年或二十年--在戰爭中的擴散情況。本文還為印度尋找了一種衍生工具。本文以 "人工智能系統分類 "一節開篇,帶領讀者略微深入地了解人工智能,以便客觀分析人工智能的發展和應用軌跡。非凡壯舉 "部分揭示了該技術的顛覆性。未來的表現 "一節討論了人工智能未來的發展和普及。這一部分還強調了與人工智能相關的各種問題,同時建立了對人工智能的總體認識。在 "人工智能推動戰爭 "一節中,試圖推導出人工智能將浸漬軍事系統并重塑戰爭,包括概念和條令。然后,本文重點討論了影響人工智能應用情況的一個主要問題 "不確定性談判",并從這個角度分析了人工智能在作戰空間的應用。下一節分析了與人工智能系統軍事應用相關的 "挑戰"。關于 "全球領導力競賽 "的部分強調了人工智能軍事應用的全球趨勢,隨后分析了 "印度的立場",并向印度決策者提出了一些建議。

付費5元查看完整內容

計算力(或稱 "計算")對于開發和部署人工智能(AI)能力至關重要。因此,政府和公司開始利用計算作為管理人工智能的手段。例如,政府正在投資國內計算能力,控制計算向競爭國家的流動,并對某些行業的計算訪問提供補貼。然而,這些工作只是從表面上了解了如何利用計算來管理人工智能的開發和部署。與人工智能的其他關鍵投入(數據和算法)相比,人工智能相關計算是一個特別有效的干預點:它是可檢測、可排除、可量化的,并且是通過極其集中的供應鏈生產出來的。這些特點,加上計算對尖端人工智能模型的獨特重要性,表明對計算的管理有助于實現共同的政策目標,如確保人工智能的安全和有益使用。更確切地說,政策制定者可以利用計算促進人工智能的監管可見性,分配資源以促進有益的結果,并對不負責任或惡意的人工智能開發和使用實施限制。然而,雖然基于計算的政策和技術有可能在這些領域提供幫助,但其實施的準備程度卻存在很大差異。一些想法目前正在試行,而另一些則因需要進行基礎研究而受到阻礙。此外,在隱私、經濟影響和權力集中等領域,樸素或范圍不清的計算治理方法會帶來巨大風險。最后,我們將提出一些建議,以最大限度地降低計算治理的這些風險。

圖 1:報告中的核心概念摘要。計算因其四種特性而對政策制定具有吸引力。可以利用這些特性來設計和實施政策,從而實現人工智能治理的三種關鍵能力。

在第 2 節 "人工智能能力、人工智能治理和計算概述 "中,我們提供了幾個主題的基本背景,作為后面章節的基礎。我們討論了作為人工智能發展關鍵投入的人力資本、數據、算法和計算。然后,我們描述了人工智能生命周期的各個步驟(包括設計、培訓、增強和部署)--其中每個步驟都是可能的干預點(并具有獨特的計算足跡)。我們接著討論了人工智能可能對社會產生的影響,以說明負責任治理的重要性。隨后,我們將回顧目前在治理計算方面所做的努力,以便為后面的章節提供背景資料。

在第 3 節 "為什么計算治理對決策具有吸引力 "中,將解釋計算的特點,這些特點使其成為人工智能治理的一個有吸引力的工具。這源于計算對前沿模型的獨特重要性,以及計算作為一種治理策略所具有的增強功效的若干特性。

讀者如果已經確信計算的重要性和特殊屬性,但又想知道如何將計算治理擴展到現有工作之外,可以考慮跳到第 4 節 "計算可以增強三種人工智能治理能力",在這一節中,我們將探討如何利用計算來增強關鍵的治理能力:(a)通過監控計算來提高人工智能發展的可見性;(b)改變計算的分配以實現有益的發展;以及(c)利用計算來執行人工智能相關規范和法規。

在第 5 節 "計算治理的風險與可能的緩解措施 "中,我們總結了之前關于計算治理可能存在的局限性的討論。

付費5元查看完整內容

近年來,人工智能(AI)系統有了長足的進步,其功能也在不斷擴展。特別是被稱為 "生成式模型 "的人工智能系統在自動內容創建方面取得了巨大進步,例如根據文本提示生成圖像。其中一個發展尤為迅速的領域是能夠生成原始語言的生成模型,這可能會給法律和醫療保健等多個領域帶來益處。

不過,生成式語言模型(簡稱 "語言模型")也可能存在負面應用。對于希望傳播宣傳信息--旨在塑造觀念以促進行為者利益的惡意行為者來說,這些語言模型帶來了自動創建有說服力和誤導性文本以用于影響力行動的希望,而不必依賴人力。對社會而言,這些發展帶來了一系列新的擔憂:那些試圖暗中影響公眾輿論的人可能會開展高度可擴展、甚至極具說服力的活動。

本報告旨在評估:語言模型的變化會如何塑造影響力行動,以及可以采取哪些措施來減輕這些威脅?由于人工智能和影響力行動都在迅速變化,這項任務本質上是推測性的。

作者于 2021 年 10 月召集了 30 位人工智能、影響力行動和政策分析領域的專家,討論語言模型對影響力行動的潛在影響,該研討會為報告中的許多觀點提供了參考。由此產生的報告并不代表研討會與會者的共識。

希望這份報告對那些對新興技術的影響感興趣的虛假信息研究人員、制定政策和投資的人工智能開發人員以及準備應對技術與社會交叉領域的社會挑戰的政策制定者有所幫助。

語言模型在影響力行動方面的潛在應用

分析了生成式語言模型對影響力行動三個眾所周知的方面——發起行動的行為體、作為戰術的欺騙行為以及內容本身——的潛在影響,并得出結論:語言模型可能會極大地影響未來影響力行動的發起方式。表 1 總結了這些變化。

語言模型有可能以較低的成本與人類撰寫的內容相媲美,這表明這些模型與任何強大的技術一樣,可以為選擇使用它們的宣傳者提供獨特的優勢。這些優勢可以擴大與更多行為者的接觸,實現新的影響策略,并使競選活動的信息傳遞更有針對性和潛在的有效性。

表 1:語言模型如何塑造影響力行動

1、行為體

由于生成AI文本的潛在變化

  • 涌現出更多和更多樣化的行為體。
  • 外包公司變得更加重要。

對變化的解釋

  • 隨著生成式模型降低宣傳成本,更多行為體可能會發現開展影響力行動的吸引力。
  • 自動生成文本的雇傭宣傳者可能會獲得新的競爭優勢。

2、行為

由于生成AI文本的潛在變化

  • 內容制作自動化可擴大宣傳活動的規模。
  • 現有行為變得更有效率。
  • 新策略層出不窮

對變化的解釋

  • 文本自動生成后,宣傳活動將更容易擴大規模。
  • 有了語言模型,跨平臺測試等昂貴的策略可能會變得更便宜
  • 語言模型可實現動態、個性化和實時內容生成,如一對一聊天機器人。

3、內容

由于生成AI文本的潛在變化

  • 信息更可信、更有說服力。
  • 宣傳不易被發現。

對變化的解釋

  • 與缺乏目標語言或文化知識的宣傳人員撰寫的文本相比,生成式模型可以改進信息傳遞。
  • 現有的宣傳活動經常因使用復制粘貼文本(copypasta)而被發現,但語言模型可以制作出語言獨特的信息。

影響力行動的進展和關鍵未知因素

語言模型的技術進步不可能停止,因此任何試圖了解語言模型將如何影響未來影響行動的嘗試都需要考慮到預期的進步。語言模型可能會變得更加可用(使模型更容易應用于任務)、可靠(減少模型產生明顯錯誤輸出的機會)和高效(提高應用語言模型進行影響行動的成本效益)。

這些因素促使我們做出高度自信的判斷,即語言模型在未來的影響力行動中將大有用武之地。然而,其應用的確切性質尚不明確。

有幾個關鍵的未知因素將塑造影響力行動如何以及在多大程度上采用語言模型。這些未知因素包括:

  • 哪些新的影響力能力將作為善意研究的副作用而出現?傳統的研究過程以更廣泛的語言任務為目標,其結果是產生了可應用于影響力行動的系統。未來可能會出現新的能力,如制作長篇有說服力的論據。這些新出現的能力很難通過生成模型來預測,但可以決定宣傳人員將使用語言模型來執行哪些具體任務。

  • 為影響力行動設計特定的語言模型是否比應用通用模型更有效?雖然目前大多數模型都是為通用任務或具有科學或商業價值的任務而建立的,但宣傳人員可以建立或調整模型,使其直接用于說服和社會工程等任務。例如,宣傳人員可以對一個較小、能力較弱的模型進行調整,這一過程被稱為微調。這很可能比建立一個更大、更通用的模型更便宜,盡管還不能確定會便宜多少。此外,對最先進的模型進行微調可以使宣傳者更容易獲得新的影響能力。

  • 隨著時間的推移,參與者是否會對語言模型進行大量投資?如果許多參與者都投資并創建了大型語言模型,這將增加宣傳者獲取語言模型(合法或通過盜竊)的可能性。宣傳者本身也可以投資創建或微調語言模型,納入定制數據--如用戶參與數據--以優化其目標。

  • 政府或特定行業是否會制定禁止將模型用于宣傳目的的規范?正如使用規范會限制其他技術的濫用一樣,它們也可能會限制語言模型在影響力行動中的應用。一個同意不將語言模型用于宣傳目的的國家聯盟可以讓那些不遵守的國家付出代價。在次國家層面,研究團體和特定行業可以制定自己的規范。

  • 何時才能公開提供易于使用的文本生成工具?語言模型的熟練使用仍然需要操作知識和基礎設施。易于使用的工具可以生成推文或段落長度的文本,這可能會讓缺乏機器學習知識的現有宣傳人員依賴語言模型。

由于這些關鍵的可能性可能會改變語言模型對影響力行動的影響,因此為減少不確定性而開展更多研究是非常有價值的。

如何減輕潛在威脅?

在2021 年 10 月召開的研討會的基礎上,對現有的大量文獻進行了調查、 試圖為各種可能的緩解戰略提供一個殺傷鏈框架,并對其類型進行調查。目的不是認可具體的緩解策略,而是展示緩解策略如何針對影響力行動流水線的不同階段。

表 2:緩解措施實例摘要

宣傳者的要求

1.能夠生成真實文本的語言模型

2.可靠地獲取此類模型

3.分發生成內容的基礎設施

4.易受影響的目標受眾

干預階段

1.模型設計與制作

2.模型接入

3.內容傳播

4.信念形成

說明性的緩解措施

1.1 人工智能開發人員建立對事實更敏感的模型
1.2 開發人員傳播擴散性數據,使生成模型可被檢測到
1.3 對數據收集施加限制
1.4 對人工智能硬件實施訪問控制
2.1 人工智能供應商對語言模型實施更嚴格的使用限制
2.2 人工智能開發者圍繞模型發布制定新規范
3.1 平臺和人工智能供應商協調識別人工智能內容
3.2 平臺要求發布"個人身份證明"
3.3 依賴公眾意見的實體采取措施減少誤導性人工智能內容的風險
3.4 數字出處標準得到廣泛采用
4.1 機構參與媒體掃盲運動
4.2 開發人員提供以消費者為中心的人工智能工具

上表表明,沒有什么靈丹妙藥能徹底消除影響力行動中語言模型的威脅。一些緩解措施可能在社會上不可行,而另一些則需要技術突破。還有一些可能會帶來不可接受的負面風險。相反,要有效減輕威脅,很可能需要一種結合多種緩解措施的全社會方法。

此外,有效的管理還需要不同機構之間的合作,如人工智能開發者、社交媒體公司和政府機構。只有這些機構通力合作,許多建議的緩解措施才能產生有意義的影響。除非社交媒體公司能與人工智能開發人員合作,將文本歸屬于某個模型,否則他們很難知道某個虛假信息活動是否使用了語言模型。最激進的緩解措施--比如在互聯網協議中加入內容出處標準--需要極度的協調,如果它們是可取的話。

也許最重要的是,強調的緩解措施需要更多的開發、審查和研究。對其有效性和穩健性的評估值得認真分析。

圖 4:人工智能賦能的影響力行動的干預階段。為了阻止宣傳者利用語言模型實施影響力行動,可針對以下四個階段采取緩解措施:(1) 模型設計與構建;(2) 模型獲取;(3) 內容傳播;(4) 信念形成。最終,在這些階段進行干預可減輕影響行動的直接和間接影響。

付費5元查看完整內容

由于多種因素的影響,自動機器學習(AutoML)這些年一直在快速發展,數據科學家需要創建機器學習管道原型來決定如何進行解決,并為非專業人士提供解決方案。已經創建了一些AutoML框架,但它們受到能解決的問題類型、機器學習原語的數量、管道表示語言和嚴格數據描述的限制。這些限制大多是由相當大的工程量造成的。D3M項目旨在擴大AutoML的范圍,提供創建AutoML系統所需的工具,使其能夠解決超出大部分框架的問題類型,并為用戶提供工具,使機器學習工具不需要太多的專業知識。此外,該項目還致力于實現AutoML組件的標準化,以便對不同的框架進行公平的比較,并通過開源共享該項目期間創建的基礎設施來幫助研發界改善該領域。

本文在D3M上的工作主要集中在兩個方面:在D3M小組內創建標準化AutoML工具,以及創建具有不同目的的AutoML系統和框架。在這份報告中,將介紹對該項目的主要貢獻以及AutoML系統的演變。在該項目中,創建了評估AutoML系統的工具,開發了三個AutoML系統,開發了被多個系統廣泛使用的原型,設計了測試原型的自動化框架,并通過創建AutoKeras對AutoML研發界產生了巨大影響。

付費5元查看完整內容

"可預測性 "和 "可理解性 "被廣泛認為是人工智能系統的重要品質。簡單地說:這種系統應該做他們被期望做的事情,而且他們必須以可理解的理由這樣做。這一觀點代表了關于致命性自主武器系統(LAWS)和其他形式軍事人工智能領域新興技術辯論的許多不同方面的一個重要共同點。正如不受限制地使用一個完全不可預測的致命性自主武器系統,其行為方式完全無法理解,可能會被普遍認為是不謹慎的和非法的,而使用一個完全可預測和可理解的自主武器系統--如果存在這樣的系統--可能不會引起許多核心的監管問題,這些問題是目前辯論的基礎。

這表明,最終為解決致命性自主武器系統和其他形式的人工智能在軍事應用中的使用而采取的任何途徑,都必須考慮到有時被稱為人工智能的 "黑盒困境"。事實上,遵守現有的國際人道主義法(IHL),更不用說假設的新法律,甚至可能取決于具體的措施,以確保致命性自主武器系統和其他軍事人工智能系統做他們期望做的事情,并以可理解的理由這樣做。然而,在關于致命性自主武器系統和軍事人工智能的討論中,可預測性和可理解性尚未得到與如此重要和復雜的問題相稱的那種詳細介紹。這導致了對人工智能可預測性和可理解性的技術基礎的混淆,它們如何以及為什么重要,以及可能解決黑匣子困境的潛在途徑。

本報告試圖通過提供有關這一主題的共同知識基線來解決這些模糊不清的問題。第1節和第2節解釋了說一個智能系統是 "可預測的 "和 "可理解的"(或者相反,是 "不可預測的 "和 "不可理解的")的確切含義,并說明有各種類型的可理解性和可預測性,它們在重要方面有所不同。第3節描述了可預測性和可理解性將成為致命性自主武器系統和其他軍事人工智能在其開發、部署和使用后評估的每個階段的必要特征的具體實際原因。第4節列出了決定每個階段所需的適當水平和類型的可預測性和可理解性的因素。第5節討論了為實現和保證這些水平的可預測性和可理解性可能需要的措施--包括培訓、測試、標準和可解釋人工智能(XAI)技術。結論是為政策利益相關者、軍隊和技術界提出了進一步調查和行動的五個途徑。

本報告的主要要點

  • 人工智能的不可預測性有三種不同的意義:一個系統的技術性能與過去的性能一致或不一致的程度,任何人工智能或自主系統3的具體行動可以(和不能)被預期的程度,以及采用人工智能系統的效果可以被預期的程度。

  • 可預測性是一個系統的技術特征、系統所處的環境和對手的類型以及用戶對它的理解程度的函數。

  • 可理解性是基于一個系統內在的可解釋性以及人類主體的理解能力。一個智能系統可以通過多種方式被 "理解",并不是所有的方式都建立在系統的技術方面或人類的技術素養之上。

  • 可預測性不是可理解性的絕對替代品,反之亦然。高可預測性和高可理解性的結合,可能是安全、謹慎和合規使用復雜的智能或自主軍事系統的唯一最佳條件。

  • 可預測性和可理解性是自主武器和其他形式的軍事人工智能的必要品質,這在其整個開發、使用和評估過程中有著廣泛的原因。

  • 這些系統中可預測性和可理解性的適當水平和類型將因一系列因素而大不相同,包括任務的類型和關鍵性、環境或輸入數據的種類,以及評估或操作系統的利益相關者的類型。

  • 在軍事人工智能系統中實現并確保適當的可預測性和可理解性的潛在方法可能會涉及與培訓、測試和標準有關的工作。建立XAI的技術研究工作也提供了一些希望,但這仍然是一個新的領域。

付費5元查看完整內容

學習解決順序決策任務是困難的。人類花了數年時間,基本上以一種隨機的方式探索環境,直到他們能夠推理,解決困難的任務,并與他人合作實現一個共同的目標。人工智能智能體在這方面和人類很像。強化學習(RL)是一種眾所周知的通過與環境的交互來訓練自主智能體的技術。遺憾的是,學習過程具有很高的樣本復雜性來推斷一個有效的驅動策略,特別是當多個智能體同時在環境中驅動時。

然而,以前的知識可以用來加速學習和解決更難的任務。同樣,人類通過關聯不同的任務來構建技能并重用它們,RL代理可能會重用來自先前解決的任務的知識,以及來自與環境中其他智能體的知識交換的知識。事實上,目前RL解決的幾乎所有最具挑戰性的任務都依賴于嵌入的知識重用技術,如模仿學習、從演示中學習和課程學習。

本書概述了多agent RL中關于知識重用的文獻。作者為重用知識定義了最先進的解決方案的統一分類,提供了該領域最近進展的全面討論。在這本書中,讀者將發現關于知識在多智能體順序決策任務中重用的許多方法的全面討論,以及在哪些場景中每種方法更有效。作者還提供了他們對該地區目前低垂的發展成果的看法,以及仍然開放的大問題,可能導致突破性的發展。最后,本書為想要加入這一領域或利用這些技術的研究人員提供了資源,包括會議、期刊和實現工具的列表。

這本書將對廣大讀者有用;并有望促進社區間的新對話和該地區的新發展。

//www.morganclaypool.com/doi/10.2200/S01091ED1V01Y202104AIM049

付費5元查看完整內容

終身機器學習(LL)是一種先進的機器學習(ML)范式,它不斷學習,積累過去學到的知識,并使用/適應它來幫助未來的學習和問題解決。在這個過程中,學習者變得越來越有知識,學習能力也越來越強。這種持續不斷的學習能力是人類智力的特征之一。然而,目前占主導地位的ML范式是孤立學習的:給定一個訓練數據集,它只在數據集上運行ML算法來生成模型。它不試圖保留所學的知識,并在以后的學習中使用。雖然這種主要基于數據驅動優化的孤立ML范式已經非常成功,但它需要大量的訓練示例,并且只適用于封閉環境中定義明確的狹窄任務。相比之下,我們人類學習有效地與幾個例子,在動態和開放的世界self-supervised方式或環境因為我們的學習也非常知識:知識學習在過去幫助我們學習新事物沒有數據或努力和適應新的/看不見的情況下。這種自我至上(或自我意識)的學習也使我們能夠在工作中,在與他人的互動中,在沒有外部監督的情況下,與現實世界的環境進行學習。LL的目標是實現所有這些能力。諸如聊天機器人、無人駕駛汽車或任何與人類/物理環境交互的人工智能系統都需要這些功能,因為它們需要應對動態和開放的環境,這讓它們別無選擇,只能不斷學習新東西,以便更好地工作。如果沒有LL能力,AI系統就不能被認為是真正智能的,也就是說,LL是智能或AGI(人工一般智能)所必需的。(見我的終身學習研究頁面)。

//www.cs.uic.edu/~liub/lifelong-machine-learning.html

付費5元查看完整內容
北京阿比特科技有限公司