亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

隨著自主系統日益滲透到關鍵社會領域,確保人工智能(AI)的負責任使用已成為當務之急。然而,“可信AI”這一概念依然廣泛且多維。本論文在AI系統的安全性、公平性、透明性與可問責性方面推進了相關研究。 在安全性方面,我們擴展了經典的確定性屏蔽技術,使其具備對延遲觀測的魯棒性,從而支持在現實世界條件下的實際部署。同時,我們將確定性與概率性安全屏蔽機制應用于仿真自動駕駛車輛,以防止與道路使用者發生碰撞,并在逼真的駕駛模擬環境中驗證了這些技術的有效性。 在公平性方面,我們提出了“公平性屏蔽”(fairness shields)這一新穎的后處理方法,用于在有限或周期性時間范圍內的序貫決策場景中強制實現群體公平。該方法在嚴格滿足公平性約束的前提下,優化干預成本,實現在最小干預下的公平性保障。 針對透明性與可問責性,我們提出了一個評估概率性決策智能體意圖行為的形式化框架,并引入了智能體性指標(agency)與意圖商(intention quotient)等定量度量。我們利用這些指標設計了用于事后分析意圖的方法,有助于在自主系統造成非預期傷害時厘清其責任歸屬。 最后,我們通過“反應式決策”(reactive decision-making)框架將上述貢獻統一起來,提出了一種能夠整合現有方法的通用形式化建模方式。總體而言,本論文所提出的多項進展在實現更安全、公平、可問責的AI系統方面具有現實意義,也為可信AI的后續研究奠定了基礎。

付費5元查看完整內容

相關內容

博士論文是由攻讀博士學位的研究生所撰寫的學術論文。它要求作者在博士生導師的指導下,選擇自己能夠把握和駕馭的潛在的研究方向,開辟新的研究領域。由此可見,這就對作者提出了較高要求,它要求作者必須在本學科的專業領域具備大量的理論知識,并對所學專業的理論知識有相當深入的理解和思考,同時還要具有相當水平的獨立科學研究能力,能夠為在學科領域提出獨創性的見解和有價值的科研成果。因而,較之學士論文、碩士論文,博士論文具有更高的學術價值,對學科的發展具有重要的推動作用。

本論文聚焦于序貫決策與自適應實驗設計中的基本挑戰,提出了具有堅實理論基礎的算法,并在樣本復雜度與實際性能上均取得了顯著提升。我們的研究貢獻主要分為兩個方面:用于學習的新型采樣機制,以及面向因果推斷的自適應方法。 第一個方面關注于提升學習效率的采樣策略,適用于不同問題場景。我們提出了多臂老虎機中的遷移學習算法,該算法能夠基于源任務與目標任務之間的觀測相似度,自適應地調整知識遷移程度,并提供理論保證,使得算法能夠在“完美遷移”與“從零學習”之間平滑過渡。我們還將偏好學習中的主動探索形式化為一個上下文對決老虎機問題,并基于再生核希爾伯特空間(RKHS)方法設計了具有多項式遺憾界的算法,其應用包括基于人類反饋的強化學習與直接偏好優化。

第二個方面著重于高效因果推斷的自適應實驗設計方法。我們提出了 截斷二階矩跟蹤(Clipped Second Moment Tracking) 算法,該算法在有限樣本遺憾上實現了指數級改進,將依賴從 O(√T) 降低至 O(log T),同時保持對問題參數的多項式依賴。我們還提出了 樂觀策略跟蹤(Optimistic Policy Tracking) 方法,該方法通過原則化的樂觀設計有效利用漸近最優的 增廣逆概率加權(AIPW)估計器,展示了如何將多臂老虎機理論中的方法成功遷移到因果推斷領域。 在整個研究中,我們強調了漸近性能與有限樣本性能之間的差距,并提出了既能提供理論保證又能帶來實際改進的算法方法。本論文的貢獻推動了序貫決策領域的最新進展,通過彌合理論與實踐的鴻溝,在包括臨床試驗、在線實驗以及人機交互等多個重要應用領域取得了突破。

付費5元查看完整內容

機器學習(ML)系統正日益部署在高風險領域中,在這些場景下,可靠性至關重要。隨著這些系統從研究原型走向真實世界的決策角色,它們識別并響應不確定性的能力變得尤為關鍵。本論文探討了不確定性估計如何提升機器學習的安全性與可信度,重點關注選擇性預測這一范式——在模型置信度較低時主動放棄預測。

我們首先展示,模型的訓練軌跡中蘊含著可用于不確定性估計的豐富信號,而無需修改模型架構或損失函數。通過集成訓練過程中的中間檢查點預測結果,我們提出了一種輕量級、事后(post-hoc)棄答機制,能夠識別不可靠預測。該方法可適用于分類、回歸和時間序列任務,可直接疊加在已有模型之上,避免了深度集成(deep ensembles)帶來的高額訓練成本,同時保留了其大部分效果。在多個選擇性預測基準任務上,該方法達到了當前最優性能,為那些重新訓練成本高昂或受限的場景提供了實用方案。 這種被動、事后的方法還天然滿足數據隱私這一可信 AI 的關鍵要求。由于僅需觀察訓練軌跡,我們的方法可與差分隱私(DP)等形式化隱私保障完全兼容。這一獨特優勢使我們能夠研究一個重要的權衡問題:隱私約束會如何影響模型估計自身不確定性的能力?我們發現,許多常規方法在 DP 噪聲下性能退化,產生不可靠的置信度評分;相比之下,我們基于軌跡的方法保持穩健。為公平評估這一權衡,我們提出了一個新框架,可隔離隱私對不確定性質量的影響,從而更有意義地比較隱私敏感場景下的選擇性預測方法。 這些結果引出了對選擇性預測性能理論極限的探討。我們提出了有限樣本下的選擇性分類差距分解(selective classification gap decomposition)——即模型精度–覆蓋率曲線偏離理想(oracle)曲線的分解,并識別出五類關鍵誤差來源:貝葉斯噪聲、近似誤差、排序誤差、統計波動和殘差項。該分解揭示了可以縮小差距的杠桿(如校準、模型容量、額外監督),并解釋了為什么單純的事后校準無法消除排序缺陷,從而激發了基于更可靠不確定性信號的預測重排序方法。

這一分析為診斷并修復模型的良性誤差來源提供了藍圖。然而,它假設模型的不確定性信號雖有缺陷,但仍然真實反映了其內部狀態。這促使我們進一步研究當不確定性信號被惡意篡改以誤導下游決策時會發生什么。我們展示了,排序和校準機制本身可能被對手操控,在特定區域或特定用戶群體中人為增加不確定性,從而在保持高預測性能的同時實現隱蔽的拒絕服務。這類攻擊直接利用了我們識別的誤差來源,且難以通過標準評估檢測。為此,我們提出防御方案,將校準審計與可驗證推理相結合,以驗證棄答是否源于真實的不確定性,從而保障其完整性。這一發現突顯了一個更廣泛的觀點:可信 ML 不僅依賴于高質量的不確定性估計,還必須防范其被操縱。 綜上所述,本論文系統研究了不確定性的估計、評估與防護路徑,推動構建更可靠的機器學習系統。最終,所得到的系統不僅能做出準確預測,還能在必要時果斷地說:“我不知道”。

付費5元查看完整內容

持續學習依然是機器學習領域的一項長期挑戰。成功實現持續學習需要不斷吸收新的知識,同時保留仍然有用的舊知識。在本論文中,我們提出了一種連貫的持續學習目標:在每個時間步受到計算資源限制的前提下,最大化無限時域平均回報。這一框架使我們能夠系統性地分析持續學習智能體的設計與評估,超越僅僅依賴準確率保持或可塑性等零散指標的方法。 論文的第一部分聚焦于基礎工具與理論視角的構建,包括:對智能體狀態的信息論建模、智能體容量的量化方法,以及持續學習中穩定性–可塑性權衡的形式化定義。第二部分則提出了多種新算法:一種用于緩解神經網絡可塑性退化的再生式正則化方法;Conformal Sympow——一種基于Transformer的模型,借助學習型門控與數據依賴旋轉機制,實現了高效的長上下文推理;以及一種以多樣性驅動的強化學習方法,使智能體具備對環境擾動的少樣本魯棒性。

綜上,這些工作有助于將持續學習確立為一個有原則、可操作的機器學習子領域,推動理論與實踐的融合。

付費5元查看完整內容

機器學習有望在科學、工業和社會等眾多領域產生深遠影響。盡管當前的人工智能(AI)系統仍普遍依賴人類監督,未來的應用將越來越多地要求系統具備高度自治能力。要實現這一轉變,我們必須能夠信任這些日益龐大的模型的行為。為此,本論文圍繞三個關鍵研究方向展開:安全性、魯棒性與可解釋性。 我們首先聚焦于強化學習(Reinforcement Learning, RL)模仿學習(Imitation Learning, IL)中的安全問題。盡管學習得到的策略在性能上取得了顯著成果,但它們在訓練過程中的探索行為及測試階段環境的變化,常常會導致不安全的決策。為此,我們提出了一種基于模型預測控制(Model Predictive Control, MPC)的安全引導機制,可在用戶指定約束條件下,對基礎 RL 策略的動作進行修正。通過合理的優化建模與損失函數設計,我們從理論上證明了最終優化得到的基礎策略在最優點上具有可證明的安全性。 針對 IL 中獨有的因果混淆(causal confusion)問題,即觀測數據與專家行為之間存在虛假相關,進而可能在部署時引發不安全行為,我們引入結構因果模型(Structural Causal Models, SCMs)的工具來識別并屏蔽存在問題的觀測信息。與此前需依賴專家反饋或專家獎勵函數的做法不同,我們的方法僅需實驗者能對初始狀態進行干預這一更為現實的假設。 論文第二部分關注如何增強分類器對抗擾動下的魯棒性。分類器是眾多 AI 系統的核心組件,但實驗表明其對輸入中的微小擾動極為敏感。我們首先擴展了隨機平滑(randomized smoothing)方法的適用性,從傳統各向同性認證推廣至數據流形子空間的投影,從而在認證體積上獲得數量級的提升。隨后,我們從更基礎的層面重新審視魯棒性問題,提出了非對稱魯棒認證(asymmetric certification)框架。在該二分類場景下,我們僅要求模型在某一特定類別上具備認證魯棒性,符合現實中對抗者主要關注產生“假陰性”(false negatives)的實際需求。我們進一步引入一類特征凸(feature-convex)結構,從而實現高效、確定性、封閉形式的認證半徑計算。 論文的第三部分探討了模型可解釋性的兩個方面:一是大型語言模型(LLMs)如何決定向人類用戶推薦什么,二是如何構建結構上可解釋的學習模型。我們首先分析了對話式搜索引擎中 LLM 對消費產品排序的行為,結果表明,模型在優先考慮產品名稱、網站內容及輸入上下文位置方面存在顯著差異。最后,我們提出了一類新的可解釋模型——結構傳輸網絡(Structural Transport Nets),用于那些潛在表示具備數學結構的領域。通過學習一個到“鏡像代數結構”的雙射映射,我們能夠在潛在空間中執行滿足原始輸入空間代數規律的操作。實驗表明,遵守底層代數規律對于學習準確且自洽的表示操作至關重要。

付費5元查看完整內容

隨著自動化系統的發展,機器學習正日益融入決策過程,并在諸如簡歷篩選、投資組合配置、貸款風險評估和保險審批等應用中為人類決策者提供支持。在本論文中,我探討了將機器學習與決策過程結合時所面臨的各類挑戰,重點關注數據偏差、魯棒性、公平性、異構數據源以及面向決策的建模等問題。在每一章中,我從不同角度研究這些問題,并提出相應的定制算法加以解決。 論文的第一部分聚焦于面向決策的訓練,即在預測模型訓練過程中將最終決策結果納入優化目標。研究表明,端到端學習問題的最優解對應于能引導至貝葉斯最優行為的預測結果。 第二部分則轉向處理預測系統輸出對人類生活產生實際影響的情形,特別是與公平性相關的問題。關于公平性的第一章研究了集中式環境下的群體公平(Group Fairness),并提出了一種包含無偏梯度估計的公平性正則項。這一方法簡化了收斂速率和泛化誤差界的構建,為在群體公平至關重要的現實應用中提供了一種可擴展的保障手段。 另一個與人類相關的數據問題是,出于隱私考慮,這些數據通常無法集中傳輸至服務器。第二章在此基礎上,將公平學習方法擴展至聯邦學習環境,其中不同客戶端持有數據集的不同部分。基于函數追蹤機制,該章節提出了一種適用于全局層面的群體公平性正則項,可與現有多數聯邦學習算法結合使用,且在計算與通信開銷方面要求較低。 論文的最后一部分再次回到決策問題,提出了一種方法,用于在目標領域中整合來自不同(可能存在偏差的)參考分布的信息以做出決策。該方法通過在各個參考分布周圍構造最優傳輸球(Optimal Transport Balls),并對其交集進行優化,從而使決策者能夠在所有參考分布一致的最壞情況分布下做出魯棒決策。 關鍵詞:機器學習、優化、面向決策的學習、公平學習、分布式魯棒優化

付費5元查看完整內容

實現真實世界中的機器人安全不僅僅意味著規避風險,更在于有效地識別、管理并應對風險。

本論文提出了一種面向風險感知決策與行為建模的安全保障體系(Safety Case),適用于復雜的多智能體環境,例如航空和自動駕駛等應用場景。我們認為,真正的安全性源自智能體以下能力:預測不確定性、推理他者意圖,并在由先驗知識、行為規范、社會語境及歷史經驗所界定的操作邊界內行動。 為了實現安全且可解釋的決策過程,本研究將**蒙特卡洛樹搜索(MCTS)邏輯規范(logic specification)相結合,整合進學習策略中,以提升單智能體和多智能體場景下的規則遵循能力。我們提出了一種基于歸納邏輯編程(Inductive Logic Programming, ILP)**的符號規則挖掘方法,可從軌跡數據與事故報告中提取可解釋的行為約束。

針對分布外風險(out-of-distribution risk),我們設計了一個融合框架,將**神經模仿學習(neural imitation learning)符號規則系統(symbolic rule-based systems)結合,提升泛化與安全性。此外,為緩解模型偏差帶來的風險,我們探討了結合檢索增強生成(Retrieval-Augmented Generation, RAG)**與事故報告的方式,以實現復雜環境下基于真實數據的行動裁決(action arbitration)。 在航空領域的真實行為學習方面,我們構建并發布了三個關鍵數據集: * TrajAir:一個面向社交空中導航的軌跡數據集; * TartanAviation:一個用于意圖推理的時間同步多模態數據集; * Amelia-48:覆蓋美國多個機場的大規模地面滑行數據集,用于空中交通管理中的預測分析任務。

綜上所述,本論文提出的理論框架、方法工具及數據集資源,支持自主系統在不確定性環境中推理、多元先驗整合復雜真實世界中的穩健運行

付費5元查看完整內容

深度神經網絡,尤其是大語言模型(LLMs),在廣泛的任務中展現了顯著的成功;然而,其訓練過程計算密集,需要大量的數據和計算資源。即使是對預訓練的LLMs進行特定任務的微調,也常常帶來顯著的計算成本。本論文從凸優化的視角出發,推進了對神經網絡的理論理解和實際優化。我們首先提出了一個基礎性結果:兩層ReLU網絡的正則化訓練問題可以重新表述為凸優化問題。這種凸優化公式化闡明了優化景觀,刻畫了所有全局最優解和Clarke穩定點,并將模型性能與超參數選擇解耦。借鑒壓縮感知中最稀疏線性模型的恢復,我們證明了過參數化神經網絡本質上學習能夠有效解釋數據的簡單模型,并通過在隨機生成數據集中觀察到的相變現象支持了這一結論,從而確立了其卓越的泛化能力。將強對偶性概念擴展到深層網絡,我們提出了一種并行架構,能夠在修改正則化的情況下實現全局最優訓練,同時也為標準架構中非零對偶間隙的存在提供了見解。通過將正則化ReLU網絡的訓練與NP難問題Max-Cut聯系起來,我們嚴格分析了訓練到全局最優的計算復雜度,得出了NP難證明,并為特定類型的數據集開發了高效的多項式時間近似算法。即使在缺乏顯式正則化的情況下,梯度流的隱式正則化也會驅動收斂到非凸最大間隔問題的全局最優解。我們通過利用隨機幾何代數對大語言模型(LLMs)進行微調,展示了凸優化的實際應用。我們進一步通過凸幾何和對偶視角分析了用于訓練兩層ReLU網絡的非凸次梯度流,表明其隱式偏差與凸正則化一致,并在對偶變量滿足特定條件時證明了其收斂到全局最優解。最后,我們提出了一種半定規劃(SDP)松弛方法,用于近似具有平方ReLU激活的兩層網絡中的Wasserstein梯度,確保在特定條件下的緊密松弛,并展示了其在貝葉斯推斷和COVID-19參數估計中的有效性。這些發現填補了關鍵的理論空白,并引入了具有深遠意義的創新方法,推動了我們對神經網絡訓練過程的理解。

付費5元查看完整內容

通過代碼數據學習來解決軟件任務的編程工具在提升開發人員生產力方面展現了早期的潛力。然而,這些工具在魯棒性方面以及它們對軟件安全性和可靠性的最終影響上仍然存在顯著差距——這些問題甚至對經驗豐富的開發人員來說仍是挑戰。本論文旨在從安全性和可靠性的角度推動代碼機器學習領域的發展。我們提出了訓練機器學習模型的新技術,以使其具備強大的推理能力,能夠處理與安全性和可靠性相關的問題。 我們首先介紹了利用監督學習信號來增強程序分析的方法。作為這一方法的實例,我們提出使用模仿學習框架,從符號執行中學習一個有效且快速的模糊測試器。首先,符號執行專家為大量程序生成高質量輸入數據集。然后,利用該數據集訓練一個神經網絡模糊測試器,使其模仿專家的行為。訓練好的模糊測試器隨后被部署以測試新程序。

此外,我們研究了分布漂移問題,這是阻礙深度學習模型在現實場景中有效檢測漏洞的關鍵問題。分布漂移發生在訓練和評估所用的數據集與實際遇到的漏洞分布不一致時。為了解決這個問題,我們提出了一種兩階段的訓練方法。首先,模型在大量的合成漏洞上進行訓練,然后進一步在一個更接近實際漏洞分布的數據集上進行訓練。 最后,我們從兩個互補的角度探討了代碼生成中的安全性問題。我們不僅尋求改進生成安全代碼的能力,還研究了從對抗角度降低安全級別的可能性。為實現這些目標,我們提出了一個統一的微調框架,采用專門的優化目標,既優化安全性又保持模型生成功能性正確代碼的能力。

付費5元查看完整內容

在過去的十年里,經典機器學習與現代機器學習之間的差距不斷擴大。現代學習的預測性能不可比擬地更好,但更容易對經典學習進行分析,并保證其安全性、效率、公平性等特性。在本論文中,我探討了通過審慎和戰略性地結合經典技術,是否有可能將這些期望的特性恢復到現代機器學習中。我將經典與現代學習的結合歸納為兩種高級策略:(1)封裝,即通過經典分析技術從現代的、不透明的模型中提取可靠的性能保證,或(2)替換,即從經典的基礎構建現代模型的某些組件,以提高整體的效率、可處理性和/或表達能力。這些努力在機器學習的多個領域帶來了新的進展。本論文的最重要貢獻涉及元分析,這是一種結構化的問答形式,作為循證醫學的基礎。經典元分析技術基于隨機對照試驗,其因果效度受到信任;相比之下,現代回歸模型是在大型觀察性數據庫上訓練的,其因果效度不被信任。我展示了如何在不犧牲效度的情況下將不可信的數據納入元分析中。這涉及對完全共形預測的基本改進,這些改進具有普遍的意義。在一個更聚焦的醫療保健應用中,我推廣了經典的、手工設計的心率變異性統計,使其能夠通過監督學習進行微調,成為深度神經網絡的一部分,從而生成更準確的、生理學知情的模型。我還提出了一些可以在未來機器學習模型和算法中使用的基礎計算原語。第一個是一種算法,可以在O(log T)的并行時間內(近似)運行T步非線性RNN。該算法的關鍵創新在于通過一種證明一致的局部、可并行修正方案,用深度上的非線性替代時間上的非線性。通過這種方式,經典線性動態系統(也稱為狀態空間模型)可以堆疊起來形成快速的非線性序列模型。另一個新的計算原語是在所有正交多項式序列集合上進行基于梯度的優化。這種優化形式與信號處理和優化中的許多不同問題都有聯系。最后,我提出了基于學習理論和優化中廣泛使用的幾何邊界概念的公平性標準,以規避計算的不可處理性。

付費5元查看完整內容

隨著機器學習系統逐漸成為我們日常生活的組成部分,尤其是基礎模型的顯著進步,我們必須評估它們的可信性、公平性,并探索改進這些關鍵方面的方法。本論文探討了機器學習模型性能、魯棒性和公平性的測量與提升。此外,我們還研究了這些系統在新應用領域的設計和部署,并將這些指標作為重要目標。

本論文旨在使機器學習在總體上變得更加可信和強大。第一個主題是評估機器學習模型的魯棒性和公平性及其改進策略。我們的方法結合了分布魯棒優化(DRO)和人類難以察覺的對抗攻擊,同時提高了模型的魯棒性和公平性。通過分析機器學習系統的魯棒性和公平性,我們直觀地將機器感知與人類感知更接近。除了魯棒性和公平性之外,我們還研究了梯度流方法,以緩解數據稀缺問題,并在少樣本學習環境中提高分類系統的性能。我們證明了梯度流方法能夠全局收斂,并且在下游遷移學習任務中展示了其生成有用數據樣本的能力。

最后,我們專注于機器學習算法在材料科學領域的創新應用。具體來說,我們設計了機器學習系統來加速分子模擬中罕見事件的采樣。與傳統采樣方法相比,我們的方法在速度上有顯著提高,同時對這些罕見事件的概率估計也更加魯棒。

在整個論文中,我們展示了機器學習在多個方面的改進,包括公平性和魯棒性。我們還展示了它在傳統應用如機械模擬中的強大能力。未來的工作將擴展這些系統,以應對更復雜和更高維度的挑戰。通過不斷的努力,本論文為開發更加可靠和強大的機器學習系統做出了貢獻。。

付費5元查看完整內容
北京阿比特科技有限公司