亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

在過去十年的繁榮發展之后,視頻理解的研究已到達一個關鍵的節點,單純依賴海量數據和復雜的架構已不再是適用于所有情況的萬能解決方案。數據不平衡的普遍存在阻礙了深度神經網絡(DNNs)有效學習潛在的因果機制,導致在遇到分布變化時(如長尾不平衡和擾動不平衡)性能顯著下降。這一現象促使研究者開始探索替代方法,以捕捉視頻數據中的因果模式。為了應對這些挑戰并提高DNNs的魯棒性,因果建模作為一種原則被提出,旨在發現觀察到的相關性背后的真實因果模式。

本文主要研究視頻語義理解領域,探索因果建模在推進兩個基礎任務中的潛力:視頻關系檢測(Video Relation Detection, VidVRD)和視頻問答(Video Question Answering, VideoQA)。

總結來說,本論文的主要貢獻如下:

  • 我們提出了一種干預性視頻關系檢測方法,稱為IVRD,旨在解決VidVRD中關系的長尾不平衡問題。盡管尾部關系具有信息性,但由于其在數據集中稀少,難以預測。我們特別提出了一套分層的關系原型,這迫使關系推理模塊關注實體之間動態交互的視覺內容,而非依賴于對象與關系標簽之間的偽相關性。通過引入因果推理,IVRD為改善長尾不平衡情況下的視頻理解提供了一個有前景的方向,使模型能夠更好地泛化到現實世界場景中,特別是在稀有或不常見的關系在場景理解中扮演關鍵角色時。
  • 我們引入了一種視頻問答中的不變性定位方法,稱為IGV,這是一種與模型無關的學習框架,旨在解決由答案-環境之間的偽相關性帶來的負面影響。IGV通過定位問題關鍵的(因果)場景,發現因果推理模式。具體而言,IGV利用了因果場景與答案之間的關系在環境變化時仍保持不變這一事實,并且去除因果場景應導致問題回答失敗。通過定位這些關鍵場景,IGV使VideoQA模型能夠專注于準確推理所需的視覺內容,同時避免環境負面的影響,從而顯著提升了模型的推理能力。
  • 我們提出了視頻問答中的等變性定位方法EIGV,進一步增強了魯棒性和視覺可解釋性。基于IGV,EIGV還引入了等變性,促使回答過程對因果場景和問題中的語義變化更為敏感。相較之下,不變性定位要求回答過程對環境場景的變化不敏感。這兩種正則化機制協同工作,區分因果場景與環境場景,并通過呈現視覺-語言對齊提供更多的透明性。通過結合不變性和等變性定位的優勢,EIGV創建了一個更加魯棒且可解釋的VideoQA框架。
  • 我們發現了視頻問答中的時空推理,解決了長視頻和多對象樣本(即復雜視頻問答)上的低準確性問題。現有的VideoQA實踐(包括預訓練模型如SeVila [162])大多是在短視頻片段(約15秒)和少數實體(約2個)上進行訓練的,因此在復雜視頻(超過80秒且包含5個以上對象)上表現較差。原因在于長視頻不可避免地引入大量冗余和偽相關性,因為許多與問題無關的環境對象存在。為應對這一挑戰,我們首先強調建模問題關鍵的時間片段和空間對象的重要性,接著提出了時空推理(Spatio-Temporal Rationalization, STR)方法,通過可微選擇模塊自適應地收集問題關鍵的時間片段和對象,并通過跨模態交互進行推理。結合更合理的候選答案解碼策略,STR有效識別出與問題無關的幀和對象作為因果模式,尤其在復雜場景下顯著改善了預測性能。

本文的一個局限性在于對所識別因果場景的評估。在整個研究過程中,我們依賴于問題回答(QA)總體性能作為所發現因果場景質量的間接指標,基于這樣一個推理:更準確地定位因果場景可能會提供更豐富的問題-關系視覺線索,從而提升QA性能。然而,值得注意的是,基于因果場景的直接量化指標將提供更具說服力的見解。遺憾的是,由于缺乏人類級別的定位標注,當前工作中未能實現這種度量。因此,未來的研究將著力建立一個專門針對因果場景的評估基準,涉及對回答過程所依賴的視覺元素進行人類標注。這一舉措將有助于更全面和嚴格地評估因果場景的發現。

總之,本文的貢獻拓展了因果建模在視頻語義理解中的前沿應用,賦能AI系統掌握因果模式,并在應對視頻理解挑戰任務中提升性能。

付費5元查看完整內容

相關內容

博士論文是由攻讀博士學位的研究生所撰寫的學術論文。它要求作者在博士生導師的指導下,選擇自己能夠把握和駕馭的潛在的研究方向,開辟新的研究領域。由此可見,這就對作者提出了較高要求,它要求作者必須在本學科的專業領域具備大量的理論知識,并對所學專業的理論知識有相當深入的理解和思考,同時還要具有相當水平的獨立科學研究能力,能夠為在學科領域提出獨創性的見解和有價值的科研成果。因而,較之學士論文、碩士論文,博士論文具有更高的學術價值,對學科的發展具有重要的推動作用。

衛星影像的廣泛可用性,例如在Google Earth等平臺上的應用,極大地增強了人們繪制和可視化地球表面的能力。盡管衛星影像具有廣覆蓋性和易獲取性,但其分辨率通常有限,缺乏探索感興趣環境(尤其是城市區域)所需的細節。街景圖像則在場景理解方面提供了重要的洞察力和實用性,從城市規劃到戶外導航,再到增強現實的多種應用都受益于街景圖像。然而,獲取街景圖像成本高昂,并且需要頻繁更新以保持準確性。相比之下,衛星影像更易獲取且無處不在,因此成為生成街景圖像的有前景替代方案。這一過程被稱為衛星到地面跨視圖合成(satellite-to-ground cross-view synthesis),因其廣泛的實際應用前景而受到廣泛關注。 從衛星圖像直接生成地面視圖需要克服顯著的技術挑戰,這主要是由于兩類圖像在視角和尺度上的巨大差異。本研究探討了創新方法,旨在生成幾何上一致且符合對應衛星圖像的3D城市場景和街景圖像,同時在不同視角之間保持強魯棒的多視圖一致性,并提升跨視圖合成和大規模3D城市場景的質量和真實感。 為實現這一目標,我們首先在生成管線中引入了一種地理變換層(geo-transformation layer)。該層通過估算的地面高度值構建密集體素網格,并將信息從俯視圖轉換為街景視圖,從而保留了物理的衛星到地面的關系,解決了幾何一致性問題。接著,通過在幾何中計算3D場景點云與幀像素之間的密集映射,我們提出了一種考慮點間空間關系的3D稀疏生成器,解決了在生成圖像序列時的多視圖一致性問題。此外,在隱式輻射場(implicit radiance field)爆炸性應用的背景下,我們進一步探索了神經場景表示在有限部分觀測下完成3D場景的潛在生成能力。我們提出了一種基于稀疏網格表示的可擴展新視圖合成管線,可以為大量不完整的場景數據填充合理的信息。

最后,我們不再僅局限于圖像或視頻生成,而是進一步提升到整個大規模場景的生成。我們的方法將擴散模型引入3D稀疏表示中,用于直接生成3D場景,并結合基于點的神經渲染技術,從任意視角生成一致且合理的圖像或視頻。

通過利用生成模型和神經渲染技術的最新進展,我們旨在提升場景級生成能力,彌合通過衛星圖像生成一致地面視圖的鴻溝,并釋放其在虛擬建模、地圖服務、3D城市設計、游戲、仿真以及跨視圖匹配等多樣化應用中的巨大潛力。本研究希望挖掘衛星影像的全部潛能,為理解我們所處的世界及其環境提供更深刻的洞察力。

付費5元查看完整內容

許多日常任務要求我們與他人互動。互動或合作使我們能夠結合各自的優勢,從而實現個人無法單獨完成的更多目標。

同樣,當我們嘗試自動化這些任務時,僅依靠一個機器人可能是不可能的或代價過高的。然而,協調多個機器人是困難的:從多機器人系統的大規模狀態空間的計算挑戰,到如何將一個操作員的輸入映射到多個機器人上,互動的多個層面可能在人與人之間的互動中較為微妙,但在與機器人協作時,必須明確加以解決。 本論文的目標是解決這些問題中的一些最重要的挑戰。 我們首先探討與單一機器人系統和多機器人系統的直接遙操作相關的一些挑戰。通過操作性優化和零空間投影方案,我們提高了多臂系統避免奇異性并更快速跟隨操作員輸入的能力。我們提出了一種快速的局部優化方案,以及利用牛頓法的二階優化,并比較了兩者的性能,展示了該方法在真實的ABB YuMi雙臂機器人上的表現。接下來,我們將系統擴展到移動機器人。雖然移動機器人在許多方面優于固定基礎系統,但它們也引入了額外的復雜性。我們研究了非完整約束滑模轉向機器人(非全向輪驅動機器人)的驅動動力學,以及操作臂姿態和載荷如何影響轉向能力。此外,我們引入了避免機器人間碰撞、翻車避免和能夠在高度受限的環境中移動的術語。我們將綜合方法部署到多個配備UR5e操作臂的Clearpath Husky平臺,并展示它如何改善開環性能,超越傳統的控制方案。 最后,我們更詳細地探討了用戶如何與多機器人系統互動。 我們比較了基于平板的增強現實(AR)解決方案與HoloLens混合現實(MR)頭戴設備。通過向研究參與者呈現不同的觸摸互動以及支持手部追蹤的手勢,我們比較了他們在多個任務中的表現,目標是引導一組小型差速驅動機器人。我們比較了不同任務中的客觀和主觀表現,發現特別是空間互動在三維用戶界面中受益明顯。

總之,我們探索并研究了人類與機器人之間的相互作用,旨在實現多機器人系統中有效且直觀的互動。 我們提高了機器人跟隨用戶輸入的能力,提出了一種方法論用于復雜的非完整約束多機器人系統的軌跡優化,并研究了基于手勢的與移動機器人直觀交互的方式。我們將這些方法部署到實際的機器人中,期望將其應用于未來的建筑工地或倉庫,以改善未來工作場所的效率。

//www.research-collection.ethz.ch/handle/20.500.11850/707468

付費5元查看完整內容

近年來,深度學習的進展在很大程度上得益于數據和計算資源的增加。盡管數據的豐富性使模型在某些領域表現良好,但在實際應用中(例如醫學領域),數據往往稀缺或難以收集。此外,也存在將大型數據集視為許多相關的小數據集的情境,其中一個小數據集相關任務的數據可能不充足。同時,人類智能通常只需少量樣本即可在新任務上表現出色,這強調了設計數據高效AI系統的重要性。本論文探討了應對這一挑戰的兩種策略:元學習和對稱性。

元學習將數據豐富的環境視為許多小型、獨立數據集的集合。每個小數據集代表一個不同的任務,但它們之間存在潛在的共享知識。利用這種共享知識可以設計出在相似領域中高效解決新任務的學習算法。相比之下,對稱性是一種直接的先驗知識。通過確保模型的預測在輸入發生任何變換后仍保持一致,這些模型可以提高樣本效率和泛化能力。

在后續章節中,我們提出了一些旨在提高深度學習系統數據效率的新技術和模型。首先,我們展示了基于條件神經過程(CNPs)的編碼器-解碼器風格的元學習方法的成功應用。其次,我們引入了一類新型的表達力強的元學習隨機過程模型,這些模型通過在函數空間中堆疊神經參數化的馬爾可夫轉移算子序列構建而成。最后,我們提出了群等變子采樣/上采樣層,以解決傳統子采樣/上采樣層中等變性的喪失問題。利用這些層可以構建端到端的等變模型,從而提升數據效率。

//ora.ox.ac.uk/objects/uuid:98de960f-f7eb-4437-8c37-174b82374b21

付費5元查看完整內容

大型多模態模型(LMMs)的研究已經成為深度學習領域的重點,展示了其在當代研究中的重要性。LMMs能夠處理來自不同模態的數據,通過利用互補信息來執行多種任務,從而提高預測能力。LMMs的學習過程分為兩個關鍵階段:計算密集的預訓練階段,旨在從大規模的噪聲數據中獲取通用表示;以及后續的微調階段,專注于將預訓練模型調整到特定任務上。傳統上,基礎LMMs的預訓練被認為是擁有豐富計算資源的研究實驗室的專屬特權。在本論文中,我們提出了一種用于高效預訓練基礎視覺-語言模型(VLMs)的新方法。這涉及通過專門的預訓練過程,利用現成的凍結大型語言模型(LLMs),從而減少對數據的需求。此外,我們引入了一種高效的VLM預訓練方法,減少模態投影中的冗余。通過我們的方法,訓練LLMs所需的數據量從1.29億實例大幅減少到400萬實例,并且相關的訓練成本可減少至1/10,而性能幾乎沒有顯著下降。此外,我們提出了一種簡單但強大的時序融合機制,用于將預訓練的圖像-語言模型適應下游的視頻任務。我們的視頻描述模型在沒有大量視頻-文本數據集預訓練的情況下,能夠達到與最新基準競爭的性能。除了在計算機視覺和自然語言處理中的多模態研究領域外,我們的研究還擴展到了生物信息學領域,通過研究蛋白質-RNA模型進行多模態學習。我們的研究結果表明,預訓練的蛋白質模型包含可與RNA共享的生物結構信息。鑒于實驗解析的RNA結構數量有限,我們的發現為蛋白質和RNA之間的遷移學習開啟了新的研究方向。最后,我們采用物理增強模擬來訓練T細胞-肽模型,表明在機器學習中整合這種模擬顯著提高了模型訓練效果,尤其是在標記數據有限的情況下。這凸顯了將模擬與機器學習結合的潛力,為推動生物領域LMMs的訓練提供了寶貴的策略。

在過去的十年中,深度學習研究取得了顯著進展,并在多個領域中取得了卓越的成就,包括圖像分類、圖像分割、動作識別和語言建模。盡管這些模型通過在大量特定領域的數據集上訓練,表現出了在特定任務中的優異性能,但當代的研究已經轉向開發能夠跨多種模態(如視覺、語言和音頻)解釋信息的模型。 此外,鑒于可以提升模型預測能力的潛力,近期的研究倡導訓練能夠無縫整合不同模態信息的模型。例如,在在線會議的背景下,向模型展示一個視頻可以通過同時考慮視覺內容(展示人類活動)和聽覺線索(捕捉會話動態)來提高摘要質量。這種互補模態的整合有助于做出更為準確的決策。 多模態學習的研究也致力于模擬人類從多種來源獲取知識的能力。通過促進類似于人類感知和認知功能的能力獲取,這些模型旨在突破單一模態的限制,展現出對信息感知和表達的整體理解。 計算機視覺和自然語言處理領域的蓬勃發展推動了多模態學習領域的顯著進展,特別是在視覺-語言模型的開發方面。當前的主流范式通常分為兩個階段: * 預訓練階段:這一初始階段通過利用大規模的網絡數據集進行模型的預訓練,使模型能夠獲取覆蓋視覺和語言領域的廣泛知識。這些通常被稱為“基礎模型”的預訓練模型,作為多模態數據中的復雜模式和表示的基礎。 * 微調階段:在預訓練之后,基礎模型會進行微調,以適應特定任務的需求。值得注意的是,在某些情況下,模型無需微調即可通過上下文學習生成預測。此階段在將模型的能力調整至任務特定需求方面起著關鍵作用。

在接下來的章節中,我們將深入探討這兩個訓練階段。本論文引入了一種新穎的模態投影模塊,并提出了一種新的學習范式,旨在提高視覺-語言模型預訓練的效率。此外,還將詳細闡述新型微調模塊,特別針對在訓練樣本有限的情況下,將預訓練的基礎模型適應于特定任務的挑戰。通過這些貢獻,本研究旨在推進對視覺-語言模型多模態學習的理解和效率提升。

付費5元查看完整內容

非線性優化已成為機器學習的主力工具。然而,我們對機器學習中優化理論的理解仍然有限。例如,經典的優化理論依賴于諸如損失函數的有界Lipschitz平滑性等假設,而這些假設在機器學習中很少滿足。此外,現有理論也無法很好地解釋為什么自適應方法在某些機器學習任務中(如訓練Transformers)優于梯度下降法。在本論文中,為了彌合這一差距,我們提出了更貼近機器學習實際的廣義平滑性條件,并研究了在這些條件下流行的經典和自適應方法的收斂性。我們的收斂性結果優于現有結果,同時為理解自適應性在機器學習應用中的作用提供了新的見解。 首先,受到一些最近的研究工作和深度神經網絡訓練中見解的啟發,我們提出了一種廣義的非均勻平滑性條件,其在幾乎所有地方都通過梯度范數的函數來約束Hessian范數。我們開發了一種簡單但強大的分析技術,該技術通過沿軌跡約束梯度,從而為凸優化和非凸優化問題得出了更強的結果。特別是,我們在這種廣義平滑性條件下,得到了梯度下降(GD)、隨機梯度下降(SGD)和Nesterov加速梯度方法(NAG)在凸或非凸設置中的經典收斂速率。 此外,這種新的分析技術還使我們能夠為自適應矩估計方法(Adam)獲得改進的收斂結果。盡管Adam在訓練深度神經網絡中非常流行且高效,但其理論性質尚未完全被理解,現有的收斂性證明需要非常強的假設(如全局有界的梯度)來證明其收斂至駐點。在本論文中,我們證明了Adam在更為現實的條件下可以證明收斂,特別是我們不需要之前研究中的強假設,并且也考慮了廣義平滑性條件。 然而,上述結果無法解釋為什么像Adam這樣的自適應方法在訓練Transformers等機器學習應用中顯著優于SGD,因為我們為Adam獲得的收斂速率并不比SGD更快。先前的研究經驗性地觀察到,自適應方法沿訓練軌跡往往表現出比SGD更小的方向性平滑性。在本論文中,我們將這一觀察形式化為一個更為嚴謹的理論解釋。具體而言,我們提出了一種方向性平滑性條件,在此條件下,我們證明了無記憶的Adam和RMSProp在確定性設置中具有更快的收斂性。值得注意的是,我們的收斂速率比典型的梯度下降法更快,為理解自適應性在訓練Transformers中的優勢提供了新的見解。

付費5元查看完整內容

優化算法是機器學習和統計推斷的基石。隨著大規模數據集的出現,計算挑戰日益增加,迫使人們追求更高效的算法。現代優化技術通常針對特定的機器學習問題進行定制,這些方法利用問題的獨特結構特征,使其比當前應用于這些問題的方法效率更高。另一個關鍵方面是理解所得到估計量的估計精度。在某些情況下,盡管在訓練集上實現精確優化可能不切實際,但某些簡單而有效的啟發式方法在適當的統計框架內可以表現出令人贊嘆的估計精度。 在本文中,我們從優化和統計的角度研究了幾種大規模算法。第2章和第3章研究了兩種針對結構約束的連續優化算法。第2章集中討論了具有圓柱形約束的無界約束的一種廣義Frank-Wolfe方法。第3章則研究了具有少量極點的多面體約束的類似坐標下降(CD)方法。這兩種方法由于對問題結構的敏感性而表現出最先進的性能。 第4章研究了一種帶有解釋器-響應對之間可能存在不匹配的線性回歸變體。我們研究了一種簡單且高效的啟發式方法,并在統計環境中對其估計誤差進行了嚴格分析。 第5章和第6章研究了兩種決策樹算法。第5章研究了最優決策樹的計算,并引入了一種新的分支定界方法,用于具有一般連續特征的最優決策樹。第6章則轉向在足夠雜質減少條件下對CART算法的分析。我們為滿足該條件的信號函數證明了嚴格的誤差界,并討論了一些滿足該條件的函數類。 第7章研究了一種具有形狀約束的密度估計問題。我們提出了一種立方-牛頓法框架用于計算,并研究了有限混合的逼近性質。

付費5元查看完整內容

盡管深度學習有著廣泛的應用,但在實際應用中仍面臨穩健性挑戰,尤其是在訓練和測試分布不一致的情況下。訓練和測試分布之間的差異原因包括人類行為的逐漸變化或服務使用環境的人口統計學差異。雖然獲取預期分布變化的標注數據可能非常困難,但未標注樣本相對便宜且數量充足。

我的研究利用目標領域的未標注數據,識別目標領域和源領域之間的結構關系,然后利用這些關系來適應和評估模型。本論文討論的工作涉及理論和實證上理解深度模型的行為,并利用這些見解開發穩健的方法。特別是,本論文調查了我在以下三個問題上的工作:

Q1:如何在分布變化的情況下適應模型?如果沒有對分布變化性質的假設,這項任務是不可能完成的。我的研究重點是制定在實際環境中出現的分布變化場景的假設,并通過利用未標注數據來改進和適應深度模型。論文的第一部分和第二部分詳細探討了這一研究。

Q2:在沒有標注數據的情況下,如何評估模型的性能?深度學習模型會無聲地失敗,即它們無法標記不確定的決策。為了構建可靠的機器學習系統,獲得準確性的證明與增強系統的穩健性同樣重要。第三部分討論了我在這方面的研究,并提出了利用未標注數據預測模型準確性的技術。

Q3:如何利用基礎模型來解決分布變化帶來的挑戰?基礎模型(如視覺語言模型)在廣泛的任務中表現出色。然而,這些模型也由于虛假關聯、圖像與文本對齊差等原因缺乏穩健性。此外,隨著互聯網數據的演變,這些模型也會變得過時,提出了保持它們更新的新的挑戰。第四部分討論了我對基礎模型行為的理解以及在分布變化下提高其穩健性的技術。

總體而言,本論文通過開發利用未標注數據在分布變化下適應和評估模型的技術,拓展了穩健機器學習的前沿。這里展示的工作是朝著在分布變化面前開發穩健機器學習全面工具包邁出的一步。

付費5元查看完整內容

科學應用(如個性化(精準)醫學)需要因果機制的統計保證,然而在許多情況下,僅有復雜的觀察數據可用。這些數據通常具有復雜的底層交互。機器學習的最新進展使得建模這些系統成為可能,但其固有的偏見和黑箱特性給推斷帶來了挑戰。半參數方法能夠利用這些強大的非參數回歸過程,為數據生成過程中的有趣參數成分提供有效的統計分析。

本論文由三章組成。第一章總結了半參數和因果推斷的文獻,特別關注雙重穩健方法和條件獨立性測試。在第二章中,我們探討了平均部分效應的雙重穩健估計——線性模型中線性系數的推廣和因果效應的局部度量。這個框架涉及兩個插件擾動函數估計,并相互權衡其誤差。第一個擾動函數是條件期望函數,其估計要求可微分。我們建議將不必可微分的任意插件機器學習回歸與高斯核卷積,并證明在一系列核帶寬下,我們可以在對回歸均方誤差沒有漸近成本的情況下實現半參數效率界限。第二個擾動函數是預測變量的對數密度導數,稱為得分函數。這個得分函數不依賴于給定預測變量的響應的條件分布。得分估計僅在單變量情況下研究得較多。我們建議使用位置尺度模型將多變量得分估計問題減少到條件均值和方差估計加上單變量得分估計。這使得可以使用任意機器學習回歸。模擬結果證實了我們方法的理想特性,并在R包drape(雙重穩健平均部分效應)中提供了代碼,代碼可在//github.com/harveyklyne/drape獲得。

在第三章中,我們考慮在給定第三個連續變量Z的情況下測試兩個離散隨機變量X和Y的條件獨立性。條件獨立性測試構成了基于約束的因果結構學習的基礎,但已證明任何對所有原假設分布控制尺寸的測試在對抗任何備擇假設時都沒有檢驗力。因此,必須限制原假設空間,便于以機器學習方法的性能來做。以前的工作還對X和Y做了強結構假設。一個不做這些假設的雙重穩健方法是使用任意機器學習方法計算廣義協方差測量,將條件相關性的測試簡化為測試一個漸近高斯向量的均值是否為零。這個向量通常是高維的,天真的測試缺乏檢驗力。我們建議貪婪地合并底層離散變量的標簽,以最大化觀察到的條件相關性,從而以自適應方式揭示額外結構。我們的測試使用一種新穎的雙重引導校準。我們展示了一種以計算有效方式執行此過程的算法。模擬結果證實,在具有低維結構的高維設置中,我們能夠提高檢驗力,同時保持期望的尺寸控制。代碼在R包catci(CATegorical Conditional Independence)中提供,代碼可在

付費5元查看完整內容

模型無關的特征重要性度量對于揭示不透明或“黑箱”機器學習模型的任務至關重要。這種模型在高風險決策環境(如醫療保健或銀行業)的激增,要求開發靈活且可信的方法來解決這個問題。由于沒有地面真實的特征重要性進行比較,各種競爭方法提供了不同的方法和/或理念,通常都聲稱自己更優越。最近一些最受歡迎的方法是從合作博弈論的工具進行適應,這些工具在獎勵或成本分享問題中被使用。在本文檔中,我們報告了這類特征重要性方法的最近進展。特別是,我們討論了一個使用Shapley值的“數據為中心”的群體(cohort)-基礎框架,用于模型不可知的局部特征重要性。我們提出了一個主要的重要性度量,并探討了更適合特定用例或數據環境的該方法的幾種適應。我們分析了這些方法的屬性和行為,并將它們應用于包括選民注冊和累犯數據在內的一系列合成和實際問題設置。然后,我們提出并討論了局部重要性聚合和特征重要性評估的新方法。

付費5元查看完整內容

深度神經網絡(DNNs)使計算機能夠在許多不同的應用中脫穎而出,如圖像分類、語音識別和機器人控制。為了加快DNN的訓練和服務,并行計算被廣泛采用。向外擴展時,系統效率是一個大問題。在分布式機器學習中,高通信開銷和有限的設備上內存是導致系統效率低下的兩個主要原因。

//www2.eecs.berkeley.edu/Pubs/TechRpts/2022/EECS-2022-83.html

本文研究了在分布式機器學習工作負載下,在數據和模型并行性方面減輕通信瓶頸并實現更好的設備上內存利用的可能方法。

在通信方面,我們的Blink項目緩解了數據并行訓練中的通信瓶頸。通過打包生成樹而不是形成環,Blink可以在任意網絡環境中實現更高的靈活性,并提供近乎最佳的網絡吞吐量。為了消除模型并行訓練和推理過程中的通信問題,我們從系統層上升到應用層。我們的sensAI項目將多任務模型解耦到斷開的子網中,其中每個子網負責單個任務或原始任務集的子集的決策制定。

為了更好地利用設備上的內存,我們的小波項目有意增加任務啟動延遲,在加速器上的不同訓練任務波之間交錯使用內存峰值。通過將多個訓練波集中在同一個加速器上,它提高了計算和設備上的內存利用率。

付費5元查看完整內容
北京阿比特科技有限公司