亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

由于深度學習在計算機視覺和自然語言處理等各種任務中的顯著能力,它已成為機器學習領域的一個里程碑。神經網絡的結構對性能有顯著影響,因此確定神經網絡的結構非常重要。通常,神經架構設計的方法可以分為兩類。一類是利用搜索方法設計神經結構,目的是自動實現潛在的神經結構。例如,NASNet架構是在使用強化學習算法定義的搜索空間中找到的。另一類是基于領域知識手工設計神經體系結構。大多數實用的體系結構,如ResNet和Transformer都是基于先驗知識提出的。在本文中,我們從以上兩個角度對神經架構設計進行了全面的討論。

首先,我們介紹了一種基于貝葉斯優化的神經結構搜索算法BONAS。在搜索階段,GCN嵌入提取器和貝葉斯sigmoid回歸器構成貝葉斯優化的代理模型,并根據采集函數選擇搜索空間中的候選架構。在查詢階段,我們將它們合并為一個超級網絡,并通過權值共享機制對各個體系結構進行評估。提出的BONAS可以獲得開發與勘探平衡的重要體系結構。

其次,針對著名的Transformer中的自注意力模塊,提出了一種可微架構搜索方法來查找重要的注意力模式。與以往的研究不同,我們發現注意力地圖中的對角線元素可以在不影響性能的情況下被丟棄。為了理解這一觀察結果,我們從普遍近似的角度提供了理論證明。基于所提出的搜索方法,實現了一系列用于高效架構設計的注意力掩碼。

第三,我們試圖從一個統一的框架來理解Transformer中的前饋模塊。具體來說,我們引入了記憶標記的概念,并建立了前饋和自注意力之間的關系。在此基礎上,我們提出了一種新的結構——單注意力,它包含了所有四種類型的注意力連接。在給定相同數量的內存令牌的情況下,與以前的基線相比,Uni-attention實現了更好的性能。

最后,我們研究了整個Transformer體系結構中的過平滑現象。我們通過建立自注意力與圖域之間的關系來進行理論分析。具體而言,我們發現層歸一化在過平滑問題中起著重要作用,并通過經驗驗證了這一點。為了緩解這個問題,我們提出了分層融合體系結構,這樣輸出可以更加多樣化。

付費5元查看完整內容

相關內容

深度學習為我們提供了越來越復雜的神經網絡,可以通過梯度上升來調整,以最大化某些目標。貝葉斯統計為我們提供了一種原則性和統一的方法來指定統計模型和執行推斷。將這兩種方法配對的一種有效方法產生了深度生成模型(DGM),其中概率模型中統計參數之間的映射本身使用神經網絡進行參數化。在本文中,我們研究了這種方法可以用于解決機器學習中的各種問題的方法,以及由此產生的模型的屬性。在這篇論文中,有三個反復出現的主題,魯棒性,結構和層次,貫穿始終。

首先研究如何構建一個深度生成模型,以在一種稱為半無監督學習的新學習機制中進行學習。這是半監督學習的一個極端情況,對于某些類別的數據,沒有給定的標記示例。在學習將數據劃分為不同的成分,不同的基礎真值類時,模型必須能夠在未標記的類上進行聚類,并在給出了一些標記示例的類上進行半監督學習。本文展示了如何在一系列標準數據集上實現這一點。

從處理一個離散潛變量聚類分配開始,研究具有離散潛變量層次結構的模型。我們提出了一種新的方法來參數化這種類型的模型中的潛在變量,放松的責任向量量化,可以訓練非常深的潛在變量層的層次結構。該方法在一系列標準數據集上,對端到端的分層離散DGM進行訓練,在最大化數據證據(訓練和測試集)的下界方面取得了最先進的結果。在這樣做的過程中,這些模型有助于縮小具有離散潛在的分層DGM和具有連續潛在的分層DGM之間的差距,并提供極其穩定的訓練。

然后我們切換到另一個問題,如何構建一個模型,以有效地從高維數據中學習統計獨立的潛在表示。本文提出一種分層方法,使用雙射函數flow來產生一個中間表示,然后由高度約束的線性獨立成分分析(ICA)模型起作用。與其他方法相比,這導致了在各種玩具和真實數據集上的優越性能。

然后,研究迄今為止未考慮的問題,即如何使DGM對對抗性攻擊具有魯棒性。對這些模型的潛空間進行正則化可以可靠地誘導魯棒性,并通過將這種正則化應用于分層的DGM來獲得更魯棒的模型。最后,從理論角度研究了DGM算法的魯棒性問題。我們定義r-魯棒性,DGM魯棒性的新標準,然后得出該標準上的間隔,在該間隔內的模型可以說是魯棒的。與潛空間被正則化的各種DGM的最佳模型的新理論相結合,這種間隔的形式有助于了解這種正則化如何提高魯棒性。

**本文提出的工作表明,深度學習和貝葉斯統計的結合是多么有效,并提供了對他們的組合所產生的模型本質的見解。**這為這兩個方向開辟了新的研究——為建立在所提出工作之上的新模型,也為研究深度生成模型的理論工作開辟了新途徑。

//ora.ox.ac.uk/objects/uuid:fa76ad20-30bb-48a3-8ae4-56da578a1767

付費5元查看完整內容

圖聚類是無監督學習中的一個基本問題,在計算機科學和分析現實世界數據中有著廣泛的應用。在許多實際應用中,我們發現聚類具有重要的高層結構。這在圖聚類算法的設計和分析中經常被忽視,因為這些算法對圖的結構做了強烈的簡化假設。本文討論了聚類結構是否可以有效學習的自然問題,并描述了四個用于學習圖和超圖中聚類結構的新算法結果。論文的第一部分對經典的譜聚類算法進行了研究,并對其性能進行了更嚴格的分析。這一結果解釋了為什么它在更弱、更自然的條件下工作,并有助于縮小譜聚類算法的理論保證與其優秀的經驗性能之間的差距。

論文的第二部分在前一部分的理論保證的基礎上,表明當底層圖的簇具有一定的結構時,少于k個特征向量的譜聚類能夠比使用k個特征向量的經典譜聚類產生更好的輸出,其中k是聚類的個數。本文首次討論和分析了少于k個特征向量的譜聚類的性能,并表明一般的聚類結構可以用譜方法學習。第三部分考慮使用局部算法高效地學習簇結構,其運行時間僅依賴于目標簇的大小,且與底層輸入圖無關。經典的局部聚類算法的目標是找到一個與圖其他部分稀疏連接的簇,本文的這一部分提出了一種局部聚類算法,它可以找到一對彼此緊密連接的簇。這一結果表明,即使在現實世界中普遍存在的大圖中,某些聚類結構也可以在局部環境中有效地學習。

論文的最后研究了超圖中密集連接聚類的學習問題。該算法基于一種新的熱擴散過程,擴展了最近在超圖譜理論方面的一系列工作。它允許在建模對象的高階關系的數據集中學習簇的結構,可以應用于有效分析在實踐中發生的許多復雜數據集。在不同領域的合成數據集和真實數據集上進行了廣泛的評估,包括圖像分類和分割、遷移網絡、合著網絡和自然語言處理。實驗結果表明,新提出的算法是實用、有效的,可以立即應用于實際數據的聚類結構學習。

付費5元查看完整內容

神經架構搜索(NAS)是最近提出的一種自動設計網絡架構的方法。NAS不是手動設計網絡架構,而是以數據驅動的方式自動找到最佳架構。盡管NAS取得了令人印象深刻的進展,但在實踐中仍遠未被廣泛采用為架構設計的通用范式。本文旨在開發有原則的NAS方法,可以自動化神經網絡的設計,并盡可能減少人工在架構調優方面的工作。為了實現這一目標,我們專注于開發更好的搜索算法和搜索空間,這兩者對NAS的性能都很重要。

在搜索算法方面,首先提出了一種基于貝葉斯優化(BO)的高效NAS框架;本文提出一種方法來學習網絡體系結構域上的嵌入空間,使得為體系結構域定義一個核函數成為可能,這是將BO應用于NAS的必要組件。提出了一種鄰域感知的NAS公式,以提高NAS發現的體系結構的泛化性。所提出的公式具有足夠的通用性,適用于各種搜索算法,包括基于采樣的算法和基于梯度的算法。

對于搜索空間,本文首先將NAS擴展到發現卷積細胞以外的注意力細胞。本文提出一種時空注意力單元的搜索空間,以注意力操作為主要構建塊。所發現的注意力單元不僅優于人工設計的注意力單元,而且在不同模態、骨干或數據集上表現出很強的泛化能力。基于committee的模型(集合或級聯)是高效模型的一個被忽視的設計空間。從現成的預訓練模型中簡單地構建committee,可以匹配或超過最先進模型的精度,同時大大提高了效率。最后,通過對不同基于激光雷達的三維目標檢測算法的比較,指出了成本控制的重要性。其次,如果允許使用類似的延遲,一個通常被認為已經顯著超過的簡單基線在Waymo開放數據集上的性能幾乎可以與最先進方法的性能相匹配。

//www.ri.cmu.edu/publications/search-algorithms-and-search-spaces-for-neural-architecture-search/

付費5元查看完整內容

在本文中,我們的目標是改進深度強化學習中的泛化。對任何類型的學習來說,泛化都是一項基本挑戰,它決定了如何將已獲得的知識轉移到新的、以前從未見過的情況中。本文專注于強化學習,這是一個描述人工智能體如何學習與環境交互以實現目標的框架。近年來,利用神經網絡表示智能體取得了顯著的成功,并極大地擴展了其可能的應用范圍。本文的目標是通過允許這些智能體更快地學習,學習更好的解決方案,并對以前未見過的情況做出魯棒的反應,從而提高它們的性能。在這個探索中,我們探索了一系列不同的方法和途徑。我們專注于將額外的結構,也稱為歸納偏差,納入主體。專注于特定的,但廣泛適用的問題領域,我們可以開發專門的架構,從而大大提高性能。在第3章中,我們關注的是部分可觀察環境,在這種環境中,智能體每時每刻都不能完全訪問所有與任務相關的信息。在第4章中,我們將注意力轉向多任務和遷移學習,并設計了一種新的訓練方法,允許訓練分層結構的智能體。我們的方法優化了單個解決方案的可重用性,大大提高了傳輸設置中的性能。

//ora.ox.ac.uk/objects/uuid:9fdfadb0-e527-4421-9a22-8466c9fed9c8 在本文的第二部分中,我們將注意力轉向正則化,這是另一種形式的歸納偏差,作為提高深度智能體泛化的方法。在第五章中,我們首先探討了強化學習(RL)中的隨機正則化。雖然這些技術已被證明在監督學習中非常有效,但我們強調并克服了將它們直接應用到在線RL算法中的困難,這是RL中最強大和應用最廣泛的學習類型之一。在第6章中,我們通過探索訓練數據中的瞬態非平穩性如何干擾神經網絡的隨機梯度訓練,并使其偏向較差的解,在更基本的水平上研究了深度rl中的泛化。許多先進的RL算法將這些類型的非平穩性引入到訓練中,甚至在平穩環境中,通過使用持續改進的數據收集策略。我們提出了一個新的框架,以減少經過訓練的策略所經歷的非平穩性,從而允許改進的泛化。

付費5元查看完整內容

機器學習模型在有偏差的數據集上訓練時是有偏差的。最近提出了許多方法,以減輕被確定為先驗的偏差。然而,在現實世界的應用中,標注偏差不僅耗時而且具有挑戰性。本論文考慮了三種不同的場景,并提出了學習魯棒模型的新算法。這些算法是有效的,因為它們不需要明確的偏差注釋,從而實現了實用的機器學習。

首先,我們引入了一種算法,該算法對從多個環境中收集的數據進行操作,其中偏差特征和標簽之間的相關性可能會有所不同。我們表明,當使用在一個環境上訓練的分類器對來自不同環境的例子進行預測時,它的錯誤是隱藏偏見的信息。

然后,我們利用這些錯誤來創建一組示例,這些示例的插值結果只具有穩定的相關性。我們的算法在四種文本和圖像分類任務上實現了最新的技術。然后我們考慮無法訪問多個環境的情況,這是新任務或資源有限任務的常見場景。我們證明,在現實世界的應用中,相關的任務往往有類似的偏見。在此基礎上,我們提出了一種算法,從資源豐富的源任務中推斷出偏差特征,并將這種知識轉移到目標任務中。與橫跨5個數據集的15個基線相比,我們的方法始終提供顯著的性能提升。

最后,我們研究了只給出一組輸入標簽對的自動偏差檢測。我們的算法學習分割數據集,使得在訓練分割上訓練的分類器不能泛化到測試分割上。性能差距為測量學習特征的偏差程度提供了一個智能體,因此可以用來識別未知偏差。在六個NLP和視覺任務上的實驗表明,我們的方法能夠產生與人類識別的偏差相關的虛假分裂。

付費5元查看完整內容

ConvNets和其他神經體系結構在計算機視覺方面的成功應用是過去十年人工智能革命的核心。對于可擴展視覺架構的強烈需求是既小又大。小型模型代表了對效率的需求,因為視覺識別系統通常部署在邊緣設備上;大型模型強調了對可擴展性的追求——利用日益豐富的計算和數據實現更高精度的能力。這兩個方向的研究都是卓有成效的,產生了許多有用的設計原則,對更多性能模型的追求從未停止。同時,文獻中非常快的發展速度有時會掩蓋某些方法取得良好結果的主要機制**。在本論文中,我們將從兩個方面展開研究:(1)開發高效靈活的ConvNet模型推理直觀算法;(2)研究基線方法,揭示流行可擴展方法成功背后的原因**。首先,我們將介紹我們對第一個隨時密集預測算法之一的工作。然后,我們將通過將模型修剪算法與一個極其簡單的基線進行比較來檢驗它們的有效性,并論證它們的真正價值可能在于學習架構。最后,通過采用《Transformers》中的設計技術對傳統的ConvNet進行現代化改造,我們提出了關于自注意力是否導致了Transformer最近出色的視覺擴展性的問題。

//www2.eecs.berkeley.edu/Pubs/TechRpts/2022/EECS-2022-205.html

深度學習的基本原理[103]可以追溯到幾十年前,20世紀80年代提出了基于梯度的反向傳播學習算法[151],而ConvNets從早期就被應用于手寫數字識別等計算機視覺任務[105]。然而,深度學習的真正威力直到2012年才被揭示出來,那年AlexNet[99]贏得了ImageNet大規模圖像分類挑戰賽[34]。數據可用性的提高[34,110]、計算技術的進步[124,134]和改進的算法[64,181,95]是深度學習在各個應用領域持續成功的三大支柱[93,159]。隨著最近大型模型的興起,這一領域的快速發展還沒有顯示出放緩的跡象[13,144]。

深度學習不僅對我們的日常生活產生了顯著的影響,還改變了機器學習從業者和研究人員的工作流程——社區已經從使用手工制作的淺層模型特征123,32,轉向使用多層深度神經網絡自動提取特征表示。手工制作的特性通常是高度特定于任務的,而且不能一般化,設計它們的過程通常很乏味。這種轉變極大地解放了研究人員的雙手和思想,允許他們更多地專注于建模方面。

自動表示學習的前景令人鼓舞,但實際情況并非如此光明。在實踐中,網絡結構對學習到的表征的質量有很大的影響。當網絡在各種下游任務上進行微調時,學習表征的質量也會傳播到準確性。因此,設計正確的神經網絡架構現在是至關重要的,因此人類的任務是設計架構,而不是功能。在計算機視覺中,經典的AlexNet是一個復雜的手工設計卷積神經網絡的例子——層、內核大小、特征映射大小、深度、寬度和其他配置都是由人類精心選擇和平衡的。從那時起,各種各樣的神經網絡架構被提出,不僅本身作為特征提取器有用,而且帶來了新的設計原則。VGGNet[161]填充了3 × 3內核卷積的使用,是同構網絡設計的先驅例子。ResNet[64]引入了剩余連接,使數百層的訓練網絡成為可能。Transformers [181,39]采用多頭自注意力作為一種新的網絡內部信息交換方式,在大規模訓練中表現優異。神經體系結構搜索方法[2189]試圖實現神經體系結構設計的自動化,同時從人類設計的網絡中借鑒搜索空間設計的智慧[141]。這一領域的不斷創新,加上其他訓練技術,已經將ImageNet上排名前1的圖像分類精度從AlexNet的62.5%提高到現在的近90%。在架構設計的各種目標中,效率和可擴展是兩個重要的概念

這兩個方向的研究進展都是卓有成效的,許多有用的架構設計原則被后來的工作所采用。這是一段非凡的旅程,該領域仍在以驚人的速度發展。同時,部分由于在實驗中有太多詳細的設計選擇和超參數,在性能基準上進行系統范圍的比較是很常見的,研究人員可以選擇有利的配置,并為他們的方法配備額外的技術。這可能導致無法確定實證收益的來源[112]。基線方法有時沒有被充分地調整或調整,導致我們無法理解所提議的方法的真正有效性。在本論文中,除了提出一種新的高效架構框架外,我們還采取了批判性的視角,對那些被認為是瑣碎或過時的基線的方法或模型進行了實證研究。我們發現,當提供正確的技術時,它們具有驚人的競爭力。這使我們對某些新方法的潛在機制有了更深入的理解,并幫助我們更公平、更準確地評價它們的有效性。

付費5元查看完整內容

摘要

超屬性通常用于計算機安全中,以定義信息流策略和其他要求,這些要求對多個計算之間的關系進行推理。在本文中,我們研究了一類新的超屬性,其中單個計算路徑由多智能體系統中的智能體聯盟策略來選擇。我們介紹了 HyperATL*,這是計算樹邏輯的擴展,帶有路徑變量和策略量詞。我們的邏輯可以表達策略超屬性,例如并發系統中的調度程序具有避免信息泄漏的策略。 HyperATL? 對于指定異步超屬性特別有用,即在不同計算路徑上的執行速度取決于調度程序選擇的超屬性。與其他最近用于規范異步超屬性的邏輯不同,我們的邏輯是第一個允許對完整邏輯進行可判定模型檢查的邏輯。我們提出了一種基于交替自動機的 HyperATL? 模型檢查算法,并通過提供匹配的下界證明了我們的算法是漸近最優的。我們已經為 一部分HyperATL? 實現了一個原型模型檢查器,能夠檢查小型程序的各種安全屬性。

付費5元查看完整內容

盡管最近在深度學習方面取得了進展,但大多數方法仍然采用豎井式的解決方案,即為每個單獨的任務訓練一個單獨的神經網絡。然而,許多現實世界的問題需要同時解決許多任務。例如,一輛自動駕駛汽車應該能夠檢測場景中的所有物體,對其進行定位,估計其距離和軌跡等,以便在其周圍環境中安全導航。類似地,用于商業應用的圖像識別系統應該能夠標記產品、檢索類似的商品、提出個性化的建議等,以便為客戶提供盡可能好的服務。這類問題促使研究人員建立多任務學習模型。多任務學習的核心思想是并行學習多個任務,同時共享學習到的表示。與單任務情況相比,多任務網絡具有許多實際的優點,單任務情況下,每個單獨的任務由自己的網絡單獨解決。首先,由于層的共享,產生的內存占用大大減少。其次,由于它們避免在共享層中重復計算特征,每個任務一次,它們顯示出提高的推理速度。第三,如果相關的任務共享互補信息,或者作為一個正則化器,它們有可能提高性能。

在構建多任務學習模型時,我們面臨著兩個重要的挑戰。首先,我們需要想出能夠處理多個任務的神經網絡架構。其次,我們需要為共同學習任務制定新的訓練方案。特別是,由于我們并行地優化多個目標,一個或多個任務可能會開始主導權重更新過程,從而阻礙模型學習其他任務。在這份手稿中,我們在視覺場景理解的背景下鉆研了這兩個問題。我們提出了兩種新的模型類型來解決體系結構問題。首先,我們探索了分支多任務網絡,其中神經網絡的更深層次逐漸成長為更具體的任務。我們介紹了一種有原則的方法來自動構建這樣的分支多任務網絡。構造過程將可以用一組相似特征來解決的任務組合在一起,同時在任務相似性和網絡復雜性之間進行權衡。通過這種方式,我們的方法生成的模型可以在性能和計算資源量之間做出更好的權衡。

其次,我們提出了一種新的神經網絡結構,用于聯合處理多個密集的預測任務。其關鍵思想是從多個尺度上對其他任務的預測中提取有用信息,從而提高對每個任務的預測。包含多個尺度的動機是基于這樣的觀察:在某個尺度上具有高相似性的任務不能保證在其他尺度上保持這種行為,反之亦然。在密集標記的兩個流行基準上進行的廣泛實驗表明,與之前的工作不同,我們的模型提供了多任務學習的全部潛力,即更小的內存占用,減少的計算數量,以及更好的性能w.r.t.單任務學習。此外,我們還考慮了多任務學習優化問題。我們首先分析幾種平衡任務學習的現有技術。令人驚訝的是,我們發現了這些工作之間的一些差異。我們假設,這可能是由于多任務學習缺乏標準化的基準,不同的基準受益于特定的策略。基于這個結果,我們然后分離最有希望的元素,并提出一組啟發式方法來平衡任務。啟發式具有實際性質,并在不同的基準測試中產生更魯棒的性能。

在最后一章中,我們從另一個角度來考慮場景理解的問題。文獻中描述的許多模型都受益于有監督的預訓練。在這種情況下,在轉移到感興趣的任務之前,模型首先在一個更大的帶注釋的數據集(如ImageNet)上進行預訓練。這使得模型能夠很好地執行,即使是在只有少量標記示例的數據集上。不幸的是,有監督的預訓練依賴于帶注釋的數據集本身,這限制了它的適用性。為了解決這個問題,研究人員開始探索自監督學習方法。我們以對比學習為基礎來回顧最近流行的作品。首先,我們展示了現有的方法,如MoCo可以在不同的數據集上獲得穩健的結果,包括以場景為中心的數據、長尾數據和特定領域的數據。其次,我們通過增加額外的不變性來改進學習的表示。這一結果直接有利于許多下游任務,如語義分割、檢測等。最后,我們證明了通過自監督學習所獲得的改進也可以轉化為多任務學習網絡。綜上所述,本文提出了幾個重要的貢獻,以改進多任務學習模型的視覺場景理解。創新集中在改進神經網絡結構、優化過程和訓練前方面。所有方法都經過了各種基準測試。該代碼公開發布://github.com/SimonVandenhende。

付費5元查看完整內容
北京阿比特科技有限公司