亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

論文名字

Modeling Musical Structure with Artificial Neural Networks

論文簡介

近年來,人工神經網絡(ANNs)已成為解決現實問題的通用工具。人工神經網絡在音樂相關任務中也取得了巨大的成功,包括音樂摘要和分類、相似性估計、計算機輔助或自主作曲以及自動音樂分析。由于結構是西方音樂的一個基本特征,它在所有這些任務中都扮演著重要的角色。在當前的人工神經網絡體系結構中,一些結構方面的知識尤其具有挑戰性。這尤其適用于中高級的自相似性、音調和節奏關系。在本文中,我將探討ANNs在di中的應用!音樂結構建模的不同方面,找出其中涉及的一些挑戰并提出應對策略。首先,使用受限Boltzmann機器(RBM)的概率估計,研究了一種基于概率自底向上的旋律分割方法。然后,提出了一種自頂向下的方法,將卷積RBM的Gibbs抽樣與梯度下降優化相結合,應用于音樂生成中。此外,我激發了音樂轉換在結構建模中的相關性,并展示了如何使用連接模型門控自動編碼器(GAE)來學習音樂片段之間的轉換。為了學習序列中的變換,我提出了一種特殊的GAE預測訓練,它將復調音樂表示為一系列的間隔。而且這些區間表示在自上而下的重復音樂節的發現中的適用性被證明了。最后,提出了一種GAE的遞歸變體,并將其用于音樂預測和低層重復結構的建模。

論證。

論文作者

Stefan Lattner,來自巴黎索尼計算機科學實驗室(CSL),長期從事人工智能研究,是機器學習領域專家級人物,尤其在人工神經網絡領域頗有建樹。最近一直致力于深度神經網絡與音樂之間的研究,試圖通過深度學習對音樂進行建模,并取得了最大突破。主張機器學習要面向實踐,面向實際,立志解決當前問題,AI必須要有商業驅動,方能足夠長遠的發展。。

付費5元查看完整內容

相關內容

自動編碼器是一種人工神經網絡,用于以無監督的方式學習有效的數據編碼。自動編碼器的目的是通過訓練網絡忽略信號“噪聲”來學習一組數據的表示(編碼),通常用于降維。與簡化方面一起,學習了重構方面,在此,自動編碼器嘗試從簡化編碼中生成盡可能接近其原始輸入的表示形式,從而得到其名稱。基本模型存在幾種變體,其目的是迫使學習的輸入表示形式具有有用的屬性。自動編碼器可有效地解決許多應用問題,從面部識別到獲取單詞的語義。

自2006年以來,神經網絡是引發深度學習革命的模型,但它們的基礎可以追溯到20世紀60年代。在這堂課中,DeepMind研究科學家Wojciech Czarnecki將介紹這些模型如何操作、學習和解決問題的基礎知識。他還介紹了各種術語/命名慣例,為與會者進一步、更高級的會談做準備。最后,他簡要介紹了神經網絡設計和開發的更多研究方向。

付費5元查看完整內容

題目: Graph Random Neural Networks

摘要:

圖神經網絡(GNNs)將深度學習方法推廣到圖結構數據中,在圖形挖掘任務中表現良好。然而,現有的GNN常常遇到具有標記節點的復雜圖結構,并受到非魯棒性、過度平滑和過擬合的限制。為了解決這些問題,本文提出了一個簡單而有效的GNN框架——圖隨機神經網絡(Grand)。與現有GNNs中的確定性傳播不同,Grand采用隨機傳播策略來增強模型的魯棒性。這種策略也很自然地使Grand能夠將傳播從特征轉換中分離出來,減少了過度平滑和過度擬合的風險。此外,隨機傳播是圖數據擴充的一種有效方法。在此基礎上,利用無標記節點在多個擴展中的分布一致性,提高模型的泛化能力,提出了Grand的一致性正則化方法。在圖形基準數據集上的大量實驗表明,Grand在半監督的圖形學習任務上顯著優于最先進的GNN基線。最后,證明了它可以顯著減輕過度平滑和過度擬合的問題,并且它的性能與魯棒性相結合。

付費5元查看完整內容

主題: Graph Neural Networks with Composite Kernels

摘要: 近年來,對圖結構化數據的學習引起了越來越多人的興趣。諸如圖卷積網絡(GCN)之類的框架已經證明了它們在各種任務中捕獲結構信息并獲得良好性能的能力。在這些框架中,節點聚合方案通常用于捕獲結構信息:節點的特征向量是通過聚集其相鄰節點的特征來遞歸計算的。但是,大多數聚合方案都將圖中的所有連接均等化,而忽略了節點特征的相似性。本文從內核權重的角度重新解釋了節點聚合,并提出了一個框架來考慮特征相似性。我們表明歸一化的鄰接矩陣等效于Kerin空間中基于鄰居的內核矩陣。然后,我們提出功能聚集作為基于原始鄰居的內核和可學習的內核的組成,以在特征空間中編碼特征相似性。我們進一步展示了如何將所提出的方法擴展到圖注意力網絡(GAT)。實驗結果表明,在一些實際應用中,我們提出的框架具有更好的性能。

付費5元查看完整內容

主題: The resurgence of structure in deep neural networks

摘要: 使用深度神經網絡的機器學習(“深度學習”)可以直接從原始輸入數據中學習復雜的特征,從而完全消除了從學習管道中提取的手工制作的“硬編碼”特征。這導致在多個(以前是脫節的)問題域中實現了最先進的性能,包括計算機視覺,自然語言處理,強化學習和生成建模。這些成功案例幾乎都與大量具有標簽的訓練示例(“大數據”)的可用性并駕齊驅,這些示例具有簡單的網格狀結構(例如文本或圖像),可通過卷積層或循環層加以利用。這是由于神經網絡中的自由度數量眾多,使得它們的泛化能力容易受到諸如過度擬合之類的影響。但是,在許多領域中,廣泛的數據收集并不總是合適,負擔得起甚至不可行的。此外,數據通常以更復雜的結構進行組織-大多數現有方法都將簡單地丟棄這些結構。在生物醫學領域,這類任務的例子很多。與可用于任何給定臨床研究的少量受試者,或通過相互作用網絡指定的蛋白質之間的關系。我假設,如果深度學習要在這樣的環境中發揮其全部潛能,我們需要重新考慮“硬編碼”方法-通過結構歸納將關于輸入數據中固有結構的假設直接整合到我們的體系結構和學習算法中偏見。在本文中,我通過開發三種注入結構的神經網絡體系結構(對稀疏多峰和圖結構化數據進行操作),以及圖神經網絡的結構知悉學習算法,直接證明了這一假設,證明了傳統基線模型和算法。

付費5元查看完整內容

論文題目: Automatic structured variational inference

摘要: 概率編程的目的是在任意概率模型(程序)中自動概率推理的各個方面,這樣用戶就可以將注意力集中在建模上,而不需要處理特定的推理方法。基于梯度的自動微分隨機變分推理是一種有效的概率規劃方法。然而,任何(參數)變分方法的性能取決于適當的變分族的選擇。在這里,我們介紹了一種完全自動化的方法來構建結構化的變分族,其靈感來自于共軛模型的封閉形式更新。這些偽共軛族包含了輸入概率程序的前向傳遞,可以捕獲復雜的統計相關性。偽共軛族具有與輸入概率程序相同的空間和時間復雜度,因此在很大的一類模型中是可處理的。我們將自動變分方法應用于包括深度學習組件在內的多種高維推理問題。

付費5元查看完整內容

主題: Deep Sequence Modeling

簡介:

  • 一個序列建模問題:預測下一個單詞

  • 循環神經網絡(RNNs)

  • 時間反向傳播(BPTT)

  • 長短期記憶(LSTM)網絡

  • RNN應用

付費5元查看完整內容

論文名字

Effective Modeling of Encoder-Decoder Architecture for Joint Entity and Relation Extraction

論文摘要

貝葉斯神經網絡(BNNs)通過對網絡權值進行貝葉斯推理,將不確定性估計引入到深層網絡中。然而,這樣的模型帶來了推理的挑戰,而且具有權重不確定性的bnn很少能獲得優于標準模型的性能。本文通過對深度神經網絡結構進行貝葉斯推理,提出了一種新的貝葉斯深度學習方法。借鑒神經結構搜索的思想,將網絡結構定義為計算節點間再鄧頓運算的選通權值,并應用隨機變量推理技術來學習網絡的結構分布。從經驗上看,該方法大大超過了先進的深層神經網絡,完成了一系列的分類和分割任務。更重要的是,我們的ap方法還保留了貝葉斯原理的優點,比包括MC-dropout和variationalBNNs算法(如噪聲EK-FAC)在內的強基線產生了改進的不確定性估計。

論文作者

鄧志杰,羅玉岑,朱軍軍,張博博,來自于清華大學THBI實驗室,BNRist中心理工學院 ,計算機科學與技術系,人工智能研究所,Intell國家重點實驗室。

付費5元查看完整內容

題目: Generative Teaching Networks: Accelerating Neural Architecture Search by Learning to Generate Synthetic Training Data

摘要:

這篇論文探討了一個有趣的問題,即我們是否可以創建自動生成訓練數據、學習環境和課程的學習算法,以幫助人工智能智能體快速學習。我們證明了這種算法可以通過生成式教學網絡(GTNs)來實現,生成式教學網絡是一種理論上適用于有監督、無監督和強化學習的通用方法,盡管我們的實驗只關注有監督的情況。GTNS是生成數據和訓練環境的深度神經網絡,學習者(例如,一個新初始化的神經網絡)在對目標任務進行測試之前需要進行幾個SGD步驟的訓練。然后,我們通過元梯度來區分整個學習過程,更新GTN參數,以提高目標任務的性能。GTNS的有益特性是,理論上它們可以生成任何類型的數據或培訓環境,從而使它們的潛在影響很大。本文介紹了GTNS,討論了它們的潛力,并展示了它們可以極大地加速學習。我們還演示了一個實際的和令人興奮的應用:加速評估候選架構的神經架構搜索(NAS),這是由這種評估的速度限制,使大量的加速在NAS。GTN-NAS改進了NAS的狀態,在控制搜索建議機制時可以找到性能更好的架構。GTN-NAS還可以與現有的最先進的方法相競爭,這些方法在使用比典型NAS方法少幾個數量級的計算量的情況下獲得最佳性能。展望未來,GTNs可能代表著朝著算法的宏偉目標邁出的第一步,算法可以生成自己的訓練數據,并在此過程中打開各種有趣的新研究問題和方向。

作者簡介:

Felipe Petroski Such是一位專注于深度神經進化、強化學習和高性能計算的科學家。在加入Uber AI實驗室之前,他獲得了RIT的BS/MS學位,在那里他開發了圖形應用和ICR的深度學習架構,以及使用fpga的硬件加速。

Aditya RawalAditya Rawal是Uber AI實驗室的研究科學家。他的興趣在于兩個研究領域的融合——神經進化和深度學習。在此之前,Aditya在奧斯汀的德克薩斯大學獲得了計算機科學的碩士/博士學位,在他的博士期間,他開發了神經進化算法來進化序列預測問題的遞推架構,并構建了合作、競爭和交流的多主體系統。

Joel Lehman之前是哥本哈根IT大學的助理教授,研究神經網絡、進化算法和強化學習。

付費5元查看完整內容

論文摘要

圖無處不在,從引文和社交網絡到知識圖譜(KGs)。它們是最富表現力的數據結構之一,已被用于建模各種問題。知識圖譜是圖中事實的結構化表示,其中節點表示實體,邊表示實體之間的關系。最近的研究已經開發出幾種大型知識圖譜;例如DBpedia、YAGO、NELL和Freebase。然而,它們都是稀疏的,每個實體只有很少的事實。例如,每個實體只包含1.34個事實。在論文的第一部分,我們提出了緩解這一問題的三個解決方案:(1)KG規范化,即(2)關聯提取,它涉及到從非結構化文本中提取實體之間的語義關系的自動化過程;(3)鏈接預測,它包括基于KG中的已知事實推斷缺失的事實。KG的規范化,我們建議CESI(規范化使用嵌入和邊信息),一個新穎的方法執行規范化學習嵌入開放KG。KG嵌入的方法擴展了最新進展將相關NP和關系詞信息原則的方式。對于關系提取,我們提出了一種遠程監督神經關系提取方法,該方法利用KGs中的附加邊信息來改進關系提取。最后,對于鏈路預測,我們提出了擴展ConvE的InteractE,這是一種基于卷積神經網絡的鏈路預測方法,通過三個關鍵思想:特征置換、新穎的特征重塑和循環卷積來增加特征交互的次數。通過對多個數據集的大量實驗,驗證了所提方法的有效性。

傳統的神經網絡如卷積網絡和遞歸神經網絡在處理歐幾里得數據時受到限制。然而,在自然語言處理(NLP)中圖形是很突出的。最近,圖卷積網絡(Graph Convolutional Networks, GCNs)被提出來解決這一缺點,并成功地應用于多個問題。在論文的第二部分,我們利用GCNs來解決文檔時間戳問題,它是文檔檢索和摘要等任務的重要組成部分。

為此,我們提出利用GCNs聯合開發文檔語法和時態圖結構的NeuralDater,以獲得該問題的最新性能。提出了一種靈活的基于圖卷積的詞嵌入學習方法——SynGCN,該方法利用詞的依賴上下文而不是線性上下文來學習更有意義的詞嵌入。在論文的第三部分,我們討論了現有GCN模型的兩個局限性,即(1)標準的鄰域聚合方案對影響目標節點表示的節點數量沒有限制。這導致了中心節點的噪聲表示,中心節點在幾個躍點中幾乎覆蓋了整個圖。為了解決這個缺點,我們提出了ConfGCN(基于信任的GCN),它通過估計信任來確定聚合過程中一個節點對另一個節點的重要性,從而限制其影響鄰居。(2)現有的GCN模型大多局限于處理無向圖。然而,更一般和更普遍的一類圖是關系圖,其中每條邊都有與之關聯的標簽和方向。現有的處理此類圖的方法存在參數過多的問題,并且僅限于學習節點的表示。我們提出了一種新的圖卷積框架CompGCN,它將實體和關系共同嵌入到一個關系圖中。CompGCN是參數有效的,并且可以根據關系的數量進行擴展。它利用了來自KG嵌入技術的各種實體-關系組合操作,并在節點分類、鏈接預測和圖分類任務上取得了明顯的優勢結果。

付費5元查看完整內容
北京阿比特科技有限公司