深度神經網絡在計算機視覺、自然語言處理和機器人技術等領域取得了卓越的成就。然而,這些模型在理解我們周圍世界的能力,以及泛化和適應新任務或環境的能力方面仍然是蒼白的。這個問題的一個可能的解決方案是理解因果關系的模型,這樣的模型可以推斷因果變量之間的聯系和干預對它們的影響。然而,現有的因果算法通常不能擴展,也不能適用于高度非線性的設置,它們也假設因果變量是有意義的和給定的。最近,為了解決上述挑戰,人們對因果關系和深度學習的交集產生了越來越多的興趣和研究活動,它們使用深度學習來受益于因果算法,反之亦然。本教程旨在為兩種受眾介紹因果關系和深度學習的基本概念,提供近期工作的概述,以及目前在這兩個領域研究的協同作用、挑戰和機會。
因果關系的深度學習
建模功能的關系 學習圖上的分布 表征是學習特征的豐富組成* 潛在的因果變量
深度學習的因果關系
*為什么DL有因果關系 *DL中因果學習的基準 *DL中因果學習的目標和架構 *利用因果關系的概念來幫助DL
講者: Yoshua Bengio加拿大蒙特利爾大學教授 2018年圖靈獎獲得者 蒙特利爾學習算法研究所(Mila)主管
1964年生,加拿大人。他是世界公認的人工智能領域頂尖專家之一,因其在深度學習方面的開創性工作而聞名,與杰弗里·辛頓、楊立昆一同獲得了2018年圖靈獎。他是蒙特利爾大學全職教授,也是Mila魁北克人工智能研究所的創始人和科學主任。他作為高級研究員共同指導CIFAR的“機器與大腦學習”項目,并擔任IVADO科學主任。他關注人工智能的社會影響和人工智能惠及所有人的目標,積極為《負責任地發展人工智能的蒙特利爾宣言》做出貢獻,他還是英國倫敦皇家學會和加拿大皇家學會會員。
Nan Rosemary Ke是Deepmind的一名研究科學家,她的研究興趣是建立模型,通過理解因果關系來概括變化的任務和環境。在加入Deepmind之前,她是Mila的博士生,由Yoshua Bengio和Chris Pal擔任導師。她還獲得了Facebook獎學金,并在2020年被評為機器學習領域的一顆后起之星。Rosemary的研究興趣結合了深度學習和因果關系的見解;她一直致力于建立能夠充分理解因果關系的模型,以推斷因果變量之間的聯系以及干預對它們的影響。她的研究成果已在各大會議(NeurIPS, ICML, ICLR)上發表。
EPFL的Lenka Zdeborová教授在UAI2021上的keynote報告《貝葉斯最優學習》
Yoshua Bengio 說“因果關系對于機器學習的下一步進展非常重要“。” 深度學習包含了對靜態數據集的學習,這使得人工智能非常擅長與相關性和關聯相關的任務。然而,神經網絡不能解釋因果關系,也不能解釋為什么這些聯系和關聯存在。他們也不擅長涉及想象力、推理和計劃的任務。這反過來又限制了人工智能推廣其學習并將其技能轉移到其他相關環境的能力。 在本演講中,Yoshua Bengio將介紹因果表示學習。
高層語義變量空間中的稀疏因子圖 語義變量是因果的:代理,意圖,可控對象 局部因果干預引起的分布變化(語義空間) 高層次語義變量/思想與單詞/句子之間的簡單映射 跨實例共享“通用規則”(作為參數),需要變量和間接 含義(例如,由編碼器接地)是穩定和健壯的wrt變化在分發 信用分配只適用于短的因果鏈
//www.youtube.com/watch?v=rKZJ0TJWvTk&list=PLoazKTcS0Rzb6bb9L508cyJ1z-U9iWkA0
機器學習暑期學校(MLSS)系列開始于2002年,致力于傳播統計機器學習和推理的現代方法。今年因新冠疫情在線舉行,從6月28號到7月10號講述了眾多機器學習主題。本文推薦來自深度學習大佬Yoshua Bengio教授講述《深度學習教程》,104頁ppt系統性講述了深度學習基礎知識和最新進展,非常干貨。
Yoshua Bengio
Yoshua Bengio,蒙特利爾大學教授。Bengio 教授憑《Learning Deep Architectures for AI》、《A neural probabilistic language model》兩篇經典之作在內的 300 多篇論文,對深度學習的發展起到了巨大的推動作用,他與 Geoff Hinton、Yann LeCun 兩位一起造就了 2006 年始的深度學習復興,并稱深度學習三巨頭。Yoshua Bengio 教授于 2017 年獲得加拿大總督功勛獎。
Bengio 教授研究人工智能的動力就是發掘它的潛能,而不是對它的恐懼。他的研究成果不僅是如今 AI 熱浪的基石,也是加拿大在人工智能時代占據一席領導者位置的重要原因。「要讓電腦能像人類那樣思考,或者起碼能像人類那樣理解世界,我們現在離那一步還太遠」,Bengio 教授說,「但是人工智能現在的發展已經足以對經濟和人類的福祉產生巨大的影響。」
深度學習 AI
深度學習指的是用計算機模擬神經元網絡,以此逐漸“學會”各種任務的過程,比如識別圖像、理解語音甚或是自己做決策。這項技術的基礎是所謂的“人工神經網絡”,它是現代人工智能的核心元素。人工神經網絡和真實的大腦神經元工作方式并不完全一致,事實上它的理論基礎只是普通的數學原理。但是經過訓練后的人工神經網絡卻可以完成很多任務,比如識別照片中的人物和物體,或是在幾種主要語言之間互相翻譯等等。
【導讀】圖神經網絡依然是當下的研究熱點。來自新加坡南洋理工大學Xavier Bresson和Bengio聯合發布了一篇論文《Benchmarking Graph Neural Networks》,如何構建強大的GNN成為了核心問題。什么類型的架構、第一原則或機制是通用的、可推廣的、可伸縮的,可以用于大型圖數據集和大型圖數據集? 另一個重要的問題是如何研究和量化理論發展對GNNs的影響?基準測試為回答這些基本問題提供了一個強有力的范例。作者發現,準確地說,圖卷積、各向異性擴散、剩余連接和歸一化層是開發健壯的、可伸縮的GNN的通用構件。
圖神經網絡(GNNs)已經成為分析和學習圖數據的標準工具。它們已經成功地應用于無數的領域,包括化學、物理、社會科學、知識圖譜、推薦和神經科學。隨著這個領域的發展,識別架構和關鍵機制變得至關重要,這些架構和關鍵機制可以泛化圖的大小,使我們能夠處理更大、更復雜的數據集和域。不幸的是,在缺乏具有一致的實驗設置和大型數據集的標準基準的情況下,評估新GNN的有效性和比較模型變得越來越困難。在這篇論文中,我們提出了一個可復制的GNN基準測試框架,為研究人員方便地添加新的數據集和模型提供了便利。我們將該基準測試框架應用于數學建模、計算機視覺、化學和組合問題等新型中型圖數據集,以建立設計有效GNNs時的關鍵操作。準確地說,圖卷積、各向異性擴散、剩余連接和歸一化層是開發健壯的、可伸縮的GNN的通用構件。
自(Scarselli et al., 2009; Bruna et al., 2013; Defferrard et al., 2016; Sukhbaatar et al., 2016; Kipf & Welling, 2017; Hamilton et al., 2017)圖神經網絡(GNNs)近年來引起了人們極大的興趣,開發出了很有前途的方法。隨著這個領域的發展,如何構建強大的GNN成為了核心問題。什么類型的架構、第一原則或機制是通用的、可推廣的、可伸縮的,可以用于大型圖數據集和大型圖數據集? 另一個重要的問題是如何研究和量化理論發展對GNNs的影響?基準測試為回答這些基本問題提供了一個強有力的范例。它已被證明是有益的,在幾個領域的科學推動進步,確定基本的想法,并解決領域特定的問題(Weber et al., 2019)。最近,著名的2012年ImageNet (Deng et al.,2009)挑戰提供了觸發深度學習革命的基準數據集(Krizhevsky et al., 2012; Malik, 2017)。國際團隊競相在大型數據集上生成最佳的圖像分類預測模型。自從在ImageNet上取得突破性成果以來,計算機視覺社區已經開辟了一條道路,以識別健壯的體系結構和訓練深度神經網絡的技術(Zeiler & Fergus, 2014; Girshick et al., 2014; Long et al., 2015; He et al., 2016)。
但是,設計成功的基準測試是非常具有挑戰性的:它需要定義適當的數據集、健壯的編碼接口和用于公平比較的公共實驗設置,所有這些都是可重復的。這樣的需求面臨幾個問題。首先,如何定義合適的數據集?它可能很難收集有代表性的,現實的和大規模的數據集。這是GNNs最重要的問題之一。大多數發表的論文都集中在非常小的數據集,如CORA和TU數據集(Kipf & Welling, 2017; Ying et al., 2018; Velickovi ˇ c et al. ′ , 2018; Xinyi & Chen, 2019; Xu et al., 2019; Lee et al., 2019),其中所有的gnn執行幾乎相同的統計。有些與直覺相反的是,沒有考慮圖結構的基線表現得和GNNs一樣好,有時甚至更好(Errica et al., 2019)。這就提出了開發新的、更復雜的GNN架構的必要性問題,甚至提出了使用GNNs的必要性問題(Chen et al., 2019)。例如,在Hoang & Maehara(2019)和Chen等人(2019)的近期著作中,作者分析了GNNs的容量和組成,以揭示模型在小數據集上的局限性。他們聲稱這些數據集不適合設計復雜的結構歸納學習架構。
GNN文獻中的另一個主要問題是定義常見的實驗設置。正如Errica等人(2019)所指出的,最近關于TU數據集的論文在訓練、驗證和測試分割以及評估協議方面沒有達成共識,這使得比較新思想和架構的性能變得不公平。目前還不清楚如何執行良好的數據分割,除了隨機分割之外,后者已知會提供過于樂觀的預測(Lohr, 2009)。此外,不同的超參數、損失函數和學習速率時間表使得很難識別架構中的新進展。
本文的貢獻如下:
我們發布了一個基于PyTorch (Paszke et al., 2019)和DGL (Wang et al., 2019)庫的基于GitHub的GNNs開放基準基礎架構。我們專注于新用戶的易用性,使新數據集和GNN模型的基準測試變得容易。
我們的目標是超越流行的小型CORA和TU數據集,引入中等規模的數據集,其中包含12k-70k圖,節點大小為9-500個。提出的數據集包括數學建模(隨機塊模型)、計算機視覺(超級像素)、組合優化(旅行商問題)和化學(分子溶解度)。
我們通過建議的基準測試基礎設施來確定重要的GNN構建塊。圖卷積、非istropic擴散、殘差連接和歸一化層對設計高效的GNN非常有用。
我們的目標不是對已發布的GNN進行排名。為特定的任務尋找最佳模型在計算上是昂貴的(并且超出了我們的資源),因為它需要使用交叉驗證對超參數值進行徹底的搜索。相反,我們為所有模型確定了一個參數預算,并分析性能趨勢,以確定重要的GNN機制。
數值結果完全可重復。通過運行腳本,我們可以簡單地重現報告的結果。此外,基準基礎設施的安裝和執行在GitHub存儲庫中有詳細的說明。
兩位人工智能領域先驅之間的歷史性爭論,主要是圍繞了一個大問題——為創建AI混合系統,尋找出正確的知識先驗。二者在這一問題的細節上,有著大量的分歧。
紐約大學教授兼企業家Gary Marcus,因為經常公開批評深度學習而出名;而深度學習領軍人物Yoshua Bengio,因其開創性的工作而獲得了圖靈獎。兩位持不同觀點者于周一晚上,在Bengio的MILA研究所總部進行了一場兩小時的辯論。
兩位學者似乎在AI基礎研 //montrealartificialintelligence.com/aidebate/
究方面有著廣泛的共通點,比如視圖試圖將推理帶入人工智能體系,但是,當討論特定術語及歷史主張時,二者突然發生了沖突。
簡介: Gary Marcus與Bengio雙方就符號處理和因果關系與目前AI發展方向的聯系發生了“爭吵”,Gary Marcus認為符號處理對于因果關系至關重要;而Bengio認為,我們可以在保持深度學習框架的同時加入因果推斷,新的人工智能系統或許可以利用注意力機制,或者通過新的模塊和訓練框架來實現。
人物介紹:
Gary Marcus,成功的科學家、暢銷書作家、企業家,紐約大學心理學系的教授,并且是后來被Uber收購的機器學習公司Geometric Intelligence的創始人兼首席執行官。他是Robust.AI的創始人兼首席執行官。
Yoshua Bengio是蒙特利爾大學計算機科學與運籌學系的教授,Mila和IVADO的科學總監和創始人,2018年圖靈獎獲得者,加拿大統計學習算法研究主席以及加拿大AI CIFAR主席。 他開創了深度學習的先河,并在2018年每天獲得全球所有計算機科學家中最多的引用。 他是加拿大勛章的官員,加拿大皇家學會的成員,并于2017年被授予基拉姆獎,瑪麗·維克多獎和年度無線電加拿大科學家,并且是NeurIPS顧問的成員。 ICLR會議的董事會和聯合創始人,以及CIFAR“機器和大腦學習”計劃的程序總監。
題目: A Meta-Transfer Objective for Learning to Disentangle Causal Mechanisms
簡介: 我們建議使用一種元學習目標,該目標可以在修改后的分布上最大程度地提高轉移速度,以學習如何模塊化獲取的知識。特別是,我們專注于如何根據因果關系將聯合分布分解為適當的條件。我們假設分布的變化是局部的(例如,由于對變量之一的干預而導致的)處于局部分布的假設,從而解釋了何時可以奏效。我們證明了在因果機制局部變化的這種假設下,正確的因果圖將傾向于僅具有其一些具有非零梯度的參數,即需要進行調整的參數(那些修正變量)。我們爭論并通過實驗觀察到,這將導致更快的適應,并使用此屬性來定義元學習替代評分,該評分除了圖形的連續參數化外,還將傾向于正確的因果圖。最后,受AI智能體的啟發(例如,機器人自動發現其環境),我們考慮將同一目標如何發現因果變量本身,作為觀察到的無因果意義的低級變量的轉換。在兩個變量情況下的實驗驗證了所提出的思想和理論結果。
作者介紹: Yoshua Bengio是蒙特利爾大學計算機科學與運籌學系的教授,Mila和IVADO的科學總監和創始人,2018年圖靈獎獲得者,加拿大統計學習算法研究主席以及加拿大AI CIFAR主席。 他開創了深度學習的先河,并在2018年每天獲得全球所有計算機科學家中最多的引用。 他是加拿大勛章的官員,加拿大皇家學會的成員,并于2017年被授予基拉姆獎,瑪麗·維克多獎和年度無線電加拿大科學家,并且是NeurIPS顧問的成員。 ICLR會議的董事會和聯合創始人,以及CIFAR“機器和大腦學習”計劃的程序總監。 他的目標是幫助發現通過學習產生智力的原理,并促進AI的發展以造福所有人。