亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

擴散模型已經成為一種突出的生成模型,在樣本質量和訓練穩定性方面超過了之前的方法。最近的工作顯示了擴散模型在改進強化學習(RL)解決方案方面的優勢,包括作為軌跡規劃器、表達性策略類、數據合成器等。本綜述旨在概述這一新興領域的進展,并希望激發新的研究途徑。首先,研究了當前強化學習算法遇到的幾個挑戰。根據擴散模型在強化學習中發揮的作用,對現有方法進行了分類,并探索了如何解決現有挑戰。進一步概述了擴散模型在各種強化學習相關任務中的成功應用,同時討論了當前方法的局限性。最后,總結了綜述,并對未來的研究方向提出了見解,重點是提高模型性能和將擴散模型應用于更廣泛的任務。我們正在積極維護一個GitHub存儲庫,用于存儲在RL中應用擴散模型的論文和其他相關資源。

//www.zhuanzhi.ai/paper/5b2f904982b924f5734c5543cb19945c

擴散模型已成為一類強大的生成模型,近年來引起了廣泛關注。這些模型采用了一種去噪框架,可以有效地逆轉多步去噪過程以生成新數據[Song等人,2021]。與早期的生成模型如變分自編碼器(VAE) [Kingma和Welling, 2013]和生成對抗網絡(GAN) [Goodfellow等人,2014]相比,擴散模型在生成高質量樣本方面表現出優越的能力,并顯示出增強的訓練穩定性。因此,他們在包括計算機視覺在內的不同領域取得了顯著的進步并取得了實質性的成功[Ho等人,2020;Lugmayr等人,2022;,自然語言處理[Austin等人,2021;Li等人,2022],音頻生成[Lee和Han, 2021;Kong等人,2020]和藥物發現[Xu等人,2022;Schneuing等人,2022]等。

強化學習(RL) [Sutton和Barto, 2018]專注于通過最大化累積獎勵來訓練智能體來解決連續決策任務。雖然RL在各個領域取得了顯著的成功[Kober等人,2013;Kiran等人,2021],有一些長期的挑戰。具體來說,盡管離線強化學習因克服在線強化學習中的低樣本效率問題而獲得了相當大的關注[Kumar等人,2020;Fujimoto and Gu, 2021],傳統的高斯策略可能無法擬合具有復雜分布的數據集,因為它們的表達能力有限。同時,雖然利用經驗回放來提高樣本效率[Mnih et al., 2013],但在高維狀態空間和復雜交互模式的環境中仍然存在數據稀缺問題。在基于模型的強化學習中,學習到的動態模型的一個常見用法是規劃[Nagabandi等人,2018;Schrittwieser等人,2020;Zhu et al., 2021],但perstep自回歸規劃方法受到復合誤差問題的影響[Xiao et al., 2019]。一個理想的強化學習算法應該能夠學習單個策略來執行多個任務,并泛化到新環境中[Vithayathil Varghese和Mahmoud, 2020;Beck等,2023]。然而,現有工作在多任務泛化方面仍然很困難。

近年來,已有一系列將擴散模型應用于序列決策任務的研究,其中尤以離線決策學習為著。作為一項代表性工作,Diffuser [Janner等人,2022]擬合了用于離線數據集上軌跡生成的擴散模型,并通過引導采樣規劃所需的未來軌跡。已經有許多后續工作,其中擴散模型在強化學習管道中表現為不同的模塊,例如取代傳統的高斯策略[Wang等人,2023],增強經驗數據集[Lu等人,2023b],提取潛在技能[Venkatraman等人,2023]等。我們還觀察到,由擴散模型促進的規劃和決策算法在更廣泛的應用中表現良好,如多任務強化學習[He等人,2023a]、模仿學習[Hegde等人,2023]和軌跡生成[Zhang等人,2022]。更重要的是,擴散模型由于其強大而靈活的分布建模能力,已經為解決強化學習中長期存在的挑戰提供了思路。

本文關注于擴散模型在強化學習中的應用,并額外考慮了將擴散模型納入軌跡生成和模仿學習背景中的方法,主要是因為這些領域之間存在明顯的相互關系。第2節闡述了上述RL挑戰,并討論了擴散模型如何幫助解決每個挑戰。第3節提供了擴散模型基礎的背景知識,還涵蓋了在強化學習相關應用中特別重要的兩類方法:引導采樣和快速采樣。第4節說明了擴散模型在強化學習中在現有工作中發揮的作用。第5節討論了擴散模型在不同RL相關應用中的貢獻。在第6節中,指出了應用擴散模型時的局限性,并將其與基于transformer的方法進行了比較。第7節總結了調查與討論新興的新主題。

擴散模型的基礎

本節提供擴散模型的基礎。提出了兩個著名的表述:去噪擴散概率模型(DDPM) [Ho等人,2020]和基于分數的生成模型[Song等人,2021]。DDPM由于其簡單性而被廣泛使用,而基于分數的公式將其擴展到包含連續時間擴散過程。此外,引導采樣方法在將擴散模型集成到RL框架中起著關鍵作用。根據指導采樣過程的方法,這些方法可以分為兩大類:分類器指導[Dhariwal和Nichol, 2021],這需要一個額外的分類器,以及無分類器指導[Ho和Salimans, 2022],這將指導條件作為模型輸入的一部分。此外,為了提高采樣速度,特別是在在線交互過程中,在強化學習相關任務中使用擴散模型時采用了快速采樣技術[Kang等人,2023;王志軍,2023。簡要介紹了在擴散模型的禁食采樣研究方面的一些代表性工作,包括基于學習的方法和無學習的方法。

**在RL中擴散模型的角色 **

擴散模型已證明了其生成多樣化數據和建模多模態分布的能力。考慮到第2節中介紹的長期存在的挑戰,使用擴散模型改善RL算法的性能和樣本效率是足夠的。在圖1中,我們說明了擴散模型在RL中與以前的解決方案相比扮演的不同角色。當前應用擴散模型于RL的工作主要分為四個類別:使用擴散模型作為規劃器,作為策略,用于數據增強,以及在潛在表示上。以下小節將為每個類別說明整體框架和代表性的論文。

規劃器

在RL中的規劃指的是在一個假想的環境中決策應采取的行動的過程,然后選擇最佳行動以最大化累積獎勵信號。這個過程通常模擬或探索不同的行動和狀態序列,預測其決策的結果,從而從更長時間范圍的角度產生更好的行動。因此,規劃通常應用于MBRL框架中。然而,用于規劃的決策序列是自回歸生成的,這可能導致嚴重的累積誤差,尤其是在離線設置中,由于數據支持有限。擴散模型提供了一個可能的解決方案,因為它們可以同時生成整個序列。擴散模型作為規劃器的一般框架顯示在圖2(a)中。

策略

與傳統的RL分類相比,傳統分類大致將RL算法分為MBRL和無模型RL,使用擴散模型作為規劃器類似于MBRL,并專注于捕捉環境動態。相反,將擴散模型視為策略遵循無模型RL的框架。第2.1節闡述了離線策略學習框架的主要缺點:過于保守和在多樣化數據集上的能力較差。憑借其對多模態分布的出色表達能力,許多工作利用擴散模型作為策略來解決這些問題。

**數據合成器 **

除了適應多模態分布外,擴散模型的一個簡單且常見的用途是生成更多的訓練樣本,這在計算機視覺中得到了廣泛應用并得到了驗證。因此,將擴散模型作為RL數據集上的數據合成器是自然的,因為如第2.2節所述,數據稀缺是RL的實際挑戰。為了保證合成數據與環境動態的一致性,RL中的先前數據增強方法通常在現有狀態和動作中添加小的擾動 [Sinha等,2021]。相比之下,圖2(c)說明擴散模型從整個數據集D學習數據分布,并能在保持一致性的同時生成高度多樣化的數據。Lu等[2023b]研究了擴散模型作為數據合成器在離線和在線設置中的能力。它直接從離線數據集或在線回放緩沖區訓練擴散模型,然后生成更多的樣本以改進策略。分析顯示,擴散模型生成的數據質量在多樣性和準確性上高于明確數據增強生成的數據。有了合成數據,離線策略的性能和在線策略的樣本效率都得到了顯著提高。He等[2023a]部署擴散模型來增強多任務離線數據集的數據,并獲得了比單任務數據集更好的性能。它聲稱在多個任務上進行擬合可能會實現任務之間的隱式知識共享,這也受益于擴散模型的多模態特性。

結論

本綜述提供了一個全面的概述,關于擴散模型在RL領域的應用的現代研究努力。根據擴散模型所扮演的角色,我們將現有的方法分類為使用擴散模型作為規劃器、策略、數據合成器,以及其他不太受歡迎的角色,如價值函數、潛在表示模型等。通過與傳統解決方案進行比較,我們可以看到擴散模型是如何解決RL中一些長期存在的挑戰,即,受限的表達性、數據稀缺、累積誤差和多任務泛化。盡管有這些優點,但必須承認在RL中使用擴散模型存在不容忽視的局限性,這是由于擴散模型的訓練和采樣中的一些固有屬性。值得強調的是,將擴散模型融入RL仍然是一個新興領域,還有很多研究課題值得探索。在這里,我們概述了四個前景研究方向,即結合Transformer、增強生成的檢索、整合安全約束和組合不同的技能。

付費5元查看完整內容

相關內容

擴散模型是近年來快速發展并得到廣泛關注的生成模型。它通過一系列的加噪和去噪過程,在復雜的圖像分布和高斯分布之間建立聯系,使得模型最終能將隨機采樣的高斯噪聲逐步去噪得到一張圖像。

這是首個關注大型語言模型(LLM)中隱私問題的活躍人工智能研究領域的綜述。具體而言,我們專注于對模型進行紅隊測試以突顯隱私風險、嘗試在訓練或推理過程中構建隱私保護、實現訓練模型的高效數據刪除以符合現有隱私法規、以及試圖緩解版權問題的工作。我們的重點是總結開發算法、證明定理并進行實證評估的技術研究。雖然有大量法律和政策工作從不同角度應對這些挑戰,但這不是我們綜述的重點。盡管如此,這些工作以及近期的法律進展確實影響了這些技術問題的形式化,因此我們將在第1節簡要討論它們。雖然我們已盡最大努力包含所有相關工作,但由于該研究領域發展迅速,我們可能遺漏了一些最新的工作。如果我們錯過了您的工作,請與我們聯系,因為我們將嘗試保持這份綜述相對最新。我們正在維護一個倉庫,其中包含本綜述涵蓋的論文列表和當時公開可用的任何相關代碼,網址為 //github.com/safr-ml-lab/survey-llm。

ChatGPT于2022年11月推出,迅速在全球引起轟動,激發了人工智能研究、初創企業活動以及大型語言模型(LLM)的消費者采用的爆炸性增長。到2023年底,LLM的進展持續快速發展,但越來越多的共識認為,除了轉型的經濟利益外,LLM還帶來了重大的社會風險。一個AI安全倡導者陣營專注于開發超級智能帶來的存在風險;如AI初創公司Anthropic在其關于AI安全的立場文件中指出:“如果我們構建了一個比人類專家更加能干的AI系統,但它追求與我們最佳利益相沖突的目標,后果可能是嚴重的。”第二個陣營認為,基于我們當前技術基礎構建的超智能系統的風險很小,但同時對現有或近期LLM的誤用持嚴重關注。這些關注集中在當前一代語言模型的可靠性、有害性、偏見、安全性和隱私上,Bommasani等人[2021]。在這份綜述中,我們關注最后一個問題——隱私,這是一個多方面的話題,涵蓋了關于模型如何開發、微調、部署以及訓練后如何修改的研究。雖然管理LLM的監管框架仍處于起步階段,但到目前為止提出的許多主要提案和法規都已經高度關注隱私。在美國,最近的白宮關于AI的行政命令whi[2023]花費了大量時間討論AI的隱私風險以及可能的緩解方法。關于潛在風險,報告指出:“人工智能使提取、重新識別、連接、推斷和采取行動以獲取有關人們身份、位置、習慣和欲望的敏感信息變得更加容易。人工智能在這些領域的能力可能增加個人數據被利用和暴露的風險。”這份綜述的前兩節回顧了現有工作中暴露的這些隱私風險;特別是大型語言模型傾向于記憶底層訓練數據的傾向(第3節),使得隱私攻擊可以通過訪問模型來暴露底層訓練數據(第4節)。有動機的攻擊者利用對這些模型的訪問權限來反向工程敏感訓練數據的程度仍是一個活躍的研究領域,也是潛在的訴訟領域;2023年7月,美國聯邦貿易委員會(FTC),負責監督美國消費者保護和反壟斷法的政府機構,就開啟了對ChatGPT的制造商OpenAI的調查,理由是他們的數據收集實踐和服務可能違反用戶的隱私權。

行政命令接著討論了特定的隱私增強技術(PET),可以潛在地挫敗這些隱私攻擊:“為了應對這一風險,聯邦政府將確保數據的收集、使用和保留是合法的,是安全的,并且減輕隱私和保密風險。機構應使用可用的政策和技術工具,包括在適當情況下使用隱私增強技術(PET),來保護隱私并應對更廣泛的法律和社會風險,”接著提到了加密方法、聯邦學習和差分隱私。第5節回顧了關于DP訓練和聯邦訓練語言模型的現有工作。

由生成模型引發的另一個受到顯著關注的隱私問題涉及版權 - 尤其是(i)模型生成的原創內容是否可以受版權法保護以及(ii)模型生成的作品是否可能違反對訓練數據的版權保護。已經有幾起引人注目的訴訟,涉及模型是否包含版權數據的訓練集中生成的特定圖像或文本構成合理使用;Getty Images對Stability AI的訴訟,因為未經允許就使用他們的圖像進行訓練,以及喜劇演員Sarah Silverman對OpenAI和Meta的訴訟,只是其中幾個Lucchi[2023]。盡管行政命令沒有對由生成模型(如LLM)引發的版權問題提供具體指導,但它要求美國版權局在2024年中期發布指導。雖然在美國對版權數據進行訓練的當前法律地位尚不明確,但Lucchi[2023]指出:“如果法院確定數據攝取 - 涉及從一個或多個來源獲取未經處理的數據并修改它們以使它們適合于訓練AI機器的目的 - 構成侵權行為,那么整個AI系統可能會遇到重大的法律困難。”像確定LLM是否侵犯其訓練數據的版權保護問題,以及LLM生成的作品是否可以自己獲得版權保護一樣,這些問題基本上尚未解決。這里的復雜性包括(i)許多司法管轄區要求人類作者身份來持有版權(ii)如果被迫將版權歸屬于人類創作者,尚不清楚誰應該獲得版權 - 訓練數據的創造者、模型訓練者還是促成作品創造的最終用戶(iii)幾個司法管轄區執行“原創性”標準以持有版權,這對AI生成的作品來說可能難以評估。我們在第6節討論了關于緩解與版權數據訓練相關的版權問題的早期算法工作。

自2018年以來,通用數據保護條例(GDPR)一直是規定數據隱私實踐和對在歐盟開展業務的公司的違規處罰的主要法規集。盡管GDPR并沒有明確涉及AI,但其許多條款可以被解釋為適用于AI系統。特別是其中的“刪除權”賦予個人在提交請求后要求公司刪除其個人數據的權利。雖然這些個人數據可以以相對直接的方式從數據庫中刪除(盡管即使如此,鑒于數據庫在底層實施的細微差別,這也可能是棘手的;參見Villaronga等人[2018]),但鑒于模型本身泄露訓練數據中的私人信息的能力(第3、4節),這自然引發了如何從訓練后的模型中刪除或“遺忘”訓練點的問題。這是機器學習中的一個活躍研究領域,其中遺忘方法也可用于在訓練后從模型中移除有害、錯誤或受版權保護的數據的影響Nguyen等人[2022]。第7節回顧了LLM遺忘的早期工作。

**針對語言模型的隱私攻擊 **

在本節中,我們回顧了針對語言模型的隱私攻擊的近期研究。這些近期工作是在機器學習領域長期研究ML模型隱私攻擊的基礎上建立起來的,通常在分類設置中。我們推薦讀者參考Hu等人[2022],Liu等人[2021]的綜合性綜述。隱私攻擊主要可以分為兩類:成員資格推斷攻擊(MIAs)和訓練數據提取攻擊(以及我們將簡要討論的屬性推斷攻擊)。MIAs是一種較不明顯的嚴重隱私攻擊,其中一個對手,在獲得模型的訪問權限后,能夠高精度地確定某個特定點是否被用于訓練該模型。雖然這表明一些關于訓練點的信息通過模型“泄露”,但鑒于對手仍然需要訪問可能用于訓練模型的候選點才能運行攻擊,這更像是一個“煙霧信號”而不是直接的隱私侵犯。另一方面,訓練數據提取是指對手獲得模型的訪問權限后,實際上能夠重建底層訓練數據的部分內容,這些數據可能是敏感的或受法律保護的。 然而,在處理生成模型時,MIAs有可能促進訓練數據提取攻擊,這使得它們變得更為重要。這里的關鍵技巧是對手可以利用記憶化:如第3節所討論的,語言模型逐字記憶了它們的訓練數據,并可以被提示重復這些訓練示例。配備了可以識別出訓練樣本與分布樣本的MIA,對手接著可以使用該攻擊來找到最有可能是訓練點的生成點,并“提取”它們。我們將在第4.3節進一步討論這一點。 我們首先討論MIAs的基礎知識,然后涵蓋針對語言模型的MIAs,這些與針對標準模型的攻擊在一些關鍵方面有所不同。然后我們覆蓋了從語言模型中的訓練數據提取,并討論緩解隱私攻擊的方法。 **保護隱私的大型語言模型 **

如第3節和第4節所討論的,使用LLM帶來了許多隱私風險,這引發了一個顯而易見的問題:是否可以以保護訓練數據隱私的方式預訓練或微調LLM,同時也保持其實用性?在本節中,我們將探討旨在私密訓練語言模型的方法,這些方法基于兩種高層次的隱私風險框架。第一個框架關注對手基于對模型的訪問程度推斷出底層訓練數據信息的能力;例如進行成員資格推斷或訓練數據提取。通過使用差分隱私訓練模型可以解決這種風險。另一種隱私框架由聯邦學習解決,其中訓練數據以分布式方式存儲,目標是學習一個基于分布式數據訓練的集中式語言模型,而無需集中式地聚合數據。谷歌和蘋果等公司使用這兩種框架來保護用戶隱私 Ippolito [2020]。在第5.1節中,我們將介紹差分隱私和聯邦學習,在第5.2節中,我們將討論早期在私密訓練語言模型方面的成果。 版權

在過去幾年中,使用AI生成音樂、代碼和各種藝術作品的情況顯著增加 Vincent [2022]。盡管這一領域有著迷人的應用,但它也引入了基于模型傾向于復制藝術家材料的一系列道德和法律問題 Heikkila [2022b]。如第3節所討論的,LLM經常記憶它們所訓練的數據,許多流行的數據集包含版權數據 Bandy 和 Vincent [2021],Biderman等人[2022]。這導致這些模型存在重大的版權侵犯風險。事實上,喜劇演員Sarah Silverman和其他人最近因通過ChatGPT和LLaMA模型侵犯版權而起訴OpenAI和Meta Davis [2023b]。 Karamolegkou等人[2023]對語言模型記憶1930年至2010年間暢銷書籍的版權數據的程度進行了廣泛測試。Karamolegkou等人[2023]測試了OPT、Pythia、LLaMA、Falcon、Claude和GPT-3.5,通過向開源模型提供書籍的前50個詞元,以及向封閉源指令調整模型提供“<標題>的第一頁是什么?”的提示。在圖19中,我們可以看到模型和每本書記憶的最長公共子串(LCS)。與第3節討論的結果一致,更大的模型更容易侵犯版權。與此同時,流行書籍的大部分開篇文本被這些流行模型記憶了。 盡管存在這些明顯問題,許多主要公司和組織仍在推進用AI增強或替代創意工作。美國電影和電視制片人聯盟(AMPTP)已經探索了使用諸如ChatGPT之類的模型編寫劇本,這是2023年美國編劇工會(WGA)罷工的主要問題之一 Rose [2023a]。有些人認為這次罷工是即將到來的一系列關于AI使用的勞工戰爭中的第一場法律戰 Broderick [2023]。 為了安全部署這些模型而不冒侵犯版權的風險,需要更多的解決方案和修改。已經證明,防止逐字記憶不是一個完美的解決方案 Ippolito等人[2023],而在版權保護的情況下,甚至防止近似記憶可能也是不夠的。確定版權侵犯還需要衡量創新性和預期用途,這些都是難以量化的。在本節中,我們將討論有關語言模型版權的當前法律文獻,以及已經提出的任何技術解決方案。本節中的所有討論都集中在美國版權法上。這些方法在其他司法管轄區可能仍然有用,但并不一定適用于不同的法律細微差別。

機器遺忘

正如前幾節所討論的,LLM的使用背后存在幾個緊迫的隱私問題。雖然這些問題最初主要在學術環境中受到審查,但它們越來越引起公眾的關注。關于機器學習模型泄露個人數據的流行案例,例如Heikkila [2022a]中所述,使許多人對他們的數據如何被處理感到不信任 Auxier等人[2019]。 鑒于公眾日益增長的關切,立法和法規正在被引入以保護消費者數據。最有影響力的是歐盟的通用數據保護條例(GDPR)European Parliament and Council of the European Union [2016],它規定了企業如何處理個人數據。特別是,GDPR的一個元素被稱為被遺忘權。這是每個消費者要求刪除其個人數據的權利,也是加利福尼亞州消費者隱私法案(CCPA)State of California Department of Justice [2023]、擬議的紐約隱私法案(NYPA)State of New York [2023]和加拿大消費者隱私保護法案(CPPA)Government of Canada [2023]的規定。雖然在許多設置中,個人數據被存儲在表格中,這將是一個簡單的請求,但在機器學習模型和LLM的背景下,合規挑戰顯著更難 Zhang等人[2023b]。即使一個人被從數據庫中刪除,如果他們的數據之前用于訓練模型,可以通過第4節討論的隱私攻擊等方法提取。監管機構對這一風險的認識正在增加,包括聯邦貿易委員會最近與一家面部識別軟件公司達成和解,除了用戶的數據外,還必須刪除任何從他們的數據派生的模型或算法 Commission [2021]。這為可能在立法和法規中越來越頻繁出現的先例奠定了基礎。 這為模型開發者創造了一個困難的局面。最簡單的解決方案,稱為留一法(LOO)重新訓練,只需刪除個人數據并重新訓練整個模型。然而,現代LLM可能需要幾周時間和數百萬美元從頭開始重新訓練,使得這種解決方案在實踐中不可行。根據Help Net Security的說法,2021年到2022年之間,消費者數據刪除請求增加了74% Security [2023]。如果每次收到這些請求時都要求模型完全重新訓練,那么它們將無法維護,尤其是考慮到已經實施或擬議的“被遺忘權”法律的地區規模。這導致了一個稱為機器遺忘的新研究領域的出現。該領域旨在使用比重新訓練它顯著更少的計算資源從模型中刪除個人數據及其影響。成功的遺忘算法應該產生與重新訓練產生的模型大致無法區分的模型。在本節中,我們討論機器遺忘的一般原則和語言模型空間中的當前發展。有關機器遺忘的更全面綜述,請參閱Nguyen等人[2022]。 **結論 **

在本文中,我們涵蓋了與使用大型語言模型(LLM)相關的一系列隱私風險。隨著這些模型繼續普及到公眾意識和不同的應用領域,與其使用相關的明顯隱私風險引起的關注將繼續增長。這反映在即將出臺的美國和歐盟AI法規將重點關注隱私風險這一事實上。與此同時,與LLM隱私相關的基本問題在很大程度上仍未解決。我們知道LLM可以記憶大量訓練數據(第3節),但與針對判別性深度學習模型報告的攻擊成功率相比,第4節討論的現有攻擊相對較弱。真正了解實際攻擊可能對LLM構成的隱私風險將是確保個人數據不被意外暴露的關鍵,另一方面,政策制定者和AI開發者不會對可能在實踐中不太可能發生的理論風險過度反應。像差分隱私這樣的保護隱私的訓練技術似乎是一種有效的方法,在微調過程中保護隱私的同時保持性能,但需要更多的研究來驗證這些早期發現是否在不同領域都成立,并簡化采用路徑。在LLM預訓練期間保護隱私基本上是未解決的問題。隨著未來幾年生成模型適用的版權法的確切方式逐漸明朗化,將出現一系列技術問題。在眾多問題中:對于特定模型輸出,我們如何驗證它是否構成對訓練數據子集的合理使用?如果我們想通過與特定輸出相關的版稅公平地補償原始訓練數據的創作者,我們如何進行這種歸屬?從LLM中遺忘數據的現有方法是啟發式的 - 我們如何驗證它們按預期工作?基于梯度下降的方法需要對模型參數進行白盒更新,這種更新越來越計算昂貴且受限,而基于上下文內學習的最新技術可能無法擴展到大量數據刪除。需要更多研究來驗證這些遺忘方法從隱私角度來看是否按預期工作,以及能否擴展到實際模型和刪除工作負載。

付費5元查看完整內容

數據在大型語言模型(LLM)訓練中扮演了基礎性的角色。有效的數據管理,尤其是在構建適合的訓練數據集方面,對于提升模型性能和提高預訓練及監督式微調階段的訓練效率至關重要。盡管數據管理的重要性不言而喻,目前的研究界仍在提供系統性分析管理策略選擇背后的理由、其后果效應、評估策劃數據集的方法論,以及持續改進策略方面存在不足。因此,數據管理的探索在研究界越來越受到關注。本綜述提供了一個關于LLM預訓練和監督式微調階段內數據管理的全面概覽,涵蓋了數據管理策略設計的各個值得注意的方面:數據量、數據質量、領域/任務組成等。展望未來,我們推斷現有挑戰,并勾勒出這一領域發展的有希望的方向。因此,本綜述可作為希望通過有效數據管理實踐構建強大LLM的從業者的指導資源。最新論文的集合可在 //github.com/ZigeW/data_management_LLM 獲取。

大型語言模型(LLM)以其強大的性能和新興能力震驚了自然語言處理(NLP)社區(OpenAI, 2023; Touvron et al., 2023a; Wei et al., 2022)。根據之前的研究(Kaplan et al., 2020; Hoffmann et al., 2022),LLM的成就在很大程度上依賴于對大量文本數據進行自監督式預訓練。近期的研究(Zhou et al., 2023a; Ouyang et al., 2022)進一步通過對精心策劃的指令數據集進行監督式微調,增強了LLM的指令遵循能力和下游任務的性能。

我們定義的數據管理——構建適合的訓練數據集,在LLM的預訓練和監督式微調(SFT)階段都至關重要且充滿挑戰。在預訓練階段,構建包含高質量和最有用數據的數據集對于高效訓練是必不可少的(Jain et al., 2020; Gupta et al., 2021)。為了賦予LLM一般性能力,也需要具有多種領域混合的異質數據集組成(Gao et al., 2020; Longpre et al., 2023b; Shen et al., 2023)。然而,許多著名的LLM并沒有透露(Anil et al., 2023; OpenAI, 2023)或僅記錄了預訓練數據構建中選擇的過程(Brown et al., 2020; Workshop et al., 2022; Touvron et al., 2023a),使其背后的理由缺失。在SFT階段,LLM的性能和指令遵循能力在很大程度上由精心設計的指令數據集所喚起(Sanh et al., 2022; Ouyang et al., 2022)。盡管已有一些帶有人類注釋的指令數據集/基準被提出(Wang et al., 2022; K?pf et al., 2023),自我指令(Wang et al., 2023c; Taori et al., 2023)或現有數據集的收集(Si et al., 2023; Anand et al., 2023),從業者仍對指令數據集對微調LLM的性能的影響感到困惑,導致在LLM微調實踐中選擇合適的數據管理策略困難重重。

為了應對這些挑戰,需要對數據管理進行系統性分析,包括管理策略選擇背后的理由及其后果效應、策劃訓練數據集的評估,以及改進策略的追求。因此,本綜述旨在提供當前數據管理研究的全面概覽,如圖1所示。在第2部分,我們關注預訓練數據管理,包括數據量、數據質量、領域組成和數據管理系統的研究。在第3部分,我們討論LLM監督式微調(SFT)階段的數據量、數據質量、任務組成和數據高效學習。在第4部分,展望未來,我們提出了LLM訓練數據管理中現存的挑戰和有希望的未來發展方向。通過本綜述,我們致力于為試圖通過有效和高效的數據管理實踐構建強大LLM的從業者提供指導資源。

大模型預訓練

數據管理在許多著名大型語言模型(LLM)的預訓練中被發現非常重要(OpenAI, 2023; Touvron et al., 2023a; Wei et al., 2022)。雖然大多數LLM沒有報告它們的數據管理程序,或者只報告了它們采用的策略,但選擇特定策略的原因和數據管理策略的效果對于構建更強大的LLM至關重要。在這一部分,我們首先回顧研究訓練數據集規模定律的研究,包括有/無數據重復的情況。然后,探討與去重、質量過濾、有害內容過濾、社會偏見以及數據多樣性和時效性相關的數據質量問題。之后,討論領域組成和領域重新加權方法。最后,介紹了兩個最近提出的實施預訓練數據管理流程的數據管理系統。

2.1 數據量

LLM高效預訓練所需的數據量是NLP社區持續研究的話題。提出了規模定律來描述模型大小和訓練數據集大小之間的關系。隨著模型大小的不斷增加,文本數據的耗盡引起了研究人員對LLM預訓練中數據重復的關注。 2.1.1 規模定律 在LLM普及之前,研究者就已經關注訓練數據集大小與具有變壓器架構(Vaswani et al., 2017)的語言模型性能之間的關系。Kaplan et al.(2020)研究了變壓器語言模型在交叉熵損失上的經驗性規模定律,發現模型性能與訓練數據集大小之間存在冪律關系,當不受模型大小和訓練計算預算的限制時。他們還得出結論,只要模型大小和訓練數據集大小同時擴展,模型性能就會可預測地提高,但如果其中一個固定而另一個增加,則會遇到過擬合。他們提出的性能懲罰預測比例顯示,模型大小應該比訓練數據集大小增長得更快。 繼Kaplan et al.(2020)提出的冪律關系后,Hoffmann et al.(2022)對更大的語言模型進行了實驗,得出不同的結論,即模型大小和數據集大小應該以大致相同的速率隨著更多的計算預算而擴展。

2.1.2 數據重復

盡管Kaplan et al.(2020)和Hoffmann et al.(2022)關注的是唯一數據訓練一個時期的規模定律,Hernandez et al.(2022)解決了訓練數據集中文本重疊的問題,并研究了包含少量重復數據的規模定律。他們觀察到強烈的雙下降現象(Nakkiran et al., 2021),其中重復數據導致訓練過程中途測試損失增加,并發現可預測的重復頻率范圍會導致嚴重的性能下降。 隨著模型大小的增長,根據規模定律,需要更多的訓練數據,引起了關于耗盡高質量訓練數據的擔憂(Villalobos et al., 2022; Hoffmann et al., 2022)。克服這一問題的一種直接方法是對數據進行重復訓練。然而,如上所述,數據重復眾所周知會導致性能下降。受到這一矛盾的啟發,幾項工作研究了對數據集進行多個時期的重復預訓練的后果。Muennighoff et al.(2023)發現,在受限的數據和固定的計算預算下,對相同的數據重復訓練多達4個時期與訓練唯一數據相比,對損失的變化微不足道。他們還提出了一個規模定律,考慮到了重復和過多參數的回報遞減。Xue et al.(2023)也觀察到模型性能的多時期退化,并發現數據集大小、模型參數和訓練目標是這一現象的關鍵因素。他們進一步發現,常用的正則化技術在緩解多時期退化方面沒有幫助,除了dropout。質疑以前的發現,Tirumala et al.(2023)展示了對精心選擇的重復數據進行訓練可以勝過對隨機選擇的新數據進行訓練,而對隨機選擇的重復數據進行訓練則不行,這表明了重復使用智能選擇數據的可行方法。

2.2 數據質量

根據以往研究(Jain et al., 2020; Gupta et al., 2021),高質量數據在機器學習任務訓練中至關重要。在LLM的預訓練中,也采用了質量保證技術,通常形成數據管理流程(Rae et al., 2021; Nguyen et al., 2023; Tirumala et al., 2023),包括去重、質量過濾和有毒內容過濾。社會偏見、數據多樣性和數據時效性等方面也是研究社區感興趣的話題。

2.2.1 去重

去重在許多著名LLM的數據管理程序和公開可用數據集的預處理中被廣泛使用(Brown et al., 2020; Workshop et al., 2022; Touvron et al., 2023a; Raffel et al., 2020)。Lee et al.(2021)使用N-gram相似性與MinHash(Broder, 1997)來檢測訓練數據集中的重復,并發現去重有助于減輕記憶效應、避免訓練-測試重疊,并保持模型困惑度的同時提高訓練效率。Kandpal et al.(2022)還表明,去重可以顯著降低針對模型記憶的隱私攻擊的成功率。 在去重實踐中,N-gram-and-hashing是最常用的技術(Lee et al., 2021; Borgeaud et al., 2022; Rae et al., 2021)。Silcock et al.(2022)將其與神經方法進行比較,即對比訓練的雙編碼器和結合雙編碼器和交叉編碼器的“重排”風格方法,得出結論神經方法可以顯著優于傳統的N-gram-and-hashing方法。Abbas et al.(2023)提出SemDeDup來移除位于預訓練模型嵌入空間中靠近的語義重復,并應用聚類來減少搜索計算。同樣,Kaddour(2023)通過過濾掉低質量嵌入集群,構建了Pile(Gao et al., 2020)的子集MiniPile。

2.2.2 質量過濾

質量過濾是構建適合預訓練數據集的另一個關鍵步驟,因為像Common Crawl 1和多語言數據集(Kreutzer et al., 2022)這樣的公共數據集通常包含低質量數據,這會妨礙LLM的訓練。現有工作通常使用分類器(Brown et al., 2020; Gao et al., 2020; Du et al., 2022; Touvron et al., 2023a)、手工制定的啟發式規則(Yang et al., 2019; Raffel et al., 2020; Nijkamp et al., 2022)或使用困惑度等標準進行閾值過濾(Wenzek et al., 2020; Muennighoff et al., 2023)來進行質量過濾。 質量過濾通常被證明有利于提升模型性能(Longpre et al., 2023b),盡管這會減少訓練數據的數量和多樣性。輕量級語言模型phi-1和phi-1.5,擁有13億參數,分別在精心選取的高質量數據和合成數據上訓練,展現了在編碼任務和常識推理上的出色表現。Penedo等人(2023年)構建了RefinedWeb數據集,包括適當過濾和去重的高質量網絡數據,其性能超過了在Pile(Gao et al., 2020)上訓練的模型。與常見結論相反,Gao(2021年)發現,由于過濾目標不夠穩健,對GPT類LLM的大范圍任務進行激進過濾可能導致性能下降。為了解決這個問題,Marion等人(2023年)研究了三種數據質量估計器:困惑度、錯誤L2范數(EL2N)和記憶因子,并通過數據修剪進行測試。令人驚訝的是,他們發現基于困惑度修剪數據集的表現遠遠優于更復雜的技術,如記憶。

2.2.3 有害內容過濾

有害內容指的是粗魯、不尊重或不合理的語言,可能會導致某人離開討論(Gehman et al., 2020; Welbl et al., 2021)。由于原始文本語料庫通常包含有害文本(Luccioni和Viviano,2021;Longpre et al., 2023b),有害內容過濾旨在從預訓練數據集中移除不希望出現的有害文本,進一步防止LLM生成有害話語。與質量過濾類似,啟發式和基于規則的過濾(Lees et al., 2022; Gargee et al., 2022; Friedl, 2023)和N-gram分類器(Raffel et al., 2020)被用作有害內容過濾器。盡管有效地進行模型解毒,Longpre等人(2023b)發現,有害內容過濾減少了生成有害內容的風險,但同時降低了模型的泛化和識別有害內容的能力。此外,Xu等人(2021年)和Welbl等人(2021年)均發現,訓練數據集的解毒處理會導致邊緣化少數群體,如方言和少數族裔身份提及。

2.2.4 社會偏見

除了數據解毒導致的少數群體邊緣化之外,一些工作(Kurita et al., 2019; Nangia et al., 2020; Meade et al., 2022; Feng et al., 2023)發現預訓練的LLM可以捕捉到大量訓練文本中包含的社會偏見。Dodge等人(2021年)評估了C4(Raffel et al., 2020)數據集,建議記錄大型網絡文本語料庫中的社會偏見和代表性傷害,以及被排除的聲音和身份。Gururangan等人(2022年)使用美國高中報紙文章的新數據集,也指出GPT-3使用的質量過濾器傾向于選擇更大學校在更富裕、受過教育和城市郵政編碼地區發布的報紙,從而導致一種語言意識形態。Feng等人(2023年)進行了一項全面的案例研究,重點關注預訓練語料庫中媒體政治偏見對仇恨言論檢測和錯誤信息檢測公平性的影響,以及它如何傳播到語言模型,甚至進一步影響到下游任務。

2.2.5 多樣性和時效性

在LLM預訓練階段的數據管理中,也有研究關注數據的其他方面,例如多樣性和時效性。 例如,Lee等人(2023a)展示了,當用最近提出的Task2Vec多樣性系數(Miranda et al., 2022)來衡量時,公開可用的預訓練數據集在形式上的多樣性很高。他們還證明了該系數與多樣性的直觀特性是一致的,并建議在構建更多樣的數據集時使用它。Maharana等人(2023年)提出了一種新的修剪方法D2修剪,通過將數據集表示為一個帶有難度分數的無向圖,并采用正向和反向信息傳遞策略,來選擇一個包含數據集空間中多樣化和困難區域的核心子集,以平衡數據多樣性和難度選擇。

Longpre等人(2023b)探討了評估數據集的時效性,并得出結論,評估數據與預訓練數據之間的時間偏移會導致性能估計不準確,而且時間不一致無法通過微調來克服,尤其是對于更大的模型。

2.3 領域組成

公開可用的預訓練數據集通常包含從多個來源和領域收集的數據混合體,例如Pile(Gao et al., 2020)包含了來自Common Crawl、維基百科、書籍以及醫學、學術、編程和數學、法律和社會資源的網頁文檔。許多著名模型也是在不同領域的數據混合體上進行訓練的,例如LaMDA(Thoppilan et al., 2022)是在來自公共論壇的對話數據、C4數據、編程相關問答網站和教程的代碼文檔、英文維基百科、英語網頁文檔和非英語網頁文檔上進行訓練的。

研究人員努力探索領域混合對預訓練模型性能的影響。Longpre等人(2023b)將Pile(Gao et al., 2020)數據分為九個領域,并進行了逐個刪減實驗,展示了不同領域的影響。他們得出結論,高質量(如書籍)和高多樣性(如網頁)的領域普遍有幫助,即使它們與下游任務相關性較低,包含盡可能多的數據源也是有益的。SlimPajama-DC(Shen et al., 2023)也得出相同的結論,即合并所有領域通常比有意選擇的組合效果更好,前提是進行了全局去重,以消除不同領域數據集之間的重疊。Longpre等人(2023b)和Shen等人(2023)都認為,特定的混合體可能在針對特定任務的評估基準上表現出色,但與包含多樣化的網絡領域相比,優先級并不總是存在。CodeGen2(Nijkamp et al., 2023)研究了編程語言和自然語言混合體對模型性能的影響,并發現,在相同的計算預算下,使用混合體訓練的模型的性能并不比與領域匹配的模型好,但接近。

還有幾種方法被提出來找到適當的領域組成權重。DSIR(Xie et al., 2023b)將問題形式化為在給定一些未標記目標樣本的情況下,選擇原始未標記數據集的子集以匹配目標分布。具體來說,它利用經典的重要性重采樣方法(Rubin, 1988)并使用n-gram特征和KL降低來估計重要性權重。沒有下游任務的知識,DoReMi(Xie et al., 2023a)使用小型代理模型通過Group Domain Robust Optimization(Group DRO)(Oren et al., 2019; Sagawa* et al., 2020)生成領域權重。它通過增加在評估模型與預訓練參考模型之間具有最大損失差距的領域的權重,提高了所有領域的模型性能。在DoReMi(Xie et al., 2023a)的基礎上改進,Fan等人(2023)提出了DoGE,它對訓練領域進行加權,以最小化所有訓練領域或特定未見領域的平均驗證損失。最終的泛化目標通過基于梯度的泛化估計函數來訪問,該函數測量每個領域對其他領域的貢獻。然后,對其他領域的學習貢獻更大的領域將獲得更大的權重。

2.4 數據管理系統

針對預訓練數據管理的困難,集成數據管理系統對于有不同需求的LLM從業者來說是必要的。Chen等人(2023a)提供了一個數據處理系統Data-Juicer,它具有生成超過50種多功能數據管理操作符和專用工具的多樣化數據配方功能,針對零代碼數據處理、低代碼定制和現成數據處理組件。它還支持在數據配方和LLM的多個開發階段提供及時的反饋循環。Zhou等人(2023c)還提出了一個預訓練數據策劃和評估系統Oasis,其中包含一個交互式模塊化規則過濾模塊、一個去偏神經質量過濾模塊、一個自適應文檔去重模塊和一個全面的數據評估模塊。

監督式微調大型語言模型

基于在預訓練階段學到的通用知識和能力,提出了監督式微調(SFT)來進一步提高LLM的指令遵循能力和與人類期望的一致性(Wei et al., 2021; Sanh et al., 2022; Ouyang et al., 2022)。許多工作已經投入到使用人類注釋(Wang et al., 2022; K?pf et al., 2023)、自我指令(Wang et al., 2023c; Taori et al., 2023)或現有數據集的集合(Si et al., 2023; Anand et al., 2023)來構建指令數據。盡管使用現有指令數據集微調的LLM在各種NLP任務中取得了顯著的性能,但指令數據管理對微調模型性能的影響仍然存在爭議。與之前有關LLM預訓練的討論一致,在本節中,我們總結了LLM SFT的研究探索,涵蓋了數據量、數據質量(包括指令質量)、多樣性、復雜性和提示設計,以及任務組成。此外,還包括了數據高效SFT,討論了從數據角度出發的高效SFT的當前努力。

3.1 數據量 關于指令數據量的增加與微調模型性能之間關系的探索分為兩個方向。一方面的研究專注于縮減指令數據量以提高訓練效率。例如,LIMA(Zhou et al., 2023a)精心策劃了1,000個高質量樣本,并通過實驗驗證了他們的假設,即只需要有限的指令調整數據就足以展示LLM在預訓練期間已經獲得的知識和能力。Chen等人(2023b)觀察到,對于單一任務特定的LLM微調,可能只需要一條指令,而1.9M標記的16K樣本可能就足以訓練專門從事自然語言推理(NLI)任務的模型。另一方面的研究則認為增加指令數據量對于成功至關重要(Wei et al., 2021; Sanh et al., 2022)。

為了解決這一沖突,幾項工作試圖分析不同任務或模型能力的擴展模式。Ji等人(2023)對12個主要的現實世界在線用戶案例進行了實證研究,并展示了增加指令數據量會在提取、分類、封閉式問答和總結等任務中帶來持續改進,而在數學、編碼和思維鏈等任務中幾乎沒有改進。與Ji等人(2023)的觀點不同,Dong等人(2023)發現一般能力可以通過大約1,000個樣本得到增強,并在此后緩慢提升,而數學推理和代碼生成則隨著數據量的增加而持續提升。類似地,Yuan等人(2023)觀察到指令數據量與模型數學推理性能之間存在對數線性關系,但預訓練更強的模型對于更大的微調數據集改進較少。Song等人(2023)進行了涵蓋十種不同能力的實驗,并展示了大多數能力與數據擴展一致。然而,每種能力在指令調整期間的發展速度不同,一些能力甚至顯示出完全不同的模式。

3.2 數據質量

在LLM的監督式微調中,數據質量始終是一個焦點,包括指令質量、多樣性、復雜性和提示設計。這里我們更關注現有指令數據的管理和分析,而不是在之前的綜述中已經討論過的指令生成方法(Zhang et al., 2023b; Wang et al., 2023e)。

3.3 任務組成

由于LLM在處理各種NLP任務方面表現出驚人的新興能力,多任務微調被視為進一步提高LLM在未見任務上泛化性能的有前景的方法。增加SFT中任務數量的好處已經在不同大小的模型上得到了實驗證明,這些模型的參數范圍從3B(Wang et al., 2022),11B(Sanh et al., 2022),137B(Wei et al., 2021)到540B(Chung et al., 2022)。

除了任務數量的擴展外,不同指令基準的混合比例和任務平衡也被發現對于有效的指令微調至關重要(Iyer et al., 2022; Longpre et al., 2023a)。Dong等人(2023)專注于數學推理、代碼生成和一般人類對齊能力之間的任務組合,并發現在低資源混合數據下模型能力有所提升,但在高資源混合數據下相比于單一來源數據有所下降,即在高資源設置下觀察到能力之間的沖突。為了進一步解釋這些沖突,他們改變了一般和專業數據的比例,并得出結論,當SFT任務之間在任務格式和數據分布上存在顯著差異時,數據比例的影響可以忽略,相反,當存在一定程度的相似性時,數據比例會導致性能的明顯變化。

與將多個任務合并在一起不同,一些工作聲稱在單一任務數據上調整的LLM可以勝過在多個任務上調整的LLM(Jang et al., 2023; Chen et al., 2023b)。Jang等人(2023)指出,訓練專家LLM的優先事項可能在于避免負面任務轉移,通過持續學習新任務而不重新訓練來防止災難性遺忘,以及在將各個專家合并在一起時出現的組合能力。Wang等人(2023b)對使用12個指令數據集訓練的模型進行了事實知識、推理、多語言性、編碼和開放式指令遵循能力的分析,并展示了不同的指令數據集可以解鎖或提升特定能力。相比之下,沒有單一的數據集組合可以在所有評估中提供最佳性能。

3.4 數據高效學習

基于對數據量、數據質量和任務組成對模型性能影響的探索,許多工作提出了通過子集選擇或學習策略來更高效地微調LLM,這些策略針對指令數據的不同方面。

結論

本文首次嘗試概述大型語言模型(LLM)訓練中的數據管理。我們分別討論了LLM的預訓練和監督式微調階段,并總結了至今為止在每個階段中關于數據量、數據質量和領域/任務組成的研究努力。同時也討論了預訓練階段的數據管理系統和監督式微調階段的數據高效學習。最后,我們強調了LLM訓練數據管理的幾個挑戰和有希望的未來發展方向。我們希望這篇綜述能為從業者提供有洞察力的指導,并激發在有效和高效數據管理方面的進一步研究,以促進LLM的發展。

付費5元查看完整內容

圖在表示和分析諸如引文網絡、社交網絡和生物數據等實際應用中的復雜關系方面扮演著重要角色。最近,大型語言模型(LLMs),它們在各個領域取得了巨大成功,也被用于圖相關任務,超越了傳統的基于圖神經網絡(GNNs)的方法,實現了最先進的性能。在這篇綜述中,我們首先全面回顧和分析了結合LLMs和圖的現有方法。首先,我們提出了一個新的分類法,根據LLMs在圖相關任務中扮演的角色(即增強器、預測器和對齊組件)將現有方法分為三類。然后,我們系統地調查了沿著分類法的三個類別的代表性方法。最后,我們討論了現有研究的剩余局限性,并強調了未來研究的有希望的途徑。相關論文已總結,并將在以下網址持續更新://github.com/yhLeeee/Awesome-LLMs-in-Graph-tasks。

圖論,在現代世界的許多領域,特別是在技術、科學和物流領域,扮演著基礎性的角色[Ji et al., 2021]。圖數據代表了節點之間的結構特性,從而闡明了圖組件內的關系。許多實際世界的數據集,如引文網絡[Sen et al., 2008]、社交網絡[Hamilton et al., 2017]和分子數據[Wu et al., 2018],本質上都是以圖的形式表示的。為了處理圖相關任務,圖神經網絡(GNNs)[Kipf and Welling, 2016; Velickovic et al., 2018]已經成為處理和分析圖數據的最受歡迎的選擇之一。GNNs的主要目標是通過在節點之間的遞歸信息傳遞和聚合機制,獲取在節點、邊或圖層面上的表達性表示,用于不同種類的下游任務。

近年來,如Transformer [Vaswani et al., 2017]、BERT [Kenton and Toutanova, 2019]、GPT [Brown et al., 2020] 及其變體等大型語言模型(LLMs)在多個領域取得了重大進展。這些LLMs可輕易地應用于各種下游任務,幾乎無需調整,就在多種自然語言處理任務中展現了卓越性能,例如情感分析、機器翻譯和文本分類 [Zhao et al., 2023d]。雖然它們主要聚焦于文本序列,但目前越來越多的研究開始關注于增強LLMs的多模態能力,使其能夠處理包括圖形 [Chai et al., 2023]、圖像 [Zhang et al., 2023b] 和視頻 [Zhang et al., 2023a] 在內的多種數據類型。 LLMs在圖相關任務中的應用已顯著改變了我們與圖的交互方式,特別是那些含有與文本屬性相關聯的節點的圖。將LLMs與傳統GNNs(圖神經網絡)的結合可以帶來互利共贏,增強圖學習。盡管GNNs擅長捕捉結構信息,但它們主要依賴語義上受限的嵌入作為節點特征,這限制了它們表達節點完整復雜性的能力。通過整合LLMs,GNNs可以得到更強大的節點特征,有效捕捉結構和語境方面的信息。另一方面,LLMs擅長編碼文本,但通常難以捕捉圖數據中的結構信息。結合GNNs和LLMs可以利用LLMs強大的文本理解能力,同時發揮GNNs捕捉結構關系的能力,從而實現更全面、強大的圖學習。例如,TAPE [He et al., 2023] 利用與節點(如論文)相關的語義知識,這些知識由LLMs生成,來提高GNNs中初始節點嵌入的質量。此外,InstructGLM [Ye et al., 2023] 用LLMs替換了GNNs中的預測器,通過平鋪圖形和設計提示(提示)等技術,利用自然語言的表現力。MoleculeSTM [Liu et al., 2022] 將GNNs和LLMs對齊到同一向量空間,將文本知識引入圖形(如分子)中,從而提高推理能力。 顯然,LLMs從不同角度對圖相關任務產生了重要影響。為了更好地系統概覽,如圖2所示,我們遵循Chen et al. [2023a]的方法,組織我們的一級分類法,基于LLMs在整個模型管道中扮演的角色(即增強器、預測器和對齊組件)進行分類。我們進一步細化我們的分類法,并為初始類別引入更多細粒度。 動機。盡管LLMs在圖相關任務中的應用越來越廣泛,但這個迅速發展的領域仍然缺乏系統的綜述。張等人[Zhang et al., 2023d]進行了一項前瞻性綜述,提出了一篇討論圖與LLMs整合所面臨挑戰和機遇的觀點文章。劉等人[Liu et al., 2023b]提供了另一項相關綜述,總結了現有的圖基礎模型,并概述了預訓練和適應策略。然而,這兩篇文章都在全面覆蓋和缺乏專門關注LLMs如何增強圖的分類法方面存在局限性。相比之下,我們專注于圖和文本模態共存的場景,并提出了一個更細粒度的分類法,以系統地回顧和總結LLMs技術在圖相關任務中的當前狀態。

貢獻。這項工作的貢獻可以從以下三個方面總結: (1)結構化分類法。通過結構化分類法,對該領域進行了廣泛概覽,將現有工作分為四類(圖2)。 (2)全面綜述。基于提出的分類法,系統地描述了LLMs在圖相關任務中的當前研究進展。 (3)一些未來方向。我們討論了現有工作的剩余局限性,并指出了可能的未來發展方向。

**LLM作為增強器 **

圖神經網絡(GNNs)已成為分析圖結構數據的強大工具。然而,最主流的基準數據集(例如,Cora [Yang et al., 2016] 和 Ogbn-Arxiv [Hu et al., 2020])采用了樸素的方法來編碼TAGs中的文本信息,使用的是淺層嵌入,如詞袋法、跳躍模型 [Mikolov et al., 2013] 或 TF-IDF [Salton and Buckley, 1988]。這不可避免地限制了GNNs在TAGs上的性能。LLM作為增強器的方法對應于利用強大的LLMs來提升節點嵌入的質量。衍生的嵌入被附加到圖結構上,可以被任何GNNs利用,或直接輸入到下游分類器中,用于各種任務。我們自然地將這些方法分為兩個分支:基于解釋和基于嵌入,這取決于它們是否使用LLMs產生額外的文本信息。

LLM作為預測器

這一類別的核心思想是利用LLMs來對廣泛的圖相關任務進行預測,例如在統一的生成范式下的分類和推理。然而,將LLMs應用于圖模態提出了獨特的挑戰,主要是因為圖數據往往缺乏直接轉換成序列文本的方式,不同的圖以不同的方式定義結構和特征。在這一部分,我們根據模型是否使用GNNs來提取結構特征供LLMs使用,將模型大致分為基于平鋪和基于GNN的預測兩類。

GNN-LLM 對齊

對GNNs和LLMs的嵌入空間進行對齊是整合圖模態與文本模態的有效方式。GNN-LLM對齊確保在特定階段協調它們的嵌入空間時,每個編碼器的獨特功能得以保留。在這一部分,我們總結了對齊GNNs和LLMs的技術,這些技術可以根據是否對GNNs和LLMs都給予同等重視,或是否優先考慮一種模態而另一種模態則不那么重視,被分類為對稱或非對稱。

結論

近年來,將大型語言模型(LLMs)應用于與圖相關的任務已成為研究的一個突出領域。在這篇綜述中,我們旨在提供對適應圖的LLMs的現有策略的深入概述。首先,我們介紹了一個新的分類法,根據LLMs所扮演的不同角色(即增強器、預測器和對齊組件),將涉及圖和文本模態的技術分為三類。其次,我們根據這種分類系統地回顧了代表性的研究。最后,我們討論了一些限制,并強調了幾個未來的研究方向。通過這篇全面的綜述,我們希望能夠揭示LLMs在圖學習領域的進步和挑戰,從而鼓勵在這一領域進一步的提升。

付費5元查看完整內容

本文提供了對多模態基礎模型的分類和演變的全面綜述,這些模型展示了視覺和視覺-語言能力,重點關注從專家模型到通用助手的轉變。研究范圍涵蓋了五個核心主題,分為兩類。(i) 我們從對既定研究領域的調查開始:為特定目的預訓練的多模態基礎模型,包括兩個主題 - 學習視覺基礎架構的方法,用于視覺理解和文本到圖像生成。(ii) 然后,我們介紹了探索性、開放性研究領域的最新進展:旨在擔任通用助手角色的多模態基礎模型,包括三個主題 - 由大型語言模型(LLMs)啟發的統一視覺模型,多模態LLMs的端到端訓練,以及將多模態工具與LLMs鏈接。本文的目標讀者是計算機視覺和視覺-語言多模態社區的研究人員、研究生和專業人士,他們渴望了解多模態基礎模型的基礎知識和最新進展。

視覺是人類和許多生物感知和與世界互動的主要渠道之一。人工智能(AI)的核心愿望之一是開發能夠模仿這種能力的AI智能體,以有效地感知和生成視覺信號,從而推理和與視覺世界互動。例如,識別場景中的對象和動作,以及為交流創建素描和圖片。建立具有視覺能力的基礎模型是一個旨在實現此目標的普遍研究領域。

在過去的十年中,AI領域在模型的開發中經歷了豐碩的軌跡。我們將它們分為圖1.1所示的四個類別。這個分類可以在AI的不同領域中共享,包括語言、視覺和多模態。我們首先使用自然語言處理中的語言模型來說明演變過程。(i)在早期,為各個數據集和任務開發了特定任務的模型,通常是從頭開始訓練的。(ii)通過大規模的預訓練,語言模型在許多已建立的語言理解和生成任務上實現了最先進的性能,例如BERT(Devlin等,2019)、RoBERTa(Liu等,2019)、T5(Raffel等,2020)、DeBERTa(He等,2021)和GPT-2(Radford等,2019)。這些預訓練的模型為下游任務適應提供了基礎。(iii)由GPT-3(Brown等,2020)舉例,大型語言模型(LLMs)將各種語言理解和生成任務統一到一個模型中。隨著網絡規模的訓練和統一,出現了一些新的能力,如上下文學習和思維鏈。(iv)伴隨著人工智能對齊的最新進展,LLMs開始扮演通用助手的角色,遵循人類的意圖,完成廣泛的語言任務,例如ChatGPT(OpenAI,2022)和GPT-4(OpenAI,2023a)。這些助手展示了有趣的能力,如交互和工具使用,并為開發通用AI智能體奠定了基礎。重要的是要注意,最新一代的基礎模型在提供額外功能的同時,也借鑒了其早期版本的顯著特性。

**受到NLP中LLMs的巨大成功的啟發,計算機視覺和視覺-語言社區的研究人員自然會問:ChatGPT/GPT-4在視覺、視覺-語言和多模態模型方面的對等物是什么?**毫無疑問,自從BERT誕生以來,視覺預訓練和視覺-語言預訓練(VLP)越來越受到關注,并已成為視覺的主流學習范式,承諾學習通用的可遷移的視覺和視覺-語言表示,或生成高度可能的圖像。可以說,它們可以被視為多模態基礎模型的早期生成,就像BERT/GPT-2對語言領域一樣。雖然建立像ChatGPT這樣的語言通用助手的路線圖很清晰,但研究社區越來越需要探索建立計算機視覺的對等物:通用視覺助手的可行解決方案。總的來說,建立通用智能體一直是AI的長期目標。具有新興屬性的LLMs已顯著降低了為語言任務建立此類智能體的成本。同樣,我們預見到視覺模型將展現出新的能力,例如遵循由各種視覺提示組成的指令,如用戶上傳的圖像、人類繪制的點擊、素描和遮罩,除了文本提示。這樣強大的零樣本視覺任務組成能力可以顯著降低建立AI智能體的成本。

在這篇文章中,我們將多模態基礎模型的范圍限制在視覺和視覺-語言領域。相關主題的最新綜述論文包括:(i) 圖像理解模型,如自監督學習(Jaiswal等,2020;Jing和Tian,2020;Ozbulak等,2023),切分任何東西(SAM)(Zhang等,2023a,c);(ii) 圖像生成模型(Zhang等,2023b;Zhou和Shimada,2023);以及(iii) 視覺-語言預訓練(VLP)。現有的VLP綜述論文涵蓋了在預訓練時代之前,針對特定VL問題的VLP方法,圖像-文本任務,核心視覺任務,和/或視頻-文本任務(Zhang等,2020;Du等,2022;Li等,2022c;Ruan和Jin,2022;Chen等,2022a;Gan等,2022;Zhang等,2023g)。兩篇最新的綜述論文討論了視覺模型與LLM的集成(Awais等,2023;Yin等,2022)。

其中,Gan等(2022)是一篇關于VLP的綜述,涵蓋了2022年及之前的CVPR關于視覺和語言研究的最新進展系列教程。本文總結了2023年CVPR關于視覺基礎模型最新進展的教程。與前述主要側重于給定研究主題的文獻回顧的綜述論文不同,本文提出了我們對多模態基礎模型從專家到大型語言模型時代的通用視覺助手的角色轉變的觀點。本綜述論文的貢獻總結如下。

?** 我們提供了一篇全面且及時的現代多模態基礎模型的綜述**,不僅涵蓋了視覺表示學習和圖像生成的成熟模型,還總結了過去6個月由LLM啟發的新興主題,包括統一視覺模型,與LLM的訓練和鏈接。 ? 本文旨在為觀眾提供一種觀點,推崇在開發多模態基礎模型中的一種轉變。在特定視覺問題的偉大建模成功的基礎上,我們正朝著構建能夠按照人類意圖完成廣泛計算機視覺任務的通用助手邁進。我們對這些高級主題進行了深入討論,展示了開發通用視覺助手的潛力。

1.1 什么是多模態基礎模型?

正如Stanford基礎模型論文(Bommasani等,2021)所闡述的,AI正隨著諸如BERT、GPT家族、CLIP(Radford等,2021)和DALL-E(Ramesh等,2021a)這些模型的興起而經歷一場范式轉變,這些模型經過廣泛的數據訓練,可以適應各種下游任務。他們將這些模型稱為基礎模型,以強調它們在核心上的關鍵性但不完整的特性:研究社區的方法論的同質化和新能力的出現。從技術角度來看,使基礎模型成為可能的是遷移學習,使它們變得強大的是規模。基礎模型的出現主要觀察到在NLP領域,范例包括從BERT到ChatGPT。這一趨勢在近年來獲得了推動,擴展到計算機視覺和其他領域。在NLP中,BERT在2018年底的推出被視為基礎模型時代的開始。BERT的顯著成功迅速激發了計算機視覺社區對自監督學習的興趣,催生了如SimCLR(Chen等,2020a)、MoCo(He等,2020)、BEiT(Bao等,2022)和MAE(He等,2022a)等模型。在同一時期,預訓練的成功也顯著推動了視覺-語言多模態領域達到了前所未有的關注度。

在本文中,我們關注的是多模態基礎模型,這些模型繼承了Stanford論文(Bommasani等,2021)中討論的所有基礎模型的屬性,但側重于具有處理視覺和視覺-語言模態能力的模型。在不斷增長的文獻中,我們基于功能和通用性對多模態基礎模型進行分類,見圖1.2。對于每個類別,我們都展示了一些示例模型,展示了這些多模態基礎模型固有的主要能力。

視覺理解模型(在圖1.2中用橙色突出顯示)

學習通用視覺表示對于構建視覺基礎模型至關重要,因為預訓練一個強大的視覺主干對所有類型的計算機視覺下游任務都是基礎,這些任務范圍從圖像級別(例如,圖像分類、檢索和字幕)、區域級別(例如,檢測和定位)到像素級別任務(例如,分割)。我們將方法分為三類,取決于用于訓練模型的監督信號類型:

  • 標簽監督。像ImageNet(Krizhevsky等,2012)和ImageNet21K(Ridnik等,2021)這樣的數據集一直受到監督學習的歡迎,更大規模的專有數據集也在工業實驗室中使用(Sun等,2017;Singh等,2022b;Zhai等,2022a)。

  • 語言監督。語言是一種更豐富的監督形式。像CLIP(Radford等,2021)和ALIGN(Jia等,2021)這樣的模型使用來自網絡的數百萬甚至數十億噪聲圖像-文本對上的對比損失進行預訓練。這些模型使得零射擊圖像分類成為可能,并使傳統的計算機視覺(CV)模型執行開放詞匯CV任務。我們提倡在野外進行計算機視覺的概念,并鼓勵未來基礎模型的開發和評估。

  • 僅圖像自監督。這一工作方向旨在從圖像本身中挖掘出監督信號來學習圖像表示,范圍從對比學習(Chen等,2020a;He等,2020)、非對比學習(Grill等,2020;Chen和He,2021;Caron等,2021)到遮蔽圖像建模(Bao等,2022;He等,2022a)。

  • 多模態融合,區域級和像素級預訓練。除了預訓練圖像主干的方法外,我們還將討論允許多模態融合的預訓練方法,例如CoCa(Yu等,2022a)、Flamingo(Alayrac等,2022),區域級和像素級圖像理解,例如開放集對象檢測(例如,GLIP(Li等,2022e))和可提示分割(例如,SAM(Kirillov等,2023))。這些方法通常依賴于預訓練的圖像編碼器或預訓練的圖像-文本編碼器對。

視覺生成模型(在圖1.2中用綠色突出顯示)

最近,由于大規模圖像-文本數據的出現,已經構建了基礎圖像生成模型。使之成為可能的技術包括向量量化VAE方法(Razavi等,2019)、基于擴散的模型(Dhariwal和Nichol,2021)和自回歸模型。

  • 基于文本的視覺生成。這個研究領域關注的是生成忠實的視覺內容,包括圖像、視頻等,這些內容是以開放式文本描述/提示為條件的。文本到圖像生成發展了生成模型,這些模型合成了忠實于文本提示的高保真度圖像。主要例子包括DALL-E(Ramesh等,2021a)、DALL-E 2(Ramesh等,2022)、Stable Diffusion(Rombach等,2021;sta,2022)、Imagen(Saharia等,2022)和Parti(Yu等,2022b)。基于文本到圖像生成模型的成功,文本到視頻生成模型基于文本提示生成視頻,例如Imagen Video(Ho等,2022)和Make-A-Video(Singer等,2022)。

  • 與人類意圖一致的視覺生成器。這個研究領域關注的是改善預訓練的視覺生成器,以更好地遵循人類意圖。為解決基礎視覺生成器固有的各種挑戰,已經進行了努力。這些包括改善空間可控性(Zhang和Agrawala,2023;Yang等,2023b)、確保更好地遵循文本提示(Black等,2023)、支持靈活的基于文本的編輯(Brooks等

1.2 定義和從專業模型到通用助手的過渡

根據自然語言處理(NLP)中的模型發展歷史和分類,我們將圖1.2中的多模態基礎模型分為兩類。? 特定目的的預訓練視覺模型涵蓋了大多數現有的多模態基礎模型,包括視覺理解模型(例如,CLIP(Radford等,2021),SimCLR(Chen等,2020a),BEiT(Bao等,2022),SAM(Kirillov等,2023))和視覺生成模型(例如,Stable Diffusion(Rombach等,2021;sta,2022)),因為它們具有針對特定視覺問題的強大可遷移能力。? 通用助手指的是能夠遵循人類意圖以完成野外各種計算機視覺任務的AI代理。通用助手的含義有兩層面:(i)具有統一架構的通用型,可以完成不同類型問題的任務;以及(ii)容易遵循人類指令,而不是替代人類。為此,已經積極探討了一些研究課題,包括統一視覺建模(Lu等,2022a;Zhang等,2022b;Zou等,2023a),與大型語言模型(LLMs)的訓練和鏈接(Liu等,2023c;Zhu等,2023a;Wu等,2023a;Yang*等,2023)。

? 第1章介紹了多模態基礎模型研究的領域,并展示了從專家模型到通用助手的研究歷史轉變。? 第2章介紹了不同消耗視覺數據的方式,重點關注如何學習一個強大的圖像骨干。? 第3章描述了如何生成與人類意圖一致的視覺數據。? 第4章描述了如何設計統一的視覺模型,具有交互式和可提示的界面,特別是在沒有使用LLMs的情況下。? 第5章描述了如何以端到端的方式訓練LLM,以處理視覺輸入進行理解和推理。? 第6章描述了如何將多模態工具與LLM鏈接,以實現新的功能。? 第7章總結了本文并討論了研究趨勢。

第2至6章是本綜述論文的核心章節。這些章節的結構概述如圖1.2所示。我們首先討論了兩種特定任務的典型多模態基礎模型,包括第2章中的視覺理解和第3章中的視覺生成。由于多模態基礎模型最初是基于圖像骨干/表示學習用于理解任務的,因此我們首先對圖像骨干學習方法的過渡進行了全面回顧,從早期的監督方法發展到最近的語言-圖像對比方法,并將討論擴展到從圖像級別到區域級別和像素級別的圖像表示(第2章)。最近,生成型AI越來越受歡迎,視覺生成基礎模型已經得到了發展。在第3章中,我們討論了大規模預訓練的文本到圖像模型,以及社區如何利用生成基礎模型開發新技術,使它們更好地與人類意圖一致。受到自然語言處理領域最新進展的啟發,LLMs在日常生活中為各種語言任務提供通用助手,計算機視覺社區一直在期望并嘗試構建通用的視覺助手。我們討論了構建通用助手的三種不同方法。受到LLMs的精神啟發,第4章著重于統一不同的視覺理解和生成模型,而無需在建模中明確納入LLMs。相比之下,第5章和第6章側重于采用LLMs構建通用視覺助手,通過在建模中明確增加LLMs來實現。具體來說,第5章描述了端到端訓練方法,第6章專注于無需訓練的方法,將各種視覺模型鏈接到LLMs。

付費5元查看完整內容

視覺語言模型(VLMs)最近已經展示出了強大的效能,作為可以解析關于視覺內容的自然查詢并生成類似人類輸出的視覺助手。在這項工作中,我們探討了這些模型基于感知信息展示人類式推理的能力。為了解決一個關鍵問題,即這些推理能力在多大程度上是完全一致和基于實際的,我們還測量了這些模型的推理一致性。我們通過提出基于思維鏈(CoT)的一致性度量來實現這一點。然而,這樣的評估需要一個包括高級推理和詳細推理鏈的基準,這是昂貴的。我們通過提出一個LLM-人在回路中的管道來解決這一挑戰,這顯著降低了成本,同時確保了高質量數據集的生成。基于這個管道和現有的粗粒度注釋數據集,我們構建了CURE基準,以測量VLMs的零樣本推理性能和一致性。我們評估了現有的最先進的VLMs,并發現即使在表現最佳的模型(BLIP-2)的情況下,也無法展示出強大的視覺推理能力和一致性,這表明需要大力努力,使VLMs能夠像人類一樣系統地和一致地進行視覺推理。作為早期步驟,我們提出了一個旨在提高VLMs的推理性能和一致性的兩階段培訓框架。第一階段涉及使用由LLMs自動生成的逐步推理樣本對VLMs進行監督微調。在第二階段中,我們進一步通過LLMs提供的反饋來增強訓練過程,以生成高度一致和基于實際的推理鏈。我們經驗性地突出了我們框架的有效性,并顯示了在推理性能和一致性方面的相對改進為4%。

//www.zhuanzhi.ai/paper/7973da2bc3cb888154e7d2c0ed548c64

付費5元查看完整內容

大型語言模型(LLMs)在自然語言處理方面展示了令人印象深刻的能力。然而,它們的內部機制仍然不清楚,這種不透明性對下游應用帶來了不希望的風險。因此,理解和解釋這些模型對于闡明它們的行為、局限性和社會影響至關重要。在本文中,我們引入了可解釋性技術的分類體系,并提供了關于解釋基于Transformer的語言模型方法的結構化概述我們根據LLMs的訓練范式對技術進行分類:傳統的微調范式和基于提示的范式。對于每個范式,我們總結了生成個體預測的局部解釋和總體模型知識的全局解釋的目標和主要方法。我們還討論了用于評估生成解釋的度量標準,并討論了如何利用解釋來調試模型和提高性能。最后,我們比較了LLMs時代解釋技術面臨的關鍵挑戰和新興機會與傳統機器學習模型。

大型語言模型(LLMs),如BERT(Devlin等,2019a)、GPT-3(Brown等,2020)、GPT-4(Bubeck等,2023)、LLaMA-2(Touvron等,2023b)和Claude(AnthropicAI,2023),在各種自然語言處理(NLP)任務中展示出了令人印象深刻的性能。主要科技公司,如微軟、谷歌和百度,已在其商業產品和服務中部署了LLMs以增強功能。例如,微軟利用GPT-3.5來改善新Bing的搜索相關性排名(Mehdi,2023)。由于LLMs通常是復雜的“黑盒子”系統,其內部工作機制是不透明的,高復雜性使模型解釋變得更加具有挑戰性。這種模型不透明性的缺乏有時會導致生成有害內容或幻覺的產生(Weidinger等,2021)。因此,開發解釋能力以揭示這些強大模型的工作方式至關重要。

可解釋性指的是以人類可理解的方式解釋或呈現模型行為的能力(Doshi-Velez和Kim,2017;Du等,2019a)。提高LLMs的可解釋性至關重要,有兩個關鍵原因。首先,對于一般終端用戶,可解釋性通過以可理解的方式闡明模型預測背后的推理機制來建立適當的信任,無需技術專業知識。通過這種方式,終端用戶能夠理解LLMs的能力、局限性和潛在缺陷。其次,對于研究人員和開發人員,解釋模型行為提供了洞察力,以識別意外偏見、風險和性能改進的領域。換句話說,可解釋性充當了一個調試輔助工具,可以快速提高下游任務上的模型性能(Strobelt等,2018;Bastings等,2022;Yuksekgonul等,2023)。它有助于追蹤模型能力隨時間的變化,進行不同模型之間的比較,并開發可靠、道德和安全的模型,以供實際部署使用。 由于LLMs的獨特屬性,其可解釋性技術與傳統機器學習(ML)模型的技術有所不同。LLMs和傳統ML模型之間的差異可以歸因于多個方面。從數據的角度來看,ML模型以監督方式依賴人工構建的特征,而LLMs旨在自動從原始輸入數據中學習特征(Chai和Li,2019)。解釋LLMs捕捉了哪些特征以及這些特征中包含了什么知識是重要的。從模型的角度來看,傳統ML模型通常是針對具體任務設計的,具有不同的模型架構(Liu和Sun,2023)。相比之下,經過廣泛數據集的預訓練的LLMs可以通過微調泛化到各種下游任務(Yang等,2023)。此外,LLMs的注意力機制已被廣泛用于通過為輸入的相關部分分配更高的值來確定輸入的重要性(Hu,2020)。由于注意力權重中編碼的知識和模式可能提示了模型的理解,注意力權重可以被認為是精細調校模型的另一個重要解釋標準。此外,由于LLMs的性能更好,還應進一步研究transformer的組件,包括神經元、層和模塊,學到了什么以及它們是否有不同的功能。從應用的角度來看,傳統ML模型專注于低級模式識別任務,如解析和形態分析,而LLMs可以處理高級推理任務,如回答問題和常識推理(Lauriola等,2022)。特別是,理解LLMs在上下文學習和思維鏈提示以及幻覺現象方面的獨特能力對于解釋和改進模型至關重要。為了更好地理解和改進LLMs,有必要回顧和總結專為LLMs定制的解釋技術。 在本文中,我們提供了一種解釋基于Transformer的語言模型的方法的全面概述。在第2節中,我們介紹了應用LLMs的兩個主要范式:1)傳統的下游微調范式和2)提示范式。基于這一分類,我們在第3節中回顧了適用于微調LLMs的解釋方法,并在第4節中回顧了適用于提示LLMs的解釋方法。在第5節中,我們討論了解釋方法的評估。最后,在第6節中,我們進一步討論了與傳統機器學習模型相比解釋LLMs所面臨的研究挑戰,并提供了有關潛在未來研究方向的見解。本文旨在全面整理關于解釋復雜語言模型的最新研究進展。 LLMs的訓練范式

LLMs的訓練可以基本分為兩個范式,傳統微調和提示,根據它們如何用于適應下游任務。由于這兩個范式之間存在重大區別,因此分別提出了各種類型的解釋(如圖1所示)。 傳統微調范式

在這個范式中,首先對語言模型進行了大規模無標簽文本數據的預訓練,然后在特定下游領域的一組標記數據上進行微調,例如GLUE基準測試中的SST-2、MNLI和QQP(Wang等人,2019)。在微調過程中,很容易在語言模型的最終編碼器層上方添加完全連接的層,使其適應各種下游任務(Rogers等人,2021)。這個范式已經在包含多達十億參數的中型語言模型上取得了成功。例如,包括BERT(Devlin等人,2019a)、RoBERTa(Liu等人,2019)、ELECTRA(Clark等人,2020)、DeBERTa(He等人,2021)等。對于這個范式的解釋重點在于兩個關鍵領域:1)理解自監督預訓練如何使模型獲得語言的基礎理解(例如句法、語義和上下文關系);以及2)分析微調過程如何賦予這些預訓練模型有效解決下游任務的能力。

**提示范式 **

提示范式涉及使用提示,例如自然語言句子中的空白,以便模型填充,實現零樣本學習或少樣本學習,而無需額外的訓練數據。根據其開發階段,這個范式下的模型可以分為兩種類型: 基礎模型:隨著LLMs的規模和訓練數據的增加,它們展示了令人印象深刻的新能力,無需額外的訓練數據。其中一種能力是通過提示實現少樣本學習。這種類型的范式通常適用于大規模語言模型(擁有數十億參數)(例如GPT-3(Brown等人,2020)、OPT(Zhang等人,2022b)、LLaMA-1(Touvron等人,2023a)、LLaMA-2(Touvron等人,2023b)、Falcon(Almazrouei等人,2023))。這些模型被稱為基礎模型或基礎模型,它們可以與用戶進行對話,無需進一步與人類喜好對齊。大規模模型通常適用于這種范式,規模超過10億。例如,LLaMA-2(Touvron等人,2023b)擁有高達700億個參數。基礎模型的解釋旨在理解模型如何學習在回應提示時利用其預訓練知識。 助手模型:基礎模型存在兩個主要限制:1)它們不能按照用戶的指令進行操作,因為預訓練數據包含少量指令-響應示例,2)它們傾向于生成有偏見和有毒的內容(Carlini等人,2023)。為了解決這些限制,基礎模型通過監督微調進一步進行微調(見圖2),以實現人類級別的能力,例如開放域對話。關鍵思想是通過將模型的響應與人類反饋和喜好對齊來實現。這個過程最典型的方式是通過(提示,響應)演示對和來自人類反饋的強化學習(RLHF)進行指導調整。模型通過自然語言反饋進行訓練,以進行復雜的多輪對話。屬于這一類別的模型包括OpenAI的GPT-3.5和GPT4(Bubeck等人,2023)、Anthropic的Claude(AnthropicAI,2023)以及一些開源模型,如Meta的LLaMA-2-Chat(Touvron等人,2023b)、Alpaca(Taori等人,2023)和Vicuna(Chiang等人,2023)。這些模型也可以稱為助手模型、聊天助手或對話模型。助手模型的解釋重點在于理解模型如何從對話中學習開放式互動行為。

**傳統微調范式的解釋 **

在本節中,我們回顧了針對采用預訓練和下游微調范式訓練的LLMs的解釋技術。首先,我們介紹了提供局部解釋(第3.1節)和全局解釋(第3.2節)的方法。在這里,局部解釋旨在提供對語言模型如何對特定輸入實例進行預測的理解,而全局解釋旨在提供對LLM整體工作方式的廣泛理解。接下來,我們討論了如何利用解釋來調試和改進模型(第3.3節)。

局部解釋

解釋的第一類別涉及解釋LLMs生成的預測。讓我們考慮這樣一種情景,我們有一個語言模型,并將特定文本輸入模型。模型隨后產生分類輸出,例如情感分類或下一個標記的預測。在這種情景下,解釋的作用是闡明模型生成特定分類或標記預測的過程。由于目標是解釋LLM如何為特定輸入做出預測,我們將其稱為局部解釋。這個類別包括四個主要方法流,包括基于特征歸因的解釋、基于注意力的解釋、基于示例的解釋和自然語言解釋。

**全局解釋 **

不同于旨在解釋模型的個體預測的局部解釋,全局解釋有助于從模型的角度理解LLMs的工作方式。全局解釋旨在理解個體組件(神經元、隱藏層和較大模塊)編碼了什么,以及解釋了個體組件所學習的知識/語言屬性。我們考察了三種主要的全局解釋方法:探測方法,用于分析模型表示和參數;神經元激活分析,用于確定模型對輸入的響應性;以及基于概念的方法。

**提示范式的解釋 **

在本節中,我們介紹了解釋屬于提示范式的模型的技術,包括1)解釋基礎模型,如LLaMA-2(第4.1節),2)解釋助手模型,如LLaMA-2-Chat(第4.2節),以及3)如何利用LLMs的推理和解釋能力生成用戶友好的解釋(第4.3節)。

基礎模型解釋

隨著語言模型的規模增大,它們展示出了新的能力,如少樣本學習,即僅從少量示例中學習概念的能力。它們還展示了一種思維鏈(CoT)提示能力。鑒于這些新興屬性,解釋性研究有三個主要目標:1)研究提供解釋是否實際有助于模型自身更快地從僅有少量示例中“理解”新任務,2)理解這些大型語言模型如何能夠迅速從有限示例中掌握新任務,從而幫助終端用戶解釋模型的推理,以及3)解釋思維鏈提示。

**助手模型解釋 **

由于大規模無監督預訓練和有監督對齊微調,屬于這一范式的LLMs具有強大的推理能力。然而,它們的巨大規模也使它們容易生成問題輸出,如幻覺。解釋性研究旨在:1)闡明對齊微調的作用,2)分析幻覺產生的原因。

結論

在本文中,我們提供了對LLMs的可解釋性技術的全面概述。我們總結了基于模型訓練范式的局部和全局解釋方法。我們還討論了如何利用解釋來改進模型、評估以及主要挑戰。未來的重要發展選項包括開發針對不同LLMs的解釋方法、評估解釋的忠實性,以及提高人類可解釋性。隨著LLMs的不斷進步,可解釋性將變得極其重要,以確保這些模型具有透明性、公平性和益處。我們希望這份調查為這一新興研究領域提供了有用的組織,同時突顯了未來工作的開放性問題。

付費5元查看完整內容

隨著大型語言模型(LLM)發展的日益普及,吸引了大量關注,各種應用領域的模型不斷涌現。然而,將大型語言模型與語義技術相結合以進行推理和推斷仍然是一項具有挑戰性的任務。本文分析了當前在基礎LLM方面的進展,如ChatGPT,如何與專用預訓練模型,如REBEL,進行比較,以實現實體和關系的聯合提取。為了評估這種方法,我們使用與可持續性相關的文本作為案例,進行了多個實驗。我們創建了從原始文本自動生成知識圖譜的流程,并發現使用先進的LLM模型可以提高從非結構化文本創建這些圖譜的過程的準確性。此外,我們還探討了使用基礎LLM模型進行自動本體創建的潛力,從而生成更相關且準確的知識圖譜。本節描述了本研究中使用的方法,包括數據收集過程以及用于分析收集到的數據的實體-關系提取算法。

**A. 數據收集過程 **為了對實體-關系提取的兩種方法進行實驗性比較,我們從網絡上收集了有關可持續性主題的新聞數據。為此,我們使用了News API [21]系統。News API是一個HTTP REST API,用于從網絡上搜索和檢索實時文章。它提供了通過指定以下選項在網絡上發布的文章中進行搜索的功能:關鍵詞或短語、發布日期、來源域名和語言。通過使用News API,我們收集了2023-02-15至2023-03-19關于可持續性主題的94篇新聞文章。收集到的文本包含各種字數,從50個到超過4200個不等。由于輸入到語言模型中的令牌數量受到限制,因此需要進行額外的預處理步驟來處理包含大量單詞的文本。

**B. 關系提取方法 **關系提取是自然語言處理(NLP)中的一項基本任務,旨在識別句子或文檔中實體之間的語義關系。這項任務具有挑戰性,因為它需要理解實體出現的上下文以及它們之間存在的關系類型。在本小節中,我們將介紹如何利用REBEL和ChatGPT進行關系提取任務。1) REBEL:我們首先嘗試使用REBEL從非結構化新聞文章中提取關系。為了讓REBEL能夠使用提供的文本,需要使用相應的分詞器功能對其進行分詞。分詞是將原始文本分割成稱為令牌的較小單位的過程。令牌可以是單詞、字符或子詞。模型對令牌的限制為512個令牌,這意味著在將較長的收集到的文章發送到模型進行三元組提取之前,需要對其進行預處理。為了解決這個限制,我們將原始文本進行分詞,并將令牌劃分為256個令牌的批次。這些批次分別由REBEL模型處理,然后合并結果以提取較長文本的關系。還向提取的關系添加元數據,引用生成關系的令牌批次。采用這種方法,由于令牌批次可能在句子的中間開始或結束,某些關系可能無法準確提取。然而,這種情況發生的次數微乎其微。因此,我們將其處理留給未來的工作。實體-關系提取過程完成后,提取的信息存儲在三元組結構中。為了進一步規范提取的實體,我們執行實體鏈接[22]。實體鏈接是指將原始文本中提到的實體與知識庫中相應實體進行識別和關聯的過程。實體鏈接過程不屬于REBEL模型的一部分,它是用于優化提取關系的額外后處理步驟。在本研究中,我們使用DBpedia作為知識庫,并認為如果兩個實體具有相同的DBpedia URL,則它們是相同的。這方法不適用于DBpedia上不存在的實體。

  1. ChatGPT:本文采用的第二種方法使用了OpenAI的ChatGPT [12]。我們使用ChatGPT創建了兩個實驗。第一個實驗提示ChatGPT從收集到的新聞文章中提取關系。在提取關系之后,我們遵循與REBEL模型相同的步驟,以創建一個全面的知識庫。第二個實驗側重于創建一個直接生成整個知識庫并編寫描述文本中識別到的概念的本體的提示。這種方法的目標是減少為了獲得最終知識圖譜而需要執行的手動步驟的數量。對于這兩個實驗,我們將參數“溫度”的值設為0,以獲得更具確定性的輸出,因為OpenAI模型本質上是非確定性的。

付費5元查看完整內容

**本文回顧了在擴散模型在廣泛的生成任務中流行的背景下的文本到圖像的擴散模型。作為一項獨立的工作,本綜述首先簡要介紹基本擴散模型如何用于圖像合成,然后介紹條件或指導如何改善學習。**在此基礎上,綜述了文本條件圖像合成(即文本到圖像)的最新方法。本文進一步總結了文本到圖像生成之外的應用:文本指導的創意生成和文本指導的圖像編輯。除了迄今取得的進展,本文還討論了現有的挑戰和有希望的未來方向。

//www.zhuanzhi.ai/paper/8a64d962c13c8857d5c06bcdc0c43c0a

1. 引言

一幅畫勝過千言萬語。正如一句老話所說,圖像比純文本更能講述故事。當人們閱讀文本故事時,他們可以通過想象在腦海中畫出相關的圖像,這有助于他們理解和享受更多。因此,設計一個從紋理描述生成視覺逼真圖像的自動系統,即文本到圖像任務,是一項非平凡任務,因此可以被視為類人或通用人工智能的一個重要里程碑[1],[2],[3],[4]。隨著深度學習[5]的發展,文本到圖像任務已經成為計算機視覺中最令人印象深刻的應用之一[6]、[7]、[8]、[9]、[10]、[11]、[12]、[13]、[14]、[15]、[16]、[17]、[18]。我們在圖1中總結了文本到圖像生成的代表性工作的時間軸。如圖1所示,AlignDRAW[6]是一項從自然語言生成圖像的開創性工作,但受到了不現實的結果的影響。文本條件GAN[7]是第一個從字符級到像素級的端到端差分架構。不同于基于GAN的方法[7]、[8]、[9]、[10]主要在小規模數據環境下進行,自回歸方法[11]、[12]、[13]、[14]利用大規模數據進行文本到圖像生成,代表性方法包括OpenAI的DALL-E[11]和谷歌的Parti[14]。然而,自回歸特性使得這些方法[11],[12],[13],[14]存在較高的計算成本和序列誤差累積。

最近,擴散模型(DM)出現了成為文本到圖像生成中最先進的新模型的趨勢[15],[16],[17],[18]。基于擴散的文本到圖像合成也在社交媒體上引起了廣泛關注。在過去的一年里,大量關于文本到圖像擴散模型的工作已經出現,但更多的工作預計將在不久的將來出現。相關著作的數量使讀者在沒有全面調研的情況下,了解文本-圖像擴散模型的最新發展越來越具有挑戰性。然而,據我們所知,目前還沒有關于基于擴散的文本到圖像生成的最新進展的綜述工作。相關綜述的一個分支[19],[20],[21],[22]綜述了擴散模型在所有領域的進展,使其局限于對測試到圖像合成任務的有限覆蓋。另一個綜述流[21],[23],[24]專注于文本到圖像任務,但僅限于基于GAN的方法,考慮到擴散模型取代GAN的最近趨勢,這些方法有些過時。本文通過全面介紹基于擴散模型的文本到圖像任務的最新進展,并對其未來方向進行了展望,填補了上述兩個流之間的空白。 **該綜述首先回顧了基于擴散模型的文本到圖像任務的最新進展,因此處于擴散模型和文本到圖像合成的交叉點。**因此,我們將本文的其余部分組織如下。第二節介紹了擴散模型的背景,包括對文本到圖像合成很重要的指導方法。第三部分討論了基于擴散模型的文本生成圖像任務的開創性工作,包括GLIDE[15]、Imagen[16]、Stable diffusion[17]和DALL-E2[18]。第四部分從各個方面進一步論述了后續研究對第三部分開拓性工作的完善。通過總結最近的基準和分析,在第5節中從技術和道德角度進一步評估這些文本到圖像的方法。除了文本到圖像的生成外,還介紹了第六節中的相關任務,包括文本指導的創意生成(如文本到視頻)和文本指導的圖像編輯。回顧了文本到圖像生成之外的各種應用,并討論了挑戰和未來的機會。 2. 開創性的文本到圖像擴散模型

本節介紹基于擴散模型的文本到圖像的前沿框架,根據擴散先驗在哪里進行,可以大致分類,即像素空間或潛空間。第一類方法直接從高維像素級生成圖像,包括GLIDE[15]和Imagen[16]。另一組工作建議首先將圖像壓縮到一個低維空間,然后在這個潛空間上訓練擴散模型。潛空間類的代表性方法有Stable Diffusion[17]、VQ-diffusion[39]和DALL-E 2[18]。 像素空間中的框架

GLIDE:關于DM的第一個T2I工作。本質上,文本到圖像是以文本為條件的圖像合成。因此,將類條件DM中的標簽替換為文本,使采樣生成以文本為條件是很直觀的。正如在2.3節中討論的,引導擴散提高了條件DM中樣本[37]的真實感,其無分類器變體[38]有助于處理自由形式的提示。受此啟發,GLIDE[15]在T2I中采用無分類器指導,將原始類別標簽替換為文本。GLIDE[15]還調查了剪輯指導,但與無分類器指導相比,人類評估人員不太喜歡樣本的照片真實感和標題相似性。作為其框架中的一個重要組件,文本編碼器被設置為一個transformer[40],具有24個殘差塊,寬度為2048(大約1.2B參數)。實驗結果表明,GLIDE[15]在FID和人工評價指標上均優于DALL-E [11]。

Imagen:用預訓練語言模型編碼文本。

繼GLIDE[15]之后,Imagen[16]采用無分類器指導的圖像生成。GLIDE和Imagen的核心區別在于它們對文本編碼器的選擇。具體來說,GLIDE使用成對的圖像-文本數據與擴散先驗一起訓練文本編碼器,而Imagen[16]采用預訓練和凍結的大型語言模型作為文本編碼器。凍結預訓練編碼器的權重有助于離線文本嵌入,這為文本到圖像擴散先驗的在線訓練減少了可忽略不計的計算負擔。此外,文本編碼器可以在圖像-文本數據(如CLIP[41])或純文本語料庫(如BERT [42], GPT[43],[44],[45]和T5[46])上進行預訓練。純文本語料庫明顯大于成對的圖像-文本數據,使這些大型語言模型接觸到分布豐富而廣泛的文本。例如,BERT[42]中使用的純文本語料庫約為20GB, T5[46]中使用的純文本語料庫約為800GB。以不同的T5[46]變體作為文本編碼器,[16]揭示了在Imagen中增加語言模型的大小比擴大擴散模型的大小更能提高圖像保真度和圖文對齊。

隱空間框架

穩定擴散:潛空間的里程碑式研究。在隱空間上訓練擴散模型的代表性框架是穩定擴散,它是隱擴散模型(LDM)[17]的擴展版本。繼Dall-E[11]采用VQ-VAE學習視覺碼本之后,穩定擴散在第一階段使用VQ-GAN[47]進行潛表示。值得注意的是,VQ-GAN通過添加對抗性目標來改進VQ-VAE,以增加合成圖像的自然度。使用預訓練的VAE,穩定擴散逆轉了用噪聲擾動潛空間的前向擴散過程。穩定擴散還引入了交叉注意力,作為各種條件信號(如文本)的通用調節。在[17]上的實驗結果表明,在隱空間上進行擴散建模在降低復雜度和保持細節方面明顯優于在像素空間上進行擴散建模。在VQ-diffusion[39]中,采用先掩碼再替換的擴散策略,也實現了類似的擴散算法。與像素空間方法的發現類似,無分類器指導也顯著改善了隱空間[17]、[48]中的文本到圖像擴散模型。

3. 文本到圖像擴散模型的改進

3.1改進模型架構

關于指導的選擇。在無分類器指導的基礎上,[15]、[57]、[58]等工作也利用CLIP[41]探索了跨模態指導。具體來說,GLIDE[15]發現CLIP-guidance的表現低于無分類器指導的變體。相比之下,另一項修復[59]的工作指出,缺乏大規模的transformer語言模型,使得這些具有CLIP指導的模型難以編碼文本提示和生成具有細節的復雜場景。通過結合大型語言模型和跨模態匹配模型,修復[59]顯著提高了生成圖像的樣本保真度和圖像-文本對齊。通用的圖像合成能力使修復[59]可以在簡單和復雜的場景中生成圖像。 3.2 空間控制示意圖

盡管它們具有前所未有的高圖像保真度和標題相似性,但大多數文本到圖像的DMs,如Imagen[16]和DALL-E2[18],并不提供對空間布局的細粒度控制。為此,SpaText[62]引入了空間文本(ST)表示,可以通過調整SOTA DM的解碼器對其進行微調。具體來說,新的編碼器同時滿足局部ST和現有的全局文本。因此,SpaText[62]的核心在于ST,其中的擴散先驗單獨訓練,以將CLIP中的圖像嵌入轉換為其文本嵌入。在訓練過程中,通過使用CLIP圖像編碼器將分割后的圖像對象作為輸入直接生成ST。并發工作[63]提出通過簡單的草圖圖像實現細粒度的局部控制。他們的方法的核心是一個潛在引導預測器(LGP),這是一個像素級MLP,將噪聲圖像的潛在特征映射到相應的草圖輸入。經過訓練后(請參閱[63]了解更多訓練細節),LGP可以部署到預訓練的文本到圖像DM,而不需要進行微調。

3.3 面向概念控制的文本反轉

文本到圖像生成的先驅工作[15],[16],[17],[18]依靠自然語言來描述生成圖像的內容和風格。然而,在某些情況下,文本不能準確地描述用戶想要的語義,例如生成一個新的主題。為了合成具有特定概念或主題的新場景,[64],[65]引入了一些具有所需概念的參考圖像,然后將參考圖像翻轉為文本描述。具體來說,[64]將幾個參考圖像中的共享概念翻轉到文本(嵌入)空間,即“偽詞”。生成的“偽詞”可用于個性化生成。DreamBooth[65]采用了類似的技術,主要區別在于對預訓練DM模型進行微調(而不是凍結),以保留主題身份的關鍵視覺特征。

3.4 分布外檢索

SOTA文本到圖像模型令人印象深刻的性能是基于這樣的假設:該模型很好地暴露了以訓練風格描述公共實體的文本。然而,當實體很少見,或者期望的風格與訓練風格有很大不同時,這種假設就不成立了。為了緩解分布外性能的顯著下降,多個工作[66]、[67]、[68]、[69]都使用了將外部數據庫作為內存進行檢索的技術。這種技術首先在NLP[70],[71],[72],[73],[74]和最近在基于GAN的圖像合成[75]中獲得了關注,通過將全參數模型轉換為半參數模型。受此啟發,[66]增強了具有檢索的擴散模型。檢索增強擴散模型(RDM)[66]由條件DM和圖像數據庫組成,圖像數據庫被解釋為模型的顯式部分。通過在CLIP中測量距離,為每個查詢查詢k近鄰,即訓練樣本,在外部數據庫中,擴散先驗由具有固定CLIP圖像編碼器的KNN近鄰的更有信息的嵌入來指導,而不是文本嵌入。KNN-diffusion[67]采用了一種基本相似的方法,主要不同之處在于使擴散先驗地附加在文本嵌入上,以提高生成的樣本質量。后續的Re-Imagen[69]也采用了這種做法。與兩階段框架的RDM[66]和KNN-diffusion[67]相比,Re-Imagen[69]采用單階段框架,選擇與潛空間距離不相關的K-NN近鄰。此外,Re-Imagen還允許檢索到的鄰居既是圖像又是文本。如[69]所述,Re-Imagen在基準COCO數據集上的性能比KNN-diffusion有很大的優勢。

付費5元查看完整內容

強化學習(RL)為數據驅動決策提供了一個通用框架。然而,正是這種通用性使得這種方法適用于廣泛的問題,也導致了眾所周知的效率低下。在這篇論文中,我們考慮了有趣的決策類所共有的不同屬性,這些屬性可以用來設計計算效率和數據效率都很高的學習算法。具體來說,這項工作研究了決策問題的各個方面的低秩結構和經典確定性規劃的效果稀疏性,以及基于端到端模型的方法所依賴的性能。我們首先展示了后繼表示中的低秩結構如何使高效在線學習算法的設計成為可能。類似地,我們展示了如何在Bellman算子中找到相同的結構,我們使用Bellman算子來制定最小二乘時間差分學習算法的有效變體。我們進一步探索狀態特征中的低秩結構,以學習完全允許在低維空間中進行高效規劃的有效轉換模型。然后,我們進一步了解基于模型的端到端方法,以便更好地理解它們的屬性。我們通過約束優化和隱式微分的視角來研究這類方法。通過隱式視角,我們得到了這些方法的屬性,這些屬性使我們能夠確定它們執行良好的條件。在本文的最后,探索了如何利用經典規劃問題的效果的稀疏性來定義一般的領域無關啟發式方法,通過使用基于潛在的獎勵塑造和提升函數近似,可以用來大大加快領域相關啟發式方法的學習。

//dspace.mit.edu/handle/1721.1/144562

付費5元查看完整內容

最近,高度成功但不透明的機器學習模型激增,這引發了對可解釋性的迫切需求。該畢業論文通過新穎的定義、方法和科學綜述解決了可解釋性問題,確保可解釋性在現實問題的背景下是有用的。我們首先定義什么是可解釋性,以及圍繞它的一些需求,強調語境的作用被低估。然后,我們深入研究解釋/改進神經網絡模型的新方法,專注于如何最好地評分、使用和提取交互。接下來,我們將從神經網絡轉向相對簡單的基于規則的模型,研究如何在維護極其簡潔的模型的同時提高預測性能。最后,我們總結了促進可解釋數據科學的開源軟件和數據的工作。在每個案例中,我們深入到一個特定的背景,這激發了所提出的方法論,從宇宙學到細胞生物學到醫學。所有代碼都可以在github.com/csinva上找到。

本論文工作

機器學習模型最近因其準確預測各種復雜現象的能力而受到相當大的關注。然而,人們越來越認識到,除了預測之外,這些模型還能夠產生關于數據中包含的領域關系的有用信息(即解釋)。更準確地說,可解釋機器學習可以定義為“從機器學習模型中提取有關數據中包含的關系或該模型學習到的關系的相關知識”186。解釋有其自身的用途,如醫學[153]、科學[13,278]和決策[37],以及審計預測本身,以應對監管壓力[97]和公平[74]等問題。在這些領域中,解釋已被證明有助于評估學習模型,提供修復模型的信息(如果需要),并與領域專家[47]建立信任。然而,隨著可解釋技術的爆炸式增長[186,193,291,273,90,11,300,100],可解釋方法在實踐中的使用引起了相當大的關注[4]。此外,我們還不清楚如何在現實環境中評估可解釋技術,以促進我們對特定問題的理解。

概述數據科學生命周期的不同階段,其中可解釋性很重要。 為此,我們首先回顧了2019年PNAS論文[186](與Jamie Murdoch、Reza Abbasi-Asl、Karl Kumbier和Bin Yu合著)之后對可解釋性的一些要求。然后我們討論了一些批判性評價解釋的方法。然后,我們闡述了新的方法,以解決機器學習模型的可解釋性的差距。至關重要的是,這種方法是在現實世界問題的背景下與領域專家一起開發和評估的。這項工作跨越了不同的層次,試圖從黑盒模型中提取洞察力,并盡可能用更簡單的模型替換它們。圖1.1顯示了本文的概述,旨在解決嚴格基于現實問題的可解釋性問題。第一部分從解釋神經網絡事后解釋的不同方法開始。這些方法使理解神經網絡中不同特征之間的相互作用成為可能,并以宇宙學參數預測為背景(第5章)。第二部分接著展示了如何使用這些解釋方法直接改善神經網絡。要么通過正則化(第6章),要么通過蒸餾(第7章)。這在分子伙伴預測(第8章)的背景下得到了展示。接下來,第三部分介紹了用于構建高度預測的基于規則的模型的改進方法,這些模型非常簡潔,基于臨床決策規則開發問題。最后,第四部分介紹了新的開源軟件和不可解讀建模數據。

第一部分: 事后神經網絡解釋

之前的大量工作集中于為單個特征分配重要性,如圖像中的像素或文檔中的單詞。對于不同的體系結構,有幾種方法產生了特征級的重要性。它們可以分為基于梯度的[255,264,240,18]、基于分解的[185,242,17]和其他的[59,83,218,303],方法之間有許多相似之處[10,159]。雖然已經開發了許多方法來將重要性歸因于模型輸入的單個特征,但用于理解關鍵特征之間的交互作用的工作相對較少。這些交互是解釋現代深度學習模型的關鍵部分,因為它們使結構化數據具有強大的預測性能。第一部分介紹了最近開發的兩種方法,用于提取(已經訓練過的)DNN已經學習到的特征之間的交互。第3章介紹了聚集上下文分解(ACD),它通過貪婪地打分和組合組級重要性來生成層次重要性。這使得簡單有效地可視化哪些特性對單個預測是重要的。第4章介紹了轉換重要性(TRIM),它允許計算模型輸入轉換交互的分數。這兩種方法都可以更好地理解宇宙參數預測(第5章),其中的可解釋性允許人們在將模型應用于真實天文數據時相信模型的預測。

第二部分: 利用解釋改進神經網絡

在第一部分中介紹了解釋交互和轉換的方法之后,第二部分介紹了使用這些屬性直接改進模型的兩種方法。在引入和評估解釋方法時,這是一個重要且經常被忽略的步驟,它有助于用直接的用例來建立解釋的效用。

第三部分: 基于規則的可解釋建模

本節將完全脫離深度學習,而將重點放在基于規則的建模上。只要有可能,首先擬合一個簡單的模型比擬合一個復雜的模型,然后用事后的解釋來檢查它更可取。一個足夠簡單的基于規則的模型可以被完全理解,并且很容易用手模擬、記憶和推理反事實。

第四部分:開源軟件與數據

在數據科學和機器學習領域,好的開源軟件和數據存儲庫與好的想法一樣有用(如果不是更有用的話)。這一部分涵蓋了上述研究中產生的兩個python包,以及一個為開源建模而策劃的數據存儲庫。

付費5元查看完整內容
北京阿比特科技有限公司