大型語言模型(LLM)在代碼生成方面取得了顯著進展,但它們在處理具有復雜需求的程序時仍面臨挑戰。近期的研究嘗試通過“規劃與求解”(Plan-and-Solve)的分解策略以降低復雜性,并利用自測機制不斷優化生成的代碼。然而,提前規劃復雜需求可能非常困難,同時生成的自測需要非常準確才能實現自我改進。針對這一問題,我們提出了 FunCoder,一個結合了分治(divide-and-conquer)策略和功能共識(functional consensus)的代碼生成框架。具體而言,FunCoder 在代碼生成過程中遞歸地將子函數分解為較小的目標,并用樹狀層次結構加以表示。這些子函數隨后會組合在一起,以解決更為復雜的任務。此外,我們通過識別程序行為的相似性來形成共識函數,從而降低錯誤傳播的風險。在 HumanEval、MBPP、xCodeEval 和 MATH 測試中,FunCoder 在 GPT-3.5 和 GPT-4 上相較于現有方法平均性能提升了 9.8%。不僅如此,FunCoder 在較小的模型上同樣展現了出色的表現:借助 FunCoder,StableCode-3b 在 HumanEval 測試中的性能超越了 GPT-3.5(提升了 18.6%),并達到了 GPT-4 性能的 97.7%。進一步分析表明,我們提出的動態函數分解方法能夠有效應對復雜需求,且功能共識在正確性評估方面優于自測機制。
//www.zhuanzhi.ai/paper/e9b3b05614fb83a0e858cdc7aa5bf3fa
可擴展的圖神經網絡(GNNs)已經成為一種有前途的技術,它在許多大規模基于圖的網絡應用中展現出了卓越的預測性能和高運行效率。然而,(i)大多數可擴展的GNNs傾向于使用相同的傳播規則處理所有節點,忽略了它們的拓撲獨特性;(ii)現有的節點式傳播優化策略在具有復雜拓撲結構的網絡規模圖上不足夠,這類圖要求全面描述節點的局部屬性。直觀地說,網絡規模圖中的不同節點擁有不同的拓撲角色,因此不加區分地傳播它們或忽略局部上下文可能會損害節點表示的質量。為了解決上述問題,我們提出了自適應拓撲感知傳播(ATP),它減少了潛在的高偏差傳播,并以可擴展的方式提取每個節點的結構模式,以提高運行效率和預測性能。值得注意的是,ATP被設計為一種即插即用的節點式傳播優化策略,允許離線執行,獨立于圖學習過程,提供了一個新的視角。因此,這種方法可以無縫集成到大多數可擴展的GNNs中,同時與現有的節點式傳播優化策略保持正交。在12個數據集上的廣泛實驗已經證明了ATP的有效性。
基于知識庫的問題生成(KBQG)任務旨在將邏輯形式轉換為自然語言問題。由于大規模問題標注的成本昂貴,迫切需要開發低資源場景下的KBQG方法。然而,現有方法嚴重依賴于標注數據進行微調,不適合少樣本問題生成。大型語言模型(LLM)的出現在小樣本任務中表現出了令人印象深刻的泛化能力。受思維鏈(CoT)提示的啟發,該文將KBQG任務表述為一個推理問題,將一個完整問題的生成分解為一系列子問題的生成。所提出的提示方法KQG-CoT首先考慮邏輯形式的特征,從未標記的數據池中選擇支持邏輯形式。然后,構建一個特定于任務的提示,以指導LLM基于所選邏輯形式生成復雜的問題。為了進一步確保提示質量,我們通過對邏輯形式的復雜性進行排序,將KQG-CoT擴展為KQG-CoT+。在三個公開的KBQG數據集上進行了廣泛的實驗。結果表明,我們的提示方法在評估數據集上始終優于其他提示基線。值得注意的是,我們的KQG-CoT+方法可以在BLEU-4、METEOR和ROUGE-L上分別超過PathQuestions數據集現有的少樣本SoTA結果18.25、10.72和10.18個絕對點。
大型文本到圖像生成模型在生成性AI中已經取得了突破性的發展,擴散模型展現了根據輸入文本提示合成令人信服的圖像的驚人能力。圖像編輯研究的目標是通過修改文本提示來賦予用戶對生成圖像的控制。目前的圖像編輯技術容易在目標區域之外的區域,例如背景或與目標對象具有某種語義或視覺關系的干擾物體上,發生無意的修改。根據我們的實驗發現,不準確的交叉注意圖是這個問題的根源。基于這一觀察,我們提出了動態提示學習(Dynamic Prompt Learning, DPL)以強制交叉注意圖集中于文本提示中的正確名詞詞匯。通過使用所提出的漏洞修復損失更新文本輸入中的名詞的動態代幣,我們實現了對特定對象的細粒度圖像編輯,同時防止了對其他圖像區域的不希望的變化。我們的方法DPL基于公開可用的穩定擴散(Stable Diffusion)進行了廣泛的評估,在大量圖像上一致獲得了優越的結果,無論是量化(CLIP得分,Structure-Dist)還是定性(用戶評估)都是如此。我們展示了對于詞匯交換(Word-Swap)、提示細化(Prompt Refinement)和注意力重新加權(Attention Re-weighting),尤其是在復雜的多對象場景中,改進了的提示編輯結果。
自然語言處理(NLP)社群一直在使用眾包技術來創建基準數據集,例如用于訓練現代語言模型(LMs)如BERT的通用語言理解與評估(GLUE)。GLUE任務使用互注解者度量(如Cohen的Kappa(??))來衡量可靠性分數。然而,LMs的可靠性方面經常被忽視。為了解決這個問題,我們探索了一種由知識引導的LM集成方法,該方法利用強化學習來整合來自ConceptNet和維基百科的知識圖譜嵌入。這種方法模仿人類注解者依賴外部知識來彌補數據集中的信息缺陷。在九個GLUE數據集中,我們的研究顯示集成增強了可靠性和準確性分數,超過了現有最先進的方法。
在不斷增長的分析服務領域上運行的生產系統通常需要為具有有限數據的新任務生成熱啟動解決方案模型。解決這一暖啟動挑戰的一個潛在方法是采用元學習來生成一個基礎模型,該模型可以通過最小的微調來解決看不見的任務。然而,這需要同步現有任務的以前解決方案模型的訓練過程。如果這些模型在不同實體擁有的私有數據上分別進行預訓練,并且不能同步地重新訓練,那么就不可能做到這一點。為了適應這種情況,我們開發了一種新的個性化學習框架,通過融合相關任務的獨立預訓練模型,為未見任務綜合定制模型。我們建立了該框架的性能保證,并在合成和真實數據集上證明了其有效性。
時序知識圖譜推理是信息檢索和語義搜索的關鍵任務。當TKG頻繁更新時,這是特別具有挑戰性的。該模型必須適應TKG的變化,以便進行有效的訓練和推理,同時保持其對歷史知識的表現。最近的工作通過增加一個時間感知編碼函數來實現TKG補全(TKGC)。然而,使用這些方法在每個時間步驟中直接微調模型并不能解決以下問題:1)災難性遺忘;2)模型不能識別事實的變化(例如,政治派別的變化和婚姻的結束);3)缺乏訓練效率。為了解決這些挑戰,我們提出了時間感知增量嵌入(TIE)框架,該框架結合了TKG表示學習、經驗回放和時間正則化。我們引入一組度量標準來描述模型的不妥協性,并提出一個約束,將刪除的事實與負面標簽相關聯。在Wikidata12k和YAGO11k數據集上的實驗結果表明,本文提出的TIE框架減少了大約10倍的訓練時間,并在提出的指標上有所改進。對于任何傳統的度量方法,它都不會造成性能上的重大損失。廣泛的消融研究揭示了不同評估指標之間的性能權衡,這對于真實世界的TKG應用的決策是至關重要的。
在大規模無標簽文本上預訓練語言模型,然后在下游任務微調的學習模式已經在自然語言處理(NLP)領域取得了廣泛的應用。盡管當前的預訓練語言模型在大部分NLP任務上取得了顯著的進展,然而,研究人員發現當預訓練任務的目標更接近于下游任務的目標時,模型在下游任務上能取得更大幅度的性能提升,例如針對文本摘要設計的Gap Sentence Prediciton預訓練任務[1]、面向機器閱讀理解設計的Span Selection預訓練任務[2]、以及為情感分析設計的Label-aware MLM預訓練任務[3],都取得了相較于原始預訓練語言模型更好的性能。近年來,在信息檢索(IR)中,預訓練語言模型在文檔排序任務上取得了一定的效果,然而,如何設計更符合信息檢索需求的預訓練目標,是一個值得探索的新領域。
在這項工作中,我們提出了一個新穎的針對信息檢索的預訓練任務,叫做“代表詞預測”任務(Representative Words Prediction)。這個任務是受到了IR中經典統計語言模型——查詢似然模型的啟發,在查詢似然模型的基本假設中,查詢被認為是由“理想”文檔“生成”出來的具有代表性的文本,因此通過貝葉斯定理推導,查詢的相關性強度可由其代表性或者說是其似然值表征。鑒于此,我們就構建了這樣一個新的代表詞預測任務(簡稱為ROP任務),具體來說,對于一個給定的文檔,我們根據文檔語言模型(狄利克雷平滑的多項式語言模型)采樣出該文檔的代表性詞集,然后預訓練語言模型使其能夠有效地區分出其中哪些詞項更具有代表性。為了同時建模查詢和文檔內容理解以及二者關系的預測,我們結合ROP與MLM一起在無標簽的文檔語料上進行預訓練,我們把通過這種預訓練方式得到的語言模型命名為PROP。
人工智能的一個基本問題是對知識圖譜(KG)捕獲的事實執行復雜的多跳邏輯推理。這個問題是具有挑戰性的,因為KGs可能是不完備的。最近的方法是將KG實體嵌入到低維空間中,然后利用這些嵌入來尋找答案實體。然而,如何處理任意一階邏輯(FOL)查詢一直是一個突出的挑戰,因為目前的方法僅限于FOL操作符的一個子集。特別地,不支持否定運算符。現有方法的另一個限制是它們不能自然地建模不確定性。在這里,我們提出了一種用于回答KGs中任意FOL查詢的概率嵌入框架BETAE。BETAE是第一種可以處理完整的一階邏輯運算的方法:合取(∧)、析取(不確定)和否定(ed)。BETAE的一個關鍵觀點是使用有界支持的概率分布,特別是Beta分布,以及嵌入查詢/實體作為分布,這使得我們也能建模不確定性。邏輯操作由概率嵌入的神經算子在嵌入空間中執行。我們演示了BETAE在三個大的、不完整的KG上回答任意的FOL查詢時的性能。雖然BETAE更加通用,但相對于目前最先進的KG推理方法(僅能處理不含否定的連接查詢),它的相對性能提高了25.4%。
深度強化學習解決很多復雜問題的能力已經有目共睹,然而,如何提升其學習效率是目前面臨的主要問題之一。現有的很多方法已驗證遷移學習可利用相關任務中獲得的先驗知識來加快強化學習任務的學習效率。然而,這些方法需要明確計算任務之間的相似度,或者只能選擇一個適合的源策略,并利用它提供針對目標任務的指導性探索。目前仍缺少如何不顯式的計算策略間相似性,自適應的利用源策略中的先驗知識的方法。本文提出了一種通用的策略遷移框架(PTF),利用上述思想實現高效的強化學習。PTF通過將多策略遷移過程建模為選項(option)學習,option判斷何時和哪種源策略最適合重用,何時終止該策略的重用。如圖1所示,PTF分為兩個子模塊,智能體(agent)模塊和option模塊。Agent模塊負責與環境交互,并根據環境的經驗和option的指導進行策略更新。