亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

在線評論為客戶提供產品評估以做出決策。不幸的是,這些評估可能會被專業的垃圾郵件發送者使用虛假的評論(“垃圾郵件”)來操縱,而這些專業的垃圾郵件發送者通過適應部署的檢測器,已經學會了越來越陰險和強大的垃圾郵件發送策略。垃圾郵件策略很難捕捉,因為隨著時間的推移,它們會迅速變化,垃圾郵件發送者和目標產品之間也會不同,更重要的是,在大多數情況下,它們仍然是未知的。此外,現有的大多數檢測器關注的是檢測精度,這與保持產品評價的可信度的目標不是很一致的。為了解決這些挑戰,我們制定了一個極大極小游戲,垃圾郵件發送者和垃圾郵件檢測器在他們的實際目標上相互競爭,而不僅僅是基于檢測的準確性。博弈的納什均衡導致穩定的檢測器,對于任何混合檢測策略都是不可知的。然而,對于典型的基于梯度的算法來說,該博弈沒有封閉形式的解,不可微。我們將博弈轉化為兩個依賴的馬爾可夫決策過程(MDPs),以實現基于多武裝強盜和政策梯度的高效隨機優化。我們在三個大型綜述數據集上使用各種最新的垃圾郵件發送和檢測策略進行了實驗,結果表明,該優化算法能夠可靠地找到一種均衡檢測器,能夠有效地防止使用任何混合垃圾郵件發送策略的垃圾郵件發送者達到他們的實際目標。我們的代碼可以在//github.com/YingtongDou/Nash-Detect獲得。

付費5元查看完整內容

相關內容

論文標題:A Block Decomposition Algorithm for Sparse Optimization 論文鏈接://arxiv.org/pdf/1905.11031.pdf 相關資料(代碼/PPT/相關論文):

稀疏優化由于其內在的組合結構,一般比較難求解。組合搜索方法可以獲得其全局最優解,但往往局限于小規模的優化問題;坐標下降方法速度快,但往往陷入于一個較差的局部次優解中。

我們提出一種結合組合搜索和坐標下降的塊 K 分解算法。具體地說,我們考慮隨機策略或/和貪婪策略,選擇 K 個坐標作為工作集,然后基于原始目標函數對工作集坐標進行全局組合搜索。我們對塊 K 分解算法進行了最優性分析,我們證明了我們的方法比現有的方法找到更強的穩定點。

此外,我們還對算法進行了收斂性分析,并構建其收斂速度。大量的實驗表明,我們的方法目前取得的性能臻于藝境。我們的塊 K 分解算法的工作發表在國際人工智能會議 SIGKDD 2020 和 CVPR 2019 上。

付費5元查看完整內容

隨著推薦任務的日益多樣化和推薦模型的日益復雜,開發出一套能夠很好地適應新的推薦任務的推薦系統變得越來越具有挑戰性。在本教程中,我們將重點討論自動機器學習(AutoML)技術如何有益于推薦系統的設計和使用。具體地說,我們將從一個完整的范圍開始描述什么是可以自動推薦系統。然后,我們將在此范圍內對特征工程、超參數優化/神經結構搜索和算法選擇三個重要的主題進行詳細闡述。將介紹、總結和討論這些主題下的核心問題和最近的工作。

付費5元查看完整內容

本文通過最小化驗證損失代理來搜索最佳神經網絡結構。現有的神經結構搜索(NAS)方法在給定最新的網絡權重的情況下發現基于驗證樣本的最佳神經網絡結構。但是,由于在NAS中需要多次重復進行反向傳播,使用大量驗證樣本進行反向傳播可能會非常耗時。在本文中,我們建議通過學習從神經網絡結構到對應的損失的映射來近似驗證損失情況。因此,可以很容易地將最佳神經網絡結構識別為該代理驗證損失范圍的最小值。同時,本文進一步提出了一種新的采樣策略,可以有效地近似損失情況。理論分析表明,與均勻采樣相比,我們的采樣策略可以達到更低的錯誤率和更低的標簽復雜度。在標準數據集上的實驗結果表明,通過本方法進行神經結構搜索可以在較低的搜索時間內搜索到精度很高的網絡結構。

付費5元查看完整內容

在本文中,我們報告了我們最近在騰訊基于移動應用使用的用戶建模的實踐。用戶對移動應用的使用行為,包括保留、安裝和卸載,可以很好地反映用戶的長期和短期興趣。例如,如果用戶最近安裝了Snapseed,她可能對攝影越來越感興趣。這些信息對于許多下游應用程序是有價值的,包括廣告、推薦等。傳統上,基于移動應用程序使用情況的用戶建模很大程度上依賴于手工制作的特征工程,這需要對不同的下游應用程序進行繁重的人工工作,如果沒有領域專家的話,可能不是最優的。然而,基于移動應用使用的自動用戶建模面臨著獨特的挑戰,包括(1)保留、安裝和卸載異構,需要集中建模,(2)用戶行為隨時間分布不均,(3)許多長尾應用存在嚴重的稀疏性。在本文中,我們提出了一個定制的自編碼器耦合Transformer 網絡(AETN),通過它我們克服了這些挑戰,并實現了減少人工勞動和提高性能的目標。我們在騰訊部署了該模型,從下游應用的多個域進行的在線/離線實驗都證明了用戶嵌入輸出的有效性。

付費5元查看完整內容

題目: A Game Theoretic Framework for Model Based Reinforcement Learning

摘要: 基于模型的強化學習(MBRL)最近獲得了極大的興趣,因為它具有潛在的樣本效率和合并非策略數據的能力。然而,使用富函數逼近器設計穩定、高效的MBRL算法仍然具有挑戰性。為了從抽象的角度揭示MBRL的實際挑戰并簡化算法設計,我們開發了一個新的框架,將MBRL描述為:(1)一個策略參與者,它試圖在學習模型下最大化回報;(2)一個模型player,它試圖與策略player收集的真實數據相匹配。在算法開發方面,我們構造了一個雙方參與的Stackelberg博弈,并證明了它可以用近似的雙層優化來解決。這就產生了兩種自然的MBRL算法,基于這兩種算法,玩家被選擇為Stackelberg游戲的領導者。它們一起封裝、統一和泛化了許多以前的MBRL算法。此外,我們的框架是一致的,并提供了一個明確的基礎啟發式已知是重要的實踐,從以往的工作。最后,通過實驗驗證了所提出的算法具有較高的樣本效率,匹配無模型策略梯度的漸近性能,并能擴展到靈巧手操作等高維任務。

付費5元查看完整內容

在這篇論文中,我們提出了一個框架,能夠生成與給定的一次性樣例相同分布的人臉圖像。我們利用一個預先訓練的StyleGAN模型,它已經學會了一般的面部分布。針對這一一次性目標,我們提出了一種快速調整模型權值的迭代優化方案,以使輸出的高階分布適應目標的高階分布。為了生成相同分布的圖像,我們引入了一種風格混合技術,將低水平的統計信息從目標傳輸到模型隨機生成的人臉。這樣,我們就能夠生成無限數量的面孔,這些面孔既繼承了一般人臉的分布,也繼承了一次性人臉的分布。新生成的人臉可以作為其他下游任務的增強訓練數據。這樣的設置很有吸引力,因為它需要在目標域中標記很少的標記,甚至只需要一個示例,而在現實世界中,人臉操作通常是由各種未知的和獨特的分布導致的。結果表明,本文提出的單樣本自適應方法是一種有效的人臉操作檢測方法,并與其他多鏡頭自適應方法進行了定性和定量的比較。

付費5元查看完整內容
北京阿比特科技有限公司