亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

國際計算語言學年會(Annual Meeting of the Association for Computational Linguistics,簡稱ACL)在世界范圍內每年召開一次,是自然語言處理領域的頂級會議,被中國計算機協會(CCF)評級為A類會議,今年是第61屆會議,將于2023年7月9-14日在加拿大多倫多召開。ACL 2023會議網址//2023.aclweb.org/

像GPT-3和PaLM這樣的語言模型(LMs)在自然語言處理(NLP)任務中表現出了令人印象深刻的能力。然而,僅僅依賴于他們的參數來編碼大量的世界知識需要過多的參數,因此需要大量的計算,而且他們經常難以學習長期的知識。此外,這些參數化的LMs在根本上無法隨著時間的推移進行適應,常常產生幻覺,并可能從訓練語料庫中泄露私人數據。為了克服這些限制,人們對基于檢索的LMs產生了越來越大的興趣,這些模型將非參數化的數據存儲(例如,來自外部語料庫的文本塊)與它們的參數化副本結合在一起。基于檢索的LMs可以以更少的參數大幅度超越沒有檢索的LMs,可以通過更換他們的檢索語料庫來更新他們的知識,并且為用戶提供引文以便于輕松驗證和評估預測。

在這個教程中,我們的目標是提供關于基于檢索的LMs最近進展的全面而連貫的概述。我們將首先提供基礎知識,涵蓋LMs和檢索系統的基礎。然后我們將關注基于檢索的LMs在架構,學習方法和應用方面的最近進展。

像GPT-3 (Brown等,2020) 和 PaLM (Chowdhery等,2022) 這樣的語言模型(LMs)在一系列自然語言處理(NLP)任務中展示出了令人印象深刻的能力。然而,僅依賴它們的參數來編碼世界知識需要過于龐大的參數數量,從而導致大量的計算,它們往往在學習長期知識方面存在困難(Roberts等,2020;Kandpal等,2022;Mallen等,2022)。此外,這些參數化的LMs從根本上無法隨時間的推移進行適應(De Cao等,2021;Lazaridou等,2021;Kasai等,2022),經常會產生幻覺(Shuster等,2021),并可能從訓練語料庫中泄漏私人數據(Carlini等,2021)。為了克服這些限制,人們對基于檢索的LMs(Guu等,2020;Khandelwal等,2020;Borgeaud等,2022;Zhong等,2022;Izacard等,2022b;Min等,2022)產生了越來越大的興趣,這些模型將非參數化的數據存儲(例如,來自外部語料庫的文本塊)與他們的參數化版本結合在一起。基于檢索的LMs可以以更少的參數大幅度超越沒有檢索的LMs(Mallen等,2022),可以通過替換檢索語料庫來更新他們的知識(Izacard等,2022b),并且為用戶提供引文以便于輕松驗證和評估預測(Menick等,2022;Bohnet等,2022)。過去,檢索和LMs大多被分開研究,只是最近研究者們才將他們集成起來,構建了在其中檢索和LMs更有機地互動的系統,由于興趣的增長,已經提出了一些基于檢索的LMs。他們在神經架構(例如,檢索單元的粒度,如何整合檢索到的信息)、學習算法和在下游應用中的不同使用等方面存在差異。在這個教程中,我們的目標是提供關于基于檢索的LMs最近進展的全面而連貫的概述。我們將首先提供基礎知識,涵蓋LMs(例如,掩碼LMs,自回歸LMs)和檢索系統(例如,廣泛用于神經檢索系統的最近鄰搜索方法;Karpukhin等,2020)的基礎。然后我們將關注基于檢索的LMs在架構,學習方法和應用方面的最近進展。

架構分類

我們根據各種維度介紹了基于檢索的LMs的架構分類。基于檢索的LMs可以按照在數據存儲中存儲的檢索單元的粒度進行分類:1) 一段文本(Borgeaud等,2022;Izacard等,2022b);2) 一個標記(Khandelwal等,2020;Zhong等,2022;Min等,2022);3) 一個實體提及(Févry等,2020;de Jong等,2022)。我們也計劃介紹用于優化數據存儲和改進相似性搜索的技術(He等,2021;Alon等,2022)。同時,基于檢索的LMs可以根據檢索到的信息如何與參數編碼器集成來進行分類:1) 是否將檢索到的組件與原始輸入文本連接起來(Lewis等,2020;Guu等,2020;Izacard等,2022b);2) 是否將檢索到的組件作為潛在的組件并集成到Transformers的中間層中(de Jong等,2022;Févry等,2020;Borgeaud等,2022);3) 是否將從檢索到的組件和LMs中分布的標記進行插值(Khandelwal等,2020;Zhong等,2022;Yogatama等,2021)。

可擴展的學習算法

接下來,我們討論基于檢索的LMs的訓練方法。由于檢索數據存儲通常非常大,如何有效且高效地訓練基于檢索的LMs仍然是一個挑戰。我們首先討論分步訓練方法,這種方法將檢索組件和LMs分開訓練,可以通過大規模預訓練(Izacard等,2022a)或多任務指令調整(Asai等,2022)來實現。其他一些工作用固定的檢索模塊訓練基于檢索的LMs(Borgeaud等,2022;Yogatama等,2021)。然后,我們討論在合理的資源需求下進行聯合訓練:可以通過對全數據存儲進行批處理近似,或者異步更新具有更新參數的數據存儲。前者在聯合訓練過程中使用精心設計的全文檔的一部分(Zhong等,2022;de Jong等,2022;Min等,2022)。另一方面,后者的目標是在訓練過程中使用全文檔,并每隔一定的時間步長異步更新索引(Izacard等,2022b;Guu等,2020)。

適應下游任務在討論了基于檢索的LMs的基本構建模塊后,我們展示了如何將基于檢索的LMs應用于下游應用。我們首先簡要總結了將模型適應新任務的兩種方法:零-shot或少-shot提示(Shi等,2022;Wang等,2022),以及在目標任務數據上進行微調(Lewis等,2020)。然后,我們討論了設計用于特定下游任務的更強大的基于檢索的LMs方法,如對話(Shuster等,2021),語義解析(Pasupat等,2021)和機器翻譯(Khandelwal等,2021;Zheng等,2021)。到目前為止,我們的教程主要關注的是檢索和整合英文普通文本。在最后,我們將介紹基于檢索的LMs在英文文本之外的最新擴展,包括多語言(Asai等,2021),多模態(Chen等,2022;Yasunaga等,2022)和代碼(Parvez等,2021)檢索。這些工作通常將稠密檢索模型擴展到可以在異構輸入空間之間進行檢索(例如,跨語言,跨模態),并且已經表明引用檢索的知識可以產生知識密集型生成。最后,我們將通過一個練習展示基于檢索的LMs的有效性。我們通過討論一些重要問題和未來方向來結束我們的教程,包括(1)如何在不犧牲性能的情況下進一步提高基于檢索的LMs的可擴展性,(2)在迅速發展的LMs時代,基于檢索的LMs在何時特別有用,以及(3)為了實現基于檢索的LMs在更多樣化的領域中的應用,我們需要什么。

付費5元查看完整內容

相關內容

6 月 18 日至 22 日,計算機視覺領域頂級盛會之一國際計算機視覺與模式識別會議(CVPR 2023)將在加拿大溫哥華舉行。CVPR(Computer Vision and Pattern Recognition,計算機視覺與模式識別)會議是計算機視覺與模式識別、人工智能領域的國際頂級會議,是中國計算機學會(CCF)推薦的A類國際學術會議。本屆會議錄用率為25.78%。

來自微軟給出了《視覺基礎模型進展》教程,值得關注!

//vlp-tutorial.github.io/

在計算機視覺社區,不同粒度層次的視覺理解一直是一個長期存在的問題。任務跨越了從圖像級任務(例如,圖像分類,圖像-文本檢索,圖像字幕,和視覺問題回答),區域級定位任務(例如,物體檢測和短語定位),到像素級分組任務(例如,圖像實例/語義/全景分割)。直到最近,這些任務大多都是通過專門的模型設計單獨處理的,阻止了跨不同粒度的任務之間的協同效應的開發。

鑒于Transformer的多功能性和受大規模視覺語言預訓練的啟發,計算機視覺社區現在正在見證對構建通用視覺系統的興趣日益增長,這也被稱為視覺基礎模型,這些模型可以從各種下游任務中學習,并應用于從圖像級別,區域級別,到像素級別的視覺任務。

在本教程中,我們將介紹學習和應用視覺基礎模型的前沿的最新方法和原則,包括(1) 視覺和視覺語言預訓練;(2) 通用視覺接口;(3) 文本到圖像生成的對齊;(4)大型多模態模型;和(5) 多模態智能體。

目錄內容:

講者:

付費5元查看完整內容

?6 月 18 日至 22 日,計算機視覺領域頂級盛會之一國際計算機視覺與模式識別會議(CVPR 2023)將在加拿大溫哥華舉行。CVPR(Computer Vision and Pattern Recognition,計算機視覺與模式識別)會議是計算機視覺與模式識別、人工智能領域的國際頂級會議,是中國計算機學會(CCF)推薦的A類國際學術會議。本屆會議錄用率為25.78%。

來自SMU、NUS、哈佛大學、Bucharest給出了《異常檢測》教程,值得關注!

本教程將全面回顧在圖像和視頻數據上(深度)異常檢測的最新進展。將討論三種主要的AD范式,包括無監督/自監督方法(無異常訓練數據),半監督方法(可獲得少樣本訓練異常示例)和弱監督方法(可用于幀級檢測的視頻級標簽)。此外,我們還將涉及異常分割任務,重點是自動駕駛設置。本教程將以關于廣告挑戰和機遇的小組討論結束。

付費5元查看完整內容

6 月 18 日至 22 日,計算機視覺領域頂級盛會之一國際計算機視覺與模式識別會議(CVPR 2023)將在加拿大溫哥華舉行。CVPR(Computer Vision and Pattern Recognition,計算機視覺與模式識別)會議是計算機視覺與模式識別、人工智能領域的國際頂級會議,是中國計算機學會(CCF)推薦的A類國際學術會議。本屆會議錄用率為25.78%。

來自Tel Aviv University, Google,Hugging Face給出了《視覺中的理解和解釋注意力》教程,值得關注!

在這個教程中,我們探討了在視覺中使用注意力的方法。從左到右:(i) 注意力可以用來解釋模型的預測(例如,對于圖像-文本對的CLIP)(ii) 探測基于注意力模型的示例 (iii) 多模態模型的交叉注意力圖可以用來指導生成模型(例如,緩解在穩定擴散中的忽視)。

Overview of typical ways of interpreting CNNs - GradCAM, LRP, grad x input, SHAP, LIME, Integrated Gradients

Transformers 導論 Short introduction to Transformers

The attention mechanism Positional encoding Integrating attention maps from different modalities via cross-attention Probing Transformers: understanding what Transformers learn from images [1, 2, 3, 4, 5]

Mean attention distance (relative receptive field) Centered kernel alignment The role of skip connections Why do we need different methods to interpret Transformers?

Is attention an explanation? If so, under what conditions? Explaining predictions made by Transformers (XAI) Algorithms to explain attention

Attention rollout [6] Attention flow (shortly since it’s computationally expensive) [6] Transformer Interpretability Beyond Attention Visualization [7] Understanding what Transformers learn from multiple modalities [8] Attention as explanation

Class attention [10] Attention for semantic segmentation (DINO, [11]) Leveraging attention for downstream tasks

Ron Mokady sharing his seminal research on employing attention for text-based image editing ([12, 13]) Using cross-attention to guide text-to-image generation models ([14]) Open questions

How do we evaluate these explainability methods? Are smaller Transformer models better than the larger ones as far as explainability is concerned? Is attention a good way to interpret Transformers in the first place? Why do methods for CNNs not perform well on Transformers? (e.g. the adaptation of GradCAM to Transformers does not seem to work, even though the intuition is rather similar) * Conclusion and Q&A

參考文獻:

[1] Generic Attention-model Explainability for Interpreting Bi-Modal and Encoder-Decoder Transformers, Chefer et al. [2] Do Vision Transformers See Like Convolutional Neural Networks?, Raghu et al. [3] What do Vision Transformers Learn? A Visual Exploration, Ghiasi et al.[4] Quantifying Attention Flow in Transformers, Abnar et al. [5] Attend-and-Excite: Attention-Based Semantic Guidance for Text-to-Image Diffusion Models, Chefer et al. [6] Prompt-to-Prompt Image Editing with Cross-Attention Control, Hertz et al. [7] NULL-text Inversion for Editing Real Images using Guided Diffusion Models, Mokady et al.

付費5元查看完整內容

國際知識發現與數據挖掘大會 (ACM SIGKDD Conference on Knowledge Discovery and Data Mining,簡稱KDD) 是數據挖掘領域的頂級會議。第28屆SIGKDD會議將于8月14日至18日在華盛頓舉行。據統計,今年共有1695篇有效投稿,其中254篇論文被接收,接收率為14.98%,Applied Data Science Track錄用率為25.90%。

魯棒時間序列分析及其工業應用

時間序列分析在各個領域都非常普遍和重要,例如云計算中的IT運營人工智能(AI - Intelligence for IT Operations, AIOps)、電子商務中的人工智能(AI-powered Business Intelligence, AI -power Business Intelligence)、物聯網人工智能(AI- Intelligence of Things, AIoT)等。在現實世界中,時間序列數據往往呈現出具有趨勢、季節性、異常值和噪聲的復雜模式。此外,隨著越來越多的時間序列數據被收集和存儲,如何有效地處理大量的數據在許多應用中是至關重要的。我們注意到,這些重大挑戰存在于各種任務中,如預測、異常檢測和故障原因定位。因此,如何針對不同的任務設計有效、高效的時間序列模型,使其具有魯棒性,能夠解決上述實際場景中的挑戰模式和噪聲,具有很大的理論和實踐意義。

在本教程中,我們提供了在魯棒時間序列分析的最先進算法的全面和有組織的教程,從傳統的統計方法到最新的基于深度學習的方法。我們不僅將介紹時間序列算法的原理,而且還將提供如何將它們有效地應用于實際的真實工業應用的見解。具體來說,我們將本教程組織在一個自底向上的框架中。我們首先介紹了不同學科的初步成果,包括魯棒統計、信號處理、優化和深度學習。然后,我們識別并討論了魯棒時間序列分析中最常用的處理塊,包括周期檢測、趨勢濾波、季節趨勢分解和時間序列相似性。最后,我們討論了多個時間序列任務的最新進展,包括預測、異常檢測、故障原因定位和自動擴展,以及大規模時間序列應用的實際經驗教訓,從工業的角度。

//qingsongedu.github.io/timeseries-tutorial-kdd-2022/

目錄內容:

  1. 初始介紹 Preliminaries
  • Real-world Challenges and Needs for Robustness
  • Robust Statistics: Robust Regression, M-estimators
  • Signal Processing: Fourier, Wavelet
  • Optimization Algorithms: Alternating Direction Method of Multipliers (ADMM), Majorize-Minimization (MM)
  • Deep Learning: RNN, CNN, GNN, Transformer, Data Augmentation for Time Series
  1. 魯棒時序處理 Robust Time Series Processing Blocks
  • Time Series Periodicity Detection
  • Time Series Trend Filtering
  • Time Series Seasonal-Trend Decomposition
  • Time Series Similarity
  1. 魯棒時序應用與實踐 Robust Time Series Applications and Practices
  • Forecasting: Tree Model, Deep Ensemble, Transformer, and Case Studies
  • Autoscaling: Query Modeling, Scaling Decision, and Case Studies
  • Anomaly Detection: Decomposition Model, Deep State Space Model, Transformer, and Case Studies
  • Fault Cause Localization: Rule Set Learning, Root Cause Analysis, and Case Studies

Further Reading:

  • AI for Time Series (AI4TS) Papers, Tutorials, and Surveys [GitHub link]

時間序列Transformer建模綜述

Transformers在自然語言處理和計算機視覺的許多任務中都取得了卓越的性能,這也引起了時間序列社區的極大興趣。在Transformer的眾多優點中,捕獲長期依賴關系和交互的能力對時間序列建模特別有吸引力,這使得各種時間序列應用取得了令人興奮的進展。**在本文中,我們系統地回顧了用于時間序列建模的Transformer方案,通過一個新的分類,從兩個角度總結了現有的時間序列Transformer,突出了它們的優勢和局限性。**從網絡改造的角度,總結了時間序列Transformers的模塊級適應性和體系結構級適應性。從應用的角度出發,我們根據預測、異常檢測和分類等常用任務對時間序列Transformer進行分類。根據經驗,我們執行穩健分析、模型規模分析和季節性趨勢分解分析,以研究《Transformers》在時間序列中的表現。最后,我們討論并提出未來的研究方向,以提供有用的研究指導。

由于Transformer在自然語言處理(NLP) [Kenton and Toutanova, 2019]、計算機視覺(CV) [Dosovitskiy et al., 2021]、語音處理[Dong et al., 2018]和其他學科[Chen et al., 2021b]方面的出色表現,其在深度學習方面的創新[Vaswani et al., 2017]最近引起了極大的興趣。**在過去的幾年中,許多Transformer的變種被提出,以大大提高各種任務的最先進的性能。**不同方面的文獻綜述較多,如NLP應用方面的文獻[Qiu et al., 2020;Han et al., 2021], CV applications [Han et al., 2020;Khan等人,2021年;Selva等人,2022年)、高效Transformer [Tay et al., 2020]和注意力模型[Chaudhari et al., 2021; Galassi et al., 2020]。

在時序數據的長距離依賴和交互中,transformer表現出了很強的建模能力,因此在時間序列建模中很有吸引力。由于時間序列數據和時間序列任務的特殊特性,許多Transformer的變體被提出以適應各種時間序列任務中的時間序列數據,如預測[Li et al., 2019; Zhou et al., 2021; Zhou et al., 2022],異常檢測[Xu et al., 2022; Tuli et al., 2022],分類[Zerveas et al., 2021; Yang et al., 2021],等等。例如,季節性或周期性是時間序列的一個重要特征[Wen等人,2021a],如何有效地建模長期和短期的時間相關性,并同時捕獲季節性仍然是一個挑戰[Wu et al., 2021; Zhou et al., 2022]。由于Transformer for time series是深度學習領域的一個新興領域,對Transformer for time series進行系統、全面的研究將對時間序列學界大有裨益。我們注意到,存在一些關于時間序列深度學習的綜述,包括預測[Lim和Zohren, 2021;Benidis等人,2020年;Torres et al., 2021],分類[Ismail Fawaz et al., 2019], anomaly detection [Choi et al., 2021; Blazquez-Garc ′ ′?a et al., 2021]和數據增強[Wen et al., 2021b],但很少或沒有對時間序列的Transformers 進行深入分析。

**在本文中,我們旨在通過總結現有的時間序列Transformers來填補上述空白。**具體來說,我們首先簡要介紹了普通的Transformer,然后從網絡修改和應用領域的角度提出了一種新的時間序列Transformer分類。對于網絡修改,我們考慮了針對時間序列數據優化的transformer的低層模塊調整和高層架構改進。在應用方面,我們總結和分析了用于流行時間序列任務的transformer,包括預測、異常檢測和分類。對于每個時間系列的《Transformers》,我們都分析了它的見解、優勢以及局限性。為了提供如何在時間序列中使用transformer的實用指南,我們進一步對時間序列transformer進行了一些實證研究,包括穩健性分析、模型規模分析和季節趨勢分解分析。最后,我們提出并討論未來可能的發展方向,包括時間序列Transformers的歸納偏差,時間序列Transformers和GNN,時間序列Transformers的預訓練,以及時間序列Transformers和NAS。據我們所知,本文是第一次全面系統地總結了Transformers在時間序列數據建模方面的最新進展。我們希望這個綜述將點燃對時間系列Transformers的進一步研究興趣。

參考文獻:

[IJCAI’21] Qingsong Wen, Liang Sun, Fan Yang, Xiaomin Song, Jingkun Gao, Xue Wang, Huan Xu, “Time Series Data Augmentation for Deep Learning: A Survey,” in the 30th International Joint Conference on Artificial Intelligence (IJCAI 2021), Montreal, Canada, Aug. 2021. [arXiv]. Note: Selected by Paper Digest into Most Influential IJCAI Papers (Version: 2022-02), Rank 1st (1 out of 15 out of 600+ IJCAI’21 papers) [link] * [ICASSP’22] Chaoli Zhang*, Zhiqiang Zhou*, Yingying Zhang*, Linxiao Yang*, Kai He*, Qingsong Wen*, Liang Sun* (*Equally Contributed), “NetRCA: An Effective Network Fault Cause Localization Algorithm,” in Proc. IEEE 47th International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2022), Singapore, May 2022. [arXiv]. Note: ICASSP‘22 AIOps Challenge, First Place (1/382, Team Name: MindOps) [link] * [ICML’22] Tian Zhou, Ziqing Ma, Qingsong Wen, Xue Wang, Liang Sun, Rong Jin, “FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting,” in Proc. 39th International Conference on Machine Learning (ICML 2022), Baltimore, Maryland, July 17-23, 2022. [arXiv] [code] * [KDD’22] Weiqi Chen, Wenwei Wang, Bingqing Peng, Qingsong Wen, Tian Zhou, Liang Sun, “Learning to Rotate: Quaternion Transformer for Complicated Periodical Time Series Forecasting”, in Proc. 28th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (KDD 2022), Washington DC, Aug. 2022.[come soon] * [arXiv’22] Qingsong Wen, Tian Zhou, Chaoli Zhang, Weiqi Chen, Ziqing Ma, Junchi Yan, Liang Sun, “Transformers in Time Series: A Survey,” in arXiv preprint arXiv:2202.07125, 2022 [arXiv] [Github] * [ICDE’22] Huajie Qian, Qingsong Wen, Liang Sun, Jing Gu, Qiulin Niu, Zhimin Tang, “RobustScaler: QoS-Aware Autoscaling for Complex Workloads,” in Proc. IEEE 38th International Conference on Data Engineering (ICDE 2022), Kuala Lumpur, Malaysia, May 2022. [arXiv], Media Coverage: [Mo4Tech] Zhihu [1024sou] * [SIGMOD’21] Qingsong Wen, Kai He, Liang Sun, Yingying Zhang, Min Ke, Huan Xu, “RobustPeriod: Time-Frequency Mining for Robust Multiple Periodicity Detection,” in Proc. ACM SIGMOD International Conference on Management of Data (SIGMOD 2021), Xi’an, China, Jun. 2021. [arXiv] * [KDD’20] Qingsong Wen, Zhe Zhang, Yan Li, Liang Sun, “Fast RobustSTL: Efficient and Robust Seasonal-Trend Decomposition for Time Series with Complex Patterns,” in Proc. 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (KDD 2020), San Diego, CA, Aug. 2020. [paper] * [AAAI’19] Qingsong Wen, Jingkun Gao, Xiaomin Song, Liang Sun, Huan Xu, Shenghuo Zhu, “RobustSTL: A Robust Seasonal-Trend Decomposition Algorithm for Long Time Series,” in Proc. 33th AAAI Conference on Artificial Intelligence (AAAI 2019), Honolulu, Hawaii, Jan. 2019. [paper], Media Coverage: [Alibaba Tech]

付費5元查看完整內容

ACL 是計算語言學和自然語言處理領域的頂級國際會議,由國際計算語言學協會組織,每年舉辦一次。一直以來,ACL 在 NLP 領域的學術影響力都位列第一,它也是 CCF-A 類推薦會議。今年的 ACL 大會已是第 60 屆,將于 5 月 22-5 月 27 在愛爾蘭都柏林舉辦。

ACL 2022論文獎項公布,伯克利摘得最佳論文,陳丹琦、楊笛一等華人團隊獲杰出論文

來自DeepMind等學者Aishwarya Agrawal, Damien Teney, Aida Nematzadeh做了關于《視覺語言預訓練:當前趨勢與未來》教程,值得關注!

本教程的目標是概述多模態預訓練問題的處理所需的要素,特別是視覺和語言。我們還將討論這一領域的一些開放性問題和有希望的未來方向

在過去的幾年里,人們對建立多模態(視覺語言)模型越來越感興趣,這些模型是在較大但噪聲較大的數據集上進行預訓練的,其中兩種模態(如圖像和文本)松散地相互對應(如ViLBERT和CLIP)。給定一個任務(比如可視的問題回答),這些模型通常會針對特定于任務的監督數據集進行微調。除了更大的預訓練數據集,Transformer體系結構,特別是應用于兩種模態的自注意力,最近的預訓練模型在下游任務上的令人印象深刻的性能。

這種方法之所以有吸引力,有幾個原因: 首先,預訓練數據集通常是自動從Web上整理出來的,以微不足道的收集成本提供了巨大的數據集。第二,我們可以訓練大型模型一次,并在各種任務中重用它們。最后,這些預訓練方法的表現更好或與以前的特定任務模型持平。一個有趣的問題是,除了良好的任務表現,這些預訓練的模型是否學習了更好地捕捉兩種模態之間的一致性的表征。在本教程中,我們關注最近的視覺語言預訓練范例。我們的目標是首先提供圖像-語言數據集、基準和建模創新。接下來,我們討論用于視覺語言預訓練的不同模型家族,強調它們的優點和缺點。最后,我們討論了通過統計學習進行視覺語言預訓練的局限性,以及因果建模等替代方法的必要性。

目錄內容:

**1. 引言 Introduction: the goal of the tutorial (5 minutes) **

2. 視覺語言概覽 Vision-language landscape before the pretraining era (55 minutes)

**Motivation for vision-language research from both application and research point of views. **

**Popular vision-language tasks, datasets and benchmarks (e.g., image-retrieval, referring expressions, image captioning, visual question answering). **

Task specific modelling approaches and fundamental innovations before the pretraining era (e.g., CNN + LSTM based approaches, language guided image attention, multimodal pooling, compositional networks).

**3. 視覺語言預訓練 Vision-language pretraining (VLP) (60 minutes) **

**– Inspiration from pretraining successes in NLP (transformers, BERT, GPT). **

**– Different families of VLP models (all are transformer based models): * Models using task-specific heads for each downstream task (e.g., ViLBERT, LXMERT, UNITER, OSCAR, VinVL). **

*** Models treating all downstream tasks as language generation tasks, i.e. no task-specific head (e.g., VL-T5, VLBART, SimVLM). **

*** Models using VLP data for improving performance on vision tasks (e.g., CLIP, ALIGN). **

*** Models using VLP data for improving performance on language tasks, including multilingual data (e.g., Vokenization, M3P, VL-T5, SimVLM). **

– Different VLP datasets and how they affect the downstream task performance w.r.t their size, degree of noise, and similarity with downstream datasets.

4. Beyond statistical learning in vision-language

講者:

Aishwarya Agrawal (DeepMind, University of Montreal, Mila), Damien Teney (Idiap Research Institute), and Aida Nematzadeh (DeepMind)

付費5元查看完整內容

2021年國際萬維網大會The Web Conference(舊稱WWW)將于2021年4月19日-23日線上召開。TheWebConf是中國計算機學會(CCF)推薦的A類國際學術會議,是互聯網技術領域最重要的國際會議之一,由國際萬維網會議委員會(IW3C2)和主辦地地方團隊合作組織,每年召開一次,今年是第30屆會議。本次會議共接收1736篇提交長文,最終錄用357篇,錄用率為20.6%。

許多真實的數據以非網格對象的形式出現,例如從社交網絡到分子的圖表。從類似網格的數據(如圖像)到圖的深度學習最近受到了機器學習和數據挖掘領域前所未有的關注,導致了一個新的跨領域領域——深度圖學習(DGL)。DGL的目標不是繁雜的特征工程,而是以端到端的方式學習圖的信息表示。它在節點/圖分類、鏈路預測等任務中表現出了顯著的成功。

雖然之前的幾個教程已經在webconf中介紹了圖神經網絡(GNNs),但很少關注DGL算法的表達性、可訓練性和泛化。為了使DGL更加流行和先進,本教程主要介紹DGL近年來的主要成就。具體來說,我們將討論四個基本的主題,即如何高效地設計和訓練深度GNNs,如何采用GNNs來應對大規模圖,對GNNs的對抗性攻擊,以及對GNNs的無監督訓練。同時,我們將介紹DGL在不同領域的應用,包括但不限于藥物發現、計算機視覺、社會網絡分析等。

目錄內容: 09:00 - 09:10: Opening 09:10 - 09:50: Preliminaries and Brief History of Graph Neural Networks 09:50 - 10:25: Training Deep GNNs 10:25 - 10:30: Break 10:30 - 10:50: Scalability of GNNs 10:50 - 11:20: Robustness of GNNs 11:20 - 11:45: Self/Un-Supervised Learning of GNNs 11:45 - 11:50: Break 11:50 - 12:10: Other advanced topics 12:10 - 12:40: Applications 12:40 - 12:50: Future Directions

//ai.tencent.com/ailab/ml/WWW-Deep-Graph-Learning.html

付費5元查看完整內容

ISSCC(International Solid-State Circuits Conference)國際固態電路會議由IEEE固態電路協會(SSCS)舉辦,是世界學術界和工業界公認的集成電路設計領域最頂尖的盛會,也被認為是“芯片奧林匹克”。始于1953年的ISSCC通常是各個時期國際上最尖端固態電路技術最先發表之地。每年吸引超過3000名來自世界各地工業界和學術界的參會者。

ISSCC 在技術領域方面歷經變更,ISSCC2020為“機器學習及人工智能”新成立了獨立的技術小組分會,至此,ISSCC的技術分類達到12個分類,包括模擬設計(ANA)、電源管理(PM)、無線傳輸(WLS)、數據轉換器(DC)、前瞻技術(TD)、射頻技術(RF)、數字電路(DCT)、圖像、 MEMS、醫療、顯示(IMMD)、以及機器學習和人工智能(ML)、存儲(MEM)、有線傳輸(WLN)和數字系統(DAS)。

來自英偉達的Rangha Venkatesan講解了關于加速深度神經網絡設計的方法教程,值得關注。

深度神經網絡有著廣泛的應用。與通用處理器相比,該領域的定制硬件優化提供了顯著的性能和功耗優勢。然而,實現高的TOPS/W和/或TOPS/mm2以及對可伸縮性和可編程性的要求是一個挑戰任務。這個本教程介紹了各種設計方法,以在不同神經網絡和新模型的效率、可擴展性和靈活性之間取得正確的平衡。它介紹了(i)設計高效計算單元、內存層次結構和互連拓撲的不同電路和體系結構技術,(ii)有效平鋪計算的編譯器方法,以及(iii)在目標硬件上高效執行的神經網絡優化。

//underline.io/lecture/13719-t7---%EF%BB%BFbasic-design-approaches-to-accelerating-deep-neural-networks

付費5元查看完整內容

計算語言學國際會議 COLING 2020(The 28th International Conference on Computational Linguistics)是計算語言學和自然語言處理領域的重要國際會議,由ICCL(International Committee on Computational Linguistics)主辦,每兩年舉辦一次,是CCF-B類推薦會議。本屆COLING 2020將于2020年12月8日至13日以在線會議的形式舉辦。COLING 2020共計收到2180篇論文投稿,其中包括2021篇主會投稿、48篇Demo投稿、111篇工業論文投稿,最終有1900余篇論文進入審稿流程。官方Twitter公布了最佳論文。

付費5元查看完整內容

第29屆國際計算機學會信息與知識管理大會(The 29th ACM International Conference on Information and Knowledge Management, CIKM 2020)將于2020年10月19日-10月23日在線上召開。CIKM是CCF推薦的B類國際學術會議,是信息檢索和數據挖掘領域頂級學術會議之一。本屆CIKM會議共收到投稿920篇,其中錄用論文193篇,錄取率約為21%。

論文題目:Diversifying Search Results using Self-Attention Network(長文)

作者者:秦緒博(人大博士生),竇志成,文繼榮

論文概述:搜索結果多樣化的目標是使得檢索得到的結果能夠盡量覆蓋用戶提出問題的所有子話題。已有的多樣化排序方法通常基于貪心選擇(Greedy Selection)過程,獨立地將每一個候選文檔與已選中的文檔序列進行比較,選擇每一個排序位置的最佳文檔,生成最后的文檔排序。而相關研究證明由于各候選文檔的邊際信息收益并非彼此獨立,貪心選擇得到的各個局部最優解將難以導向全局最佳排序。本文介紹了一種基于自注意力網絡(Self-Attention Network)的方法,可以同步地衡量全體候選文檔間的關系,以及候選文檔對不同用戶意圖的覆蓋程度,有效地克服原有方法受限于貪心選擇過程的局限性,并在TRECWebTrack09-12數據集上獲得更好的性能。

論文題目:PSTIE: Time Information Enhanced Personalized Search(長文)

作 者:馬正一(人大碩士生),竇志成,邊關月,文繼榮

論文概述:基于深度學習的個性化搜索模型通過序列神經網絡(例如RNN)對用戶搜索歷史進行序列建模,歸納出用戶的興趣表示,取得了當前最佳的效果。但是,這一類模型忽略了用戶搜索行為之間細粒度的時間信息,而只關注了搜索行為之間的相對順序。實際上,用戶每次查詢之間的時間間隔可以幫助模型更加準確地對用戶查詢意圖與文檔興趣的演化進行建模。同時,用戶歷史查詢與當前查詢之間的時間間隔可以直接幫助模型計算用戶的重查找(re-finding)行為概率。基于此,本文提出了一個時間信息增強的個性化搜索模型。我們設計了兩種時間感知的LSTM結構在連續時間空間中對用戶興趣進行建模,同時直接將時間信息利用在計算用戶重查找概率中,計算出了更加準確的用戶長短期興趣表示。我們提出了兩種將用戶興趣表示用于個性化排序的策略,并在兩個真實數據集上取得了更好的效果。

論文題目:Learning to Match Jobs with Resumes from Sparse Interaction Data using Multi-View Co-Teaching Network(長文)

作 者:卞書青(人大博士生),陳旭,趙鑫,周昆,侯宇蓬,宋洋,文繼榮

論文概述:隨著在線招聘規模的不斷增長,求職領域下的人崗匹配已經成為最重要的任務。人崗匹配任務通常可以看作文本匹配問題。當監督數據足夠多時,模型的學習效果是有用的。但是在線招聘平臺上,職位和簡歷的交互數據稀疏且帶有噪聲,這會影響求職簡歷匹配算法的性能。為了緩解這些問題,本文提出了一種多視圖協同教學網絡用來解決人崗匹配中的數據稀疏和噪聲問題,匹配網絡包含兩個主要模塊,即基于文本的匹配模型和基于關系的匹配模型。這兩個部分在兩個不同的視圖中捕獲了語義信息并且相互補充。為解決數據稀疏和噪聲數據帶來的挑戰,我們設計了兩種特定策略。首先,兩個模塊共享學習的參數和表示,以增強每個模塊的初始的表示。更重要的,我們采用了一種協同教學的機制來減少噪聲對訓練數據的影響。核心思想是讓這兩個模塊通過選擇更可靠的訓練實例來互相幫助。這兩種策略分別關注于表示增強和數據增強。與基于純文本的匹配模型相比,所提出的方法能夠從有限的甚至稀疏的交互數據中學習更好的表示,對訓練數據中的噪聲具有一定的抵抗能力。實驗結果表明,我們的模型均優于現有的方法。

論文題目:Knowledge-Enhanced Personalized Review Generation with Capsule Graph Neural Network(長文)

作 者:李軍毅(人大博士生),李思晴,趙鑫,何高樂,魏志成,袁晶,文繼榮

論文概述:個性化評論生成(PRG)任務旨在自動生成反映用戶偏好的評論文本。以前的大多數研究都沒有明確建模物品的事實描述,因此傾向于生成無信息的內容。而且,這些研究主要集中在單詞層面的生成,無法準確反映出用戶在多個主題上的抽象偏好。針對上述問題,我們提出了一種基于膠囊圖神經網絡(Caps-GNN)的知識增強個性化評論生成模型。我們首先構造一個異構知識圖譜(HKG),充分利用豐富的物品屬性。我們采用Caps-GNN學習到HKG圖膠囊,用于編碼HKG的隱含特征。我們的生成過程包含兩個主要步驟,即主題序列生成和句子生成。首先,基于圖膠囊,我們自適應地學習了主題膠囊,以推斷主題序列。然后,根據推斷的主題標簽,我們設計了一種基于圖的拷貝機制,通過引入HKG的相關實體或單詞來生成句子。本文是第一個將知識圖譜用于個性化評論生成任務,引入的KG信息能夠增強用戶在主題和單詞層面上的偏好。實驗表明,我們的模型對于個性化評論生成任務具有更好的效果。

論文題目:S3-Rec: Self-Supervised Learning for Sequential Recommendation with Mutual Information Maximization(長文)

作 者:周昆(人大博士生),王輝(人大碩士生),趙鑫,朱余韜,王思睿,張富錚,王仲遠,文繼榮

論文概述:近年來,深度學習在序列化推薦領域取得了巨大成功,已有的序列化推薦模型通常依賴于商品預測的損失函數進行參數訓練。但是該損失函數會導致數據稀疏和過擬合問題,其忽視了上下文數據與序列數據之間的關聯,使得數據的表示學習的并不充分。為解決該問題,本文提出了S3-Rec這一模型,該模型基于自注意力是模型框架,利用四個額外的自監督訓練函數來學習屬性、商品、序列之間的特殊關系。在這里,本文采用了互信息最大化技術來構造這些自監督函數,以此來統一這些關系。在六個數據集上的充分實驗表明本文提出的模型能夠取得State-of-the-art的效果,其在數據量受限和其他推薦模型上也能帶來較大的提升。

**論文:Learning Better Representations for Neural Information Retrieval with Graph Information” **

(作者:李祥圣,Maarten de Rijke, 劉奕群,毛佳昕,馬為之,張敏,馬少平)

內容簡介:目前的檢索模型多數基于文本間的匹配。然而,對于一個搜索會話,用戶的行為之間是具有聯系的,這樣的聯系可以用圖的方式表示出來。例如用戶在會話搜索中修改查詢的過程可以知道那些查詢之間是相似的,用戶點擊文檔后,可以知道查詢與文檔之間的關聯性。利用這樣的兩個網絡,我們可以構建一個由用戶行為組成的圖網絡。在傳統的文本匹配模式上,進一步地引入行為圖信息幫助檢索模型更好地理解用戶搜索意圖。檢索模型可以利用圖信息,對輸入的查詢進行相似節點查詢。同理,對于候選文檔也可以利用相似節點查詢。通過引入鄰接節點信息,豐富當前節點的語義表示。

現有的圖模型的工作主要分為兩種:網絡嵌入式表示方法與圖神經網絡方法。基于這兩種方法,我們提出了兩種利用圖信息改進檢索模型的方法,兩種方法的示意圖如下所示:

付費5元查看完整內容
北京阿比特科技有限公司