如何寫好一篇論文?最近CVPR2020的Workshop的舉辦了“How to write a good review?”,重點講解。MIT計算機大牛Bill Freeman教授關于國際會議如何組織、篩選paper以及寫好一篇頂級會議論文的PPT。文中還列舉了關于論文寫作的若干實用資源。Freeman教授表示一篇高質量論文是要經過多次修改才能寫成的,重點在于開始。所以現在就動筆撰寫你的paper吧!
【導讀】BERT的出現革新了眾多自然語言處理任務中的模型架構范式,由此以BERT、為代表預訓練語言模型(PLM)在多項任務中刷新了榜單,引起了學術界和工業界的大量關注。斯坦福大學經典自然語言處理課程CS224N邀請了BERT一作、Google 研究員Jacob Devlin做了關于上下文詞表示BERT以及預訓練語言模型的課程講座,親授大廠實戰經驗,值得關注!
預訓練好的詞嵌入是NLP深度學習成功的關鍵,因為它們允許模型利用web上幾乎無限數量的未注釋文本。在過去的幾年里,條件語言模型被用來生成預訓練上下文表示,這比簡單的嵌入更加豐富和強大。本文介紹BERT(來自Transformers的雙向編碼器表示),它可以生成深度雙向的預訓練語言表示。BERT在Stanford Question Answering Dataset, MultiNLI, Stanford Sentiment Treebank和許多其他任務上獲得了最先進的結果。
Jacob Devlin是谷歌的研究員。在谷歌,他的主要研究興趣是開發用于信息檢索、問題回答和其他語言理解任務的快速、強大和可擴展的深度學習模型。2014年至2017年,他在微軟研究院擔任首席研究員,領導微軟翻譯從基于短語的翻譯過渡到神經機器翻譯(NMT)。Devlin先生是ACL 2014年最佳長論文獎和NAACL 2012年最佳短論文獎的獲得者。2009年,他在馬里蘭大學(University of Maryland)獲得了計算機科學碩士學位,導師是邦尼·多爾(Bonnie Dorr)博士。
//web.stanford.edu/class/cs224n/index.html#schedule
最近計算機視覺三大頂會之一CVPR2020接收結果已經公布,一共有1470篇論文被接收,接收率為22%,相比去年降低3個百分點,競爭越來越激烈。專知在這里整理來自Twitter、arXiv、知乎放出來的30篇最新CVPR論文,方便大家搶先閱覽!這些論文包括視覺常識、?視頻超分處理、圖像分類、目標跟蹤等。
本文整理了著名人工智能學者周志華教授《做研究與寫論文》的PPT(時間比較早,但方法永遠不會過時)。其詳細介紹了關于為什么要做研究?如何做研究,選擇研究方向、選擇研究課題(Topic),學習領域知識、選期刊投稿、稿件處理過程、寫高水平論文的方法與技巧等方面的知識,是一份非常優秀的做研究和寫論文指南,值得每個人細讀!