亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

文本生成有很多應用。例如,它可以從對話動作生成對話,將知識庫的內容用語言表達出來,或從豐富的語言表征(如依賴樹或抽象意義表征)生成英語句子。文本生成也在文本到文本的轉換中起作用,如句子壓縮、句子融合、釋義、句子(或文本)簡化和文本摘要。這本書提供了文本生產的神經模型的基礎的概述。特別地,我們詳細闡述了文本生成的神經方法的三個主要方面:順序解碼器如何學習生成足夠的文本,編碼器如何學習生成更好的輸入表示,以及神經生成器如何考慮特定任務的目標。事實上,每個文本生成任務都提出了略有不同的挑戰(例如,在生成對話回合時如何考慮對話上下文,在總結文本時如何檢測和合并相關信息,或者如何生成格式良好的文本,在數據到文本生成的情況下,正確地捕獲某些輸入數據中包含的信息)。我們概述了一些特定于這些任務的約束,并檢查現有的神經模型如何解釋它們。更一般地說,本書考慮了文本到文本、意義到文本和數據到文本的轉換。它的目的是為觀眾提供文本生產的神經方法的基本知識和路線圖,讓他們開始相關的工作。這本書主要針對研究人員,研究生和工業感興趣的文本生產從不同形式的輸入。

付費5元查看完整內容

相關內容

在自然語言處理中,另外一個重要的應用領域,就是文本的自動撰寫。關鍵詞、關鍵短語、自動摘要提取都屬于這個領域的一種應用。

最近在提升推理領域的進展,它利用了關系概率模型固有的結構。

統計關系人工智能(StaRAI)研究了不確定性條件下的推理與個體推理和關系推理的集成。使用的表示通常被稱為關系概率模型。提升推理是關于如何利用關系概率模型中固有的結構,無論是通過它們的表達方式,還是通過從觀察中提取結構。這本書涵蓋了提升推理領域最近的重大進展,提供了一個統一的介紹,這是一個非常活躍的領域。

在提供了有關概率圖模型、關系概率模型和學習這些模型的必要背景之后,本書轉向提升推理,首先涵蓋精確推理,然后是近似推理。此外,這本書考慮了可提升性的理論和在關系領域的行動,這允許在關系領域的學習和推理的聯系。

付費5元查看完整內容

自然語言處理實戰教你如何創建實用的NLP應用,而不陷入復雜的語言理論和深度學習的數學。在這本引人入勝的書中,您將探索構建大量強大的NLP應用所需的核心工具和技術,包括聊天機器人、語言檢測器和文本分類器。

真實世界的自然語言處理不是典型的自然語言處理教科書。我們專注于構建真實世界的NLP應用。這里真實世界的意義有兩個方面:首先,我們關注構建真實世界的NLP應用需要什么。作為讀者,您不僅將學習如何訓練NLP模型,還將學習如何設計、開發、部署和監控它們。在此過程中,您還將學習現代NLP模型的基本構建模塊,以及對構建NLP應用有用的NLP領域的最新開發。其次,與大多數介紹性書籍不同,我們采用自上而下的教學方法。我們不采用自下而上的方法,一頁頁地展示神經網絡理論和數學公式,而是專注于快速構建“正常工作”的NLP應用程序。然后我們深入研究組成NLP應用的各個概念和模型。您還將學習如何使用這些基本構建塊構建端到端定制NLP應用,以滿足您的需求。

這本書由三個部分組成,共11章。第1部分介紹了NLP的基礎知識,其中我們學習了如何使用AllenNLP 快速構建一個NLP應用,以完成情感分析和序列標記等基本任務。

第1章首先介紹了NLP的“什么”和“為什么”——什么是NLP,什么不是NLP,如何使用NLP技術,以及NLP如何與人工智能的其他領域相關聯。

第2章演示了如何構建第一個NLP應用程序,一個情感分析器,并介紹了現代NLP模型的基礎知識——單詞嵌入和遞歸神經網絡(RNN)。

第3章介紹了自然語言處理應用的兩個重要組成部分,單詞和句子的嵌入,并演示了如何使用和訓練它們。

第4章討論了最簡單但最重要的NLP任務之一,句子分類,以及如何在這個任務中使用RNN。

第5章介紹了序列標注任務,如詞性標注和命名實體提取。它還涉及到一個相關的技術,語言建模。

第2部分介紹高級NLP主題,包括序列到序列模型、Transformer以及如何利用遷移學習和預先訓練過的語言模型來構建強大的NLP應用。

第6章介紹了序列到序列的模型,它將一個序列轉換為另一個序列。我們在一個小時內構建了一個簡單的機器翻譯系統和一個聊天機器人。

第7章討論了另一種流行的神經網絡結構,卷積神經網絡(CNN)。

第8章深入介紹了Transformer,它是當今最重要NLP模型之一。我們將演示如何使用Transformer構建改進的機器翻譯系統和拼寫檢查器。

第9章在前一章的基礎上,討論了遷移學習,這是現代NLP中的一種流行的技術,使用預先訓練過的語言模型,如BERT。

第3部分將討論與開發NLP應用程序相關的主題,這些應用程序對真實數據具有健壯性,并部署和服務它們。

第10章詳細介紹了開發NLP應用程序時的最佳實踐,包括批處理和填充、正則化和超參數優化。

第11章總結了如何部署和服務NLP模型。它還涵蓋了如何解釋和解釋ML模型。

付費5元查看完整內容

通過調整預訓練的機器學習模型來解決特殊問題,在時間內建立自定義NLP模型。

在自然語言處理遷移學習中,您將學習:

  • 用新的領域數據對預訓練的模型進行微調
  • 選擇正確的模型來減少資源的使用
  • 用于神經網絡結構的遷移學習
  • 生成文本與生成預先訓練的Transformers
  • BERT跨語言遷移學習
  • 探索自然語言處理學術文獻的基礎

//www.manning.com/books/transfer-learning-for-natural-language-processing

從頭開始訓練深度學習NLP模型是昂貴的、耗時的,并且需要大量的數據。在自然語言處理的遷移學習中,DARPA研究員Paul Azunre揭示了前沿的遷移學習技術,可以將可定制的預訓練模型應用到您自己的NLP架構中。您將學習如何使用遷移學習為語言理解提供最先進的結果,即使使用有限的標簽數據。最重要的是,您將節省訓練時間和計算成本。

關于本書:

自然語言處理遷移學習教你通過構建現有的預訓練模型快速創建強大的NLP解決方案。這是一本非常有用的書,書中提供了一些非常清晰的概念解釋,你需要這些概念來學習轉學,同時也提供了一些實際的例子,這樣你就可以馬上練習你的新技能。隨著您的學習,您將應用最先進的遷移學習方法來創建垃圾郵件分類器、事實檢查器和更多的現實世界的應用程序。

付費5元查看完整內容

文本生成的目標是讓機器用人類語言表達。它是自然語言處理(NLP)中最重要也是最具挑戰性的任務之一。自2014年以來,各種由Seq2Seq首創的神經編解碼器模型被提出,通過學習將輸入文本映射到輸出文本來實現這一目標。然而,僅憑輸入文本往往無法提供有限的知識來生成所需的輸出,因此在許多真實場景中,文本生成的性能仍然遠遠不能令人滿意。為了解決這個問題,研究人員考慮將輸入文本之外的各種形式的知識納入生成模型中。這一研究方向被稱為知識增強文本生成。在這項綜述中,我們提出了一個全面的綜述,在過去的五年里,知識增強文本生成的研究。主要內容包括兩部分:(一)將知識集成到文本生成中的一般方法和體系結構;(二)根據不同形式的知識數據的具體技術和應用。這項綜述在學術界和工業可以有廣泛的受眾,研究人員和實踐者。

//arxiv.org/abs/2010.04389

付費5元查看完整內容

機器學習(ML)是一組技術,允許計算機從數據和經驗中學習,而不是要求人類手工指定所需的行為。ML在AI的學術領域和工業領域都越來越重要。本課程提供了一些最常用的ML算法的廣泛介紹。它還將介紹一些關鍵的算法原理,這些原理將作為更高級課程的基礎,如CSC412/2506(概率學習和推理)和CSC413/2516(神經網絡和深度學習)。

我們從最近鄰,典型非參數模型開始。然后我們轉向參數模型:線性回歸、邏輯回歸、softmax回歸和神經網絡。然后我們轉向無監督學習,特別關注概率模型,以及主成分分析和k均值。最后,我們介紹了強化學習的基礎知識。

//www.cs.toronto.edu/~rgrosse/courses/csc311_f20/

付費5元查看完整內容

摘要

自然語言處理(NLP)是人工智能的一個子領域,其重點是使計算機能夠理解和處理人類語言。在過去的五年里,我們見證了NLP在機器翻譯、問答和基于深度學習的機器閱讀理解等任務上的快速發展,以及海量的帶注釋和未帶注釋的數據。本文將從建模、學習和推理三個方面綜述基于神經網絡的神經語言處理框架(neural NLP)的最新進展。在建模部分,我們將描述幾種基本的基于神經網絡的建模范例,如單詞嵌入、句子嵌入和序列到序列的建模,這些在現代NLP引擎中被廣泛使用。在學習部分,我們將介紹廣泛使用的NLP模型的學習方法,包括監督學習、半監督學習和無監督學習;多任務學習;遷移學習;和主動學習。我們認為推理是神經NLP的一個新的和令人興奮的方向,但它還沒有被很好地解決。在推理部分,我們將回顧推理機制,包括知識,現有的非神經推理方法,和新的神經推理方法。我們在本文中強調推理的重要性,因為它對于建立可解釋的和知識驅動的神經網絡規劃模型來處理復雜的任務是很重要的。在本文的最后,我們將簡要概述我們對神經語言處理的未來發展方向的思考。

介紹

自然語言處理(Natural Language Processing, NLP)是人工智能(AI)的一個重要分支,通過自然語言研究人與計算機之間的交互。它研究單詞、短語、句子和文檔的意義表達的基礎技術,以及句法和語義處理(如斷句、句法分析器和語義解析)的基礎技術,并開發諸如機器翻譯(MT)、問答(QA)、信息檢索、對話、文本生成和推薦系統等應用程序。NLP對于搜索引擎、客戶支持系統、商業智能和語音助手至關重要。

NLP的歷史可以追溯到20世紀50年代。在NLP研究之初,我們使用基于規則的方法來構建NLP系統,包括單詞/句子分析、QA和MT。這些由專家編輯的規則被用于從MT開始的各種NLP任務的算法中。通常,設計規則需要大量的人力。此外,當規則數量很大時,很難組織和管理規則。20世紀90年代,隨著互聯網的快速發展,出現了大量的數據,這使得統計學習方法可以用于處理NLP任務。使用人工設計的特征,統計學習模型通過使用標記/挖掘數據學習。統計學習方法為許多自然語言處理任務,特別是MT和搜索引擎技術帶來了顯著的改進。2012年,隨著深度學習在ImageNet[1]對象識別和Switchboard[2]語音識別方面的成功,深度學習方法被引入到NLP中。深度學習方法比統計學習方法快得多,結果好得驚人。目前,基于神經網絡的神經語言處理(以下簡稱神經語言處理)框架已經達到了新的質量水平,并且已經成為處理神經語言處理任務的主要方法,例如MT、機器閱讀理解(MRC)、聊天機器人等等。例如,微軟的Bible系統在2017年MT研討會的中英新聞翻譯任務中就取得了能和人媲美的結果。微軟亞洲研究院(MSRA)的R-NET和NLNet在斯坦福問題回答數據集(小組)評估任務中,在精確匹配(EM)得分和模糊匹配(F1)得分上都取得了人機質量結果。最近,生成式預訓練(GPT)[3]、來自 Transformers的雙向編碼器表示(BERT)[4]和XLNet[5]等預訓練模型在多個NLP任務中顯示了強大的能力。神經NLP框架在有大量標記數據用于學習神經模型的監督任務中工作得很好,但在資源有限或沒有標記數據的低資源任務中仍然表現不佳。

建模

NLP系統使用自然語言句子并生成一個類類型(用于分類任務)、一個標簽序列(用于序列標記任務)或另一個句子(用于QA、對話、自然語言生成和MT)。要應用神經語言處理方法,需要解決以下兩個關鍵問題: (1)在神經網絡中對自然語言句子(詞的序列)進行編碼。 (2)生成一個標簽序列或另一個自然語言句子。 從這兩個方面,本節將介紹幾種常用的神經網絡語言處理模型,包括字嵌入、句子嵌入和序列到序列的建模。單詞嵌入將輸入句子中的單詞映射成連續的空間向量。 基于“嵌入”這個詞,復雜網絡如遞歸神經網絡(RNNs)卷積神經網絡(CNNs)和自注意力網絡可以用于特征提取,考慮到整個句子的上下文信息構建嵌入環境敏感詞,句子的或集成所有的信息來構造句子嵌入。上下文感知詞嵌入可用于序列標記任務,如詞性標記(POS)和命名實體識別(NER),句子嵌入可用于句子級任務,如情緒分析和意譯分類。句子嵌入也可以作為另一個RNN或自注意網絡的輸入,生成另一個序列,形成序列-序列建模的編解碼框架。給定一個輸入句子,序列到序列的建模可以用來生成一個問題的答案(即問答任務)或翻譯成另一種語言(即機器翻譯任務)。

學習

目前已經提出了新的和有效的訓練算法,以優化大量的參數在深度學習模型。在訓練神經網絡時,常用的方法是隨機梯度下降(SGD)[18],它通常是基于[19]的反向傳播方法。基于動量的SGD被提出是為了引入動量來加速訓練過程。AdaGrad [20], AdaDelta [21], Adam [22], RMSProp方法嘗試對不同的參數使用不同的學習比率,這進一步提高了效率,穩定了訓練過程。當模型非常復雜時,并行訓練方法被用來利用許多計算設備,甚至數百或數千臺(中央處理單元、圖形處理單元或現場可編程門陣列)。根據參數是否同步更新,分布式訓練方法可以分為同步SGD和異步SGD。 除了一般的優化方法已經取得的進展外,針對特定的NLP任務提出了更好的訓練方法。當大量的訓練數據可用于資源豐富的任務時,使用監督學習方法,深度學習模型可以取得很好的性能。對于一些特定的任務,如具有大量并行數據的語言對(如英語和漢語)的MT,神經模型可以很好地完成,有時在共享任務中實現人的平等。然而,在許多NLP任務中,很難獲得大量的標記數據。這類任務通常被稱為低資源任務,包括對稀有語言的情緒分析MT。利用未標記數據對少量標記數據訓練的模型進行增強,可以采用半監督學習方法。在沒有任何標記數據的情況下,可以利用無監督學習方法來學習NLP模型。利用未標記數據的另一種方法是對模型進行預訓練,通過遷移學習將這些模型轉移到特定的任務中。除了利用任務內標記的數據,其他任務的標記數據也可以在多任務學習的幫助下使用。如果沒有可用的數據,可以引入人力資源來使用主動學習創建學習數據,以便在給定的預算下最大化模型的性能。

推理

神經方法在許多NLP任務中取得了良好的進展,如MT和MRC。然而,他們仍然有一些未解決的問題。例如,大多數神經網絡模型的行為就像一個黑盒子,它從來沒有告訴我們一個系統是如何以及為什么會以這種方式解決了一個問題。此外,對于QA和對話系統這樣的任務,僅僅了解輸入話語的字面意義往往是不夠的。為了生成正確的響應,可能還需要外部和/或上下文知識。為了建立這種可解釋的和知識驅動的系統,推理是必要的。在本文中,我們將推理定義為一種機制,它可以通過使用推理技術操作現有知識來生成未見問題的答案。根據這一定義,推理系統(圖11)應該包括兩個部分:

  • 知識,如知識圖、常識、規則、從原始文本中提取的斷言等;

  • 一個推理引擎,通過操作現有的知識來生成問題的答案。

接下來,我們用兩個例子來說明為什么推理對于NLP任務是重要的。

第一個例子是基于知識的QA任務。“比爾·蓋茨的妻子是什么時候出生的?”, QA模型必須將其解析為生成答案的邏輯形式:

其中需要基于知識圖譜的推理從這個問題開始,可以附加新的問題,例如:“他/她的工作是什么?”,為了回答這種上下文感知的問題,共指解析決定了他/她指的是誰。這也是一個推理的過程,需要一個常識,他只能指男人,她只能指女人。

第二個例子是一個對話任務。例如,如果一個用戶說我現在很餓,更合適的回答應該是:讓我向您推薦一些不錯的餐館,而不是讓我推薦一些好電影給你。這也需要推理,因為對話系統應該知道饑餓會導致尋找餐館而不是看電影的行為。在本節的剩余部分中,我們將首先介紹兩種類型的知識:知識圖譜和常識。接下來,我們將描述典型的推理方法,這些方法在自然語言處理領域已經或正在研究。

付費5元查看完整內容

書名: Deep Learning for Search

簡介:

深度學習搜索是一本實用的書,關于如何使用(深度)神經網絡來幫助建立有效的搜索引擎。這本書研究了一個搜索引擎的幾個組成部分,提供了關于它們如何工作的見解以及如何在每個環境中使用神經網絡的指導。重點介紹了基于實例的實用搜索和深度學習技術,其中大部分都有代碼。同時,在適當的地方提供相關研究論文的參考資料,以鼓勵閱讀更多的書籍,加深對特定主題的知識。

讀完這本書,將對搜索引擎的主要挑戰有所理解,它們是如何被普遍解決的以及深度學習可以做些什么來幫助。并且將對幾種不同的深度學習技術以及它們在搜索環境中的適用范圍有一個理解,將很好地了解Lucene和Deeplearning4j庫。

這本書主要分為3個部分:

  • 第1部分介紹了搜索、機器學習和深度學習的基本概念。第一章介紹了應用深度學習技術來搜索問題的原理,涉及了信息檢索中最常見的方法。第2章給出了如何使用神經網絡模型從數據中生成同義詞來提高搜索引擎效率的第一個例子。

  • 第2部分討論了可以通過深度神經網絡更好地解決的常見搜索引擎任務。第3章介紹了使用遞歸神經網絡來生成用戶輸入的查詢。第四章在深度神經網絡的幫助下,在用戶輸入查詢時提供更好的建議。第5章重點介紹了排序模型:尤其是如何使用詞嵌入提供更相關的搜索結果。第6章討論了文檔嵌入在排序函數和內容重新編碼上下文中的使用。

  • 第3部分將介紹更復雜的場景,如深度學習機器翻譯和圖像搜索。第7章通過基于神經網絡的方法為你的搜索引擎提供多語言能力來指導你。第8章討論了基于內容的圖像集合的搜索,并使用了深度學習模型。第9章討論了與生產相關的主題,如微調深度學習模型和處理不斷輸入的數據流。

作者簡介:

Tommaso Teofili是一名軟件工程師,他對開源機器學習充滿熱情。作為Apache軟件基金會的成員,他為許多開放源碼項目做出了貢獻,從信息檢索到自然語言處理和機器翻譯等主題。他目前在Adobe工作,開發搜索和索引基礎結構組件,并研究自然語言處理、信息檢索和深度學習等領域。他曾在各種會議上發表過搜索和機器學習方面的演講,包括BerlinBuzzwords、計算科學國際會議、ApacheCon、EclipseCon等。

付費5元查看完整內容

簡介: 人們在閱讀文章時,可以識別關鍵思想,作出總結,并建立文章中的聯系以及對其他需要理解的內容等方面都做得很出色。深度學習的最新進展使計算機系統可以實現類似的功能。用于自然語言處理的深度學習可教您將深度學習方法應用于自然語言處理(NLP),以有效地解釋和使用文章。在這本書中,NLP專家Stephan Raaijmakers提煉了他對這個快速發展的領域中最新技術發展的研究。通過詳細的說明和豐富的代碼示例,您將探索最具挑戰性的NLP問題,并學習如何通過深度學習解決它們!

自然語言處理是教計算機解釋和處理人類語言的科學。最近,隨著深度學習的應用,NLP技術已躍升至令人興奮的新水平。這些突破包括模式識別,從上下文中進行推斷以及確定情感語調,從根本上改善了現代日常便利性,例如網絡搜索,以及與語音助手的交互。他們也在改變商業世界!

目錄:

  • NLP和深度學習概述
  • 文本表示
  • 詞嵌入
  • 文本相似性模型
  • 序列NLP
  • 語義角色標簽
  • 基于深度記憶的NLP
  • 語言結構
  • 深度NLP的超參數

1深度NLP學習

  • 1.1概述
  • 1.2面向NLP的機器學習方法
  • 1.2.1感知機
  • 1.2.2 支持向量機
  • 1.2.3基于記憶的學習
  • 1.3深度學習
  • 1.4語言的向量表示
  • 1.4.1表示向量
  • 1.4.2運算向量
  • 1.5工具
  • 1.5.1哈希技巧
  • 1.5.2向量歸一化
  • 1.6總結

2 深度學習和語言:基礎知識

  • 2.1深度學習的基本構架
  • 2.1.1多層感知機
  • 2.1.2基本運算符:空間和時間
  • 2.2深度學習和NLP
  • 2.3總結

3文字嵌入

  • 3.1嵌入
  • 3.1.1手工嵌入
  • 3.1.2學習嵌入
  • 3.2word2vec
  • 3.3doc2vec
  • 3.4總結

4文字相似度

  • 4.1問題
  • 4.2數據
  • 4.2.1作者歸屬和驗證數據
  • 4.3數據表示
  • 4.3.1分割文件
  • 4.3.2字的信息
  • 4.3.3子字集信息
  • 4.4相似度測量模型
  • 4.5.1多層感知機
  • 4.5.2CNN
  • 4.6總結

5序列NLP和記憶

  • 5.1記憶和語言
  • 5.1.1問答
  • 5.2數據和數據處理
  • 5.3序列模型的問答
  • 5.3.1用于問答的RNN
  • 5.3.2用于問答的LSTM
  • 5.3.3問答的端到端存儲網絡
  • 5.4總結

6NLP的6種情景記憶

  • 6.1序列NLP的記憶網絡
  • 6.2數據與數據處理
  • 6.2.1PP附件數據
  • 6.2.2荷蘭小數據
  • 6.2.3西班牙語詞性數據
  • 6.3監督存儲網絡
  • 6.3.1PP連接
  • 6.3.2荷蘭小商品
  • 6.3.3西班牙語詞性標記
  • 6.4半監督存儲網絡
  • 6.5半監督存儲網絡:實驗和結果
  • 6.6小結
  • 6.7代碼和數據

7注意力機制

  • 7.1神經注意力機制
  • 7.2數據
  • 7.3靜態注意力機制:MLP
  • 7.4暫態注意力機制:LSTM
  • 7.4.1實驗
  • 7.5小結

8多任務學習

  • 8.1簡介
  • 8.2數據
  • 8.3.1數據處理
  • 8.3.2硬參數共享
  • 8.3.3軟參數共享
  • 8.3.4混合參數共享
  • 8.4主題分類
  • 8.4.1數據處理
  • 8.4.2硬參數共享
  • 8.4.3軟參數共享
  • 8.4.4混合參數共享
  • 8.5詞性和命名實體識別數據
  • 8.5.1數據處理
  • 8.5.2硬參數共享
  • 8.5.3軟參數共享
  • 8.5.4混合參數共享
  • 8.6結論

附錄

附錄A:NLP

附錄B:矩陣代數

附錄C:超參數估計和分類器性能評估

付費5元查看完整內容

Google AI研究科學家Jacob Eisenstein 博士的自然語言處理領域新書《Introduction to Natural Language Processing》由MIT出版社在10月份發行。在該教材最新版PDF 在 GitHub 上開放。這本書的內容主要分為四大章節,即 NLP 中監督與無監等學習問題、序列與解析樹等自然語言的建模方式、語篇語義的理解,以及后這些技術最在信息抽取、機器翻譯和文本生成等具體任務中的應用。整本開放書共四部分,19章,587頁pdf,是了解最新自然語言處理進展的不可多得的教材。

這本書的主要章節如下可分為四部分:

  • 學習:這一章節介紹了一套機器學習工具,它也是整本教科書對不同問題建模的基礎。由于重點在于介紹機器學習,因此我們使用的語言任務都非常簡單,即以詞袋文本分類為模型示例。第四章介紹了一些更具語言意義的文本分類應用。

  • 序列與樹:這一章節將自然語言作為結構化的數據進行處理,它描述了語言用序列和樹進行表示的方法,以及這些表示所添加的限制。第 9 章介紹了有限狀態自動機(finite state automata)。

  • 語義:本章節從廣泛的角度看待基于文本表達和計算語義的努力,包括形式邏輯和神經詞嵌入等方面。

  • 應用:最后一章介紹了三種自然語言處理中最重要的應用:信息抽取、機器翻譯和文本生成。我們不僅將了解使用前面章節技術所構建的知名系統,同時還會理解神經網絡注意力機制等前沿問題。

付費5元查看完整內容
北京阿比特科技有限公司