解耦合的類腦計算系統棧設計
類腦計算是一種借鑒生物大腦計算原理的信息處理范式,涉及算法、硬件和 工藝等諸多領域。在算法層面,深度神經網絡在各類智能問題的解決上表現出了 一定的通用性;在硬件層面,大量涌現的深度學習專用芯片和神經形態芯片為類 腦計算的相關研究領域提供強大算力;在工藝層面,以憶阻器為代表的各種新型 器件也為類腦計算芯片架構突破“馮諾依曼瓶頸”帶來了新的可能。但現有的類 腦計算研究尚缺乏能將算法、芯片和工藝等不同領域技術需求有機結合起來的軟 硬件系統棧設計。例如,專用芯片在帶來更高計算性能的同時也降低了靈活性,使 得算法的適配變得困難;憶阻器等新型器件在為芯片提供更高能效的同時,也帶 來了器件不穩定引起的噪音等問題。針對上述問題,本文提出一套新型類腦計算 系統棧設計,在理論層面引入類腦計算完備性,使得類腦系統實現軟硬件解耦合 成為可能;在基礎軟件層面設計了相應的編譯器,實現軟件編程模型到硬件執行 模型的等價轉換;在硬件層面設計了基于憶阻器件的類腦芯片架構,充分利用本 文提出的編譯器設計和解耦合系統棧帶來的優勢。本文的創新點主要有:
? 提出軟硬件解耦合的類腦系統棧設計。在系統棧中引入軟件編程模型和硬件 執行模型來解耦合——軟件編程模型靈活度高,適應各類編程需求,而硬件 執行模型足夠簡潔,適合硬件高效實現;引入類似于圖靈完備性的類腦完備 性概念來建立軟件和硬件兩類模型的等價性,并給出相應的構造性證明,使 得類腦計算系統軟硬件解耦合成為可能。
? 設計針對硬件約束的類腦編譯器,將神經網絡軟件編程模型轉換為等價的硬 件執行模型。編譯器通過數據重編碼方式,使目標網絡在極端硬件約束條件 下仍然能夠保持精度損失可控(包括無損);此外,提出適用于硬件執行模 型的粗粒度剪枝壓縮方法,充分利用神經網絡模型本身的冗余,在 ImageNet 數據集的 VGG16 模型上,即使剪枝粒度達到 256 × 256 壓縮率也能達到 60% 以上,且精度損失可以忽略。
? 設計與上述類腦計算完備性和編譯技術適配的新型類腦芯片架構 FPSA (Field Programmable Synapse Array)。利用編譯器轉換后硬件執行模型的簡潔 性,簡化基于憶阻器的芯片結構設計,提高計算密度與計算性能,并引入可 重構路由架構以優化片內通信。與同樣基于憶阻器的類腦芯片架構 PRIME 相比,性能提升可達三個數量級。
非易失內存系統中的寫優化和持久化技術研究
現代處理器的多核化發展趨勢和大量數據密集型應用的出現,使得計算機對高 容量主存的需求越來越迫切。現代計算機主存的主要存儲介質是 DRAM (dynamic random access memory)。但是,由于在存儲單元擴展和能耗效率方面的局限性, DRAM 很難做到更大的容量。新型的非易失內存(non-volatile memory,NVM)可 以有效地避免 DRAM 中存在的存儲單元擴展和能耗效率問題,從而被考慮作為下一 代主存的主要存儲介質。但是,現代的計算機系統都是面向傳統的 DRAM 主存設計 和優化的,在當前的計算機系統中使用 NVM 面臨著寫優化和數據持久化兩方面的 挑戰。在寫優化方面,由于 NVM 都是通過改變存儲介質的物理狀態來存儲數據的, 物理存儲單元被復寫一定次數后會失效而具有有限的寫耐久性,如何對 NVM 做有 效的寫優化處理來提升其耐久性和性能是關鍵;在持久化方面,NVM 系統中的數 據從 CPU 寫入到主存時就需要做數據持久化處理,如何使用有效的持久化技術來保 證數據的正確持久化和故障時的一致性是關鍵。另外,在一些應用場景如端設備上, NVM 主存還面臨著安全性問題,這是因為 NVM 在系統關機后依然保存著數據而 產生數據殘留,因此需要在 NVM 上使用內存加密。本文分別對非加密和加密 NVM 面臨的寫優化和持久化挑戰展開研究并提出有效的解決方案。
為了提升非加密 NVM 的寫耐久性,提出了一個面向 NVM 的寫優化數據組織 結構 Path Hashing。Path Hashing 是一個基于哈希的數據結構,使用了一個新的寫優 化哈希沖突處理方法,即位置共享,使得哈希數據結構中的插入和刪除操作不會產 生額外的 NVM 寫。通過進一步使用雙路徑哈希和路徑縮減技術,Path Hashing 可以 在哈希表空間利用率和請求延遲方面獲得高的性能。實驗結果表明,Path Hashing 不 會造成額外的 NVM 寫從而提升了 NVM 的耐久性,并可以達到 95% 以上的哈希表 空間利用率,與現有哈希表方法相比也實現了更低的請求延遲。
為了保證非加密 NVM 中數據的正確持久化和一致性,提出了一個面向 NVM 的持久化數據組織結構 Level Hashing。Level Hashing 在實現寫優化和降低開銷的同。時,可以保證 NVM 中哈希數據結構故障時的數據一致性并且支持高效地擴容操作。Level Hashing 提出了一個基于共享的兩層哈希表,它的搜索、插入、刪除和更新操 作在最差情況下具有常數級的時間復雜度,且很少產生額外的 NVM 寫。為了低開 銷地保證數據一致性,Level Hashing 對插入、刪除和擴容操作實現了免日志的一致 性保證。為了高效地擴容哈希表,Level Hashing 提出了一個原地擴容技術,這種方 法只需要重新哈希 1/3 的哈希桶而不是整個哈希表就可以完成擴容,從而顯著減少 了重哈希的桶數并提高了擴容性能。實驗結果顯示,與現有最好的哈希數據結構相 比,Level Hashing 獲得了 1.4 ? 3 倍的插入加速比、1.2 ? 2.1 倍的更新加速比和 4.3 倍的擴容加速比。
為了提升加密 NVM 的寫耐久性,提出了一個面向加密 NVM 的寫優化內存架 構 DeWrite。DeWrite 使用內存加密機制來保證 NVM 中的數據安全,并通過消除重 復的內存寫來提升 NVM 的使用壽命和運行性能。DeWrite 提出了一個輕量級內存行 粒度的數據去重技術來解決在加密 NVM 上執行低延遲的在線去重的挑戰,并提出 操作并行和元數據共享策略來高效整合數據去重和內存加密技術,以提高系統的時 間和空間效率。實驗結果顯示,和傳統的加密 NVM 方案相比,DeWrite 減少了平均 54% 的 NVM 寫操作數量。同時,DeWrite 對加密 NVM 中的內存讀操作和寫操作分 別加速了 3.1 倍和 4.2 倍,且減少了 40% 的能耗開銷。
為了保證加密 NVM 中數據的正確持久化和一致性,提出了一個面向加密 NVM 的持久化內存架構 SuperMem。SuperMem 是基于直寫式計數器 cache 的持久化技術, 有效地避免了現有基于寫回式計數器 cache 的持久化技術在備用電池的使用、可移 植性和恢復延遲等方面的問題。為了減少直寫式計數器 cache 帶來的額外的性能開 銷,SuperMem 采用了一個局部性感知的計數器寫聚合方法,通過探索計數器存儲 和數據寫分布的空間局部性來減少寫請求的數量;并采用了一個跨 bank 的計數器存 儲方法來高效地分發數據和計數器寫到不同的 bank 上,利用 bank 的訪問并行性來 加速內存寫。實驗結果顯示,SuperMem 使用計數器寫聚合方法減少了高達 50% 的 寫操作數量,使用跨 bank 的計數器存儲方法提升了最高 2 倍的系統運行性能。
軟件系統網絡化建模、質量度量與保證
軟件開發活動中,質量問題層出不窮。例如軟件功能沒有滿足用戶的需求,軟件 不健壯,由于低可靠性而引起的經常性失效,交付有缺陷的軟件產品,需求不完整 亦或概念模糊等。多數情況下,軟件產品問題發生原因是質量監控人員沒有及時發 現問題并且修正,包括未對設計與需求進行評審或者評審方案不具備有效性,導致 開發過程中常常帶著問題進入下一階段的研發。因此需要花費更多的人力物力和時 間來糾正問題。因而,軟件質量保證是解決上述問題的有效手段之一。
經過長期的研究和實際案例分析,雖然現有軟件質量度量方法的有效性已經在 實踐中得到了檢驗,它們依然存在著許多不足之處,如傳統的方法側重于微觀層面 的統計,使得開發人員難以在較高層次分析和度量軟件體系結構的全局特性;現有 的質量模型企圖以單一模型廣泛地應用于軟件和信息系統的開發過程,但這與質量 本身的特征多樣性相背離;軟件質量模型設計的初衷沒有考慮其在軟件開發過程中 的應用場景,并未對軟件開發中的特定活動提供相應支持。因此開發出一個操作性 強,具有較高應用價值且能夠高效地發現質量隱患的模型仍是一個開發性的課題。本文圍繞著軟件質量模型構建、質量保證及質量改善開展工作,主要的研究內容包括:
(1) 針對現有的軟件質量模型均以靜態視角描述軟件某單一維度結構特征的局 限性,本文從多粒度、多類型依賴關系及多功能剖面等角度出發,提出了多維度軟 件網絡模型。并結合概率風險分析理論評估軟件設計的缺陷及軟件模塊的風險,借 助于多維度網絡模型將軟件系統映射為多功能剖面,使用故障樹模型分析不同功能 剖面上節點的組合失效因果鏈,給出了一種基于故障樹分析的可靠性度量方法。通 過實驗分析,驗證了上述方法可以有效檢測軟件高風險的關鍵節點,詮釋了軟件系 統拓撲結構因素與系統可靠性的相關性,可作為軟件設計早期階段確保軟件設計質 量的指導準則。
(2) 在軟件集成測試的場景之中,基于多維度軟件網絡模型,結合軟件風險分析 方法提出了一種兼顧測試成本與測試效率的集成測試序列生成算法。利用成本收益。分析方法,在生成測試用例的過程中保證兩條原則:一是為高風險的類賦予較高權 重,二是最小化測試樁復雜度。在此基礎上,我們從構造測試樁的成本和測試序列 對軟件系統運行風險的影響兩個方面,提出了評估測試序列優劣的度量方案及針對 集成測試序列合理分配測試資源的方法。通過與現有算法的實驗對比分析,證明了 所提出算法生成的類級集成測試序列,既能夠保證風險因子高的節點優先被測試, 又降低了構造測試樁的總復雜度,有效地降低了測試代價。
(3) 將本文提出的軟件質量模型應用于軟件回歸測試的場景之中,以保障軟件產 品質量。在多維度軟件網絡模型基礎上,結合可靠性度量方法提出了一種基于動態 反饋機制的自適應測試用例優先級排序技術。在計算測試用例優先級的過程中,利 用已經執行的測試用例對軟件可靠性變化信息進行動態反饋,以不斷更新系統的可 靠性數值,進而高效地定位到軟件缺陷,提高故障檢測效率。通過在不同的軟件系 統的實驗分析,驗證了所提出的自適應優先級排序技術具有較高的穩定性,尤其對 于嚴重故障具有較強的檢測能力,同時可以兼顧最大化軟件系統的可靠性。
(4) 為了從軟件體系結構的角度得到最佳的功能分布,基于多維度軟件網絡模型 提出了一種系統級別的自動化重構技術。將軟件系統映射成多依賴關系類型網絡和 方法級加權依賴網絡,借助于前者我們完成了重構預處理操作,借助于后者我們利 用加權聚類算法,根據“高內聚、低耦合”原則對系統的模塊進行重新劃分。為了移除 非繼承體系和繼承體系內部由內聚和耦合性引起的代碼壞味道,提出三種不同類型 的重構建議(包括搬移函數、搬移方法和提煉類重構的操作)。經過世界知名軟件公司 軟件質量評估專家的評估和驗證,證明了自動化重構算法的有效性。
基于深度學習的圖像處理算法研究
隨著智能手機和微單相機的普及,拍照已經變成人們日常生活中不可缺少的一部分,圖像也已成為人類社會的重要信息媒介。然而受到拍照環境、設備和技術的影響,圖像中難免會出現退化現象,如何從圖像處理的角度提升拍攝照片的質量具有重要的研究意義與應用價值。近年來,深度學習技術得到了巨大的發展,并廣泛應用于圖像處理領域。相對于許多傳統算法,深度學習技術從海量的訓練數據中學習到的先驗知識具有更強的泛化能力和更復雜的參數化表達,且無需調節算法參數以適應不同的應用場景。得益于上述優勢,深度學習技術已經廣泛應用于圖像處理領域,如何利用深度學習算法提升圖像處理的效果也變成了一個重要的研究方向。
盡管深度學習技術顯著促進了圖像處理領域的發展,但是受限于其對訓練數據的敏感性,在面對無標簽、僅有弱標簽或者合成偽標簽的數據時,深度學習技術的優勢難以充分體現。本學位論文針對以上挑戰,重點研究了缺失完整數據標簽的經典圖像處理問題,包括圖像平滑、反光去除和本征圖像分解等。本文通過將上述問題抽象為對圖像結構敏感的圖像分解問題,將顯著的目標邊緣信息通過優化或者濾波的方式編碼進深度學習的算法設計中。根據圖像處理問題中數據標簽的類型和數量不同,本文依次提出了基于無監督學習、弱監督學習和多標簽聯合訓練的深度學習解決方案。本文的最后提出了解耦學習框架,通過對10種不同圖像處理問題的聯合訓練,提煉出了圖像處理問題的核心解空間。該算法對于理解深度學習技術在圖像處理領域的應用有重要的研究價值和意義。本文的創新點和貢獻包括以下幾個方面:
(1) 一種基于無監督學習的空間自適應圖像平滑算法
該算法通過使用卷積神經網絡,以無監督的方式從無標簽數據中學習圖像平滑的優化過程,并實現可靈活調節的圖像平滑效果。該算法提出了一個由邊緣保持項和空間自適應平滑項構成的能量函數,前者用于保持重要但易破壞的圖像結構,后者用于將多種形式的正則器(Lp范數)施加至圖像的不同區域。由于缺乏平滑圖像的真值數據,本文采用一個無監督學習的能量優化框架,用來實現多種基于圖像平滑的視覺應用,譬如圖像抽象化、鉛筆素描、細節增強、紋理去除和基于內容的圖像處理等。實驗結果表明,該基于無監督學習的空間自適應圖像平滑算法獲得了更好的視覺結果。
(2) 一種基于弱監督學習的圖像反光去除算法
該算法提出了一個多階段卷積神經網絡,用以解決圖像分解領域中經典的反光去除問題。本算法框架由兩個結構相似的卷積神經網絡串聯而成,前者預測目標圖像的邊緣結構,后者依據預測邊緣信息的引導重建目標圖像;整個過程既不需要任何人工設計,也不依賴于其他圖像處理應用。通過從真實反光圖像觀察得到的圖像亮度和結構先驗,該算法設計了一種針對模糊強反光的反光圖像合成算法;通過將合成數據以弱監督信號的形式融入到多階段神經網絡訓練中,該算法獲得了在真實反光圖像上的良好泛化性能。實驗結果表明,該基于弱監督學習的圖像反光去除算法在不同程度的反光場景中均獲得更優的視覺效果。
(3) 一種基于多標簽聯合訓練的本征圖像分解算法
本征圖像分解往往存在數據集冗雜、數據標簽不一致等問題。為解決該問題,本文提出了一個通用的核心神經網絡,用以在不同類型的數據標簽中共享本征圖像形成過程的稀疏先驗。該神經網絡由三個不同的基礎模塊組成:直接本征圖像估計網絡、導向網絡和域濾波器;其中,直接本征圖像估計網絡通過對本征圖像的直接監督獲得初始的預測結果,導向網絡負責生成稀疏的反射結構先驗,并引導域濾波器獲得干凈的反射估計。該算法設計了一個靈活的能量損失層以實現多標簽數據聯合訓練的目的。實驗結果表明,該本征圖像分解算法在所有的主流基準數據集上都獲得了更高的精確度。
(4) 一種基于解耦學習的實時參數化圖像處理框架
傳統的深度學習算法在面對不同的圖像處理應用時,需要重復地訓練神經網絡。為了解決這個問題,該算法提出了由基礎網絡和權重學習網絡組成的解耦學習框架,其中前者用來實現具體的圖像處理應用,后者用來學習基礎網絡的權重。該算法通過對基礎網絡的結構和權重進行解耦,達到根據圖像處理應用的變化實時動態調整基礎網絡權重的效果,并因此實現了利用單一神經網絡融合多種圖像處理應用的目的。實驗結果表明,該解耦學習框架成功應用在10種不同的參數化圖像算子中,并減少了網絡參數的存儲空間。
報告摘要:遷移學習一直是機器學習領域的難點問題,其目標是在數據分布變化的條件下實現強泛化能力。經過長期探索,逐步縮小了遷移學習的泛化理論與學習算法之間的鴻溝,獲得了更緊致的泛化界和更優的學習器。此次報告將按照發展歷程介紹遷移學習的代表性泛化理論及學習算法,重點介紹我們的間隔泛化理論及其對抗學習算法,同時介紹我們關于遷移學習的最新進展,包括局部泛化理論、遷移推理中的概率校準和無監督遷移學習算法。
基于深度學習的算法模型往往需要大量的標注數據,相對于自然場景圖像來說,醫學圖像更難獲取,且標注數據的成本和難度都更高。自監督學習能夠利用未標注的數據進行模型的預訓練,然后再利用有限的標注數據進行模型的微調(fine-tune)。一種自監督學習的變種模型“對比學習”,是一種高效的技術,能夠學習到圖像級別(image-level)的表征。本文提出的策略通過擴展對比學習框架在數據量較為局限(標注數據少)的醫學標注數據中,利用半監督學習進行三維醫學圖像分割。具體來說:①提出了一種全新的對比學習策略,通過利用三維醫學圖像(特定領域)的結構相似性;②設計了一種局部對比損失以學習獨特的局部特征表達,其在像素級圖像分割(特定問題)中性能提升顯著。作者應用該方法在三個醫學數據集上進行了實驗驗證,實驗設定使用較為有限的標注數據上進行訓練(限定訓練集的大小),與已提出的自監督和半監督學習方法相比,該方法對分割性能有大幅的提升。
來自卡內基梅隆大學機器人研究所Zhanghao博士論文,他師從著名的邢波教授!博士題目是機器學習并行可以是自適應的、可組合的和自動化的,不可錯過!
Zhang hao, 卡內基梅隆大學機器人研究所博士,導師是Eric Xing教授。畢業后將加入加州大學伯克利分校的RISE實驗室,做博士后。 //www.cs.cmu.edu/~hzhang2/
Machine Learning Parallelism Could Be Adaptive, Composable and Automated
近年來,機器學習(ML)領域的創新步伐加快,SysML的研究人員已經創建了在多個設備或計算節點上并行化ML訓練的算法和系統。隨著ML模型在結構上變得越來越復雜,許多系統都努力在各種模型上提供全面的性能。一般來說,根據從適當的分布策略映射到模型所需的知識數量和時間,ML的規模通常被低估了。將并行訓練系統應用到復雜的模型中,除了模型原型之外,還增加了重要的開發開銷,并且經常導致低于預期的性能。本文識別并解決并行ML技術和系統實現在可用性和性能方面的研究挑戰。
本文的第一部分提出了一個簡單的設計原則,自適應并行化,它根據特定的ML屬性將適當的并行化技術應用于模型構建塊(如層)。接下來,我們導出了一系列優化ML并行化不同方面的優化和實現。我們對它們進行了研究,并表明它們顯著提高了ML訓練在適用場景下對集群進行2-10倍的效率或可伸縮性。
為了推廣這種方法,本論文的第二部分將ML并行化為端到端優化問題,并尋求自動解決它,用于ML并行任務的兩種廣泛范例:單節點動態批處理和分布式ML并行。我們提出了有原則的表示來表示兩類ML并行性,以及可組合的系統架構,分別是Cavs和AutoDist。它們支持為不可見的模型快速組合并行化策略,提高并行化性能,并簡化并行ML編程。
在此基礎上,本文的第三部分提出了自動并行化框架AutoSync,用于自動優化數據并行分布訓練中的同步策略。AutoSync實現了“開框即用”的高性能——它在提議的表現方式所覆蓋的范圍內導航,并自動識別同步策略,這些同步策略的速度比現有手動優化的系統快1.2 - 1.6倍,降低了分布式ML的技術障礙,并幫助更大的用戶社區訪問它。本文所開發的技術和系統為分布式環境下大規模ML訓練的端到端編譯器系統的概念和原型實現提供了理論依據。
論文結構:
第一部分(第三章-第五章):通過自適應并行來理解和優化并行ML在各個方面的性能; 第二部分(第六章-第七章):開發ML并行的統一表示和可組合系統; 第三部分(第八章):自動化ML并行化
該研究的第一作者為清華大學計算機系研究員張悠慧,與清華大學教授、清華大學類腦計算中心主任施路平共同為該論文的通訊作者。
神經形態計算從生物大腦中獲取靈感,為計算機技術和體系結構的下一波發展提供了方向。類腦計算與傳統計算機架構不同,后者是圍繞圖靈完備和完善的馮諾依曼結構,前者目前還沒有沒有廣義的系統層次結構,或對類腦性計算的完整性的理解。這會影響類腦計算軟件和硬件之間的兼容性,從而阻礙了大類腦式計算的開發效率。
面對這一挑戰,清華大學等機構的研究者們提出了「類腦計算完備」概念,它放寬了對硬件完整性的要求,并提出了相應的系統層次結構,其中包括圖靈完備的軟件抽象模型和通用的抽象神經形態架構。
使用這種層次結構,我們可以將各種程序描述為統一的表示形式,并轉換為任何神經形態完整硬件上的等效可執行文件。這意味著,這一體系可以確保編程語言的可移植性、硬件完整性和編譯可行性。
為了支持在各種典型硬件平臺上執行不同類型的程序,研究人員實現了一系列工具鏈軟件,進而證明了該系統結構的優勢。
盡管近年來計算機視覺技術已經取得了長足的進步,但是對于復雜視覺場景 的感知和理解,目前的計算機模型表現還遠遠沒有達到大規模普及和落地應用的 水平。為了充分地利用日常生活中海量的視覺媒體數據,復雜視覺場景的感知和理 解已經逐漸成為計算機視覺領域的一個研究熱點。
本文將針對四個不同層次的視覺場景理解(物體級別識別、場景級別識別、場 景級別理解和場景級別推理),逐步地對復雜視覺場景中視覺內容的識別、檢測和 推理進行研究。本文的關鍵技術線路主要聚焦于零樣本物體分類、圖像場景圖生 成、圖像描述生成、視頻片段檢索和視覺問答等具體視覺場景理解任務。在此研究 技術路線下,本文主要的研究內容和貢獻如下:
1)針對零樣本物體分類模型中普遍存在的語義丟失問題,本文提出一種全新 的零樣本學習網絡。該網絡首次引入兩個相互獨立的映射網絡分支,將圖像分類和 圖像重建兩個原本相互沖突的任務分離出來。同時借助對抗學習,實現重建網絡分 支和分類網絡分支之間的屬性遷移。
2)針對圖像場景圖生成模型中優化目標通常忽略不同物體的重要性差異的問 題,本文提出一種全新的訓練框架,首次將圖像場景圖生成任務轉化成一個多智能 體協同決策問題,從而可以直接將整個圖像場景圖質量作為模型的優化目標。同 時,本文還提出了一個反事實基準模型,可以有效地計算出每個物體類別預測對整 體場景圖生成質量的局部貢獻。
3)參考現有的空間注意力機制,本文首次提出通道注意力機制。同時,通過 充分挖掘卷積神經網絡的特征圖的三個不同維度(空間、通道和層級)之間的聯系, 提出一種全新的空間和通道注意力網絡。在圖像描述生成任務中,該網絡不僅極大 地提升了描述語句的生成質量,同時幫助人們理解在語句生成過程中特征圖的變 化過程。
4)針對目前視頻片段檢索任務中兩種主流框架(自頂向下和稀疏型自底向上) 的設計缺陷,本文提出了一種全新的密集型自底向上的框架。通過將動作邊界定位問題分解成相關性預測和邊界回歸兩個子問題,顯著地降低了動作邊界定位的難 度。同時,本文提出一個基于圖卷積的特征金字塔層,來進一步增強骨干網絡編碼 能力。
5)針對目前視覺問答模型忽略的兩個重要特性(視覺可解釋性和問題敏感性), 本文提出了一種通用的反事實樣本生成機制。通過遮蓋圖像中的重要區域或問題 中的重要單詞,同時更改標準答案,來合成全新的反事實訓練樣本。通過使用原始 訓練樣本和反事實訓練樣本一起對模型進行訓練,迫使視覺問答模型關注被遮蓋 的重要內容,提升模型的視覺可解釋性和問題敏感性。
地址:
近年來,現場可編程邏輯門陣列(FPGA)在異構計算領域因其優異的可定制性和可重配置特點吸引了工業界和學術界廣泛的關注.基于FPGA的硬件加速系統設計涉及到深度的軟硬件協同開發,利用軟硬件各自開發工具分別開發再集成的傳統開發方式具有學習門檻高,集成、測試、部署耗時長等缺陷,開發人員難以利用FPGA可快速重配置的特點來實現系統開發過程中的快速原型和快速迭代.如何讓硬件加速系統的開發利用到現代軟件工程和程序語言領域的成果,研究者們已經經過了長期的探索,本文首先根據相關研究總結了硬件及硬件加速系統開發工具設計的歷史教訓和成功經驗,然后介紹我們的設計實踐,最后進行總結并提出對未來的展望.
摘要:卷積神經網絡在廣泛的應用中取得了優秀的表現,但巨大的資源消耗量使得其應用于移動端和嵌入式設備成為了挑戰。為了解決此類問題,需要對網絡模型在大小、速度和準確度方面做出平衡。首先,從模型是否預先訓練角度,簡要介紹了網絡壓縮與加速的兩類方法——神經網絡壓縮和緊湊的神經網絡。具體地,闡述了緊湊的神經網絡設計方法,展示了其中不同運算方式,強調了這些運算特點,并根據基礎運算不同,將其分為基于空間卷積的模型設計和基于移位卷積模型設計兩大類,然后每類分別選取三個網絡模型從基礎運算單元、核心構建塊和整體網絡結構進行論述。同時,分析了各網絡以及常規網絡在ImageNet數據集上的性能。最后,總結了現有的緊湊神經網絡設計技巧,并展望了未來的發展方向。