摘要: 約束優化問題廣泛存在于科學研究和工程實踐中,其對應的約束優化進化算法也成為了進化領域的重要研究方向。約束優化進化算法的本質問題是如何有效地利用不可行解和可行解的信息,平衡目標函數和約束條件,使得算法更加高效。首先對約束優化問題進行定義;然后詳細分析了目前主流的約束進化算法,同時,基于不同的約束處理機制,將這些機制分為約束和目標分離法、懲罰函數法、多目標優化法、混合法和其他算法,并對這些方法進行了詳細的分析和總結;接著指出約束進化算法亟待解決的問題,并明確指出未來需要進一步研究的方向;最后對約束進化算法在工程優化、電子和通信工程、機械設計、環境資源配置、科研領域和管理分配等方面的應用進行了介紹。
視頻目標檢測是為了解決每一個視頻幀中出現的目標如何進行定位和識別的問題。相比于圖像目標檢測,視頻具有高冗余度的特性,其中包含了大量的時空局部信息。隨著深度卷積神經網絡在靜態圖像目標檢測領域的迅速普及,在性能上相較于傳統方法顯示出了非常大的優越性,并逐步在基于視頻的目標檢測任務上也發揮了應有的作用。但現有的視頻目標檢測算法仍然面臨改進與優化主流目標檢測算法的性能、保持視頻序列的時空一致性、檢測模型輕量化等關鍵技術的挑戰。針對上述問題和挑戰,本文在調研大量文獻的基礎上系統地對基于深度學習的視頻目標檢測算法進行了總結。從基于光流、檢測等基礎方法對這些算法進行了分類,從骨干網絡、算法結構、數據集等角度細致探究了這些方法,結合在ImageNet VID等數據集上的實驗結果,分析了該領域具有代表性算法的性能優勢和劣勢,以及算法之間存在的聯系,對視頻目標檢測中待解決的問題與未來研究方向進行了闡述和展望。視頻目標檢測已成為眾多的計算機視覺領域學者追逐的熱點,將來會有更加高效,精度更高的算法被相繼提出,其發展方向也會越來越好。
在當前大規模數據檢索任務中,學習型哈希方法能夠學習緊湊的二進制編碼,在節省存儲空間的同時能快速地計算海明空間內的相似度,因此近似最近鄰檢索常使用哈希的方式來完善快速最近鄰檢索機制。對于目前大多數哈希方法都采用離線學習模型進行批處理訓練,在大規模流數據的環境下無法適應可能出現的數據變化而使得檢索效率降低的問題,提出在線哈希方法并學習適應性的哈希函數,從而在輸入數據的過程中連續學習,并且能實時地應用于相似性檢索。首先,闡釋了學習型哈希的基本原理和實現在線哈希的內在要求;接著,從在線條件下流數據的讀取模式、學習模式以及模型更新模式等角度介紹在線哈希不同的學習方式;而后,將在線學習算法分為六類:基于主-被動算法、基于矩陣分解技術、基于無監督聚類、基于相似性監督、基于互信息度量和基于碼本監督,并且分析這些算法的優缺點及特點;最后,總結和討論了在線哈希的發展方向。
全球定位、移動通信技術迅速發展的背景下涌現出了海量的時空軌跡數據,這些數據是對移動對象在時空環境下的移動模式和行為特征的真實寫照,蘊含了豐富的信息,這些信息對于城市規劃、交通管理、服務推薦、位置預測等領域具有重要的應用價值,而這些過程通常需要通過對時空軌跡數據進行序列模式挖掘才能得以實現。時空軌跡序列模式挖掘旨在從時空軌跡數據集中找出頻繁出現的序列模式,挖掘時空數據中隱藏的信息,例如: 位置模式(頻繁軌跡、熱點區域)、活動周期模式、語義行為模式。綜述近來年時空軌跡序列模式挖掘的研究進展,先介紹時空軌跡序列的數據特點及應用,再描述時空軌跡模式的挖掘過程:從基于時空軌跡序列來挖掘位置模式、周期模式、語義模式三個方面來介紹該領域的研究情況,最后闡述現有時空軌跡序列模式挖掘方法存在的問題,展望其未來的發展趨勢。
摘要: 當前,以網絡數據為代表的跨媒體數據呈現爆炸式增長的趨勢,呈現出了跨模態、跨數據源的復雜關聯及動態演化特性,跨媒體分析與推理技術針對多模態信息理解、交互、內容管理等需求,通過構建跨模態、跨平臺的語義貫通與統一表征機制,進一步實現分析和推理以及對復雜認知目標的不斷逼近,建立語義層級的邏輯推理機制,最終實現跨媒體類人智能推理。文中對跨媒體分析推理技術的研究背景和發展歷史進行概述,歸納總結視覺-語言關聯等任務的關鍵技術,并對研究應用進行舉例。基于已有結論,分析目前跨媒體分析領域所面臨的關鍵問題,最后探討未來的發展趨勢。
深度強化學習作為機器學習發展的最新成果,已經在很多應用領域嶄露頭角。關于深度強化學習的算法研究和應用研究,產生了很多經典的算法和典型應用領域。深度強化學習應用在智能制造中,能在復雜環境中實現高水平控制。對深度強化學習的研究進行概述,對深度強化學習基本原理進行介紹,包括深度學習和強化學習。介紹深度強化學習算法應用的理論方法,在此基礎對深度強化學習的算法進行了分類介紹,分別介紹了基于值函數和基于策略梯度的強化學習算法,列舉了這兩類算法的主要發展成果,以及其他相關研究成果。對深度強化學習在智能制造的典型應用進行分類分析。對深度強化學習存在的問題和未來發展方向進行了討論。
信息論的經典結果表明,信源信道分離編碼是漸進最優的。但現代通信系統對時延、帶寬等愈發敏 感,分離設計對解碼具有無限計算能力這一假設難以成立。帶寬有限時,相對于信源信道聯合編碼,分離編 碼已被證明是次優的。傳統的聯合信源信道編碼需要復雜的編碼方案,相較之下,數據驅動的深度學習技術 則帶來了新的設計思路。適時地對相關研究成果進行總結,有助于進一步明確深度學習方法解決信源信道聯 合編碼問題的方式,為研究新的研究方向提供依據。首先介紹了基于深度學習的信源壓縮方案和端對端收發 信機模型,隨后分析不同信源類型下的兩種聯合編碼設計思路,最后探討了基于深度學習的信源信道聯合編 碼的潛在問題和未來的工作方向。
大數據時代下,面對不斷膨脹的數據信息、復雜多樣的應用場景、異構的硬件架構和參差不齊的用戶使用水平,傳統數據庫技術很難適應這些新的場景和變化. 機器學習技術因其較強的學習能力,逐漸在數據庫領域展現出了潛力和應用前景. 論文首先給出一個高效、高可靠、高可用、自適應性強的數據庫系統需要涵蓋的方面,包括數據庫運維、數據存儲、查詢優化等.其次,討論機器學習算法與數據庫技術結合過程中可能面臨的挑戰,包括訓練數據少、訓練時間長、泛化能力有限、適應性差四個方面.然后,綜述數據庫技術與機器學習結合的現狀以及具體技術.其中,重點介紹數據庫自動調參、查詢基數估計、查詢計劃選擇、索引和視圖自動選擇五個方向.自動調參技術包括啟發式算法、傳統機器學習、深度強化學習三類.啟發式算法從離散的參數空間中通過抽樣探索最優子空間,可以有效提高調參效率,但是難以保證在有效資源限制內找到合適配置;傳統機器學習算法在經過降維的參數空間中學習系統狀態到指定負載模板的映射關系,一定程度上提升模型的適應性;深度強化學習在高維參數空間中迭代的學習調優策略,并利用神經網絡提升對高維數據的處理能力,有效降低訓練數據的需求.查詢基數估計包括面向查詢和面向執行計劃兩類.面向查詢方法利用卷積神經網絡學習表數據、查詢條件、連接條件之間的關系,然而在不同場景下需要大量訓練而且泛化能力差;面向執行計劃方法在物理算子層面做級聯的代價估計,一定程度上提高對不同查詢的適應能力.查詢計劃選擇包括深度學習和強化學習兩類.深度學習方法融合數據庫估計器的代價值和數據特征,提高對每種計劃代價估計的精度,但是結果嚴重依賴估計器的表現;強化學習基于最終目標迭代生成查詢計劃,降低方法對查詢代價的依賴性.自動索引推薦包括分類器、強化學習、遺傳算法三類.分類算法根據離散的表特征分析不同索引的創建開銷和效率,通過結合遺傳算法,提高對復合索引的推薦效率;強化學習進一步提供增量式索引推薦的效率,實現在線索引選擇.自動視圖選擇包括啟發式算法、概率統計、強化學習三類.啟發式算法通過在視圖構建的有向無環圖上做貪心探索,提高選擇效率,然而適應性差;基于概率統計的算法將視圖選擇形式化成一個0-1選擇問題,有效降低圖的探索開銷;強化學習方法將視圖的創建和刪除統一成動態選擇過程,基于強化學習的訓練策略進一步提高選擇效率.最后,從八個方面展望機器學習將給數據庫帶來的革命性突破。
近年來,隨著web2.0的普及,使用圖挖掘技術進行異常檢測受到人們越來越多的關注.圖異常檢測在欺詐檢測、入侵檢測、虛假投票、僵尸粉絲分析等領域發揮著重要作用.本文在廣泛調研國內外大量文獻以及最新科研成果的基礎上,按照數據表示形式將面向圖的異常檢測劃分成靜態圖上的異常檢測與動態圖上的異常檢測兩大類,進一步按照異常類型將靜態圖上的異常分為孤立個體異常和群組異常檢測兩種類別,動態圖上的異常分為孤立個體異常、群體異常以及事件異常三種類型.對每一類異常檢測方法當前的研究進展加以介紹,對每種異常檢測算法的基本思想、優缺點進行分析、對比,總結面向圖的異常檢測的關鍵技術、常用框架、應用領域、常用數據集以及性能評估方法,并對未來可能的發展趨勢進行展望.
//www.jos.org.cn/jos/ch/reader/view_abstract.aspx?file_no=6100&flag=1
摘要: 在自然語言處理領域,信息抽取一直以來受到人們的關注.信息抽取主要包括3項子任務:實體抽取、關系抽取和事件抽取,而關系抽取是信息抽取領域的核心任務和重要環節.實體關系抽取的主要目標是從自然語言文本中識別并判定實體對之間存在的特定關系,這為智能檢索、語義分析等提供了基礎支持,有助于提高搜索效率,促進知識庫的自動構建.綜合闡述了實體關系抽取的發展歷史,介紹了常用的中文和英文關系抽取工具和評價體系.主要從4個方面展開介紹了實體關系抽取方法,包括:早期的傳統關系抽取方法、基于傳統機器學習、基于深度學習和基于開放領域的關系抽取方法,總結了在不同歷史階段的主流研究方法以及相應的代表性成果,并對各種實體關系抽取技術進行對比分析.最后,對實體關系抽取的未來重點研究內容和發展趨勢進行了總結和展望.
//crad.ict.ac.cn/CN/10.7544/issn1000-1239.2020.20190358#1
摘要:隨著日益劇增的海量數據信息的產生以及數據挖掘算法的廣泛應用,人們已經進入了大數據時代.在數據規模飛速增長的前提下,如何高效穩定的存取數據信息以及加快數據挖掘算法的執行已經成為學術界和工業界急需解決的關鍵問題.機器學習算法作為數據挖掘應用的核心組成部分,吸引了越來越多研究者的關注,而利用新型的軟硬件手段來加速機器學習算法已經成為了目前的研究熱點之一.本文主要針對基于ASIC和FPGA等硬件平臺設計的機器學習加速器進行了歸納與總結.首先,本文先介紹了機器學習算法,對代表性的算法進行了分析和歸納.接下來對加速器可能的著眼點進行了列舉綜述,以各種機器學習硬件加速器為主要實例介紹了目前主流的加速器設計和實現,并圍繞加速器結構進行簡單分類和總結.最后本文對機器學習算法硬件加速這個領域進行了分析,并對目前的發展趨勢做出了展望.