報告題目: AV+AI - Challenges and Opportunities
報告摘要:
AV與AI相遇會產生怎樣的效果不禁令人期待。人類駕駛汽車與無人駕駛相比,人類司機存在著缺陷,而且目前AV面臨著技術、安全問題、市場接受度和法律等問題,此次報告主要從以下方面講述了AV+AI的挑戰與機遇:
嘉賓介紹
詹景堯是伯克利DeepDrive副主任,在車輛和基礎設施安全、高速公路網絡運行、車輛自動化、先進駕駛輔助系統、專用短程通信(DSRC)和運輸的蜂窩通信以及交通監控與數據融合方面有很深的造詣。
主題: Opportunities and Challenges in Explainable Artificial Intelligence (XAI): A Survey
摘要: 如今,深度神經網絡已廣泛應用于對醫療至關重要的任務關鍵型系統,例如醫療保健,自動駕駛汽車和軍事領域,這些系統對人類生活產生直接影響。然而,深層神經網絡的黑匣子性質挑戰了其在使用中的關鍵任務應用,引發了引起信任不足的道德和司法問題。可解釋的人工智能(XAI)是人工智能(AI)的一個領域,它促進了一系列工具,技術和算法的產生,這些工具,技術和算法可以生成對AI決策的高質量,可解釋,直觀,人類可理解的解釋。除了提供有關深度學習當前XAI格局的整體視圖之外,本文還提供了開創性工作的數學總結。我們首先提出分類法,然后根據它們的解釋范圍,算法背后的方法,解釋級別或用法對XAI技術進行分類,這有助于建立可信賴,可解釋且自解釋的深度學習模型。然后,我們描述了XAI研究中使用的主要原理,并介紹了2007年至2020年XAI界標研究的歷史時間表。在詳細解釋了每種算法和方法之后,我們評估了八種XAI算法對圖像數據生成的解釋圖,討論了其局限性方法,并提供潛在的未來方向來改進XAI評估。
主題: Deep Learning for Community Detection: Progress, Challenges and Opportunities
摘要: 由于社區代表著相似的觀點,相似的功能,相似的目的等,因此社區檢測對于科學查詢和數據分析而言都是重要且極為有用的工具。 但是,隨著深度學習技術顯示出以令人印象深刻的性能處理高維圖形數據的能力日益增強,諸如頻譜聚類和統計推斷之類的經典社區檢測方法正在逐漸被淘汰。 因此,及時對通過深度學習進行社區檢測的進展進行調查。 該領域分為該領域的三個廣泛的研究流-深度神經網絡,深度圖嵌入和圖神經網絡,總結了每個流中各種框架,模型和算法的貢獻以及當前尚未解決的挑戰和 未來的研究機會尚待探索。
題目: A Survey on Dialog Management: Recent Advances and Challenges
摘要:
對話管理(DM)是面向任務的對話系統的一個重要組成部分。給定對話歷史記錄,DM預測對話狀態并決定對話代理應該采取的下一步操作。近年來,對話策略學習被廣泛地定義為一種強化學習(RL)問題,越來越多的研究集中在DM的適用性上。在本文中,綜述了DM的三個關鍵主題的最新進展和挑戰:
相信這項調查可以為未來對話管理的研究提供一些啟示。
題目主題: Small Data Challenges in Big Data Era: Unsupervised and Semi-Supervised Methods
簡介: 在本教程中,我們將回顧在訓練深度神經網絡中使用有限帶注釋的數據克服小數據挑戰的最新進展。我們將以無監督和半監督的方法來復習文獻,包括基本原理,標準,考慮因素和網絡設計,并希望對如何有效利用大量未標記的數據促進模型訓練和推斷提供一些啟示。
小數據挑戰已經在許多學習問題中出現,因為深度神經網絡的成功通常依賴于大量標記數據的可用性,而這些數據收集起來很昂貴。為了解決這些挑戰,以無監督和半監督的方式訓練帶有小數據的復雜模型方面已經做出了很多努力。在本教程中,我們將回顧這兩種主要方法的最新進展。各種各樣的小型數據模型將被概括為一幅大圖,在這里我們將展示它們如何相互作用。具體來說,我們將回顧學習變換等,自我監督和半監督表示形式的標準,這些標準為最近的發展奠定了基礎。
作者介紹: Guo-Jun Qi是華為的首席科學家,領導并監督著多個智能云服務領域的國際研發團隊,包括智能城市,視覺計算服務,醫療智能服務和互聯車輛服務。 他自2014年8月起擔任佛羅里達大學計算機科學系的教授,并擔任機械感知與學習(MAPLE)實驗室的主任。在此之前,他還是研究人員在IBM TJ紐約州約克敦高地的沃森研究中心。他的研究興趣包括從多模式數據源(例如圖像,視頻,文本和傳感器)中進行機器學習和知識發現,以構建智能,可靠的信息和決策系統。他的研究得到了政府機構和行業合作者(包括NSF,IARPA,微軟,IBM和Adobe)的資助和項目的贊助。
Jiebo Luo在柯達研究實驗室工作了十五年多之后,于2011年秋天加入羅切斯特大學,在那里他是負責研究和先進開發的高級首席科學家。 他參加過許多技術會議,并擔任ACM Multimedia 2010,IEEE CVPR 2012,ACM ICMR 2016和IEEE ICIP 2017的程序聯席主席。研究方向為智能系統和技術交易,模式識別,機器視覺和應用,知識和信息系統以及電子成像雜志。 羅博士是SPIE,IAPR,IEEE,ACM和AAAI的會員。
大綱介紹:
報告題目: 視覺信息處理的閉環
報告摘要:
計算神經科學是使用數學分析和計算機模擬的方法在不同水平上對神經系統進行模擬和研究。而深度學習模擬生物視覺腹側通路的前饋信息加工,但是不能提取物體的global信息。此報告先講述了人工神經網絡、認知科學、認知神經科學和計算神經科學,最后從各方面講述了視覺信息處理的閉環以及其可信科學問題。
嘉賓介紹
吳思是北京大學信息科學技術學院長聘教授,研究領域為計算神經科學、類腦計算,以數學模型和計算機仿真來構建神經系統的計算模型,解析神經系統處理信息的一般性原理,并在此基礎上發展類腦的人工智能算法。目前開展的課題包括:視覺信息處理的動態交互機制、神經信息表達的正則化網絡模型、神經突觸短時程可塑性的計算功能、多模態信息處理、神經形態計算的模型等。
AI的潛在應用與帶來的益處已經遠遠超過其他任何技術,從日常娛樂到提高生產效率,拯救生命,預計AI工具還將對聯邦政府產生重大影響,并對聯邦系統和結構產生音響。在享受AI好處的同時,也必須準備好應對相關風險。鑒于這項技術有可能在政府范圍內轉變工作,管理和預算辦公室以及科學和技術政策辦公司應繼續帶頭努力管理這些風險。Parthership for public Service和IBM政府事務中心希望這份白皮書能在政府內部引發對話。尤其是:如何最好地使人工智能成為機構任務規劃的一部分,而不僅僅是松散地與單獨項目關聯的某項技術而已。
In the last years, Artificial Intelligence (AI) has achieved a notable momentum that may deliver the best of expectations over many application sectors across the field. For this to occur, the entire community stands in front of the barrier of explainability, an inherent problem of AI techniques brought by sub-symbolism (e.g. ensembles or Deep Neural Networks) that were not present in the last hype of AI. Paradigms underlying this problem fall within the so-called eXplainable AI (XAI) field, which is acknowledged as a crucial feature for the practical deployment of AI models. This overview examines the existing literature in the field of XAI, including a prospect toward what is yet to be reached. We summarize previous efforts to define explainability in Machine Learning, establishing a novel definition that covers prior conceptual propositions with a major focus on the audience for which explainability is sought. We then propose and discuss about a taxonomy of recent contributions related to the explainability of different Machine Learning models, including those aimed at Deep Learning methods for which a second taxonomy is built. This literature analysis serves as the background for a series of challenges faced by XAI, such as the crossroads between data fusion and explainability. Our prospects lead toward the concept of Responsible Artificial Intelligence, namely, a methodology for the large-scale implementation of AI methods in real organizations with fairness, model explainability and accountability at its core. Our ultimate goal is to provide newcomers to XAI with a reference material in order to stimulate future research advances, but also to encourage experts and professionals from other disciplines to embrace the benefits of AI in their activity sectors, without any prior bias for its lack of interpretability.