隨著自動機器學習(AutoML)系統在復雜性和性能方面的不斷進步,了解這些框架內人機交互(HCI)的 "方式"和"原因"變得非常重要,包括當前和預期。這樣的討論對于優化系統設計、利用先進的數據處理能力來支持涉及人類的決策是必要的,但它也是確定不斷提高的機器自主性所帶來的機會和風險的關鍵。在此背景下,我們關注以下問題:(i) 對于最先進的AutoML算法,特別是在開發、部署和維護階段,人機交互目前是怎樣的?(ii) 不同類型的用戶和利益相關者對AutoML框架內的人機交互的期望是否不同?(iii) 如何管理人機交互以使AutoML解決方案獲得人類的信任和廣泛接受?(iv) 隨著AutoML系統變得更加自主并能夠從復雜的開放式環境中學習,人機交互的基本性質是否會發生變化?為了考慮這些問題,我們將人機交互的現有文獻投射到AutoML的空間中;到目前為止,這種聯系在很大程度上還沒有被探索過。在此過程中,我們回顧了包括用戶界面設計、減少人類偏見和人工智能(AI)的信任等主題。此外,為了嚴格衡量人機交互的未來,我們思考了AutoML如何在有效的開放式環境中表現出來。這場討論必然會回顧AutoML的預計發展路徑,例如推理的融入,盡管重點仍然是人機交互如何以及為什么會在這樣一個框架中發生,而不是任何實施細節。最終,這一回顧有助于確定關鍵的研究方向,以更好地促進人類與當前和未來的AutoML系統的互動作用和模式。
關鍵詞:人機交互, 自動機器學習(AutoML), 自主機器學習(AutonoML), 人類交互的角色和模式, 機器學習工作流程, 公平性, 可解釋性, 用戶界面, 用戶體驗, 利益相關者, 推理, 封閉世界的AutonoML系統, 開放世界的AutonoML系統, 數據驅動的機器學習, 知識驅動的機器學習, 工業4.0, 工業5.0
自20世紀50年代以來,人們對機器學習(ML)的廣泛興趣一直在起伏,但近年來可以說見證了該領域歷史上的一個新階段:主流社會對技術的吸收和參與達到了前所未有的水平。從模因的深度偽造到商業的推薦系統,ML已經成為更廣泛社會中的一個固定項目。不過,從純學術范圍內的持續過渡并不順利,這并不令人驚訝;一般公眾并不具備充分開發ML能力所需的數據科學方面的廣泛專業知識。
大眾化的理想解決方案是使ML的應用有選擇地獨立于人類的參與。這是自動/自主機器學習(AutoML/AutonoML)的主要目標,這項工作盡管有豐富的多方面的歷史[148],但只是在過去十年中才真正起飛。通過應用于模型選擇的重大優化進展[251, 284, 291],AutoML的范圍已經擴大到ML應用的所有方面的自動化。事實上,只要有意愿和方法,ML系統似乎不可避免地會越來越接近自主化。
截至2020年代初,圍繞著一般ML[148]和深度學習(DL)[70]自動化操作的機制和集成系統,已經寫了很多;后者的機械化主題被縮寫為AutoDL。這些討論大多注重"自動化"的概念,與計算機如何自己做出高級決策的挑戰作斗爭。然而,有一個重要的話題卻沒有得到充分的探討:人類是如何融入其中的?這是需要考慮的關鍵,因為無論其自主功能的能力發展到什么程度,AutoML系統的目的都是為了支持人類決策。因此,也許是反直覺的,互動不能是事后的考慮[6]。
即使學術界關注模型的準確性和算法的效率,如果系統不歡迎和利用人類的可選輸入,也不能被認為是最佳的。此外,在學術界之外,"高性能 "ML的概念變得更加復雜和以用戶為中心[258];最有前途的算法和架構可能是那些能夠靈活地定制輸出以滿足非常廣泛的要求的算法和架構。然后是關于ML系統應該被賦予多大的自主權的爭論。雖然人與系統的關系最終可能成為一種合作關系[311],但人類不可能放棄監督[81]。許多研究人員也表達了類似的觀點,指出人類的經驗是不可或缺的,不能指望人工智能以社會責任的方式自主運作[319]。由于這眾多的原因,對AutoML的整體理解需要對人機交互(HCI)進行相關研究。
這是一個豐富的話題;人類與AutoML互動的性質,無論是角色還是模式,都已經發生了變化,并將繼續隨著該領域的發展而發生變化。作為對這些發展的類比,考慮一下人工智能(AI)在國際象棋方面的歷史。在20世紀60年代末,Mac Hack成為第一個在人類比賽中下棋的國際象棋程序,甚至在比賽中取得了勝利[109]。Mac Hack是自動化的,但嚴重依賴領域知識--它包含了大約50個基于專家的啟發式方法--并且幾乎沒有對人類在國際象棋中的主導地位構成威脅,它可以被比作2010年代之前開發的原版AutoML模型推薦系統[259, 304]:在當時是新穎和令人印象深刻的,但有很大的局限。但最終,到1997年,計算資源的擴展和算法技術的進步使一臺被稱為 "深藍 "的國際象棋計算機擊敗了衛冕世界冠軍[45]。正如2010年代新一輪的超參數優化AutoML系統[251, 284, 291]一樣,深藍預示著一個時代,在執行特定任務方面,計算機的能力將遠遠超過人類。
值得注意的是,即使在1997年著名的比賽中,深藍也遠非自主,它利用了人類規定的開局和殘局元知識數據庫,同時也由大師們在比賽之間手動調整。只有在2017年,隨著AlphaZero[329]的首次發布,人類的輸入幾乎完全被移除,人工智能系統自主地學習通過自我發揮在國際象棋中支配人類。事實上,最新一代基于國際象棋的人工智能已經開始將人類的角色從導師轉變為學生,例如,人工智能的 "h-卒推力 "傾向讓高水平棋手陷入了思考[198]。AutoML領域還沒有達到同樣的自主水平,但還是值得一問:這就是未來要計劃的互動狀態嗎?AutoML最終會不會在如何解決一個ML任務方面產生比它目前收到的更多的洞察力?
圖 1. 機器學習 (ML) 工作流程的一般示意圖,即為 ML 應用程序生成和維護 ML 模型所涉及的操作。
對AutoML中的人機交互的全面概述,包括當前的和未來的,都需要仔細組織。例如,人類對ML應用的參與可以分為兩類:生產性和消費性。后者指的是終端用戶如何參與并受益于一個ML模型,而前者則與這樣一個模型的產生有關。這些 "生產性"實踐可以以多種方式編入 "ML工作流程"[53, 280],但圖1對其中一個特定的表述[70, 148, 258]進行了說明。
在ML工作流程的描述中,很明顯,在開發、部署和維護ML模型時,有幾個階段的操作。其中,模型開發階段在AutoML學術研究中受到最多關注,特別是在DL和神經結構搜索(NAS)的情況下[70],但也有許多自動化努力應用于典型的ML工作流程的其余部分。事實上,持續監測性能和適應數據環境的動態變化的能力先前已被強調為AutoML和AutonoML之間過渡的關鍵先決條件[148]。與此相關,存在許多支持在線學習的理論建議[162],并且最近在學術界進行了使AutoML系統 "持久化 "的初步實驗研究[14, 51]。同時,在工業界,"MLOps "的新興趨勢反映了自動部署對現實世界需求的重要性[258]。從本質上講,任何有興趣設計一個全面的AutoML/AutonoML系統的開發者都必須了解每一個工作流程階段的特異性,例如,人類輸入/指導的相關格式,基準操作的最低要求,額外的人類輔助學習的可能機會,等等。
另外,與其在AutoML中以交互發生的時間來劃分人機交互,有時考慮誰在進行交互更有意義。這種觀點在商業和工業中尤其自然[258],在那里,除了消費ML模型輸出的終端用戶,通常還有許多與模型生產相關的利益相關者。這些人可能包括數據科學家或軟件開發人員形式的技術人員,項目經理或領域專家形式的業務人員,第三方審計師或政府機構形式的監管團體,等等。
重要的是,不同利益相關者的義務和利益通常不能映射到圖1中描述的ML工作流程的各個階段。此外,他們的互動模式也可能有很大的不同。一些角色要求對AutoML過程進行精細控制,而另一些角色則只需要一個輸入的入口點。有些角色希望有一個了解相關機制的窗口,而另一些角色只希望在出錯時得到提醒。不管是什么情況,這些要求必須在算法和架構的基本層面上加以考慮。在系統設計過程中,僅僅關注預測器的準確性和效率,而只是通過匆忙的修補來滿足任何剩余的現實世界的期望,這并不是最佳選擇。
最重要的是,值得強調的是,"用戶 "的概念是AutoML的利益相關者觀點所固有的。對于那些只對改善ML算法的統計理論感興趣的人來說,這似乎是一個不必要的干擾,但這種態度忽略了ML運作的更大的生態系統:人類決策。例如,人類可能愿意容忍不喜歡40%的人工智能推薦的音樂,而人工智能推薦的定罪的20%的假陽性率可以說是糟糕透頂。簡單地說,人類環境比任何不可知的準確性指標更重要。因此,成功地將ML模型的性能轉化為現實世界的結果取決于一系列與參與有關的要求[12, 73, 76, 256, 264],我們在此將其捆綁在 "用戶體驗"(UX)標題下。這包括最近擴散到圍繞ML和AutoML的學術討論中的話題,如可及性、透明度、公平性、可靠性等等[319]。
因此,用戶交互(UI)的概念--實現不需要是單一的--在利益相關者的視角下對AutoML變得特別重要,因為這是可以最直接管理UX的地方。事實上,設計智能用戶界面對于支持人類引導的AutoML至關重要[105, 168],其中技術用戶可能作為一種理想,調整問題設置,探索數據特征,限制模型搜索空間等。這些互動也可能被其發生的方式所限制或促進,例如通過觸摸屏、語音命令、手勢識別,甚至是大腦信號[320]。簡而言之,圍繞接口的概念進行更多的討論將對AutoML領域大有裨益,這樣,除了簡單地實現對ML操作的控制外,用戶既可以注入領域知識,又可以輕松地提取可理解的信息。
談到影響用戶體驗的因素,可解釋性在列表中名列前茅。這對AutoML來說尤其是一個挑戰,因為自動化的核心原則是將人類與某些操作脫鉤。因此,花費研究精力使這些過程透明化,從而鼓勵人類重新參與,似乎是一種浪費,甚至是反作用。當然,目前許多AutoML工具都是堅定的黑箱系統[319],掩蓋了ML模型是如何建立的,以及預測/說明性輸出是如何產生的。但這里有一個細微的差別;AutoML的目的是要消除人類參與的必要性,而不是選擇。因此,如果用戶不能理解如何正確地插入對ML任務有益的領域知識,那么技術上的模糊性實際上會阻礙ML的性能[180]。這在目前的時間點上尤其是一個缺點,因為人在回路中的學習仍然常常比以機器為中心的ML更有優勢[285]。
無論如何,即使AutoML系統是完全自主的,其內部不受人類影響,可解釋性也是促進信任的必要條件[187]。調查顯示,如果沒有透明和可理解的機制,數據科學家往往對AutoML工具提供的ML模型持懷疑態度[73]。同樣地,如果系統能夠顯示其背后的推理,終端用戶才會遵循ML建議[302]。人們對使用他們無法理解或解釋的結果的這種緘默,對于簡單的商業應用來說可能是令人沮喪的,但在高風險的情況下,這完全是有道理的[244],包括醫療診斷、金融投資和刑事司法。否則可能是災難性的。例如,COMPAS累犯預測模型[66]、谷歌在2018年加州野火期間使用的BreezoMeter實時空氣質量預測模型[192],以及一般的黑盒醫療診斷模型[74],都與不良后果有關。
另一個影響用戶體驗的因素是公平性,即使是在利益相關者沒有直接意識到他們在 "使用 "ML的結果時也是如此。這一社會意識的要求最近被學術研究作為一個重要的問題[50, 193, 326],表明ML在多大程度上嵌入了主流,并認識到預測/說明的準確性和錯誤可能以不同的方式不成比例地影響不同的人。現在,當然,已經有努力將發現和防止ML模型中的歧視的機制自動化[116],但挑戰是有許多可能的公平的技術定義,往往是正交的,有時是矛盾的[254, 307]。再一次,人的背景很重要。因此,如何將人類的監督最好地整合到AutoML系統中,對機械化的過程執行道德要求,是一個開放的問題。
當然,雖然每個ML算法都會應用自己的假設,但許多 "不公平 "的偏見往往來自于生物神經元,即人類的大腦。這些可以通過數據和知識注入到學習系統中,表現在信息內容和采樣方面。因此,人類的認知偏差如果被內化,就會導致模型的可靠性下降,而且有許多引人注目的例子[131, 327]。這些影響的嚴重程度也會因環境而異。醫療保健就是一個高風險環境的例子,臨床實踐中的認知偏差會對醫療結果產生很大影響[228, 253]。事實上,預測系統的類似缺陷已被證明阻礙了社會少數群體接受額外的護理服務[214]。因此,當務之急是更徹底地考慮AutoML內偏見緩解策略的性質和實施。
從根本上說,所有這些討論的重點是,鑒于一個合適的概念框架,如ML操作的雙重工作流程/利益相關者的角度,有可能參與許多與人機交互相關的問題,這些問題如果不解決,將阻礙AutoML迄今為止的快速進展。此外,這種系統化的方法不僅僅是澄清AutoML中人機交互的現狀;它提供了一個鏡頭,通過它可以預測ML中這一趨勢的未來。這并不意味著推測人機交互相關機制的詳細實現,而是理解人類與系統互動的預計演變,特別是當算法和架構在其工作中變得更好。因此,前面提到的國際象棋的比喻仍然有助于說明這一進展,因為AutoML系統沿著自主性的頻譜進一步轉移[270]。
然而,再猜想一下還是很有價值的。AlphaGo[267]和AlphaZero[268]在他們各自的游戲中都非常有能力,但他們仍然在特定的環境中受到限制。一個相當的AutoML系統基本上可以自主地完成圖1中ML工作流程的每一個階段,除了一個例外:問題制定和上下文理解。這樣的限制并不意外,因為這個階段可能是ML中必要的人類參與的最后堡壘。不幸的是,它確實阻礙了許多人工智能的應用。例如,在自動駕駛汽車領域存在大量的研究和開發[122, 167],然而,在不可預測的和有效的無邊界的駕駛環境中操作的挑戰,到目前為止仍然是令人生畏的[119]。盡管如此,如果不深入到人工通用智能領域,這些限制最終會放松。新穎的MuZero系統[257]已經體現了一種新興的強化學習方法,它可以無意識地應用于具有不同規則的各種游戲,從第一原理中自主地建立合格的模型。在理論上,認知模型最終可能會進一步增強這一過程,使ML系統能夠通過實際理解上下文,而不是直接忽略它,有效地將知識從一個問題轉移到另一個問題。因此,當AutoML真正成為AutonoML,然后開始放松到開放世界的學習時:人與系統的互動將再次改變?
正如現在所看到的,在AutoML和人機交互的重疊部分有許多重要的問題需要考慮。這篇評論討論了這些話題,標志著一系列致力于系統性和概念性概述AutoML的專著的最后部分[70, 148, 258]。具體來說,由于該系列以前集中于計算機如何在沒有人類的情況下執行ML/DL[70, 148],這項工作旨在將AutoML/AutonoML重新納入人類決策的生態系統中。事實上,由于ML在現實世界中不是在真空中運行的,這種相互聯系的一些有機產生的后果已經被本系列中的前一個技術調查[258]所捕獲。然而,這篇評論在以下問題的驅動下,更深入地探討了AutoML中人機交互的基本原理。
目前最先進的AutoML算法的人機交互是怎樣的,特別是在開發、部署和維護階段?
不同類型的用戶和利益相關者對AutoML框架內的人機交互的期望是否不同?
如何管理人機交互,以使AutoML解決方案獲得人類的信任和廣泛接受?
隨著AutoML系統變得更加自主并能夠從復雜的開放式環境中學習,人機交互的基本性質是否會發生變化?
為了更好地解決這些問題,本專著的其余部分結構如下。
第2節研究了人機交互和截至2020年代初的最先進的AutoML。它是在AutoML的工作流程/利益相關者的觀點方面,在這些觀點被首次系統化之后進行的。此外,還調查了現代UI的方法和當前圍繞用戶體驗的關注,例如在可解釋性和公平性方面。
第3節推斷了AutoML的進展,即相關系統在所有高級別的ML操作中都能有效地自主,但不包括問題制定和上下文理解。我們考慮了人機交互在真正的高性能AutonoML方面的演變,盡管僅限于受限的環境。
第4節通過推動這一限制,放寬限制并考慮開放式環境中的ML。為了固定這樣一個場景,我們調查并討論了在ML系統中納入 "推理 "的現代理論。隨后,關于這些升級形式的AutonoML系統的人機交互性質的變化被理論化了。
第5節提出了一個綜合的討論,確定了現有的問題和潛在的研究方向,這些問題可能會阻礙或促進人機交互和AutoML的成功互動,無論是現在還是將來。
最后,第6節總結了這一回顧,總結了圍繞人類與AutoML/AutonoML系統互動的角色和模式的主要發現和觀點。
圖2. 描述 ML 工作流各個階段人機交互的角色和模式
圖6. 迭代式可解釋ML框架的示意圖,旨在理解、診斷和完善ML模型[274]。每個 "解釋者 "對象,擁有五個屬性,接受一個或多個模型狀態和數據特征作為輸入,然后部署解釋方法以產生解釋或過渡函數作為輸出。該框架還包括全局監控/指導機制,列在長青色塊中,用于管理解釋器。
圖 9. 人類自主系統監督 (HASO) 模型 [81]。該范式呈現了在與自主系統交互期間影響人類認知過程的主要系統設計特征,例如檢查、干預和一般互動。
信任已經成為人類與人工智能系統互動的一個關鍵因素。然而,人們對什么樣的信任模式和什么樣的系統知之甚少:機器人、虛擬人物、智能車輛、決策輔助工具或其他。此外,目前還沒有已知的標準方法來衡量人工智能的信任。本綜述從模型、措施和方法的角度對人與人工智能交互(HAII)中的信任狀況進行了描述。研究結果表明,信任是HAII背景下一個重要的、多方面的研究課題。然而,大多數工作的理論化程度不高,報告也不充分,一般不使用既定的信任模型,也缺少方法的細節。我們為系統性審查工作提供了幾個目標,并結合當前文獻的優點和解決其缺點提供了研究議程。
人工智能被定義為 "制造智能機器,特別是智能計算機程序的科學和工程"[34:2]。對于什么是人或機器 "智能",人們有不同的理解[53]。它可能被描述為未來式的、類似人類的,也可能被描述為理性的,像現在的人工智能[25]。人工智能系統正變得無處不在,越來越多地被非專業人士使用和認可。常見的例子包括蘋果公司的虛擬助理和互聯網搜索引擎Siri,一個用于智能手機和其他使用iOS操作系統設備的語音問答應用程序,以及軟銀的人形機器人Pepper,最近已經退役,但被確立為店面形象和研究工具。這些基于人工智能的現代技術建立在智能系統的基礎上,旨在支持人類的工作,特別是控制系統的自動化[21,27]。此外,它們在體現形式上也越來越社會化[14,17,47]。Siri是對話式的(盡管范圍有限),Pepper努力與人進行眼神交流,并閱讀與之互動的人的情緒。他們的前輩和智能表親--飛機和車輛可能就不是這樣了。然而,在所有情況下,人們都在與一臺具有某種可感知智能的機器互動。我們還可以認識到一個與這種模擬智能相關的持久模式:卸載人類勞動,特別是認知過程,以及代替人類提供這種勞動的系統,這些概念交織在一起。隨著這些注入人工智能的系統繼續被公眾和專家所接受,我們非常有必要評估其中的基本人類因素。
信任被認為是人與人之間,以及人與機器之間人際關系的一個重要因素。來自不同學科的研究人員已經研究了信任在調解個人之間、個人與組織之間、甚至組織之間關系中的作用[27]。但是,信任的重要性并不限于人與人之間的互動;它也被強調為人與計算機[32,46,48]、人與機器人[9,19,39,45]以及人與自動化[21,27,36]之間的關鍵因素。最近關于人們與人工智能技術互動的工作表明,信任需要更多關注。例如,一項調查發現,許多人對基于人工智能的技術有負面印象,48%的美國人表示他們永遠不會坐上自動駕駛汽車[50]。日本的一項研究表明,平均而言,超過57%的人對在工作場所與人工智能合作感到不舒服[35]。這種對人工智能的猶豫不決可能有多種來源。一個可能是人工智能的獨特性質。機器學習(ML)是當前人工智能技術的核心,由算法和數據訓練組成:這種黑盒式的、不透明的狀態導致了對可解釋人工智能或XAI的呼吁[5]。此外,ML可能涉及到用新的數據進行重新學習,并不總是從相同的輸入產生相同的輸出。具備 "思想 "的人工智能可以像人的思想一樣不可知和不可預測,這使得與人工智能注入的系統的互動成為信任的問題。事實上,從早期開始,信任就是人工智能相關會議的一個重要主題,尤其是最近,它已經成為人與人工智能互動(HAII)研究中的一個關鍵詞[3]。
研究人員的高度興趣導致了一個新興的、多樣化的工作體系。然而,人們對信任的定義、理論和模型的使用以及對人工智能系統的使用知之甚少。最近的文獻綜述已經開始追蹤這些工作[16,52]。Glikson和Woolley[16]回顧了關于所有形式人工智能中信任的實證研究,研究了構成人類對人工智能信任的因素,但沒有研究如何評估這些因素。Vereschak等人[52]專注于人工智能決策支持的背景,回顧了研究人類和人工智能之間信任的方法并提供了實用指南。現在缺少的是一個普遍的觀點,包括模型和措施,而不考慮系統類型和背景。此外,我們還不知道有什么標準方法可以在人們與這些人工智能系統互動時衡量信任。到目前為止,還不清楚如何在HAII的背景下定義信任或衡量它。
現在迫切需要的是一張迄今為止HAII研究進展圖譜,以澄清 "信任 "的含義,發現已經使用的模型(如果有的話),并確定如何評估信任。為此,我們對HAII文獻中的信任進行了范圍審查,從最早的例子到現在,涵蓋了一系列廣泛的人工智能注入的系統。我們問:
這項工作的主要貢獻有三個方面。首先,我們全面總結了在HAII背景下如何將信任概念化和測量的技術現狀。為此,我們對定義、模型和措施進行了嚴格的分析。特別是,我們確定了兩個在以前的評論中沒有涉及的重要問題:實證研究通常沒有使用既定的信任模型;對人工智能系統有影響的常見評價方法--Wizard of Oz,似乎報告不足。其次,我們確定了一份系統回顧工作的目標清單。最后,我們為實證工作提出了幾個目標。我們的目的是為未來涉及系統回顧和實證研究的工作打下基礎。
在過去十年中,自動駕駛在研發方面取得了重大的里程碑。人們有興趣在道路上部署自行操作車輛,這預示著交通系統將更加安全和生態友好。隨著計算能力強大的人工智能(AI)技術的興起,自動駕駛車輛可以高精度地感知環境,做出安全的實時決策,在沒有人為干預的情況下運行更加可靠。
然而,在目前的技術水平下,自動駕駛汽車中的智能決策通常不為人類所理解,這種缺陷阻礙了這項技術被社會接受。因此,除了做出安全的實時決策外,自動駕駛汽車的AI系統還需要解釋這些決策是如何構建的,以便在多個政府管轄區內符合監管要求。
該研究為開發自動駕駛車輛的可解釋人工智能(XAI)方法提供了全面的信息。首先,全面概述了目前最先進的自動駕駛汽車行業在可解釋方面存在的差距。然后,展示該領域中可解釋和可解釋受眾的分類。第三,提出了一個端到端自動駕駛系統體系結構的框架,并論證了XAI在調試和調控此類系統中的作用。最后,作為未來的研究方向,提供自主駕駛XAI方法的實地指南,提高操作安全性和透明度,公開獲得監管機構、制造商和所有密切參與者的批準。
題目
A Survey on Large-scale Machine :大規模機器學習綜述
關鍵詞
機器學習,綜述調查
摘要
機器學習可以提供對數據的深刻見解,從而使機器能夠做出高質量的預測,并已廣泛用于諸如文本挖掘,視覺分類和推薦系統之類的實際應用中。 但是,大多數復雜的機器學習方法在處理大規模數據時會耗費大量時間。 這個問題需要大規模機器學習(LML),其目的是從具有可比性能的大數據中學習模式。 在本文中,我們對現有的LML方法進行了系統的調查,為該領域的未來發展提供了藍圖。 我們首先根據提高可伸縮性的方式來劃分這些LML方法:1)簡化計算復雜度的模型,2)優化計算效率的近似值,以及3)提高計算的并行性。 然后,根據目標場景對每種方法進行分類,并根據內在策略介紹代表性方法。最后,我們分析其局限性并討論潛在的方向以及未來有望解決的開放問題。
簡介
機器學習使機器能夠從數據中學習模式,從而無需手動發現和編碼模式。 盡管如此,相對于訓練實例或模型參數的數量,許多有效的機器學習方法都面臨二次時間復雜性[70]。 近年來,隨著數據規模的迅速增長[207],這些機器學習方法變得不堪重負,難以為現實應用服務。 為了開發大數據的金礦,因此提出了大規模機器學習(LML)。 它旨在解決可用計算資源上的常規機器學習任務,特別著重于處理大規模數據。 LML可以以幾乎線性(甚至更低)的時間復雜度處理任務,同時獲得可比的精度。 因此,它已成為可操作的見解的大數據分析的核心。 例如,Waymo和Tesla Autopilot等自動駕駛汽車在計算機視覺中應用了卷積網絡,以實時圖像感知周圍環境[115]; 諸如Netflix和Amazon之類的在線媒體和電子商務站點從用戶歷史到產品推薦都建立了有效的協作過濾模型[18]。總而言之,LML在我們的日常生活中一直扮演著至關重要的和不可或缺的角色。
鑒于對從大數據中學習的需求不斷增長,對此領域的系統調查變得非常科學和實用。 盡管在大數據分析領域已經發表了一些調查報告[12],[33],[54],[193],但它們在以下方面還不夠全面。 首先,它們大多數只專注于LML的一個觀點,而忽略了互補性。它限制了它們在該領域的價值,并無法促進未來的發展。例如,[12]專注于預測模型而沒有發現優化問題,[33]在忽略并行化的同時回顧了隨機優化算法,[193]僅關注了 大數據處理系統,并討論系統支持的機器學習方法。 其次,大多數調查要么失去對所審查方法的洞察力,要么忽視了最新的高質量文獻。 例如,[12]缺乏討論模型的計算復雜性的討論,[33]忽略了處理高維數據的優化算法,[120]將其研究限于Hadoop生態系統中的分布式數據分析。 從計算角度回顧了200多篇Paperson LML,并進行了更深入的分析,并討論了未來的研究方向。 我們為從業者提供查找表,以根據他們的需求和資源選擇預測模型,優化算法和處理系統。 此外,我們為研究人員提供了有關當前策略的見解,以更有效地開發下一代LML的指南。
我們將貢獻總結如下。 首先,我們根據三個計算角度對LML進行了全面概述。 具體來說,它包括:1)模型簡化,通過簡化預測模型來降低計算復雜性; 2)優化近似,通過設計更好的優化算法來提高計算效率; 3)計算并行性,通過調度多個計算設備來提高計算能力。其次,我們對現有的LML方法進行了深入的分析。 為此,我們根據目標場景將每個角度的方法劃分為更精細的類別。 我們分析了它們促進機器學習過程的動機和內在策略。 然后,我們介紹了具有代表性的成就的特征。此外,我們還回顧了混合方法,這些方法共同改善了協同效應的多個視角。 第三,我們從各個角度分析了LML方法的局限性,并根據其擴展提出了潛在的發展方向。 此外,我們討論了有關LML未來發展的一些相關問題。
本文的結構如下。 我們首先在第2節中介紹了機器學習的一般框架,然后對其有效性和效率進行了高層次的討論。在第3節中,我們全面回顧了最新的LML方法并深入了解了它們的好處和優勢。 局限性。 最后,在第5節結束本文之前,我們討論了解決第4節中的局限性和其他有希望的未解決問題的未來方向。
【導讀】元學習旨在學會學習,是當下研究熱點之一。最近來自愛丁堡大學的學者發布了關于元學習最新綜述論文《Meta-Learning in Neural Networks: A Survey》,值得關注,詳述了元學習體系,包括定義、方法、應用、挑戰,成為不可缺少的文獻。
近年來,元學習領域,或者說“學會學習的學習”,引起了人們極大的興趣。與傳統的人工智能方法(使用固定的學習算法從頭開始解決給定的任務)不同,元學習的目的是改進學習算法本身,考慮到多次學習的經驗。這個范例提供了一個機會來解決深度學習的許多傳統挑戰,包括數據和計算瓶頸,以及泛化的基本問題。在這項綜述中,我們描述了當代元學習的景觀。我們首先討論元學習的定義,并將其定位于相關領域,如遷移學習、多任務學習和超參數優化。然后,我們提出了一個新的分類法,對元學習方法的空間進行了更全面的細分。我們綜述了元學習的一些有前途的應用和成功案例,包括小樣本學習、強化學習和體系架構搜索。最后,我們討論了突出的挑戰和未來研究的有希望的領域。
概述
現代機器學習模型通常是使用手工設計的固定學習算法,針對特定任務從零開始進行訓練。基于深度學習的方法在許多領域都取得了巨大的成功[1,2,3]。但是有明顯的局限性[4]。例如,成功主要是在可以收集或模擬大量數據的領域,以及在可以使用大量計算資源的領域。這排除了許多數據本質上是稀有或昂貴的[5],或者計算資源不可用的應用程序[6,7]。
元學習提供了另一種范式,機器學習模型可以在多個學習階段獲得經驗——通常覆蓋相關任務的分布——并使用這些經驗來改進未來的學習性能。這種“學會學習”[8]可以帶來各種好處,如數據和計算效率,它更適合人類和動物的學習[9],其中學習策略在一生和進化時間尺度上都得到改善[10,9,11]。機器學習在歷史上是建立在手工設計的特征上的模型,而特征的選擇往往是最終模型性能的決定因素[12,13,14]。深度學習實現了聯合特征和模型學習的承諾[15,16],為許多任務提供了巨大的性能改進[1,3]。神經網絡中的元學習可以看作是集成聯合特征、模型和算法學習的下一步。神經網絡元學習有著悠久的歷史[17,18,8]。然而,它作為推動當代深度學習行業前沿的潛力,導致了最近研究的爆炸性增長。特別是,元學習有可能緩解當代深度學習[4]的許多主要批評,例如,通過提供更好的數據效率,利用先驗知識轉移,以及支持無監督和自主學習。成功的應用領域包括:小樣本圖像識別[19,20]、無監督學習[21]、數據高效[22,23]、自導向[24]強化學習(RL)、超參數優化[25]和神經結構搜索(NAS)[26, 27, 28]。
在文獻中可以找到許多關于元學習的不同觀點。特別是由于不同的社區對這個術語的使用略有不同,所以很難定義它。與我們[29]相關的觀點認為,元學習是管理“沒有免費午餐”定理[30]的工具,并通過搜索最適合給定問題或問題族的算法(歸納偏差)來改進泛化。然而,從廣義上來說,這個定義可以包括遷移、多任務、特征選擇和模型集成學習,這些在今天通常不被認為是元學習。另一個關于元學習[31]的觀點廣泛地涵蓋了基于數據集特性的算法選擇和配置技術,并且很難與自動機器學習(AutoML)[32]區分開來。在這篇論文中,我們關注當代的神經網絡元學習。我們將其理解為算法或歸納偏差搜索,但重點是通過端到端學習明確定義的目標函數(如交叉熵損失、準確性或速度)來實現的。
因此,本文提供了一個獨特的,及時的,最新的調查神經網絡元學習領域的快速增長。相比之下,在這個快速發展的領域,以往的研究已經相當過時,或者關注于數據挖掘[29、33、34、35、36、37、31]、自動[32]的算法選擇,或者元學習的特定應用,如小樣本學習[38]或神經架構搜索[39]。
我們討論元學習方法和應用。特別是,我們首先提供了一個高層次的問題形式化,它可以用來理解和定位最近的工作。然后,我們在元表示、元目標和元優化器方面提供了一種新的方法分類。我們調查了幾個流行和新興的應用領域,包括少鏡頭、強化學習和架構搜索;并對相關的話題如遷移學習、多任務學習和自動學習進行元學習定位。最后,我們討論了尚未解決的挑戰和未來研究的領域。
未來挑戰:
-元泛化 元學習在不同任務之間面臨著泛化的挑戰,這與傳統機器學習中在不同實例之間進行泛化的挑戰類似。
總結
元學習領域最近出現了快速增長的興趣。這帶來了一定程度的混亂,比如它如何與鄰近的字段相關聯,它可以應用到什么地方,以及如何對它進行基準測試。在這次綜述中,我們試圖通過從方法學的角度對這一領域進行徹底的調查來澄清這些問題——我們將其分為元表示、元優化器和元目標的分類;從應用的角度來看。我們希望這項調查將有助于新人和實踐者在這個不斷增長的領域中定位自己,并強調未來研究的機會。
AutoML: A Survey of the State-of-the-Art
深度學習已經滲透到我們生活的方方面面,給我們帶來了極大的便利。然而,針對某一特定任務構建高質量的深度學習系統的過程不僅耗時,而且需要大量的資源和人力,阻礙了深度學習在產業界和學術界的發展。為了緩解這一問題,越來越多的研究項目關注于自動化機器學習(AutoML)。在本文中,我們提供了一個全面的和最新的研究,在最先進的汽車。首先,根據機器學習的特點,詳細介紹了自動化技術。在此基礎上,總結了神經結構搜索(NAS)的研究現狀,這是目前自動化領域研究的熱點之一。我們還將NAS算法生成的模型與人工設計的模型進行了比較。最后,提出了有待進一步研究的幾個問題。
可解釋推薦嘗試開發模型,不僅生成高質量的推薦,而且生成直觀的解釋。解釋可以是事后的,也可以直接來自可解釋的模型(在某些上下文中也稱為可解釋的或透明的模型)。可解釋推薦嘗試解決為什么的問題:通過向用戶或系統設計者提供解釋,它幫助人們理解為什么算法推薦某些項目,而人既可以是用戶,也可以是系統設計者。可解釋推薦有助于提高推薦系統的透明度、說服力、有效性、可信度和滿意度。
在這次調查中,我們回顧了在2019年或之前可解釋的建議的工作。我們首先通過將推薦問題劃分為5W來強調可解釋推薦在推薦系統研究中的地位。什么,什么時候,誰,在哪里,為什么。然后,我們從三個角度對可解釋推薦進行了全面的調查:1)我們提供了可解釋推薦的研究時間軸,包括早期的用戶研究方法和最近的基于模型的方法。2)我們提供了一個二維分類法來對現有的可解釋推薦研究進行分類:一個維度是解釋的信息源(或顯示樣式),另一個維度是生成可解釋推薦的算法機制。3)我們總結了可解釋推薦如何應用于不同的推薦任務,如產品推薦、社交推薦和POI推薦。我們還專門用一節來討論更廣泛的IR和AI/ML研究中的解釋視角。最后,我們討論了未來可解釋推薦研究領域的發展方向。