頭部AI大模型將電力領域作為重點垂直領域。1)華為:盤古CV大模型將電力作為重點領域之一,在無人機智能電力巡檢方面取得了較好成績,模型開發維護成本降低90%;與中科院自動化所合作即將發布的智能決策大模型,在出力預測、電網智能調度方面也有突破。2)阿里:通義千問大模型也將電力作為首批應用場景之一。4月26日阿里云宣布啟動“通義千問伙伴計劃”,優先為千問伙伴提供大模型領域的技術、服務與產品支持,首批將推動“通義千問”大模型在電力等7個不同行業的落地應用,共同打造產業生態。3)百度:百度和國網研發了國網-百度·文心大模型,基于通用文心大模型,在海量數據中挖掘了電力行業數據,引入電力業務積累的樣本數據和特有知識,并且在訓練中結合雙方在預訓練算法和電力領域業務與算法的經驗,設計電預訓練任務,讓文心大模型深入學習電力專業知識。
AI對新型電力系統的發展具有重要意義。AI對于新型電力系統的發展具有重要意義。根據《新型電力系統發展藍皮書》,建設新型電力系統的重點任務之一是加強電力系統智慧化運行體系建設。電力與AI的結合可以分為以下幾個方面:1)電網調控領域:AI能夠提高電網運行特性認知水平、提高調度控制效率、提高計劃交易自動化水平、提高運行管理智能化、提高人工智能應用基礎支撐能力。2)電力設備管理領域:AI能夠設備缺陷識別、設備運行狀態預測、設備運行狀態預測、設備健康知識管理等。3)新型電力系統新能源功率預測領域:在線自適應學習、小樣本機器學習等技術對預測產生重要作用。4)新型電力系統大數據領域:電網大數據整合、電網大數據智能搜索、數據標注等發揮重要作用。5)電網智能營銷領域:AI賦能用電數據分析、智能客服等細分領域。6)電網智能供應鏈領域:AI可以助力物資采購、智能倉儲、智能物流等環節。
隨著5G商用部署后極大地改變著人們的生活,在生產領域,如何將5G技術落地并賦能工業企業,是工業各界期待的話題。作為全球能源管理與自動化領域數字化轉型專家,施耐德電氣在推動工業企業數字化轉型上有著豐富實踐與深厚累積。而華為在5G的技術研究、網絡部署與商用實踐方面也擁有深厚的積累和豐富的經驗。
雙方此次聯合發布的《5G和5G演進:工業控制應用場景白皮書》中,甄選出5G在工業控制領域中應用的“10個典型”場景,涵蓋工業智能制造、起重制造、市政水務、倉儲物流等諸多領域。基于工業控制領域趨勢,將這十個場景分為五大類:離散制造行業的柔性生產、起重運輸的少人化無人化控制、運動控制場景的無線化、OT和IT網絡融合以及廣域工業控制系統的無線物聯,并針對每個應用場景的行業趨勢、典型應用場景、技術要求及挑戰以及應用5G的驅動力四個方面給出了解讀
NLP自然語言處理在高德各個業務線發揮重要作用,例如動態事件命名實時識別,搜索場景用戶語義理解,共享出行通話文本自動判責等。
而NLP領域近期最重要的進展當屬預訓練模型,Google發布的BERT預訓練語言模型一經推出就霸占了NLP各大榜單,提升了諸多 NLP 任務的性能,在11種不同NLP測試中創出最佳成績,預訓練模型成為自然語言理解主要趨勢之一。
預訓練模型通常包括兩個階段: 第一階段是在大型語料庫根據給定上下文預測特定文本。 第二階段是在特定的下游任務進行finetuning。
BERT的強大毫無疑問,但由于模型有上億參數量體型龐大,單個樣本計算一次的開銷動輒上百毫秒,因而給部署線上服務帶來很大的困擾,如何讓BERT瘦身是工業界以及學術界重點攻堅問題。
Hinton的文章"Distilling the Knowledge in a Neural Network"首次提出了知識蒸餾的概念,將teacher知識壓縮到student網絡,student網絡與teacher網絡具有相同的預測能力但擁有更快的推理速度,極大節省了計算資源。
目前前沿的技術有微軟的 BERT-PKD (Patient Knowledge Distillation for BERT),huggingface 的 DistilBERT,以及華為TinyBERT。其基本思路都是減少 transformer encoding 的層數和 hidden size 大小,實現細節上各有不同,主要差異體現在 loss 的設計上。
然而知識蒸餾最核心問題是如何捕捉到模型潛在語義信息,而之前工作焦點在loss設計上,而這種方式讓模型關注在單個樣本的表達信息細節上,對于捕捉潛在語義信息無能為力。
高德智能技術中心研發團隊在工作中設計了對比學習框架進行知識蒸餾,并在此基礎上提出COS-NCE LOSS,通過優化COS-NCE LOSS拉近正樣本,并拉遠負樣本距離,能夠讓模型有效的學習到潛在語義表達信息(LRC-BERT對比DistillBERT,BERT-PKD并不限制模型的結構,student網絡可以靈活的選擇模型結構以及特征維度)。
同時為進一步讓LRC-BERT更加有效的學習,我們設計了兩階段訓練過程。最后LRC-BERT在word vector embedding layer引入梯度擾動技術提升模型魯棒性。
本文的主要貢獻點概括如下:
本文在General Language Understanding Evaluation (GLUE)評測集合取得了蒸餾模型的SOTA效果。