亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

大模型參數量級飛漲,相應訓練集需同比提升。李開復定義AI2.0時代的特征是通過海量數據,無需標注自監督學習,訓練一個基礎大模型,并在各領域將其專業化。據相關論文,當模型的參數量大于某閾值,會展現出類似推理、無監督學習等未曾出現的能力,這種現象被稱為“涌現”,因此目前大語言模型參數均在十億量級以上。同時,Deepmind研究表明,模型參數的上漲需要配合等比例上升的優質數據集來達到最佳訓練效果。因此,大模型參數在十億級以上發展并受限于優質數據集的增速是AI發展的必然趨勢。

  大模型增長挑戰芯片算力和內存,無法實現完整端側部署。大模型訓練和推理的三大瓶頸是算力、顯存和通信,根據我們的測算,算力方面GPT-3訓練所需算力為121528TFLOPS,若30天內完成,需要1558顆A100。內存角度,GPT-3訓練至少需要3.2T內存,至少44張A100,推理任務則主要受顯存限制,需要4至8張A100,因此完整的模型無法在終端上離線運行。

  優化后大模型可在旗艦機型芯片上運行,AI落地有望推動新一輪換機潮。AI部署本地化具有必要性,優勢包括更低的延遲、更小的帶寬、提高數據安全、保護數據隱私、高可靠性等。完整的大模型僅參數權重就占滿一張80G的GPU,但是通過量化、知識蒸餾、剪枝等優化,大模型可以在手機本地實現推理。高通團隊使用驍龍8Gen2部署StableDiffusion,實現本地運營15秒出圖,證明了大模型本地化運行的可能,也體現出目前手機芯片的局限性。根據IDC數據,1Q23全球手機銷量中主處理器頻率超過2.8GHz的占比36%,價格在1000美金以上的占比13%,即旗艦機型占比較低,隨著AI大模型在邊緣端落地,有望推動新一輪換機潮。

  以大語言模型為核心,以語言為接口,控制多AI模型系統,構建“賈維斯”式智能管家。我們認為大語言模型不僅可以實現對話、創意,未來也有望作為眾多復雜AI模型的控制中心,同時也是接受用戶指令的交互窗口,實現《鋼鐵俠》電影中“賈維斯”式綜合智能管家。23年5月,Google推出PaLM2輕量版Gecko,其可在最新的旗艦機型上離線運行。同月,OpenAI首次推出ChatGPT移動端應用,各家大廠正式進入AI模型移動端創新、競爭時期。智能音箱、全屋智能中控屏、手機、MR等均有望成為這一時代的交互入口。  

付費5元查看完整內容

相關內容

ChatGPT(全名:Chat Generative Pre-trained Transformer),美國OpenAI 研發的聊天機器人程序 [1] ,于2022年11月30日發布 。ChatGPT是人工智能技術驅動的自然語言處理工具,它能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,真正像人類一樣來聊天交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼,寫論文任務。 [1] //openai.com/blog/chatgpt/

近期發布的 ChatGPT 和 GPT-4 等大型語言模型, 不僅能高質量完成自然語言生成任務, 生 成流暢通順, 貼合人類需求的語言, 而且具備以生成式框架完成各種開放域自然語言理解任務的能 力. 在少樣本, 零樣本場景下, 大模型可取得接近乃至達到傳統監督學習方法的性能, 且具有較強的 領域泛化性, 從而對傳統自然語言核心任務產生了巨大的沖擊和影響. 本文就大模型對自然語言處理的影響進行了詳細的調研和分析, 試圖探究大模型對自然語言處理核心任務帶來哪些挑戰和機遇, 探討大模型將加強哪些自然語言處理共性問題的研究熱度, 展望大模型和自然語言處理技術的未來 發展趨勢和應用. 分析結果表明, 大模型時代的自然語言處理依然大有可為. 我們不僅可以將大模 型作為研究方法和手段, 學習, 借鑒大型語言模型的特點和優勢, 變革自然語言處理的主流研究范式, 對分散獨立的自然語言處理任務進行整合, 進一步提升自然語言核心任務的能力; 還可就可解釋性, 公平性, 安全性, 信息準確性等共性問題開展深入研究, 促進大模型能力和服務質量的提升. 未來, 以 大模型作為基座, 拓展其感知, 計算, 推理, 交互和控制能力, 自然語言處理技術將進一步助力通用人 工智能的發展, 促進各行各業的生產力進步, 更好地為人類社會服務。

1 引言

2022 年 11 月 30 日, OpenAI 發布了對話式語言大模型 (ChatGPT1), Chat Generative Pretrained Transformer). 該模型允許用戶使用自然語言對話形式進行交互, 可實現包括自動問答, 文本 分類, 自動文摘, 機器翻譯, 聊天對話等各種自然語言理解和自然語言生成任務. ChatGPT 在開放域 自然語言理解上展現了出色的性能, 甚至無需調整模型參數, 僅使用極少數示例數據即可在某些任務 上超過了針對特定任務設計并且使用監督數據進行訓練的模型. 當面對用戶所提出的各種文本生成 任務時, ChatGPT 在多數情況下可以生成出通暢通順, 有邏輯性且多樣化的長文本.

ChatGPT 自發布以來引起了廣泛的關注, 僅在 5 天內注冊用戶就超過了 100 萬. 據雅虎財 經2)統計, 在 ChatGPT 推出僅兩個月后, 月活躍用戶已達 1 億, 相比之下, 之前一直被認為是用戶增 長速度最快的消費級應用程序 Tiktok 則花費了 9 個月的時間. 稍后不久, 微軟于 2023 年 2 月 8 日 推出了新一代 AI 驅動搜索引擎 New Bing3) , 該引擎將基于 ChatGPT 技術的生成模型與 Bing 搜 索深度集成, 創造了對話式搜索的新范式. 2023 年 3 月 14 日, OpenAI 發布了下一代生成式多模態 預訓練大模型 GPT-44) , 它不僅能夠理解自然語言文本, 還能夠對圖片內容進行深度理解, 并且具備 比 ChatGPT 更強的問題求解和推理能力, 在多種人類考試和自然語言理解任務中取得了更加優秀 的成績 [1].

長期以來, 自然語言處理任務主要采用監督學習范式, 即針對特定任務, 給定監督數據, 設計統 計學習模型, 通過最小化損失函數來學習模型參數, 并在新數據上進行模型推斷. 隨著深度神經網絡 的興起, 傳統的統計機器學習模型逐漸被神經網絡模型所替代, 但仍然遵循監督學習的范式. 2020 年 5 月 Open AI 發布的首個千億參數 GPT-3 模型初步展示了生成式模型的強大功能, 其具備流暢的 文本生成能力, 能夠撰寫新聞稿, 模仿人類敘事, 創作詩歌, 初步驗證了通過海量數據和大量參數訓 練出來的大模型能夠遷移到其他類型的任務 [2]. 然而, 直到 ChatGPT 的出現, 學術界才意識到大模 型對于傳統自然語言處理任務范式的潛在顛覆性.

以 ChatGPT 為代表的大型語言模型, 給自然語言處理帶來的是威脅, 挑戰還是新的機遇? 今后 的自然語言處理核心任務將采用何種主流范式實現語言理解和生成? 自然語言處理的研究領域將如 何延伸? 以大模型為代表的自然語言處理技術將如何引領通用人工智能的發展? 我們就大模型對自 然語言處理的影響進行了詳細的調研和思考, 試圖分析大模型對自然語言處理核心任務帶來的沖擊 和啟發, 探討大模型將加強哪些自然語言處理共性問題的研究熱度, 展望大模型和自然語言處理技術 的未來發展和應用, 以期回答上述問題.

2. 背景知識

在探討大模型給自然語言處理帶來的挑戰和機遇之前, 我們首先需要介紹相關的背景知識, 包括 自然語言處理的概念和研究歷史, 大規模預訓練語言模型從語言模型, 預訓練模型到大模型的技術發展歷程, 以及 ChatGPT 和 GPT-4 的基本技術與能力。

**3 大模型時代的自然語言處理核心任務 **

自然語言處理包含自然語言理解和自然語言生成兩個方面, 常見任務包括文本分類, 結構分析 (詞法分析, 分詞, 詞性標注, 句法分析, 篇章分析), 語義分析, 知識圖譜, 信息提取, 情感計算, 文本生 成, 自動文摘, 機器翻譯, 對話系統, 信息檢索和自動問答等. 在神經網絡方法出現之前, 因為缺乏行 之有效的語義建模和語言生成手段, 自然語言處理的主流方法是基于機器學習的方法, 采用有監督分 類, 將自然語言處理任務轉化為某種分類任務. 在神經網絡時代, Word2Vec 詞嵌入模型, BERT 等 上下文相關語言模型為詞語, 句子乃至篇章的分布式語義提供了有效的建模手段; 編碼器-解碼器架 構和注意力機制提升了文本生成的能力; 相比傳統自然語言處理所遵循的詞法-句法-語義-語篇-語用 分析級聯式處理架構, 端到端的神經網絡訓練方法減少了錯誤傳播, 極大提升了下游任務的性能. 不 過, 神經網絡方法仍然遵循監督學習范式, 需要針對特定任務, 給定監督數據, 設計深度學習模型, 通 過最小化損失函數來學習模型參數. 由于深度學習也是一種機器學習方法, 因此從某種程度上, 基于 神經網絡的方法和基于機器學習的方法并無本質區別. 然而, 不同于通常的深度學習方法, 以 ChatGPT 為代表的生成式大模型, 除了能高質量完成自 然語言生成類任務之外, 還具備以生成式框架完成各種開放域自然語言理解任務的能力. 只需要將 模型輸出轉換為任務特定的輸出格式, 無需針對特定任務標注大量的訓練數據, ChatGPT 即可在少 樣本乃至零樣本上, 達到令人滿意的性能, 甚至可在某些任務上超過了特別設計并使用監督數據進行 訓練的模型. 因此, ChatGPT 對各種自然語言處理核心任務帶來了巨大的, 不可避免的沖擊和影響, 也醞釀著新的研究機遇. 接下來, 針對各種自然語言處理核心任務, 我們將首先介紹其任務需求和主 流方法, 然后分析大模型對其主流研究范式所帶來的影響, 并探討未來研究趨勢.

-本分類 * 結構化預測 * 語義分析 * 知識圖譜與文本信息抽取 * 情感計算 * 文本生成 * 自動文摘 * 機器翻譯 * 對話系統 * 信息檢索 * 自動問答

ChatGPT 等大型語言模型, 對文本分類, 結構分析, 語義分析, 信 息提取, 知識圖譜, 情感計算, 文本生成, 自動文摘, 機器翻譯, 對話系統, 信息檢索和自動問答各種核 心的自然語言理解和生成任務均產生了巨大的沖擊和影響. ChatGPT 在大規模預訓練過程中習得廣泛的語言和世界知識, 處理自然語言任務時不僅能在少 樣本, 零樣本場景下接近乃至達到傳統監督學習方法的性能指標, 且具有較強的領域泛化性. 這將激 勵, 促進研究者們打破固有思維方式的樊籬, 學習, 借鑒 ChatGPT 等大模型的特點和優勢, 對自然 語言處理的主流研究范式進行變革, 進一步提升自然語言核心任務的能力, 例如以生成式框架完成各 種開放域自然語言處理任務并減少級聯損失, 通過多任務學習促進知識共享, 通過擴展上下文窗口提 升理解能力, 通過指令遵循和上下文學習從大模型有效提取信息, 通過思維鏈提升問題拆解和推理能 力, 通過基于人類反饋的強化學習實現和人類意圖對齊等. 長期以來, 自然語言處理分為自然語言理解和自然語言生成兩個領域, 每個領域各有多種核心任 務, 每種任務又可根據任務形式, 目標, 數據等進一步細分, 今后在各種應用任務的主流架構和范式 逐漸統一的情況下, 有望進一步得到整合, 以增強自然語言處理模型的通用性, 減少重復性工作. 另一方面, 基于大模型的強大基座能力, 針對具體任務進行按需適配, 數據增強, 個性化, 擬人交互, 可 進一步拓展自然語言處理的應用場景, 為各行各業提供更好的服務.

**4 大模型時代的自然語言處理共性問題 **

在自然語言處理研究領域中, 除了各種核心任務之外, 還有可解釋性, 公平性, 安全性, 可靠性, 能耗, 數據質量和評價等一些共性問題. 這些問題不是某種任務所特有的, 而是廣泛存在于各種自然 語言理解和生成任務中. 圍繞這些共性問題進行針對性研究, 分析其成因和機理, 設計應對措施, 對 確保自然語言處理任務的性能, 效率, 穩定性和領域適用性至關重要. 大模型自身同樣存在著自然語言處理的共性問題, 如模型可控性, 多樣性, 魯棒性和可解釋性仍 需提升, 訓練和使用成本過高, 語言數據質量缺乏保障, 評價方法單一等. ChatGPT 的一項亮點技 術是 “與人類意圖對齊”, 其目的除了理解用戶意圖之外, 還需要拒絕不合理的請求, 給出負責的, 合 乎人類道德準則和倫理規范的答案. 由于大模型的結構復雜, 參數龐大, 生成過程難以解釋, 生成文 本時經常面臨幻覺生成, 錯誤知識, 前后不一致等問題, 人們對于從系統獲取信息的準確性無從感知, 給系統的廣泛實際應用帶來了極大的潛在風險. 因此, 如何提升模型的公平性, 無害性, 有益性和魯 棒性, 確保大模型擁有正確的價值觀, 保障大模型生成內容的信息準確性變得愈發重要. 隨著以 GPT-3 為代表的大模型技術逐漸發展, 模型的參數數量, 計算時延, 訓練所需的資源等 都在顯著增加. 在語言建模能力不斷增長的同時, 模型的計算成本與能耗指標也成為當前大模型成 功應用的一大門檻. 大規模高質量文本數據資源在模型的構建過程中扮演了極其重要的作用, 訓練數據規模越大, 種 類越豐富, 質量越高, 所得到的大規模語言模型的性能越好, 而訓練數據中的瑕疵數據, 可能會對模 型的表現產生負面影響; 相較于以前的單一類型或少數任務驅動的基準評測, 針對大規模語言模型的 評測需覆蓋的問題場景范圍更廣, 復雜度更高, 難度也更大, 需要探索更有效合理的任務評價指標. 總之, 這些由大模型所強化的真實需求, 將極大地加強模型分析和可解釋性, 倫理問題與安全性, 信息準確性, 計算成本與能源消耗, 數據資源和模型評價等各種共性問題的研究熱度.

**5 討論 **

**

**

前兩節我們探討了大模型對各種自然語言理解和生成核心任務將帶來哪些沖擊和影響, 分析了 大模型將如何加強自然語言處理共性問題的研究. 本節首先將聚焦大模型自身, 探究如何從模型規 模, 學習方法, 個性化等角度進一步提升大模型的內在能力; 其次, 從工具學習, 多模態, 具身智能的 角度, 討論如何進一步延伸和擴展大模型的感知, 計算, 推理, 交互和控制能力, 使大模型成為通用人 工智能的基座; 最后, 介紹 ChatGPT 等大型語言模型將催生哪些應用場景, 為各行各業帶來哪些自 然語言處理新應用.

**6 總結與展望 **

綜上所述, ChatGPT 等大型語言模型, 對傳統自然語言處理核心任務產生了巨大的沖擊和影響. 這些核心任務普遍遵循監督學習范式, 需要針對特定任務, 給定監督數據, 設計和定制機器學習和深 度學習模型. 相比之下, 利用 ChatGPT 完成自然語言處理任務, 不僅能在少樣本, 零樣本場景下接 近乃至達到傳統監督學習方法的性能指標, 且具有較強的領域泛化性. 雖然如此, 面對大型語言模型所帶來的沖擊, 研究者們完全無需產生 “自然語言處理已經不存在 了” 等悲觀情緒. 首先, ChatGPT 等對話式大模型, 并非橫空出世, 而是沿著神經語言模型的發展路 線, 利用海量算力, 基于大規模高質量文本數據所實現的大型全注意力模型. 未來研究者們能夠將大 模型作為研究方法和手段, 更能夠學習, 借鑒生成式無監督預訓練, 多任務學習, 上下文學習, 指令遵 循, 思維鏈, 基于人類反饋的強化學習等大型語言模型的特點和優勢, 進一步提升自然語言核心任務 的能力.

大模型為自然語言處理帶來了架構通用化, 任務統一化, 能力按需化, 模型定制化等變化趨勢. 今后在各種自然語言理解和生成任務的主流架構和范式逐漸統一的情況下, 一方面,各種自然語言 處理任務有望進一步得到整合, 以增強自然語言處理模型的通用性, 減少重復性工作; 另一方面, 基 于大模型的強大基礎能力, 針對具體任務進行按需適配, 數據增強, 模型壓縮與輕量化, 跨模態和多 模態融合, 加強自然語言處理模型方法的可控性, 可配性, 領域適應性, 多樣性, 個性化和交互能力, 將進一步拓展自然語言處理的應用場景.

大模型時代的自然語言處理, 存在算法模型的可解釋性, 公平性, 安全性, 可靠性, 能耗, 數據質 量和評價等一些共性問題, 這些問題也是妨礙大模型能力提升和服務質量的主要因素. 未來, 針對模 型分析和可解釋性, 倫理問題與安全性, 信息準確性, 計算成本與能源消耗, 數據資源和模型評價等 各種自然語言處理共性問題的研究將越來越深入.

自然語言處理是人工智能的重要組成部分, 是人工智能從感知智能上升到認知智能的主要手段. ChatGPT 的出現, 已經打開了通向通用人工智能的大門. 未來, 以大模型作為基座, 利用工具學習, 多模態融合, 具身智能拓展其感知, 計算, 推理, 交互和控制能力, 自然語言處理技術將進一步助力通 用人工智能的發展, 促進各行各業的生產力進步, 更好地為人類社會服務.

付費5元查看完整內容

GPT4:AI技術和工程的偉大創新,開啟科技“十年新周期”

  GPT-4是世界首個最接近AGI的先進AI系統,展現出強大的“涌現能力”。GPT的成功,得益于其參數規模擴大,RLHF、Transformer、Prompt、插件、系統工程等方面的偉大創新。我們預計,ChatGPT將對科技產業產生深遠的影響,類似于操作系統,ChatGPT將接入現有的全部軟硬件系統。GPT-4的誕生將加速AGI時代的到來,開啟科技“十年新周期”。     AI算力:科技企業大模型競賽的核心“裝備”,AIGC應用的關鍵基建     Transfomer架構大模型訓練對算力的消耗呈指數級增長。2023年1月,ChatGPT計劃再向微軟融資100億美金,該融資將是新一代大模型算力基建的主要資金來源。ChatGPT激發“鯰魚效應”,全球科技巨頭將AI戰略提升到空前高度,算力作為新一輪科技競賽的核心“裝備”,迎來需求的脈沖式增長。未來,ChatGPT應用的全面落地還將釋放更為廣闊的算力需求。     計算是AI算力的核心引擎,存儲、網絡、軟件是AI算力的主要發展方向     1)計算:GPU是ChatGPT訓練和推理的核心支柱,其更新速度遠超過“摩爾定律”,受益于AI和高性能市場需求增長,GPU行業景氣度顯著提升。AI服務器作為GPU的重要載體,預計其市場規模、滲透率將隨著GPU放量迎來同步高增。   2)網絡:已成為限制AI算力提升的主要瓶頸,英偉達推出InfiniBand架構下的NVLink、NVSwtich等方案,將GPU之間的通信能力上升到新高度。而800G、1.6T高端光模塊作為AI訓練的上游核心器件,將受益于大模型訓練需求的增長。   3)存儲:“內存墻”是制約算力提升的重要因素。NAND、DRAM等核心存儲器在制程方面臨近極限,不斷探索“3D”等多維解決方案。HBM基于其高寬帶特性,成為了高性能GPU的核心組件,市場前景廣闊。   投資建議   ChatGPT對算力的影響遠不止當前可見的基建投入,未來Transformer大模型的迭代推動模型訓練相關需求的算力增長,以及AIGC大模型應用的算力需求,將是算力市場不斷超預期的源泉。相關公司:   1、計算   1)服務器:浪潮信息、中科曙光、紫光股份、工業富聯、緯創、廣達、英業達、戴爾、聯想集團、超威電腦、中國長城、神州數碼、拓維信息、四川長虹;   2)GPU:英偉達、AMD、Intel、海光信息、寒武紀、龍芯中科、景嘉微;   2、網絡   1)網絡設備:紫光股份、中興通訊、星網銳捷、深信服、迪普科技、普天科技、映翰通;   2)光模塊:中際旭創、新易盛、光迅科技、華工科技、聯特科技、劍橋科技、天孚通信;   3、存儲   1)存儲器:紫光國微、江波龍、北京君正、兆易創新、瀾起科技、東芯股份、聚辰股份、普冉股份、朗科科技。  

付費5元查看完整內容

來源:新華社客戶端

  近年來,人工智能技術迎來了新一輪大變革,其中由OpenAI開發的ChatGPT在推出短短2個月后便成為了月活破億的應用。隨著海外科技巨頭微軟、谷歌、Meta等加大投入,國內科技企業如百度、華為、阿里等紛紛布局,人工智能大模型的發展日新月異。

  為直觀感受我國當前主流科技企業所推出的大模型產品的現狀、優勢和特點,新華社研究院中國企業發展研究中心于今年4月啟動了人工智能產業創新活力研究。本次研究設置了用戶體驗項目,抓取了05月22日—05月26日數據,通過人機互動提問等形式,對國內主流大模型進行使用體驗評測,旨在為科技企業調整努力方向提供參考。

  在綜合指數評價方面,本次評測選取4大維度(基礎能力、智商測試、情商測試、工作提效能力)、36個子能力,共300個問題,對目前主流大模型產品進行測試,并邀請相關專家組成評測團隊深入分析各個產品的語義理解、知識儲備、邏輯能力等,最終得出各廠商的大模型綜合指數評價。

  在評價規則上,課題組以各個大模型對參與測評的題目回答完成度,進行了綜合考量,其中評測規則分為:答案較為完美,內容可在實際場景中直接使用;基本可用,可在實際場景中使用;調整可用,但需人工進行調整后方可使用;大略可用,需要較多人工調整方可使用;不可用,答非所問、語言不通等五個層級。

圖片

注:基于評測條件、評測時間等限制,本次評測結果存在一定主觀性,未來將進一步優化完善評測模型,提供更精確結果。

  通過圍繞四個維度的綜合測試,課題組發現,由OpenAI開發的Chat-GPT系列模型各項指標表現優異,且Chat-GPT4.0版本各項能力在3.5版本的基礎上均有一定程度提升。而由百度開發的人工智能大模型文心一言表現較為搶眼,是目前國內自主研發的大模型中具有優勢的產品。其余大模型產品也在基礎能力方面表現優良,但面對較復雜的工作內容或情商環境仍有不同程度的進步空間。

  針對各維度能力測評,該報告還給出了相應的案例展示和分析。

  在基礎能力部分,百度文心一言表現最為搶眼,訊飛星火、阿里巴巴通義千問、智譜ChatGLM表現優良;商湯商量、Vicuna-13B表現尚佳。

  在智商測試部分,百度文心一言在該環節意外超過ChatGPT3.5,表現突出,阿里巴巴通義千問分數接近GPT3.5,商湯商量、訊飛星火、智譜ChatGLM表現尚佳;Vicuna-13B表現有待改進。

  在情商測試部分,百度文心一言表現最佳;阿里巴巴通義千問與訊飛星火表現優良;商湯商量、智譜ChatGLM表現尚可;Vicuna-13B表現一般。

  在工作提效部分,百度文心一言與智譜ChatGLM最佳,訊飛星火次之;阿里巴巴通義千問及Vicuna-13B表現尚可;商湯商量表現一般。

  研究發現,人工智能與各行業的深度融合是促進產業升級和轉型的重要方式之一,“大模型+行業”的發展應用尤為重要。目前大模型在金融、工業、醫療等領域已經取得了顯著的成果,如何為行業領域提供更為精準、更為高效的解決方案,成為大模型廠商未來彎道超車的機會。

  報告指出,隨著人工智能的地位和作用越來越重要,政府、企業和社會需要共同努力,各大廠商應投入更多資源,頭部企業可以持續發力自研大模型,而專注于解決方案的行業廠商可以考慮通過深耕行業來彰顯特色。  

付費5元查看完整內容

ChatGPT開啟大模型“軍備賽”,存儲作為計算機重要組成部分明顯受益: ChatGPT開啟算力軍備賽,大模型參數呈現指數規模,引爆海量算力需求,模型計算量增長速度遠超人工智能硬件算力增長速度,同時也對數據傳輸速度提出了更高的要求。XPU、內存、硬盤組成完整的馮諾依曼體系,以一臺通用服務器為例,芯片組+存儲的成本約占70%以上,芯片組、內部存儲和外部存儲是組成核心部件;存儲是計算機的重要組成結構, “內存” 實為硬盤與CPU之間的中間人,存儲可按照介質分類為ROM和RAM兩部分。   存算一體,后摩爾時代的必然發展: 過去二十年中,算力發展速度遠超存儲, “存儲墻”成為加速學習時代下的一代挑戰,原因是在后摩爾時代,存儲帶寬制約了計算系統的有效帶寬,芯片算力增長步履維艱。因此存算一體有望打破馮諾依曼架構,是后摩時代下的必然選擇,存算一體即數據存儲與計算融合在同一個芯片的同一片區之中,極其適用于大數據量大規模并行的應用場景。存算一體優勢顯著,被譽為AI芯片的“全能戰士”,具有高能耗、低成本、高算力等優勢;存算一體按照計算方式分為數字計算和模擬計算,應用場景較為廣泛, SRAM、RRAM有望成為云端存算一體主流介質。   存算一體前景廣闊、漸入佳境: 存算一體需求旺盛,有望推動下一階段的人工智能發展,原因是我們認為現在存算一體主要AI的算力需求、并行計算、神經網絡計算等;大模型興起,存算一體適用于從云至端各類計算, 端測方面, 人工智能更在意及時響應,即“輸入”即“輸出”,目前存算一體已經可以完成高精度計算;云端方面,隨著大模型的橫空出世,參數方面已經達到上億級別,存算一體有望成為新一代算力因素;存算一體適用于人工智能各個場景,如穿戴設備、移動終端、智能駕駛、數據中心等。我們認為存算一體為下一代技術趨勢并有望廣泛應用于人工智能神經網絡相關應用、感存算一體,多模態的人工智能計算、類腦計算等場景。

付費5元查看完整內容

下游突破:GPT-4能力躍遷打開技術可用性上限

  GPT-4突破了僅適配淺層任務處理的定位,將深度參與人類工作流。這基于GPT-4相比GPT-3.5的能力全面提升:1)更可靠,更有創造力,可以理解并處理指令的微妙之處;2)具備更高智能,在學術和專業考試中表現接近人類最好水平;3)接受圖文類模特輸入,可將應用范圍拓展至機器人、智能駕駛等領域;4)利用模型調試、工程補丁、眾包測評等方式減少謬誤性顯示,解決體驗痛點。     上游需求:模型復雜度加大,大幅提升算力需求     我們認為,GPT-4的模型規模或將創新高,在訓練和運行時極可能造成較大的算力壓力。目前,OpenAI未披露具體模型規模參數,但更長的輸入量即更多的token,意味著指數級躍升的關聯性計算需求;而多模態指向更復雜的模型設計和訓練數據集。OpenAI在工程上進行優化緩解算力壓力,但多模態大模型因其特質,計算量激增,我們判斷,行業對算力的需求仍將維持高速增長態勢。     大模型商業化:OpenAI已跑通多條商業化路徑     商業化主要分為自有產品部分直接變現和ToB集成,倚靠行業領先的技術地位,OpenAI在較短時間內進行了較充分地變現嘗試。對于自有產品部分,GPT-4不再進行免費開放,意向用戶都需要直接或者間接參與商業轉化。集成進第三方產品思路上,OpenAI已涉及多個行業領域,并具備服務千萬級月活流量的能力。     大模型國產化:珠玉在前,國內廠商追趕在即     國外的快速進展對國內大模型參與者造成一定壓力。工程量爆發性增長,項目閉源導致國產化難度高企。在此追趕期間,參考辦公軟件領域發展歷程,國內玩家可選本土化思路,即創建合規的基本可用的版本。對于開發垂直小模型進行差異化競爭,因大模型泛化能力不斷增強,小模型市場空間有限。  

付費5元查看完整內容

自ChatGPT推出以來,國內學術界和科技企業相繼宣布或將推出類似機器人對話模型,有望推動大模型發展。2月7日,百度官宣“文心一言”。2月20日,復旦大學發布了類ChatGPT模型“MOSS”,并面向大眾公開邀請內測,國產大模型有望迎來爆發式增長。   需求和政策兩方面,合力推動AI產業增長。國內應用層面的需求推動AI產業的加速發展。根據IDC數據預測,2021年中國人工智能軟件及應用市場規模為51億美元,預計2026年將會達到211億美元。數據、算法、算力是AI發展的驅動力,其中數據是AI發展的基石,中國數據規模增速有望排名全球第一。政策方面,“十四五”規劃中提到“瞄準人工智能”,“聚焦人工智能關鍵算法”,加快推進“基礎算法”的“突破與迭代應用”;北京、上海、廣州等城市發布相關規劃。   頭部企業采取“模型+工具平臺+生態”三層共建模式,有助于業務的良性循環,也更容易借助長期積累形成競爭壁壘。大模型廠商主要包括百度(文心大模型)、騰訊(HunYuan大模型)、阿里(通義大模型)、商湯、華為(盤古大模型)等企業,也有智源研究院、中科院自動化所等研究機構,同時英偉達等芯片廠商也紛紛入局。大模型增強了AI技術的通用性,助力普惠AI的實現。未來,大模型有望于場景深度融合,配合專業工具和平臺支持應用落地,開放的生態來激發創新,形成良性循環。   技術發展有望促進生產效率提升,并進一步創造新的消費和需求,有利于文娛內容和互聯網行業。在AIGC和ChatGPT方面,我們建議持續關注技術發展和應用情況,把握技術催化和商業化落地帶來的投資機會:1)具備AIGC和ChatGPT的技術探索和應用的公司:百度集團-SW、商湯-W、萬興科技、拓爾思等;2)具有海量內容素材且具有AIGC探索布局的,圖片/文字/音樂/視頻內容及平臺公司騰訊控股,閱文集團、美圖公司、昆侖萬維、湯姆貓、神州泰岳、視覺中國、中文在線、漢儀股份、天娛數科、風語筑等。

付費5元查看完整內容

國產“ChatGPT”揚帆啟航。OpenAI的商業模式為API接口收費。我們認為此種商業模式具有“卡脖子”的風險,因此我國需要發展自主可控的“ChatGPT”。國產生態正在逐步繁榮,百度打響國產ChatGPT領域“第一槍”,其在算法、算力、數據、生態、平臺五方面皆有儲備;ChatGPT的競爭本質即大模型儲備競賽,大模型是人工智能發展的必然趨勢,也是輔助式人工智能向通用性人工智能轉變的堅實底座。大模型分為NLP(自然語言處理)、CV(計算機視覺)、多模態和科學計算四類。此外,中美科技巨頭已經開啟大模型儲備“軍備賽”。

  百度文心一言,開啟國產ChatGPT新征程。百度是少有大模型語言訓練能力的公司,模型儲備方面,百度實現了全生態布局。1、NLP(自然語言處理),已經具備智能創作、摘要生成、問答、語義檢索、情感分析、信息抽取等能力,且可以讓機器人像人一樣具有邏輯且自由對話;2、CV(計算機視覺),可用于應用于圖像分類、目標檢測、語義分割等場景,此外還可以應用于文檔、卡證、票據等圖像文字識別和結構化理解;3、跨境大模型,可實現AI作畫、場景融合視覺常識推理、跨模態圖像檢索、跨模態文本檢索等多場景;4、生物計算,應用場景為蛋白結構預測和小分子藥物研發等領域。     百度為國產ChatGPT“領軍企業”,具有算力積累和生態優勢。平臺方面:擁有自主生態的百度百舸·AI異構計算平臺,具備高效率、多密度、高易用性、多場景部署、樂高式拼接等能力。算力方面:百度自身具有建設智能算力中心的實力,技術領先且自主可控,已有典型落地案例;服務器方面擁有自研的昆侖芯云服務器;芯片方面,昆侖芯AI芯片是百度自主研發的芯片,2代芯片已量產,具備算力支撐強、高速互聯等多重優勢。生態:百度大模型賦能千行百業,已有落地應用,合作廠商分別覆蓋科技、金融、航天、影視、汽車、電子制造等諸多產業。此外,我們推測ChatGPT有望成為搜索引擎的流量入口,百度搜索引擎有望借助文心一言大模型的能力重回巔峰。此外,目前國產科技巨頭已經開啟大模型的“軍備競賽”,因此,我們判斷,未來AI+有望賦能千行百業,具有AI+能力的廠商有望呈現“百花齊放”的態勢。  

付費5元查看完整內容

主要觀點:   ChatGPT帶來大模型時代變革,數據要素重要性提升   ChatGPT是由OpenAI研發的一種語言AI模型,其特點在于使用海量語料庫來生成與人類相似的反應。初代GPT模型參數1.17億,GPT2模型、GPT3模型參數分別達到15億、1750億。不斷提升的參數量級,使得ChatGPT3當前已經能夠應用在商業、研究和開發活動中。   當前此類參數體量龐大的模型,成為各大科技廠商研發重點。大模型的基礎為高質量大數據。ChatGPT的前身GPT-3就使用了3,000億單詞、超過40T的數據。此類大數據基礎的前提為三部分1)有效場景下的采集數據;2)大數據的存儲、清洗和標注;3)數據質量檢驗。   大模型發展之下,算力與網絡設施建設成為剛需   算力:ChatGPT類人工智能需要更充足的算力支持其處理數據,帶來更多高性能的算力芯片需求。英偉達表示,GPT-3需要512顆V100顯卡訓練7個月,或者1024顆A100芯片訓練一個月。2012年以來,AI訓練任務中的算力增長(所需算力每3.5月翻一倍)已經超越摩爾定律(晶體管數量每18月翻一倍)。   網絡設施:以微軟Azure為例,其AI基礎設施由互聯的英偉達AmpereA100TensorCoreGPU組成,并由QuantuminfiniBand交換機提供橫向擴展能力。服務器節點多、跨服務器通信需求巨大,網絡帶寬性能成為GPU集群系統的瓶頸,解決方式包括增加單節點通信帶寬與降低網絡收斂比,帶來光模塊、交換機等需求。   下游應用場景豐富,多行業落地可期   1)“生成式AI(generativeAI)”在互聯網及元宇宙領域市場化空間較為廣闊。基于現行的NLP算法發展程度及數據集規模。在不久的將來,生成式AI有較大可能在“智能客服”和“搜索引擎”進行增值,并有希望以“插件”的形式賦能現有的“生產力工具鏈(工程軟件/音視頻制作工具等)”。   2)AI在制造業的應用可分為三方面:a)智能裝備:指具有感知、分析、推理、決策、控制功能的制造裝備,典型代表有工業機器人、協作機器人、數控機床等;b)智能工廠:重點在于實現工廠的辦公、管理及生產自動化,典型的代表場景有協作機器人、智能倉儲物流系統等;c)智能服務:指個性化定制、遠程運維及預測性維護等。   3)人工智能在智能汽車領域的應用包括:a)智能駕駛依托AI,將從駕駛輔助發展至自動駕駛;b)智能座艙在AI支持下,從出行工具演變為出行管家。

付費5元查看完整內容

**刷爆的ChatGPT什么算法這么強!臺大李宏毅老師國語講解《ChatGPT (可能)是怎么煉成的 》! **

** **

** **

 AIGC多模態跨模態應用逐漸成熟,市場空間廣闊。   廣義的AIGC指具備生成創造能力的AI技術,即生成式AI。可以基于訓練數據和生成算法模型,自主生成創造新的文本、圖像、音樂、視頻等內容。2022年被稱為AIGC元年,未來兼具大模型和多模態模型的AIGC模型有望成為新的技術平臺。據《中國AI數字商業產業展望2021-2025》報告,預測AI數字商業內容的市場規模將從2020年的40億元,增加到2025年的495億元。   ChatGPT產品歷經多代技術演進,產品與商業模式逐漸成熟。   ChatGPT是文本生成式AI,過去的傳統AI偏向于分析能力,主要基于已有內容;現在文本生成式AI基于底層Transformer模型,不斷訓練數據和迭代生成算法模型,歷經GPT-1、GPT-2、GPT-3,模型不斷升級,到ChatGPT的GPT3.5模型,已可以自主生成各種形式的內容。近期收費版ChatGPTPlus版本發布,AI商業化序幕逐漸拉開。   AI商業化落地在即,行業算法側和算力側投資機會有望超預期。   根據數據顯示,ChatGPT總算力消耗約為3640PF-Days,按國內的數據中心算力測算,需要7-8個數據中心才能支持其運行。各模態AI數據訓練到應用均需要算法和算力的加持,未來要想大規模應用,算法訓練和算力部署均需先行。

付費5元查看完整內容

ChatGPT系列報告:

**刷爆的ChatGPT什么算法這么強!臺大李宏毅老師國語講解《ChatGPT (可能)是怎么煉成的 》! **

** **

** **

【芯片算力】▲芯片需求=量↑x價↑,AIGC拉動芯片產業量價齊升。1)量:AIGC帶來的全新場景+原場景流量大幅提高;2)價:對高端芯片的需求將拉動芯片均價。ChatGPT的“背后英雄”:芯片,看好國內GPU、CPU、FPGA、AI芯片及光模塊產業鏈。   相關標的:海光信息、景嘉微、龍芯中科、中國長城、安路科技、復旦微電、紫光國微、寒武紀、瀾起科技、德科立、天孚通信、中際旭創。   【深度學習框架】深度學習框架是人工智能算法的底層開發工具,是人工智能時代的操作系統,當前深度學習框架發展趨勢是趨于大模型訓練,對深度學習框架的分布式訓練能力提出了要求,國產深度學習框架迎來發展機遇。   相關標的:百度、海天瑞聲、商湯科技、微軟、谷歌、Meta。   【深度學習大模型】ChatGPT是基于OpenAI公司開發的InstructGPT模型的對話系統,GPT系列模型源自2017年誕生的Transformer模型,此后大模型數量激增,參數量進入千億時代,國內百度也發布了ERNIE系列模型并有望運用于即將發布的文心一言(ERNIEBot)對話系統,未來國內廠商有望在模型算法領域持續發力。   相關標的:百度、科大訊飛、商湯科技、谷歌、微軟。   【應用】ChatGPT火爆全球的背后,可以窺見伴隨人工智能技術的發展,數字內容的生產方式向著更加高效邁進。ChatGPT及AIGC未來有望在包括游戲、廣告營銷、影視、媒體、互聯網、娛樂等各領域應用,優化內容生產的效率與創意,加速數實融合與產業升級。   相關標的:百度、騰訊、阿里巴巴、網易、昆侖萬維、閱文集團、捷成股份、視覺中國、風語筑、中文在線、三七互娛、吉比特、天娛數科。   【通信】AIGC類產品未來有望成為5G時代新的流量入口,率先受益的有望是AIGC帶來的底層基礎算力爆發式增長。   相關標的:包括算力調度(運營商)、算力供給(運營商、奧飛數據、數據港)、算力設備(浪潮信息、聯想集團、紫光股份、中興通訊、銳捷網絡、天孚通信、光庫科技、中際旭創、新易盛)、算力散熱(英維克、高瀾股份)。

付費5元查看完整內容
北京阿比特科技有限公司