亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

生成式人工智能技術,如大型語言模型,有可能徹底改變我們高等教育的教學和學習。ChatGPT是一個令人印象深刻的、易于使用的、公開訪問的系統,展示了GPT-4等大型語言模型的力量。其他類似的生成模型可用于文本處理、圖像、音頻、視頻和其他輸出-我們預計在未來幾年內,性能將大幅提高,集成到更大的軟件系統中,并得到推廣。這項技術的發展引發了大學水平教學的重大不確定性和變化。學生們會問這樣的問題:ChatGPT或其他人工智能工具如何支持我?我可以在研討會或期末論文中使用ChatGPT嗎?還是說這是作弊?我怎樣才能最好地使用ChatGPT ?還有其他方法訪問模型嗎,比如GPT-4?既然這樣的工具已經存在,我應該學習哪些技能,哪些是過時的?講師會從不同的角度問類似的問題:我應該教什么技能?我如何測試學生的能力,而不是他們提示生成AI模型的能力?我如何使用ChatGPT和其他基于生成式AI的系統來提高我的效率,甚至改善我的學生的學習體驗和結果?即使當前的討論圍繞ChatGPT和GPT-4展開,這些也只是我們可以從未來基于生成式人工智能的模型和工具中期待的先驅。因此,即使您認為ChatGPT在技術上還不成熟,但它對高等教育的影響是值得研究的。這就是白皮書的用武之地。它將ChatGPT視為利用大型語言模型的當代對話用戶界面的例子。白皮書從學生和講師的角度來看待ChatGPT。它關注高等教育的日常領域:教學課程、為考試而學習、撰寫研討會論文和論文,以及評估學生的學習成果和表現。為此,考慮ChatGPT的機會和具體應用的可能性、限制和風險,以及底層的大型語言模型。這有兩個目的:

首先,我們的目標是為個別學生和講師提供具體的例子和指導,以找到他們處理ChatGPT和類似工具的方法。 * 其次,本白皮書將為在高等教育中擁抱和包含大型語言模型或相關工具的更廣泛的組織意義過程提供信息。

**我們基于我們在信息系統、計算機科學、管理和社會學方面的經驗編寫了這篇白皮書。我們有使用生成式AI工具的實踐經驗。**作為教授、博士后、博士生和學生,我們不斷創新我們的教學和學習。全面擁抱生成型人工智能的機遇和挑戰,需要來自其他各種學科的學者(專注于高等教育的教學和法律方面)、大學管理和更廣泛的學生群體的進一步觀點。總的來說,我們對生成式人工智能模型和工具(如GPT-4和ChatGPT)有積極的看法。一如既往,有光明也有黑暗,改變是困難的。然而,如果我們對大學、學院和教師個人發布明確的指導方針,如果教師和學生有效和負責地使用這些系統,我們的高等教育系統可能會得到改善。我們看到了一個巨大的機會,如果我們接受并適當地管理變化。

付費5元查看完整內容

相關內容

ChatGPT(全名:Chat Generative Pre-trained Transformer),美國OpenAI 研發的聊天機器人程序 [1] ,于2022年11月30日發布 。ChatGPT是人工智能技術驅動的自然語言處理工具,它能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,真正像人類一樣來聊天交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼,寫論文任務。 [1] //openai.com/blog/chatgpt/

ChatGPT 持續成為大家關注的焦點,開啟通用人工智能(AGI)之門。北京交通大學桑基韜教授和于劍教授撰寫的《從ChatGPT看AI未來趨勢和挑戰》,詳述了ChatGPT 的“能”與“不能”,AI中什么是“真”以及AI的未來趨勢,非常值得關注!

在人工智能領域,ChatGPT 作為一種重要的技術突破,引起了廣泛的關注.本文將探討 ChatGPT 在人 工智能發展中的地位及其對未來 AI 的影響首先,介紹了 ChatGPT 所展現出的優秀對話生成能力,使其幾 乎可以勝任所有自然語言處理任務,并將作為數據生成器、知識挖掘工具、模型調度員、自然交互界面在各 種場景得到應用.接著,分析了其在事實錯誤、毒害內容生成、安全性、公平性、可解釋性、數據隱私等方 面的局限,并討論了作為輔助人類工具的 ChatGPT 明確能力邊界和提高能力范圍的重要性.然后,從概念經 典表示對真定義進行了分析,并從概念三指不等價的角度闡釋性了 ChatGPT 無法區分真假的原因. 在論述 AI 未來時,從拓展應用、克服局限、探索理論分析了中短期技術趨勢,并從感知、認知、情感、行為智能四個 層面的關系討論了長期發展路徑. 最后,探討了 ChatGPT 作為認知智能的代表,對包括認知成本、教育要求、 圖靈測試認識、學術界的機遇與挑戰、信息繭房、能源環境問題和生產力提升等方面可能產生的影響.目錄:

1 ChatGPT的“能”:生成

2 ChatGPT的“不能”:負責

3 什么是“真”?

4 AI的未來

5 ChatGPT的影響

[1]桑基韜,于劍.從ChatGPT看AI未來趨勢和挑戰[J/OL].計算機研究與發展:1-10[2023-04-18].//kns.cnki.net/kcms/detail/11.1777.TP.20230414.1444.003.html.

引言

2022 年 11 月 30 日,OpenAI 公司發布了一款名 為 ChatGPT 的軟件.該軟件在發布后的 5 天內,用戶 數量就超過了 100 萬,2 個月內活躍用戶數更是突破 了 1 億,成為了迄今為止增長速度最快的應用軟件. 該軟件幾乎可以完成自然語言處理的所有任務,因 此在營銷、客服、教育、娛樂、咨詢、翻譯等行業 有著廣闊的應用前景.這一成功也激勵了OpenAI首席 執行官 Sam Altman,他于 2023 年 2 月 24 日發表了 一篇名為“Planning for AGI and Beyond”的文章, 認為 AGI(Artificial General Intelligence,通用人工 智能)是 AI systems that are generally smarter than humans,需要開始為 AGI 的到來做準備.AGI 會是 AI 的未來嗎?本文將對此進行討論.

1 ChatGPT 的“能”:生成

比爾蓋茨將 ChatGPT 譽為自 1980 年現代圖形桌 面環境 GUI 問世以來最具革命性的科技進步.如果說 上一次讓 AI 火出圈的 AlphaGo 所展現出的是在特定 領域的“專”,這一次 ChatGPT 展現出的則是 AI 在 廣泛應用場景的“通”:這個“通”以正常人都會、 都懂、都能體驗的對話形式呈現,讓 AI—特別是自 然語言處理技術進入主流用戶群,孕育出了這一現 象級產品.具體而言,ChatGPT 在對話過程中展現出了自然對話、多輪交互、上下文學習、思維鏈推理、 實時反饋在線糾錯、涌現出適應未訓練任務以及 GPT-4 中新出現的理解弦外之音的能力.

ChatGPT 背后的思想其實很簡單:將所有語言任務歸為對話任務,將對話任務歸為文字接龍的生成問題 . 自 然 語 言 處 理 領 域 的 學 者 普 遍 認 為 , ChatGPT 展現出的優秀對話生成能力對傳統研究方 法產生了巨大挑戰. 1)從目標上看,自然語言處理 旨在讓計算機能夠以文字或語音的方式與人類進行 有效交流;而對話是人類日常生活中最基本的交流 方式,實現了人機自然對話在一定程度上便達到了 自然語言處理的核心目標.2)從任務類型上,自然 語言處理可分為自然語言理解和自然語言生成兩大 類.在谷歌的 T5 模型[1]推出之后,兩類任務統一為單 項語言生成的文字接龍形式.自 GPT-1 起,OpenAI 就 一直堅持采用基于解碼器結構的自回歸語言模型, 這種模型在處理單向語言生成問題方面具有天然的 優勢.所以 ChatGPT 可以處理以前不同賽道的語言處 理任務,比如翻譯、問答、摘要、擴寫、寫作、潤 色、代碼生成、語句分析、段落理解等.

當然,ChatGPT 能夠實現如今順暢自然的人機 對話,不僅源于其對 GPT 單向語言生成技術路線的 持續發展,還依賴于算法、算力和數據等多方面的 支持. 由于 ChatGPT 并未對模型進行開源,也沒有發 布論文透露具體細節,我們只能基于 OpenAI 已公開 的 GPT 系列技術發展路線來推測這些能力背后的潛在原因. 圖1展示了部分 ChatGPT 已展現出的能力及 其背后主要技術原因的對應關系. 值得關注的是, ChatGPT 許多能力背后的原因仍在探索過程中. 關于上下文學習的能力,有學者認為模型從提示詞 (prompt)提供的示例中確定了待解決任務的自然語言 指令(instruct),從而在無需微調模型的情況下提升了 問題回答的質量[2] .關于任務涌現和多任務遷移能力, 一方面,有學者認為指令學習、大規模預訓練和數 據集多樣性共同促進了模型在新任務的泛化能力[3] . 例如,通過在大量不同類型和指令任務上進行微調, 模型學習到了一定程度的通用能力,從而能夠泛化 到未見過的指令和場景.另一方面,不同任務的劃分 具有一定的主觀性,其本質上都可以建模為統一的 自然語言生成任務.大型預訓練語言模型通過學習大 量訓練數據,掌握了豐富的語言知識和多種任務之 間的共性,進而利用這些共性來提高不同任務的性 能.然而,一些問題仍然沒有明確答案,例如:何種模型規模和訓練數據量閾值可以產生任務涌現能力?涌現能力與模型規模和訓練數據量之間的量化關系 如何?同時,其他一些能力,如在線糾錯、理解弦 外之音等,其背后的原因仍然是個謎.

OpenAI 首席科學家 llya Sutskeve 最近在與英偉 達 CEO 黃仁勛的訪談中對 ChatGPT 能力學習進行了 解釋:“ChatGPT 通過學習文本中的統計相關性,獲 得了這個世界的一個壓縮、抽象、可用的映射表 達”.這讓我們不禁思考:ChatGPT 是否學到了人類 文字符號世界的暗知識(tacit knowledge[4]).Michael Polanyi 在他的這本認識論著作中曾提到:“We can know more than we can say(我們所知者,遠多于所 能說者)”.可以確定的是:機器學習模型通過統計海量符號語料中的規律,能夠學習到詞匯、語法、 乃至一定程度的上下文和常識知識.問題是:隨著語 料規模的不斷增加和統計規律的持續積累,模型所 建立的世界表達分辨率越來越高、維度越來越豐富 時,是否真的有可能學習到人類情感、道德觀念等 支撐整個世界運行的更復雜的暗知識? 在學術界積極探索 ChatGPT 能力背后的技術原 因的同時,工業界已在歡迎這項新技術,并將其優 秀的對話生成能力融入各種應用場景.根據 ChatGPT 對話的對象和本身的定位,我們將這些應用分成 4 個層次(如下表 1 所示):

1) 數據生成器,根據需求直接生成數據.此類應用 僅輸入用戶需求,利用 ChatGPT 的生成能力返回特 定類型的數據.由于思路簡潔且實現容易,數據生成 類應用在 ChatGPT 發布之初就大量出現.主要應用場 景包括對話生成(客服、虛擬數字人)、文案生成 (法律文書、營銷策劃廣告)和代碼生成等.典型的 成功案例包括寫作助手 Notion AI、營銷文案生成工 具 Jasper.ai.

2) 知識挖掘工具,對數據進行再加工或分析挖掘. 此類應用同時輸入用戶需求和待處理的原始數據, 利用 ChatGPT 強大的自然語言處理能力返回經過加 工的數據或挖掘出的新信息.知識挖掘類應用可以分 為 離 線 和 在 線 兩 種 形 式 . 離 線 應 用 通 過 調 用 類 ChatGPT API 分析和挖掘私有數據等專業領域語料構 建知識庫,為進一步應用提供知識支持.在線應用的 主要場景包括翻譯、潤色、摘要生成、文檔管理等. 一些典型案例包括搜索引擎摘要插件WebChatGPT、 文檔分析工具 ChatPDF 以及 OpenAI 官方隨 GPT-4 發 布的摩根士丹利策略分析師.

3) 模型調度員,調用其他機器學習模型共同解決 用戶需求.此類應用同時輸入用戶需求、待處理數據 以及多個可調用的機器學習模型,通過 ChatGPT 作 為人類與其他模型間的連接,設計解決方案、調用 并管理其他機器學習模型,共同完成用戶需求并輸出結果.這方面的典型案例是微軟近期發布的系列多 模態解決方案 Visual ChatGPT[5]、MM-ReAct[6]和 HuggingGPT[7],其通過調度其他視覺基礎模型來協 同完成視覺和語音任務.此外,AI 賦能一直以來的一 個痛點問題是,智能中臺需要整合不同模型和技術, 并根據業務需求擴展新的模型.ChatGPT 有望實現智 能中臺的升級:提供友好的開發/業務人員界面、實 現模塊化模型管理、簡化技術集成和部署,從而提 高 AI 賦能效率.隨著 ChatGPT 應用探索的深入,相 信模型調度員類型的應用將越來越受到關注.

4) 人機交互界面,調用更廣泛的應用程序幫助人 類解決實際問題. 第一種形式是將 ChatGPT 嵌入到特 定應用中,從而極大地提升自然交互體驗,如微軟 的 365 Copilot 和 Copilot X 分別將 ChatGPT 融入 Office 和 Github.第二種形式是在 ChatGPT 搭建的自 然語言交互框架上開發各類信息服務應用,去年 10 月推出的開源庫 LangChain 和 OpenAI 最近發布的插 件集 Plugins 都是大型語言模型應用開發框架的典型 嘗試.正如 Windows 和 Android 分別是桌面和移動時 代的操作系統,ChatGPT 有望成為智能時代的操作 系統接口.進一步暢想,如果把語言分為人類之間溝 通的自然語言和人與計算機之間溝通的計算機語言, ChatGPT 在一定程度上統一了二者:用自然語言實 現了人和計算機之間的溝通,不得不說“自然語言 編程(Natural Language Programming)”這一新詞非常 貼切.從這個角度看,我們甚至可以大膽預測:人機 交互界面將從磁帶、鍵盤字符、鼠標圖形全面進化 到自然語言時代.

以上圍繞對話生成討論了 ChatGPT 的具體能力、 背后的技術原因以及在不同定位下的應用形式.盡管 “對話生成”提供了無限的想象,但 OpenAI 的野心 顯 然 并 不 止 于 此 . 從 名 稱 和 發 布 時 間 點 來 看 , ChatGPT 似乎只是一種過渡性技術的產品形式.在以 對話這種產品形式向主流用戶群展示了強大的技術 實力之后,OpenAI 新發布的 GPT-4 并未繼續在對話 生成功能上炫技,而是悄然接入了各類官方應用.

從生物學角度,語言和智能的演化過程相互促 進.人類智能在很大程度上依賴于高度復雜的語言系 統.語言作為思維的載體和智慧的外在表現,其運用 能力很大程度上反映了認知能力和智能水平.語言習 得是認知發展的重要組成部分.兒童在成長過程中通 過習得語言來理解世界,并逐漸掌握其他認知技 能.ChatGPT 等技術在語言生成能力的持續提升能將 人工智能帶到什么高度,讓人非常期待.

2 ChatGPT 的“不能”:負責

能力越大,責任越大. ChatGPT 展現出的強大能 力讓主流用戶群欣喜、學術界驚訝、工業界狂熱.這 些能力讓我們在使用它時感受到了與以往技術不同 的體驗.回顧人類歷史上的幾次技術革命,從早期的 石器、金屬器具、機械設備、電氣設備到近幾十年 的計算機、互聯網和智能手機,每一個階段所發明 的工具都對人類生活產生了深遠影響.在使用這些工 具時,我們可以清楚地意識到它們作為工具的定位, 即輔助人類來完成任務.然而,在使用 ChatGPT 的過 程中,我們經常會產生一種與另一個人對話的錯覺, 尤其是當類似 Plugins 這類功能使其能夠像人類一樣 利用其他工具進行自我增強的時候.埃隆-馬斯克在使 用 ChatGPT 后的感受是“好到嚇人”.這種獨特的體 驗無疑將加速技術融入人類社會的進程.正如 OpenAI 自己對 ChatGPT 的評價:“盡管 ChatGPT 還沒有實 現真正的智能,但它讓人體驗到了真正的智能實現 后,每個人都能用它做各種他們想做的事情的滋味.”

整個 2023 年 3 月被各種生成式 AI 技術和產品 的發布充斥:Meta Alpaca、GPT-4、PaLM-E、文心 一言、Office Copilot、Midjourney V5、英偉達新顯 卡 、 Github CopilotX 、 ChatGPT 插件、 Security Copilot 等.我們可以預見相關技術的應用領域將迅速 拓展、應用程度將大幅度加深.人們在享受技術帶來 的便捷和生產力提升的過程中,對技術的態度將從 習慣逐漸轉變為依賴.而當人們開始依賴這些技術代 替自己學習、思考、甚至決策時,有兩個問題擺在 我們面前:技術是否已經做好準備承擔責任?人類對技術的信賴是否超出了它的能力?實際上,ChatGPT 在使用過程中已被發現存在 諸多問題:如數學計算、未來預測、時空物理現實 推理等方面能力的局限,以及事實錯誤(幻覺)、生成 毒害內容等方面的不可控[8] .下面從可信 AI 的 4 個維 度對 ChatGPT 存在的問題展開討論.

1) 安全性. OpenAI 在官網上將“安全”列為五個目 錄之一,在隨 GPT-4 發布的報告中批露了其在技術 和評估兩方面都設立了專門的安全小組,足見對安 全性的重視.然而,和所有機器學習模型一樣, ChatGPT 仍存在著被對抗攻擊的風險.一種典型方式 是提示語注入攻擊(prompt injection attack):在提示 語中混入惡意指令,可能繞過 ChatGPT 的安全機制, 迫使其執行意外動作,如泄露敏感信息、輸出有害 內容等.例如,ChatGPT 驅動的新 Bing 在受到攻擊后 泄露了其內部代號“Sydney”;ChatGPT 被誘導規劃 搶劫方案,甚至提供了購買搶劫道具的鏈接等.

2) 公平性.在 ChatGPT 之前,OpenAI 的文生圖DALL-E系列曾被發現存在輸出性別和種族歧視內容 的問題.類似地,GPT-2、Bert、RoBERTa 等語言模 型在一個測試項目中也被發現具有嚴重的性別偏見 傾向[9] .盡管目前尚無系統性研究分析 ChatGPT 在性 別和種族偏見方面的表現,但已有研究發現它存在 明顯的語言敏感性:例如,當用日語和俄語分別詢 問一個日俄爭議島嶼的歸屬問題時,ChatGPT 給出 了截然不同的答案[10].

3) 可解釋性. ChatGPT 的思維鏈能力可以在答案中 同時呈現推理過程,這在部分程度上解決了實驗室 環境下模型可解釋性的問題.然而,需要注意的是, 這種推理過程的解釋是面向用戶的,并不一定與模 型的實際運行機制準確對應.此外,ChatGPT 仍存在 很多尚未解釋的行為,包括自我在線糾錯、理解弦 外之音等能力,以及出現事實錯誤(幻覺)等問題.由 于大模型本身的復雜性以及僅通過 API 提供服務的 現實限制,ChatGPT 對于用戶和開發者都是完全的 黑箱.隨著應用場景的拓寬和加深,現有的解釋性水 平可能難以滿足透明度和回溯性等的要求.

4) 數據隱私. 涉及 2 個方面:訓練階段的數據侵權 和推理階段的隱私泄露.大模型訓練需要的海量數據 多來自網絡,其中難免包括未經授權的版權保護內 容.ChatGPT 雖然可能避免語句層面的抄襲,但難以 避免語義上的深度抄襲.2023 年,大模型領域發生了 多起版權侵權案.例如,三名藝術家指控 Stable Diffusion 使用其版權作品作為訓練數據,而微軟和 OpenAI 因其開發被指控其開發的編程助手 Copilot 涉 嫌復制 Github 上的開源代碼而受到指控.在推理階段, 攻擊者有可能通過逆向攻擊等手段,利用模型輸出 的結果來反向推導出訓練數據中的隱私信息.GPT-2、 BERT、RoBERTa 等語言模型均被發現存在數據隱私 泄露的風險[11] .隨著模型規模和功能多樣性的增加, 這種風險可能進一步加大:模型規模越大,其記憶 能力越強;功能越多樣化,可被利用的信息和攻擊 方式也越豐富.ChatGPT 自身代號的泄露便證實了這 一點.

從生成式 AI 模型選擇的技術路線和當前發展水平看,這些問題既可以歸結為大型語言模型固有的結構局限,也可以歸結為將符號任務統一建模為對 話問題的過度簡化.關于這條技術路線的未來發展, 同時存在著樂觀和悲觀的觀點.樂觀派認為,人腦神 經元突觸連接總數約為一百萬億,隨著語言模型參 數量的不斷增加,模型可能在某個時刻實現量變到 質變的躍遷,這些問題也會自然消失.然而,包括喬 姆斯基、Stuart Russell 等大佬在內的悲觀派則持相反 觀點,他們認為端到端的深度學習與人類進行推理和使用語言的方式有著巨大差異,依靠更多數據和 算力無法消除這些缺陷或實現真正的智能.

不討論技術路線的選擇或者觀點的對錯,不管 生成式 AI 模型的能力演進到何種程度,其定位始終 是幫助人類更好地完成任務的工具.作為工具,首先 應該明確能力邊界,即“做自己能做的事”.在認知 心理學中,約瑟利窗口(Johari Window)將人際關 系劃分為公開區、盲區、隱藏區、未知區四個象限 [12] .參照這種方法,如圖 2 所示,我們可以沿“自知” 和“能力”兩個維度繪制一個坐標系,智能工具處 理的任務將落在其中一個象限內.當任務落在“自知” 負半軸的兩個象限時,可能會出現不可預知的問題:在隱藏區時,模型“不知道自己能”,可能在收到用 戶反饋后將原本正確的答案改為錯誤,或接受用戶 錯誤反饋的引導;在未知區時,模型“不知道自己 不能”,可能會產生事實錯誤幻覺,一本正經地胡說 八道.

根據“自知”-“能力”坐標系,首先需要明確 能力邊界,即擴大“自知”正半軸兩個象限的覆蓋 范圍,使更多任務落入公開區和盲區.在公開區時, 模型可以自信地回答用戶的問題;而在盲區時,模 型應該承認能力缺陷,避免回答不知道的問題,或 者虛心接受用戶的反饋引導.PAL[13]是開發隱藏區的 一個例子,通過在提示詞中注入包含推理過程的程 序示例,成功挖掘了模型在原本容易回答錯誤的數 學推理類任務的解決能力.在明確能力邊界后,需要 進一步提升模型的能力,即擴大“能力”正半軸、 尤其是第一象限的面積,使更多的任務從盲區轉移 到公開區.縮小盲區的一個例子是 ReAct[14],它將推 理和行動結合,通過調用搜索等插件從網絡等外部 資源中逐步、有選擇性地收集和處理新信息,從而 提高了模型在各種復雜場景下的解決能力.另一個最 新提出的框架 Reflexion[15],它在 ReAct 基礎上加入 了自省 Reflect 功能,通過試錯的方式,在尋找自身 能力邊界的同時,探索新任務的解決方案.這是一個 在同時確定能力邊界和提高能力范圍方面很有意思的嘗試.

當然,“自知”-“能力”坐標系只是一個理想 和簡化的框架.人類在執行任務時,通常會考慮諸如 道德、倫理、公平等價值觀.而 ChatGPT 并不具備人 類的價值觀和判斷力,可能會生成與事實相悖的錯 誤信息和誤導性的建議.比如,當用戶詢問“林黛玉 是如何倒拔垂楊柳的”,ChatGPT 會一本正經地介紹 相關具體細節.事實上,《林黛玉倒拔垂楊柳》是一 部網絡小說,中文論壇上也有許多對這一虛構情節 的討論.模型在學習這些語料時無法區分虛構和現實, 因此產生了這個尷尬的回答.隨著 GPT-4 的發布,可 以預見 ChatGPT 將有能力在符號世界中實現自動化 生成.然而,它依然不能確保所生成內容的真實性, 自然更無法對生成結果承擔責任.

3 什么是“真”?

為了解釋為何 ChatGPT 無法保證結果為真,首 先需要探討什么是“真”.“真”的定義有很多,本 文采用亞里士多德的經典定義[16]:說是者為非,非 者為是,即為假;而說是者為是,非者為非,即為 真. 基于此,Tarski 提出一個更形式化的“真”的定 義[17]:

X 是真語句當且僅當 p, 其中 p 代表任意語句,X 是語句 p 的名稱. 即,一個語句是真的,當且僅當它描述的情況確實 發生了.比如:“樹在長芽”是真語句當且僅當樹在 長芽,即“樹在長芽”是真語句當且僅當樹在長芽 確實發生了. 但是,這個看似合理的“真”的定義卻隱含矛 盾.Tarski 轉述了烏卡謝維茨的加強版說謊者悖論: 令 C 是“C 不是一個真語句”的名稱,因此, 有如下兩個假設: 1)α假設:C=“C 不是真語句”; 2)β假設:“C 不是真語句”是真語句當且僅 當“C 不是真語句”. 綜合α假設與β假設,即可以得到:C 是真語 句當且僅當“C 不是真語句”,悖論. Tarski 關于“真”的定義和上面的推理似乎都沒 有問題,那問題出在哪里呢?我們認為問題出在概 念的定義上,因此需要仔細考察概念的定義. 眾所周知,概念的經典表示由三部分組成:符 號表示、內涵表示和外延表示.其中,概念的符號表 示由概念名稱表示,概念的內涵表示由描述概念特 性的命題表示,概念的外延表示由概念所包含的實 例的經典集合表示.比如,“偶數”這個概念,其中文符號表示是“偶數”這個詞;內涵表示是 “能被 2 整除的整數”這個命題;外延表示是包含所有偶數 的集合:{...,-6,-4,-2,0,2,4,6,...}.

如圖 3 所示,根據經典表示,每個概念具備 3 種 功能:指名、指心和指物,同時對應著波普爾的 3 個世界:符號世界、心理世界和物理世界[18] .概念的 指名功能,是指每個概念都指向認知世界或符號世 界中的一個實體,用所指對象的特定符號名稱來表 示.這些符號名稱可以組成各種不同的語言.概念的指 心功能,是指每個概念也指向人類心理世界中的實 體,代表這個概念在心理世界里的對象表示.概念的 指物功能,強調概念與物理世界中的實體之間的對 應,這些實體遵循物理世界的規律,可以獨立于人 的主觀感受. 如果從概念的表示來實現人工智能,指名指物 指心對應了 3 條路徑:符號主義、連接主義和行為 主義.如果從概念的功能角度來對人工智能分類,可 以分為認知智能、情感智能和行為智能.認知智能實 現了概念的指名功能,即處理和理解符號世界的問 題.情感智能則實現了概念的指心功能,主要關注心 理世界中的問題.而行為智能則體現了概念的指物功 能,主要解決物理世界中的問題.然而,如果要實現 概念的三指功能,必須首先解決機器的感知問題.解 決機器感知問題是最基本的人工智能,通常被稱為 感知智能.感知智能主要關注機器的輸入輸出處理, 是實現認知智能、情感智能和行為智能的基礎.

在概念的經典表示下,概念的指名、指心與指 物功能是等價的,其符號表示、內涵表示和外延表 示在功能上也是可以互換的.這是因為概念的經典表 示存在 6 條預設:1) 概念的外延表示可以由集合{x1,x2,? ,}表示; 2) 概念的內涵表示存在且用命題?xP(x)表示; 3) 概念的名稱存在,且用符號表示 A;4) 概念的外延表示與內涵表示同名:A={x1,x2, ? ,}=“?xP(x)”;5) 概念的表示唯一,即同一個概念的表示與個體無關:?α(A α=A), α 代表一個人;6) 概念的指稱等價,即其內涵表示與外延表 示在指稱對象的時候功能等價?x(x∈A?P(x)),其中, A={x1,x2,? ,}.

根據上述概念的經典表示,可以知道概念的指 名、指心與指物功能是等價的.在日常生活中,這種 情況非常普遍,因此說真話是通常的情形.羅素曾給 出一個清晰的論證[19]:“除非假定說真話是一種通常 的情況,否則沒有人能夠學會說話:假設當你的孩 子看到一條狗時,你隨意地說出‘貓’、‘馬’或者‘鱷 魚’,那么當他看到的不是一條狗時,你無法通過能 通過說‘狗’來欺騙他.因此,說謊是一種派生的行為, 它預設了說真話是通常的規則.”在上述羅素的論證 里,可以清楚地看到,其預設了概念的指名與指物 等價,即假設概念的三指等價是真的必要條件.如果概念的指名、指心與指物功能等價,則可 以認為:認知智能、情感智能與行為智能等價.這意 味著一旦實現了認知智能,也就同時實現了情感智 能和行為智能.同時,人工智能的三條實現路徑—符 號 主 義 、 連 接 主 義 和 行 為 主 義 一 也 是 等 價 的.ChatGPT 和 GPT4 的出現,表明認知智能已經取 得了巨大的進步. 如果概念的三指等價,那么認知 智能的巨大進步預示著情感智能和行為智能將取得 同樣的巨大進步.從這個角度看,實現 AGI 似乎也有 可能性.然而,烏卡謝維茨悖論告訴我們概念三指等價 在邏輯上并不永遠成立:它內蘊矛盾.Tarski 的真定 義實際上等價于如下命題:概念的指名功能為真當 且僅當概念的指物功能為真.顯然,概念的經典表示 也預設了 Tarski 的真定義. 仔細分析烏卡謝維茨悖論 的邏輯推理,可以發現 α 假設與 β 假設都預設了概 念的指名功能為真與概念的指物功能為真等價,這 必然導致悖論.實際上,在概念的三指等價條件下, 針對包含算術系統的邏輯系統,哥德爾證明了不完 全性定理,而Tarski得到了著名的真之不可定義定理. 這些都說明在復雜一點的符號系統內部,不可能解 決 何 為 真 何 為 假 的 問 題 . 因 此 , 從 理 論 上 講 , ChatGPT 和 GPT4 同樣無法解決真假問題.因此,我 們必須放棄概念的三指等價假設.一旦放棄了這個假 設,就會發現認知智能、情感智能與行為智能是不 可能等價的.實際上,現實生活中,這三種智能從未 等價過.

4 AI 的未來

很多人認為 ChatGPT 已經開啟了第四次技術革 命.面對這種尺度的變革,我們很難在早期準確預測未來的發展.在這里,我們僅從中短期技術趨勢和長 期發展路徑兩個方面,來探討在當前階段我們對這 一技術的理解.

4.1 中短期技術趨勢

OpenAI 發明 ChatGPT 對于人工智能領域的影響, 可以類比哥倫布發現了美洲大陸.在哥倫布發現美洲 之前,探險家們一直渴望著探索新大陸,并嘗試使 用各種方法去尋找它.然而,即使是經驗非常豐富的 探險家,也并不確定新大陸是否真實存在,以及哪 種航海方法更為有效.哥倫布的成功不僅堅定了后來 探險家們的信心,更在一定階段內統一了尋找新大 陸的方法:在新的突破性技術出現以前,看似簡陋 的帆船和羅盤已經足以帶領人們到達目的地. 同樣地,ChatGPT 的誕生為人工智能領域注入 了信心并指明了發展方向,展示了“大力出奇跡” 的可能:通過不斷擴大神經網絡的模型規模和增加 數據量,可以在 AI 的道路上取得實質性的進展.在這 一目標和技術路線的共識下,我們從拓展應用、克 服局限和探索理論 3 個方面探討人工智能領域中短 期的可能技術趨勢.

4.1.1 拓展應用

**1) 垂直化. **ChatGPT 發布初期,人們嘗試在提示 詞中注入角色信息以增強垂直領域對話質量.為克服 提示詞 token 數量限制以融合領域語料,有工作提出 基于LangChain框架,將領域文檔切片后分布式輸入. 但這種做法存在私域數據泄露風險,解決思路之一 是利用 ChatGPT 控制和調用其他領域模型來提高垂 直化能力.此外,MIT 最近提出保護隱私的遷移學習 框架 Offsite-Tuning[20],可在不訪問完整模型的前提 下,在下游領域數據上微調數十億級參數的基礎模 型.對于需要構建領域模型的場景,在不泄露基礎模 型和領域數據的情況下,實現對通用基礎模型的領 域微調非常重要.

2) 個性化. 個性化可視為垂直化的極致,針對個 人需求和偏好的個性化微調模型能夠提供更精確的 服務.典型的應用場景包括個性化推薦系統、個性化 教育輔導、個人 AI 助理等.微軟于 2023 年 4 月 4 日 開源了大模型協作項目 JARVIS,旨在大型語言模型 與機器學習社區的其他模型之間建立連接.JARVIS 這 個名字讓我們對鋼鐵俠中同名的 AI 助理產生更多聯 想.如果未來個性化模型可以通過多模的人機交互來 增強,實現與人類對世界的同步感知、學習和成長, 這樣的 AI 助手能夠更好地理解個性化需求、情感和 行為,協助我們實現更高效的工作、學習和生活方 式.在這個過程中,我們需要解決諸如中心平臺式 AI 如何保護個人數據以及在個體層面部署模型等問題.

3) 工程化. ChatGPT 的誕生某種程度上是工程 化的勝利,而它的成功無疑將進一步加速 AI 技術從 實驗室研究走向工程化和產業化.從必要性上看,隨 著數據量和計算資源需求的增加,工業界擁有更好 的條件主導大模型研發,相關實驗室研究也需調整 研究范式和目標以適應工程化需求.從可行性上看, ChatGPT 的成功讓工業界看到了 AI 技術在各行業落 地和價值實現的可能,眾多開源項目和成熟技術框 架的出現則為 AI 技術工程化提供了支持.從重要性上 看,工程化是一個學科發展和成熟的標志,AI 技術 的工程化有助于進一步優化和完善相關技術,激發 學術創新活力,推動 AI 領域的整體發展.

4.1.2 克服局限

1) 多模態增強. 多模態大模型的發展逐漸以語 言模型為主,將視覺、語音等多模態信息映射到語 義符號空間進行處理.近來的多模態解決方案更是提 出直接以大型語言模型為基座來拓展多模態能力, 如 Visual ChatGPT 和 MM-ReAct 以 ChatGPT 為中心 調度其他視覺模型、PaLM-E 固定語言模型訓練額外 的視覺編碼器等.然而,人類在進行多模態學習時并 不完全依賴于符號空間,大腦神經網絡在不同感官 區域間傳遞、整合信息,同時結合視覺形象、空間 關系等非符號性表示.由于多模態世界建模更為復雜, 以語言模型為主或是現有條件下的折衷.隨著多模態 數據量與模型參數繼續增加,期望在視覺、語音等 空間實現真正的多模態生成能力.如被細線系著的氣 球照片,無需映射至語義空間,模型即可預測線剪 斷后的情景.

2)人機交互增強. 有人將現在的 ChatGPT 比作 一個博覽群書的神童,卻從未親身體驗過這個世界. 經典的認知實驗發現,與被動旁觀的貓相比,具有 自由活動能力的貓可以通過主動與環境互動并獲得 反饋,從而更好地學習行為能力[21] .在一項微軟的最 近研究中,ChatGPT 已經能夠根據人類的要求自動 編寫代碼并指揮無人機協助完成任務[22] .通過進一步 考慮生物學特性、身體感知和行動的影響,有望實 現與真實物理世界的雙向交互,在自主行為反饋中 不斷提升自身智能水平.

3) 可信增強. 之前的討論已概括了 ChatGPT 當 前的局限和進行可信研究的必要性.可以預見,每個 大模型公司都將需要一個專注于可信的安全和倫理 團隊.這就不難理解 OpenAI 的系列舉措:GPT-4 在訓 練完成后經過半年的評估和修正才發布、用 30 余頁 技術報告介紹安全補丁 System Card,以及對模型評 估框架Evals的開源.即便如此,ChatGPT還是因隱私問題在意大利遭禁,并遭到包括馬斯克和沃茲尼亞 克等上千名知名人士的聯名叫停.值得注意的是,除 了安全、公平、可解釋、數據隱私等經典可信問題 外,ChatGPT 還會帶來模型回音壁等新問題.目前, 使用 ChatGPT 生成的對話數據進行訓練已經成為公 開的秘密,甚至出現了專門收集 ChatGPT 對話的網 站 ShareGPT.其實,在人類反饋強化 RLHF 后,就有 學者提出了基于智能模型反饋強的 RLAIF 框架[23] .隨 著模型規模繼續增加,可供訓練的自然數據面臨枯 竭,模型生成標注和反饋數據在模型間的回音壁效 應將加劇可信問題.此外,垂直化、個性化、多模態 等技術趨勢也會帶來新的可信挑戰.關于可信增強的 方案,考慮到傳統 AI 測試基準已不足以評估模型能 力,我們需要盡快構建新的可信測試基準:包括可 信 benchmark 數據集和可信測試框架.此外,為了準 確評估模型的應用成熟度,我們應該研制面向大型 語言模型的可信標準,以規范不同可信等級的模型 在相應的應用場景中使用.同時,結合工程化的發展 趨勢,我們可以參考軟件開發周期中的測試-調試閉 環,在基礎模型和下游模型兩個層面進行迭代優化, 以確保模型在大規模應用場景中的可信性.

4.1.3 探索理論

1) 預訓練模型機理研究.近年來,計算機視覺和自 然語言處理領域的技術框架逐漸趨同.學習范式從特 征工程、深度監督學習轉向自監督預訓練,模型結 構從 CNN、RNN 發展為 Transformer.針對自監督預 訓練和 Transformer 結構,仍有很多基礎性問題等待 研究,如自監督學習泛化理論、預訓練與微調的動 態平衡分析、Transformer 結構的\定性和魯棒性分析 等.對于 ChatGPT,除了探究在線糾錯、理解弦外之 音等原因未知的能力外,還需進一步研究任務涌現 能力與模型規模以及訓練數據量等的關系,為未來 模型設計和實際應用提供指導.

2) 學科交叉融合研究. ChatGPT 作為催化劑,不僅 將推動人工智能學科內部計算機視覺和自然語言處 理領域的進一步整合,而且將激發學術界和工業界 更加深入地探討和實踐人工智能和其他學科交叉融 合以及跨學科應用的可能性.以腦科學為例,結合腦 結構和人工神經網絡研究,我們將更有可能揭示智 能產生的本質原因.實際上,OpenAI 的 CEO Sam Altman 早就投資了可控核聚變公司 Helion 和生物科 技公司 Retro Biosciences.科技部近期啟動的 AI for Science 專項部署工作更是明確指出了將人工智能與 數學、物理、化學、天文等基礎學科緊密結合,重 點攻關藥物研發、基因研究、生物育種研發、新材 料研發等領域的關鍵問題.

4.2 長期發展路徑

我們沿著概念經典表示和人工智能分類的討論 來看 AI 未來可能的發展路徑.《左傳》里有句名言, “太上有立德,其次有立功,其次有立言”.顯然, 立德屬于心理世界,是情感智能的范疇;立功屬于 物理世界,是行為智能的范疇;立言屬于符號世界, 是認知智能的范疇.應該指出,這三個世界既互相獨 立又相互依存.比如,符號世界也必須通過心理世界 表示才能為人所感知,同樣符號世界也必須通過物 理世界顯現展現才能傳播.對于人而言,認知的物理 世界本身也屬于符號世界的示例,沒有成為符號示 例的物理對象難以被符號世界記錄,同樣,物理世 界也是通過心理世界被人感知.

三個世界各自都足夠復雜.在符號世界中,有自 然符號、模擬符號和象征符號.其中自然符號直接用 物理世界中的對象作為符號,比如學生用書包或其 它個人物品占座.此時的書包或個人物品就有了符號 意義,屬于典型的自然符號.圖像、視頻等是典型的 模擬符號.文字是最常見的象征符號.至于心理世界、 物理世界的復雜性,更是眾所周知.

為了計算方便,通常假定概念的三指等價,即 符號世界、心理世界、物理世界三界同構.比如,符 號主義的物理符號系統假設認定物理符號系統具有 產生智能行為的充要條件,這暗示了符號世界與物 理世界等價.連接主義認為只要能模擬大腦的思考功 能就足夠了,實際上它假設了心理世界(或其子集) 與物理世界等價.行為主義則認為只要能在物理世界 實現智能,不需要知識、表示和推理,只需要感知 和行動,這意味著符號世界、心理世界是物理世界 或其子集.但是,3 個世界并不同構.比如,喬姆斯基 曾經寫過一個著名的句子:“Colorless green ideas sleep furiously.”這個句子在符號世界可行,但在心 理世界和物理世界就失去了可行性.因此,3 個世界 同構假設僅是一種有用的簡化,并不總是成立。

由于 3 個世界并不同構,它們之間的關系相當復雜.這導致在 3 個世界中實現智能的難度也大為不 同.從共性上講,無論在哪個世界實現智能,首先必 須解決最基礎的感知問題,即輸入輸出問題.從難度 上看,感知智能、認知智能、情感智能、行為智能 依次增加.原因很簡單:感知智能保持了 3 個世界同 構假設.從認知智能開始,我們必須放棄 3 個世界同 構的假設,只能假設 3 個世界的某些受限子集同構. 認知智能旨在解決符號世界的智能問題,其實現主 要受制于符號世界的規律,這些規律可能是顯知識, 也可能是暗知識,但認知智能依然在符號世界內預 設概念的三指等價.情感智能主要解決心理世界的智 能問題,除了受制于心理世界外,也受制于情感所 在的物理個體,即情感必須在認知層面具備具身特 性.理論上,西施難以與青蛙共情,夏蟲不能與秋雁 同語.對于機器來說,情感智能是基于認知智能的, 情感智能也是依賴于機器內部的符號操作.僅有認知 智能并不能實現情感智能,情感智能的實現難度髙 于認知智能,情感智能預設心理世界內的概念三指 等價.行為智能主要解決物理世界的智能問題,不但 受限于作為行為主體的自身物理條件,也受限于其 所處的物理環境,約束最多,因此實現難度最大.莫 拉維克悖論實際上是對行為智能實現難度最大的一 個簡單說明.對于行為智能來說,任一概念的三指等 價都需要檢驗,任一概念的三指等價都不能先驗預 設成立,這正是莫拉維克悖論背后隱藏的挑戰.圖 4 比較清楚地說明了概念的三指等價性從默認成立到 必須檢驗所對應的不同智能階段。

根據以上分析,人工智能的發展路徑可以預測 為:首先成熟的是感知智能,次之為認知智能,再 次為情感智能,最后是行為智能.這與人工智能目前 的現狀相符.當前,感知智能的問題已經大部分解決, 已經融入人們的日常生活.得益于 ChatGPT 等技術, 認知智能的問題已經初步解決,即將走入人們的生 活.情感智能的問題部分解決,受限可用,比如在三 界同構假設成立時,可以使用類 ChatGPT 技術.行為 智能的問題尚極具挑戰性,在目前的情況下可用性 受到嚴重限制,如在工廠等封閉場景下部分可用, 距離人們的日常生活需求尚遠.之所以在部分封閉場 景下行為智能能實現,原因即在于此時對應的相關 概念可以保證其三指等價.

粗略地說,感知智能是人工智能中的基礎智能, 可視為人工智能的 1.0 階段.認知智能是人工智能的 2.0 階段.情感智能則為人工智能的 3.0 階段.行為智能 可以看作是人工智能的 4.0 階段.目前的人工智能發 展已經進入了 AI2.0 時代,未來的 AI3.0 和 4.0 還有待努力.

5 ChatGPT的影響

人工智能發展至今,邁入認知智能時代,確實 取得了重大進步.雖然離 AI3.0 和 4.0 距離尚遠,但依 然將對我們的生活產生重要影響: 1)生成式 AI 的成功提醒我們,符號世界、心 理世界、物理世界三界同構假設不是恒真.今后,各 種符號的證據力量需要檢測,不能預設為真. 這不僅 大幅提升認知成本,還考驗認知能力.隨著類似 ChatGPT 工具的普及,它可能代表認知的最低水準.

2)每次技術進步,都對教育提出了更高的要求, 這次也不例外. ChatGPT 展現出的認知水平要求人們 更注重提出問題和獨立判斷的能力.鑒于符號世界的 人類普適性,教育尤其是高等教育需要提前布局.

3)ChatGPT 表明認知智能已可用,但依然不可 能通過原始的圖靈測試.這表明圖靈測試是有啟發性 的思想實驗,但不是衡量智能的實踐標準.

4)ChatGPT 的成功為國內人工智能學術界同時 帶來機遇與挑戰.機遇包括提高學界對相關問題的理 解,例如任務的主觀性,以往的多任務可能在新視 角下視為單任務;同時,全社會對人工智能潛在能 力的直觀體驗和認可得到提升,將極大推動相關產 業的發展.然而,挑戰也不容忽視:應用研究方面, 社會對技術的期待值提高,實效性和實用性至關重 要;理論研究方面,技術已領先于理論,亟需加強 理論研究.

5)類 ChatGPT 技術的大規模應用可能導致意識 形態等方面的信息繭房效應. 特別是類 ChatGPT 是中 心化的 AI 平臺,容易使人們在獲取信息時只接觸到 特定內容和片面觀點,這一方面會加劇社會分化, 另一方面會降低觀點多樣性,阻礙創新思維的產生, 為社會帶來潛在危害.

6)大模型對計算量的巨大需求可能會加劇全球 能源危機,并對環境產生不良影響.我們期望 AI for science 通過加速科學發現,更迅速地找到可持續能 源解決方案和新的節能技術,從而盡量降低這些負 面影響.

7)ChatGPT 在提高生產力方面潛力巨大.通過自 動化處理一些繁瑣的、重復性的任務,它可以解放 人們的時間和精力,讓人們關注于更有價值、更具 創造力的工作,進一步推動社會創新和發展.

參 考 文 獻

[1] Raffel C, Shazeer N, Roberts A, et al. Exploring the limits of transferlearning with a unified text-to-text transformer[J]. The Journal of Machine Learning Research. 2020, 21(1):5485-5551

[2] Zhou Y, Muresanu AI, Han Z, et al. Large language models are human-level prompt engineers[OL]. arXiv preprint arXiv:2211.01910. 2022

[3] Wei J, Tay Y, Bommasani R, et al. Emergent abilities of large language models[OL]. arXiv preprint arXiv:2206.07682. 2022

[4] Polanyi M, Sen A. The tacit dimension[M]. Chicago, IL: University of Chicago Press,2009

[5] Wu C, Yin S, Qi W, et al. Visual chatgpt: Talking, drawing and editing with visual foundation models[OL]. arXiv preprint, arXiv:2303.04671. 2023

[6] Yang Z, Li L, Wang J, et al. MM-REACT: Prompting ChatGPT for Multimodal Reasoning and Action[OL]. arXiv preprint, arXiv:2303.11381. 2023

[7] Shen Y, Song K, Tan X, et al. HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace[OL]. arXiv preprint, arXiv:2303.17580, 2023

[8] Borji A. A categorical archive of chatgpt failures[OL]. arXiv preprint, arXiv:2302.03494. 2023

[9] Liu Y, Liu X, Chen H, et al. Does Debiasing Inevitably Degrade the Model Performance[OL]. arXiv preprint, arXiv:2211.07350. 2022

[10] Zhuo TY, Huang Y, Chen C, et al. Exploring ai ethics of chatgpt: A diagnostic analysis[OL]. arXiv preprint, arXiv:2301.12867. 2023

[11] Carlini N, Tramer F, Wallace E, et al. Extracting Training Data from Large Language Models[C] //Proc of USENIX Security Symp. Berkeley, CA : USENIX Association, 2021: 2633-2650

[12] Luft J, Ingham H. The Johari window, a graphic model of interpersonal awareness[C] //Proc of the Western Training Laboratory in Group Development. Los Angeles: University of California, Los Angeles, 1955, 246

[13] Gao L, Madaan A, Zhou S, et al. PAL: Program-aided Language Models[OL]. arXiv preprint, arXiv:2211.10435. 2022

[14] Yao Shunyu, Zhao J, Yu Dian, et al. ReAct: Synergizing reasoning and acting in language models [C] //Proc of the Int Conf on Learning Representations (ICLR). 2023[2023-04-10].

[15] Shinn N, Labash B, Gopinath A. Reflexion: An autonomous agent with dynamic memory and self-reflection[OL]. arXiv preprint, arXiv:2303.11366. 2023

[16] Ross W D. Aristotle on His Predecessors, Being the First Book of His Metaphysics [M] (1908): 110-113

[17] Tarski A. The semantic conception of truth: and the foundations of semantics[J]. Philosophy and Phenomenological Research. 1944,4(3):341- 376

[18] Yu Jian. Brilliance and Darkness: Turing Test[J]. Journal of Computer Research and Development, 2020, 57(5): 906-911(in Chinese) (于劍. 圖靈測試的明與暗[J],計算機研究與發展,2020,57(5):906-911)

[19] Russell B. An Inquiry into Meaning and Truth [M].Beijing: China Commerce and Trade Press,2012 (羅素. 意義與真理的探究[M]. 北京:商務出版社,2012)

[20] Xiao G, Lin J, Han S. Offsite-Tuning: Transfer Learning without Full Model[OL]. arXiv preprint, arXiv:2302.04870. 2023

[21] Held R, Hein A. Movement-produced stimulation in the development of visually guided behavior [J]. Journal of Comparative and Physiological Psychology, 1963, 56(5):872

[22] Vemprala S, Bonatti R, Bucker A, et al. Chatgpt for robotics: Design principles and model abilities.2023

[23] Bai Y, Kadavath S, Kundu S, et al. Constitutional AI: Harmlessness from AI Feedback[OL]. arXiv preprint, arXiv:2212.08073. 2022

付費5元查看完整內容

來源:清華大學智能產業研究院、亞信科技

2022年被認為是人工智能生成內容(AIGC)元年。作為AIGC在自然語言領域的代表,ChatGPT在2022年年底一經推出,就掀起了一場可能涉及所有人和所有行業的"大火",2023年3月GPT-4的發布則進一步推動了"態勢升級"。由ChatGPT/GPT-4引發的全球關注,令許多人回憶起2016年AlphaGo 戰勝人類圍棋世界冠軍的時刻。如果說AlphaGo代表了AI在專業領域戰勝人類的起點,ChatGPT/GPT-4似乎邁出了通用人工智能的第一步。這是第三次Al浪潮以來所有積累產生的碩果,AI技術到了一個即將大規模產業化的臨界點。 ChatGPT 將單調呆板的人機通信演進到前所未有的自然、高效、有創造力的人機協作,代表了生產力的提升。ChatGPT有多重要?埃隆·馬斯克評價:"好得嚇人,我們離危險的強人工智能不遠了"。黃仁勛評價:"這是Al界的iPhone 時刻"。比爾.蓋茨表示"和個人電腦和互聯網的出現一樣重要。是當前最重要的創新,將改變世界"。在ChatGPT的基礎上,GPT-4進一步在各種專業和學術基準測試中表現出"人類水平"的性能,在事實性、可引導性和可控制方面取得了"史上最佳結果"。當然,GPT-4在不是無所不能的,仍具有與早期 GPT模型相似的局限性,如:犯常識性的錯誤、缺乏對新世界知識的了解、存 在社會偏見、產生幻覺、推理錯誤等。但是我們看到其技術背后卻具有一直優化學習和進步的能力。 在ChatGPT/GPT-4 席卷全球的熱潮中,人們已經深刻認識到人工智能作為經濟社會發展中一項變革性技術與關鍵性力量,將為全球產業帶來的巨大飛躍和 突破式發展,深刻影響未來世界競爭格局。通信行業作為信息通信基礎設施的建設者和運營者,既為Al的發展提供基礎設施支撐,又是AI應用落地的領先者。AIGC(GPT-4)如何賦能通信行業應用,通信行業如何落地AIGC,這是通信業者必須要思考和回答的問題。 本白皮書通過對AIGC的典型代表GPT-4的研究,以場景化的形式對GPT-4如何賦能通信行業進行了分析,并針對通信行業如何構建行業GPT進行了初步探討和實踐。期待行業同仁圍繞通信和人工智能協同創新,構建開放共享的創新生態,促進人工智能與通信產業的深度融合,加速構建下一代信息基礎設施,助力經濟社會數字化轉型。 正文

付費5元查看完整內容

ChatGPT是OpenAI開發的一個大型語言模型(LLM),它的發布和廣泛使用引起了公眾的極大關注,主要是因為它能夠快速提供可應用于大量不同上下文的現成答案。這些模型具有巨大的潛力。曾經被認為只能處理平凡任務的機器學習,已經證明自己有能力完成復雜的創造性工作。LLM正在不斷改進,并定期推出新版本,技術改進越來越快。雖然這為合法企業和公眾成員提供了巨大的機會,但對他們和對基本權利的尊重也可能是一種風險,因為罪犯和不良行為者可能希望利用LLM來實現自己的邪惡目的。為了響應公眾對ChatGPT日益增長的關注,歐洲刑警組織創新實驗室與來自組織的主題專家組織了許多研討會,以探索罪犯如何濫用ChatGPT等法學碩士,以及它如何幫助調查人員的日常工作。參加講習班的專家代表了歐洲刑警組織的所有專業知識,包括業務分析、嚴重和有組織犯罪、網絡犯罪、反恐以及信息技術。得益于研討會中所代表的豐富的專業知識和專長,這些實踐會議激發了對ChatGPT的積極和消極潛力的討論,并收集了廣泛的實際用例。雖然這些用例并不反映所有潛在應用程序的詳盡概述,但它們提供了可能的一瞥。本報告的目的是審查專門專家研討會的成果,并提高人們對LLMs可能對執法界工作產生的影響的認識。由于這類技術正在迅速發展,本文件進一步簡要展望了未來可能發生的情況,并強調了目前可以做些什么以更好地為其做好準備的一些建議。重要通知:在研討會中被選中的LLM是ChatGPT。選擇ChatGPT是因為它是目前對公眾可用的最高規格和最常用的LLM。本次活動的目的是觀察LLM在面對刑事和執法案件時的行為。這將幫助執法部門了解衍生和生成AI模型可能帶來的挑戰。本報告的較長和較深入版本僅供執法部門使用。

付費5元查看完整內容

AI大模型持續演進,GPT-4理解能力大幅提升。2022年11月30日,OpenAI發布ChatGPT,5天后即達到100萬用戶,是歷史上用戶增長最快的應用程序。2023年3月15日,OpenAI發布GPT-4,GPT4相比ChatGPT基于的GPT-3.5模型,其在多模態、理解能力、角色認知、長文本支持方面有了明顯進展。我們認為,無論從應用上的用戶增長,還是在模型上的能力提升方面,均具備極大優勢。   AI大模型加速應用升級,AIGC有望對多個行業帶來顛覆式創新。2023年2月8日,微軟正式將ChatGPT引入Bing,3月17日微軟宣布其正在將基于GPT-4的AI技術植入Office辦公軟件中,標志著以GPT-3.5和GPT-4為代表的大模型開啟了辦公和搜索新方式,我們認為,未來AI大模型的發展和推廣將率先帶來游戲、代碼編碼、生命科學3個行業的變革。此外,多模態將賦能生成式AI,在文本、音頻、圖像和視頻等場景實現商業化落地,軟件端和硬件端有望迎來新機遇,其中,我們將重點關注大模型對工具類軟件和多場景的賦能,在工具側有望帶來以CAD、EDA、ERP為主的工具類軟件的估值重構。   GPT-4引發海量算力需求,把握算力產業鏈機會。根據測算,我們認為,在中性假設下,ChatGPT一年產生的API調用費用約為6.2億美元,與此同時,ChatGPT將在訓練和推理層面對GPU產生巨大需求。根據OpenAI公開信息,GPT-3.5模型的API價格為0.002美元/千token,而GPT-4在請求方面的API價格為0.06美元/千token,回復方面為0.12美元/千token,以0.06美元/千token計算,GPT-4的API調用成本是GPT-3.5的30倍以上,算力相關需求有望翻倍增長。

付費5元查看完整內容

人工智能(AI)研究人員一直在開發和完善大型語言模型(LLM),這些模型在各種領域和任務中表現出非凡的能力,挑戰了我們對學習和認知的理解。OpenAI開發的最新模型GPT-4是使用前所未有的計算和數據規模進行訓練的。本文報告了對早期版本的GPT-4的調研,當時它仍由OpenAI積極開發。我們認為(這個早期版本)GPT-4是新一代LLM的一部分(例如ChatGPT和谷歌的PaLM),它們比以前的人工智能模型表現出更多的通用智能。討論了這些模型不斷提高的能力和影響。證明了GPT-4除了對語言的掌握外,還可以解決跨越數學、編碼、視覺、醫學、法律、心理學等新穎和困難的任務,而不需要任何特別的提示。此外,在所有這些任務中,GPT-4的性能驚人地接近人類水平的性能,并經常大大超過之前的模型,如ChatGPT。鑒于GPT-4能力的廣度和深度,我們相信它可以被合理地視為人工通用智能(AGI)系統的早期(但仍不完整)版本。在對GPT-4的探索中,特別強調了發現其局限性,并討論了向更深入、更全面的AGI版本前進的挑戰,包括可能需要追求一種超越下一個字預測的新范式。最后,反思了最近技術飛躍的社會影響和未來的研究方向。

付費5元查看完整內容

**本文對OpenAI的ChatGPT[1]在機器人應用中的使用進行了實驗研究。**本文概述了一種策略,將prompt工程的設計原則和高級函數庫的創建相結合,使ChatGPT能夠適應不同的機器人任務、模擬器和形狀因素。重點評估了不同的提示工程技術和對話策略對執行各種類型的機器人任務的有效性。探討了ChatGPT使用自由形式對話、解析XML標簽和合成代碼的能力,以及使用特定任務的提示函數和通過對話進行閉環推理的能力。**本文研究涵蓋了機器人領域的一系列任務,從基本的邏輯、幾何和數學推理一直到復雜的領域,如空中導航、操縱和具身智能體。**ChatGPT可以有效地解決其中的幾個任務,同時允許用戶主要通過自然語言指令與之交互。此外,本文還介紹了一個名為PromptCraft的開源研究工具,其中包括一個研究人員可以協作上傳并投票的機器人應用程序的良好提示方案示例的平臺,以及一個集成ChatGPT的機器人模擬器示例,使用戶更容易開始使用ChatGPT機器人。

自然語言處理(NLP)的快速發展導致了大型語言模型(LLMs)的發展,如BERT[2]、GPT-3[3]和Codex[4],這些模型正在對廣泛的應用程序進行革命。這些模型在文本生成、機器翻譯和代碼合成等各種任務中都取得了顯著的效果。這個模型集合的最新成員是OpenAI ChatGPT[1],這是一個預訓練的生成文本模型,使用人類反饋進行了微調。與以前主要基于單個提示符操作的模型不同,ChatGPT通過對話提供了特別令人印象深刻的交互技能,結合了文本生成和代碼合成。我們在本文中的目標是研究ChatGPT的能力是否以及如何推廣到機器人領域。我們將ChatGPT的功能擴展到機器人領域,并使用語言直觀地控制了多個平臺,如機器人手臂、無人機和家庭助理機器人。

你有沒有想過用你自己的語言告訴機器人該做什么,就像你對人類做的那樣?如果只是告訴你的家庭機器人助手:“請把我的午餐熱一下”,然后讓它自己找到微波爐,這不是很神奇嗎?盡管語言是我們表達意圖最直觀的方式,但我們仍然嚴重依賴手寫代碼來控制機器人。我們的團隊一直在探索如何改變這一現實,并使用OpenAI的新AI語言模型ChatGPT使自然的人-機器人交互成為可能。

ChatGPT是一個在大量文本和人類交互語料庫上訓練的語言模型,它可以對各種各樣的提示和問題生成連貫且語法正確的回答。我們這項研究的目標是看看ChatGPT是否能超越文本思考,并對物理世界進行推理,以幫助機器人任務。我們希望幫助人們更容易與機器人互動,而不需要學習復雜的編程語言或機器人系統的細節。這里的關鍵挑戰是教ChatGPT如何解決問題,考慮物理定律,操作環境的上下文,以及機器人的物理行為如何改變世界的狀態。

近年來,在將語言納入機器人系統方面有不同的嘗試。這些工作主要集中在針對特定形式因素或場景使用語言token嵌入模型、LLM特征和多模態模型特征。應用范圍從視覺-語言導航[5,6],基于語言的人機交互[7,8]和視覺-語言操作控制[9,10,11]。然而,盡管在機器人中使用LLMs有潛在的優勢,但大多數現有方法都受到嚴格的范圍和有限的功能集的限制,或其開環性質的限制,不允許從用戶反饋中進行流動交互和行為糾正。當被要求進行高層智能體規劃[12,13]或代碼生成[14,15]時,GPT-3、LaMDA和Codex等模型也在零樣本機器人場景中顯示出希望。這些早期的演示啟發我們研究ChatGPT,將其作為機器人領域的一個潛在的更多功能的工具,因為它結合了自然語言和代碼生成模型的優勢以及對話的靈活性。ChatGPT能夠參與自由形式的對話和捕獲長上下文,允許用戶以更自然的方式與模型交互,并靈活地進行行為矯正。

本文旨在展示ChatGPT在機器人應用中的潛力。我們概述了一個關鍵概念,它解鎖了用ChatGPT解決機器人應用程序的能力,這是創建一個高級函數庫。由于機器人是一個多樣化的領域,存在多種平臺、場景和工具,因此存在各種各樣的庫和api。我們創建了一個簡單的高級函數庫供ChatGPT處理,然后可以在后端鏈接到所選平臺的實際API,而不是要求LLM輸出特定于平臺或庫的代碼,這可能涉及大量的微調。因此,我們允許ChatGPT從自然對話框中解析用戶意圖,并將其轉換為高級函數調用的邏輯鏈。本文還概述了一些幫助ChatGPT解決機器人任務的提示工程指南。

事實證明,ChatGPT本身可以做很多事情,但它仍然需要一些幫助。我們的技術論文描述了一系列設計原則,可用于指導語言模型解決機器人任務。這些包括但不限于特殊的提示結構、高級API和通過文本的人工反饋。我們相信,我們的工作只是我們如何開發機器人系統的轉變的開始,我們希望激勵其他研究人員進入這個令人興奮的領域。繼續閱讀有關我們的方法和想法的更多技術細節。

當今機器人技術的挑戰,以及ChatGPT如何提供幫助

機器人系統與純文本應用不同,需要對現實世界的物理、環境上下文和執行物理動作的能力有深刻的理解。一個生成式機器人模型需要有一個強大的常識知識和一個復雜的世界模型,以及與用戶交互的能力,以物理上可行的方式解釋和執行命令,在現實世界中有意義。這些挑戰超出了語言模型的原始范圍,因為它們不僅必須理解給定文本的含義,還必須將意圖翻譯為物理動作的邏輯序列。

當前的機器人管道從工程師或技術用戶開始,他們需要將任務需求轉換為系統的代碼。工程師在循環中,這意味著他們需要編寫新的代碼和規范來糾正機器人的行為。總的來說,這個過程是緩慢的(用戶需要編寫低級代碼),昂貴的(需要具有深度機器人知識的高技能用戶),并且低效的(需要多次交互才能讓事情正常工作)。

ChatGPT開啟了一種新的機器人范式,并允許(潛在的非技術)用戶參與循環,在監視機器人性能的同時向大型語言模型(LLM)提供高級反饋。通過遵循我們的設計原則,ChatGPT可以為機器人場景生成代碼。在沒有任何微調的情況下,我們利用LLM的知識來控制不同的機器人形狀,以完成各種任務。在我們的工作中,我們展示了多個ChatGPT解決機器人難題的示例,以及在操作、空中和導航領域的復雜機器人部署。 ChatGPT機器人技術:設計原則

LLMs是一門高度經驗主義的科學。通過反復試驗,我們建立了一套方法和一套設計原則,用于為機器人任務編寫提示:

首先,我們定義一組高級機器人api或函數庫。這個庫可以特定于特定的機器人,并且應該映射到機器人的控制棧或感知庫中的現有底層實現。對高級api使用描述性的名稱非常重要,這樣ChatGPT可以推斷它們的行為; * 接下來,我們為ChatGPT編寫一個文本提示,它描述了任務目標,同時也明確說明了高級庫中的哪些函數可用。提示符還可以包含關于任務約束的信息,或者ChatGPT應該如何形成它的答案(使用特定的編碼語言,使用輔助解析元素); * 用戶停留在循環中來評估ChatGPT的代碼輸出,要么通過直接檢查,要么使用模擬器。如果需要,用戶可以使用自然語言向ChatGPT反饋答案的質量和安全。 * 當用戶對解決方案感到滿意時,就可以將最終代碼部署到機器人上。

ChatGPT到底能做什么?

零樣本任務規劃

我們讓ChatGPT訪問控制真正無人機的功能,事實證明,它是非技術用戶和機器人之間非常直觀的基于語言的界面。當用戶的指示模棱兩可時,ChatGPT會提出澄清性問題,并為無人機編寫復雜的代碼結構,如z字形模式以視覺檢查貨架。它甚至學會了自拍!???? 我們還在使用Microsoft AirSim模擬器的模擬工業檢測場景中使用ChatGPT。該模型能夠有效地解析用戶的高層意圖和幾何線索,從而準確地控制無人機。

循環中的用戶:當一個復雜的任務需要對話時

接下來,我們將ChatGPT用于機器人手臂的操作場景。我們使用對話反饋來教模型如何將最初提供的API組合成更復雜的高級函數:ChatGPT自己編碼。通過使用基于課程的策略,該模型能夠將這些學習到的技能邏輯地鏈接在一起,以執行堆疊積木等操作。 此外,當任務是用木塊構建微軟標志時,該模型展示了一個連接文本和物理域的有趣示例。它不僅能夠從其內部知識庫中回憶徽標,還能夠“繪制”徽標(作為SVG代碼),然后使用上述學到的技能來確定現有的機器人動作可以組成其物理形式。

接下來,我們委托ChatGPT編寫一個算法,使無人機在不撞到障礙物的情況下在太空中達到目標。我們告訴模型,這架無人機有一個面向前方的距離傳感器,ChatGPT立即為算法編寫了大多數關鍵的構建模塊。這項任務需要與人類進行一些對話,我們對ChatGPT僅使用語言反饋進行本地化代碼改進的能力印象深刻。

感知-行動循環:機器人在行動之前感知世界

在做某事(行動)之前感知世界(感知)的能力是任何機器人系統的基礎。因此,我們決定測試ChatGPT對這個概念的理解,并讓它探索一個環境,直到找到用戶指定的對象。我們允許模型訪問諸如對象檢測和對象距離API等函數,并驗證了它生成的代碼成功地實現了感知-動作循環。在實驗角色中,我們運行了額外的實驗來評估ChatGPT是否能夠根據傳感器實時反饋來決定機器人應該去哪里(而不是讓ChatGPT生成一個代碼循環來做出這些決定)。有趣的是,我們驗證了我們可以在每一步將相機圖像的文本描述輸入到聊天中,并且該模型能夠弄清楚如何控制機器人,直到它到達特定的對象。

付費5元查看完整內容

大型語言模型代表了人工智能領域的重大進步。基礎技術是進一步創新的關鍵,盡管有批評意見,甚至在社區和地區內禁止,大型語言模型仍然存在。這篇立場論文從學生和教師的角度介紹了大型語言模型的教育應用的潛在好處和挑戰。簡要討論了大型語言模型及其應用的現狀。強調了如何使用這些模型來創建教育內容,提高學生參與度和互動,以及個性化學習體驗。關于挑戰,本文認為,教育中的大型語言模型需要教師和學習者開發一套必要的能力和素養,以理解技術以及這些系統的局限性和意想不到的脆弱性。此外,為了在學習環境和教學課程中整合和充分利用大型語言模型,需要在教育系統中有一個明確的策略和一個明確的教學方法,重點關注批判性思維和事實檢查策略。其他挑戰,如輸出中的潛在偏見,需要持續的人工監督,以及濫用的可能性,并不是人工智能在教育中的應用所特有的。但我們相信,如果合理處理,這些挑戰可以在教育場景中提供見解和機會,讓學生盡早了解人工智能應用的潛在社會偏見、關鍵和風險。最后,我們提出了如何應對這些挑戰的建議,并確保在教育中以負責任和道德的方式使用這些模式。

//www.edu.sot.tum.de/fileadmin/w00bed/hctl/my_direct_uploads/ChatGPT_for_Good.pdf

付費5元查看完整內容

工業人工智能 (AI) 是人工智能在工業中的應用,是第四次工業革命中價值創造的主要貢獻者。人工智能正被嵌入到廣泛的應用程序中,幫助組織獲得顯著的利益,并使他們能夠改變向市場提供價值的方式。

? 本文檔為支持人工智能的工業物聯網系統的開發、培訓、文檔編制、通信、集成、部署和操作提供指導和幫助。它面向來自 IT 和運營技術 (OT)、來自多個學科的業務和技術的決策者,包括業務決策者、產品經理、系統工程師、用例設計師、系統架構師、組件架構師、開發人員、集成商和系統操作員。

該文檔圍繞 IIC 工業互聯網參考架構中的架構觀點構建,即業務、使用、功能和實施觀點。該文件討論了推動人工智能采用的商業和價值創造考慮因素。它還詳細闡述了人工智能的使用、工業用例以及與之相關的道德、隱私、偏見、安全、勞工影響和社會問題。在技術方面,該文檔描述了與 AI 相關的架構、功能和數據注意事項,并討論了各種實施注意事項,例如性能、可靠性、數據屬性和安全性?。

人工智能的采用將在行業中加速。鑒于計算能力的快速增長、可用于訓練的數據的更廣泛可用性以及算法的日益復雜,人工智能技術將繼續發展。當前的 IT 標準和最佳實踐必須不斷發展,以解決 AI 本身的獨特特征以及與 IIoT 系統的安全性、可靠性和彈性相關的具體考慮因素。此外,人工智能技術的日益成熟將幫助人們認識到它的好處遠遠超過它的風險。 AI 標準生態系統也將繼續發展,例如 ISO/IEC JTC 1/SC42 正在進行的標準工作,為 JTC 1、IEC 和 ISO 委員會制定 AI 標準提供指導。

基于這些趨勢,毫無疑問,人工智能將繼續推動技術和功能上的可能性,因此預期合理的事情將同樣發展。對技術的態度和對其使用的商業期望也將繼續發展。

未來,我們可以期待使用人工智能技術成為常態,而不是例外,考慮到這項技術的社會效益,“不使用人工智能”最終可能會成為不負責任的做法。

付費5元查看完整內容
北京阿比特科技有限公司