12 月 6 日,谷歌 CEO 桑達爾?皮查伊官宣 Gemini 1.0 版正式上線。這次發布的 Gemini 大模型是原生多模態大模型,是谷歌大模型新時代的第一步,它包括三種量級:能力最強的 Gemini Ultra,適用于多任務的 Gemini Pro 以及適用于特定任務和端側的 Gemini Nano。
現在,谷歌的類 ChatGPT 應用 Bard 已經升級到了 Gemini Pro 版本,實現了更為高級的推理、規劃、理解等能力,同時繼續保持免費。谷歌預計在明年初將推出「Bard Advanced」,其將使用 Gemini Ultra。
谷歌 DeepMind CEO 和聯合創始人 Demis Hassabis 代表 Gemini 團隊正式推出了大模型 Gemini。 Hassabis 表示長久以來,谷歌一直想要建立新一代的 AI 大模型。在他看來,AI 帶給人們的不再只是智能軟件,而是更有用、更直觀的專家助手或助理。 今天,谷歌大模型 Gemini 終于亮相了,成為其有史以來打造的最強大、最通用的模型。Gemini 是谷歌各個團隊大規模合作的成果,包括谷歌研究院的研究者。 特別值得關注的是,Gemini 是一個多模態大模型,意味著它可以泛化并無縫地理解、操作和組合不同類型的信息,包括文本、代碼、音頻、圖像和視頻。 谷歌表示,Gemini 還是他們迄今為止最靈活的模型,能夠高效地運行在數據中心和移動設備等多類型平臺上。Gemini 提供的 SOTA 能力將顯著增強開發人員和企業客戶構建和擴展 AI 的方式。
目前,Gemini 1.0 提供了三個不同的尺寸版本,分別如下:
谷歌對 Gemini 模型進行了嚴格的測試,并評估了它們在各種任務中的表現。從自然圖像、音頻和視頻理解,到數學推理等任務,Gemini Ultra 在大型語言模型研發被廣泛使用的 32 個學術基準測試集中,在其中 30 個測試集的性能超過當前 SOTA 結果。 另外,Gemini Ultra 在 MMLU(大規模多任務語言理解數據集)中的得分率高達 90.0%,首次超越了人類專家。MMLU 數據集包含數學、物理、歷史、法律、醫學和倫理等 57 個科目,用于測試大模型的知識儲備和解決問題能力。 針對 MMLU 測試集的新方法使得 Gemini 能夠在回答難題之前利用其推理能力進行更仔細的思考,相比僅僅根據問題的第一印象作答,Gemini 的表現有顯著改進。 在大多數基準測試中,Gemini 的性能都超越了 GPT-4。
**Gemini 高性能多模態大模型Gemini: A Family of Highly Capable Multimodal Models
這份報告介紹了一種新的多模態模型系列——Gemini,它在圖像、音頻、視頻和文本理解方面展現出非凡的能力。Gemini系列包括Ultra、Pro和Nano三種尺寸,適用于從復雜推理任務到設備內存受限用例的各種應用。在一系列廣泛的基準測試中的評估顯示,我們最強大的Gemini Ultra模型在這些基準測試的32項中的30項中推進了最新技術水平——特別是它是首個在廣受研究的考試基準MMLU上達到人類專家表現的模型,并且在我們檢查的所有20項多模態基準測試中提升了最新技術水平。我們相信,Gemini模型在跨模態推理和語言理解方面的新能力將使各種用例成為可能,我們討論了將它們負責任地部署給用戶的方法。
我們在Google開發了一系列高性能的多模態模型——Gemini。我們對Gemini進行了聯合訓練,覆蓋圖像、音頻、視頻和文本數據,旨在構建一個在多種模態上都具有強大的通才能力,并在各自領域內具有先進的理解和推理性能的模型。 Gemini 1.0,我們的首個版本,有三種尺寸:Ultra用于高度復雜的任務,Pro用于提升性能和大規模部署能力,Nano用于設備上的應用。每種尺寸都專門針對不同的計算限制和應用需求進行了優化。我們在一系列內部和外部基準測試上評估了Gemini模型的性能,涵蓋了廣泛的語言、編程、推理和多模態任務。 Gemini在大規模語言建模(Anil等,2023;Brown等,2020;Chowdhery等,2023;Hoffmann等,2022;OpenAI,2023a;Radford等,2019;Rae等,2021)、圖像理解(Alayrac等,2022;Chen等,2022;Dosovitskiy等,2020;OpenAI,2023b;Reed等,2022;Yu等,2022a)、音頻處理(Radford等,2023;Zhang等,2023)和視頻理解(Alayrac等,2022;Chen等,2023)方面推進了最新技術。它還基于序列模型(Sutskever等,2014)、深度學習基于神經網絡的長期研究(LeCun等,2015),以及機器學習分布式系統(Barham等,2022;Bradbury等,2018;Dean等,2012)來實現大規模訓練。 我們最強大的模型,Gemini Ultra,在我們報告的32個基準測試中的30個中取得了新的最新技術成果,包括12個流行的文本和推理基準測試中的10個,9個圖像理解基準測試中的9個,6個視頻理解基準測試中的6個,以及5個語音識別和語音翻譯基準測試中的5個。Gemini Ultra是首個在MMLU(Hendrycks等,2021a)上達到人類專家表現的模型——一個通過一系列考試測試知識和推理的著名基準測試——得分超過90%。除了文本,Gemini Ultra在挑戰性的多模態推理任務上也取得了顯著進展。例如,在最近的MMMU基準測試(Yue等,2023)上,該測試包含了關于圖像的多學科任務,需要大學級別的主題知識和深思熟慮的推理,Gemini Ultra取得了62.4%的新最新技術成績,比之前最好的模型高出5個百分點以上。它為視頻問答和音頻理解基準測試提供了統一的性能提升。 定性評估展示了令人印象深刻的跨模態推理能力,使模型能夠本地地理解和推理音頻、圖像和文本輸入序列(見圖5和表13)。以圖1中描繪的教育場景為例。一位老師畫了一個滑雪者下坡的物理問題,一位學生對其進行了解答。使用Gemini的多模態推理能力,模型能夠理解凌亂的手寫字,正確理解問題的構成,將問題和解決方案轉換為數學排版,識別學生在解決問題時出錯的具體推理步驟,然后給出問題的正確解決方案。這為教育領域開辟了激動人心的可能性,我們相信Gemini模型的新多模態和推理能力在許多領域都有重大應用。大型語言模型的推理能力展示了構建能夠解決更復雜多步驟問題的通才型代理的前景。AlphaCode團隊構建了AlphaCode 2(Leblond等,2023),一種新的由Gemini驅動的代理,它結合了Gemini的推理能力、搜索和工具使用,擅長解決競賽編程問題。AlphaCode 2在Codeforces競賽編程平臺上排名前15%,比其最先進的前輩排名前50%有了大幅提升(Li等,2022)。 與此同時,我們通過Gemini Nano推進了效率的前沿,這是一系列針對設備上部署的小型模型。這些模型擅長于設備上的任務,如摘要、閱讀理解、文本完成任務,并在推理、STEM、編碼、多模態和多語言任務方面相對于它們的大小展示了令人印象深刻的能力。 在接下來的部分,我們首先提供模型架構、訓練基礎設施和訓練數據集的概述。然后,我們詳細評估了Gemini模型系列,涵蓋了廣泛研究的基準測試和跨文本、代碼、圖像、音頻和視頻的人類偏好評估——包括英語性能和多語言能力。我們還討論了負責任部署的方法,包括我們對影響評估的過程、開發模型政策、評估和在部署決策前減少傷害的方法。最后,我們討論了Gemini的更廣泛影響,它的局限性以及其潛在應用——為AI研究和創新的新時代鋪平道路。
自 1956 年提出人工智能(AI)以來,AI 產業與技術不斷發展,AI 大模型成為一訓多能的人工智能算法基礎設施,2019 年以來,大模型泛化求解能力大幅提升,成為產業主流技術路線。AI 大模型是“人工智能預訓練大模型”的簡稱,包含了“預訓練”和“大模型”兩層含義。“大模型+小模型”逐步成為產業主流技術路線,驅動全球 AI 產業的全面加速。 數字藝術是全球公認的具有獨立審美價值的藝術形式,近年來迅速發展,AI 模型技術的成熟無疑將為數字藝術帶來更廣闊的發展空間,其中特別涵蓋于國家文化數字化的戰略構想,尤其是數字藝術產業化的發展理念。黨的二十大報告明確部署建設網絡強國、數字中國,實施國家文化數字化戰略。中共中央辦公廳、國務院辦公廳印發《關于推進實施國家文化數字化戰略的意見》和《數字中國建設整體布局規劃》,說明文化數字化已成為建設社會主義文化強國、實現文化高質量發展的戰略選擇,對我國文化發展、文化產業國際競爭力和文化安全等方面發揮著不可替代的重要作用。此白皮書梳理研究 AI 與視覺藝術結合的應用案例和藝術作品,以及國家數字藝術相關戰略,為全面更新數字藝術發展模式,實現數字藝術產業新格局提供參考。本研究希望助力推動AI 藝術創新和產業應用的成果轉化,以支撐社會美育建設。以AI 藝術的發展過程向世界講好中國故事,傳播中國文化價值,建構中國美術教育的話語體系與評價體系,提升中國新時代新形象和文化軟實力。通過產生一套面向藝術創作者的 AI 大模型的創作方法論,從而完善大模型數字藝術生成的評價標準,為建立數據庫、資源交流平臺、滿足國家戰略提供多維度的建議。同時積極探索運用 AI 大模型將數字藝術延伸到屏幕之外的可能性,為數字藝術形態的迭代提供建議。將 AI 應用于藝術創作,能推動對 AI 算法的改進研究。通過在不同應用場景下對算法的表現進行研究和分析,可以使人們不斷反思AI 算法的極限、原理以及它的未來發展。AI 大模型的應用將促進藝術家和科技研究人員之間的交流與合作,進一步拓寬數字化創作的可能性。藝術創作不僅能夠拓展 AI 應用場景,還能為AI 算法的改進提供實驗數據和實踐基礎。跨界合作能同時推動技術的發展和文化與藝術的數字化轉型,進而推動中國式現代化進程。因此,藝術與AI 的深度融合將成為文化數字化建設的重要方向,這也是研究AI 在國家文化數字化建設中的重要意義所在。 此白皮書旨在強調跨學科和文理貫通的精神,將文化發展和AI 統一在人文精神框架下,反思科技發展對人的精神和社會心理的影響,并持批判性思考。同時強調藝術思維對科技創新的激發,將橫向、發散、逆向等創造性思維融入學科建設,以藝術探索的能量激發雙向創新。
在藝術學科重視 AI 技術發展史,通過了解技術史、科學思維和實驗方法,探索未知領域。AI 使數字藝術創作來到了新的階段,國內外大模型已經具有極高的工具屬性,這項技術變革對文化與藝術的數字化產生方式帶來極大的改變。這種改變滲透在創作生產、內容傳播和文化消費,國際競爭的新賽道已儼然從技術路線和成果的比拼轉向賦能文化數字化的應用場景之爭。技術領域通過國家政策調控正逐漸發力,對于如何將技術成果服務于國家文化數字化亟待研究。AI 是龐大的系統工程,需要技術和文化數字化應用場景的聯動。國際現有 AI 藝術應用廣度較好,但在垂直方向有欠缺,無法匹配中國文化藝術數字化生產的邏輯和需求。需要加強技術、設備、內容、內容生產方法、管理機構、政策導向、產業的多維度結合,為廣大文化和藝術從業者提供多層次支持,打通技術研究者與文化藝術從業者之間的隔閡。
AI 如何成為數字文化藝術創作的工具和合作者,AI 藝術創作工具產品化后如何更好與數字藝術產業結合,藝術工作者如何更高效地利用大模型生成工具,更好地滿足人民群眾的美學體驗,這些問題亟待解決。 AI 技術在全球化的影響下西方文化逐漸進入中國。目前AI 藝術創作的研究成果較多來自西方,這顯示出一定的研究難度,又揭示了該研究的必要性。扎根中國,學習西方的觀點強調了對中國傳統文化的保護和傳承,同時也注重吸收和融合西方文化中有價值的元素,以此來促進中國與世界的文化交流同時提升國際競爭力、文化軟實力。最后,我們衷心地感謝中央美術學院、京東人工智能研究院、亞馬遜云科技、以及匿名的多位師友、單位給予的無微不至的支持,感謝人工智能學會各方的信任和耐心。本白皮書最需要感謝的是,那些在 2023 年酷暑之下,猶如精心雕琢每一件藝術品的雕刻師,傾心打磨、細心塑造的編寫團隊成員,你們是這白皮書中不可或缺的靈魂。正是因為你們無私的奉獻,這份白皮書才得以綻放光彩。考慮到這項工作來的突然,毅然擔下這份責任的同時,編寫組全體成員在沒有額外經費資助的背景下,憑著對 AI 與藝術結合的熱情,以及為社會與學術界貢獻的初衷,僅僅利用自己的業余時間和精力,完善了這份白皮書。在編寫過程中,我們參考了眾多的資料、藝術家網站和以前的研究成果,對于這些資料的原作者和一直在實踐的藝術工作者們,表示最深的敬意和感謝。他們的作品和研究成果為我們提供了寶貴的靈感和支持,幫助我們完成了這個項目。本白皮書由中央美術學院副院長邱志杰主持編寫,陳抱陽主筆。由于時間、資源等實際因素的限制,文中難免存在疏漏和不足之處。我們深感歉意,并熱切期待廣大讀者的反饋和建議,以幫助我們不斷完善和進步。
在過去的十年中,最優輸運(OT)已從純數學中的獲獎研究領域發展成為一直反復出現在所有機器學習領域中的重要主題。OT 通過其理論和計算,采用多方位的方法實現了突破,結合了凸優化的元素(例如,線性和二次分配問題,Sinkhorn算法)、分析(偏微分方程(PDE),與Monge-Ampère方程的聯系)、隨機微積分(擴散模型,薛定諤橋)、統計學(采樣算法分析,廣義分位數,生成模型擬合)和深度架構。由于這些發展大多是同時進行的,這個領域對于非專業觀眾來說越來越難以理解和多樣化。本教程的目標是提供一個統一的視角,強調OT在上述發展中的核心地位,描繪這些方法在算法和理論方面的聯系,并提供一些方向,說明這個領域如何可以繼續發展,以創建基于這個激動人心的工具箱的新的機器學習方法。
參考文獻: * G. Peyré and M. Cuturi. Computational Optimal Transport: With Applications to Data Science. Foundations and Trends in Machine Learning 11.5-6 (2019) * C. Villani. Topics in Optimal Transportation. GSM Vol. 58, AMS, 2009. * F. Santambrogio. Optimal Transport for Applied Mathematicians. Birkh?user, 2015. * Y. Chen, T. T. Georgiou, and M. Pavon. Optimal Transport in Systems and Control. Annual Review of Control, Robotics, and Autonomous Systems Vol. 4 (2021).
本文簡單介紹了幾個關注度較高的大語言模型產品,包括 GPT3.5、GPT4、 文心一言、訊飛星火、Bard 和 New Bing,并比較了不同語言模型的操作性 能及代碼應用等方面的差異。 GPT3.5 和 GPT4 是 OpenAI 的產品,基于 Transformer 架構,以自回歸方式 從大量文本中學習預測下一單詞,功能包括生成文本、提供問答、寫作支持 和翻譯等。文心一言是百度開發的基于知識增強的大語言模型,訊飛星火則 是科大訊飛推出的新一代認知智能大模型,能夠基于自然對話方式理解與 執行任務。Bard 是谷歌的大型語言模型聊天機器人,使用 LaMDA 模型從高 質量信息源中提取回復內容。New Bing 是微軟基于 OpenAI 的 ChatGPT 語言 模型的搜索引擎,具有豐富的搜索和語言交互的能力。 我們總結了幾種人工智能語言模型在基本操作和性能方面的差異。通過對 它們的輸入、輸出和代碼能力等方面進行測試和評估,可以看到不同模型之 間存在不同的限制和特點,例如輸入限制、中文支持、對表格數據的分析能 力以及代碼生成的實現等,因此用戶可以根據具體的應用場景和需求來選 擇最合適的產品。 此外,我們發現部分模型具備較好進階功能,如對表格數據的分析和代碼生 成能力。在代碼生成能力的隨機測試過程中,GPT4 和 New Bing 能夠較好的 完成某些代碼生成任務,相比其他模型有更大的優勢。總體而言,這些比較 是為了更好地了解不同模型的操作性能和進階應用,并為用戶選擇合適的 語言模型提供參考。
TextCycleGAN(TCG)是一個基于循環生成對抗網絡(CycleGAN)的新的圖像字幕框架。這項工作旨在探索各種CycleGAN和條件GAN架構的性能,以構建TCG圖像字幕軟件包。
TCG最后一年的開發主要集中在調整算法以確保最佳性能。這項工作主要集中在以下幾個方面:
在這份報告中,我們概述了變化和由此取得的進展。我們展示了TCG在學習圖像字幕和圖像合成方面的困難;這些問題表明需要重新審視該架構的核心部分。截至本報告撰寫之時,TCG將被擱置,直到獲得進一步的資金。在重新審視TCG時,已經為它的未來列出了可能的修改意見。這些變化將為TCG成為一個強大的圖像字幕框架鋪平道路。
圖2. 受[4]和[5]啟發的圖像說明模型。卷積特征被輸入到LSTM以生成一個句子。Gumbel采樣器從softmax中獲取軟樣本,從而實現反向傳播。
3月15日 OpenAI發布多模態大模型GPT-4,其不僅在語言處理能力上提高,還具備對圖像的理解和分析能力。GPT-4商業化進程加快,開放API的同時還發布了在6個不同商業場景的應用落地。隨后微軟發布了震撼的微軟365 Copilot,極大提升office的生產力和交互方式。此前,ChatGPT就已經展示了強大的能力,在文字創造、人機交互、教育、影音、零售等多場景落地應用。我們認為,多模態大模型已在多領域具有專家能力,未來將深度賦能千行百業,改變生產生活方式。 **1. 2023年3月15日,OpenAI目前最強大的多模態預訓練大模型GPT-4正式發布。**其能夠處理文本、圖像兩種模態的輸入信息,單次處理文本量是ChatGPT的8倍,GPT-4的表現大大優于目前最好的語言模型,同時在學術考試中的水平遠超GPT3.5。這意味著GPT-4不僅在學術層面上實現了模型優化與突破,同時也展現出了成為部分領域專家的能力。
**2. GPT-4商業化進程加快。**GPT-4在發布時便開放了其純文本輸入的API,這與GPT-3和GPT-3.5的滯后開放不同。同時,GPT-4這次一起推出了6個商業場景的具體應用落地,在優化人機交互體驗、提供專業服務、提升組織效能、文化傳承與保護等方面都展現了巨大的潛能,未來有望看到更多場景中的商業化拓展與落地。 **3. ChatGPT已經刮起GPT生態狂潮。**2023年3月1號,OpenAI基于GPT 3.5 Turbo模型開放了ChatGPT API。API收費模式為0.002美元/1000tokens。相較于前一代開放接口GPT 3.5,性能更強的同時,價格下降90%,加速ChatGPT相關應用生態的發展。 **4.應用百花齊放,創造新的生產方式。**微軟先后在搜索引擎Bing、企業服務平臺Dynamic 365及開發者工具平臺Power Platform等接入 ChatGPT/GPT-4能力。微軟還發布了震撼的Microsoft 365 Copilot,極大提升office的生產力和交互方式。與此同時,在越來越多的企業宣布接入ChatGPT的能力,其中不乏一些已經取得優秀商業化的應用。如Jasper、Quizlet、Shop等,在語言文字創造、人機交互、教育、繪畫、影音、零售等多場景落地應用。 5. 我們認為以GPT4/ChatGPT為代表的預訓練大模型是這一輪AI浪潮的重要革新,重點推薦關注海內外優秀應用落地情況,AI芯片產業鏈等投資機遇。
**GPT技術發展不及預期:**GPT屬于先進AI算法,若后續GPT算法更新迭代效果不及預期,則會影響GPT演進及拓展,進而會影響其商業化落地等; **算法歧視與人權道德風險:**GPT引入基于人工反饋的強化學習,在人工反饋中,不可避免的會參雜歧視問題,從而會將歧視帶入后續的人機交互中;大模型在進行預訓練過程中,使用了大量數據,其中會涉及相關隱私問題; **數據數量與數據質量不及預期:**大模型需要大量的高質量數據進行訓練,若數據數量和質量存在短板,則會影響模型效果。 **GPT接口開放不明確:**目前GPT是否能對國內開放API還不明朗,若未來無法接入,可能將導致相關應用在國內無法落地。 **算力受限:**目前大模型訓練以GPU為主,尤其是英偉達的GPU。未來若GPU產能或者中美摩擦升級,可能導致國內廠商的算力布局。
主要觀點: ChatGPT帶來大模型時代變革,數據要素重要性提升 ChatGPT是由OpenAI研發的一種語言AI模型,其特點在于使用海量語料庫來生成與人類相似的反應。初代GPT模型參數1.17億,GPT2模型、GPT3模型參數分別達到15億、1750億。不斷提升的參數量級,使得ChatGPT3當前已經能夠應用在商業、研究和開發活動中。 當前此類參數體量龐大的模型,成為各大科技廠商研發重點。大模型的基礎為高質量大數據。ChatGPT的前身GPT-3就使用了3,000億單詞、超過40T的數據。此類大數據基礎的前提為三部分1)有效場景下的采集數據;2)大數據的存儲、清洗和標注;3)數據質量檢驗。 大模型發展之下,算力與網絡設施建設成為剛需 算力:ChatGPT類人工智能需要更充足的算力支持其處理數據,帶來更多高性能的算力芯片需求。英偉達表示,GPT-3需要512顆V100顯卡訓練7個月,或者1024顆A100芯片訓練一個月。2012年以來,AI訓練任務中的算力增長(所需算力每3.5月翻一倍)已經超越摩爾定律(晶體管數量每18月翻一倍)。 網絡設施:以微軟Azure為例,其AI基礎設施由互聯的英偉達AmpereA100TensorCoreGPU組成,并由QuantuminfiniBand交換機提供橫向擴展能力。服務器節點多、跨服務器通信需求巨大,網絡帶寬性能成為GPU集群系統的瓶頸,解決方式包括增加單節點通信帶寬與降低網絡收斂比,帶來光模塊、交換機等需求。 下游應用場景豐富,多行業落地可期 1)“生成式AI(generativeAI)”在互聯網及元宇宙領域市場化空間較為廣闊。基于現行的NLP算法發展程度及數據集規模。在不久的將來,生成式AI有較大可能在“智能客服”和“搜索引擎”進行增值,并有希望以“插件”的形式賦能現有的“生產力工具鏈(工程軟件/音視頻制作工具等)”。 2)AI在制造業的應用可分為三方面:a)智能裝備:指具有感知、分析、推理、決策、控制功能的制造裝備,典型代表有工業機器人、協作機器人、數控機床等;b)智能工廠:重點在于實現工廠的辦公、管理及生產自動化,典型的代表場景有協作機器人、智能倉儲物流系統等;c)智能服務:指個性化定制、遠程運維及預測性維護等。 3)人工智能在智能汽車領域的應用包括:a)智能駕駛依托AI,將從駕駛輔助發展至自動駕駛;b)智能座艙在AI支持下,從出行工具演變為出行管家。
香港中文大學(深圳) 蔡瑋教授等人在ACM MM2021上,從宏觀的角度提出了一個三層的元宇宙架構,包括基礎設施、交互和生態系統,并展示了區塊鏈驅動的大學校園元宇宙原型:Metaverse for Social Good: A University Campus Prototype。并提供論文講解視頻。
來自DeepMind的Aida Nematzadeh在CVPR2021上講述多模態預訓練的教程。
PyTorch是Facebook于2017年初在機器學習和科學計算工具Torch的基礎上,針對Python語言發布的一個全新的機器學習工具包,一經推出便受到了業界的廣泛關注和討論,目前已經成為機器學習從業人員的研發工具。
《PyTorch深度學習》是使用PyTorch構建神經網絡模型的實用指南,內容分為9章,包括PyTorch與深度學習的基礎知識、神經網絡的構成、神經網絡的知識、機器學習基礎知識、深度學習在電腦視覺中的應用、深度學習在序列數據和文本中的應用、生成網絡、現代網絡架構,以及PyTorch與深度學習的未來走向。
《PyTorch深度學習》適合對深度學習領域感興趣且希望一探PyTorch的業內人員閱讀;具備其他深度學習框架使用經驗的讀者,也可以通過本書掌握PyTorch的用法。
Vishnu Subramanian在領導、設計和實施大數據分析項目(人工智能、機器學習和深度學習)方面富有經驗。
擅長機器學習、深度學習、分布式機器學習和可視化等。 在零售、金融和旅行等行業頗具經驗,還善于理解和協調企業、人工智能和工程團隊之間的關系。