這本書將展示生成技術如何運作及其驅動力。同時也會探討其應用 - 展示各種創業公司和大公司在這個領域正在做些什么。還將著眼于挑戰和風險因素。在過去的十年中,公司已經在AI上投入了數十億。但是,重點一直放在將這項技術應用于預測上 - 這就是所謂的分析型AI。這可能意味著你會收到你無法抵擋的TikTok視頻。或者,分析型AI可以防范垃圾郵件或欺詐,或預測包裹何時會被送達。盡管這些都有利,但AI的潛能遠不止于此。下一個大趨勢將是利用這項技術來創新。例如,你可以拿一本書,AI模型將以極低的成本將其轉化為電影。這都是生成型AI的一部分。雖然現在還處于起步階段,但進展非常快。生成型AI已經能夠創建吸引人的博客帖子、社交媒體信息、美麗的藝術作品和引人入勝的視頻。這項技術的潛力巨大。它將對銷售、營銷、法律、產品設計、代碼生成,甚至藥物制造等許多類別都有用。你將了解到理解生成型AI的重要性該技術的基礎知識,如基礎和擴散模型生成型AI應用如何運作生成型AI將如何影響各種類別,如法律、營銷/銷售、游戲、產品開發和代碼生成。風險、缺點和挑戰。這本書適合誰這本書主要面向的是沒有技術背景的專業人士。比如,美國的企業界(如經理)以及科技初創公司的人們,他們需要理解生成型AI,以評估解決方案。
如果說2022年被稱為生成式人工智能之年,擴散模型應用取得突破,ChatGPT出世,一系列開創性的研究論文發表,2023年則把大模型推向了一個高峰,以GPT-4發布為標志,生成式人工智能,朝著通用人工智能的方向,進入了創新應用的階段。
這一階段最重要的特征,是應用、研究、監管,合力開辟著生成式人工智能的創新之路。
01/
創新應用
人們很快從生成式人工智能中看到了新的商業生態的出現,看到了一層又一層的技術,如計算、模型和應用;看到了生成的內容,如文、圖、視頻、代碼、3D結構、多模態;也看到了公開數據、垂直數據、合成數據、向量數據,用于大大小小的模型。
生成式人工智能,在中國似乎受到了更加熱情的接納:政府鼓勵發展通用人工智能;任何一家大企業都無法不關注它;許多從事知識工作的中小企業,已經先用起來再說。面對這一革命性的技術,所有企業都被卷入。它們節奏不同,介入程度不同,成為新技術浪潮下的守成者、創新者、采納者。它們的利潤率被永久的改變了。
算力目前是最稀缺的資源,也處于最容易獲利的要津。算力是大模型成本結構中最大的一塊,GPU的性能,實際上決定了這個新興行業的步調。隨著算力與模型的進步,更多初創企業正在涌入,它們搶到了時間的紅利,但也面臨競爭和可能的巨頭碾壓。可以說,這是初創企業的藍海,也有航道下的暗礁。
競爭促進了創新。與2022年快速涌現出的生產力工具方向的創業公司不同,2023 年,有更多比例的新公司聚焦在底層技術的創新;大模型創業公司也開始分化,在通用大模型創業公司方興未艾的同時,許多面向醫療、電商、科研、工業、自動駕駛和機器人等特定方向的垂直大模型公司開始出現。
02/
前沿研究
2022年和2023年,是生成式人工智能技術取得突破的兩年,我們梳理了論文,發現生成式人工智能領域的一個突出特征,是研究與創新過程的密切結合,許多在企業內部實現,迅速推出用例和產品。這種研究與創業的一體化,初創企業和風險資本起到了重要的作用,而美國科技巨頭和主要人工智能企業的研究投入與人才,包括一些底層技術的研究,這些年來已經超過了大學等研究機構。
人工智能的前沿正在向未來推進。盡管從GPT-4的技術報告,到微軟的研究論文,都展示出它所具有的接近于人類的文字處理能力、數學推理能力,以及諸多專業領域的知識。“我們認為它可以合理地被視為人工通用智能(AGI)系統的早期(盡管仍不完整)版本。”但是,在通往通用人工智能的道路上,需要研究和解決的問題反而更多了。如信心校準、長期記憶、持續學習、個性化、規劃和概念跨越、透明度、認知謬誤和非理性,等等。
過去半年最重要的研究方向,是破解和理解大模型神秘而又令人興奮的智能“涌現”。大模型既需要超越對下一個詞的預測能力,也需要一個更豐富、更復雜的“慢思考”深層機制,來監督“快思考”預測下一個詞的機制。
那些最好的前沿研究,一定是研究和解決技術規模應用中遇到的問題。研究如何減少幻覺,調教大模型更加準確地輸出真實的內容,訓練出更強的推理能力;如何更集約地訓練模型,降低門檻,推出新產品,讓更多的各行各業和消費者都能用上;如何能像人一樣,與真實的物理世界互動;如何成為人類復雜工作的助手,設計并幫助執行科學實驗;如何影響就業,從而做出政策的響應;如何讓人工智能安全和可信。
03/
監管 | 安全 | 政策 | 人才
政府對于生成式人工智能的監管反應相當及時,各國也出現了不同的特點。中國在迅速推出生成式人工智能的監管辦法并征求意見的同時,也在鼓勵發展通用人工智能,北京、上海、深圳是最具雄心的第一梯隊,均提出了較具雄心的人工智能科研、創新與產業目標。歐盟繼續在監管和立法方面領先,一如其5年前率先推出GDPR。美國更在意人工智能技術的領先地位,正在形成以風險管理為原則的監管框架。
長期來看,人才對人工智能未來的影響,超過了算力。中國研究人員發布的論文在數量上已經超過了美國,但金字塔頂端,無論是研究還是創業,美國仍然占據明顯的優勢。在全球范圍內,人工智能研究創新的重心正從高校轉移至企業,美國擁有頂尖學者最多的前三大機構,分別是谷歌、微軟與Meta,合計招攬了美國頂級學者的30%。中國仍以高校為主,僅阿里巴巴躋身前10。
科技部已經提出了人工智能企業,應該接受科技倫理審查;審查主體應該設立科技倫理(審查)委員會。美國人工智能企業較早開始設立負責任與可信人工智能部門,從去年到今年以來經過一些調整,反映出在生成式人工智能發生變革之際,企業正在尋求用更好的技術和方案,來安全和負責地部署新技術。
04/
十大前瞻
大語言模型
2024年中國將出現比肩GPT-4的多語言通用大模型;
超長上下文(Long Context)將引領下一次LLM技術突破;
在出現更有前景的大語言模型之前,為實現垂直領域更好的效果,以下三種方式將共存: i)在不改變數據分布的情況下,利用更多通用數據進行通用大模型預訓練,不特別引入行業數據, ii)利用行業專屬數據微調(Fine-Tuning)通用大模型, iii)利用行業數據占比更高的數據集進行垂直模型預訓練。
多模態模型
當前CLIP + Diffusion的文生圖模型是過渡態,未來2年內將出現一體化的模型結構;
下一代Text-to-Image模型將具備更強的可控性,它將結合底層模型能力和前端控制方式,對模型的設計將注重與控制方式的結合;
2025年之前,Video和3D等模態將迎來里程碑式的模型,大幅提高生成效果;
以PALM-E為代表的具身智能(Embodied AI)展現出在機器人的感知、理解和決策等方向上的巨大潛力,但當前訓練和可靠性存在較大挑戰;
短期內Transformer正成為多個模態的主流網絡結構,但壓縮整個數字世界的通用方法尚未出現,Transformer并不是人工智能技術的終點。
商業機會
3年內,顛覆式的AI應用的核心驅動力來自于底層模型的創新,兩者無法解耦,模型的作用將大于產品設計的作用;
當前生成式AI市場處于技術主導的早期階段,存在千億美元市值的平臺性企業的機會。
在日常生活中使用人工智能的基本指南《ChatGPT 革命》是一本深入淺出的指南,旨在幫助您解鎖AI工具ChatGPT的潛力。我們正處于一個AI革命的邊緣...但這對你意味著什么?現在是時候探索最新技術如何幫助您處理日常工作和生活中的瑣事了!無論您是被重復的、耗時的任務壓垮,還是簡單地尋找新的創意注入,ChatGPT 都是那個能助你一臂之力的虛擬助手。通過這本必備手冊,您將了解ChatGPT如何快速而輕松地將您的待辦事項變成已完成的清單。從幫助您撰寫電子郵件和報告,到規劃您的下一頓飯或假期,ChatGPT為簡化您的日常任務和職責提供了一種新方法。《ChatGPT 革命》向您清楚地展示如何使用這項創新技術來節省時間和減少壓力。作者和備受贊譽的生產力專家Donna McGeorge分享實用建議和有趣想法,為您解讀所有您需要了解的內容。了解人工智能如何已經應用于日常生活 - 以及像ChatGPT這樣的工具是如何改變工作和生活管理的未來 理解ChatGPT能夠執行的不同任務,以及何時以及如何最有效地使用它 獲得編寫智能、具體的提示和跟進查詢的分步建議,以獲得更好的結果 通過有趣的示例、建議和活動變得充滿好奇心和高效,掌控局面,激活您的工作流程,并克服拖延和創造力障礙 無論您是一個繁忙的專業人士,還是只是想解決那個令人畏懼的問題“今晚吃什么?”,《ChatGPT 革命》揭示了如何使用ChatGPT作為簡化生活的工具。AI技術的發展勢頭強勁:這是您加入革命的邀請。拿起這本書,學習如何駕馭AI的力量,以便為真正重要的事情騰出更多時間和精力。
學習如何顛覆性的AI聊天機器人將改變學校、工作和更多領域。 《ChatGPT入門》為你解密這個能回答問題、寫作文、生成幾乎任何被問到的文本的人工智能工具。這個強大的生成型AI被廣泛預測將顛覆教育和商業。在這本書中,你將學習ChatGPT是如何工作的,以及如何操作它以得到滿意的結果。你還將探討使用AI生成內容的各種目的的倫理問題。由一位在人工智能前線工作了十多年的記者撰寫,這本書深入探討了ChatGPT的潛力,讓你能做出明智的決定——而無需向ChatGPT尋求幫助。 了解ChatGPT的工作方式以及它如何適應生成型AI的世界 利用ChatGPT的力量來幫助你,并避免讓它阻礙你 編寫能得到你想要的回應類型的查詢 看看ChatGPT API如何與其他工具和平臺交互 這本及時的《入門》書籍非常適合任何生活或職業可能受到ChatGPT和其他AI影響的人。ChatGPT只是冰山一角,這本書可以幫助你為未來做好準備。
盡管你可以在YouTube、博客、文章、社交媒體和其他地方找到大量關于ChatGPT的內容,但這本書是首批,如果不是第一本,關于這個主題的全面性文本,特別是針對初學者或介紹級別。并且請不要誤解。在少數AI科學家之外,每個人在接觸ChatGPT時都是初學者。請安心,知道你正在和全球數百萬其他人一起學習。 如果你已經在嘗試或使用ChatGPT,你將在這本書中找到多種方法,利用你已經知道的內容,并將新事物融入到你的努力中,以便從ChatGPT中獲得更多。請注意,對ChatGPT的討論包括解釋和提及支持ChatGPT的GPT模型,但這些模型也被用作除此聊天機器人之外的其他應用的AI模型。對類似ChatGPT的模型的引用可能意味著它們在技術上與ChatGPT相似,也可能不相似。例如,競爭模型可能有也可能沒有大型語言模型(LLMs)作為其基礎,正如ChatGPT一樣,但它們仍然被稱為“類似”,因為它們的用戶界面和功能與ChatGPT的非常相似。這樣,你可以更容易地比較和理解市場上的各種生成型AI聊天機器人,而不需要深陷技術細節。一些網址可能會跨越兩行文本。如果你正在閱讀紙質版的這本書,并想訪問其中一個網頁,只需按照文本中記錄的方式準確輸入地址,忽略行間斷開的部分。如果你正在閱讀電子書,那就簡單了;只需點擊網址即可直接進入網頁。
生成式AI和ChatGPT有可能通過提高效率、增強創新力和實現更個性化的體驗,來改變行業和社會。如果你是一個希望在這個快速發展的數字時代保持領先地位,并利用它的潛力的人,那么這本書就是為你準備的。這本書全面介紹了生成性AI和ChatGPT,這些是近期引起廣泛關注的尖端技術。本書旨在對這些技術、架構和訓練方法進行深入理解,包括它們的背景、開發過程和現狀。這本書幫助探索這些技術已經實施以實現可測量益處的創新方式,包括提高效率、客戶滿意度、安全性和收入增長,以及它在不同行業和使用案例中的潛在應用。在接近尾聲時,這本書提供了關于這些技術的重大改進和進步的見解。它還幫助你確定有可能在不久的將來增強ChatGPT能力的進一步研究和開發的多個領域。你將學到什么
● 探索不同行業和領域如何使用ChatGPT。 ● 了解內容創作者和營銷行業如何從使用ChatGPT中受益。 ● 學習如何從ChatGPT的問題解決能力中受益。 ● 了解ChatGPT如何在各種編碼領域中使用。
這本書適合誰這本書適合對AI及其在商業世界中的實際應用感興趣的個人和團體。商業領導者、企業家、研究人員、學者、數據科學家、機器學習工程師以及在AI領域工作的其他專業人士都可以從本書對最新技術進步的深入了解以及如何利用它們實現業務目標的洞察中找到價值。
Table of Contents
//www.pearson.com/en-us/subject-catalog/p/the-ai-revolution-in-medicine-gpt-4-and-beyond/P200000011399/9780138200138 人工智能即將改變醫學。這是你現在需要知道的。 “人工智能的發展與個人電腦的發明一樣具有根本性。它將改變人們工作、學習和交流的方式,并改變醫療保健。但必須謹慎管理,以確保其利大于弊。看到人工智能在醫學領域的機會和責任的早期探索,我感到很鼓舞。” ——比爾蓋茨 就在幾個月前,數以百萬計的人被ChatGPT驚人的能力和怪異的幻覺所震驚。但那是在2022年。GPT-4現在就在這里:更智能,更準確,具有更深入的技術知識。GPT-4及其競爭對手和追隨者即將改變醫學。但在生命攸關的情況下,你需要了解這些技術。 他們能做什么?他們還不能做什么?他們有什么不該做的?要做出決定,請親自體驗最前沿的技術。請加入三位提前幾個月接觸過GPT-4的業內人士,因為他們揭示了GPT-4的巨大潛力——改善診斷、總結患者訪問、簡化流程、加速研究等。您將看到真實的GPT-4對話——未經排練和未經過濾,精彩和笨拙都一樣——都配有寶貴的上下文、坦率的評論、真實的風險洞察和最新的收獲。 用真正的人工智能助手預覽醫生的一天生活。 看看人工智能如何增強醫生和病人在床邊或更遠的會面。 了解現代人工智能是如何工作的,為什么它會失敗,以及如何通過測試來贏得信任。 增強患者的權能:改善可及性和公平性,填補護理空白,并支持行為改變。 通過“即時工程”提出更好的問題并得到更好的答案。 利用人工智能來減少浪費、發現欺詐、簡化報銷和降低成本。 與AI作為研究合作者優化臨床試驗并加速治愈。 找到正確的護欄,為監管機構和政策制定者提供關鍵見解。 描繪可能的未來:接下來會有什么夢想? 從未有過這樣的技術。無論你是醫生、病人、醫療保健負責人、支付人、政策制定者還是投資者,人工智能都將深刻影響你,它可能會決定你的生死。通過這本書,你要見多識廣,做好準備,負起責任。
GPT-3: The Ultimate Guide To Building NLP Products With OpenAI API是一本關于生成式預訓練Transformer 3 AI語言模型的全面的書,涵蓋了它的意義、功能和在創建創新NLP產品中的應用。
主要特點:
探索GPT-3:本書探索了GPT-3這一強大的語言模型及其功能 業務應用:本書提供了使用GPT-3創建新業務產品的實踐知識 對AI趨勢的研究:這本書研究了GPT-3對新興創造者經濟和無代碼和AGI等趨勢的影響
本書簡介:
GPT-3使得創建AI應用程序比以往任何時候都更簡單。本書提供了關于如何輕松使用OpenAI API的全面指南。它探索了利用此工具滿足您特定需求的富有想象力的方法,并展示了通過使用此工具已建立的成功企業。 本書分為兩部分,第一部分重點介紹OpenAI API的基礎知識。第二部分研究了圍繞GPT-3產生的動態和繁榮的環境。 第1章介紹了背景信息和關鍵術語的定義。第2章深入介紹API,將其分解為基本組件,解釋它們的功能并提供最佳實踐。第3章,你將使用GPT-3構建第一個應用。 第4章采訪了成功的基于GPT-3產品的創始人,他們分享了所面臨的挑戰和獲得的見解。第5章考察了企業對GPT-3的看法及其采用潛力。第6章將討論廣泛采用GPT-3帶來的問題,如誤用和偏見,以及解決這些問題的努力。最后,第7章深入探討了未來,探索了GPT-3日益融入商業生態系統的最令人興奮的趨勢和可能性。 你將學到:
學習OpenAI API的基本組件以及最佳實踐 構建并部署你的第一個GPT-3驅動的應用程序 從行業領袖、創業公司創始人的經歷中學習,他們構建并部署了大規模的基于GPT-3的產品 看看企業如何看待GPT-3及其采用可擴展解決方案的潛力 引導采用GPT-3的后果,并努力解決它們 探索在沒有代碼的情況下將模型與GPT-3結合的令人興奮的趨勢和可能性
原文來源:Deloitte
編輯整理:專知
AI模型偏差對信任的損害可能比你想象的要大,但有方法可以克服!
人工智能影響整個企業的決策,但偏差會對信任和利益相關者關系造成深遠的損害。然而有一些方法可以改善此局面。
一家大型區域性銀行使用新開發的欺詐檢測人工智能 (AI) 算法來識別潛在的銀行欺詐案例,包括金融交易、貸款申請和新賬戶申請的異常模式。該算法在一組初始數據上進行訓練,以了解正常交易與欺詐交易的外觀。但是,由于對 45 歲以上的申請人進行了過度抽樣以獲取欺詐行為的示例,因此訓練數據會出現偏差。這種過采樣會持續數月,隨著偏差的增加并且未被檢測到。與現實所暗示的相比,該模型更有可能認為老年人正在實施欺詐。越來越多的客戶被拒絕貸款。當監管機構開始提問時,一些人開始感到疏離,失去信任。 我們知道模型偏差可能是一個問題,但我們真的知道它有多普遍嗎?當然,媒體機構撰寫的故事能夠激發公眾的想象力,例如不公平地偏向女性的 AI 招聘模型或基于種族身份不公平地分配更高風險分數的 AI 健康保險風險算法。但盡管這些例子可能很糟糕,但 AI 模型偏差的故事幾乎不會以我們在大眾媒體上看到的內容而結束。
我們的研究表明,模型偏差可能比許多組織意識到的更為普遍,它所造成的損害可能比我們想象的要大得多,從而削弱了員工、客戶和公眾的信任。成本可能很高:昂貴的技術修復、較低的收入和生產力、聲譽損失和員工短缺,更不用說投資損失了。事實上,在德勤最近發布的第四版企業人工智能狀況報告中,68% 的受訪高管表示,僅在過去一個財政年度,他們的職能部門就在人工智能項目上投資了 1000 萬美元或更多。3即使是面向內部的模型也可能造成重大損害,并可能使數百萬美元的投資面臨風險。
要解決這個問題,我們需要超越同理心和善意。了解、預測并盡可能避免模型偏差的發生對于以保持利益相關者信任的方式在整個組織內推進 AI 模型的使用至關重要。好消息是,組織可以采用一些可以提供幫助的方法(包括基于技術的解決方案)。
1 組織內的模型偏差可能比您知道的更普遍
“偏差”一詞有很多含義。出于本研究的目的,我們可以將 Merriam-Webster 對偏差的定義視為“通過選擇或鼓勵一種結果或答案而不是其他結果或答案而引入抽樣或測試的系統性錯誤”。一般而言,當 AI 算法或模型所依賴的訓練數據不能反映 AI 預期運行的現實時,就會發生 AI 模型偏差。換句話說,盡管使用了“模型偏差”一詞,但模型本身并沒有偏差。而是訓練數據這使得模型有偏差。人工智能企業軟件公司 Chatterbox Labs 的首席技術官 Stuart Battersby 對此表示贊同。Battersby 表示,“無論背景如何,[模型偏差風險] 通常都歸結為訓練數據,”用于通知模型,任何訓練數據都容易受到偏差的影響。 模型偏差尤其令人不安,部分原因是組織或使用相關 AI 模型的人并不總是預料到它。正如 Cathy O'Neil 在她的書中所暗示的,這些“數學破壞武器”是秘密且可擴展的,這會放大它們對組織及其利益相關者的危險。
模型偏差尤其令人不安,部分原因是組織或使用相關 AI 模型的人并不總是預料到它 有證據表明,人工智能模型的一些用戶可能沒有注意到這種危險。考慮德勤的人工智能狀態報告,其中約四分之三的總體受訪者表示他們“有信心”或“非常有信心”他們部署的模型將表現出公平和公正的品質。類似的份額表示,他們“有信心”或“非常有信心”他們部署的模型將表現出穩健性和可靠性的品質。7這些數據點很重要,因為公平性和穩健性等特征是模型按其應有的方式運行且沒有偏差的標志。
在涉及社會歧視和偏差的 AI 模型中發現的偏差故事存在于多種背景中,包括大學錄取決定、刑事判決和假釋決定、和雇用決定、在許多其他人中。公開提到的許多模型偏差示例都與服務于面向客戶功能的模型中的偏差有關。然而,我們的研究表明,無論我們指的是影響客戶的模型還是組織的運營或內部部分,偏差風險都很普遍。組織“后臺”中的一些模型風險通常要等到部署很久之后才會被發現,并產生相應的影響。事實上,在網絡安全或合規性等內部運營領域中,模型偏差的風險可能尤其隱蔽,因為內部模型可能無法像更面向外部的部署那樣受到公眾審查,從而延遲了對它們的檢測。世界經濟論壇人工智能和機器學習技術政策負責人 Jayant Narayan 說:“大多數 AI 模型偏差討論仍然是關于面向外部的功能和更面向客戶的行業的用例。公司應該重新評估其內部功能和用例的偏差和風險分類。”
換句話說,AI 模型偏差與領域無關。在所有形式中,它都可以發生在部署 AI 模型的任何地方,無論上下文如何。正如我們將討論的那樣,上下文確實很重要,在于模型偏差對信任的影響。 組織模型偏差的“狂野西部 在我們的研究過程中,出現了幾種類型或原型的模型偏差。我們根據影響模型的行為類型確定了兩組主要的偏差:“被動”偏差——偏差不是計劃行為的結果——和“主動”偏差——偏差是由于人為行為而發生的,要么有或沒有意圖,即使是有意的,通常也沒有負面意圖。兩種類型的偏差都可以以不同的方式表現出來,在制定減輕模型偏差風險的策略時,都應該考慮這兩種偏差。在隨后的分類中描述偏差時,我們使用我們自己的術語以及社會科學和技術文獻中常見的術語。
01 被動偏差
被動偏差的例子可能包括:
選擇偏差:一個群體的過度包容或包容不足;數據不足;標簽不良。選擇偏差的一個例子可以在基于數據訓練的 AI 模型中找到,在該模型中,特定群體被識別為具有特定特征的比率高于客觀現實的合理性。
環境偏差:訓練數據過時;變化的情況。環境偏差的一個例子可能包括一個預測性 AI 模型,該模型使用最初準確但由于不斷變化的現實或“實地事實”而不再準確的數據進行訓練。
遺留或關聯偏差:AI 模型根據與基于種族、性別和其他原因的偏差遺留相關的術語或因素進行訓練,即使是無意的。一個例子是在一種基于數據訓練的招聘算法中發現的,這些數據雖然沒有明顯的性別偏差,但指的是帶有男性關聯遺產的術語。
02 主動偏差
主動偏差的示例可能包括:
對抗性偏差:數據中毒;部署后的對抗性偏差。例如,敵對行為者可以訪問模型的訓練數據并引入對邪惡目標的偏差。
判斷偏差:模型經過適當訓練,但模型用戶在實施過程中通過誤用 AI 決策輸出的方式引入偏差。例如,一個模型可能會產生客觀正確的結果,但最終用戶會以系統的方式誤用這些結果。從這個意義上說,判斷偏差不同于其他模型偏差,因為它不是訓練數據有缺陷的直接結果。
上述分組遠非詳盡或明確;存在其他偏差特征。這說明了對模型偏差是什么以及它是如何發生的不斷發展且仍處于萌芽狀態的理解。
換句話說,AI 模型偏差與領域無關。在所有形式中,它都可以發生在部署 AI 模型的任何地方,無論上下文如何。
2 信任聯系:模型偏差的破壞性可能比你知道的要大的多
AI 模型偏差的影響可以通過影響其決策制定和與利益相關者的信任來影響整個組織。決策和信任是兩個獨立但相互關聯的概念。信任是組織與其利益相關者在個人和組織層面建立有意義關系的基礎。信任是通過表現出高度能力和意圖的行動來建立的,從而表現出能力、可靠性、透明度和人性。能力是信任的基礎,是指執行能力,兌現您的品牌承諾。意圖是指您的行為背后的原因,包括公平性、透明度和影響力。一個沒有另一個不會建立或重建信任。兩者都是需要的。
當基于有偏差的數據的錯誤分析做出錯誤的決定時,組織可能會失去對可能依賴模型建議的利益相關者的信任。例如,這可能表現在董事會成員對推薦無利可圖項目的執行團隊失去信任,或者員工質疑聘用不合格候選人的情況。
一旦發生決策錯誤并且與給定利益相關者的信任破裂,該利益相關者的行為就會改變。對于員工而言,這可能意味著工作參與度降低、客戶參與度降低、品牌忠誠度降低,或者對于供應鏈合作伙伴而言,將業務推薦給他人的意愿降低。這些行為變化會對組織績效產生有意義的影響,可能會限制銷售、生產力和盈利能力。最終,缺乏信任會阻止公司與利益相關者一起實現其目標和宗旨。
考慮一下我們在本文開頭提到的銀行。在該示例中,人工智能模型偏差會影響決策,導致銀行對年長的信貸申請人做出不公平的假設,從而避免向服務不足的年長市場銷售產品。反之亦然,因為偏差導致銀行向實際參與欺詐的年輕申請人發放貸款申請。一旦知道了這種偏差——即使銀行努力糾正它——銀行專業人員也可能對算法的輸出失去信心。事實上,他們可能會更普遍地對人工智能模型失去信心。因此,他們可能會避免重要的業務決策,例如追查實際的欺詐案件。
此示例中的模型偏差影響了多個利益相關者。如果這種偏差導致銀行對老客戶的服務不足,可能會疏遠選民。這將使他們的信任和贊助受到威脅。即使沒有受到直接影響,它也可能會危及其他客戶的信任和業務,這些客戶意識到并受到這種偏差的冒犯。由于這種偏差可能會違反《平等信用機會法》中的各種監管和法定要求,因此可能會損害監管機構的信任,從而可能導致影響利潤的民事處罰。最終,這種模型偏差的后果可能會損害銀行的聲譽和底線業績。
這只是 AI 模型存在不公平偏差時對決策和信任造成后果的眾多示例之一(下圖)。AI 模型偏差的影響通常不限于一個利益相關者群體。相反,最常導致的錯誤決策通常會影響多個利益相關者群體,并可能對其信任組織的意愿產生負面影響。這種偏差發生的背景——一系列決策、利益相關者和由此產生的行為變化——可以定義組織的風險和成本。
模型偏差的影響通常不限于一個利益相關者群體。相反,最常導致的錯誤決策通常會影響多個利益相關者群體,并可能對其信任組織的意愿產生負面影響。 為了說明模型偏差的個體特征,我們描述了一些不同的案例場景,其中模型偏差的性質可能會表現出來,以及決策和信任如何因此受到影響(下圖)。
3 應以主動和整體的方式解決模型偏差
一旦發現模型偏差事件,組織應該“深入了解”以評估偏差的性質(包括其原因),它已經影響決策制定的方式,最終影響利益相關者的信任,以及如何預防它的再次發生。正如 Chatterbox Lab 的 Battersby 所說,“你想真正找到根本原因,了解為什么你有這種偏差以及這在你的組織中意味著什么,以防止它再次發生。” 話雖如此,對已經存在的偏差做出反應遠不如預測和阻止偏差的起源——或至少在部署之前。DataRobot 可信 AI 副總裁 Ted Kwartler 是這樣說的:“在模型中發現偏差是可以的,只要它在生產之前。當你投入生產時,你就有麻煩了。”
以下指南可幫助組織預測不同環境下的 AI 模型偏差。這樣的指南可以幫助組織以公平和透明的方式部署人工智能模型。
對組織內的所有人進行有關 AI 模型偏差風險的潛在教育。即使在那些最直接參與人工智能模型開發和部署的人中,偏差也并不總是放在首位。對于整個組織的其他人來說,模型偏差通常是一種抽象,只有在偏差及其伴隨的影響變得明顯之后才會成為問題。組織內的領導者和員工——包括最高管理層及其他——應該理解模型偏差所代表的戰略必要性,因為整個組織的每個人都可能受到它的影響。此類教育應針對營銷和人力資源等部門的模型最終用戶,因此他們可以警惕存在偏差的可能性,并注意不要通過錯誤的實施無意中引入偏差。
建立一種共同語言來討論模型風險和減輕風險的方法。值得信賴的人工智能,也稱為道德或負責任的人工智能,在人工智能應用程序的開發和使用中具有共同的主題。這些主題包括公平、透明、可靠性、問責制、安全和保障以及隱私。這些主題為評估和減輕人工智能風險(包括模型偏差)提供了共同語言和視角。組織在設計、開發、部署和操作 AI 系統時可以考慮這些主題。這些主題中的每一個都闡明了共同構成值得信賴的人工智能的一個方面。每個都支持組織以正確的意圖勝任部署人工智能模型的能力。
確保受模型影響最大的人在開發模型時處于“循環中”。我們的研究表明,人類傾向于相信 AI 模型決策的準確性,而沒有真正了解模型的工作原理或開發方式。當模型偏差出現時,這是一種特別不穩定的做法。AI 模型生命周期的每個部分都應經常反映技術與所有利益相關者之間的伙伴關系。“如果有人參與,偏差是可以控制的,”Chatterbox Labs 首席執行官 Danny Coleman 說。但循環中的人不僅僅是開發和部署模型的人。這也與模型決策輸出的最終消費者有關。它們應該與任何人一樣成為模型開發方式的一部分(了解它可以做什么和不能做什么),以減輕問題可能帶來的對信任的潛在損害。科爾曼稱之為“管理利益相關者的期望”。利益相關者的參與應該從模型構思階段開始。德勤加拿大值得信賴的人工智能領導者 Preeti Shivpuri 表示:“與不同的利益相關者進行磋商并收集不同的觀點以挑戰現狀對于解決數據中的固有偏差和從一開始就使人工智能系統具有包容性至關重要。”
包括工藝和技術。“偏差是一個挑戰。它總是會在那里。但我認為解決這個問題的最佳方法是采用人員、流程和技術方法。” Chatterbox Lab 的 Coleman 是這么說的。人類在人工智能開發生命周期和偏差緩解中發揮著不可或缺的作用。但人類只是使值得信賴的人工智能成為可能的更大、集成示意圖的一部分。
DataRobot 可信 AI 副總裁 Ted Kwartler 是這樣說的:“在模型中發現偏差是可以的,只要它在生產之前。當你投入生產時,你就有麻煩了。”
換句話說,任何應對 AI 模型偏差挑戰的解決方案都應該基于人、流程和技術的整體整合。這個三足凳的任何一個方面都不一定比另一個方面更重要。正如我們所提到的,人的判斷很重要。流程為 AI 模型治理提供了秩序感和紀律感。它包括監控和糾正模型偏差,這些偏差共同幫助形成操作機器學習模型的連續步驟,有時稱為“MLOps”。就技術而言,它是三足凳的第三條腿。沒有它,模型(以及任何模型偏差)就不會存在。但技術也是解決方案的一部分。現在正在開發的軟件平臺可以幫助組織發現偏差和其他漏洞,并幫助確保模型公平運行。
4 用心前行
與利益相關者建立信任是一個多方面的復雜挑戰。我們都是相連的。當與一個利益相關者的信任破裂時,其他利益相關者就會意識到并可能改變他們的行為。
人工智能和信任有著密不可分的關系。在依賴有缺陷的 AI 的環境中,信任無法蓬勃發展,即使是最公正的 AI 模型,如果它們服務于不信任的環境,也可以提供無關緊要的決策結果。組織應該考慮 AI 模型偏差的主要原因是——除了許多問題之外——偏差有可能破壞這種關系。
組織應該以這種重要問題應得的緊迫感來應對人工智能模型偏差的挑戰。對某些人來說,模型偏差似乎是一種新興的、遙遠的抽象。但它是真實的。而且它可能對利益相關者的信任造成的損害是真實的,無論組織是否關注它。
但有一條前進的道路。組織擁有可用的工具和資源,可通過包括教育、通用語言和不懈意識在內的整體方法來幫助解決 AI 模型偏差的挑戰。現在選擇主動方法的組織可能會在以后需要采取被動方法的組織中占得先機。
本書《對話人工智能》寫作目的是讓你了解所有人工智能助手的基本原理,重點是會話型人工智能。它首先描述了人工智能助手的重要性,然后包括人工智能助手技術的演示。從這里,本書繼續設計、訓練、測試和改進人工智能助手。
閱讀對象
對話型AI是為對構建人工智能助手感興趣的開發人員和商業分析師編寫的。軟件開發經驗對于構建這些助手是有用的,但不是必需的。許多人工智能平臺正朝著低代碼或無代碼開發方向發展。即使您不是在編寫代碼,本書也會教你確保您構建的助手成功所需的基本知識。AI助理開發的每個方面都有許多不同的資源;這本書把它們每一條聯系在一起。
本書組織
這本書有五個章節和12章。
第一部分解釋了什么是人工智能助手,為什么你會使用它們,并通過幾個例子: 第1章描述了幾種類型的人工智能助手,你在那里與他們互動,并簡要分析了他們的工作方式。它還概述了提供人工智能輔助技術的常用用例和平臺。 第2章介紹了意圖、實體和對話回應的關鍵構建模塊。它使用這些構建塊為虛構公司構建一個對話型人工智能助手。這位助理為這家普通零售商解答日常的客戶服務問題。
第二部分解釋了如何設計一個能夠實現你的目標并滿足你的用戶的人工智能助手 第3章教你如何選擇AI助手應該解決的問題,以及如何解決它們。并不是每一個過程都適合通過助手實現自動化。
第4章描述了如何為對話型AI設計對話。它包括在語音和文本通道中都很有效的對話練習,以及指出在一個通道中有效但在另一個通道中無效的練習。
第5章概述了一些衡量指標,告訴你人工智能助手在多大程度上滿足了你的業務需求。這些指標確保助理對您和您的用戶都是成功的。
第三部分解釋了AI助理的開發周期:它還采用數據驅動的方法來評估訓練數據的數量、多樣性和準確性,以及這些數據對助理的影響。
第7章從數據科學家的角度來測試你的助手:驗證它有多準確。它介紹了幾個準確性指標,并展示了如何解釋這些指標,以便您知道需要哪些改進。
第8章描述了測試助手的功能方面:驗證每個對話流是否按設計的方式執行。本章還涵蓋了如何自動化您的測試,以及如何使用許多并發用戶測試您的助手。
第四部分解釋了在初始構建階段之后的人工智能助手的生命周期。
第9章概述了跟蹤AI助手軟件資產和管理多個獨立環境的方法。它還演示了使用新功能和錯誤修復更新這些助手的策略。
第10章介紹了如何分析和改進人工智能助手,以及如何基于成功指標對其進行優先排序。它展示了幾種查找問題點和如何修復它們的方法。
第五部分解釋了適用于特殊助手場景的有用AI助手概念:
第11章雖然大多數人不會從頭開始構建分類器,但本章演示了它們如何在數學上工作。這一基礎有助于讀者理解為什么人工智能助理要以這樣的方式接受訓練和測試。
第12章描述了如何訓練和測試語音助手的語音識別。這包括如何收集語音數據和訓練自定義語音識別模型的三種不同方法