亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

近年來,人工智能(AI)在醫學和醫療領域的應用因其巨大的潛力而備受贊譽,但也一直處于激烈爭議的中心。這項研究概述了人工智能如何有益于未來的醫療保健,特別是提高臨床醫生的效率,改善醫療診斷和治療,以及優化人力和技術資源的配置。該報告確定并澄清了人工智能在醫療保健領域造成的主要臨床、社會和倫理風險,更具體地說: 潛在錯誤和患者傷害;存在偏見和衛生不平等加劇的風險;缺乏透明度和信任;易受黑客攻擊和數據隱私泄露的影響。該研究提出了緩解措施和政策選項,以最大限度地降低這些風險,并使醫療人工智能的利益最大化,包括通過人工智能生產生命周期的多方參與,提高透明度和可追溯性,對人工智能工具進行深入的臨床驗證,以及對臨床醫生和公民進行人工智能培訓和教育。

目標

近年來,人們對人工智能(AI)在醫學和醫療保健領域的應用的興趣和關注迅速增長,成為跨學科科學研究、政治辯論和社會行動主義的中心。本報告的目標是解釋人工智能可以在醫療和保健領域做出貢獻的領域,查明在這個高風險和快速變化的領域中應用人工智能的最重大風險,并提出應對這些風險的政策選項,以優化生物醫學人工智能的使用。這不僅能確保接受人工智能醫療的患者的安全和尊重,還能幫助參與實施人工智能醫療的臨床醫生和開發人員。

方法

本研究采用跨學科方法,基于對現有科學論文、白皮書、近期指南和法規、治理建議、人工智能研究和在線出版物的全面(但非系統性)文獻綜述和分析。本報告涉及的多學科資源包括計算機科學、生物醫學研究、社會科學、生物醫學倫理、法律、工業和政府報告等領域的著作。本報告探討了廣泛的技術障礙和解決方案、臨床研究和結果,以及政府建議和共識指南。

人工智能在醫學和醫療保健中的具體應用

這項研究首先概述了人工智能在醫學領域解決緊迫問題的潛力,特別是人口老齡化和慢性疾病的增加、衛生人員缺乏、衛生系統效率低下、缺乏可持續性和衛生不平等。報告還詳細介紹了生物醫學AI可能做出最重要貢獻的不同領域: 1) 臨床實踐,2)生物醫學研究,3)公共衛生,4)衛生管理。在臨床實踐領域,該報告進一步詳細介紹了具體貢獻-實現和潛在的-特定醫療領域,如放射學,心臟病學,數字病理學,急救醫學,外科手術,醫療風險和疾病預測,適應性干預家庭護理和心理健康。在生物醫學研究方面,該報告詳細介紹了人工智能對臨床研究、藥物發現、臨床試驗和個性化醫療的潛在貢獻。最后,報告介紹了人工智能在公共衛生一級以及對全球衛生的潛在貢獻。

付費5元查看完整內容

人工智能系統落地應用不僅需要考慮準確性,還需考慮其他維度,如魯棒性、可解釋性等,即要構建負責任的人工智能。CMU的Nicholas Gisolfi的博士論文《Model-Centric Verification of Artificial Intelligence》探究訓練模型的正式驗證是否可以回答關于真實世界系統的廣泛現實問題。提出方法適用于那些在特定環境中最終負責確保人工智能安全運行的人。值得關注!

摘要:

這項工作展示了如何在人工智能(AI)系統的背景下使用可證明的保證來補充概率估計。統計技術測量模型的預期性能,但低錯誤率并不能說明錯誤表現的方式。對模型是否符合設計規范的正式驗證可以生成證書,該證書明確地詳細說明了違規發生時的操作條件。這些證書使人工智能系統的開發人員和用戶能夠按照合同條款對其訓練的模型進行推理,消除了由于不可預見的故障導致模型失效而造成本可以很容易預防的傷害的機會。為了說明這個概念,我們展示了名為Tree Ensemble itor (TEA)的驗證流程。TEA利用我們的新布爾可滿足性(SAT)形式,為分類任務的投票樹集成模型提供支持。與相關的樹集合驗證技術相比,我們的形式化產生了顯著性的速度增益。TEA的效率允許我們在比文獻中報道的更大規模的模型上驗證更難的規范。

在安全背景下,我們展示了如何在驗證數據點上訓練模型的局部對抗魯棒性(LAR)可以納入模型選擇過程。我們探索了預測結果和模型魯棒性之間的關系,允許我們給出最能滿足工程需求的LAR定義,即只有當模型做出正確的預測時,它才應該是魯棒的。在算法公平的背景下,我們展示了如何測試全局個體公平(GIF),包括數據支持內和數據支持外。當模型違反GIF規范時,我們列舉了該公式的所有反例,以便揭示模型在訓練過程中所吸收的不公平結構。在臨床環境中,我們展示了如何簡單地通過調整樹集合的預測閾值來滿足安全優先工程約束(SPEC)。這促進了預測閾值的帕累托最優選擇,這樣就不能在不損害系統安全性的情況下進一步減少誤報。

本論文的目標是探究訓練模型的正式驗證是否可以回答關于真實世界系統的廣泛的現有問題。我們的方法適用于那些在特定環境中最終負責確保人工智能安全運行的人。通過對訓練過的樹集合進行驗證(V&V),我們希望促進AI系統在現實世界的落地應用。

//www.ri.cmu.edu/publications/model-centric-verification-of-artificial-intelligence/

動機

人工智能領域前景廣闊,我們的共同目標是確保盡可能多的人釋放其潛力,解決許多不同應用領域的新問題。我們發現有一個共同的障礙限制了AI系統的采用速度,這通常歸結為信任問題。許多最終負責AI系統輸出的人對他們的模型的信任程度不足以保證將AI部署到某個新領域。

考慮到艾薩克·阿西莫夫的機器人第一定律:機器人不能傷害人類,也不能坐視人類受到傷害。這是AI系統關鍵設計規范的一個很好的例子。一個人工智能系統并不局限于物理機器人,它也可以是一個黑盒子,機器學習(ML)模型。傷害不需要僅僅描述身體上的傷害,它也可能涉及由人工智能系統提出的違反人類直覺的建議所導致的混亂。這就是人們開始信任人工智能系統的地方。我們知道,人工智能有時會做一些與人類對模型應該如何運作的直覺相悖的事情。令人擔心的是,在這些情況下,人工智能系統可能會造成人類決策者永遠不會造成的容易預防的傷害。如果我們不確定AI系統是否遵守了關鍵的設計規范(如阿西莫夫第一定律),我們還能相信它嗎?

目前將人工智能系統視為用以數據為中心的統計方法來審問的黑匣子解決該問題。模型行為的概率估計需要一定的置信度,該置信度取決于應用領域中可接受的不確定性邊際。如果我們考慮一個電影推薦系統,可接受的不確定性是很高的,因為一部糟糕的電影最多會浪費一天中的幾個小時。如果我們考慮的是自動駕駛汽車環境或任何其他關鍵應用領域,可接受的不確定性幅度要低得多。即使統計方法反復檢驗模型以提高其估計的置信界限,也不可能提供真正全面的評估并實現絕對的確定性。我們所能說的是,在許多測試過程中,我們從未觀察到特定的故障,這使我們有理由相信,一旦部署模型,同樣的故障非常不可能發生。對于更長時間的任務,比如為深空棲息地開發半自主生命支持系統,即使是很小的模型失敗的機會也會有大量的機會出現。

Tree Ensemble itor (TEA),我們的認證流程

統計技術本身并不能很好地適應關鍵系統所需要的信任水平。這是因為低錯誤率只告訴我們關鍵錯誤發生的頻率很低;我們想知道這些關鍵的錯誤將如何表現。本文的研究范圍集中在容易造成可預防傷害的關鍵錯誤上。我們將在整個工作中探索的關鍵錯誤類型包括健壯性、公平性和安全性的概念。為了增強魯棒性(見第3章),我們測試了一個模型在特定輸入的屬性值存在難以察覺的擾動時輸出的一致性。為了公平起見(見第4章),我們測試了一個模型,以確定它是否總是以相似的方式對待相似的個體。為了安全起見(見第5章),我們測試了一個模型,以確保沒有從輸入到輸出的可理解映射代表人類永遠不會做出的違反直覺的、有害的建議。值得注意的是,這個列表中缺少分類錯誤,這在很多情況下并不一定是一個關鍵的錯誤。人類的決策在硬邊界情況下會產生錯誤,所以AI應該被允許犯同樣類型的錯誤。相反,我們關注的是人工智能表現出人類沒有表現出的不受歡迎的決策邏輯的情況,比如在兩個難以區分的輸入之間設置決策邊界,對兩個相似的輸入產生截然不同的輸出,以及在人類最容易判斷的情況下犯錯誤。

AI系統實際上并不是黑盒,我們也不需要這么對待它們。相反,它們是由一組離散的組件定義的,這些組件相互作用,以產生看似智能的模型行為。正是這些組件的行為決定了模型實現其預測的方式。解決詢問訓練模型內部組件的挑戰的一種方法涉及邏輯和統計技術的結合。統計機器學習擅長于從數據中學習有用的策略,而形式邏輯和自動推理則擅長于確定是否可以從一組前提條件中得出結論。

我們的工作彌合了人工智能領域歷史上兩大成功理念之間的鴻溝。在早期,人工智能系統由符號邏輯、規則和專家知識組成;專家系統很容易用形式邏輯進行測試。現代人工智能系統由組件和元結構組成,這些組件和元結構承擔優化過程,以使模型適合數據。目前流行的統計學ML易于用統計方法進行檢驗。人工智能領域焦點的轉變,在一定程度上是由于對人類大腦內部工作方式的不同看法。符號主義認為人類的智力是通過邏輯推理獲得的,這一觀點逐漸被連接主義的觀點所取代,連接主義認為,在人類大腦的相互連接的結構中,招募成群的神經元會產生智能行為。我們今天構建的人工智能系統反映了這種思維方式的轉變。這兩個框架各有優缺點;例如,統計模型可以更好地概括尚未見過的數據,但符號模型可能更易于解釋。我們將邏輯和統計方法的優勢結合起來,認為這是構建成功的、值得信賴的人工智能系統的最佳方法。如果用純邏輯檢驗統計技術產生的模型,那么我們就可以提供證據,證明模型確實符合設計規范、工程需求,甚至專家知識。這使得對于將在現實世界中部署的模型的契約推理和概率推理都成為可能。

雖然我們的方法是否會增加人類對人工智能系統的信任感的問題超出了本文的范圍,但我們確實聲稱,我們的工作增加了人工智能系統的可信度。一個正式的證明和伴隨的證書是一種解釋。它們描述了模型結構滿足或違反關鍵設計規范的操作條件。對模型結構的推理提供了當前實踐無法獲得的洞察力。這些關于模型的優勢和劣勢的附加信息使所有涉眾都更加了解情況。我們表明,模型符合關鍵設計規范的正式驗證補充了通常用于在構建AI系統時告知決策的概率估計。證書使AI系統的開發者和用戶能夠根據合同條款對他們的模型進行推理,從而實現AI系統的規格驅動設計。我們將展示如何結合這些信息來回答關于現實世界的AI系統的現有問題。

付費5元查看完整內容
北京阿比特科技有限公司