stateof.ai發布了最新的“人工智能報告”,非常值得關注!
《2022年人工智能狀況報告》由業界和研究領域的領先人工智能從業者撰寫。它考慮以下關鍵方面,包括一個新的安全部分: 研究:技術突破及其能力。 行業:人工智能的商業應用領域及其商業影響。 政治: 人工智能的監管、其經濟影響和人工智能的地緣政治演變。 安全: 識別和減輕未來高能力AI系統可能給我們帶來的災難性風險。 預測: 我們認為會發生的事情,并進行績效評估以保持我們的誠實。 //www.stateof.ai/ 《2022年報告》的主要主題包括:
新的獨立研究實驗室正在迅速開放成果,以前主要由大型實驗室的封閉源輸出。盡管人們普遍認為,人工智能研究將越來越多地集中在少數幾家大型企業中,但計算成本和獲取途徑的降低,已導致規模小得多、以前不為人知的實驗室產生了最先進的研究。與此同時,AI硬件仍與NVIDIA緊密結合。
主要的人工智能研究實體對安全的認識正在提高,據估計,目前有300名安全研究人員在大型人工智能實驗室工作,而在去年的報告中,這一數字還不到100人。當人工智能安全成為主流學科時,主要人工智能安全學者的認可度提高是一個有希望的跡象。
中美人工智能研究的差距繼續擴大,自2010年以來,中國機構發表的論文數量是美國機構的4.5倍,遠遠超過美國、印度、英國和德國的總和。此外,中國在涉及安全和地緣政治的領域處于顯著領先地位,如監視、自治、場景理解和目標探測。
人工智能驅動的科學研究繼續帶來突破,但數據泄露等重大方法論錯誤需要進一步拷問。盡管人工智能在科學上不斷取得突破,但研究人員警告稱,人工智能的方法錯誤可能會泄露給這些學科,導致基于人工智能的科學在一定程度上因數據泄露而引發的再現性危機日益嚴重。
可交付的D2.3 "媒體中的人工智能技術和應用",該文件旨在為媒體行業的人工智能的復雜情況提供一個詳細的概述。它分析了媒體行業人工智能(AI)技術和應用的現狀,強調了人工智能在改變媒體工作流程、協助媒體專業人員和提高不同行業部門的用戶體驗方面的現有和未來機會,提供了人工智能技術有望在未來惠及行業的有用實例,并討論了媒體廣泛采用人工智能的促進因素、挑戰和風險。
為了分析媒體的人工智能狀況,我們采用了多方、多維和多學科的方法,幾乎所有的AI4Media合作伙伴、外部媒體或人工智能專家,以及人工智能研究界和廣大媒體專業人士都參與其中。為了準確描述這一格局,我們使用了三種主要工具,包括涉及人工智能專家、社會科學、倫理和法律問題專家以及媒體行業從業人員的多學科最新分析;針對人工智能研究/開發人員和媒體專業人士的公開調查;以及一系列關于人工智能在媒體行業的未來的簡短白皮書,這些白皮書關注不同的人工智能技術和應用以及不同的媒體部門,探討人工智能如何積極地顛覆這個行業,提供新的令人興奮的機會并減少重要風險。
基于這些工具,我們對媒體人工智能("人工智能在媒體中的應用"的簡稱)的現狀和未來研究趨勢進行了詳細的分析,它由以下部分組成:
媒體的人工智能技術和應用的現狀分析。基于對路線圖、調查、評論文章和意見文章的廣泛分析,重點關注人工智能使用的趨勢、好處和挑戰,我們對人工智能在媒體和娛樂行業中最具變革性的應用提供了清晰的描述。我們的分析確定了以下人工智能應用,它們通過解決共同的需求和對未來的共同愿望,已經在大多數媒體行業領域產生或可以產生重大影響。人工智能助手、智能推薦系統、內容個性化、自動內容合成、多模式內容搜索、多語言翻譯、受眾分析、社交媒體趨勢檢測、預測工具、超目標廣告和遵守版權標準。此外,我們確定了一份人工智能技術清單,這些技術在實現媒體的人工智能愿景方面具有最大的潛力。最后,我們確定了人工智能的可信賴性方面的挑戰,包括人工智能的可解釋性、對對抗性攻擊的穩健性、人工智能的公平性和數據隱私問題。
討論人工智能的社會、經濟和道德影響。前面的現狀分析從技術和實際應用的角度強調了人工智能對媒體行業的潛力,本分析對人工智能的社會和倫理影響進行了補充,根據對行業報告和學術期刊文章的廣泛文獻審查,提出了社會科學家、倫理專家和法律學者的觀點。我們確定了媒體對人工智能最普遍的社會關注和風險,其中包括:偏見和歧視;媒體的(不)依賴性和商業化;獲得人工智能的不平等加劇;勞動力遷移、監測和職業轉型;隱私、透明度、問責制和責任;操縱和錯誤信息作為一種制度威脅;以及人工智能的環境影響。此外,我們還確定了哪些做法對于抵制媒體人工智能的潛在負面社會影響是重要的。
歐盟的政策倡議及其對未來媒體人工智能研究的影響總結。我們對歐盟關于人工智能的最重要的政策倡議進行了概述,重點是對媒體行業有明確關注的倡議。我們討論了政策倡議(不具約束力的規定)和監管倡議(導致通過具有約束力的法律規定),包括歐洲議會關于教育、文化和視聽部門的人工智能的決議;數字服務法案提案(DSA法案);關于制定人工智能統一規則的條例提案(AI法案);關于虛假信息的業務守則;以及關于政治廣告的透明度和目標的提案。對這些舉措的分析表明,人工智能媒體應用的使用即將在法律文書中得到具體規范。為處理這些問題而選擇的共同方法主要是透明度要求和義務,然后在較小的層面上,對用戶進行授權。
對調查結果的分析,提供了關于人工智能研究界和媒體從業者群體的希望、愿望和關注的見解。為了幫助我們收集人工智能研究人員和媒體從業人員對媒體使用人工智能的意見,我們發起了兩項在線調查:i)一項公開調查,旨在收集人工智能研究界和媒體行業專業人士對媒體行業使用人工智能的好處、風險、技術趨勢、挑戰和倫理的意見;b)一項針對AI4Media合作伙伴的小型內部調查,旨在收集他們對媒體人工智能對社會和大眾的好處和風險的意見。
作為第一次調查的一部分,收集了來自歐洲和其他26個國家的人工智能研究人員和媒體專業人士的150份答復。主要結論包括。
自動內容分析和創作、多語言NLP、用有限的數據學習、可解釋的人工智能和公平的人工智能被認為是具有解決媒體行業現有問題的最大潛力的人工智能技術和應用。
常規任務的自動化和優化,內容和服務的個性化,以及生產力和運營效率的提高被認為是人工智能對媒體行業最重要的好處,而人工智能的不道德使用,人工智能的偏見,人工智能缺乏可解釋性,高期望和低回報,以及人工智能在關鍵任務中的失敗是一些最大的風險。
關于采用人工智能的挑戰,人工智能研究人員關注的是缺乏訓練人工智能算法的數據,而媒體行業則強調人工智能在業務運營和流程中的整合以及行業內缺乏人工智能技能。
大多數組織(58%的受訪者)沒有明確的人工智能戰略;此外,許多組織沒有管理相關風險的道德框架(17%的受訪者)或不知道有這樣的框架存在(19%的受訪者)。
受訪者明顯傾向于開放的人工智能解決方案和合作(如開源開發工具、人工智能資源庫中隨時可用的組件,以及與研究伙伴共同開發),這將導致采用他們可以信任的人工智能。
政策制定者需要在數據隱私、知識產權問題、人工智能偏見、自動內容創建、開發可信賴和可解釋的人工智能以及監管影響等議題上為人工智能倫理的實施提供更多指導。
作為第二次調查的一部分,共收到31份答復。主要結論包括。
對社會和大眾化有益的人工智能的最有希望的應用是對抗虛假信息,使所有人都能公平地獲得信息,并提供工具來追究權力的責任。
在對社會和大眾化的潛在不利影響方面,受訪者最擔心的風險是未經授權對公民進行特征分析和監控,利用人工智能在網上傳播虛假信息和助長網上討論的兩極化,以及人工智能的偏見。
政府為確保媒體公司尊重基本權利,主要應采取的政策是由獨立機構和行為準則進行監督。最不喜歡的選擇是監管。關于媒體機構應該采取的政策,最受歡迎的包括披露其算法和數據的信息,每年公布有道德影響的問題的報告,以及授權給用戶。
對媒體行業的主要人工智能技術和研究趨勢的分析和未來展望。基于技術現狀的分析結果,我們強調了特定人工智能技術對媒體行業的潛力。這些技術包括強化學習、進化學習、稀缺數據學習、轉化器、因果人工智能、邊緣人工智能、生物啟發學習和人工智能學習的量子計算。對于每一項技術,我們都準備了一份簡短的白皮書,旨在對該技術的現狀、其發展和采用的驅動力和挑戰以及未來前景提供一個清晰的概述。這些白皮書還包括小故事,即以媒體從業人員或媒體服務用戶為主角的小故事,旨在展示人工智能創新如何在實踐中幫助媒體行業。分析強調了其中一些技術在短期內(強化學習、利用稀缺數據學習、轉化器)和長期內(生物啟發學習、量子計算)可以帶來的重大轉變。
媒體部門主要人工智能應用的分析和未來展望。基于技術現狀的分析結果,我們強調了特定人工智能應用的潛力,以使媒體行業受益。其中包括多模態知識表示和檢索(內容索引和搜索)、媒體總結、自動內容創作、情感分析NLP支持的應用,如對話代理,以及內容審核。與上述類似,我們為每個應用準備了一份簡短的白皮書,旨在對技術的現狀、其發展和采用的驅動力和挑戰以及未來的前景提供清晰的概述。該分析揭示了這些技術的驚人潛力,為該行業長期存在的問題提供了有效的解決方案。
人工智能在不同媒體領域的未來概述。我們提出了一系列白皮書,關注人工智能在不同媒體行業的部署,包括新聞、社交媒體、電影/電視、游戲、音樂和出版。我們還探討了使用人工智能來解決關鍵的全球現象,如虛假信息和加強在線政治辯論。最后,我們探討人工智能如何以人工智能支持的社會科學工具的形式幫助媒體本身的研究。按照以前的格式,這些論文深入探討了每個部門在人工智能應用方面的現狀、最具影響力的人工智能應用、遇到的主要挑戰以及未來展望。分析揭示了未來復雜但豐富多彩的媒體格局,其中人工智能被用來為媒體行業的主要問題提供解決方案。
對值得信賴的人工智能的未來趨勢進行分析。我們提出了四份白皮書(遵循上述相同的格式),專注于值得信賴的人工智能的不同方面,即人工智能的穩健性、人工智能的可解釋性、人工智能的公平性和人工智能的隱私性,重點是媒體部門的應用。分析解釋了現有的可信賴的人工智能的局限性和潛在的負面影響,并強調除非在這個問題上投入更多的重視和資源,否則人工智能不可能在媒體行業得到大規模的應用。
人工智能數據集和基準的概述。我們分析了現有的人工智能數據集和基準競賽,討論了現狀、研究挑戰和未來前景,同時也對人工智能研究中優質數據的可用性的道德和法律問題提出了見解。
關于人工智能大眾化的概述。我們討論了與人工智能大眾化有關的問題,重點是人工智能算法和數據的開放庫以及集成智能方向的研究,即可以很容易地集成到其他應用程序中以提供人工智能功能的人工智能模塊。該分析強調了開放性(對數據、存儲和計算資源、算法和人工智能人才)在人工智能系統發展中的重要性,重點是模塊化工具箱和開放源碼軟件作為開放人工智能庫的未來。
探討可能塑造人工智能在媒體中的未來的外部力量。我們討論了可能塑造人工智能在媒體領域應用的未來的力量,重點是立法/監管,大流行病及其影響,以及氣候危機。關于立法,我們預測人工智能的媒體應用在未來幾年將變得越來越規范,以各種方式影響人工智能研究和媒體機構。關于大流行病,我們認為,大流行病為媒體和娛樂業的發展及其服務和受眾的擴大創造了令人興奮的新機會,同時也帶來了重大的運營和創意挑戰。這些趨勢鞏固了人工智能在這個行業中作為變革力量的地位,能夠徹底改變運營方式以及內容的創造、傳遞和消費方式。最后,關于環境危機,我們鼓勵媒體行業和人工智能研究人員更積極地確保人工智能技術考慮到環境因素。必須全面了解建立和部署人工智能模型的成本,不僅在財務上,而且在環境影響方面,并應重新審視更多數據或更大的模型總是更好的心態。
目前的報告對媒體人工智能的現狀和未來研究趨勢進行了詳細分析,涵蓋了上述所有方面,形成了一份390頁的綜合文件。除了完整的報告之外,為了幫助潛在的讀者專注于與他們自己的專業知識和興趣最相關的方面,我們還創建了報告的網絡版本,作為AI4Media網站的一部分。這使得讀者可以通過一個用戶友好的視覺界面輕松瀏覽本報告的內容,并只閱讀/下載涉及他們感興趣的主題的子章節。
圖 1:人工智能將顛覆的行業和生活領域
圖 5:用于開發 AI4Media 媒體行業 AI 路線圖的工具
第3部分介紹了從精選的路線圖、調查、評論文章和觀點文章中得出的主要結論和見解,重點關注人工智能使用的趨勢、益處和挑戰,旨在提供一幅關于人工智能在媒體和娛樂行業最具變革性的應用的清晰畫面,同時也介紹了當前和未來最重要的人工智能研究趨勢,這些趨勢有可能對整個媒體行業的價值鏈產生重大影響。
第4節總結了兩項調查的分析結果:a)一項大規模的在線調查,旨在收集人工智能研究界和媒體行業專業人士對媒體行業使用人工智能的好處、風險、技術趨勢、挑戰和倫理的意見;b)一項針對AI4Media合作伙伴的小規模內部調查,旨在收集他們對媒體人工智能對社會和大眾化的好處和風險以及對媒體人工智能的道德使用政策的意見。
第5節分析了選定的人工智能技術,包括強化學習、進化學習、稀缺數據學習、轉化器、因果人工智能、邊緣人工智能、生物啟發學習以及用于人工智能學習的量子計算的白皮書,旨在對每種技術的現狀、其發展和采用的驅動力和挑戰以及未來趨勢和目標提供一個清晰的概述。
第6節分析了選定的用于多媒體分析的人工智能應用,包括多模態知識表示和檢索、媒體摘要、自動內容創建、情感分析、NLP應用和內容節制的白皮書,旨在對每種技術的現狀、其發展和采用的驅動力和挑戰以及未來的趨勢和目標提供清晰的概述。
第7節關注可信賴的人工智能的四個方面(穩健性、可解釋性、公平性和隱私性),包括相關的白皮書,研究媒體行業可信賴的人工智能的現狀、應用、挑戰和未來趨勢。
第8節關注人工智能數據集和基準競賽,包括討論現狀、研究挑戰和未來前景的白皮書,同時也提供了與該領域相關的倫理和法律方面的見解。
第9節重點關注人工智能在不同媒體行業的部署,包括討論人工智能在新聞/記者、社交媒體、電影/電視、游戲、音樂和出版方面的白皮書。它還探討了使用人工智能來解決關鍵的全球現象,如虛假信息,以加強在線政治辯論,并以人工智能支持的社會科學工具的形式幫助媒體本身的研究。
第10節討論了與人工智能大眾化有關的問題,包括一份專注于人工智能算法和數據的開放存儲庫以及綜合智能話題的白皮書。
第11節研究了媒體行業采用人工智能所帶來的道德、社會、環境和經濟風險和擔憂,包括偏見和歧視、媒體(不)依賴性、獲取的不平等、隱私、透明度、問責制、責任、勞動力遷移、作為制度威脅的錯誤信息,以及環境影響。此外,它還簡要介紹了現有的歐盟政策和法律倡議,以及它們對未來媒體行業的人工智能研究的影響。
第12節討論了可能塑造未來媒體行業使用人工智能的力量,重點是立法/監管,大流行病及其影響,以及氣候危機。
第13節簡要介紹了本路線圖的網絡版,可在AI4Media網站上查閱。
最后,第14節結論。
圖 6:媒體行業人工智能路線圖結構和涵蓋的各種主題的概述。
工業人工智能 (AI) 是人工智能在工業中的應用,是第四次工業革命中價值創造的主要貢獻者。人工智能正被嵌入到廣泛的應用程序中,幫助組織獲得顯著的利益,并使他們能夠改變向市場提供價值的方式。
? 本文檔為支持人工智能的工業物聯網系統的開發、培訓、文檔編制、通信、集成、部署和操作提供指導和幫助。它面向來自 IT 和運營技術 (OT)、來自多個學科的業務和技術的決策者,包括業務決策者、產品經理、系統工程師、用例設計師、系統架構師、組件架構師、開發人員、集成商和系統操作員。
該文檔圍繞 IIC 工業互聯網參考架構中的架構觀點構建,即業務、使用、功能和實施觀點。該文件討論了推動人工智能采用的商業和價值創造考慮因素。它還詳細闡述了人工智能的使用、工業用例以及與之相關的道德、隱私、偏見、安全、勞工影響和社會問題。在技術方面,該文檔描述了與 AI 相關的架構、功能和數據注意事項,并討論了各種實施注意事項,例如性能、可靠性、數據屬性和安全性?。
人工智能的采用將在行業中加速。鑒于計算能力的快速增長、可用于訓練的數據的更廣泛可用性以及算法的日益復雜,人工智能技術將繼續發展。當前的 IT 標準和最佳實踐必須不斷發展,以解決 AI 本身的獨特特征以及與 IIoT 系統的安全性、可靠性和彈性相關的具體考慮因素。此外,人工智能技術的日益成熟將幫助人們認識到它的好處遠遠超過它的風險。 AI 標準生態系統也將繼續發展,例如 ISO/IEC JTC 1/SC42 正在進行的標準工作,為 JTC 1、IEC 和 ISO 委員會制定 AI 標準提供指導。
基于這些趨勢,毫無疑問,人工智能將繼續推動技術和功能上的可能性,因此預期合理的事情將同樣發展。對技術的態度和對其使用的商業期望也將繼續發展。
未來,我們可以期待使用人工智能技術成為常態,而不是例外,考慮到這項技術的社會效益,“不使用人工智能”最終可能會成為不負責任的做法。
《2021年人工智能全景報告》目前已進入第四年,由行業和研究領域的人工智能從業者進行評審,并邀請了一系列知名和嶄露頭角的公司和研究團體做出貢獻。本報告考慮了以下主要方面:
研究方向: 技術突破和能力。 人才: 人工智能人才的供給、需求和集中度。 所屬行業: 人工智能商業應用領域及其商業影響。 政治: 人工智能的監管、其經濟影響和正在興起的人工智能地緣政治。 預測: 我們認為會發生什么,以及讓我們保持誠實的業績評估。
今年,我們看到人工智能在從藥物研發到電網等關鍵任務基礎設施等各個領域取得突破方面變得越來越關鍵。
我和我的朋友Ian Hogarth合作制作了今年的人工智能全景報告,它指出了我們在過去12個月里在NLP、計算機視覺和生物學方面看到的現實世界的性能突破。
雖然人工智能對社會和經濟的影響越來越明顯,但我們的報告強調,對人工智能安全性和影響的研究仍落后于其快速的商業、民用和軍事部署。這一點,以及其他突出的偏見問題,讓我們有理由思考如何最好地繪制能力迅速提升的人工智能系統的進展。
今年的報告特別關注了Transformer 技術的出現,這種技術將機器學習算法聚焦于數據點之間的重要關系,以更全面地提取意義,以便更好地預測,最終幫助解鎖了我們一直強調的許多關鍵突破。
該報告還闡明了生物學領域的一個分水嶺,在這個分水嶺上,人工智能優先方法繼續顯示出它們完全改變藥物發現和醫療保健的潛力。我個人很期待在蛋白質折疊和RNA分子結構方面的重大突破之后,接下來會發生什么。
關鍵的信息。我們希望這份報告對從人工智能研究到政治的所有人都有意義:
人工智能正在以更具體的方式發展:人工智能正越來越多地應用于關鍵任務基礎設施,如國家電網和流行病期間超市倉儲自動化計算。然而,對于該行業的成熟是否已經趕上其日益增長的部署規模,仍存在疑問。人工智能正日益以數據為中心,而不是以模型為中心。
人工智能優先的方法已經席卷了生物學領域: 人工智能能夠更快地模擬人類的細胞機制(蛋白質和RNA),這有可能改變藥物發現和醫療保健。
Transformers已經成為機器學習的通用架構: 在包括自然語言處理(NLP)、計算機視覺甚至蛋白質結構預測在內的許多領域擊敗了最先進的技術。
投資者已經注意到: 今年,我們看到人工智能初創企業獲得了創紀錄的融資,以人工智能為先導的藥物研發公司進行了兩次首次公開募股(ipo),數據基礎設施和網絡安全公司的ipo也引起了轟動,這些公司幫助企業重組以適應人工智能時代。
中國在研究質量上的提升是值得注意的: 中國的大學從1980年沒有發表人工智能研究成果,迅速發展到今天發表了數量最多的高質量人工智能研究成果。
「美國人仍未認真思考 AI 革命將對社會、經濟和國家安全產生多大影響」,3 月 1 日,美國國家人工智能安全委員會(the National Security Commission on Artificial Intelligence,NSCAI)發布的一份報告,提出了對于總統拜登、國會及企業和機構的數十項建議。
該組織稱,中國是對于美國技術主導地位的首要挑戰,在第二次世界大戰后第一次有國家對美國的經濟和軍事力量產生了如此程度的威脅。該報告的一個結論是,在未來十年內,美國可能會失去對中國的軍事技術優勢。
這個由 15 名成員組成的委員會主張以 400 億美元的投資擴展和民主化 AI 研究的進程,并為「未來技術突破進行投資」,鼓勵決策者們對創新投資持類似態度。該組織最終希望能推動聯邦政府在未來幾年里對于人工智能投資數千億美元。
斯坦福大學正式發布了《2021年人工智能指數報告》(“Artificial Intelligence Index Report 2021”)!
地址: //aiindex.stanford.edu/report/
李飛飛教授十幾分鐘前也在推特上做了推薦!值得關注!
引言
今年,我們大大擴展了報告中可用的數據量,與更廣泛的外部組織合作校準我們的數據,并加深了我們與斯坦福大學HAI的聯系。
2021年報告還從多個角度展示了COVID-19對人工智能發展的影響。技術表現一章討論了人工智能初創公司如何在大流行期間使用基于機器學習的技術加速新冠病毒相關藥物的發現,我們的經濟一章指出,人工智能招聘和私人投資沒有受到大流行的顯著不利影響,因為這兩方面在2020年都有所增長。如果有什么不同的話,COVID-19可能導致參加人工智能研究會議的人數增加,因為大流行迫使會議轉向虛擬舉行,這反過來又導致出席人數大幅飆升。
九大結論
1. 人工智能在藥物設計和發現方面的投入顯著增加
2020年,“藥物、癌癥、分子、藥物發現”獲得的私人人工智能投資金額最大,超過138億美元,比2019年高出4.5倍。
2. 行業的轉變還在繼續
2019年,65%的北美人工智能博士畢業生進入了行業,高于2010年的44.4%,凸顯出行業開始在人工智能發展中發揮更大的作用。
3. 生成一切
人工智能系統現在可以合成文本、音頻和圖像,達到足夠高的標準,以至于對于該技術的某些受限應用來說,人類很難分辨合成和非合成輸出的區別。
4. AI面臨多樣性挑戰
2019年,45%的新美國居民人工智能博士畢業生為白人,2.4%為非洲裔,3.2%為西班牙裔。
5. 中國在人工智能期刊引用數量上超過美國
中國幾年前在期刊總數上超過了美國,現在在期刊引用數量上也領先于美國;然而,在過去十年里,美國的人工智能會議論文(被引用的次數也更多)一直(而且明顯)多于中國。
6. 美國大多數人工智能博士畢業生都來自國外——而且他們將留在美國
2019年,北美新AI博士中國際學生的比例繼續上升,達到64.3%,比2018年上升4.3%。在外國畢業生中,81.8%的人留在美國,8.6%的人在美國以外的地方找工作。
7. 監視技術快速、廉價,而且越來越普遍
大規模監控所需的技術正在迅速成熟,到2020年,圖像分類、人臉識別、視頻分析和語音識別等技術都將取得重大進展。
8. 人工智能倫理缺乏基準和共識
盡管在人工智能倫理領域,許多團體正在產生一系列定性或規范性的產出,但該領域通常缺乏基準,無法用來衡量或評估關于技術發展的更廣泛社會討論與技術本身發展之間的關系。此外,研究人員和公民社會認為人工智能倫理比產業組織更重要。
9. AI已經引起了美國國會的注意
第116屆國會是歷史上最關注人工智能的國會會議,國會記錄中提到人工智能的次數是第115屆國會的三倍多。
報告目錄
今年的報告,從學術、工業、開源、政府等方面詳細介紹了人工智能發展的現狀,并且記錄了計算機視覺、自然語言理解等領域的技術進展。報告章節如下: 一、研究與發展 二、技術表現 三、經濟 四、AI 教育 五、AI 應用的道德挑戰 六、AI 多樣性 七、AI 政策與國家策略
【導讀】紐約大學AI Now研究所發布了第四份關于人工智能現狀的年度報告。2019年AI Now報告重點關注行業AI不平等加劇等主題,政府決策者在人工智能中的作用與責任,還評估了人工智能道德與有意義的問責制之間的差距,并研究了組織和監管在人工智能中的作用。
決策者應禁止在影響人們生活和獲得機會的重要決策中使用情感識別。在那之前,人工智能公司應該停止部署它。情感識別技術是面部識別技術的一個子類,聲稱可以探測諸如性格、情緒、心理健康和其他內心狀態等方面的信息。鑒于情感識別技術存在爭議的科學基礎,它不應該被允許在人類生活的重要決策中發揮作用,比如面試或聘用誰、保險的價格、病人的疼痛評估或學生在學校的表現。在去年建議實施嚴格監管的基礎上,各國政府應明確禁止在高風險決策過程中使用情感識別。
政府和企業應該停止在敏感的社會和政治環境下使用面部識別,直到風險被充分研究和適當的監管到位。2019年,面部識別在許多領域迅速擴展。然而,越來越多的證據表明,這種技術會造成嚴重的傷害,尤其是對有色人種和窮人。在敏感的社會和政治領域——包括監視、警務、教育和就業——應暫停使用面部識別,因為在這些領域,面部識別會帶來無法追溯的風險和后果。立法者必須補充(1)透明度要求,讓研究人員,政策制定者和社區評估和理解限制和調節面部識別的最佳方法;(2)為使用這些技術的社區提供保護,使其有權自行評估和拒絕使用這些技術。
人工智能行業需要進行重大的結構性改革,以解決系統性的種族主義、厭女癥和缺乏多樣性的問題。人工智能行業驚人地同質化,這在很大程度上是因為它對待女性、有色人種、性別少數群體和其他未被充分代表的群體的方式。為了開始解決這個問題,應該公開更多關于薪酬水平、對騷擾和歧視的回應率以及招聘做法的信息。它還需要終結薪酬和機會不平等,并為高管們提供真正的激勵,以創造、促進和保護包容性的工作場所。最后,采取的任何措施都應該解決兩級勞動力的問題。在這兩級勞動力中,許多科技公司的有色人種都是薪酬過低、弱勢的臨時工、供應商或承包商。
人工智能偏見研究應該超越技術層面的修正,關注更廣泛的政治和人工智能使用的后果。對人工智能偏見和公平性的研究已開始超越以統計平等性為目標的技術解決方案,但需要對人工智能的政治和后果進行更嚴格的審查,包括密切關注人工智能的分類實踐和危害。這就要求外勤中心的“非技術”學科,其工作傳統上審查這些問題,包括科學和技術研究、關鍵的種族研究、殘疾研究,以及其他與社會背景密切相關的學科,包括如何構建差異、分類工作及其后果。
政府應要求公開披露人工智能行業對氣候的影響。考慮到人工智能發展對環境的重大影響,以及人工智能行業的權力集中,政府有必要確保大型人工智能供應商向公眾披露人工智能發展的氣候成本。與汽車和航空行業的類似要求一樣,這種披露有助于為更明智的氣候和技術集體選擇奠定基礎。信息披露應包括通知,允許開發人員和研究人員了解他們使用人工智能基礎設施的具體氣候成本。氣候影響報告應與任何抵消或其他緩解戰略的核算分開。此外,各國政府應利用這些數據,確保人工智能政策考慮到任何擬議的人工智能部署的氣候影響。
工人應該有權對剝削性和侵入性的人工智能提出異議——工會可以提供幫助。啟用人工智能的勞動管理系統的引入引發了有關工人權利和安全的重大問題。這些體制的使用亞馬遜倉庫超級InstaCart-pools權力和控制手中的雇主和危害主要是低薪工人(顏色的不成比例的人是誰)通過設置生產力目標與慢性損傷、死亡和施加心理壓力,甚至是不可預測的算法減薪,破壞經濟穩定。員工有權對這些決定提出質疑,并就安全、公平和可預見的工作場所標準達成一致。傳統上,工會一直是這一過程的重要組成部分,它強調了企業有必要讓員工組織起來,而不必擔心遭到報復。