如果你對在嵌入式設備上運行機器學習感興趣,但不確定如何開始,谷歌的TensorFlow微團隊的皮特·沃登將介紹如何構建和運行你自己的TinyML應用程序。這將包括可用的不同板子、軟件框架和教程的概述,以幫助您入門和運行。
數據科學和人工智能是令人著迷的計算領域。微軟在這些新技術上下了很大的賭注,但我們也知道,數據科學家都是訓練有素的專業人士,并不是每個軟件開發人員都能創建和維護復雜的數據模型,執行線性代數或購買昂貴的GPU設備來運行這些模型。這正是我們創造認知服務的原因。這套服務提供了預訓練模型,您可以使用開箱即用的模型來執行視覺、語音、知識、搜索和語言方面的操作。在本次會議上,微軟的云開發者倡導者Laurent Bugnion將向您展示如何使用認知服務增強應用程序的高級功能,如何使用自己的數據細化訓練過的模型,以及如何將認知服務與其他Azure服務集成以實現任務自動化。
主題: Machine learning for protein engineering
摘要: 機器學習指導的蛋白質工程是一種新的范例,可以優化復雜的蛋白質功能。 機器學習方法使用數據來預測蛋白質功能,而無需詳細的基礎物理或生物學途徑模型。
【導讀】來自Jordi Pons一份循環神經網絡RNNs簡明教程,37頁ppt
TensorFlow Lite是可幫助開發人員在移動端(mobile)、嵌入式(embeded)和物聯網(IoT)設備上運行TensorFlow機器學習模型的一組工具。它使設備機器學習具有低延遲和更小的二進制體積。本文是TensorFlow Lite入門指導。
TensorFlow Lite由兩個主要組件組成:
下圖顯示了 TensorFlow Lite 的架構設計:
在設備端使用模型的過程:
converter使用TF模型生成FlatBuffer文件(.tflite),然后將FlatBuffer文件部署到客戶端設備(例如移動設備,嵌入式設備)并使用TensorFlow Lite解釋器在本地運行。下圖顯示了此轉換過程:
converter代碼實現如下:
為什么要使用FlatBuffer? 主要原因有:
使用converter轉換模型的主要原因:
注:推理(Inference) 是通過模型(model)運行數據(data)以獲得預測(predictions)的過程。這個過程需要模型(model)、解釋器(interpreter)和輸入數據(input data)。
為了實現這些目標,主要組成部分是所謂的量化(Quantization)如下圖:
主題: Machine learning over real-time streaming data with TensorFlow
報告簡介: 在流數據上應用機器學習來發現有用的信息一直是人們感興趣的話題。在物聯網傳感器、網絡交易、全球定位系統位置或社交媒體更新等許多現實應用中,不斷產生大量數據。關鍵是要有一個能夠可靠和方便地接收、預處理和提供數據的數據管道,以便進行模型推理和訓練。Yong Tang使用TensorFlow開發了用于流數據處理的TensorFlow I/O包。TensorFlow I/O由TensorFlow項目的SIG IO開發,是一個軟件包,主要關注TensorFlow的數據I/O、流和文件格式。除了機器學習本身之外,它還支持各種各樣的開源軟件和框架。在流數據領域,TensorFlow I/O為Apache Kafka、AWS kinisis和Google Cloud PubSub提供支持,這是目前應用最廣泛的流框架。TensorFlow I/O構建在tf.data之上,與簡潔的tf.keras API完全兼容。這意味著使用Kafka、kinisis和PubSub對流式數據進行模型推斷可以像一行代碼一樣簡單。再加上tf.data中的數據轉換功能,還可以直接對成批流數據進行模型訓練。除了流輸入外,TensorFlow I/O還提供流輸出支持,使得機器學習算法實時生成的數據可以返回到Kafka,從而允許其他應用程序連續接收數據。有了輸入和輸出支持,就可以用最少的組件構建以TensorFlow為中心的流媒體管道,這從長遠來看大大減少了基礎設施的維護。您將看到一個演示,展示了TensorFlow I/O使用的便利性,以及使用完整的流數據管道輕松進行機器學習的能力。
嘉賓介紹: 唐勇是美孚電子的工程總監。他為開源社區的不同容器和機器學習項目做出了貢獻。他最近的研究重點是機器學習中的數據處理。他是TensorFlow項目的提交者和SIG I/O負責人,并因對TensorFlow的貢獻而獲得了谷歌的開源同行獎。除了TensorFlow,唐勇還為開源社區的許多其他項目做出了貢獻,并且是Docker和CoreDNS項目的提交者。
報告主題:Advanced model deployments with TensorFlow Serving
報告摘要:
TensorFlow服務是TensorFlow生態系統的基石之一。它極大地簡化了機器學習模型的部署,并加速了模型的部署。不幸的是,機器學習工程師不熟悉TensorFlow服務的細節,他們錯過了顯著的性能提升。Hannes Hapke簡要介紹了TensorFlow服務,然后深入介紹了高級設置和用例。他介紹了先進的概念和實施建議增加TensorFlow服務設置的性能,其中包括客戶如何請求服務器模型的元信息模型,選擇最優預測模型優化吞吐量的概述,批處理請求提高吞吐量性能,支持模型的一個示例實現A / B測試,和監控TensorFlow服務設置的概述。
邀請嘉賓:
Hannes Hapke是一位機器學習愛好者和谷歌開發專家。他將深度學習應用于各種計算機視覺和自然語言問題,主要興趣在于機器學習基礎設施和自動化模型工作流。Hannes是《自然語言處理在行動中的作用》一書的合著者,他正在為O 'Reilly使用TensorFlow構建機器學習管道。