《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計 > 業(yè)界動態(tài) > 在Mac上訓(xùn)練機器學(xué)習(xí)模型,蘋果WWDC發(fā)布全新Create ML、Core ML 2

在Mac上訓(xùn)練機器學(xué)習(xí)模型,蘋果WWDC發(fā)布全新Create ML、Core ML 2

2018-06-05

北京時間 6 月 5 日凌晨,蘋果 2018 年全球開發(fā)者大會 (WWDC) 在圣何塞的 McEnery 會議中心開幕。在去年的開發(fā)者大會上,圍繞軟、硬件,蘋果介紹了融合機器學(xué)習(xí)人工智能的產(chǎn)品,例如 CoreML 框架、智能音箱 HomePod 等。


而在今年的開發(fā)者大會上,蘋果的核心放在了軟件上。從 IOS 12 開始,庫克開啟了今年的 WWDC。而在機器學(xué)習(xí)方面,蘋果發(fā)布了最新的 Create ML 與 Core ML 2。


Create ML

微信圖片_20180605171008.jpg



Create ML 文檔地址:https://developer.apple.com/documentation/create_ml


在蘋果開發(fā)者文檔介紹中,Create ML 的目標是為應(yīng)用程序創(chuàng)建機器學(xué)習(xí)模型。開發(fā)者可以使用 Swift 與 macOS 試驗場等熟悉的工具在 Mac 上創(chuàng)建和訓(xùn)練定制化的機器學(xué)習(xí)模型,例如用于圖像識別、文本語義抽取或數(shù)值關(guān)系搜索等任務(wù)的模型。

微信圖片_20180605171051.jpg

據(jù)介紹,開發(fā)者可以使用具有代表性的樣本訓(xùn)練模型來做模式識別,例如使用大量不同種類的狗以訓(xùn)練模型識別「狗」。在訓(xùn)練完模型后,開發(fā)者在模型沒見過的數(shù)據(jù)集上測試并評估它的性能。當模型有較好的性能時,就能使用 Core ML 將其集成到應(yīng)用程序中。


微信圖片_20180605171141.jpg


Create ML 利用機器學(xué)習(xí)基礎(chǔ)設(shè)施建立進蘋果 Photos 和 Siri 這樣的產(chǎn)品中。這意味著你的圖片分類和自然語言處理模型可以變得更小、花費更少的訓(xùn)練時間。


目前 Create ML 支持的任務(wù)主要包含計算機視覺、自然語言處理和其它使用標注信息進行預(yù)測的一般模型。在計算機視覺中,開發(fā)者可以訓(xùn)練一個機器學(xué)習(xí)模型以完成圖像識別任務(wù)。重要的是,開發(fā)者在這一過程中可以使用 Xcode 試驗場的 UI 來訓(xùn)練模型。自然語言處理主要展示了如何使用機器學(xué)習(xí)做文本分類,它允許創(chuàng)建文本級的自然語言分類與詞匯級地分類標注。


當然其它任務(wù)還有一般的分類問題與回歸問題,Create ML 允許開發(fā)者訓(xùn)練一個模型以將數(shù)據(jù)分類為離散的類別或連續(xù)的數(shù)值。除此之外,Create ML 還展示了機器學(xué)習(xí)很多模塊,包括用來提升分類或回歸模型性能的度量方法和格式化數(shù)據(jù)的方法等。


微信圖片_20180605171206.jpg

如下我們將簡要展示如何使用 Create ML 創(chuàng)建圖像分類應(yīng)用。簡單而言,我們希望給定分類器一些圖像的,然后它會輸出圖像的具體類別。當然首先我們需要準備一些訓(xùn)練樣本,包括圖像與對應(yīng)標注。然后在 Xcode 試驗場中創(chuàng)建一個 MLImageClassifierBuilder 實例,并以實時的方式查看:



// Import CreateMLUI to train the image classifier in the UI.
// For other Create ML tasks, import CreateML instead.
import CreateMLUI

let builder = MLImageClassifierBuilder()
builder.showInLiveView()


先顯示 Xcode 中的助理編輯器,然后再運行試驗場(Playground),這樣實時的方式就會顯示一個圖像分類器:


微信圖片_20180605171234.jpg

隨后的訓(xùn)練和評估過程都是直接拖拽訓(xùn)練數(shù)據(jù)集與測試數(shù)據(jù)集完成,非常方便。如下將測試數(shù)據(jù)集拖拽到圖中位置后就可以開始測試性能:


微信圖片_20180605171302.jpg



當開發(fā)者完成訓(xùn)練并獲得滿意的性能時,一般就能保存為 Core ML 模型并添加到應(yīng)用程序中:


微信圖片_20180605171350.jpg


Core ML 2


微信圖片_20180605171414.jpg

去年,蘋果發(fā)布了 Core ML。這是一個在蘋果產(chǎn)品上(包括 Siri、Camera 和 QuickTyPe)使用的設(shè)備上高性能機器學(xué)習(xí)框架。Core ML 能夠幫助開發(fā)者快速的融合多種機器學(xué)習(xí)模型到 APP 中,包括多層的深度學(xué)習(xí)模型以及標準的 SVM、線性模型等。此外,Core ML 為設(shè)備性能進行了優(yōu)化,從而減少了內(nèi)存占用和功耗。嚴格在設(shè)備上運行能夠確保用戶數(shù)據(jù)的隱私,并且能保證你的應(yīng)用在沒有網(wǎng)絡(luò)連接時也能夠工作和響應(yīng)。


微信圖片_20180605171438.jpg


Core ML 支持用于圖像分析的 Vision;用于自然語言處理的 Foundation(比如 NSLinguisticTagger 類)和用于評估已經(jīng)學(xué)習(xí)到的決策樹的 GameplayKit。Core ML 本身構(gòu)建于低層面的原語(primitives)之上,比如 Accelerate、BNNS 和 Metal Performance Shaders。


今天,蘋果發(fā)布了 Core ML 2,一個更好的升級版本。據(jù)蘋果軟件高級副總裁 Craig Federighi 介紹,相比于上一版本使用 Batch 預(yù)測速度快了 30% 左右,使用 Quantization 模型大小減少了 75% 左右。


小結(jié)


歷史 2 個多小時 Keynote,蘋果介紹了自己的多個軟件。除了發(fā)布 Create ML 與 Core ML 2 之外當然還介紹了其他在人工智能領(lǐng)域的應(yīng)用,例如隱私保護、Siri、圖片等。


其實,從 2016 年 Backchannel 對蘋果人工智能的專題報道開始,人們對這家公司的 AI 研究與產(chǎn)品都極為關(guān)注,而后這家公司在 AI 方面的動作不斷。最近,蘋果從谷歌挖來了 John Giannandrea 來負責(zé)機器學(xué)習(xí)與 AI 策略。此外,一直也有消息透露蘋果在開發(fā)自己的芯片來加速計算機視覺、語音識別等 AI 應(yīng)用。


期待未來蘋果在產(chǎn)品融合人工智能上給我們帶來更大的驚喜


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。