原標題:Google更新Coral開發平臺,支持訓練后量化與TF Lite委派
Google更新其人工智能開發平臺Coral,不只發布新的編譯器版本支持訓練后量化(Post-Training Quantization),還加入了TensorFlow Lite委派(Delegate)API,Edge TPU也能夠用來加速使用TensorFlow Lite直譯器API的模型。
Coral是一個人工智能測試平臺,包含了軟件以及硬件,開發人員可以在搭載Edge TPU的Coral開發板上建立、訓練和執行神經網絡程序,有助于設計應用程序原型,以便后續正式產品開發。硬件除了有Coral開發板之外,周邊硬件還有一個可通過MIPI界面連結的500萬畫素相機,和可與其他Linux系統整合使用的外接Coral USB加速器,而軟件開發工具方面,主要由TensorFlow與TensorFlow Lite發展而來。
現在Coral研發團隊更新Coral的開發工具,編譯器更新至2.0版本,新增支持使用訓練后量化技術建立的模型。Tensorflow團隊提到,訓練后量化可以將使用浮點數訓練的模型,量化為Int 8的模型,優點除了可以縮小模型大小之外,也可以加快Coral設備中搭載的Edge TPU執行模型運算的速度。
之前,開發者的模型要獲得Edge TPU良好的加速效能, 需要使用官方提供的Edge TPU Python API或是C++撰寫源代碼,不過現在官方發布了TensorFlow Lite委派,讓模型即便使用TensorFlow Lite直譯器API,也可以得到Edge TPU 的加速。Coral研發團隊提到,TensorFlow Lite委派API目前還是個實驗性功能,他允許TensorFlow Lite直譯器將部分或是全部圖執行(Graph Execution)委派給其他執行程序,也就是Edge TPU。
另外,開發工具中的Edge TPU Python函式庫也更新到了2.11.1版本,加入了遷移學習(Transfer Learning)的支持。新的設備反向傳播API讓開發者,可以在圖像分類模型的最后一層執行遷移學習,而在設備上是以CPU執行,并以接近即時的速度執行遷移學習,為模型加入遷移學習,開發者不需要重新編譯模型。
Coral研發團隊也與AutoML團隊合作,共同發布了一系列圖像分類模型EfficientNet-EdgeTPU,這些模型是基于EfficientNet架構,專為EdgeTPU最佳化,可用超小型的模型達到服務器端模型才能做到的圖像分類程度。返回搜狐,查看更多
責任編輯: