主要特點:
在Intel平台上提升計算機視覺相關深度學習性能達19倍以上
解除CNN-based的網絡在邊緣設備的性能瓶頸
對OpenCV,OpenXV*視覺庫的傳統API實現加速與優化
基於通用API接口在CPU、GPU、FPGA等設備上運行加上
OpenVINO工具包(ToolKit)主要包括兩個核心組件,模型優化器(Model Optimizer)和(Model Optimizer)。
模型優化器(Model Optimizer)
模型優化器(Model Optimizer)將給定的模型轉化為標准的 Intermediate Representation (IR) ,並對模型優化。
模型優化器支持的深度學習框架:
ONNX
TensorFlow
Caffe
MXNet
Kaldi
推斷引擎(Inference Engine)
推斷引擎(Inference Engine)支持硬件指令集層面的深度學習模型加速運行,同時對傳統的OpenCV圖像處理庫也進行了指令集優化,有顯著的性能與速度提升。
支持的硬件設備:
CPU
GPU
FPGA
VPU