Nilvana™ Vision Inference Runtime
Nilvana™ Vision Inference Runtime
模型優化、部署的最佳幫手
AI 模型要上線前...
壓縮模型、模型優化很麻煩?
「因為模型太大,放不進邊緣裝置,要花許多時間調整與移轉,還要確保模型可以在低功耗的情形下保有一定的效能...」
除了輕量化模型、降低在邊緣裝置的資源需求,還針對 NVIDIA GPU 、Intel® OpenVINO™ 晶片進行優化,為各式 AIoT 智慧物聯網應用帶來高效能的表現。
部署模型要記好多指令與步驟?
「每次部署模型時都要修改腳本,或是透過輸入指令的方式完成,有沒有更簡易的部署工具呢?」
不需撰寫與修改模型推論程式碼,透過圖形化介面設定即可啟用模型 API 端點,加快模型部署的時間,開始實際運用模型解決問題。
並且提供 Webhook 整合設定,方便你自動將模型推論資訊傳送至另外的應用程式中。
無法隨時根據應用切換模型?
「因現場環境限制,我的產線只能建置少量的邊緣裝置進行推論,可是每隔一段時間這條產線就需要生產不同的產品,有沒有方便切換模型的方法,讓我可以因應不同的產品切換至不同的模型?」