模型優化、部署的最佳幫手

Nilvana™ Vision Inference Runtime

模型優化、部署的最佳幫手

AI 模型要上線前...

壓縮模型、模型優化很麻煩?

「因為模型太大,放不進邊緣裝置,要花許多時間調整與移轉,還要確保模型可以在低功耗的情形下保有一定的效能...」

AI Vision inference runtime 支援 nvidia 與 openvino 環境

專為 NVIDIA、Intel® OpenVINO™ 環境優化與加速

除了輕量化模型、降低在邊緣裝置的資源需求,還針對 NVIDIA GPU 、Intel® OpenVINO™ 晶片進行優化,為各式 AIoT 智慧物聯網應用帶來高效能的表現。

聯絡我們

部署模型要記好多指令與步驟?

「每次部署模型時都要修改腳本,或是透過輸入指令的方式完成,有沒有更簡易的部署工具呢?」

簡單部署深度學習/機器學習模型進行推論

0 指令、0 程式碼執行推論

不需撰寫與修改模型推論程式碼,透過圖形化介面設定即可啟用模型 API 端點,加快模型部署的時間,開始實際運用模型解決問題。

並且提供 Webhook 整合設定,方便你自動將模型推論資訊傳送至另外的應用程式中。

邊緣、雲端皆可靈活部署

基於 NVIDIA GPU,無論是一般電腦、工作站、x86、ARM、雲端伺服器皆可安裝並立即推論。享受不被平台約束的體驗。

無法隨時根據應用切換模型?

「因現場環境限制,我的產線只能建置少量的邊緣裝置進行推論,可是每隔一段時間這條產線就需要生產不同的產品,有沒有方便切換模型的方法,讓我可以因應不同的產品切換至不同的模型?」

輕鬆變換與管理檢測項目模型

關閉當前模型 API 端點、開啟要起用的模型 API 端點,就能快速切換你的 AI 應用,或是同時啟用多個 AI 檢測模型。

尋找其他符合你的解決方案?
更多高彈性、高控制權的體驗