[英]Azure model deployment (Real-time Endpoints vs Compute Inference Cluster)
在這里尋求幫助。
ManagedOnlineDeployment 與 Kube.netesOnlineDeployment
目標:在 Azure ML 上托管大量不同的模型。
描述:經過全面調查,我發現有兩種方法可以在 Azure ML 上托管預訓練的實時 model(即運行推理)。
細節:
我的嘗試 由於創建了 4 個實時端點,我有 4 個正在運行的虛擬機。 這些端點使用 Microsoft 提供的 Curated Environments。
虛擬機
問題
構建圖像 > 將圖像推送到 CR > 在 AzureML 中創建自定義環境 > 創建和部署端點
如果出現問題,它只會在我完成整個管道時顯示。 它只是感覺不像部署 model 的正確方法。當我無法使用其中一個策划環境時需要此過程,因為我需要一些無法使用 conda.yml 文件導入的依賴項
例如: RUN apt-get update -y && apt-get install build-essential cmake pkg-config -y RUN python setup.py build_ext --inplace
注意:每個端點都有一組不同的依賴項/版本......
問題:
1- 我是否遵循最佳實踐? 或者我是否需要徹底改變我的部署策略(從 ManagedOnlineDeployment 移動到 Kube.netesOnlineDeployment 或者我不知道的另一個選項)? 2- 有沒有辦法在單個虛擬機上托管所有端點? 而不是為每個端點創建一個虛擬機。 讓它負擔得起。 3- 有沒有辦法托管端點並按交易收費?
非常歡迎一般性建議和澄清問題。
謝謝!
從可用選項中,選擇對應用程序最有用的選項並創建。 然后我們就可以部署了。
此過程將減少配置負擔並改進功能。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.