簡體   English   中英

如何部署我們的 ML 訓練模型?

[英]How to deploy our ML trained model?

我是機器學習的新手。 我已經完成了 k-means 聚類並訓練了 ml 模型。 我的問題是如何為我的訓練模型傳遞輸入?

示例:考慮一個谷歌圖像處理 ML 模型。 為此,我們傳遞了一個圖像,該圖像給出了正確的輸出,如該圖片的情感。

現在我的疑問是如何做到我已經完成了 k-means 來預測mall_customer花更多的錢購買產品為此我想打電話或將輸入傳遞給我訓練的模型。

我正在使用 python 和 sci-kit 學習。

您在這里需要的是一個 API,您可以在其中發送請求/輸入並獲得響應/預測。

您可以創建 Flask 服務器,將您訓練好的模型保存為 pickle 文件並在進行預測時加載它。 這可能是一些工作要做。

請參考這些:

注意:Flask 內置服務器尚未做好生產准備。 你可能想參考 uwsgi + ngnix

如果您正在使用 docker: https : //hub.docker.com/r/tiangolo/uwsgi-nginx-flask/這將是一個很大的幫助。

部署 ML 模型通常基於您的業務需求。 如果您有大量需要預測的數據,並且您不需要立即獲得結果。 你可以做批量預測。 此方法的典型用例是推薦。 通常它被部署為更大管道的一部分。 有很多方法可以設置此管道,這實際上取決於您的公司擁有什么,因此我不會對此進行過多詳細說明。

另一種方法是其他人提到的,實時服務。 這方面的典型用例是欺詐檢測。 它需要立即進行預測。 它通過 REST/gRPC/others 接收請求並響應預測結果。 取決於您的延遲要求,人們將使用高性能環境(JAVA/C)來存檔低延遲。 通常,在大多數情況下,flask 服務器可以完成這項工作。

對於 Flask 應用程序,您需要創建一個端點來接收請求數據並進行預測,然后返回響應。

讓我知道它對你有幫助與否。

只是一個自插。 我們開源了一個用於打包和部署的 ML 工具包。 標語是從 Jupyter notebook 到生產在 5 分鍾內。 它將您的模型和依賴項導出到您可以存儲在本地文件或 s3 中的存檔中。 您可以將存檔導入為python模塊進行預測,也可以使用內置的rest服務器進行實時預測。 您還可以從生成的 dockerfile 為生產創建 docker 鏡像。 您可以在此處找到開源項目。 它叫做BentoML

自從 2019 年提出這個問題以來,存在許多 Python 庫,它們允許用戶快速部署機器學習模型,而無需學習 Flask、容器化和獲取網絡托管解決方案。 最佳解決方案取決於諸如您需要部署模型多長時間以及它是否需要能夠處理大量流量等因素。

對於用戶描述的用例,聽起來gradio庫可能會有所幫助( http://www.gradio.app/ ),它允許用戶使用公共鏈接和用戶界面軟部署模型,只需幾行Python 代碼,如下所示:

在此處輸入圖片說明

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM