簡體   English   中英

如何使用TensorFlow Lite在設備上使用多個自定義模型?

[英]How to use multiple Custom Model on device using TensorFlow Lite?

我想隨應用程序一起運送多個自定義模型。 所有模型都有相同的目的。 我現在不想托管它。

自定義模型代碼github

FirebaseLocalModelSource localModelSource =
        new FirebaseLocalModelSource.Builder(LOCAL_MODEL_NAME)
                .setAssetFilePath(LOCAL_MODEL_PATH).build();
// add multiple

FirebaseModelManager manager = FirebaseModelManager.getInstance();
manager.registerLocalModelSource(localModelSource);

// access multiple
  1. 如何訪問多個模型?
  2. 即使托管它,又如何出於同一目的訪問不同的自定義模型?

如果使用mlkit無法實現上述目的,是否還有其他方法可以合並所有模型的結果?

我認為我們尚不支持在一個推斷中運行多個模型。 如果要在不同的方案中運行不同的模型,則可以為它們分配不同的名稱,並使用不同的模型源來觸發它們。

如果您可以更清楚地描述您的用例,我們將在將來看到如何支持它。

上面代碼段中的LOCAL_MODEL_NAME變量指向您與應用捆綁在一起的模型文件。 您只需更改該值即可指向與應用程序捆綁在一起的模型之一。

托管模型時,其工作原理類似。 每個模型都有不同的名稱,因此您只需傳遞要使用的模型的名稱即可。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM