[英]How to use multiple Custom Model on device using TensorFlow Lite?
我想隨應用程序一起運送多個自定義模型。 所有模型都有相同的目的。 我現在不想托管它。
FirebaseLocalModelSource localModelSource =
new FirebaseLocalModelSource.Builder(LOCAL_MODEL_NAME)
.setAssetFilePath(LOCAL_MODEL_PATH).build();
// add multiple
FirebaseModelManager manager = FirebaseModelManager.getInstance();
manager.registerLocalModelSource(localModelSource);
// access multiple
如果使用mlkit無法實現上述目的,是否還有其他方法可以合並所有模型的結果?
我認為我們尚不支持在一個推斷中運行多個模型。 如果要在不同的方案中運行不同的模型,則可以為它們分配不同的名稱,並使用不同的模型源來觸發它們。
如果您可以更清楚地描述您的用例,我們將在將來看到如何支持它。
上面代碼段中的LOCAL_MODEL_NAME變量指向您與應用捆綁在一起的模型文件。 您只需更改該值即可指向與應用程序捆綁在一起的模型之一。
托管模型時,其工作原理類似。 每個模型都有不同的名稱,因此您只需傳遞要使用的模型的名稱即可。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.