簡體   English   中英

MLKit 提供的結果不如 Google Vision 准確

[英]MLKit giving less accurate results than Google Vision

一直在測試 MLKit,發現與 Google Vision 相比,結果不太准確。 我啟用的一件事是 Google Vision 的語言提示,例如

                    image: {
                        content: base64String
                    },

                    features: [
                        {
                            type: "TEXT_DETECTION"
                        }
                    ],
                    imageContext:
                    {
                        languageHints: ['en']
                    }

我在想也許我需要為 MLKit 啟用語言提示,但不確定如何。 我正在測試 Android 和 IOS。

對於 MLKit,我使用的版本是最新的 v2 beta:

  pod 'GoogleMLKit/TextRecognition', '3.1.0'

對於 Android 我正在使用:

    implementation 'com.google.mlkit:text-recognition:16.0.0-beta4'
  • 3.1.0是文本識別的 beta 版本,我們支持除拉丁語之外的 4 種額外語言,因此如果您創建這 4 種語言的實例,它將返回指定語言的結果。 否則,它只會返回拉丁文本的結果。

  • 如果僅比較en的結果,則沒有其他輸入參數可以改善 ML Kit 的結果。

  • 你有 ML Kit 用法的代碼片段嗎?

  • 如果有數據點可以顯示 ML Kit 和 Google 視覺結果之間的差異,那就太好了,我們可以從那里進行更多調查。 謝謝

我也注意到了這一點,MLKit 文本提取工具要求文本圖片正確對齊,就像垂直 90 度一樣。 而使用 Google Vision API,它甚至可以在反轉文本時提取文本。

附圖是輪胎的序列號,即使倒置也可以被谷歌視覺檢測到,它不適用於 MLKit。

在現實世界的應用中,並非總是可以在 MLKit 所需的完美 alignment 中拍攝照片。

在此處輸入圖像描述

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM