![](/img/trans.png)
[英]Having issue with subprocess library in python during text extraction from image using OCR
[英]OCR text extraction from user interfaces image
我目前正在使用 Pytesseract 從 Amazon、ebay、(電子商務)等圖像中提取文本以觀察某些模式。 我不想使用網絡爬蟲,因為這是關於從此類網站上的文本中識別某些模式。 圖像示例如下所示:
然而,每個網站看起來都不一樣,所以模板匹配也無濟於事。 此外,圖像背景的顏色也不同。
代碼給了我大約 40% 的准確率。 但是如果我將圖像裁剪成更小的尺寸,它會正確地給我所有的文本。
有沒有辦法接收一張圖像,將其裁剪成多個部分,然后提取文本? 圖像的預處理無濟於事。 我嘗試過的是使用:重新縮放、去除噪聲、去歪斜、傾斜、自適應閾值、灰度、otsu 等,但我無法弄清楚該怎么做。
try:
from PIL import Image
except ImportError:
import Image
import pytesseract
# import pickle
def ocr_processing(filename):
"""
This function uses Pillow to open the file and Pytesseract to find string in image.
"""
text = pytesseract.image_to_data(Image.open(
filename), lang='eng', config='--psm 6')
# text = pytesseract.image_to_string(Image.open(
# filename), lang='eng', config ='--psm 11')
return text
如果您有很多文本並且想通過 OCR 檢測它(示例圖像如上),僅作為推薦,“Keras”是一個非常好的選擇。 比 pytesseract 或僅使用 EAST 好得多。 這是評論部分提供的建議。 它能夠正確跟蹤 98.99% 的文本。
這是 Keras-ocr 文檔的鏈接: https : //keras-ocr.readthedocs.io/en/latest/
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.