[英]Poor recognition due to background noise using OpenEars on iOS
我在应用程序中使用OpenEars执行某些单词和句子的识别。 我遵循了离线语音识别的基本教程,并在Swift中进行了移植。 这是设置步骤
self.openEarsEventsObserver = OEEventsObserver()
self.openEarsEventsObserver.delegate = self
let lmGenerator: OELanguageModelGenerator = OELanguageModelGenerator()
addWords()
let name = "LanguageModelFileStarSaver"
lmGenerator.generateLanguageModelFromArray(words, withFilesNamed: name, forAcousticModelAtPath: OEAcousticModel.pathToModel("AcousticModelEnglish"))
lmPath = lmGenerator.pathToSuccessfullyGeneratedLanguageModelWithRequestedName(name)
dicPath = lmGenerator.pathToSuccessfullyGeneratedDictionaryWithRequestedName(name)
在单个单词和整个句子的安静房间中,识别效果都很好(我想说它的命中率是90%)。 但是,当我在安静的酒吧中尝试使用浅背景噪音时,该应用甚至在识别单词时都遇到了严重困难。 有背景噪音时,有什么方法可以改善语音识别能力?
尝试此设置,对我来说效果很好。
try? OEPocketsphinxController.sharedInstance().setActive(true)
OEPocketsphinxController.sharedInstance().secondsOfSilenceToDetect = 2
OEPocketsphinxController.sharedInstance().setSecondsOfSilence()
OEPocketsphinxController.sharedInstance().vadThreshold = 3.5
OEPocketsphinxController.sharedInstance().removingNoise = true
或者,您可以尝试使用iSphinx库。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.