[英]How to port scipy.signal.fftconvolve into swift using accelerate framework?
我工作在iOS的音程识别问题,为了分析的目的我是使用python它给了我相应的结果....但是,当我试图重新使用的iOS同样的事情accelerate framework
这是给不正确或奇怪的结果。 有人可以帮我这个忙吗?
我想使用FFT convolution
执行autocorrelation
,这在python中使用scipy.signal.fftconvolve
发生得很好。 但是当我尝试使用vDSP_conv
进行相同操作vDSP_conv
,会给出错误的结果。
如果对此有经验或知识的人可以指导我或解释fftconvolve的工作原理,那将是非常有用的。 提前致谢。
我需要查看您的代码才能完全回答此问题,但是基于vDSP_conv的Accelerate文档,您确定要正确传递参数吗? 如果IF为正,则vDSP_conv将执行相关;如果IF为负,则将进行卷积。 您还需要注意正确指向要对其执行卷积的向量。 当我将经过翻译的Python代码带入Swift / ObjC并使用Accelerate框架时,我需要在简单的小向量上尝试Accelerate函数,以确保我了解这些函数的工作方式。
https://developer.apple.com/documentation/accelerate/1450516-vdsp_conv?language=objc
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.