[英]How Do I create a Simple Camera App in Swift Using CoreML that does not take Live Input?
[英]How do I use trained .tfilte model, to create mask on live-camera output?
我已经开始使用 Swift 在 iOS 上学习 ML。 现在我对神经网络有了一些了解。 在这里,我有.tflite
model 训练有素,可以识别指甲,因为效果是这样的:
现在我需要在实时摄像头 output 上创建一个遮罩
func captureOutput(_ output: AVCaptureOutput, didOutput sampleBuffer: CMSampleBuffer, from connection: AVCaptureConnection) {}
叫做。
目前,当我在实时摄像机上戴上面具时,有一个 output 像这样:
解释 output 的 model 可能有什么问题?
在这里你可以看到我用来预览蒙版的 ScannerViewController 和 DeepLabModel。
编辑1:
如果您有任何其他 model,可以替换我的 DeepLabModel,我也会对此感到满意。 这里出了点问题,我不知道是什么。
编辑2:
我还考虑了 DeepLabModel 中使用的 pod 错误的可能性:
pod 'TensorFlowLiteGpuExperimental'
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.