繁体   English   中英

如何在Android Studio中集成tflite模型来识别声音(Java语言)

[英]How to integrate tflite model in Android Studio to recognize sounds (Java language)

我需要在 android 中创建一个项目,该项目从麦克风获取输入并对正在录制的内容进行分类。 为此,我使用 python 语言和 Google Colab 中的 keras 创建并训练了一个卷积神经网络模型。 数据集如下获得:使用 UrbanSound8k 数据集,我读取 .wav 文件(使用 Python 中的 soundfile 库)并将它们存储在 numpy 数组中。 然后我做了一些处理并将每个 numpy 数组(对应于每个声音文件)转换为 2D 特征矩阵(10x40)(也是 numpy 格式)。

我使用这些“图像特征”训练了一个卷积神经网络。 训练后,我将训练好的模型保存在 .h5 文件中,然后将其转换为 .tflite 模型

现在我必须将此 .tflite 模型集成到我的 android 应用程序中,但我不确定如何实现这一点。

我需要以 .wav 文件(来自手机的麦克风)的形式获取输入,并在数组中获取音频样本,然后将数组处理为 10x40 特征矩阵(以便它与 .tflite 模型的输入匹配)。 我怎样才能在java代码中做到这一点?

如果有帮助,请查看此链接,最后一部分介绍了如何构建在应用程序中运行模型的应用程序。 https://medium.com/@vvalouch/from-keras-to-android-with-tensorflow-lite-7581368aa23e

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM