[英]Tokenizing data error, while training a dataset with deepspeech
在遵循此教程( https://medium.com/@klintcho/creating-an-open-speech-recognition-dataset-for-almost-any-language-c532fb2bc0cf )教程的同时,我创建了语音数据集以进行DeepSpeech训练。
但是,我无法使用深语音训练我的数据集。
它由于火车命令而产生错误,例如
python DeepSpeech.py --train_files /mnt/c/wsl/teneke_out_bolum1/
它抛出一个错误:
pandas.errors.ParserError:标记数据时出错。 C错误:在源上调用read(nbytes)失败。 尝试使用engine ='python'。
我已经在aeneas强制对齐并使用finetuneas进行微调之后创建了数据集:
这是我在Google Colab上用于DeepSpeech训练的代码:
https://gist.github.com/mustafaxfe/d20be114ca7cea5c47ea5cc85653c761
我在Google上找到了一些解决方案,例如
data = pd.read_csv('file1.csv', error_bad_lines=False)
另外作为错误输出,我可以通过设置解决
发动机=“蟒”
但是,我不知道应该在哪里更改。
因此,我应该在哪里编辑以解决此问题。
谢谢。
您的命令需要重新访问:
您的运行命令应如下所示。 检查文档并修改您的需求。
python3 -u DeepSpeech.py \
--train_files /data/phonetic_speech_dta/train/train.csv \
--dev_files /data/phonetic_speech_dta/dev/dev.csv \
--test_files /data/phonetic_speech_dta/test/test.csv \
--train_batch_size 64 \
--dev_batch_size 32 \
--test_batch_size 64 \
--n_hidden 800\
--validation_step 1\
--display_step 1 \
--epoch 100 \
--log_level 1 \
--dropout_rate 0.2 \
--learning_rate 0.001 \
--drop_count_weight 3.5 \
--export_dir /speech2text/norwegian_model/results/model_export/ \
--checkpoint_dir /speech2text/norwegian_model/results/checkpoint/ \
--decoder_library_path /home/nvidia/tensorflow/bazel-bin/native_client/libctc_decoder_with_kenlm.so \
--alphabet_config_path /speech2text/norwegian_model/alphabet.txt \
--lm_binary_path /speech2text/norwegian_model/lm.binary \
--lm_trie_path /speech2text/norwegian_model/trie
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.