[英]Request for help Getting Whisper Api (NextJs)- Could not parse multipart form error
我在嘗試向 Whisper 發送音頻 wav 文件時遇到問題。 我的 api 中有此代碼頁面 > api > whisper.ts 我不明白這個問題。 我用谷歌搜索了這個問題,並在 GitHub、Medium 文章、stackoverflow 等上查看了其他示例。但我無法解決這個錯誤。 ...
[英]Request for help Getting Whisper Api (NextJs)- Could not parse multipart form error
我在嘗試向 Whisper 發送音頻 wav 文件時遇到問題。 我的 api 中有此代碼頁面 > api > whisper.ts 我不明白這個問題。 我用谷歌搜索了這個問題,並在 GitHub、Medium 文章、stackoverflow 等上查看了其他示例。但我無法解決這個錯誤。 ...
[英]Calls error on ffmpeg module which doesnt have error attribute
基本上我使用的是 OpenAI whisper。 我使用他們在 github 存儲庫中作為示例提供的代碼。 當我在命令行或正常情況下運行它時,它說模塊 ffmpeg 沒有一個名為 error 的屬性,whisper 出於某種原因正在調用它。 代碼(只是他們在github上提供的示例代碼): 我在 V ...
[英]spaCy sentence separation with dictionary source from OpenAI Whisper / WhisperX?
WhisperX 是一個 whisper 擴展,它在文本到語音方面做得非常出色,每個單詞都有時間戳。 我想使用 spaCy 將文本字符串拆分為合理的子句,但保持與源字典的連接,以便結果可以通知字幕和其他視頻編輯工具。 在 spaCy 中有沒有辦法做到這一點? 我看到的大多數示例都需要輸入文本字符 ...
[英]How to connect to local runtime in Google Colab for this specific notebook WhisperWithVAD
我希望有人可以通過此鏈接幫助我在 Google Colab 上的這個特定筆記本上連接本地運行時: https://colab.research.google.com/github/ANonEntity/WhisperWithVAD/blob/main/WhisperWithVAD.ipynb基本上它 ...
[英]I am getting the following error while using Openai's whisper ai : FileNotFoundError: [WinError 2] The system cannot find the file specified
我一直在嘗試使用 OpenAI 的耳語來轉錄一些文本。 我正在使用 Openai 的音頻來發短信耳語 ai API,這也需要 ffmpeg。在代碼中,我試圖加載和讀取使用 ffmpeg 的音頻並轉錄它。 運行代碼時出現錯誤。 我認為錯誤發生在加載和讀取音頻時。 這是代碼: 運行上面的代碼時出現此錯 ...
[英]OpenAI Whisper Cannot Import Numpy
我正在嘗試運行 OpenAI Whisper 模型,但在嘗試運行我的腳本時遇到以下錯誤: ValueError:無法比較 numpy>=1.17 的版本:need=1.17 found=None。 這是不尋常的。 考慮重新安裝 numpy。 正如錯誤提示的那樣,我嘗試重新安裝 Numpy, ...
[英]Why am I not able to capture the stdout of python subprocesses in QProcess using its signal `readyRead`?
有點復雜的問題: 當我運行這個:QProcess p_Whisper; p_Whisper.setArguments( QStringList() << "--model" << "medium.en" << "--ou ...
[英](Mis)-using open.ai whisper for text-to-text translation
我注意到使用 openai whisper 語音到文本庫轉錄多種語言的語音有時會准確識別另一種語言的插入,並會提供預期的 output,例如:八十多個人 is the same as 八十幾個人. So 多 and 幾 are interchangeable and they can both me ...
[英]How to add custom terms to OpenAI's Whisper STT/ASR?
我有一些領域特定的行話,我希望 Whisper 能夠識別。 有沒有辦法像Azure的自定義語音,或者谷歌的ASR一樣,在系統的語言model中加入新的術語? ...
[英]FileNotFoundError: [WinError 2] The system cannot find the file specified using whisper
我一直在嘗試使用 OpenAI 的耳語來轉錄一些文本。 每當我運行時,我都會收到 FileNotFounderror。 我的代碼如下: 打開文本文件時注釋掉的部分是作為測試完成的,每次運行都沒有問題。 當代碼打印目錄時,我得到以下正確的文件列表,但緊接着錯誤如下: ...
[英]OpenAI Whisper; FileNotFoundError: [WinError 2] The system cannot find the file specified
我想看看 OpenAI whisper,看看能不能為它找到一些個人應用程序。 我繼續撥打 github 並按照說明進行設置。 我的主系統在 Windows 11 上,我收到此錯誤; “ FileNotFoundError: [WinError 2] 嘗試在我的系統上運行測試腳本時,系統找不到指定的 ...
[英]How can I finetune a model from OpenAI's Whisper ASR on my own training data?
我使用 OpenAI 的Whisper python 庫進行語音識別。 我有一些訓練數據:只有文本,或者音頻+相應的轉錄。 如何根據自己的訓練數據微調 OpenAI 的 Whisper ASR 中的 model? ...
[英]How can I give some hint phrases to OpenAI's Whisper ASR?
我使用 OpenAI 的Whisper python 庫進行語音識別。 我怎樣才能給出一些提示短語,就像Google等其他 ASR 一樣? 使用 OpenAI 的Whisper進行轉錄(在 Ubuntu 20.04 x64 LTS 和 Nvidia GeForce RTX 3090 上測試): 如 ...
[英]How can I get word-level timestamps in OpenAI's Whisper ASR?
我使用 OpenAI 的Whisper python 庫進行語音識別。 如何獲得單詞級時間戳? 使用 OpenAI 的Whisper進行轉錄(在 Ubuntu 20.04 x64 LTS 和 Nvidia GeForce RTX 3090 上測試): 如果使用 Nvidia GeForce RTX ...