cost 166 ms
C++:用FFmpeg編碼H264,無法設置預設

[英]C++: Encoding H264 with FFmpeg, unable to set preset

我正在嘗試使用 FFmpeg/libAV 對 H.264 電影進行編碼,當我嘗試設置編解碼器預設時,返回代碼指示錯誤: 為了簡潔起見,我在示例中省略了錯誤檢查。 我嘗試將preset為不同的值(“中”、“慢”、“非常慢”等) ...

Opencv 保存攝像頭流的最后 N 秒

[英]Opencv save last N seconds of a camera stream

有沒有辦法用 openCV 將視頻流的最后 N 秒保存到文件中? 例如,攝像機錄制從 0 秒開始到 20 秒結束,導致錄制的文件包含 10 秒 -> 20 秒的視頻。 我能想到的一種方法是將最后 N 秒保存在內存緩沖區中,並在進程完成后將它們寫入文件,但這不是一個理想的解決方案,因為最后涉及的 ...

使用 FFmpeg 編碼視頻時計算 VMAF 分數

[英]Calculate VMAF score while encoding a video with FFmpeg

我有一個用 VMAF 庫構建的ffmpeg版本。 我可以使用它來計算失真視頻相對於參考視頻的 VMAF 分數,使用如下命令: 現在,我記得有一種方法可以在執行常規 ffmpeg 編碼時獲得 VMAF 分數。 我怎么能同時做到這一點? 我想對這樣的視頻進行編碼,同時還要計算 output 文件的 VM ...

有誰知道更好的低質量視頻的過濾器?

[英]Does anyone know any filters for better low quality video?

所以也許我的問題可以結束了,但無論如何我正在研究並尋找一種可以對視頻文件執行以下操作的工具: 這是我想要的一個例子: 當您將低質量的視頻放在電視上並看着反射該圖像的鏡子時,它似乎更清晰,充當改善視頻的過濾器。 我不知道是否有人想到了這個事實,或者是否有軟件可以做類似的事情。 我知道低質量的視頻再好 ...

FFMPEG android 減少視頻渲染時間

[英]FFMPEG android reduce the video rendering time

我在 FFMPEG 中使用此命令將圖像渲染到 android 中的視頻。 並使用這個 > https://github.com/tanersener/ffmpeg-kit庫。 但問題是我使用trac.ffmpeg.org中提到的預設“超快”或“非常慢”,它沒有顯示任何差異(兩種情況下的渲染速 ...

為什么 H.265 視頻的 H.264 編碼會增加文件大小?

[英]Why does a H.264 encode of a H.265 video increase the file size?

所以最近我不得不使用 ffmpeg 制作從 H.265 到 H.264 的視頻,以使其更符合網絡要求。 文件大小從 4.32 MB 變為 10.32 MB。 在我的腦海中,我們有一個用 H.265 完成的視頻。 H.264 當然更差,而且已經有 H.265 運行,所以它幾乎無法做點什么。 這是 ...

使用 Intel Quick Sync 和 Opencv 的實時視頻編碼速度很慢

[英]Live Video Encoding Using Intel Quick Sync and Opencv Is Slow

我想開發一種軟​​件,從 4K 相機中獲取幀並同時對其進行編碼。 現在我可以獲取幀並將其壓縮為 .h264 文件。 但是,問題是,我想從我的視頻中獲得 10 FPS。(我的意思是視頻最終變成 10 FPS,但是在編碼過程中,它並沒有得到所有的幀。(我在 3-5 FPS 之間) .當我挖掘代碼時,我意 ...

如何使用 vp9 立即獲取編碼數據包

[英]How to get encode packet immediately with vp9

當我構建libvpx示例項目“simple_encoder”時,我發現一個現象,demo需要調用vpx_codec_encode函數23次才能獲取第一幀數據。這在我的需求中是不可接受的,我該如何解決這個問題? 我目前的項目核心功能是屏幕共享,我嘗試使用 vp9 作為視頻編碼器。 ...

FLV 規范中的“生成的關鍵幀”是什么?

[英]What is the "generated keyframe" in the FLV spec?

我正在開發一個程序來獲取 AVC 流並將其包裝在 FLV 中。 我注意到在 FLV 規范中,它提到其中一種幀類型是“生成的關鍵幀(僅供服務器使用)”。 我無法找到有關它的更多信息。 它僅供服務器使用,但它是用來做什么的? 什么是我在 FLV 容器中看到它的真實示例? ...

使用 NVENCODE 時損壞 output API

[英]Getting corrupted output when using NVENCODE API

我正在嘗試使用作為視頻編解碼器 SDK 11.1.5 的一部分提供的 NVENC API(特別是 AppEncode 應用程序)使用 H.264 編碼對 yuv 視頻(從 IMX490 傳感器保存)進行編碼。 使用 CMake 構建所需的庫后,我給出以下命令: ./AppEncCuda -i ~ ...

React 原生視頻直接私下下載

[英]React native video make private downloads directly

嘿,我正在使用上面的代碼,但問題是我想提供一個下載按鈕,以便用戶可以下載視頻。 這在這些庫的幫助下運行良好。 https://www.npmjs.com/package/react-native-fs https://www.npmjs.com/package/react-native-fet ...

jcodec 2.5.0 中不存在AWTSequenceEncoder?

[英]AWTSequenceEncoder does not exist in jcodec 2.5.0?

我正在嘗試使用JCodec制作Java中的錄屏軟件。 我無法找到AWTSequenceEncoder的位置,或者它是否仍然存在於 JCodec 中。 我正在為 javase 使用 JCodec 2.5.0。 Java 8. 有誰知道這個 class ( AWTSequenceEncoder ) ...

在 HEVC 與 H264 中捕獲的視頻的文件大小

[英]File size of videos captured in HEVC vs H264

我正在使用我開發的一個簡單的 Android 應用程序對HEVC中錄制的視頻的文件大小與H264中錄制的視頻的文件大小進行一些實驗。 我的印象是,與在 H264 中錄制的視頻相比,在 HEVC 中錄制的視頻通常應該具有幾乎一半的大小(或至少小得多),因為它們具有相同的持續時間和幾乎相同的內容(我用手 ...

一起編碼視頻和音頻比分別編碼要慢得多

[英]Encoding Video and Audio together is much slower than encoding each separately

使用 Media Foundation 分別編碼音頻和視頻,然后使用 ffmpeg 進行多路復用,這比在 Media Foundation 中同時編碼音頻和視頻要快得多。 我很想知道為什么? 我正在編碼 aac 音頻和 h264 視頻; 輸入到編碼器的視頻以可變幀速率(非常低)。 如果視頻輸入處於恆 ...

使用 FFMPEG 和 nvenc hevc 進行數學無損視頻轉換?

[英]Mathematically lossless video conversion with FFMPEG and nvenc hevc?

我采用[0, 255]范圍內的線性漸變輸入,其中每個下一個像素比前一個像素大1 rgb 值。 然后我將它轉換為無損視頻,輸入 - rgba(pc) , output - yuv444p(tv, progressive) : 回到圖像,輸入 - yuv444p(tv, progressive) ...

如何下載 a.m4s 文件的特定部分

[英]How to download a specific part of a .m4s file

我只需要下載 m4s 文件的特定部分(時間戳 a 到時間戳 b)或實際上是 2,因為音頻和視頻軌道位於不同的文件上,我嘗試將時間線線性映射到文件大小,但似乎不是正確的方法,因為兩者似乎不匹配,有時音頻長度甚至與視頻不匹配。 有沒有辦法知道在給定時間戳的情況下從哪里開始剪切文件而無需先下載整個文件? ...

如何顯示較小的視頻文件比較大的視頻文件傳輸速度更快?

[英]How to show that a smaller video file streams fasters than a bigger video file?

我在 Android 中有一個簡單的視頻播放器應用程序,可以播放給定 URL 的兩個視頻。 一個是較小的 mp4 文件,另一個是較大的文件。 基本上,我想表明較小的 mp4 緩沖和播放速度更快,只是因為它的尺寸較小並且需要下載更多的內容。 但是我在展示這個概念時遇到了問題,而且我所做的並不是那樣。 ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM