cost 212 ms
如何用Cordova下載大文件

[英]How to download large files with Cordova

我需要使用我的 Cordova 應用程序下載一個大文件 ( 160GB )。 以前,我使用文件傳輸插件。 由於它已停產,我開始使用 XMLHttpRequest。它適用於較小的文件,但對於大文件會崩潰。 簡化代碼是: 控制台 output 對於大文件只有“5”。 ...

對於 SQL,我如何處理包含許多列的 JOINing 數據庫,這些列都必須是唯一的?

[英]With SQL, how do I deal with JOINing databases with a lot of columns that all need to be unique?

好的,這是我第一次使用大型數據庫,這非常可怕。 這是我想要發生的一個例子: 表 期望的結果(順序無關緊要) 我有點小規模地得到它,我為此使用 LEFT JOIN,並且從我讀到的內容來看,GROUP BY 至少用於屬性(如果不是 ID?)。 我的問題是這些表很大。 有 30 列或更多列和大約 25k ...

如何使用 Python(首選 3.9)有效地讀取和刪除具有自定義換行符的大文件的特定行?

[英]How to efficiently read and delete a specific line of a large file with a custom newline character using Python (3.9 preferred)?

類似於這個問題,但稍微復雜一點我有一個很大的 txt 文件,看起來像這樣: " 每個換行符都是一個“.”,文件以換行符結束,每行恰好14個字符長。 GollyJer 對上述問題的回答很好,但我有一些額外的要求: 我希望能夠輸入特定的行號並返回該行然后我想從文件中刪除讀取的行。 我無法將真正的 ...

在 8 億行中獲取按日期排序的列的唯一性

[英]Get unique of a column ordered by date in 800million rows

輸入:具有相同列(8 億行)的多個 csv [時間戳、用戶 ID、Col1、Col2、Col3] Memory可用:60GB內存和24核CPU 輸入 Output示例問題:我想按用戶 ID 分組,按時間戳排序並采用唯一的 Col1,但刪除重復項,同時保留基於時間戳的順序。 嘗試過的解決方案: 嘗試 ...

使用 Graph Api 將大文件上傳到 ToDoTask 時出現訪問令牌空錯誤

[英]Access token empty error when uploading large files to a ToDoTask using Graph Api

我正在嘗試使用圖表 Api 將大文件附加到 ToDoTask,使用文檔中的示例為 ToDoTask 附加大文件,並推薦使用 class LargeFileUploadTask 上傳大文件。 在將大文件附加到電子郵件並發送之前,我已經成功地完成了這項工作,因此我將其用作以下方法的基礎。 直到創建任務一 ...

如何發送剩余的塊

[英]How to send the remaining chunks

Web API 只返回第一個塊。 您可以看到 API 返回"remainingBLOBLength":315286 。 我如何獲得下一個塊(剩余塊)。 Web API output 看起來像這樣:顯示了示例。 {“字節”:“eyJjbW50IjoiQ29ubmVjdGVkIHRvIFdNUyI ...

mmapped大文件的窗口控制(linux,mmap)

[英]Window control for mmapped large file(linux, mmap)

映射大文件時如何控制RSS中的窗口? 現在讓我解釋一下我的意思。 例如,我們有一個超過 RAM 數倍的大文件,我們為多個進程進行共享內存映射,如果我們訪問某個虛擬地址位於此映射內存中的對象並捕獲頁面錯誤,然后從磁盤讀取,子問題是,如果我們不再使用給定的對象,是否會發生相反的情況? 如果像LRU一樣 ...

刪除文件中的空行

[英]Removing an empty line in a file

我一直在嘗試從文件中刪除行而不加載 memory 中的所有文件,因為它太大 (~1Gb)。 我如何在不在文件中留下空行的情況下做到這一點? 例如: 我要這個 對此: 但我明白了: 所以我設法刪除了該行,但我也想刪除空白行。 到目前為止,我的做法是將文件指針(光標)移動到我想要的位置,然后寫入 ' ' ...

pickle 文件加載到 Databricks

[英]pickle files load into Databricks

我正在嘗試將一些 large.pk 文件 (2Gb) 加載到 Databricks 中以運行實驗。 我將這些文件加載到我的本地驅動器中(無雲)。 當我嘗試將它們直接導入到 Repos 中時,出現文件太大的錯誤消息。 我也嘗試在谷歌雲中加載文件,但我必須是管理員才能在平台之間建立連接如何在 Data ...

如何在系統重啟后繼續解壓步驟? zlib

[英]How to continue the decompressing step over system reboots ? zlib

假設我有一個 100GB 的壓縮文件,在解壓縮 76% 之后,我的設備因其他事件而重新啟動,然后我只想從我上次停止的 76% 標記處繼續解壓縮。 就是這樣。 為了解決這個問題,我可以控制文件的壓縮和歸檔方式。 但是在設備上解壓縮時,沒有命令行,只有 zlib API 可用,或者可能需要任何新的 A ...

使用 pandas 讀取大文件 CSV

[英]Reading Large CSV file using pandas

我必須讀取和分析來自 CAN 的 CSV 格式的日志文件。 它有 161180 行,我只用分號分隔 566 列。 這是我的代碼。 當我在 Jupyter Notebook 中運行代碼時出現以下錯誤,並且遇到以下錯誤消息。 請幫我解決一下這個。 提前致謝! MemoryError:無法為形狀為 ( ...

替換超大數據文件中字符的最快方法

[英]Fastest way to replace characters in a very large data file

我有一個非常大的文件(19M 行)並且需要清理數據。 我使用的是 windows 11 機器。 數據正在加載到 SQL 服務器 19。我目前正在使用 perl 腳本刪除雙引號之間的任何逗號。 我將在下面發布我的腳本。 這需要很長時間才能運行。 我覺得 powershell 會更快,但我似乎無法讓它運 ...

處理大 CSV 個文件

[英]Processing large CSV files

我有兩個大數據集 CSV 文件, 第一個文件 -> shop.csv 有字段 item_number, vendor 第二個文件 -> item.csv 有 fileds item_number, price 每個文件大小為 8GB。 現在我需要找到給定 item_number 的供應商 ...

Excel PowerQuery 與數據庫的實時連接?

[英]Live Connection to Database for Excel PowerQuery?

我目前在一個表中有大約 1000 萬行、約 50 列,我將其打包並共享為 pivot。 但是,這也意味着下載 csv 需要大約 30 分鍾到 1 小時,或者需要更長的時間才能將 Powerquery ODBC 直接連接到 Redshift。 到目前為止,我發現的最佳解決方案是使用 Python - ...

如何在用戶后台懶惰下載大附件?

[英]How can I lazy download large attachment in user background?

我有一些大型附件event 。 起初,我的鏈接代碼是 但是,當我從圖表 api獲取附件信息時,即使我將onclick綁定為懶惰,由於 contentBytes 大,它會非常慢。 40MB 附件在前端需要 3 分鍾以上。 是否有一些方法可以使用戶onclick文件然后它將像其他網站上的每個文件一樣 ...

在 asp.net 核心 6 中上傳大文件時出錯(HTTP 錯誤 413.1 - 請求實體太大)

[英]Error in Upload large file in asp.net core 6 (HTTP Error 413.1 - Request Entity Too Large)

我使用 ASP.NET Core 6 MVC web 應用程序創建了一個項目。 我想上傳一個大文件,但我收到 HTTP 錯誤 413.1 - 請求實體太大。 客戶端代碼為: 服務器代碼是: 當我閱讀微軟文檔時,它說,在web.config文件中添加了以下條目,但我找不到web.config文件。 ...

在 Python 中存儲訂單簿的有效方法

[英]Efficient way to store orderbook in Python

我正在使用 Coinbase WebSocket API 提取有關 BTC-USD 訂單簿的實時數據。 每次有來自交易所的更新時,我都使用以下代碼來存儲出價和要價的快照以及對訂單簿的更改。 這樣,所有更改都保存在 csv 文件中。 此代碼運行大約 1 分鍾,但我想讓它運行一天,然后重建訂單簿。 完成 ...

Spring Boot+H2插入3000萬+數據來自TSV

[英]Spring Boot + H2 insert 30 million plus data from TSV

我正在嘗試使用 spring 引導服務將 3000 萬條記錄插入 H2 數據庫。 我正在使用 MacBook Air M1 - 8GB RAM。 在 3-4 百萬條記錄(2-4 分鍾)之后,我的機器變慢了,處理更多記錄的速度也很慢,一段時間后,由於機器運行緩慢,我正在終止服務。 最初它在最多 3- ...

如何在不加載完整文件的情況下刪除熊貓 dataframe 的一部分?

[英]How to remove part of a panda dataframe without loading the full file?

我有一個非常大的 dataframe 有數百萬行,將整個文件加載到 memory 中通常是不可行的。 最近有一些不良數據進入,我需要將它們從數據庫中刪除。 到目前為止,我所做的是: 基本上它是打開數據庫並保存我想要的部分,覆蓋原始文件。 然而,數據變得如此之大,以至於無法適應 memory。 有沒 ...

如何最好地實現具有大量本地數據的 Android 應用程序?

[英]How best to implement an Android app with large local data?

我看到了一個類似的問題,但它已經有十年歷史了: 我的目標是創建一個應用程序(Android/Kotlin),用戶可以在其中搜索/參考/查找參考“書”中的單個項目。 類似於字典或食譜書的東西。 目的是讓應用程序能夠在用戶可能在任何地方時離線工作。 由於可能有數千個項目/記錄可供參考,因此對於數組來說 ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM