簡體   English   中英

處理大量HttpRequest的最有效方法

[英]Most efficient way to deal with Large Amount of HttpRequests

我有一個很簡單的問題,我將做很多HTTP請求來獲取XML有效負載,並且我需要解析有效負載並對數據庫進行一些更改。

我將非常頻繁地執行這些請求,因此任何優化都會很好。

我想知道是否有更有效的方法來執行請求,因為這將花費大量時間。 我使用Java編寫此代碼,我使用SAXParser解析XML負載以獲取所需的數據。 我正在對Http請求使用HttpURLConnection類,而我只是運行了一個同步線程並等待每個請求。 我嘗試同時運行請求,但遇到了一些問題。 我將要在其上進行操作的計算機功能非常強大,因此與我將要遇到的內存或處理問題不一樣。 所以我的問題是:

  1. 對XML有效負載進行散列並將其存儲在DB中或解析XML並手動檢查數據會更有效嗎?
  2. 是否有比HttpURLConnection更有效的HttpRequest庫?
  3. 可以對請求進行線程優化嗎?

任何見解均表示贊賞。

對XML有效負載進行散列並將其存儲在DB中或解析XML並手動檢查數據會更有效嗎?

計算XML有效負載的哈希值幾乎肯定比解析它要快。 這是檢測您是否已有不需要重新解析的有效負載的好方法。

是否有比HttpURLConnection更有效的HttpRequest庫?

當然,請使用Apache HttpComponents 有許多方法可以對其進行性能調整,如本舊版文檔中仍然強調的那樣。

可以對請求進行線程優化嗎?

與所有與線程相關的事物一樣,這將取決於幾個因素,包括您的硬件配置(尤其是您的網絡硬件)。 從理論上講,你應該從多線程獲得一些好處。 我不會將其作為調優的第一要務。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM