[英]Most efficient way to deal with Large Amount of HttpRequests
我有一个很简单的问题,我将做很多HTTP请求来获取XML有效负载,并且我需要解析有效负载并对数据库进行一些更改。
我将非常频繁地执行这些请求,因此任何优化都会很好。
我想知道是否有更有效的方法来执行请求,因为这将花费大量时间。 我使用Java编写此代码,我使用SAXParser解析XML负载以获取所需的数据。 我正在对Http请求使用HttpURLConnection类,而我只是运行了一个同步线程并等待每个请求。 我尝试同时运行请求,但遇到了一些问题。 我将要在其上进行操作的计算机功能非常强大,因此与我将要遇到的内存或处理问题不一样。 所以我的问题是:
任何见解均表示赞赏。
对XML有效负载进行散列并将其存储在DB中或解析XML并手动检查数据会更有效吗?
计算XML有效负载的哈希值几乎肯定比解析它要快。 这是检测您是否已有不需要重新解析的有效负载的好方法。
是否有比HttpURLConnection更有效的HttpRequest库?
当然,请使用Apache HttpComponents 。 有许多方法可以对其进行性能调整,如本旧版文档中仍然强调的那样。
可以对请求进行线程优化吗?
与所有与线程相关的事物一样,这将取决于几个因素,包括您的硬件配置(尤其是您的网络硬件)。 从理论上讲,你应该从多线程获得一些好处。 我不会将其作为调优的第一要务。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.