簡體   English   中英

如何以比file_get_content更快的方式讀取URL?

[英]How to read URL in a faster way than file_get_content?

我需要運行大約100個PHP頁面,有點復雜。

我可以使用cronjob來運行它們,但是我更喜歡通過一個PHP頁面。

到目前為止,我對家用網絡服務器所做的工作:(結束時間30-60秒)

<?php
file_get_contents("http://website.com&page1");
file_get_contents("http://website.com&page2");
file_get_contents("http://website.com&page3");
file_get_contents("http://website.com&page4");
file_get_contents("http://website.com&page5");
file_get_contents("http://website.com&page6");
file_get_contents("http://website.com&page7");
file_get_contents("http://website.com&page8");
file_get_contents("http://website.com&page9");
file_get_contents("http://website.com&page10");
Until number 100...

但是我現在嘗試在外部Web服務器上運行,並且代碼至少延遲了5分鍾,這也延長了php.ini中的時間,但沒有幫助。

還有另一種方法嗎?

也許使用shell腳本:

#!/bin/sh

for a in `seq 100`
do
   wget -O/dev/null -q "http://website.com?page$a"
done

要么

#!/bin/bash

for ((a=1;a<=100;a++)); 
do
   wget -O/dev/null -q "http://website.com?page$a"
done

你可以做到這一點,它很臟,但可以工作

 <?php
set_time_limit(0);
for ($x = 0; $x <= 100; $x++) {
file_get_contents("http://website.com&page".$x);
}
?> 

如果需要的話,這將使腳本永久運行,這不是一種很好的處理方式,因為腳本可以永久運行並填滿服務器內存。

對於您的用例,雖然可以使用

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM