[英]How to read URL in a faster way than file_get_content?
我需要運行大約100個PHP頁面,有點復雜。
我可以使用cronjob來運行它們,但是我更喜歡通過一個PHP頁面。
到目前為止,我對家用網絡服務器所做的工作:(結束時間30-60秒)
<?php
file_get_contents("http://website.com&page1");
file_get_contents("http://website.com&page2");
file_get_contents("http://website.com&page3");
file_get_contents("http://website.com&page4");
file_get_contents("http://website.com&page5");
file_get_contents("http://website.com&page6");
file_get_contents("http://website.com&page7");
file_get_contents("http://website.com&page8");
file_get_contents("http://website.com&page9");
file_get_contents("http://website.com&page10");
Until number 100...
但是我現在嘗試在外部Web服務器上運行,並且代碼至少延遲了5分鍾,這也延長了php.ini中的時間,但沒有幫助。
還有另一種方法嗎?
也許使用shell腳本:
#!/bin/sh
for a in `seq 100`
do
wget -O/dev/null -q "http://website.com?page$a"
done
要么
#!/bin/bash
for ((a=1;a<=100;a++));
do
wget -O/dev/null -q "http://website.com?page$a"
done
你可以做到這一點,它很臟,但可以工作
<?php
set_time_limit(0);
for ($x = 0; $x <= 100; $x++) {
file_get_contents("http://website.com&page".$x);
}
?>
如果需要的話,這將使腳本永久運行,這不是一種很好的處理方式,因為腳本可以永久運行並填滿服務器內存。
對於您的用例,雖然可以使用
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.