習慣了使用方便快捷的file_get_contents函數抓取別家網站內容,但是總是會遇到獲取失敗的問題,盡管按照手冊中的例子設置了超時,可多數時候不好使:
- $config['context'] = stream_context_create(array('http' => array('method' => "GET",'timeout' => 5)));
'timeout' => 5//這個超時時間不穩定,經常不好使。這時候,看一下服務器的連接池,會發現一堆類似下面的錯誤,讓你頭疼萬分:
不得已,安裝了curl庫,寫了一個函數替換:
- function curl_get_contents($url)
- {
- $ch = curl_init();
- curl_setopt($ch, CURLOPT_URL, $url); //設置訪問的url地址
- //curl_setopt($ch,CURLOPT_HEADER,1); //是否顯示頭部信息
- curl_setopt($ch, CURLOPT_TIMEOUT, 5); //設置超時
- curl_setopt($ch, CURLOPT_USERAGENT, _USERAGENT_); //用戶訪問代理 User-Agent
- curl_setopt($ch, CURLOPT_REFERER,_REFERER_); //設置 referer
- curl_setopt($ch,CURLOPT_FOLLOWLOCATION,1); //跟蹤301
- curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1); //返回結果
- $r = curl_exec($ch);
- curl_close($ch);
- return $r;
- }
如此,除了真正的網絡問題外,沒再出現任何問題。
這是別人做過的關於curl和file_get_contents的測試:
file_get_contents抓取google.com需用秒數:
- 2.31319094
- 2.30374217
- 2.21512604
- 3.30553889
- 2.30124092
curl使用的時間:
- 0.68719101
- 0.64675593
- 0.64326
- 0.81983113
- 0.63956594
差距很大吧?呵呵,從我使用的經驗來說,這兩個工具不只是速度有差異,穩定性也相差很大。建議對網絡數據抓取穩定性要求比較高的朋友使用上面的 curl_file_get_contents函數,不但穩定速度快,還能假冒瀏覽器欺騙目標地址哦!
本文地址:http://www.92csz.com/37/1099.html
如非注明則為本站原創文章,歡迎轉載。轉載請注明轉載自:moon's blog
//我使用for循環file_get_contents的時候會比較明顯。。