习惯了使用方便快捷的file_get_contents函数抓取别家网站内容,但是总是会遇到获取失败的问题,尽管按照手册中的例子设置了超时,可多数时候不好使:
- $config['context'] = stream_context_create(array('http' => array('method' => "GET",'timeout' => 5)));
'timeout' => 5//这个超时时间不稳定,经常不好使。这时候,看一下服务器的连接池,会发现一堆类似下面的错误,让你头疼万分:
不得已,安装了curl库,写了一个函数替换:
- function curl_get_contents($url)
- {
- $ch = curl_init();
- curl_setopt($ch, CURLOPT_URL, $url); //设置访问的url地址
- //curl_setopt($ch,CURLOPT_HEADER,1); //是否显示头部信息
- curl_setopt($ch, CURLOPT_TIMEOUT, 5); //设置超时
- curl_setopt($ch, CURLOPT_USERAGENT, _USERAGENT_); //用户访问代理 User-Agent
- curl_setopt($ch, CURLOPT_REFERER,_REFERER_); //设置 referer
- curl_setopt($ch,CURLOPT_FOLLOWLOCATION,1); //跟踪301
- curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1); //返回结果
- $r = curl_exec($ch);
- curl_close($ch);
- return $r;
- }
如此,除了真正的网络问题外,没再出现任何问题。
这是别人做过的关于curl和file_get_contents的测试:
file_get_contents抓取google.com需用秒数:
- 2.31319094
- 2.30374217
- 2.21512604
- 3.30553889
- 2.30124092
curl使用的时间:
- 0.68719101
- 0.64675593
- 0.64326
- 0.81983113
- 0.63956594
差距很大吧?呵呵,从我使用的经验来说,这两个工具不只是速度有差异,稳定性也相差很大。建议对网络数据抓取稳定性要求比较高的朋友使用上面的 curl_file_get_contents函数,不但稳定速度快,还能假冒浏览器欺骗目标地址哦!
本文地址:http://www.92csz.com/37/1099.html
如非注明则为本站原创文章,欢迎转载。转载请注明转载自:moon's blog
//我使用for循环file_get_contents的时候会比较明显。。