Home > 感悟 > 简评file_get_contents与curl 效率及稳定性

简评file_get_contents与curl 效率及稳定性3+

22,312 views / 2010.02.06 / 5:05 下午

做过好多抓取别家网站内容的产品,习惯了使用方便快捷的file_get_contents函数,但是总是会遇到获取失败的问题,尽管按照手册中的例子设置了超时,可多数时候不会奏效:

$config[‘context’] = stream_context_create(array(‘http’ => array(‘method’ => “GET”,
   ‘timeout’ => 5//这个超时时间不稳定,经常不奏效
   )
  ));

这时候,看一下服务器的连接池,会发现一堆类似的错误,让你头疼万分:

file_get_contents(http://***): failed to open stream…

不得已,安装了curl库,写了一个函数替换:

function curl_file_get_contents($durl){
   $ch = curl_init();
   curl_setopt($ch, CURLOPT_URL, $durl);
   curl_setopt($ch, CURLOPT_TIMEOUT, 5);
   curl_setopt($ch, CURLOPT_USERAGENT, _USERAGENT_);
   curl_setopt($ch, CURLOPT_REFERER,_REFERER_);
   curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
   $r = curl_exec($ch);
   curl_close($ch);
   return $r;
 }

如此,除了真正的网络问题外,没再出现任何问题。

这是别人做过的关于curl和file_get_contents的测试:

file_get_contents抓取google.com需用秒数:

2.31319094
2.30374217
2.21512604
3.30553889
2.30124092

curl使用的时间:

0.68719101
0.64675593
0.64326
0.81983113
0.63956594

差距很大吧?呵呵,从我使用的经验来说,这两个工具不只是速度有差异,稳定性也相差很大。建议对网络数据抓取稳定性要求比较高的朋友使用上面的curl_file_get_contents函数,不但稳定速度快,还能假冒浏览器欺骗目标地址哦!

本站内容受著作权法保护。个人 blog 转载时请遵循 “署名-非商业用途-保持一致” 的创作共用协议;商业网站或未授权媒体不得复制本站内容。
Categories: 感悟 Tags: ,

Comments (3) Trackbacks (0) 本篇共有 3 篇评论↓
  1. 2010-08-23 09:00 | #1

    用curl的确快,但也常遇到抓不到的情况,不过大多都跳过去了

  2. 景辰
    2013-06-11 16:33 | #2

    请问下面的这个获取网页数据的函数有什么修改的地方。

    function getbody($url) {
    for ($i=0;$i<3;$i++){
    $data=file_get_contents($url);
    if ($data) break;
    }
    if ($data) return $data;
    $ch=curl_init();
    curl_setopt($ch,CURLOPT_URL,$url);
    curl_setopt($ch,CURLOPT_RETURNTRANSFER, 1);
    curl_setopt($ch,CURLOPT_CONNECTTIMEOUT, 10);
    curl_setopt($ch,CURLOPT_USERAGENT, $_SERVER['HTTP_USER_AGENT']);
    @$data=curl_exec($ch);
    curl_close($ch);
    return $data;
    }

  3. yiqing_95
    2013-07-10 09:40 | #3

    就是说如果做api调用做好用curl了:D

  1. No trackbacks yet.