如何对抗百度的蜘蛛爬行

TIME:2018-08-22 14:05 浏览次数:

  如何对抗百度的蜘蛛爬行
 
  大连网站建设的工作人员和我们介绍说,spider在抓取过程中面对着复杂的网络环境,为了使系统可以抓取到尽可能多的有价值资源并保持系统及实际环境中页面的一致性同时不给网站体验造成压力,会设计多种复杂的抓取策略。以下简单介绍一下抓取过程中涉及到的主要策略类型:
 
  1、抓取友好性
 
  2、常用抓取返回码示意
 
  3、多种url重定向的识别
 
  4、抓取优先级调配
 
  5、重复url的过滤
 
  6、暗网数据的获取
 
  7、抓取反作弊
 
  8、提高抓取效率,高效利用带宽
如何对抗百度的蜘蛛爬行
 
  互联网资源庞大的数量级,这就要求抓取系统尽可能的高效利用带宽,在有限的硬件和带宽资源下尽可能多的抓取到有价值资源。这就造成了另一个问题,耗费被抓网站的带宽造成访问压力,如果程度过大将直接影响被抓网站的正常用户访问行为。因此,在抓取过程中就要进行一定的抓取压力控制,达到既不影响网站的正常用户访问又能尽量多的抓取到有价值资源的目的。
 
  通常情况下,最基本的是基于ip的压力控制。这是因为如果基于域名,可能存在一个域名对多个ip或多个域名对应同一个ip的问题。实际中,往往根据ip及域名的多种条件进行压力调配控制。同时,站长平台也推出了压力反馈工具,站长可以人工调配对自己网站的抓取压力,这时百度spider将优先按照站长的要求进行抓取压力控制。
 
  对同一个站点的抓取速度控制一般分为两类:其一,一段时间内的抓取频率;其二,一段时间内的抓取流量。同一站点不同的时间抓取速度也会不同,例如夜深人静月黑风高时候抓取的可能就会快一些,也视具体站点类型而定,主要思想是错开正常用户访问高峰,不断的调整。对于不同站点,也需要不同的抓取速度。
 
  以上就是大连网站建设为我们做的相关介绍,希望可以帮助到大家,如果还有什么问题可以随时联系我们,大连网站建设的全体工作人员将竭诚为您服务!
>