上海seo,上海网站优化,上海seo优化,上海关键词优化,上海新站优化,上海整站优化,关键词快速排名。

欢迎来到上海高玩seo网络科技网站

主页 > 新闻动态 > 常见问题 > 搜索引擎是如何只抓取网站页面中特定内容的?
常见问题

搜索引擎是如何只抓取网站页面中特定内容的?

作者:上海高玩SEO网络 发布时间:2021-08-29 18:10点击:

  如果你是做 seo 项目的 seo 从业者,我们经常做的事情之一就是查看网站日志,偶尔我们会遇到这样的情况:

  搜索引擎爬虫,每天只是一个固定的爬行页面,而不是爬行站点内任何其他页面,这让 seo 从业者非常头疼,很难长期持续运行。

  为什么搜索引擎只抓取固定页面?

  

搜索引擎是如何只抓取网站页面中特定内容的?

 

  那么为什么搜索引擎只抓取一个固定页面呢?

  1、页面内容更新

  通常来讲,如果你是一个新站,在网站建设初期的时候,首页通常是一个长期被反复抓取的一个页面,在这个过程中,你几乎每天都会看到蜘蛛只爬行首页,甚至你的索引也只是一条直线。

  通常来讲,如果你是新站刚上线,我们认为这个情况是可以理解,你可能需要在整站持续性的输出内容,并且频繁的在首页展现。

  搜索蜘蛛才可能有较高的概率去爬行相关性内容。

  2、页面可访问性

  这是一个老生常谈的情况,我们认为页面可访问性,应该从两个角度去讨论:

  ①页面的加载速度

  ②页面的robots协议

  如果你的经常被抓取之外的页面打开速率非常高,我们认为相对于快速访问的页面,其他页面很难得到搜索友好性,本身网站如果没有权重的话,很容易被少抓取。

  当然,如果你错误的配置了robots协议,在某种程度上,其他相关页面也是很难得到抓取的,比如:错误的屏蔽了首页之外的页面。

  3、内部链接少

  这是一个相对特殊的情况,有的时候我们总是会在企业站内内部建立一些高质量的页面,类似于专题单页,在某种程度上,我们希望这个页面获得较高的搜索排名。

  而不对站内任何页面进行权重的传递,而采用了nofollow策略,屏蔽了页面中所有的链接。

  基于这个策略,在某种程度上也会导致其他页面抓取不到的情况。

  4、页面质量低

  有的时候,我们在做网站内容更新的时候,为了快速的让网站看着充实,偶尔会采集与组合一些低质量的内容,进行页面填充。

  这就导致搜索引擎在早期爬行目录的时候,基于大量低质量内容评估的策略,而认定某个目录下面的内容,没有搜索价值,从而导致基本不抓取该目录任何内容。

  有的时候,即使你从新调整该目录下的内容质量,可能也无济于事。

  5、网站非备案

  从目前来看,在国内非备案网站,在国内各大搜索引擎中的表现,都不是特别的理想,长期出现搜索引擎只抓取一个页面的情况非常普遍。

  并且这样的网站收录是异常困难的,通常来讲,如果你的内容不是足够优质,外部链接资源不是足够的优质,很难得到有效的信任度。

  那么,长期只抓取一个页面是在正常不过的事情。

  6、页面目录层级

  在SEO诊断的工作中,我们经常会遇到这样的情况,网站看起来没有任何问题,并且企业已经备案,页面加载速度也不错,可在长期运营的过程中,站内页面总是很难被蜘蛛抓取。

  出现这样的情况,我们通常都会去检查站内的一些目录层级,如果你的优质内容页目录层级非常深的话,比如:达到4-5级,对于新网站而言,是很难被搜索引擎发现,这就会导致蜘蛛长期的固定抓取一个页面的情况。

  7、页面提交渠道

  在早期的SEO工作中,我们知道如果你的页面质量不错,并且保持较高的输出频率,通常搜索引擎都会主动的去访问,但随着信息内容增量的快速发展。

  搜索引擎往往在抓取页面的时候,会设定一些级别顺序,比如:优先抓取与审查哪些渠道而来的链接。

  这其中页面提交的渠道就显得格外重要,特别是API的百度网址提交。

  总结:搜索引擎长期只抓取一个固定页面,仍然有诸多细节需要讨论,而上述内容,仅供参考!

 
新闻资讯
相关产品