主页 > 行业动态

网站为什么不被收录?

作者: 小柏 行业动态 发布时间:2019-09-06 17:28 浏览次数:120

  对于网站不收录这个问题我相信困扰过很多站长朋友,都在思考为什么网站没有被搜索引擎收录呢?网站没被搜索引擎收录原因有不少,下面站优云小柏给大家讲解下这其中的因素所在。

 


 

  一、搜索引擎没法抓取,搜索引擎找不到网页入口。

 

  在做优化的时候并不是你对网站进行了文章的更新就会吸引搜索引擎来对你网站收录,要怎么让蜘蛛知道你的更新呢?除了有规律的更新,可以向百度站长平台主动提交URL或者是提交站点地图,也可以让搜索引擎被动收集,这就是通过外链让蜘蛛知道你的网页,还有很多时候蜘蛛来到了你的网站,却找不到你更新的链接,因为网站的链接结构做得太复杂或是内链结构差,以致搜索引擎在抓取时间类不会爬到网站深处的页面,这也造成蜘蛛不知道该页面的存在。所以不管怎么样,首先我们要让页面能被蜘蛛看到,关于这一点可以通过查看网站日志来判断蜘蛛是否来访过。

 

  2.不让搜索引擎抓取。

 

  有很多的网站都直接对robots文件做了屏蔽百度或者是对网页部分页面,却整天在找原因为什么蜘蛛不来抓取我的页面,这能怪百度吗?你都不让别人进门了,百度是怎么收录你的网页?所以有必要时常去检查一下网站robots文件是否正常。

 

  二、是否可以正常的抓取。

 

  当蜘蛛爬行到你网站的页面时,也要有权利对你网站进行抓取,那么就要看看是否可以正常的对你网站进行抓取了,我们都知道蜘蛛抓取这个页面要从域名到DNS服务器再到网站空间,所以其中任何一个环节出现问题,蜘蛛都不能正常的抓取,首先域名需要备案,然后域名解析要正常,如果解析出现问题,域名是不能访问网站ip地址的,这个时候网站打不开,蜘蛛抓取不了页面。

 

  在有就是经常提到的空间服务器了,服务器长期打不开那肯定是抓取不了的,这个大家都知道。并且如果服务器比较卡或者不稳定,就会影响蜘蛛的抓取,蜘蛛不能很好的去抓取页面或由于加载慢只抓取到网页一半,这就很大程度上影响了网站的收录。

 

  三、是否达到收录标准。

 

  很多朋友认为只要网站被蜘蛛抓取过的就代表着网站被收录,其实这一想法是错误的,蜘蛛访问网站抓取页面并不代表就要收录你的网页,页面被抓取后要进行对比筛选,符合要求的才会被收录,为什么有的页面会被收录后又被吐出来?就是因为蜘蛛在不停的过滤,这个我们先不谈。既然是符合要求才会收录,那收录标准到底是什么呢?不同的网站标准不同。百度有一个优先抓取的原则,对于绝大多数用户喜欢,权重高的网站收录得要快,就像新浪网、腾讯网收录得肯定要比一般网站要快,为什么?因为信任,这类网站本身就有其严格的过滤系统,在此类网站公布的内容百度基本是直接抓了就收,搜索引擎是互联网与用户的桥梁,它的目的就是给用户提供有价值的内容,你能为它提供良好的内容,它当然也会对你更好,这是互利的。

 

  上面几点地方就是站优云小柏总结出来的几点,希望能给大家带来些帮助。

 

 

版权声明:本文部分内容来自互联网转载整编而成,不代表本站观点和立场,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请在线联系站长,一经查实,本站将立刻删除。

专题推荐