站优云 > 行业动态 >

如何通过IIS日志分析网站的隐形信息

作者: 零启老师 行业动态 发布时间:2020-03-11 15:51 浏览次数:168

  在该网站的SEO改进步骤中,并不是说所有的站点难题都可以必要从站长机器上得到信息,在忆五看来,常常站长机器上得到的信息都是在站点出现难题后才能察觉。

  作为一名SEOer,我们更需要协会如何查看该网站的隐性信息,例如,这几天做的外链视觉效果怎样?我们的细节那些各个方面更为更容易受到谷歌蜘蛛的喜爱?谷歌蜘蛛对于我们站点的爬行大力度如何? ,这些都是隐藏在站点外部的一些关键性信息。

 

  虽说这些信息通过站长机器难以分析出来什么结果,可这些信息才是可以从我们的站点IIS日志上找到解答,那么,我们该如何通过IIS日志分析该网站的隐形信息呢?

 

  一、为何IIS日志在分析站点隐性信息中如此最重要

 

  1、通过IIS回忆录的纪录我们可以更为确切的分析出谷歌蜘蛛在该网站上的爬行信息,这些信息包含有蜘蛛的爬行本线以及爬行最深处。

 

  通过这一些统计数据信息,我们可以分析近来我们建设工程的外链视觉效果如何?因为我们知道外链就像是引导蜘蛛爬行的蜘蛛,如果外链建设工程的好的话,蜘蛛爬行的自然地频密,而且我们可以纪录下从哪一个 正门 进入蜘蛛的振幅高。

 

  2、该网站的细节改版与蜘蛛爬行存在一定的的关系,一般只要我们改版平稳频密,蜘蛛的就会爬行得更为的勤,回应 广州百度排名,忆五提议你可以借助日志中的蜘蛛来访振幅对该网站细节的改版振幅做一个细调。

 

  3、通过日志我们可以发现内部空间存在的一些系统故障,这些系统故障可能是一些站长机器难以察觉的。

 

  比如曾多 广州百度排名次很火的美橙内部空间因为副科长误操作robots文件导致内部空间封禁了腾讯了蜘蛛暴力事件,假如站长们事前分析一下分析一下内部空间日志,也许可以发现这一正确。

 

  二、如何获得日志文件以及应注意的事宜

 

  1、IIS日志,它是一个文件文件,扩展名为.复杂度,在默认稳定状态下,客户端每天会在这些索引下创建日志文件,并用年份给日志文件名称(例如,exYYMMDD.复杂度)。我们查看他的方式很非常简单,就是将其从客户端中下载留下来,然后放到图形用户界面,用Word文件就可以打开了。

 

  2、要获得该日志文件我们的 广州百度排名内部空间需要有iis日志纪录的基本功能,假如我们的内部空间有这一基本功能的话,一般该日志文件会纪录在weblog或Logfiles文件系统中,有的也叫复杂度文件系统中,我们可以必要从这一文件系统中下载我们站点的日志文件。

 

  3、在使用这一基本功能时我们需要注意日志的生成星期设,忆五的提议是如果站点是一个小型的站点可以让它一天生成一次,假如是较为大的站点我们可以让其每星期改版,以免生成的文件出现过 广州百度排名大的状况。

 

  三、如何分析解读蜘蛛行为

 

  那找到并下载了IIS日志文件,这个时候我们该怎么查看呢?有些好朋友会抱怨不知道怎么去查看,看不懂字符,不知道如何去分析,事实上IIS的日志字符分析很非常简单的,都是一些相同的好像,几周,忆五就为你非常简单的介绍一下:

 

  1、如何查看IIS日志文件?

 

  我们可以Word的方法打开我们站点的日志文件,使用Word的搜索基本功能搜索腾讯和Google的蜘蛛,分别是BaiduSpider和Googlebot(更好的谷歌蜘蛛标志可通过忆五网站的《》相关介绍来查询)。

 

  (1)、查看腾讯蜘蛛的纪录

 

  (2)、查看Google蜘蛛的纪录

 

  我们可以单线对这个IIS日志进行分析:

 

  2012-04-5 00:47:10 是在这一个暴力事件点蜘蛛爬进了我们的站点。

 

  116.255.169.37 这个ip是指我们的站点。

 

  ALL紧跟后来的就是蜘蛛爬行的网页,从这边我们可以了解近来我们的什么网页被爬行过。

 

  200 0 0推选的是网站长时间的稳定状态码,当然还有其他有所不同值的稳定状态码,如500表示客户端违反规定等等。我们可以借由这些稳定状态码来分析站点内部空间近年来的表现状况。

 

  220.187.51.144这一TCP谷歌蜘蛛的ip位址,当然这边就不会出现究竟两种位址。

 

  2、如何识别这一个位址是知道蜘蛛还是伪装的呢?

 

  忆五也为大家分享一个自己的小方式,我们可以打开下令视窗,在视窗中执行nslookup+这一 广州百度排名个乃是蜘蛛的位址。加入是货真价实的蜘蛛,那么就会有自己的客户端,反之则是难以找到信息。

 

  (1)、真蜘蛛

 

  (2)、假蜘蛛

 

  3、为什么IIS日志时会有伪造的蜘蛛呢?

 

  因素就是有其他站点伪造成假蜘蛛来爬行抓取你的站点细节,如果任其这些假蜘蛛横行的话,会对站点的客户端耗损造成一定的负面影响。

 

  回应,我们需要通过一些方式找到并封禁他们,当然我们还需要用心处理,否则把真蜘蛛拒之门外就很差了!

 

  最终,我们可以分析日志文件中蜘蛛最常光顾的几个网页,记下,并且找到为何会受到蜘蛛青睐的内外部因素。

版权声明:本文部分内容来自互联网转载整编而成,不代表本站观点,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请在线联系站长,一经查实,本站将立刻删除。

专题推荐