服务器日志用于记录网站访问的进程。在这里,您可以看到哪些用户(搜索引擎)来过。访问过什么样的内容?在访问期间是否出现错误?等等.还可记录一些基础的访问行为。
1、抓取分布
对于大型站点,尤其是具有大量数据的站点,每个页面资源可获取的捕获资源是非常有限。这很可能导致某些版本的SEO出现问题。例如网站上有10个栏目,其中5个是爬虫捕获的板块,另外5个是爬虫很少访问,因此这5个板块的SEO是不好。从数据的角度来看,前5个栏目的seo会很好,后5个栏目seo数据很难看。这种问题,通过日志分析,也很快就能找出来。发现问题后,通过一些技术手段,抓取资源引到后5个栏目,能够达到事半功倍的效果。
2、发现意外的页面
通常,SEO的负责人清楚地认识到自己的网站结构,对哪里有什么样的页面很熟悉。然而,可能由于某些产品的功能、交互、代码的原因、或其它原因而生成意外的页面。此外,这些意料外的页面的量级很可能还不小,从而对网站SEO造成不小的麻烦。这种情况下,只能在日志中发现。
3、发现内容问题
在SEO中有一点是很难把握的,那就是页面内容的质量好坏。这种具体情况与该页面本身、该页面在网站内、页面行业内以及因特网整体具有多大的相对价值有关,因此难以判断。也许我们自己认为某个页面的内容很有价值,但是,把它放在更大范围来看就很一般。
结合日志,通过数据分析发现某一列页面、产品页面,可以说明页面搜索和抓取的比例非常低,搜索跳出率高,其实就可以说明这个页面本身质量不好、相对价值不高。从而可以帮助我们在一些内容优化上面,提供一些直观的数据证明与优化方向。