今天看了rand fish写的一篇文章:http://www.seomoz.org/blog/pagination-best-practices-for-seo-user-experience,感觉分析得很有深度,正好最近我也涉及到列表页面分页的SEO操作,顺便记录下文章读后感
Rand的主要观点是:
1.分页会对爬虫的爬行深度造成影响,另外分页不好容易导致重复内容的产生。
2.分页有助于增强用户体验,同时google每个页面上不超过100个链接的建议也是分页的重要原因
3.如果产品太多,导致分页过长的话,可以考虑增加子目录来分散产品分布。
4.分页后的meta tag需要重写,目的是告诉搜索引擎不需要给这些页面(分页的首页除外)带来流量
5。分页时,nofollow canonicals和跳转要谨慎使用,一种情况下需要使用,按照不同的筛选条件对列表进行排序,这时产生的不同的rul可以用canonical定义,或者索性用js实现这个功能,无需url的变更。
6.让用户自主选择列表页每页显示多少条结果,这样做对用户很友好,但也是跟上面一样,尽量维持url的唯一性,以免造成重复的问题。
这些观点都很有道理,但是评论里又有些好玩的东西
1.一个家伙说他用php代码实现搜索引擎看到的列表页显示全部的产品而用户看到的则显示30条产品,而且这样做的确让这些产品全部被搜索引擎收录,同时也没有损害用户体验。后面的一些哥们表示担心这种做法会不会被google是为cloaking,那家伙很淡定地说哥这样做只是为了产品被收录完全,并没有其他用意,称不上cloaking,撑死了算ip delivery。
2,有人提出了一种分页方法我个人很欣赏 << 1, 2, 3, 4, 5 … 10 … 50 … 100 >> 这样第50和100页都能爬行到
3.另一个seo无私贡献了自己的经验:
a 每页链接增加到250也不是什么大问题,这样还能减少分页数
b 至少为前五个分页写不同的标题,后面的页面则在标题中加入页码。
c 在每个分页上都要有到分页首页,分页尾页和,分页中间页码的链接,给蜘蛛准备好充分的入口
另外这篇文章和本文也大有关系http://www.seomoz.org/blog/testing-how-crawl-priority-works
这篇文章用实际数据分析了蜘蛛爬行的记录和页面收录的数量,结论是:
即使增加了分页数,也只是让增加的那一页上的页面收录数提高,并不会促进相邻页码上页面的收录。决定收录数的还是要看入口离蜘蛛访问网页的首个入口的距离,越近则收录得越多。
这张图片解释得更加清楚:
