在我看来,知乎的SEO分为三个阶段:
第一阶段:处于种子萌芽期,知乎团队一门心思地在做提升问答质量、用户量这些事情上,此时知乎是个封闭的社区,邀请才能注册,登录才可访问,spider对这些限制前提很难给到抓取,更不用说流量了。
第二个阶段:时间较长,从网页端开放访客可浏览到第三阶段中间的时间,此时知乎用户量和内容量提升数个量级,使得知乎的seo变得可预期,也就是上面回答的赵巍 与zero等人对知乎做seo规范化的处理的阶段。一个底层数据庞大且质量远超平均水平的网站操作起SEO来显然是相对比较容易借力的,况且周源上个项目做的就是和这个相关,当然知道SEO的能量,此时知乎SEO操刀的唯一难点就在于“如何和产品平衡体验与SEO痕迹的撕逼(互相妥协)中”了,我相信知乎团队从SEO角度也获得了做产品功能的不少思路,比如关注的问题、收藏夹等,以庞大的用户中心页面来做问答与人的关联,而用户中心页面往往被用户在互联网上留下了大量spider入口,此为借力。
于是通过与知乎产品同事的沟通,发现现存内容的页面量远远超过被索引量,那么我们规范前端元素为更易于被机器理解的格式,尽可能多的将内容们互相关联起来,这既符合信息架构学、自然用户行为的逻辑,也能够更加方便搜索引擎 robot 的抓取与处理工作。当这部分工作告一段落,索引量提升了100%。