网站建设如何禁止搜索引擎爬行和索引网站无效URL( 二 )

另外一个解决方法就是利用robots文件 , 在robotx.txt文件中 , 禁止那些不想要搜索引擎抓取的页面 , 当利用这个文件禁止爬行那些无效URL之后 , 页面的权重就会只进不出 , 不会对网站的SEO带来影响 。

还有其他几种方法 , 比如说在网站页面的head部分加上nofollow标签 , 很多的网站过滤的页面数量大 , 如果搜索引擎爬行了这些页面 , 那就没有时间去爬行其他有用的页面了 。 还有一种方法是隐藏页面 , 但是这种方法如果操作不当的话 , 会被搜索引擎认为是作弊 , 所以一般情况下不推荐使用 。

不同的网站有不同的解决方法 , 需要看你网站的侧重点在哪些方向 , 所以一伙人智慧给出的这些建议 , 只供大家参考 , 但不推荐大家使用 。

推荐阅读