做优化需要避免的几个页面

    文章来源:中国互联 更新时间:2013-3-28 12:27:05
分享:

一、避免收录对搜索引擎不友好的页面

在做seo时,难免会在网站优化和用户的良好体验上遇到两难的局面,搜索引擎和用户之间对于页面质量高低的判断还是存在一定的差异。也许我们有一个页面对于用户是友好的,但是对于搜索引擎来说并不友好,那么我们就要适当的屏蔽这些对搜索引擎不友好的页面,这样搜索引擎也就无法收录这些页面。下面举个例子来看看吧,每天我们都会去逛很多论坛,大家应该有发现现在很多论坛都开始有广告区,这个版块的主要目的也就是方便用户发布广告,以及获得一些广告信息。但是大家都很清楚这个版块中会出现很多低质量的内容,很多内容都是复制来的,委屈很多都是重复的内容,要不就是在内容里加入了很多外链等等。这些页面对于很多进这一板块的用户来说并不反感,但是搜索引擎是非常反感这些质量低的页面,甚至在这些页面中的链接还是一些被惩罚网站的链接,如果这些页面被搜索引擎收录了,那么对于站点的seo是一个非常大的打击。因此我们为了权衡用户体验和seo的情况下,可以保留这些页面,但是要对搜索引擎屏蔽到这些不友好且低质量的页面。

二、避免有死链接的页面被收录

一个正常运营的网站,出现死链接是不可避免的。我们在删除一个栏目或者某一篇文章的时候,不管这个页面有没有被收录,我们都需要做屏蔽处理。可能很多人会疑惑,为什么没有收录的页面也要屏蔽掉,其实原因很简单,搜索引擎的收录并不是及时的,而且还是要经过一个阶段才会放出来的。我们不可忽视这些虽然没有放出来的但是已经被收录的页面,在遇到这样的情况的时候,我们可以采取robots文件进行屏蔽或者借助404错误页面处理。

三、避免重复的页面被收录

在百度的优化指南其中有一条信息是关于重复页面的信息,重复页面就是指站点上有两个不同的URL地址指向一个相同的页面,对于这样的页面搜索引擎只会收录其中一个。但是对于搜索引擎来说,在起初的时候并不会区分到底要收录哪一个页面,它就会将所有的重复页面全部都收录,这样我们的收录就会有所增长。但是这些重复的页面最终还是会被搜索引擎剔除,从而就会导致我们的收录出现很大的波动。一个网站如果出现大量的重复页面,有可能会被搜索引擎认为在使用作弊手段,这样网站就会遭受一些不必要的损失。那么要想避免重复的页面被收录,我们可以使用重定向将这些页面重定向到标准的我们想让搜索引擎收录的页面,或者通过robots屏蔽掉这些链接。

四、避免不必要后台页面被收录

站点的后台页面和用户的个人中心页面都是一些质量低的页面,而且如果这些页面被收录的话,也会导致网站的一些敏感信息泄露。对于这种情况我们就要尽量避免这一些后台页面被搜索引擎收录取。那么,要想解决这样的问题也很简单,我们同样可以借由robots文件这些页面进行屏蔽。

文章来源:http://www.163ns.com,转载请注明!

在线咨询
  • 在线时间
  • 8:00-21:00
做优化需要避免的几个页面-中国互联

做优化需要避免的几个页面

    文章来源:中国互联 更新时间:2013-3-28 12:27:05
分享:

一、避免收录对搜索引擎不友好的页面

在做seo时,难免会在网站优化和用户的良好体验上遇到两难的局面,搜索引擎和用户之间对于页面质量高低的判断还是存在一定的差异。也许我们有一个页面对于用户是友好的,但是对于搜索引擎来说并不友好,那么我们就要适当的屏蔽这些对搜索引擎不友好的页面,这样搜索引擎也就无法收录这些页面。下面举个例子来看看吧,每天我们都会去逛很多论坛,大家应该有发现现在很多论坛都开始有广告区,这个版块的主要目的也就是方便用户发布广告,以及获得一些广告信息。但是大家都很清楚这个版块中会出现很多低质量的内容,很多内容都是复制来的,委屈很多都是重复的内容,要不就是在内容里加入了很多外链等等。这些页面对于很多进这一板块的用户来说并不反感,但是搜索引擎是非常反感这些质量低的页面,甚至在这些页面中的链接还是一些被惩罚网站的链接,如果这些页面被搜索引擎收录了,那么对于站点的seo是一个非常大的打击。因此我们为了权衡用户体验和seo的情况下,可以保留这些页面,但是要对搜索引擎屏蔽到这些不友好且低质量的页面。

二、避免有死链接的页面被收录

一个正常运营的网站,出现死链接是不可避免的。我们在删除一个栏目或者某一篇文章的时候,不管这个页面有没有被收录,我们都需要做屏蔽处理。可能很多人会疑惑,为什么没有收录的页面也要屏蔽掉,其实原因很简单,搜索引擎的收录并不是及时的,而且还是要经过一个阶段才会放出来的。我们不可忽视这些虽然没有放出来的但是已经被收录的页面,在遇到这样的情况的时候,我们可以采取robots文件进行屏蔽或者借助404错误页面处理。

三、避免重复的页面被收录

在百度的优化指南其中有一条信息是关于重复页面的信息,重复页面就是指站点上有两个不同的URL地址指向一个相同的页面,对于这样的页面搜索引擎只会收录其中一个。但是对于搜索引擎来说,在起初的时候并不会区分到底要收录哪一个页面,它就会将所有的重复页面全部都收录,这样我们的收录就会有所增长。但是这些重复的页面最终还是会被搜索引擎剔除,从而就会导致我们的收录出现很大的波动。一个网站如果出现大量的重复页面,有可能会被搜索引擎认为在使用作弊手段,这样网站就会遭受一些不必要的损失。那么要想避免重复的页面被收录,我们可以使用重定向将这些页面重定向到标准的我们想让搜索引擎收录的页面,或者通过robots屏蔽掉这些链接。

四、避免不必要后台页面被收录

站点的后台页面和用户的个人中心页面都是一些质量低的页面,而且如果这些页面被收录的话,也会导致网站的一些敏感信息泄露。对于这种情况我们就要尽量避免这一些后台页面被搜索引擎收录取。那么,要想解决这样的问题也很简单,我们同样可以借由robots文件这些页面进行屏蔽。

文章来源:http://www.163ns.com,转载请注明!

在线咨询
  • 在线时间
  • 8:00-21:00