|
一:使用Robots.txt屏蔽或者使用301重定向
对于这个方法是很多站长长使用的方法之一。但是这个也会遇到一个问题,三:坚持内容的稳定更新 <对于一个刚升级的站点。那就是如果你站点的内容很庞大,就如笔者的站点,改版升级之前收录有26万3000,能不能使用这两个方法呢?因为笔者的站点改版后,内容层次分布有改动,所以没方法用简单的Robot文件屏蔽,只能使用301重定向,但是这么大的收录量,使用这个方法是耗时耗力的方法。
二:直接使用404错误页面
这个方法对于收录量大的站点还是很有用的将站点内部存在死链接直接跳转到404错误页面。然后通过404错误页面将用户引导到改版后的压面。这样可以降低网站流量的流失,使得用户可以找到站点。对于404页面的跳转时间的设置,笔者认为不要太短,好在八秒到十秒左右,而且页面有引诱访客自行点击的链接,如下图所示,让用户自行点击会比直接跳转更好。
三:坚持内容的稳定更新
|