1、巧用robots强大功能封杀死链接 利用robots.txt根据死链接的数量情况而定。如果不多,仅仅只需要写好不需要disallow得URL地址就完全可以了。如果量比较大,我们就需要根据URL的路径规则进行设置屏蔽。另外对于动态参数也需要多加注意一下,千万别遗漏了动态的路径屏蔽。
2、做好301指向 当我们得URL全面变化时,就要针对以前得URL进行301指向。这一来能做到每个页面的精准匹配,再来做好原有页面的权重继承工作。如果不 弄301就会一夜回到解放前。
3、404错误页面 404错误页面是可以正确提示用户在站内进行重新查找,便于用户不会迷失在网站的死链接里。这样用户体验有所改观,搜索引擎大多也不会为难我们这些小站。当然404页面的提示性也是非常重要的,大家可以多参考一些不错网站,山寨又有何妨呢?
4、我们还可以通过及时反馈给搜索引擎,让搜索引擎自动理解我们的网站。这样一来就方便多了,比如谷歌的站长管理工具,可以提交这个死链接,另外百度投诉同样可以做到。 出现了死链接属于正常现象,但站长们要及时解决掉, 以免后患。如果网站真的不幸被降权了也不要着急,处理好死链接问题后,提高优化质量,恢复也只是时间问题。