网站只收录了首页相信很多站长遇到过这样的问题,笔者也不赖,同样遇到这样的问题。出现只收录了首页的原因是啥呢?其实最主要的是网站本身的问题,如ROBOT文件设置不当、外链质量不高等许多自己还不清楚的原因。那么怎么解决这样的问题呢?其实很简单,笔者经历了一个星期的找原因,终于解决了这个大难题,今天笔者分享一下解决的心得:
先上效果图
一、检查ROBOTS文件设置
对于ROBOTS文件的设置不当造成网站只收录了首页确实给笔者造成很大的困绕,毕竟笔者也试过删掉ROBOTS文件看看是不是ROBOTS文件的关系。但最终发现也是一样的效果,最近几天狠狠的检查了网站源码,居然被笔者发现,原来是程序中有自带的ROBOTS文件而不知道,特别一点是自带的ROBOTS文件中把动态的网址给屏蔽了,而笔者的网站是使用动态带?号的网址,这样自然更新再多的原创内容也无法被收录了。找到原因后笔者马上把他删掉,过了两天收录终于出来了。所以说,一个ROBOTS文件的设置不当,让网站长期只收录首页可是害人不苦啊,笔者建议只收录首页的站长好好检查一下ROBOT文件的设置,还要看看自己的程序是否自带了ROBOTS文件,以免让ROBOTS阻挡了高收录之路。
二、持续增加稳定外链
为什么笔者在小标题中特别提示是稳定的外链呢?其中的答案大家都知道的,外链不稳定最直接的影响就是使网站排名权重跟着不稳定,而且对于网站收录也是有一定的影响,如图,笔者的网站之前的外链起伏:
所以,外链不稳定,造成网站的收录量难提上去,而且笔者也遇到过内页达到秒收,但是到了晚上收录又不见了,而笔者把最终的祸首归功于外链不稳定上面,通过这些天增加的稳定外链,笔者的网站终于看到了春天了,所以说,稳定的外链不但影响到排名权重,同样影响着网站收录量的高低。
三、提高网站内容的质量
内容绝对是影响网站收录的重要因素,这点是所有站长都认可的。所以,当网站只收录了首页,而确定ROBOTS文件设置规范后,则应该从内容质量方面入手,虽然外链也能影响到收录,但是内容是最重要的。就像很多的采集网站前期被收录大量的页面,但是慢慢的收录就会减少了。出现这样的原因是因为内容没有质量而导致重复度过高,所以删你没得商量。所以,笔者建议只收录首页的网站更应该提高内容的质量,让搜索引挚对网站产生好感,通过质量的内容来吸引蜘蛛爬行内容页进而达到内容页被收录,况且高质量的网站内容同样可以快速提高网站排名权重,并且还可以稳定长久。所以说,不管是为了收录内页还是为了提高排名,抓紧内容的质量关是不二的选择。
四、增加相关性强的友情链接
对于只收录了首页的网站的网站来说,其实很难寻找到质量的友情链接的。既然咱们无法寻找高质量的友情链接,何不退而求次呢?只要相关性强的友情链接同样给予网站莫大的帮助的,特别是只收录了首页的网站而言,咱们可以通过跟对方交换友情链接,让对方链接自己的内页,而自己则利用首页链接对方的网站,这样就可以用友情链接带动网站内页收录速度了。不过这里要注意一点是对方的网站快照不要太旧,一般三天内比较合适,毕竟快照更新说明蜘蛛有爬行网站,而这对于让搜索引挚爬行自己的内页才会有所帮助,当然相关性的网站具有的作用,笔者就不罗嗦了,只要相关性越强,而且数量越大,对于让网站内页同样也被收录具有无法言语的意义。