分享学习
运营技术与教程

网站页面不收录的原因以及如何解决

新网站上线后一般站长都会把网站提交给搜索引擎,但是经过一段时间后发现网站的收录率并不高,这是什么原因呢?下面我们一并来分析和找出解决的方法。

一、 robots meta标签禁止

网站在诊断的过程中,发现网站的实际收录率很低,网站有的栏目页可以被收录完整,但是有的栏目页更新原创的文章,也不会被收录,之后在检查网站代码时才发现,页面上使用了 noindex标签告诉spider不允许索引这个页面,显然有这段代码的栏目页不会被收录,更新的内容即使质量再高也不会被抓取。同时,nofollow标签告诉spider此页面上的链接不传递权重,如果网站上的页面链接都带有nofollow,那这就是明显的告诉搜索引擎此页面没有任何价值。如果你的站遇到不能被充分收录,检查下meta标签,是否存在错误的标签。

二、被robots.txt文件屏蔽

在分析网站日志时发现spider每天都会在网站抓取,但是网站依然是收录不充分,这时我们很有必要检测网站的robots文件,站长们都知道spider来网站抓取时,首先会检索网站是否存在robots文件,查看网站是否已经存在不需要抓取的页面,看文件中是否阻止了网站中某部分内容,很多站长因为不会正确的写robots文件,导致网站不能被充分的收录。

三、被spider当做是作弊的内容

网站中大量的使用黑帽SEO,作弊的手法优化页面,这样的页面spider是不会给予收录的。网站上长期使用隐藏文字在页面上进行关键词堆积,网站上对spider检索到存在隐藏文字和链接,这时网站很有可能会被spider从索引中删除,不会再次出现在搜索页面中。站长们可能会问什么是作弊的内容,如初的作弊方法使用和背景颜色相同的文字,堆积大量的关键词,这种作弊方法很容易被检测出来,很容易就会导致内容被删除。

四、页面没有被访问过

特别对于一些大型的内容型网站来说,网站上的内容页面特别多,网站之间如果不能很好的建立内链,很多页面可能就会面临着被沉底不收录的现象,这些页面大多数离网站首页深度比较深,spider无法对页面进行爬行,导致不能被spider收录。或者是链接到此页面的链接都是加了nofollow标签,不传递任何权重的链接。因为这种原因导致网站不被充分收录比较冤枉,对于网站的建设来说,不要在网站上使用nofollow标签、JS代码、或者spider不能识别的跳转等。对于网站页面深度比较深的情况,站长们可以完善网站的内链建设,不要网站的页面变成独立的页面,建立好导航和内链,或者给想要收录的页面增加外链,提高页面在搜索引擎中的权重值。

五、低质量内容垃圾站点

除去上面说到的4点优化方法上的原因,还有个重要的不可忽视的就是页面本身的问题,搜索引擎识别能力逐渐加强,对于非高质量非原创的内容,spider有一定的识别能力,不管是本身网站的重复内容,还是网站从外部获得的重复内容,spider都能一定程度的对其识别,对于重复的内容页面,spider不会继续放入自己的数据库,甚至会对一些低权重的网站,进行删除索引的操作。要想真正的做到收录,网站权重高,还是要坚持去做高质量的内容,这样才能长久生存。

以上就是网站收录率不高的五种情况及解决办法,提高网站的收录率的根本在于遵循搜索引擎收录规则,尽量发布原创文章。这样搜索率一定会得到提升。

赞(0)
文章名称:《网站页面不收录的原因以及如何解决》
文章链接:https://www.niceyubai.com/99.html
本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。

+QQ:526009505

钰白笔记专业搜索引擎排名优化,专注网站优化、快速排名、单词优化等工作,价格实惠,合作企业上万家,服务于全国各地,专注算法研究,全方位解决企业SEO难题,帮助客户快速提升网站关键词排名,为企业带来更多流量。

联系我们