2020-10-10 04:57:35来源:未知 作者:admin
苏州网站优化排名要做上来的第一步就是网站被收录,可是我们接到手的新站总会遇到网站长时间不收录的情况,这种是因为什么呢?遇到这种情况我们怎么样去解决呢?
今天博敏小编为大家解答一下:
1、robots文件屏蔽。有些人在做网站的时候为了避免让搜索引擎抓取,从而设置了robots.txt文件屏蔽,禁止收录网址。网站上线后忘记了把屏蔽删除导致网站长时间未收录。
2、网站域名是否有问题。(1)在购买域名的时候尽量使用.com、.cn、.net这一类的常用域名,现在新出了很多域名例如.cc、.top、.xyz或者中文域名.公司、.网络等等。(2)通过网站历史快照工具检查一下域名之前是否被注册过,如果以前注册过了,需要看看以前是做什么类型的网站,是否被K过,是否被搜索引擎惩罚。如果之前被K过或者做过危险性的网站,搜索引擎是不会再收录的。
3、标题内容随便改动。网站上线网站完成上线后,标题内容等不要随便改动,一旦修改会造成搜索引擎误判,从而暂时不给收录,并延长新站考核期。网站内容千篇一律,为了绿化网络生态环境,搜索引擎会判断该站点为垃圾站点,从而不给收录。
4、网站内容是否有问题。
(1)采集的内容搜索引擎也会适当给予降权或者不收录处理。大量采集的内容会触犯百度“飓风算法”,并给予索引删除、降权或k站处理,至于收录那就别想了。
(2)空页面没有内容。网页没有正文内容,是一个空的页面,这样也会被搜索引擎认为是垃圾页面不给予收录。
(3)大量违规内容。网站存在大量敏感词,反动言论等信息,搜索引擎是能够识别这些信息的,发现后会被搜索引擎直接列入危险网站,收录就别指望了。
5、网站服务器是否稳定。有的虚拟主机IP被搜索引擎拉黑或者主机禁止了蜘蛛的IP、服务器频繁宕机,空间访问速度慢等。会导致搜索引擎蜘蛛不能抓取,或者来抓取的时候网站打不开或者速度超慢,蜘蛛爬行就会受到阻碍,时间长了,蜘蛛爬行的次数会越来越少。
6、网站URL结构层次过深。网站URL链接过深,会影响搜索引擎蜘蛛抓取,时间久了,蜘蛛来的次数就会减少,最后导致网站不收录。一般建议扁平化结构,URL在三层以内方便蜘蛛爬行。
7、网站是否过度优化。网站刻意优化,会被搜索引擎认为是作弊。比如说,关键词堆砌、隐藏文字、文章中锚文本过多、锚文本都指向同一个关键词、友情链接过多等。一旦被搜索引擎识别为作弊,里K站就不远了,自然网站也就不收录了。
8、网站是否包含灰色内容。网站中包含一些法律不允许的、明令禁止的词语或者短语,页面出现敏感词等。黄、赌、博这都是搜索引擎所排斥的,当然网站也就不会被收录了。
9、网站友情链接不佳。交换友情链接一定要慎重,交换前要查看对方网站基本情况,质量好的或者权重差不多可以交换,不要与不健康的、垃圾网站、被降权的网站交换,友链质量也是影响网站不收录的因素之一。
10、网站存在安全隐患。网站被挂了黑链,植入了恶意代码,严重影响了安全,搜索引擎会做出判断,导致网站不收录或者收录减少。
网站不收录如何解决
1、把robots文件删除,让蜘蛛正常抓取网站。正确设置robots协议文件,如果设置错误修改即可,并到百度站长平台检查。
2、网站上线之初,检查域名是否是常用域名。是否有过做站历史,如果做过是否有被搜索引擎惩罚。
3、网站空间尽量选择正规的、大品牌、稳定的、速度快的、功能齐全的空间商。
4、网站使用扁平化结构,URL路径建议为3层,超过3层不利于蜘蛛抓取,不利于网站收录。
5、网站文章内容尽量保持高质量,伪原创内容尽量修改80%以上内容,减低相似度。
6、有计划、有步骤的到高权重平台发布高质量外链,注意相关度,多样化。可参考《如何给网站增加高质量外链》。
7、网站上线后切忌频繁改版,需要改版,请到百度站长平台添加改版规则,申请闭站保护,使网站尽快恢复,实现收录。
8、网站优化避免过度优化,不要使用作弊手法。
9、定期检查网站代码,发现黑链、挂马及时清除。定期备份,以防万一,做好网站安全工作。
网站上线超过一个月还没有收录,一定要按上述的问题一个一个检查网站是否存在。如果您的网站一直不收录,也可以联系我们帮您免费诊断。
上一篇:新站如何做好关键词排名优化