SEO新站:为什么你在网站发布的文章没有收录?

发布时间:2018-02-20 13:00:00   发布者:小擎    文章来源: 上海天擎

很多SEOer包括小编在内,做网站优化时,经常遇到的一个问题就是:自己辛辛苦苦写的文章为什么没有收录?很多人可能不太明白收录的重要性,当网站发布的文章收录以后,才会网站排名,那么你的文章没有被网站收录到底是什么原因呢?小编就跟大家分享下最常见的4个原因。

1、Robots.txt文件 

Robots.txt文件对于网站优化前期来说是至关重要的,设置的好了可以帮助网站优化排名周期缩短,弄得不好,连网站收录都会成为问题。例如许多网站上线或是改版以后,会显示这么一句话“由于该网站的robots.txt文件存在限制指令,系统无法提供该页面的内容描述”,一般不懂的人会认为搜索引擎抓取除了问题,其实这是因为网站Robots.txt文件屏蔽操作所导致的,在这种情况下,网站不收录是完全正确的~

另外关于robots.txt文件导致网站没收录的原因还有一个,那就是网站上线前期,许多小伙伴认为网站内容还不够完善,还需要作调整,于是就在robots.txt文件里面写下禁止所有搜索引擎蜘蛛来抓取,想着等网站完善好了,再更改规则让搜索引擎蜘蛛来抓取。每个人都是有脾气的,搜索引擎蜘蛛也是一样的,你网址能正常打开,一次来你拒之门外,二次三次也还是拒之门外,然后搜索引擎蜘蛛就启用它的记忆功能了,这家伙给我的第一印象极差,多次上门都不请我进去坐坐,后果可想而知。所以你的网站没有收录也是在正常不过了。

2、网站结构

很多SEOer都会存在一个很严重的问题就是不会搭建网站。其实80%的SEOer都只会套网站模板,然后对网站进行简单的修改就算是完成网站搭建了,尽管很多优秀的SEO网站都是这样过来的,但是失败的例子也有很多。搜索引擎之所以会收录这个网站页面,首先页面框架是要符合抓取规则的,不然网站全是js(脚本语言)和图片,搜索引擎很难识别,就算是

网站框架是符合规则的,但是蜘蛛抓取完以后也会经过一套过滤删除,只有真正符合搜索引擎蜘蛛的页面才会真正的被收录。所以这里,还需要SEOer注意的就是不要经常移动网站框架,蜘蛛比较喜欢专一的网站,这样也会增加蜘蛛对网站的信任度。

3、页面内容

俗话说搜索引擎以“内容为王”,这句话一点也没错,网站内容可以直接影响到网站的优化排名结果。举个例子,一个网站内基础优化做的非常出色无可挑剔,但是他的文章内容都是抄袭的,导致的结果就是网站没有任何页面被收录,原因就是搜索引擎经过它的计算发现,你的文章内容全部都是复制而来,重复内容太多,也没有有价值的东西,我为什么还要收录你的东西?另一个网站基础优化做的一般,但是它的网站内容都是高质量的原创内容而且也能满足用户的需求,所以搜索引擎就将他发布的所有内容都进行收录,最终的结果就是网站上几乎所有的文章都被收录,并且排名也很不错!

一句话就是搜索引擎需要有价值的原创内容~所以,我们就努力写原创内容吧!

4、黑帽技术

之前有个做SEOer的朋友,他在新网站上线前期,收录都很好,当时还沾沾自喜,前几天却突然说网站收录全都没有了,再三追问下,才发现他为了网站收录用了黑帽技术,被惩罚后一直没有恢复。所以小伙伴们在想要提高收录时,千万不要违反搜索引擎制定的规则~只有白帽才是真正的能为大家带来长期效益的最佳途径,且行且珍惜哟~



推荐了解
百度推广
百度推广介绍

百度是国内最大的搜索引擎,也是全球最大的中文搜索引擎,占有国内搜索市场70%的市场份额,是国内搜索引擎的领跑者,SEM广告流量巨大,可以根据用户搜索的内容提供相应的广告,营销效果显著。

QQ咨询
在线咨询
咨询热线
关注微信
TOP