老域名出售

搜索引擎为什么只收录网址没有标题和描述?

前言:随着互联网迅速发展趋势,如今已经越来越多新手站长开始陆续的进入市场。前提是多数站长都不会制作网站技术,然而在建站过程中,网站经常出现收录网址,没有标题和描述问题。像类似问题,是因为站长还没有掌握建站之前核心要素,首先要明白蜘蛛爬行是怎么来的,怎么才会来到网站上收录。大家的回答应该通过连接来的,这是事实。但是那为什么搜索引擎还只收录一个网址?有三大要素。

网站上线前后没设置标签

网站上线之前,最好在本地检查标题、描述、关键字标签是否正确,特别是使用开源程序的站长要注意。原后在本地都设置好再上传到服务器。笔者就经常遇到惊喜,网站上传好几分钟后,用site命令查询已经被收录,但是用站长工具查询就查询不到,原因是站长工具不是跟索引即时同步。

身边的朋友和顾客之中,高达80%的站长,在网站上线之前没有设置好,那么很有可能在网站上传的时候,蜘蛛就已经过来爬行。这时候已经在搜索引擎数据库里,只是没显示出来,我们再来写标题描述,已经对网站有了一个小度影响。到下次蜘蛛再次过来,发现不一样会停止收录,好一点的会放出网址。此类情况不会长久显示网址,但对新站收录快慢有影响。

服务器或空间访问速度慢

特别新手站长在刚开始建站,可能会带有尝试的心态,不会对网站下太大的功夫,那么会花免费的空间,或许购买一些不太稳定的空间。有一次情况,在做客户网站的时候,域名和空间都是客户自己选购的。当时安装的时候就感觉太慢,可是不太在意,三天左右来电话,问为什么只收录网址。

接到电话后马上检查网站所有程序是否出错或者挂马,没发现任何一个地方有问题,打开网站日志来看,竟然没有蜘蛛爬行记录,这是为什么?无奈之下把网站转移到自己服务器,百度当天删除网址,第四天收录正常,谷歌第二天已经恢复正常。此类情况一天不换空间,就有可能一天不会解决,很少会遇见。

robots协议或后台禁止收录

多数站长在建站时,会先把程序上传到空间,用robots对其网址进行禁止协议,其实这是正确的做法,但有很多情况下,是无法禁止收录的。其中原因是有外部链接指向网站,有任何一条链接指向到网站任何一个页面都会收录,这时禁止收录的只是网站内容,会对网址一直收录,而且百度快照会天天更新。robots协议在百度站长平台,官方已经表明,如果有外链的网站,或者文件不是放在根目录不会禁止收录,谷歌虽然没有表明也会有类似的情况。

如果没有外部链接,用robots禁止收录,进行整站修改是件非常方便事情,是各大小站长常用的方法。但往往网站准备上线,要开放网站的时候,却忘记修正协议,或者定义写错。如果文件写着Disallow:/ 网站肯定不会正常。如果已经开始发外链,那只好收录网址。认为定义都写对了,那么请检查后台隐私部分,是否不允许蜘蛛访问。

相关推荐

怎样让搜索引擎青睐你的网站  (2015-8-24 16:40:54)

如何创建一个利于搜索引擎优化的网站  (2015-4-17 11:43:57)

在用户体验与搜索优化之间找平衡点  (2015-2-28 21:9:46)

SEO不能只局限于外链和收录  (2015-2-10 20:12:43)

从百度超链作弊的算法 看搜索引擎的价值观  (2015-1-28 13:58:47)

什么样的网站是搜索引擎所信赖的  (2015-1-28 13:38:7)

浅析:开放式搜索到底为何物  (2015-1-28 13:30:12)

百度搜索结果后面的喜欢按钮  (2015-1-16 10:14:1)

浅谈移动搜索在未来的三个大的趋势  (2015-1-4 16:42:11)

浅析如何让网站的收录量在短时间内得到迅速的提高  (2015-1-4 16:24:30)

控制面板

网站分类

搜索

最近发表

网站收藏

图标汇集

Tags列表

友情链接

�?!--[if (gte IE 9)|!(IE)]>