导读今天上午,我们公司的程序员,突然接到客户的信息,说他的网站被百度收录了,但是快照的页面里,新闻列表页都是空白的,然后就找我帮忙。我先问他们,那些地方的代码用什么写的。他回答说,是用的js啊。我当时听了真

今天上午,我们公司的程序员,突然接到客户的信息,说他的网站被百度收录了,但是快照的页面里,新闻列表页都是空白的,然后就找我帮忙。我先问他们,那些地方的代码用什么写的。他回答说,是用的js啊。我当时听了真是一个晕啊。

在网上看了很多的问题,大多都是讨论怎么样让百度快照快速更新的,很少有人会说到影响百度快照的问题的。今天呢我就给大家谈下,影响百度快照的一些问题。

一。网站程序代码本身存在着重大问题

做网站的程序员对搜索引擎的不了解,这是很正常的。所以我们在做网站的时候,一 定要给网站程序员说清楚,哪些代码会影响搜索引擎的尽量要少用。

flash代码,javascript代码,这两种代码虽然能使网站更漂亮,但是对搜索引擎的收录是极为不利的,实在想用,最好采用调用的方式,如调用javascript的代码:cript src="的js文件所在的位置">cript>

你网站的图片再漂亮,搜索引擎也是不能认识你的图片,它只能通过你的alt属性来对你的图片进行抓取,所以网站里用到的图片要加上alt属性,alt里写的词最好能跟自己 的网站关键词联系上。简单图片文字描述

还有建议写DIV+CSS时最好采用把css文件给单独分离开来,不仅能够用在其他页面的 调用,而且还减小了网页的大小,网站访问速度会更快,一举两得何不为呢?

二。网站前期工作未做好就匆忙上线

做网站没有经验的人经常的会犯的错误。网站做好就上传到服务器上,然后去做一些调试和修改。这样做是很不好的,这样很有可能造成我们的尚未完善好的页面被蜘蛛抓取到,后面的再改动就会给蜘蛛造成一个不好印象。所以呢,我们的网站一定要在本地调 试好了,再上线。

能够巧妙的运用robots.txt文件也是一种不错的方法,robots.txt的作用不仅是引导 蜘蛛的抓取,如果我们把里面的代码改成:

User-agent:*

Disallow:/

第一句“*”表示所有的搜索引擎蜘蛛,第二句“/”表示网站的根目录,就是网站的所有 目录,整体的意思就是禁止所有的搜索引擎蜘蛛访问,蜘蛛都不能访问了,当然就抓取不 了了,当我们的网站,真正的搞好后把“/”给去掉换成其他要屏蔽的目录例如admin管理 页面Disallow:/admin/

robots.txt,还有很多用途这里就不说了,大家有兴趣的可以研究下。

三。网站内容几乎等于没更新

网站的内容更新,这是我们做优化的基本都是知道的。但是呢,还有一点我们网站做 好了由于准备的不充分,没有那么多的文章要更新,于是我们就去偷别人的文章,放到自己站里面,有些人更甚至于直接用采集软件采集来,那样做都是没有一点意义的。我们的 新站没有本来就没什么权重,你的文章又都是偷来的,搜索引擎怎么会去收录你的站呢? 所以我们的网站,尤其是新站还是老老实实的做自己的原创文章吧!

四。网站的外链质量不高

网站外链也是我们很头疼的问题,而且是在外面时也是经常会犯错误的一个地方。多 数人以为外链多就是好,其实那样的观点是绝对不对的。外链多质量不高也是没有什么作 用的甚至还会起到反作用。我们给自己网站做外链的时候,不一定追求多,但外链一定要 保证外链有质量。

五。网站服务器的影响

网站的服务器怎么会影响到百度收录呢?呵呵,不太清楚了吧,那就听我慢慢分析吧。网站的服务器对网站不仅有影响而且还是这些当中最大的一个,甚至有可能给你网站带来致命的打击。试想一下,当蜘蛛来你网站的时候,突然你的服务器出了问题,蜘蛛访 问不了你的网站,就会给蜘蛛不好的印象,偶尔一次问题不是很大,要是经常的话,你网站蜘蛛还会信任吗,这就是为什么我们选网站的时候第一考虑就是空间要稳定。

还有一点也是尤其的重要,在你同一个服务器上存在着那些给搜索引擎给降权的站, 我们通常称作“K站”,我们的站也有可能被搜索引擎的连带反应给拖累了。所以建议最 好使用独立IP的空间,这样别人的网站就不会影响到你了。

本文作者袁荣超,主要从事SEO方面的工作,是一个极具有想法的人,欢迎各位交流!转载请注明出处:武汉网站建设www.5hht.com宏拓江山软件公司,谢谢!