今天,我们一起学习《网站结构优化》。
首先,当我们拿到一个网站时,肯定会考虑,我们这个网站是否需要进行结构优化呢?如果需要进行结构优化,那优化的标准是什么呢?
一、 良好的网站结构,应该具备以下特点:
1) 用户体验良好
2) 搜索引擎体验良好
3) 网站收录量正常
4) 权重分配合理
5) 锚文字增强关键词的相关性
二、 让搜索引擎的蜘蛛或机器人喜欢上我们的网站结构:
1. 网页中不能大量出现FLASH,因为搜索引擎是无法读取FLASH文件中文字内容和链接的,某一小部分使用FLASH,增强视觉效果是很正常的。
2. 跟踪用户访问使用Cookies,而不要使用会话ID。因为蜘蛛每次访问时看到的都会是一个不同的会话ID和URL,这对搜索引擎的蜘蛛来说,将会是一个天大的陷阱。
3. 尽量不要使用各种跳转,如:301、302、JS、FLASH、META REFRESH等等。
4. 不要使用框架结构
5. 不要使用动态URL,动态URL不利于搜索引擎的爬行,应该尽量避免。如果做不了URL静态化,也是可以的,只是尽量避免即可。
6. 为了提高网站对搜索引擎的友好度建议使网页能够更好的蜘蛛爬行,就尽量不要采用js,当然在seo中,js有一个好处就是站长不希望被收录的页面或者友情链接可以采用js。
7. 深层次的网页,有的网页没有入口,而且距离网站的首页又很远,这种页面就相对较难被蜘蛛爬行到,当然对于那些权重高的网站可能会另当别论了。网站的页面要被收录,首先要需要基本的权重,首页的权重一般是最高的,然后首页的权重是可以传递到内页的,当内部页面的权重上升到可以被收录的门槛,页面就会被收录,按照这种理论,页面之间的权重传递是会递减的,因此,内页和首页的点击距离越近,越容易得到更多的首页权重传递。良好的网站结构可以让网站更多的页面被收录。
8. 强制使用cookies,对于搜索引擎来说是相当于直接禁用了cookies的,而有些网站为了实现某些功能会采取强制cookies,比如说跟踪用户访问路径,记住用户信息,甚至是盗取用户隐私等,如果用户在访问这类站点时没有启用cookies,所显示的页面就会不正常,所以对于蜘蛛来讲同样的网页无法正常访问。
9. robots.txt书写错误和各种各样的作弊手法,比如说隐藏文字,隐藏链接等,采用伪装网页在判断来访者是蜘蛛还是普通浏览器者而显示不同的网页,使用默认错误的404页面等,同样会给蜘蛛带来爬行障碍。
三、 网站的物理结构与逻辑结构
1. 物理结构:指的是网站真实的目录及文件所在位置所决定的结构
2. 物理结构:www.qicaoit.com/65.html天生比:www.qicaoit.com/yxzs/65.html的排名能力要强一些。这两个的区别的,第一个属于文件在网站根目录里,第二个属于文件在网站根目录下的文件夹“yxzs”里面。
3. 逻辑结构也称为链接结构,对搜索引擎来说更重要的是链接结构,而不是物理结构。这个不少人都有一个误解,认为物理结构比较深的页面不容易被搜索引擎收录,比如说:https://www.laov.name/post/admin/admin1/12.html
你这样在三级目录下的一个内容页面,是不是不容易被收录呢?那不一定。如果这个页面在首页上有一个链接,那么它对搜索引擎来说它就是一个仅次于首页的链接结构意义上的二级目录。能不能收录在于你网站的权重以及在你网站上下的位置,离首页有几次点击距离,而不仅仅在于它的目录层次。
四、导航要清晰:使用普通的HTML文字链接导航(不用图片、JS生成的导航、FLASH做导航)、点击距离及扁平化 (应该在链接结构上使网站尽量平化 )、锚文字包含关键词(分类名称使用关键词会比较好)、使用面包屑导航、避免页角堆积等等。
五、 推荐使用子目录,而不是子域名:
1. 子域名(或称为二级域名)通常搜索引擎当做一个基本独立的站点看待如:https://www.qicaoit.com和https://bbs.qicaoit.com是两个互相独立的网站)
2. 目录纯粹是网站的一部分。(www.qicaoit.com/yxzs/是www.qicaoit.com的一部分)(注:www.domain.com是domain.com的一个子域名,只是约定俗成,一般以www.domain.com)为主URL
只比权重的话,子域名比目录的权重和排名能力天生就稍微高一点,但是从SEO角度看,建议尽可能使用目录,而不是子域名。是因为:推广子域名和主域名两个完全不同的网站,工作量大,尤其是外部链接建设,网站PR值、权重都会被这两个独立的网站分散。另外,子域名会使子网站变多、变小;目录会使网站越做越大,网站越大,信任度就越大。所以,从长运来看,用子目录要比子域名要好。但是想要短期内将不同类型的产品的关键词排上去,可以考虑用不同的一级域名,多建几个站,来做排名。
六、robots.txt是搜索引擎访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。如果存在robots.txt文件,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有的页面。建议就算允许抓取所有内容,也建一个空的robots.txt文件。
七、 确保URL的唯一性:
1、例:https://www.qicaoit.com、 https://www.qicaoit.com、 https://qicaoit.com、 https://www.qicaoit.com/index.htmlhttps://qicaoit.com/index.html 这些其实都是同一个URL,但搜索引擎认为这是几个不同的网址、/
2、搜索引擎分不清哪一个是真正的首页,会导致:1》分散页面权重,不利于排名;2》外部链接也可能指向不同URL,分散权重;3》搜索引擎与站长想要的网址不是同一个;4》影响收录;5》复制内容过多,搜索引擎可能认为有作弊嫌疑
八、 网站地图:
1、HTML网站地图(sitemap):用户可以在网站上看到的、列出网站上所有的主要页面链接的网页:对于导航是JS脚本或FLASH的网站,网站地图可以方便搜索引擎;小网站可将所有页面列出来;大网站可列出一、二、三级页数面。
2、、XML网站地图(Sitemap):由XML标签组成,用utf8统码;实际上就是列出网站需要被收录的页面URL
3、最简单的可以是一个纯文本文件,文件只列出页面的URL,一行一个
九、 九、URL静态化,这个方面得由网站程序员,结合网站程序、服务器环境来具体实施,如果实现不了,也没太大关系。动态URL也是可以收录的。