|
楼主 |
发表于 2012-10-17 10:31:11
|
显示全部楼层
|阅读模式
来自 中国–辽宁–大连
对于一位优秀的网页设计来说:"任何试图在网上获取成功的业务来说都是非常重要的,但是如果一个网站没有机会得到较好的搜索排名,几乎就没有多少人会看到你的网站。”为了避免一个网站对搜索引擎不友好,你只需要考虑一些基本的搜索引擎优化以及优质内容开发实践。
第一点:确保你的网站导航对搜索引擎友好:
如果你不清楚如何让Flash对象可以访问友好,那么用Flash作为网站导航是一项糟糕的选择。搜索引擎很难获取一个使用Flash的网站。
第二点:怎样用新的内容更新页面?
如果你的网站有博客,你可以考虑在网页放一些最新的内容。搜索引擎希望看到网页内容不停地在改变这个站点还是非常好。还可以通过一些不变的内容来提高搜索引擎抓取的频率。
你不需要在展示一些完整的摘要;因为可能会重复一些问题的内容。
第三点:使用搜索引擎爬虫能阅读的内容
内容是一个网站的生命力所在,也是搜索引擎需要的。在设计一个网站时,要仔细考虑过内容的良好结构。
第四点:设计你的URL使其对搜索友好
对搜索友好的URL不是那些难以获取的URL。最好的URL包含帮助描述页面内容的关键字。要注意一些内容管理系统使用自动生成的数字和特殊的符号作为页面的URL。好的内容管理系统会让你可以定制和美化网站URL。
第五点:遵从W3C标准
搜索引擎喜欢组织得很好,整洁的代码。整洁的代码使得网站更容易被索引,也是一个网站建得有多好的标志。
遵从W3C标准基本上就是强迫你写语义化的标签,这对于SEO来说是有利而无一害。
第六点:把脚本放在HTML文件之外
在你为网站写代码时候,要确保你为外部引用的方式使用JavaScript和CSS。
搜索引擎通过所有包含在HTML文件中的内容来查看站点。如果没有用外部引用的方式使用JavaScript和CSS,就在HTML文档中增加一些额外的代码行,在大多数情况下,这些代**在真正的内容的前面从而使得爬虫**速度变慢。搜索引擎能尽快的获取到一个网站的内容。
第七点:限制你不希望搜索引擎索引的页面
可能会有一些你不希望搜索引擎索引到的页面。这些页面可能是对你的内容毫无用处,例如服务器端脚本。这些网页甚至可能是在你正建立新的站点时用来测试你的设计的(虽然不建议这么做,但是我们大多数人仍然会这么做)。
不要将这些页面暴露给web机器人。你可能会给搜索引擎重复的内容,同时会稀释你的主要内容。这些页面可能会对你的网站的搜索位置产生负面影响。
最好的避免这些页面被搜索引擎检索到的方法是使用robots.txt文件,能改善你的网站的五个文件之一。
第八点:怎样使用元数据?
页面标题、描述和关键字应该都不一样。很多情况下,网站设计者会创建一个网站模板,但是忘记修改元数据,最后会导致好几个页面会使用原来的占位符信息。
每个页面都应该有自己的元数据。这就是能够帮助搜索引擎更好的把握网站的结构的方法之一。
第九点:如何使用标题标签?
在你的网页内容中怎样利用标题标签?现在就由我来告诉大家吧!它们向搜索引擎提供HTML文档的结构信息,并且他们通常相比于网页上的其它文本具有更高的权值(除链接外)。
对于页面的主题使用标签。充分利用标签来指明内容来描述相似的内容区域。不如在一个页面使用多个标签,这样关键主题才不会被冲淡。
第十点:不要忽视图片的Alt属性
确保你的所有图片的alt属性都是描述性的。所有的图片的alt属性必须100%符合W3C标准,但是很多都只是通过简单地添加任意的文字来达到这个要求。没有alt属性也比不正确的alt属性好。
搜索引擎会读取alt属性,并且可能会将其纳入页面与搜索关键词相关性的考虑之中。这也可能用于像Google图片这样的基于图片排名的搜索引擎。
|
|