通过前面的四篇教程,Wordpress已经可以很出色的运行了,建设网站肯定需要流量,而自然搜索流量是非常重要的流量来源,所以SEO (Search Engine Optimization) 优化是必须的步骤。
SEO其实就是搜索引擎优化的意思,现在国内主流的搜索引擎是百度、必应、搜狗、360搜索、神马搜索,而谷歌搜索因为已退出了中国大陆且目前国内无法访问,如果不是做外贸的网站可以忽略。
各主流搜索引擎的站长平台
各主流搜索引擎的站长平台注册/登录地址:
建议:以上都注册并添加自己的网站。
安装Yoast SEO插件【推荐】
安装完毕后,Yoast SEO会自带中文语言包,所以根据配置向导设置应该没什么难度。
配置向导结束后,在Wordpress后台中,打开:SEO – 搜索外观 将首页的相关信息补齐,例如: SEO title 与 Meta description 等信息。然后依次配置内容、分类等页面的SEO信息。
除首页外,例如文章、分类等页面的 Meta description 信息可以填入:%%excerpt%% 将自动获取摘要。如下图:
以上设置的信息,也可以在发表文章的时候手动修改。
Sitemap.xml 站点地图
最简单的 Sitemap 形式,就是XML 文件,Wordpress默认是没有提供 Sitemap 的,所以需要自己添加。Yoast SEO 这么牛的SEO插件肯定有这个功能的,并且默认是开启的。通过:域名/sitemap_index.xml即可访问,当然 域名/sitemap.xml是会自动跳转到 sitemap_index.xml 的。例如:https://www.zhanzhangb.com/sitemap_index.xml
Yoast SEO的设置中也可以自定义哪些类型的URL出现在Sitemap中,SEO – 搜索外观 的设置中:“在搜索结果中显示文章?” 选项,如下图:
robots.txt详解
robots.txt也称为robots协议,就是网站可以申明哪些内容是不希望被搜索引擎抓取的。基本上所有常见的搜索引擎都会遵循robots协议,只需要在网站的根目录下创建一个 robots.txt 文件即可,Wordpress网站常见的 robots.txt 文件的内容示例:
User-agent: * Disallow: /wp-admin/ Disallow: /*?p=* Allow: /wp-admin/admin-ajax.php Sitemap: https://www.zhanzhangb.com/sitemap_index.xml
以上内容的意思是网站允许所有搜索引擎抓取,申明禁止抓取/wp-admin目录及目录下所有内容、禁止抓取所有带“?p=”字符串的URL, /wp-admin目录中的admin-ajax.php文件允许抓取。最后一行是指定Sitemap文件的路径。
其实robots.txt的语法特别简单,主要有以下几个:
- User-agent: 用于告诉识别蜘蛛类型。例如:User-agent: Baiduspider就是 指百度搜索蜘蛛,User-agent: Googlebot就是指谷歌的蜘蛛。
- Disallow: 申明禁止抓取的指定目录或文件 。
- Allow: 申明允许抓取的指定目录或文件,默认是允许抓取所有。
- Sitemap: 提供网站地图,方便蜘蛛抓取网站内容。
- 通配符: * 匹配0或多个任意字符。
- 终止符: $ 可以匹配以指定字符结尾的字符。
- User-agent,Allow,Disallow,Sitemap的首字母都是大写的。
- User-agent,Allow,Disallow,Sitemap的冒号后面都是有空格的,没有写空格直接写接下来的内容会出错。
常见的搜索引擎蜘蛛User-agent:
- 所有搜索引擎蜘蛛:User-agent: *
- 百度搜索引擎蜘蛛:User-agent: Baiduspider
- 谷歌搜索引擎蜘蛛:User-agent: Googlebot
- 必应搜索引擎蜘蛛:User-agent: Bingbot
- 搜狗搜索引擎蜘蛛:User-agent: sogou spider
- 360搜索引擎蜘蛛:User-agent: 360Spider
例如要禁止百度搜索引擎抓取全部内容,而允许其它搜索引擎抓取全部内容,写法如下:
User-agent: Baiduspider Disallow: / User-agent: * Disallow:
有关SEO的一些总结
其实SEO并不神秘,也没有部分站长想得那么复杂。“ 网站是给人浏览的,而SEO只是帮助搜索引擎更方便的了解网站及阅读内容,人的体验比搜索引擎的体验更重要 ”,这一句话请所有站长都牢记。以下误区大家要注意避免: