SEO优化要做哪些具体工作?

大部分的SEO技能描述都很模糊:

高质量内容?
外链建设?
针对搜索引擎进行优化?
….

具体执行:

  1. 改善标题和描述来提升点击率
  2. 用内链提升表现不佳的页面
  3. 使用外链从无效页面回收链接权重
  4. 使用“中间人办法”来提升目标页面的权重。
  5. 更新已存在的内容,提升新鲜度
  6. 填补竞品空白内容以提升你页面的流量

SEO有哪些诀窍?什么企业适合做SEO?

SEO是什么

SEO中文意思为搜索引擎优化。
SEO指的是利用搜索引擎的规则提高网站在有关搜索引擎内的自然排名。是为网站提供生态式的自我营销解决方案,让其在行业内占据领先地位,获得品牌收益的一种方式。
SEO并不是简单的几个秘诀或几个建议,而是一项需要足够耐心和细致的脑力劳动。需要做很多工作,例如从选择一个好的域名开始,到关键词分析、网站架构分析、网站目录和页面优化、内容发布、研究搜索引擎和网站流量分析等等工作。
我们可以用SEO做品牌视野占位+ 核心信息排名工作。

什么企业适合做SEO

1、 处在口碑舆论的风口浪尖的企业。用SEO手段可以刷屏引导舆论
2、 行业竞争不激烈的企业
3、 靠互联网生存、以流量为生的企业最适合做SEO

做SEO的要点

1、技术点优化在自主性强的企业中,会有很好的加分作用,因为大部分企业改动不了网站。
2、关键词研究和SEM有类似之处,但要去看不同平台上用户的声音和问题。
3、搜索体验是留住用户的唯一方式,有流量没留量都是浪费钱。
4、竞品搜索表现力分析能时刻让企业对行业基准有一个清楚的认知。
5、内容缺口研究直接告诉你,网络上你少了什么音声就需要去补足它们。

SEM技巧有哪些?什么企业适合做SEM?

SEM是什么

SEM中文意思为搜索引擎营销。
搜索引擎营销就是根据用户使用搜索引擎的方式利用用户检索信息的机会尽可能将营销信息传递给目标用户。
简单来说,搜索引擎营销就是基于搜索引擎平台的网络营销,利用人们对搜索引擎的依赖和使用习惯,在人们检索信息的时候将信息传递给目标用户。
企业通过搜索引擎付费推广,让用户可以直接与公司客服进行交流了解,最终实现交易。
我们可以用SEM做极速流量获取+精准人群转化

什么企业适合做SEM

1、需要快速大量流量或是转化客户
2、竞争非常高的产品做SEM比较好,因为竞争高的产品优化难度也很高,如果做SEO,不可能做好,只能通过SEM付费广告来获取排名。
3、竞争非常低的产品做SEM比较好,因为这些产品很少有人关注,你做了SEM,你就能排名第一,可以花最少的资金得到最靠前的排名。
4、过渡做SEM好 行业竞争大,关键词指数高,短期之内SEO优化不上去的,在这一段空白期内可以用SEM竞价。

做SEM的要点

1、竞价看预算,没预算别想着大词,而是要做小做精。预算大点,做精账户降低整体CPC。
2、账户管理请专人每天看数据,不要走马观花。
3、人群一定要分析到位,最好是不要做全而是要做精。舍弃高预算低转化的词是关键。
4、广告创意说人话,带给人利益是最有效的,别用SEM创意来做情怀,没意义。
5、关键词研究不能局限在百度工具里,而是要多做真用户的调研和采访。

如何做301重定向

为何要做301重定向

在网站建设中需要网页重定向的情况很多:如网页目录结构变动,网页重命名、网页的扩展名改变、网站域名改变等。如果不做重定向,用户的收藏和搜索引擎数据库中的旧地址只能让访客得到一个404错误信息页面,访问流量白白丧失。不仅如此,之前该页面的一切积累(比如PR值)就都白费了。

现在还是有一些SEO或者网站建设人员在接手一个老网站的时候,喜欢或习惯性的部署新版本网站,对于有些在所难免的url变化,却并不在意。这是一个很重要的SEO问题!通过url rewrite实现的方法也不复杂,何乐不为呢!

301重定向不仅能使页面实现自动跳转,对于搜索引擎来说,也可能可以传递PR值。

另外,带www和不带www的同一个域名会被搜索引擎默认为2个页面,不利于累计域名权重,另外301到其中一个,对用户体验也是比较好的!

本文以seofaqs.net重定向到www.seofaqs.net为例!

###Nginx/Apache rewrite域名301重定向的方法

Nginx方法

修改Nginx配置文件,增加rewrite规则

Nginx官方建议的办法是为不带www的URL单独设一条server规则

server {
    listen       80;
    server_name  seofaqs.net;
    return       301 http://www.seofaqs.net$request_uri;
}

server {
    listen       80;
    server_name  www.seofaqs.net;
    ...
} 

另外一种可行但nginx不推荐的办法!

server {
    listen       80;
    server_name  www.seofaqs.net  seofaqs.net;
    if ($http_host = seofaqs.net) {
        rewrite  (.*)  http://www.seofaqs.net$1;
    }
    ...
} 

Apache方法

在根目录的.htaccess文件中增加如下rewrite规则

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www.seofaqs.net$ [NC]
RewriteRule ^(.*)$ http://www.seofaqs.net/$1 [L,R=301] 

最后,重启一下Nginx或Apache使配置生效即可!

什么是robots.txt

robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元数据)。

robots.txt协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。
robots.txt 语法

最简单的robots.txt文件会用到两个关键字:User-agent和Disallow。User-agent(用户代理)是指搜索引擎漫游器(即网页抓取工具软件);Web Robots Database 中列出了大多数用户代理。Disallow 是针对用户代理的命令,指示它不要访问某个特定网址。反之,如果要允许 Google 访问某个特定网址,而该网址是已禁止访问的父级目录中的子目录,则可以使用第三个关键字 Allow。
示例

针对所有搜索引擎,不能抓取网站任何页面!

User-agent:  *
Disallow:  / 

针对百度,允许抓取包含/article的url,不允许抓取包含/product/的url。

User-agent:  Baiduspider
Allow:  /article
Disallow:  /product/