TOP > SEOブログ

SEOブログ | blog

SEOの歴史

■アルゴリズムとは

SEO対策での「アルゴリズム」とは、Googleをはじめとする検索エンジンが、検索結果でWEBページにランキング付けをするための計算に用いられるランキングアルゴリズムを指すことがほとんどです。

このランキングアルゴリズムは、「特定の目的」を「検索されたキーワードに対してWEBページのランキングを付けること」とすると、ランキング付けを適切に、かつ迅速に処理するために検索エンジン側のプログラムの中に組み込まれた非常に複雑な計算手順です。

Googleでは細かなアルゴリズム調整から大規模なアルゴリズムアップデートまで含め、多い時には年間で数100回に渡る変更が行われ、かつその具体的な内容についてはほとんどが公表されないため、多少のデータ検証を行ったところでその分析・解明を正確に行うことは不可能と言っても過言ではありません。Googleのエンジニアは日々この「アルゴリズム」を更新し続けていて、2012年には500回以上の更新があったと公表されています。

更新があるたびに、検索結果に表示されるコンテンツは順位変動を起こすので、日々順位が入れ替わっているということですね。

Googleのアルゴリズムの歴史はウェブスパムとの歴史……とは言いませんが、ウェブスパムをいかに排除して、ユーザーの役に立つ検索結果を提示しようとしているか、苦心した道のりが見えます。

Googleがこの10年以上で築き上げたアルゴリズムは、コンテンツの品質が高ければ高いほど良い評価を下すようになっており、それだけにウェブ上でマーケティングを行うなら、自社で良いコンテンツを発信していくことが求められます。

ちなみに、この「アルゴリズム」が検索順位を決定する要因としている要素は200以上もあると公表されています。そしてその一つ一つの要素に重み付けをしているので、

「アルゴリズム」が変更されたという事は・・・検索順位を決定する要素が「追加・削除・変更」された又は各要素の重みが「変更」された。という事になります。

検索順位を決定するための要素(下記は、ほんの一例(全ての要素は公開されていない))

  • コンテンツの表示スピード
  • サイトの鮮度(日々コンテンツが追加・更新されているか)
  • コンテンツの情報量の多さ
  • 独自性・信頼性のあるコンテンツ
  • 被リンクの数と質

 

アルゴリズムのアップデートについて

1.Big Daddy Update(ビッグダディ・アップデート)  – 2005/12

スパム排除を主な目的としたし、主に低レベルなSEOを排除する目的のようです。

 

2.Dewey Update(デューイ・アップデート)  – 2008/4

日本国内への影響はほぼなし。英語圏の何かしらの変動と言われています。

 

3.Vince Update(ヴィンス・アップデート)  – 2009/2

trust、reputation、authority、PageRankを考慮するようになりました。また、「ブランド」力の強いサイトを上位表示するように変更したとのこと。

 

4.May Day Update(メーデー・アップデート)  – 2010/5

よりクオリティの高いサイトがロングテール検索で上位に現れるようになりました。この頃からロングテールという言葉が流行し始めました。

 

5.Caffeine Update(カフェイン・アップデート)   – 2010/6

クローリングとインデックスの精度の大幅な向上を行いました。

 

6.Scrapers Update(スクレイパー・アップデート)  – 2011/1

スクレイピングコンテンツ(コピーコンテンツ)を規制するアップデートです。

 

7.Panda/Farmer Update(パンダ/ファーマー・アップデート)   – 2011/2

コンテンツの品質についてのアップデート。日本国内への影響はほぼありませんでした。

 

8.Penguin Update (ペンギン・アップデート)   – 2012/5 

低品質な外部リンクを減点評価するアップデート。今までの加点方式のアルゴリズムから、減点方式のアルゴリズムへ。

 

9.Panda Update(パンダ・アップデート)   – 2012/7

パンダ遂に日本上陸。コンテンツの品質を重視するようになりました。重複コンテンツやコンテンツの内容を見るように。

 

※特に大きな変化、アップデートの3つ「パンダ」・「ペンギン」・「ハミングバード」について紹介します。※

 

パンダ・アップデート(2012年4月)

→Googleのサイトに対する品質評価のアルゴリズム。

品質の低いコンテンツを持つサイトのランキングを下げ、良質なコンテンツを持つサイトを適切に評価し、ランキングを上げることで検索ユーザーから見つけやすくすることを目的としています。

内容の薄いサイトや他サイトからのコンテンツを、コピーしてきただけのサイトなど、ユーザーにとって価値の低いサイトが上位に表示されてしまっては検索ユーザーにとっては本当に欲しい情報が検索結果から見つけづらくなり、利便性を損なってしまうため、この問題を解決しようとパンダ・アップデートが導入されました。

結果、独自性の高いコンテンツや専門性の高いコンテンツ・深く調査されたレポート、分析されたユーザーにとって役に立つコンテンツが高く評価されるようになっています。

※目的としたコンテンツやテキスト量を稼ぐだけのコンテンツではなく、他サイトからは得られない検索ユーザーの意図・本当に求められている情報を汲み取ったコンテンツを考えていかなければなりません。

  • 自動生成されたコンテンツ:プログラムによって生成されたコンテンツのこと。多くの場合、読者にとって意味を持たないが、特定の検索キーワードを含むでたらめな内容の段落で構成されているもの。
  • 誘導ページ:特定のキーワードやフレーズ用に作成された品質の低いページの集まり。
  • 無断複製されたコンテンツ:サイト上のページを増やすことが長期的に効果的な戦略になるという考えの下に、そのコンテンツの関連性や独自性に関係なく、評判の良い他のサイトのコンテンツを流用(「無断複製」)しているサイトもあります。
  • 実質のないアフィリエイトサイト:商品アフィリエイトリンクを含むページで、商品の説明とレビューを元の販売者から直接コピーし、独自のコンテンツや付加価値を加えることなくそのまま掲載しているもの。

 

ペンギン・アップデート(2012年7月)

→Googleが定めているガイドラインに反して不正にランキングを上げているサイト、低品質なサイトやスパムなどによって故意的にランキング上昇を図っているサイトを検索結果から排除するためのアルゴリズムのことです。

ガイドライン違反は外部リンクに対するものが多いためペンギン・アップデートは外部リンクに向けたアップデートです。

 

・リンクプログラムに参加すること

大量の中小検索エンジンや質の低いディレクトリサイトやブックマークサイトに登録するなどの自作自演の被リンクはほぼ全てこれに該当する。また、ブロガーに商品やサービスのレビューを一斉に書いてもらうようなアーティクルマーケティングなどの際に、記事内に意図的にリンクを入れるようなものもウェブスパムとして扱われる。

 

・自動生成されたコンテンツからリンクを貼ること

アメブロやFC2ブログなどの無料ブログに記事を自動作成するツールなどを使って、でたらめな記事を何百、何千ページと作り、そこから意図的にリンクを貼ること。それらは、WEB上に全く価値のないページを増やすだけで、検索ユーザーにもGoogleにも全く価値を与えない。

 

・クローキング

検索エンジンのクローラーに一般のユーザーとは違う内容のWEBページを見せること。数年前まで、検索順位を上げるためにクローラーが見るページに、不自然なほど多くのキーワードを詰め込むという手法が流行していた。

 

・不正なリダイレクト

クローキングと似たことを行おうとして、クローラーが読み込むページと異なるページをユーザーに表示すること。例えば、あるページが上位表示されたら、検索ユーザーだけ縦長のランディングページに自動でリダイレクトするように変えるというような使い方がされていた。

 

・隠しテキストや隠しリンク

過剰に多くのリンクを張り、それらのリンクテキストには、白の背景に白のテキストを使ったり、フォントサイズを0にしたりするなどしてクローラーだけが認識できるようにすること。

 

・コンテンツに関係のないキーワードをページに詰め込むこと

電話番号や市町村名が不自然に羅列されているページを見たことはないだろうか?そうしたページは全てこれに該当する。

 

・リッチスニペットマークアップを悪用すること: リッチスニペットとは検索結果に出てくるページタイトルの下のディスクリプションが表示される部分のことだ。そこに、虚偽のレビューや、ユーザーに一切表示されない文言などを設定するなど、検索ユーザーを騙そうとして行う行為がこれに該当する。

 

ハミングバード・アップデート

「早くて的確」ということが由来となって名づけられたアルゴリズムです。

パンダ・ペンギンがアルゴリズムの変更・調整であることに対して、ハミングバードはアルゴリズムのコアとなるエンジンの根本的な置き換えとなります。

これまで使用していたシステムを大規模に変更しました。

このハミングバードで大きく変わったことは

「複雑な検索クエリの背景や意味を理解して検索結果に返す」です。

 

  • 今まで

→1つ1つの単語が含まれている関連性の高いページを表示させていた

→単語を含む全てのページが検索結果に表示される可能性が高い

→検索ユーザーの意図に合致したページが表示できなくなる可能性があった

 

  • 変更後

クエリに含まれている全ての単語を含んでいなくても、検索ユーザーの意図や背景に合致した最も関連性の高いページを検索結果に表示することを目的としています。

 

今日に至るまで様々なアップデートを繰り返して、Google検索の品質を保って来ている様が分かりますね。

 

 

番外編

ブラックハットSEO

「ブラックハットSEO」とはgoogleのアルゴリズムの欠陥を利用してサイトの順位を上げることを目的としたSEOです。大量の外部リンクを自サイトに集めてランクを上げたり、キーワードのみを散りばめたり、他のサイトのコンテンツをコピーしたり、サイト訪問者が実際に見るページとgooglerobotが見るページをすり替えたり、そういったテクニカルな手法でgoogleが対処できていない隙をついてサイトのランク上昇を図るのです。

 

ホワイトハットSEO

googleと同様検索者の利便性を考えたサイト構造やコンテンツを作成するとともに、googleの考案したサイト評価方法に則ってサイトの価値を上げる手法です。

本来、googleは検索者に有益なサイトを評価するので、サイト作成者は訪問者の利便性を念頭にページを作成すれば上手くいくはずです。

しかし、実際は、どういったサイトが優良サイトなのかという基準をgoogleが決めている上に、検索者がある程度使用する検索ワードを考慮しなければ意図した検索結果が出にくいというのが現状です。

googleはそのギャップを埋めるために日々アップデートしていますが、未だ検索者の求める検索結果と実際の検索結果を完全に一致させることができていません。

そこで、ホワイトハットSEO業者がサイトの最適化を行い、出来る限り検索結果のズレをなくそうとしているのです。またサイト訪問者に好まれるコンテンツはどんなものか、サイトの構造(ディレクトリ構造)はどのようなものがわかりやすいか、1ページの構成はどのようにすればよいのか、サイトのプログラムはどうすればgooglerobotにすんなり理解してもらえるのか、そういった点を考え、googleの検索エンジンに集まるサイトの質を上げるのもホワイトハットSEO業者です。

googleの「優良サイトをきちんと認識したい」というニーズとサイト作成者の「掲載する情報は有益なものだからきちんとgoogleに認識させたい」というニーズの間に仲介しているのがホワイトハットSEO業者なのです。

 

title属性とalt属性について
バックリンクの見方(Ahrefs,SEO MOZ,Majestic SEOの使い方)
Google Search Consoleとは?