2007年9月30日日曜日

Googleの検索アルゴリズムと戦略

 2007年9月の下旬にGoogleはアドワーズ広告に関する詳細な説明ページを公開した。
それによると、Googleは今後品質スコア決定のアルゴリズム変更についての事前告知を行わないとのこと。また、リンク先ページの品質スコアについても比較サイトやショッピングサイト、安価な広告で集客し、高価な広告で収入を得る事を目的としたサイトなどはページランクが下がる可能性があるという説明資料も公開されている。

確かに安価な広告で集客し、広告をクリックさせることで収益を上げる事を目的としているサイトは、検索キーワードとの関連性が高くとも一般ユーザが求める検索結果(あるいは情報)とは趣が異なるため、ページランクを下げるなどのペナルティを課すことに異論を挟む余地は無いと言って良いだろう。しかし、比較サイトやショッピングサイトのページランクを下げるというのはいかがであろうか?確かに「SEO対策」というキーワードで検索を行った時に得たい情報というのは概して「SEO対策とは?(定義)」であったり「SEO対策にはどんな手法があるか?(手法)」などである事が多いが、一方でそういったキーワードのベンチマークを測りたいという欲求があっても不思議ではない。勿論、比較には「比較」という目的があるのだから「SEO対策 比較」というようにキーワードを複数並べて検索を行うべき。という事もできるが人間というのはそうも合理的なものではないだけに「比較サイト」等を一様に下げてしまうというのはいささか乱暴なアプローチとも言えよう。

昨今のGoogleは新サービスを次々とリリースしている事を歓迎する反面、「Google様」と揶揄されるぐらいGoogleスタンスというのを強く求める仕組みが広がり始めているだけに、今回の対応がどのような効果を得るのか。それはSEO対策を行っている各業者の動向だけでなく、検索エンジンの在り方を考える上でも興味深い話題であると言えるだろう。

2007年9月29日土曜日

インフォシーク、 ウェブ検索をGoogle一本化に - infoseekエンジン姿消す

楽天のポータルサイト・インフォシークの検索サービス「infoseekハイブリッド検索」からinfoseek検索エンジンへのリンクが消滅。

楽天が運営するポータルサイト「インフォシーク」は、同サイトで提供するinfoseekハイブリッド検索で提供していた、インフォシーク独自エンジンとGoogleの併用を終了した模様だ。9月29日現在、ウェブ検索はGoogleのみとなっている。

インフォシークは2003年9月1日よりGoogleを採用した。ウェブ検索にGoogleのウェブ検索とインフォシーク独自のウェブ検索をユーザーが選択して利用できることが特長の1つだった。しかしインフォシーク独自の検索エンジンはほとんど開発が進まずインデックス更新が停滞していたほか検索品質も改善される兆しは全くなかった。今日の検索市場において楽天がinfoseek(自社の検索エンジン)に投資して開発する理由も見あたらず、消滅させるのも当然の成り行きといえよう。

単にメンテナンスでinfoseekのリンク外しているだけかもしれませんけれど。でも今更infoseekエンジンを提供する意味が私には理解できません。

2007年9月28日金曜日

Live Searchを刷新 - コア検索技術やバーティカル検索を改良

米Microsoftは2007年9月26日、同社の検索サービス「Live Search」のバージョンアップを実施すると発表した。2005年1月のLive Searchデビュー以来、最大のバージョンアップ。


今回はLive Searchのコア検索技術とバーティカル検索(専門検索)の改良が中心。Microsoftコーポレート・バイスプレジデントSatya Nadella氏は、今回のLive Searchアップデートは1億8,500万人の我々のユーザーの検索体験を飛躍的に高めることにフォーカスしており、エンタテイメントやショッピング、健康、地域検索といったユーザーが求める専門検索の開発に投資してきたと説明している。

 コア検索技術において具体的には、ウェブインデックスを従来の4倍に拡大。ユーザーの20%はロングテールの情報を求めており、カバレッジ拡大により適切な検索結果が表示されるようになるという。また、クエリインテント(検索意図)の適切な把握、ユーザーのクリックストリームデータを活用してランキングや関連性を判断できるようアルゴリズムの改良したこと、検索クエリの提案機能の改善が施された。クエリに関連するウェブや商品レビュー、レーティング、場所、連絡先、画像、動画などのあらゆる情報を集約することもできる。

バーティカル検索の改良は、ユーザーの検索の40%がエンタテイメント、ショッピング、健康、地域情報検索に該当することから、これら分野の改良を実施。Live Search Videoに検索結果画面上で動画のプレビューが閲覧できるモーションプレビュー機能、著名人の人気度を表示するLive Search Entertainment のxRank機能などが追加されている。

なお、これら新機能の具体的なリリース日は発表されておらず、現時点でどこまでの機能がLive Searchに実装されているか不明。また、米国以外での実装時期も不明だ。少なくとも日本語(Live.jp)はUIが若干変更されているだけで検索機能そのものは相変わらず。

2007年9月27日木曜日

Yahoo!(ヤフー)インデックス2007年9月26日更新

Yahoo!(ヤフー!)の検索アルゴリズムとインデックスの更新が、米Yahoo! Search Blogで、現地時間の2007/9/26に、公式にアナウンスされました。

We’ve rolled out some changes to our index with fresh web data and updates to our crawling, indexing and ranking algorithms over the last few days. We expect the update will be completed very soon. Throughout this process you may see some changes in ranking as well as some shuffling of the pages in the index.

前回の8/23の更新から、ほぼ1ヵ月後のアップデートになります。


今回のインデックス更新でも、いつものように大規模な順位変動が発生したようです。

Aaron Wallは、次のように分析しています。

a bit more weight on domain names
(以前より多少、ドメイン名にウェイトが置かれた)

「domain name」というのが、ドメイン名に含まれたキーワードなのか、それとも権威のあるドメイン(Authotity Domain)なのかがはっきりしません。

Search Engine JournalのLoren Bakerによれば、Yahoo! Directory(日本ではYahoo! カテゴリ)を代表とするオーソリティサイトが順位を上げていることから、権威のあるドメインが力を発揮しているようです。

米Yahoo!でも、登録サイトが強い状況は日本と変わりませんね。

また、日本語ドメインのサイトが順位を戻してきたとの報告もあります。
日本語ドメインが異常なほど評価された後、今度は反対に「ペナルティ扱い」かとも思わせるほど評価を落としましたが、常識的な範囲に収まってきたのかもしれません。

Yahoo!は、アルゴリズム更新のたびに順位が乱高下するので、Yahoo!対策はSEOに取り組むウェブマスターには悩みの種ですね

2007年9月25日火曜日

マイクロソフト、「Live Search」の変更予定をうっかり掲載

Microsoftは今週のイベントで同社の「Live Search」の変更点を報道陣向けに発表する予定だったが、それに先駆けあるMicrosoft従業員が、予定されている変更点の詳細をサイトに掲載してしまった。

 2007年9月にMicrosoftの全社的なミーティングでデモされた同検索製品への変更点には、特に映像検索や製品検索における、特定種類の検索クエリに対する改善などが含まれる。

 同社の「Windows Live」プログラムマネージャーであるAkram Hussein氏は、米国時間9月20日付けのブログ投稿で、改善されたLive Searchにおいて、デジタルカメラの検索がどのように処理されるかを発表した。ここでは製品の詳細情報のみでなく、その評価までもが表示される様子が披露されていた。新しい検索機能では、ユーザーによるレビューなどの情報を掲載した他のサイトからの情報を収集し、検索エンジン内でそれを表示することができる。

 Microsoftはその後同ブログを削除したが、Liveside.netにはHussein氏が提供した画像と詳細情報が保存されていた。Microsoftはカリフォルニア州マウンテンビューにある同社のオフィスで今週開催される「Searchification」イベントにおいて報道陣向けに発表する予定である。

 またHussein氏は、著名人検索ページを披露していた。「ブラッド・ピット」と検索すると、「celebrity xRank」と名づけられた評価システムにより、同氏が現時点でどれだけ人気があるかという情報も示されることを示していた。

 最後にHussein氏は、ビデオ検索結果の動画によるプレビュー機能を持つという、改善されたビデオ検索の概要を明らかにした。

 同氏は、「マウスをビデオの上に移動させることにより、ビデオをオンラインでプレビューすることができ、ビデオのプレビューは遅延することなく、すぐに再生されるようになる!」と記していた。「実際にビデオを視聴する前に、本当にそれが視聴したい内容かどうかを確かめるためのプレビューができるなんて、すばらしいことではないか」(Hussein氏)

 Live Searchへの変更点の一部は、この数日間で同サイトにおいて少しずつ投稿されていた。

 Hussein氏は、同氏の元のブログ投稿に置き換えられたお詫びの中で、同氏が掲載した画像はテストビルドのものであると述べた。「まだベータ段階にあると思われる情報を掲載したことに対し、皆様にお詫びし、掲載内容はテスト機能のようなものであったため、このブログ投稿は削除する」と同氏は述べている。

2007年9月22日土曜日

グーグル、アルゴリズムの変更を実施 - 単キーワードの検索結果に影響

 米Google検索アルゴリズムのアップデートを実施した。米WebmasterWorldのSeptember 2007 Google SERP Changes - part 2などによると、主に単キーワード検索時の検索結果(SERP)に影響がある模様だ。

 GoogleのMatt Cutts氏は今回のSERP変動について、「単一クエリの変更はすでに行われており、2~3日のうちに全データセンターで反映される模様だ」と9月18日にコメントしている。

「Hey Barry, these are two unrelated things, but the right teams are aware of both of them and have changes pending. The change for one-word queries is already live at some places and should be live at 100% of the datacenters in the next 2-3 days, for example. [Google, Matt Cutts, Weird Results At Google Being Reported」

 なお、今回のアルゴリズム変更と同時に中国.cnのスパムサイトが多数出現しており、これをクリックするとウイルスに感染するという。この問題についてCutts氏は対応を行ったと回答している。

2007年9月20日木曜日

自動登録系リンク集の是非

最近の流行なのでしょうか?

検索サイトでのインデックス更新が行われるたびに、やれ「テーマ関連性の低いリンクの評価が下がった」だの「自動登録系のリンクの評価が下がった」だのと多くのサイトやメルマガで示し合わせたかのように語られています。

先月末のYAHOO!でのインデックス更新後もやはり同様に多くの方が口を揃えてさえずっていました。

ここでいう自動登録系のリンク集というのはYomi-Searchなどを代表とするcgiで作成されたリンク集のことです。
リンクを依頼する側が掲示板に足跡を残すかのように自サイトのリンクを張ることが出来ますので、サイト管理者がリンク集の更新に時間をかけることなく運営できるという利点があります。

でも自動登録系リンク集というのは所詮、掲示板の亜流でしかありません。

人気の高いリンク集であればあるほど過去ログ(カレンダー?)へと追いやられてしまうのです。
そして大抵の場合、過去ログへは検索ロボットの巡回回数が減り、キャッシュすらされなくなる傾向にあります。

そして昨今の検索サイト、特にYAHOO!ではただでさえキャッシュ数、インデックス数が減る傾向にあります。
毎日、全世界では膨大な量のWEBページが作成され続けているのですから当然の対応策ではあるのですが・・・

懸命な読者の皆さんはもうお気づきですね。
自動登録系のリンク集の評価が下がったのではなく過去ログへ追いやられることで、リンクが掲載されたページが検索エンジンの認識しないページへと変貌しているのです。

「どっちだって同じことじゃん」とか考えていませんよね?

自動登録系リンク集の評価が下がったのなら、自サイトを登録する行為自体が無意味です。
ですが認識されにくくなっているというだけで、決して評価基準が下がったわけではないと筆者は考えています。

実際、検索エンジンに評価されている自動登録系のリンク集は存在していますから。

キチンと調査して該当の自動登録系リンク集が検索エンジンにどのように評価されているかを見極めてから、自サイトを登録するようにしましょう。


このようなことを話しますと、必ずといっていいほど

「調査する時間が無駄」

なんてことを、のたまう輩が存在します。

悲しいかなSEO対策に自信のある、そしてある程度SEOに詳しい方(中にはサイト制作業者も)にこそ、この傾向が見て取れます。
ほとんど控え目の病気です。

そのたびに「あぁ、この人もわかっていないんだな」と筆者は感じてしまいます。

※決して言い争うことはしません。持病の高血圧が悪化するだけですから。


調査をする時間が無駄という人間の獲る行動は2種類です。

・最初っから自動登録系のリンク集には登録しない
・数は質を凌駕するとばかりに片っ端から自動登録系リンク集に登録する

「登録しない」を選んだ方は端からSEOを諦めているに等しいです。

そして「数は質を凌駕する」考えの下に「片っ端から登録する」を選ぶ方。
危険な考え方です。
何故なら、これこそがSPAMと呼ばれる行為だからです。

調査することによる時間的な分散が似たようなSEO手法をSPAMとしないキモなのです。

プチ整形やアンチエイジングじゃあるまいし、SEOに「簡単」なんて言葉は無縁です。
ボトックスやエンダモロジー、レーザー脱毛のような特効薬なんてSEOには存在しませんから。

SEO業者に対策を依頼すると何故高額なのか?
人手のかかる手間仕事がほとんどだからです。
スペシャリストによる人件費と考えてもらえば間違いありません。

実は「片っ端から登録する」というSPAM手法を一番おこなっているのはWEBサイト制作業者なのです。
特にデザインハウスがWEBサイト制作の片手間にSEOを行うときにこの手法を多く利用するようです。

経営者の皆さんは「この制作会社ならデザインだけでなくSEOも施してくれる」などと考えて業務を発注するようです。

多くの制作業者はSEOの知識も乏しいくせに「SEOに効果の高いサイトを制作します」なんて謳い文句を騙ります。

だって、そのほうが売れますから。。

キチンと話を聞いて、実績を見せてもらって業者の実力を見極める必要が発注する側にも要求される時代になっているということです。

そのためには発注側でも、にきび面のハナタレ小僧(花粉症?)に等しいエセ業者に騙されないためにSEOを知る必要があります。

業者選定に注意を払うとともに、決して業者任せにしないようにしましょう。

2007年9月19日水曜日

Google Pagerank を向上させる 7 つの方法

サイトの人気度を測る尺度の一つとして、Google が提供している Pagerank は有名ですよね。あまり、気にし過ぎる必要はないし、実際の人気度と Pagerank とでは、多少乖離しているケースもあるようですが、やっぱり気になるときは気になります。私は、この Pagerank を何とか “4″ に将来ならないかな~って思っています。根拠は無いのですが・・・

海外のサイトですが、Pagerank を向上させる 7 つの方法を説明している投稿記事がありました。「UTheGuru.com::April 2007 Pagerank Update is Underway!」に下記のような 7 つがリストされていました。日本語は、私が勝手に解釈した訳ですから十分では無いかもしれません。

1.LINK OUT.
外部サイトへのリンクを貼ること。

2.WRITE UNIQUE, INFORMATIVE, INTERESTING ARTICLES.
面白く、情報量の多い、かつ興味ある投稿記事を公開すること。

3.WRITE SOMETHING CONTROVERSIAL.
閲覧者による議論が巻き起こるような話題を投稿すること。

4.USE SOCIAL NETWORKING TOOLS.
ソーシャルネットワーキングを利用すること。

5.MAKE A USEFUL TOOL.
役に立つツール(WordPress のテーマや plugin など)を提供すること。

6.USE YOUR HOST.
利用しているホストを利用すること。

7.BE A GUEST POSTER.
ゲストにも投稿してもらうこと。

2007年9月18日火曜日

コンテンツ重複が招く SEO 問題とその解決策

Blog や SNS といった手軽な情報発信ツールや他サイトのコンテンツの取り込み、あるいは他サイトへの提供が簡単にできる RSS フィード技術や関連ツールの広がりが、SEO を行う上であらたな問題を引き起こしている。それが「重複コンテンツ」の問題だ。


重複コンテンツとは、同一コンテンツが複数の URL に存在する状態を指す。検索エンジンは重複したコンテンツは基本的に登録を行うことはない。言い方を変えると、検索結果に同じものを複数表示しない、ということ。

もし同じコンテンツを重複してインデックスしていくと、ある検索クエリに対する検索結果画面に同一内容を持つ異なる URL を複数表示することになり、検索利用者の検索体験の質的低下を招くからだ。

従って Google はもっとも評価が高い、あるいは一定以上の評価を受けたページのみを登録するし、Yahoo! は重複コンテンツと判定すればクロールをしないようになっている。

Web サイト運営者からすれば、希望する検索キーワードで上位表示する大前提として、検索エンジンのデータベースに登録されることは必須条件であり、それが満たされない、あるいは本来意図した - ユーザーを誘導したいと考えたページが表示されない - のであれば大きな問題となる。

しかし、冒頭で述べたような Blog や SNS の存在、RSS フィードによるシンジケーションはもちろん、様々な過程を通じて発生した重複コンテンツによりインデックスに支障をもたらすケースがある。

例えばニュースサイトはブラウザ閲覧用のページとは別に、印刷用のページを用意している場合がある。あるいは数多くの商品点数を抱える Eコマースの場合、「メーカー別」「ブランド別」「用途別」と複数のカテゴリ階層で構成されている場合、各々の階層に同一商品のページが異なる URL で生成されてしまうこともある。

いずれの場合も、全く同じコンテンツが存在することになり、検索エンジンに適切に登録されない問題を招く場合がある。

冒頭で触れた Blog や SNS は第三者による「オリジナルコンテンツのコピー」により重複コンテンツが生まれる。Blog や SNS は手軽にページ生成が可能なため、個人的な記事クリップといった悪意のない目的、あるいはコンテンツ連動広告で金銭を稼ぐことを目的に他サイトのコンテンツを借用してページを作成する場合もあるが、いずれにせよこの場合も重複コンテンツが発生する。

このケースでは、コンテンツ盗用者の運営するサイトがもともとのコンテンツ保有者のサイトよりも評価が高い場合、関連するキーワードで検索した際にコンテンツ盗用者のサイトが先に表示されてしまいトラフィックが奪われる場合もある。

ソーシャルブックマーク(SBM)も時として厄介な問題をもたらすこともある。誰かがページ(これをオリジナルページとする)をブックマークすると、 SBM は当該ページのタイトルと本文の一部を自動的に引用するが、この時点で全く(ほぼ)同じタイトルを持つページが生成されてしまう。

この時、タイトルに含まれる文字列で検索した時にオリジナルページではなく SBM のページが次々と表示されてしまうことがある。

以上、重複コンテンツの存在は検索エンジンへの登録が妨げられるというケースと、それが発展してコンテンツ盗用者にトラフィックを奪われるという問題が発生するケースもある。いずれにしても、Web サイト運営者はこうした問題への対処法も考えなければいけない。

まず第1に、運営サイト内で重複コンテンツが発生しない仕組みを作ることが必要。基本的に1つのコンテンツは1つの URL のみに存在するようにする。システム上、それが回避できない場合はいずれか一方の重複コンテンツをクロール拒否設定することで、クローラが同じコンテンツを巡回しないように設定をする対策が可能である。

例えば印刷用と Web 閲覧用のページはユーザーの Web 体験上避けられないものであるから、これは印刷用を robots.txt などでクロール拒否すればいいわけである。META タグにロボットのクロールを拒否する nofollow、noindex を入れてもいいだろう。

ソーシャルブックマーク対策としては、テキストを掲載しない(例 はてなブックマークの場合)措置をとることも1つの解決策だ。

第2にコンテンツ盗用者対策だが、まずは盗用者に対して警告を行い削除要請をすることを試みる。応じられなければ、検索エンジンに対して該当コンテンツをインデックスから削除することを要請することが可能だ。

デジタルミレニアム著作権法(DMCA 法)に沿って必要な手続きを行うことで、Google も Yahoo! も盗用者のコンテンツをインデックスから排除する作業をしてくれる。

発信した情報を検索エンジンという情報流通システムを通じて必要とするユーザーに円滑に伝達できる環境を構築するためにも、検索エンジンにあわせたコンテンツの配置や管理を考えていく必要がある。

2007年9月15日土曜日

米Google、月面探査に役立つ「Google Moon」新バージョンを公開

 米Googleは13日、民間月面探査プロジェクトのスポンサーになるのと同時に、そのような月面探査に役立ち、かつ教育的資料になりうる月面地図サービス「Google Moon」の新バージョンを公開したと発表した。

 月面地図を「Google Maps」のように表示するGoogle Moonの最初のバージョンは2005年7月に公開されていた。今回の新バージョンでは、地図が高解像度のものになったほか、米国アポロ計画による一連の月面探査の結果得られた写真や資料を閲覧したり、テキスト検索を行なうこともできるようになった。場所によっては、宇宙飛行士たちが撮影したパノラマ画面も見られる。この画面では1カ所に立ったまま、ぐるりと周りを見渡すことが可能だ。

 さらにNASAがこれまでに作成してきた月面に関する様々な図面も見ることができる。多くの図面には月面のどの場所に何があるか、高さや大きさなどが記されており、実際の月面探査に役立つだけでなく、架空の月面探査計画を学校の勉強として立案する場合など、教育的用途にも役立つと考えられる。

 Google Moonの新バージョンは、GoogleとNASAが共同研究を行なうという合意に基づいて実現したもので、NASAエイムズ研究所の研究員とGoogleで共同開発された。Googleは、既に公開していた「Google Mars」の技術をGoogle Moonに応用した。現在のところ、Google MoonはWebブラウザから見ることができるが、将来的には「Google Earth」からも見られるようになる予定だ。

 また、Googleは同日、民間宇宙船が月面着陸を成功させた場合に賞金を支払う「Lunar X-PRIZE」のスポンサーになると発表した。Lunar X-PRIZEでは、この探査を成功させたチームに合計3,000万ドルの賞金を授与することになっている。今回公開されたGoogle Moonでは、NASAが作成した科学的資料を公開しており、このコンテスト参加チームが計画を練る上で役に立つ情報と言える。

 Googleがこのようなコンテストを支援する理由として「それがクールだから」という理由を挙げている。しかしそれだけでなく、こうした探査計画を通して開発される新技術が社会に貢献し、また一般社会に数学や工学、コンピュータサイエンスに対する関心を呼び覚まし、次世代の若者がこの分野に関心を持つようにすることに目的があると説明している。

2007年9月12日水曜日

日本国内の検索シェア、ヤフーが47.4%、グーグル35%

調査会社コムスコア・ジャパンは2007年9月12日、日本国内の検索市場に関するデータを発表した。


2006年7月と2007年7月の検索数、検索回数、検索シェアデータを発表。全検索件数は2006年7月の47億5,400万件から57億9,500万件と21.9%増加。これを検索エンジン別に見るとヤフーは31億3,400万件から27億4,400万件と12.4%マイナスに対してグーグルは13億2,200万件から20億2,700万件と53.3%増加している。さらに検索シェアもヤフーは65.9%から47.4%と1年で18.6%マイナスに対してグーグルは27.8%から35.0%と7.2ポイント増加。グーグルが急激にヤフーを追い上げている。

2007年9月11日火曜日

台湾版MSNサイトにて訪問者がリダイレクトされる不具合が発生

 Microsoftは米国時間9月7日、先週はじめに台湾版MSNサイトで発生した不具合について謝罪した。この不具合は、同サイトにアクセスしようとした一部のユーザーがMicrosoftと無関係のサイトにリダイレクトされたというもの。

 Microsoftによると、被害に遭ったのはごく一部の訪問者で、この不具合はすでに解消されたという。

 MicrosoftのセキュリティプログラムマネジャーChristopher Budd氏は、「この問題について報告すると、Microsoftは迅速かつ適切な対策を講じ、問題はすでに解消している。この活動による顧客への影響については分からないが、今後も状況の監視を継続し、顧客の保護に必要な対策をさらに講じていく」とした上で、「今回の不具合で顧客の皆様にご迷惑を掛けたしたことをお詫びしたい」と付け加えた。

 今回の不具合は、(ブラウザのURL欄に)www.msn.com.twと入力し、台湾のMSNサイトにアクセスしようとしたユーザーが、全く関係ない個人のウェブページにリダイレクトされたというもの。同サイトの管理人は、「Microsoft側のミス」と主張している。

 同サイトの管理人はページ上で、「(Microsoftの社員が)msn.com.twドメインのDNS情報を入力する際にタイプミスをしたと見られる」としている。

 またこの管理人は、自分のサイトにリダイレクトされた訪問者に嫌がらせはしていないとしながらも、次のように警告している。「Microsoftにセキュリティを任せてはいけない。Linuxを使ってみなさい。Linuxは安全で簡単な上に、無料だ」

 CNET Taiwanは現地時間9月7日にこの不具合について報じた。同社の記者がMicrosoftの台湾支社に最初に連絡した時、Microsoftの関係者はその不具合について知らないと答えたという。Microsoftの現地オフィスのある関係者は、「われわれのホームページがリダイレクトされていることは知らなかった」とし、さらに「このサイトのサーバは米国で管理されており、米国の技術者が同サイトの保守に当たっている」と語った。

 Microsoftの関係者によると、同社がこの不具合の知らせを受けたのは5日の午後で、「発覚後、数時間以内に問題は解決した」という。

 Microsoftは2006年にも、仏語版サイトのトップページが複数のハッカーらによって書き換えられる被害に遭っている。

2007年9月10日月曜日

効果検証における視点

■アクセス解析で効果を「検証」する
そもそもアクセス解析ツールは、「仮説→施策→検証」という視点を持つことで、より有効に活用できる。つまり、仮説無しでアクセス解析を見てもあまり効果的な活用とはいえない。ただ単に、日々のアクセス数をぼんやり見て、アクセス数が上がった、下がったと一喜一憂するものではない。「なぜ上がったのか」・「なぜ下がったのか」という原因を究明する視点が必要である。

例えば、ある施策を行いアクセス解析で調査をした結果が以下の場合、どのような評価をされるだろうか?


             4月    5月
--------------------------------------
ページA PV数   200,000  150,000
ページB PV数   300,000  500,000
全体の PV 数   500,000  650,000


「全体のPV数が4月から5月にかけて50万件から65万件と、15万件の伸びを示している」と読むことができるだろう。全体のPV数向上を目指した施策であれば、成功と言える。

しかし、ページAに注目していただきたい。PV数は、20万件から15万件と、5万件減少していることがわかる。Aページへの流入の強化を図ったのであれば、失敗である。施策を見直す必要がある。

このように、アクセス解析をただ見ているだけでは、良し悪しの判断はつけることができない。何のために、どのような施策を行い、どうなれば成功かという視点「仮説」を持ってアクセス解析の結果を見ることが必要である。

例えば、Aページを「キャンペーン告知ページ」とすると、最終目標は、「キャンペーンのお申込み」である。キャンペーンお申し込みのために、Aページへの流入を強化する施策として、リスティング広告を用いた誘導やサイト内のナビゲーションの強化を行った。これは、「キャンペーン効果を高める=Aページへの流入数が伸びる」と仮定した施策である。

当然、その結果として「申し込みがあったか」という視点も重要である。しかし、その前に Web サイトの果たす役割として、施策が「どの程度のマーケティング効果を発揮できたのか」、「仮定した結果が得られたかどうか」を確認されると良いだろう。

Web サイトへの施策に仮説を取り入れて、アクセス解析のデータをご確認いただくことで、ただ見ているよりもデータが「活用できる」ようになる。ぜひ試してみていただきたい。

2007年9月8日土曜日

Googleがディレクトリ検索エンジンを排除

ここ数週間、登録型のディレクトリ検索エンジンがGoogleからインデックス削除されるケースが、海外のSEOフォーラムで相次いで報告されています。

WebmasterWorld
DigitalPoint Forums (1)
DigitalPoint Forums (2)
Sphinn

システムによる自動的な処理ではなく、人間の手による人為的な処理ではないかとの推測もありますが、定かではありません。

最近、グーグルはそれまでインデックスしていたページを大量に検索結果から削除したりと、スパムチックなサイトに対するペナルティを課すアルゴリズムを強化しています。

今回、スパム扱いされたディレクトリサーチエンジンも質の低いサイトで、SEOを目的としたものだったようです。

日本でも、同じような扱いを受けるサイトが出てくる可能性もあります。
登録型のサーチエンジンに登録している人は、注意して監視してください。

また、新規に登録する場合はそのサイトがユーザー本位にできているか、スパム扱いをされていないか確認しましょう。
Matt Cuttsの発言では、サイト登録に当たって審査があるかどうかが、まず基本だそうです。
どんなサイトでも登録できるということは、クオリティ低下の恐れがありますからね。

そのサイトがペナルティを受けていないかは、URLやサイトのタイトルをGoogleで検索することで調べられます。
1位に表示されなければ、インデックスから削除されている可能性が大です。

簡単な見分け方として、Googleツールバーを使う使う方法もあります。
PageRankのゲージが「グリーン」ではなくが「グレー」になっているときは、そのサイトがペナルティを受けている場合があります。

登録型ディレクトリ検索エンジンのページがグレーになっていたら、1つ目の方法で確認しましょう。

2007年9月6日木曜日

SEO-YAHOO!対策の悩みと誤解

SEOコンサルなどという業務で生計を立てている筆者の下にはさまざまな相談が持ち込まれますが、その中でも最たるものが表題の通りYAHOO!対策です。

例えば私が標榜しています6つのモノサシで、相互リンクとサイトボリュームとどちらを増やすことに専念すればいいですか?という類の質問が非常に多いのです。

このコラムの中にも同様の悩みを抱える読者がいらっしゃるのではないでしょうか。

SEO対策として専念すべき一本の軸というか、しっかりした方向性を欲する方たちです。

結論として言えば6つのモノサシはどれも同等に施策しなくてはなりません。
どれかひとつを重点的にといったようなものでは、場当たり的な対処法といわざるを得ないのが現在のSEO事情です。

またこの多方面的な施策が必要となることがYAHOO!対策を「難しい」と感じさせる原因であると筆者は思っています。

さて、では何故YAHOO!は多方面的に施策しないといけないのでしょうか?

これはYAHOO!が6つのモノサシによる評価をバランスよく行っていないことが大きな要因です。

YAHOO!はインデックス更新のたびに評価バランスが変わります。
しかも評価の偏重がはなはだ際立っているのが特徴です。

筆者はこれを「YAHOO!の入替え制度」と呼んでいます。

「YAHOO!の入替え制度」については次回、改めて記したいと思います。
今回の記事は「入替え」が生じてしまう原因についてです。

ご存知のようにYAHOO!SERPsはYSTがその基幹エンジンとして機能しています。では Y!J という検索ロボットをご存知の方はどのくらい存在しているでしょう?

Y!Jとは日本独自の検索ロボットなんです。
YAHOO!はこのようにYSTに加えて、独自に収集したデータによるアルゴリズム改竄を各国のYAHOO!に認めています。

※厳密にはロボットの種類はもっと数多くあります。ここでは話をわかりやすくするために2種類のロボットを比較しています。ですがYSTとは検索ロボットのオーケストラと捉えるのが一番、的を射た表現と筆者は思っています。

つまりYSTの順位決定に対しY!Jが日本環境に合わせた微調整を施しているという図式です。
簡単に言えばyahoo.co.jpとyahoo.comとでは検索結果に隔たりがあるということです。

最近の話で言えば8/22のインデックス更新はYSTによるものでした。そして8/30のインデックス更新がY!Jによるものでした。

現在、YSTは30日~40日間隔で定期的にインデックス更新を行っています。逆にY!Jによるインデックス更新は非常に不定期であります。

もう、お気づきの方はいらっしゃるでしょうがYAHOO!の順位の入れ替えはこのYSTからY!Jへインデックス更新が切り替わるときに生じます。

両者の評価基準が違うのですから当然といえば当然です。

逆にY!JからYSTへの切り替わり時にも順位に大きな変動が見られます。
これも理屈ではおわかりになると思います。

このように性格の異なるアルゴリズムが同時にではなく間をおいて検索順位に反映されるために評価基準の異なる検索結果が表示されることになるのです。

冒頭の記述に戻りましょう。

6つのモノサシのどれかに偏重して対策することがどれだけ危険かは、これでおわかりになったと思います。

また6つのモノサシをどんなにバランスよく対策しても、その結果は毎月変動することもご理解いただけたのではないでしょうか。

2007年9月5日水曜日

PC・インターネットに対する恐怖を取り除くSEO

 2007年9月3日。セキュリティソフト大手のトレンドマイクロは「~82%のユーザがインターネット利用中迷惑行為の経験あり~」というニュースリリースを発表した。

このニュースリリースによると、インターネット利用者の98%がインターネット利用について不安を感じており、82%のユーザが既に何らかの迷惑行為を経験しているという。この「迷惑行為」の中には「望まないポップアップメッセージや大量の広告が表示される」(30.6%)、「大量の迷惑メールを受け取った」(26.6%)、「訪問したWebサイトから、知らないプログラムがダウンロードされそうになった(ダウンロードされた)」(12.4%)といったものに加え、「ワンクリック詐欺のメールを受け取ったり、Webサイトに誘導されたりした」(8.6%)、「YahooやGoogleなどの検索結果から、悪意 のあるWebサイトに誘導されそうになった(誘導された)」(5.0%)といったおよそ信じがたいような事実も含まれており、SEO対策にとっても興味深いニュースリリースとなっている。 勿論、このような調査結果を検討する上では有効回答者数や質問自体が適切で客観的なデータが得られるような質問内容になっているか?といった要素を考慮しなければならず、一概にこのデータだけを見てユーザ全体が不安を抱えているという訳ではないことはご理解いただけると思う。そもそもトレンドマイクロ社はセキュリティソフト大手企業と言うこともあり、大手企業という事からあからさまに恣意的な質問内容や回答者を募るような事はしないと考えられるが、それでも不安を感じているユーザが多いという結果が出た方が、広報的な視点からは都合がよい。

明確な根拠もなく疑ってはならないが、SEO対策を行う者としては、このデータに客観性を認めつつも、ある程度は下ぶれ要素があることを考慮に入れてこの結果を分析する必要があるだろう。

従って、直ちにこの結果が今後のSEO対策に影響を及ぼすとは考えにくいが、先日のGoogleがガイドラインから外れたwebmaster宛に警告メールを送付する仕組みを再開するなど、ますますwebサイトの作り方について厳しくチェックするような事になったのは上述でトレンドマイクロ社のニュースリリースが示している 「YahooやGoogleなどの検索結果から、悪意 のあるWebサイトに誘導されそうになった(誘導された)」(5.0%)という現状を重く受け止めているからかもしれない。

実際問題、5%と言えば一見たいした数値ではない。100人にて5人しかこのような問題に見舞われていないというのであればそのまま放置してしまえば済む話とも言えるが、見方によっては5%も存在していると受け取ることができる。人間が交通事故に遭う確率は1%にも満たないという発表もあるが、それでも警察はなお、交通事故の発生件数を下げるべく日夜努力を続けているように、Google社やYahoo社のように検索エンジンの精度によって成り立っている企業にしてみれば5%というのは大きな問題であろう。

また、ポップアップ広告などについては3割以上のユーザが「迷惑行為」として挙げている点も興味深い。Webマーケティング業者からすればポップアップ広告などは重要な宣伝行為の一つであるが、せっかくの広告宣伝が「迷惑行為」と受け取られてしまうのであれば今後、規制の対象となる可能性があるばかりか、広告を出すことで返って企業イメージを損ないかねない。

常日頃から言われてきたことだが、Webサイトのガイドラインは絶えず更新され続けていると言うことを再認識し、今後のWebマーケティングを検討していく必要があるだろう。

2007年9月1日土曜日

SEOにおいて回避するべき15の失敗

新興サイトや中小規模のサイトを運営する際によくある失敗をまとめた。
SEO初心者がよくやる失敗でもあり、SEOコンサルタントを雇おうと検討している際の判断基準としても役に立つだろう。
基本的な事ばかりだが、SEOは基本に忠実であるべきである。

1. SEOを始めるのを遅らせてはいけない。SEOはいつでもいいと思っているなら考え直すべき
2. ドメインをまたがって同じコンテンツを持ってはいけない。検索結果に複数ドメインでの同じコンテンツを表示させようとは思わないこと
3. URLをサーチエンジンに登録することに時間をかけてはいけない。クローラーベースのサーチエンジンにとって、すでにインデックスされたページからのリンクからクロールする方が早い
4. サーチエンジンがクロールできないページを作らない。完全フラッシュ、画像、AJAXのページ、robot.txtでのミス、セッションIDを持つURL、多すぎる要素を持つURL、クロールできないナビゲーションは作らないこと
5. あまりにも一般的なキーワードでSEOしない。小規模なら小規模なりにターゲットを絞ったキーワードでのSEOを行うこと
6. メタタグや画像altにキーワードを詰め込みすぎない。SPAM判定される可能性が高い
7. ページフッターなどに隠しテキストや薄い文字色でキーワードを詰め込まない。同じくSPAM判定される可能性が高い
8.すべてのページに同じワードをタイトル要素に入れない。常にユニークであるべきで、関連性こそ命。重複コンテンツとならないための第1歩でもある
9. www. ドメインcomとドメイン.comを同じURLと思わない。301リダイアレクトしなければサーチエンジンにとっては別アドレスとして認識されるため、重複するコンテンツとなる。www.ドメイ.com/index.htmlも同様である。被リンク効果も分散してしまう
10.ユーザビリティを無視しない。適切なサイト構造、ナビゲーション、リンクテキストはユーザにも、サーチエンジンにもプラスになる
11. バランスの悪い相互リンクはしない。目についた全てのサイトと相互リンクするのはよいアイデアではない。相互リンクはよいアイデアだが、リンクされる相手サイトと自サイトの関連性がより大切
12. 同じアンカーテキストでのリンクを要求しない。あまりにも不自然なリンク。リンクは自然に、バラエティを大切に
13. ブログコメントやSNSなどにリンクを貼りすぎない。SPAM判定される可能性が高い
14. 過剰にキーワード濃度にこだわらない。ターゲットキーワードまたは関連ワードををページタイトル、メタタグ、メタディスクリプション、コンテンツ内に詰め込みすぎないこと
15. Google Page Rankに過敏に反応しないこと。GoogleツールバーのPage Rankは数ヶ月遅れで、昔のような影響力を持たない。いまはクロールの頻度、深度を示す値であり、メインのインデックスに表示されているか、関連サイトになっているかによってランクが決まる
サイトの構造をよく考え、キーワードを選定し、関連性を大切に、ユーザのことを常に念頭に、よいコンテンツを作り、被リンクを受ける。やはり基本が大切だ。