2007年8月31日金曜日

SEO にも身の丈にあった戦略を

最近では、企業買収・合併を意味する M&A(Mergers and Acquisitions)という言葉を当たり前のように耳にするようになった。

M&A のメリットとしては、「新規事業の展開が低コスト・短時間で可能になる」とか、「ノウハウ・経験・実績を保有する人材を一挙に獲得できる」などさまざまであるが、金融業界に代表されるスケールメリットが重要な業種・業態では、そもそも規模自体を追求した M&A というケースも存在するようだ。

もちろん、会社の規模が市場における優位性の大部分を占めるのかというと、決してそんなことはない。その会社に適した戦略をとることで、生き残り、繁栄を続けることは可能だ。

実際に規模は小さくても高収益を実現している企業は存在する。つまり、M&A に頼らず、長期的に市場に受け入れられている会社は自らを理解し、「身の丈にあった戦略」をとってきた会社であるともいえる。

しかし、ここで「身の丈にあった戦略」と一言で表現したが、そのために考慮すべき判断指標は多岐にわたり、その条件を全て検討材料とすることはとても難しい。

需要をコントロールするという表現もあるように、より磐石な経営判断を下すためには、環境をよりよく理解するため、経験や勘だけではなく、スピードを意識しつつも会社経営の舵取りにとって有効な情報をできるだけ多く収集・整理し、活用する必要があると考えられる。

具体的な判断指標とすべき情報は、売上高のように目にみえる定量的なものばかりとは限らず、競合、業界全体のトレンド、はたまた政治などのマクロ環境がある。そして、それらの判断指標の要素を元にしつつ、概念として挙げられるビジョンの共有、コアコンピタンスの確立、ステークホルダーを考慮した経営などを考えなければならない。

しかも、その先には、経営戦略との整合性を保ちつつ、実質的なマーケティング戦略や営業戦略、具体的な戦術に落とし込むという、さらなる難題も待ち受けている。

筆者はこれまで数百社に及ぶ企業の SEM コンサルティングを担当し、プロジェクトに関係させていただいた経験のなかで、経営戦略部やマーケティング部、そして直接的に経営に近い方たちと接点をもたせていただき、上記の視点の重要性を認識させられた。

しかし、一方で SEO(検索エンジン最適化)も経営戦略の同一線上にあるべき戦術と考えた場合、現在でもまだ多くの企業で、自らを理解し、身の丈にあった戦略をベースにした SEO という視点が欠如しているのではないかという問題も実感させられる。

例えば、冒頭で企業規模について触れたが、 SEO においてもサイトボリュームは重要な要素となり、サイト内でより多くの Web ページがある方が有利である。しかし、そこでサイトボリュームが小さいので Web ページを増やすというのは、企業規模で有利に立てないので M&A をするというのと同じ発想だ。

そもそもサイトボリュームとは、事業の幅が広く、サービス・商品の点数が多いほどユーザーに与えるべき情報が増し、結果として増加するものだ。つまり、Web ページを増やす前に行なうべきこととして、一度サイトボリュームが小さい理由を考え、そのボリュームは果たして自社にとって最適な規模になっているのかどうかを立ち止まって考える必要があるのではないだろうか。

また、対策キーワードの判断基準も単純に検索数だけではなく、Web サイトやページとの適合性を考慮すべきである。

例えば、ゴルフ全般の総合ポータルサイトと、ゴルフに関する EC サイトでは、ユーザーに与えるべき情報量は異なり、最適なサイトボリュームも異なってくる。

そして、SEO を検討した際には、前者は「ゴルフ」、後者は「ゴルフ用品」というキーワードがトップページ、つまりはサイト全体のコンセプトを表すページへの対策キーワードとして妥当だと考えられる。

このように「身の丈にあった戦略」を考えないと、ユーザーが検索結果からページに来訪し、より多くの情報をみたり(1ユーザーあたりの平均ページ閲覧数や平均滞在時間など)、成約に結びつく(コンバージョン数)といった求めるべき成果も得られないだろう。

つまり、SEO はビッグキーワード対策への固執や、上位表示だけに満足せず、企業の全体戦略から目的を明確にし、効果検証を実施しながら、身の丈にあった対策を実施することも必要だろう。

2007年8月30日木曜日

人間グーグル・Googleの魅力(2)--歩くヤフー・Yahoo!との違い

1回目に「(1)--ググられる人」という記事を書かせていただきました。私が解釈する“人間グーグル”のイメージはご理解いただけたかと思います。今回のテーマは“歩くヤフー・Yahoo”との違いです。“人間グーグル”と“歩くヤフー”という二人のタイプの人間が知り合いだったら、あなたはどういうタイプと理解し、どのような接し方をするのでしょうか?


ネットレイティングスが2007年8月28日に発表した「2007年7月度のインターネット利用動向に関する結果」によると、GoogleとYahoo!JAPANの利用形態の違いがよくわかります。Googleは検索時間の比率が74%と大半を占めているのに対して、Yahoo!JAPANの場合は、オークションが総利用時間の26%がと4分の1を占めています。また総利用時間数の合計は、Googleが4億5843万分に対してYahoo!JAPANは86億3034万分と20倍前後の差をつけています。


Yahoo!辞書で「ヤフる」という単語を検索してみるとGoogleの「ググる」とニュアンスが違うようで、Googleは検索中心のイメージに対して、Yahooの場合は、オークションやコミュニティサイト等のYahoo!のサービスを利用することの意味を指しているようです。


これからの資料を元に“人間グーグル”と“歩くヤフー”を整理すると、


人間グーグル


・相手から相談や質問を受けた時に、付加価値を付けて情報を提供してあげる前向きな人

・“ググられる人”としての(検索)比率が高い。【(1)--ググられる人 参照】

・接する回数は多いが、接する時間は短いので表面的で長い付き合いを好まない。


・どちらかというと人に合わせる(カスタマイズ+マッシュアップ)タイプ。


歩くヤフー

・一人一人にコミュニケーションの環境を提供してあげる。

・長い時間でのコミュニケーションを好む。

・どちらかのというと自分の意見を主張(オリジナルコンテンツ)していくタイプ。


自分の思い通りにしたいのであれば人間グーグルに近づき、どちらかというとついていくタイプであれば歩くヤフーについていくというのが自然な姿なのかもしれません。


さて、皆さんは“人間グーグル”と“歩くヤフー”のどちらのタイプが好みでしょうか? 

人間グーグル・Googleの魅力(1)--ググられる人

“人間グーグル”という言葉は聞きなれない言葉かもしれません。以前「人間グーグルとは?」という記事を書かせていただきました。”人間グーグル”とは、

相手から相談や質問を受けた時に、付加価値を付けて情報を提供してあげる前向きな人

と考えています。

ネガティブに考えると、

うすっぺらで中身を何ももっていない人

と考えることもできるかもしれません。


社内を見渡してみて人間グーグルみたいな人はいるでしょうか? 何か社内の情報を知りたいと思った時に、期待以上の知恵とアイデアを提供してくれる人はいないでしょうか?もちろん社内に限らず、今までの付き合いのある人の中で、この人に聞いてみれば何か教えてくれそうだという人はいるでしょう。


検索をするという意味で、“ググる(ぐぐる)”【Yahoo!辞書参照】という人が増えてきています。人間グーグルという意味においては、できるだけ多くの人から“ググられる”ようになれば、多くの人がその人にアクセスし、より有益な情報が多く集まることになるでしょう。多くの情報が集まれば、必然的に人に影響を与え、そして魅力的な人間になることができるのかもしれません。


Webの世界においては、ご存知のようにgoogleが大きな影響をもっています。Web2.0時代の代表的企業と言われるgoogleのビジネスモデルを人間に置き換え、人間グーグルの魅力を少し考えていきたいと思っています。

2007年8月28日火曜日

米ヤフー、「Yahoo Mail」新版を正式公開

 Yahooは米国時間8月27日、「Yahoo Mail」の新版を正式公開した。新版では、携帯電話にテキストメッセージを送信できるなど、優れた機能が加わった。ウェブメールサービスがこのような機能を無料で提供するのは初めてのことだ。

 Yahoo Mailページの上部にあるボタンをクリックするとメニューが現れ、電子メールの送信、インスタントメッセンジャー(IM)でチャット、テキストメッセージ(SMS)の送信を選択できる。テキストを送信するには、相手の名前と携帯電話の番号を入力すればいい。メッセージの内容は、Yahoo Mailのウィンドウで、自分のアバターの隣にある吹き出しに表示される。メッセージを受け取った相手は、携帯電話のテキスト送信機能を使って返信が可能だ。

 この機能は、連絡を取りたい相手がオンラインになっていないが、おそらく携帯電話は持ち歩いているはずだというときに便利だ。また、SMSが苦手な人々も関心を持つだろう。

 新しいYahoo Mailにはこのほかにも新たなショートカット機能が追加されており、連絡先をアドレスブックに追加したり、住所を地図上で確認したり、イベントをカレンダーに追加したり、ある言葉について検索を行ったりといった操作が簡単にできる。メール本文内で青い下線のついた言葉があれば、そこにカーソルを合わせて右クリックすると、このショートカット機能を利用できる。

 さらに、「Yahoo Mail」と「Yahoo Messenger」のユーザーだけでなく、「Windows Live Messenger」のユーザーにもIMの送信が可能になった。

 正式公開版はベータ版のときよりも高速になり、6色の中から1色を選んでインターフェースをカスタマイズできる。また、メール検索機能も向上し、送信者、フォルダ、日付、添付ファイルの種類、メッセージの状態などで検索できるようになった。

 残念ながら、Yahoo Mailにログインしたときに表示される最初のページは以前のままで、メールを読むにはそのページにあるさまざまなリンクの中から「受信箱」をクリックしなければならない。有料メールサービス「Yahoo Mail Plus」を利用している会員は、直接受信箱を開くことが可能だ。

 Yahoo Mail担当バイスプレジデントのJohn Kremer氏によると、Yahoo Mailの新版は、今後6週間以内に各国語版が正式公開されるという。

2007年8月27日月曜日

モバイル・コンテンツとコマース市場は2010年に2.4兆円に

 「2010年におけるモバイル・コンテンツとモバイル・コマース(モバイル上位レイヤー)の経済波及効果は、06年の4倍の2.4兆円に成長する」。これは、情報通信総合研究所がNTTドコモの委託を受けて実施したモバイル上位レイヤーに関する調査・研究の結果をまとめたものである。調査レポートのタイトルは「携帯電話サービス普及による日本経済への波及効果」。携帯電話機の加入者は頭打ちになるものの、上位の市場拡大は続くというのが同レポートの結論だ。

 このうち、情報総合研究所が特に急増を見込んでいるのが、書籍や化粧品を中心とするモバイル・コマース市場。06年では2378億円だったが、2010年には6.3倍の1兆4870億円まで拡大すると予測する。

 一方、モバイル・コンテンツは、06年の3801億円から2010年には9225億円に達するとした。中心はモバイル・ゲームで、モバイル・コンテンツ全体のうち3581億円を占める。モバイル広告については06年の390億円から、2010年には791億円になるとみる。


 レポートでは、雇用創出効果にも言及している。それによると、2010年に33万2000人の雇用を生み出すと予測している。ちなみに、06年には8万2000人規模という。

 雇用の内訳では、モバイル・コマースが大きく、06年の3万6000人から2010年には22万2000人まで拡大する。ただし、成長の中心は、労働集約的産業の食品・飲料と衣類・アクセサリーだという。モバイル・コンテンツ分野の雇用は、06年の4万5000人から2010年には11万人まで成長すると見込んでいる。

2007年8月25日土曜日

Google,Yahoo!,MSNへの質問

San Jose(サンノゼ)で開催されている、SES(Search Engine Strategies 2007、サーチエンジン ストラテジー 2007)は、大いに盛り上がっています。

23日には、Google(グーグル)、Yahoo! Search(ヤフー! サーチ)、Microsoft(MSN)、Ask.comという4大サーチエンジンの社員がパネリストとして、プレゼンテーションしました。

そして、Q&Aの時間が設けられ、聴衆の「上位ランキング」「確実なインデックス」といった質問に関して、回答しました。


ウェブマスターにとって、サーチエンジン企業から直接、SEOに関する疑問に答えてもらえることはめったにない機会です。

いくつかピックアップして、解説します。

Q:
(Googleに対しての質問)検索結果ページで、補足結果(Supplemental results)の表示がなくなったが、Webmaster Central(ウェブマスターセントラル)で、確認することができるようになるか?

A:
補足結果は、ペナルティではないけれども、補足結果かどうかを確認できるようになるかどうかについてははっきりとはしていない。

※モデレータ(司会者)が、Google同様に、Yahoo!もMSNもAsk.comも、メインインデックスとサブインデックスの2階層の検索結果システムをとっていることを補いました。

Q:
より頻繁にクローリングさせるには?

A:
(Googleの回答)Webmaster Toolsの機能を利用し、サイトマップを最新の状態に保っておく。トップページに新しいコンテンツへのリンクを貼っておく。

Q:
サーチエンジンは、JavaScriptやAJAXなどをどのように解釈するか?

A:
(Microsoftの回答)今のところ、サーチエンジンのプログラムは、JavaScriptやAJAXを理解できない。

Q:
(Yahoo!に対して)ヤフーのランキングについて、3週間圏外に消えたかと思うと、また戻ってくる。これはアップデートが原因か?

A:
その可能性はある。問題があるようなら、Yahoo! Site Explorer(ヤフー サイトエクスプローラ)を使うことを推奨する。

Q:
サーチエンジンは、1ページにつきいくつのリンクをクロールできるか? 多すぎるのはどのくらいか?

A:
(Ask.comの回答)明確な基準はない。ただ、ユーザーの視点から考えることが重要だ。(Microsoftも同様の見解)

※Googleのウェブマスター向けガイドラインでは、「リンクが 100 以上ある場合は、サイトマップを複数のページに分けます」と記述されているます。しかし、これはクローリングの効率や、ウェブサーバーにかかる負荷、ユーザーの見やすさの問題であって、100以上だとスパム扱いされるわけではありません。

Q:
サーチエンジンは、META Descriptionタグの記述内容を使っているのか?

A:
すべてのサーチエンジンは、関連性があるとアルゴリズムが解釈したときには、META Descriptionタグの情報を考慮に入れる。

Q:
META Keywordタグは、いまだにランキングに関係があるのか?

A:
・Micofsoft ⇒ 関係なし
・Google ⇒ ほとんど関係なし
・Yahoo ⇒ ほとんど関係なし
・Ask ⇒ ほとんど関係なし

※非常に稀なキーワードで、メタタグにしか出現せず、他のどのウェブページにも見当たらないような場合は、YahooとAskは、META Keywordタグにもとづいて検索結果に表示するとのことです。

Q:
検索エンジンは、自動投稿ツールや自動ランキングツールをどのように扱うか?

A:
(Googleが回答)そういうツールは、使ってはいけない。

※そりゃそうですね。サーチエンジンが、認めるはずがありません。(笑)

検索順位を上げるために、自分のサイトへのリンクがあるページをGoogleにクロール(登録)させてもよいでしょうか?

あるページAが自分のサイト内のページBにリンクを張っていても、リンクとして評価されるためにはリンク元であるページAが検索エンジンに登録されていなければいけません。実際、「リンクを張っていても検索エンジン未登録のページ」は数多く存在しますので、評価を上げたいB側としては、これらを検索エンジンに登録して順位を上げるための一助としたいはずです。

これは手法とモラルの観点から考えるべき問題です。たとえば、サイト上でページAを紹介しつつリンクを張ることで、検索エンジンへ登録されやすくすること自体は悪いとはいえないでしょう。とはいえ、勝手にディレクトリ型検索エンジンに申請するのはモラル上問題があるでしょう。

Googleの“URLの登録と更新”フォームから登録申請するのは、「明確なクロール拒否の設定を行っていないなら検索エンジンがクロールしても問題ない」という検索会社側のロジックに従って申請してもよいでしょうし、「他人のサイト情報を勝手に第3者のサイトに送信するのはよくない」と考えるならば、やるべきでないともいえます。

SEOの観点からは「未登録のページは登録されていたほうがいい」ので、後は皆さんの判断で問題がない方法を選択すればよいと思います。ちなみに、私はこうしたサイトをみつけた場合、記事にトラックバックしたり、掲示板やメールなどで未登録であることを伝えたりしています。

2007年8月23日木曜日

iPhone効果? Google、モバイル検索の利用が急増

コンピュータの電源を切った後、携帯電話から再びGoogleサービスにサインインするユーザーが増えているようだ。

 米Googleのモバイルサービスの利用が5月以来急増しており、夏の間は通常コンピュータからの利用が落ち込むものだが、今年は初めて、そうした落ち込みが一部相殺されたという。同社幹部が22日、そう語った。

 「携帯端末からの利用が拡大している」とGoogleの検索製品および利便性の向上担当副社長マリッサ・メイヤー氏はシリコンバレーで開催されたWebマーケティングのカンファレンスで語っている。

 同氏によると、今年は5月から6月にかけて、Googleの地図・メール・検索などのモバイルサービスへの携帯電話やワイヤレス携帯デバイスからのトラフィックが35%増加しており、携帯電話からのトラフィックもコンピュータからのトラフィックも減少した前年と大きく異なる結果となっている。

 「待望されていたAppleのインターネット対応携帯電話iPhoneが今年6月に米国でリリースされたことで、携帯電話からのGoogle Mapsの利用が40~50%増加した」とメイヤー氏は続けている。

 Google MapsはiPhoneで利用できる幾つかのアプリケーションの1つだ。

 今年の夏の数カ月間は、全体的な検索トラフィックが急増したあと減少しているが、モバイル端末からのトラフィックは8月に入っても活発な状態が続いている。北半球のコンピュータユーザーが休暇を取る影響で、例年は5月から6月にかけてトラフィックは20~40%減少する。

 「これはある意味、人々が携帯端末をうまく使いこなせるようになってきていることの証であり、またコンピュータから離れている間もWebにアクセスできる優れた端末が提供されるようになってきたことの証でもある」とメイヤー氏はサンノゼで開催されたSearch Engine Strategies Conferenceでマーケティング担当者向けのプレゼンテーションを行った後、記者らに対し、語っている。

 「技術曲線が追い付きつつある。携帯電話の品質も高くなっている」と同氏。

 コンピュータベースの何億人ものGoogleユーザーと比べれば、Googleのモバイル検索サービスの利用者はまだ少数だが、こうしたトラフィックの増加はモバイルインターネットがユーザーに徐々に浸透しつつあることの表れだ、とメイヤー氏は言う。

 Googleでは毎日数千万件のモバイル検索が実行されているが、これは、コンピュータでGoogleサービスが毎日何十億件も実行されているのに比べると雲泥の差だ。

 これまでのところ、Googleのサービスは主に高価格帯のスマートフォンでの使用が想定されている。音声通話やテキストメッセージに使われる大衆市場向けの通常の携帯電話と比べて、スマートフォンはブラウザが高速で画面も大きい。

 メイヤー氏によると、社内のトラフィックデータから判断するに、コンピュータの電源を切った後、携帯電話から再びGoogleサービスにサインインするユーザーが徐々に増加しているという。

 ただし、Googleのモバイルトラフィックは今のところ主に米国ユーザーによるものだ。これは、国内市場である米国において、より広範なサービスが提供されている影響だろう。例えば、Google Mapsでは、米国の30以上の都市について詳細なリアルタイムの交通情報マップが提供されている。

 メイヤー氏によると、日本と欧州でもGmailやモバイル検索などのGoogleサービスの需要が高まっている。

 米国の学校が新学期に入り、社会人も休暇から仕事に戻り始めるなか、今週はGoogleサービス全体の利用が再び増加に転じている。

ヤフー(YST)の更新 - クロール、インデックス、順位付けシステム変更

Yahoo!が、クロール、インデックス、およびランキングシステムをアップデートしていることに気付いたかもしれない。これはウェブマスターにとってかなり重要なものである。

今回のアップデートでは、ここ数日クロールの巡回を抑えているが、それに気付いたかもしれない。

Yahoo! Site ExplorerでダイナミックURLをサポートすることを昨日発表しているが、新しいクローラは、これに対応するものである。さらにサーバ負荷を抑える巡回も試みているところだ。

今回の更新でも、インデックスのみならず「ranking systems」つまり順位付けのルールがアップデートされたことが告げられている。

現に、いくつかのサイト・キーワードで順位変動が起こっていることを確認している。

さらに、Yahoo! Inc.も新CEOの元かなりやる気を出しているようで、ダイナミックURLをサポートし、そのためにクロールもアップデートしたようだ。

2007年8月22日水曜日

Google Mapsの新機能,地図をサイトやブログに組み込める

 米Googleは米国時間8月21日に,地図情報サービス「Google Maps」の新機能を明らかにした。APIやJava Scriptの知識が無くても簡単に地図をWebサイトやブログに組み込めるという。

 ユーザーは,組み込みたい地図をGoogle Mapsで表示し,「Link to this page(このページをリンク)」をクリックする。HTMLコードを埋め込むための‘スニペット’が表示されるので,これをコピーして自身のWebサイトやブログにペーストする。組み込んだ地図は,ドラッグやズームが行えるほか,地図/航空写真/地図+写真のモード切替も可能。

 同機能は,米国,英国,カナダ,オーストラリア,日本,フランス,イタリア,ドイツ,スペイン,オランダ,ベルギー,デンマーク,フィンランド,ノルウェー,スウェーデン,ロシアですでに提供を開始している。

2007年8月21日火曜日

Web 2.0 Analytics - Google Analyticsよりも優れたアクセス解析ツール

Google Analyticsは、グーグルが無償で提供しているアクセス解析ツールです。

無償とはいえ、その高機能・多機能な特徴で使っているウェブマスターも多いことでしょう。
この海外SEO情報ブログでも、アクセス解析には、Google Analyticsを利用しています。


このGoogle Analyticsの対抗馬として、注目を浴びているアクセス解析ツールがあります。

それは、Clicky Web Analytics 2.0(クリッキー ウェブ アナリティクス 2.0)というアクセス解析のためのサービスです。

さっそく、この海外SEO情報ブログにも、Web Analytics 2.0を設置してみました。

「インターフェイス(画面)が見やすい」(クリックでスクリーンショット表示)と、「リアルタイム更新」の2つが、Google Analyticsよりも優れている、という感想を持ちました。

特にWeb Analytics 2.0がリアルタイムにデータを更新してくれるのは、Google Anaylitcsと比べて、いちばんのメリットかもしれません。

Google Analyticsは、多機能・高機能な反面、項目が多すぎてデータの見方が難しく感じることもあります。
その点、Web Analytics 2.0は直感的に理解できる分かりやす管理画面になっています。

その他に、各ユーザーの細かなアクションを追跡することもできます。
どうやって訪問してきて、どのページを何分見て、どのリンクをクリックしたか、まで追いかけます。
内部リンク、アウトバウンドリンク(外部リンク)のクリック数の調査、ダウンロード計測も可能です。

Web Analytics 2.0は、Google Anaylitcsが備えていない機能をそろえているというのもウリなようです。

ただし、欠点もあります。

「すべての機能は有料版でないと利用できない」ことと、「指定した期間にわたってのログ解析ができない」ことです。

あとは、Goolge Adwordsを利用している人は、アドワーズとの連動も当然できません。

ちなみに、Web Analytics 2.0はユーザーのロケーション表示に、「Google Maps(グーグルマップ)」を利用しているのが、笑えます。(~~;

Google AnalyticsとWeb Analytics 2.0の併用で、お互いの欠点を補完しあうのが賢い使い方かもしれません。

設定方法は、簡単です。
登録して、アクセス解析のためのコードを貼り付けるだけです。
WordPressを使っている場合は、専用のプラグインがあります。

Google Analyticsと違い、英語だけになってしまいますが挑戦してみてはいかがでしょうか。

2007年8月20日月曜日

1年以内に買収と5社へ投資、Google 中国が急拡大路線

「今後1年以内に Google 中国は、1社-2社の買収と4社-5社への投資を実行する」Google (中国名:谷歌)中国の李開復総裁は15日、上海でこう発表した。

同社は現在、資本買収、一括配布、ポータルサイトの連盟などによって中国国内での実力を高め、急速な拡大路線を歩んでいる。

李総裁は、「Google 中国は今後、高速路線に切り替え、投資や買収のスピードを更に加速していくつもりだ。」と述べた。

米国 Google 本社は、15日から無料視聴番組への全面的な広告展開を行うと発表。李総裁は、「ネット広告はまだ手探りの段階。同社は今のところ、中国におけるネット広告のタイムテーブルはない」と説明。

Google 中国は、上海に中国工程研究院という研究開発機関を擁し、広告に関する技術の開発や研究を行っている。

無知な顧客と相互理解――SEOビジネスの新たなモデル

SEOの世界は常に急速に移り変わり続けており、どの時点で変化が生じたのかを明確にするのは難しい。いつも何もかもが変化している。ただ、時にはそこら中に著しい違いを見いだし、新たなパラダイムを特定することが必要だと感じる人が現れる。

そこで僕の見解なのだけど、英国有数の携帯電話販売会社Dial-a-Phoneは、SEO顧客の新たなパラダイムだと思う。Dial-a-Phoneでは、オンラインマーケティング部門のリーダーが、SEOに関してかなり広い知識を持っている。複数のSEOプロバイダ(SEO業者)と一緒に仕事をしたことがあって、そのことが良い経験となっているのだろう。しかし、もっと注目すべきなのは、彼が長きにわたり、トップクラスのSEOフォーラムにいくつか参加し、メンバーを続けていることだ。この人は、僕が知る多くのSEO専門家が読んでいるのと同じブログや参考資料を読んでいる。

SEOサービスを受ける顧客が賢くなってきているのは確かで、ここ最近はさらに経験が加わっている。顧客が、始めてSEOのサービスを購入するというのではなく、すでにSEOプロバイダとの交渉経験を持っているケースが増えてきているんだ。そして、Dial-a-Phoneをはじめとする企業は、SEOに関する新しいレベルの知性、SEOとの新しいレベルの関係性を体現しているように見受けられる。

一部のSEO業者にとってSEOに詳しいこうした新しいタイプの会社は、最先端の顧客というだけでは済まない。Dial-a-Phoneのような顧客は、いつ落ちてくるかもしれない鋭い剣の剣先のようなもので、専門家としての経験が不十分なまま市場に参入しようとするSEOプロバイダにとっては、差し迫る不吉な運命を象徴している。

Dial-a-Phoneのオンラインマーケティング部長が、売り込みをかけてくるであろう多くのSEOプロバイダよりもSEOの経験が豊富であることを、僕は事実として知っている。この人は、SEO専門家が仲間として認めてしかるべき人物だといっても過言ではない。彼に電話するSEOの営業担当者には、お気の毒としか言うほかない。たいていの担当者は、SEOについて肝心な知識を欠いたまま、お決まりのセールストークを行うのだろう。

SEOに精通していて厳しい契約を結んでくるというのは、なにもDial-a-Phoneだけではない。このことは、Vintage Tub and BathのAlan Dick氏を知ってもらえばわかると思う。Alanは、メジャーなSEOカンファレンスの常連で、2005年にロンドンで開催されたSESでは、参加者を歓迎してディナーを御馳走してくれた。このディナーは、Danny Sullivan氏、Rand Fishkin氏、Dave Naylor氏などたくさんの参加者が出席し、心地よいおしゃべりにとどまらない有意義なものになった。


リック レバイン他 著/倉骨 彰 訳/日本経済新聞社/ISBN978-453214902-4以前、SEOmozでRandにインタビューを受けたときに、必読書として『Cluetrain Manifesto※Web担編注』に言及するのを忘れていた。実はこのインタビュー自体が、「Cluetrain Manifesto」が重要な本に分類される理由を良く示している。この書物は、顧客が対等な仲間となり、またそのような扱いが必須だという、まさに現在のトレンドを予測している。

SEOに詳しい新しいタイプの顧客が、なぜSEOの代理業者を必要とするのかおわかりだろうか。その答えははっきりしている。SEOサービスを営んでいながらまだ見当がつかない人は、自分が提供しているものに対する認識と理解を改める必要があると言ってもよいだろう。早急に理解すること。さもないと、将来は厳しいかもしれない。

僕が言わんとしている新しいパラダイムにおいて、企業がSEOを外部に委託するのは、必要に迫られてではなく、自らの選択によるものだ。最良のSEOエキスパート、つまり直接雇うことが(経済的にも)難しいような専門家と企業は契約する。企業は専門家や戦略家を求めていて、基本的な部分はすべて社内でカバーする世界だ。

Dial-a-Phoneでは、社内のマーケティングアシスタント2名に、基本的なSEO業務の大部分を担当させている。この2人は、単純だが時間のかかるSEO業務の処理に加えて、重要コンテンツも提供している。Dial-a-Phoneはこの社内リソースを活用し、SEOプロバイダからは戦略および実践の指導を受けただけで、携帯電話の新しいブログ「Mobile Phone Blog」を開設した。

われわれとの最初の会議にも、この社内ITチームが重要参加者として出席した。このチームは、いったんニーズが特定されると、既存のシステムに見られるデータオーバーロードなしで問題情報を提供するための、独自の分析システムの開発に熱心に取り組んだ。ここで繰り返される重要なコンセプトは、チームワークだ。新たなモデルでは、SEOプロバイダと顧客は同じ側にいるだけではない。同じチームの一員となり、チームとして機能する。

個人的には、こうした顧客のことをうれしく思う。顧客とプロバイダがチームとして効果的に機能している場合にのみ、SEOは本当の意味で最高に機能するのだと僕は考えている。どんなサプライチェーンも、全体の強さは最も弱いつながりの部分で決まる。SEOの場合も話は同じで、理解やパフォーマンス管理に弱みを残したために、SEOへの投資を無駄にしている企業を、僕はたくさん見てきた。

「サービスの内容を理解しているから購入する」顧客は、「内容を理解せずに理解の責任をすべて押し付けたくてサービスを購入する」顧客よりも、パートナーとしてずっと強力だ。ビジネスの一般通念に従えば、無知な顧客は依存性が高く、それゆえに固定的な顧客につながる。しかし、オンライン革命の大部分において、ビジネスの一般通念は通用していない。

無知な顧客は、サービスが注目に値するかどうかを判断できない。SEOに関するあらゆるニーズに数分の1の値段で対応するらしい、海外の格安SEOプロバイダから電子メールで提案があったとき、あなたの心からの提案がそれより良いものかどうか、無知な顧客は判断できないんだ。

ただ、無知な顧客もやがては学習する。無知はいつまでもそのままではない。無知とは、プロバイダが行おうとしていることが伝わらない、短期間の状況にすぎないんだ。

以上の理由から、僕は新しい顧客モデルがSEOサービスの新たなパラダイムの到来を告げているのだと固く信じている。相互理解とチームワークに基づいた、顧客とプロバイダの真のパートバーシップは、SEOの将来の規範となる。そして、その将来はもうここにある。

2007年8月16日木曜日

Googleが発見した10の事実

いまさらながら、Googleが発見した10の事実を読みました。Googleの成長のエンジンともいうべき、ミッションステートメントのようなものだと思います。

1. ユーザーに焦点を絞れば、「結果」は自然に付いてくる。
2. 1 つのことを極めて本当にうまくやるのが一番。
3. 遅いより速い方がいい。
4. ウェブでも民主主義は機能する。
5. 情報を探したくなるのは机に座っているときだけではない。
6. 悪事を働かなくても金儲けはできる。
7. 世の中の情報量は絶えず増え続けている。
8. 情報のニーズはすべての国境を越える。
9. スーツがなくても真剣に仕事はできる。
10. すばらしい、では足りない。

最後の項目では「常に期待を超える結果を出す」ということが書かれています。つまり、単に「すばらしいサービス」を生み出すだけでなく、ユーザーの「期待を上回るサービス」を目指すことが、Googleの革新的なサービスの源泉ということなのでしょう。

私たちの日々の仕事のなかでも、単に「いい製品やサービス」を提供することよりも、「お客様の期待を上回る」という点にフォーカスすることが大事な考え方なのかもしれません。お客様と目標や課題を共有し、期待値をマネジメントする「エクスペクテーション・マネジメント」という言葉をふと思い出しました。

2007年8月15日水曜日

検索エンジンの「満足度」、Yahoo!がGoogleを抜いてトップに

ポータル・検索エンジン分野の顧客満足度指数ランキングでは、Yahoo!が5年連続トップのGoogleを抜き、首位に立った。

 顧客満足度の面では、Yahoo!がGoogleを上回る――eビジネス部門の米顧客満足度指数(ACSI)が8月14日、発表された。

 ACSIは、米ミシガン大学が毎年発表しているもの。インターネットポータル/検索エンジンの分野のトップはYahoo!で、満足度指数が2006年の76から79ポイントに改善した。一方、2002年以来5年連続で首位をキープしていたGoogleは2位。満足度指数は、前年よりも3ポイント低い78ポイントだった。

 併せて発表されたPC部門のランキングでは、Appleが今年も首位をキープ。以下、HP(HPブランド)、Gatewayと続いている。

2007年8月14日火曜日

google、検索ワードに応じてニュース検索へのリンク

グーグル、ウェブ検索結果中のニュース記事表示についてUIテストを実施している模様。キーワードによって4件目や10件目にニュース記事へのリンクを表示することを確認できた。

Googleは検索キーワードに合致するニュース記事がある場合、自然検索の最上部(ワンボックス)部分にニュース記事の検索結果を表示している。しかし本日確認したところ、キーワードによって10件目や4件目に表示される場合もある模様だ。例えば、「starsuite」と検索すると4件目にstarsuite関連のニュース記事を、同じく「トラベルステーション」と検索すると10件目に同キーワードを含むニュース記事を表示する(いずれも2007年8月14日 18:30時点で確認済み)。

Googleは最近、YouTubeの動画コンテンツへのリンクをウェブ検索結果中に表示するなど通常ウェブ検索であっても検索キーワードのインテントによってコンテンツを検索結果に混ぜてくるアプローチを進めている。

2007年8月13日月曜日

ランキングが上がらない理由

サイトのSEO対策は完璧なのに、何故かランキングが上がらない・・・。
原因は一体どこにあるのか?リンクの数も十分で、コンテンツも新しく、競合他社に負けないようなキーワードを使っているとしても、考えられる原因は様々だ。

その中でも、Bad neighborhood(バッドネイバーフッド)について考えてみたい。バッドネイバーフッドとは、ポルノ・ギャンブル関係のサイトや、違法行為や不正行為をしてブラックリストに載っているサイト、スパム行為を繰り返すサイト等を指す。また、(順位を上げるために)過度にSEO対策をしているサイトもこれに含まれる。

これらのサイトに対してリンクを張らないようにするために、リンクを張る際には相手先のサイトをきちんと確認しておくことが重要となる。またSEO対策をサービスとして提供する際にも、これらのサイトは避けるのが賢明。こうしたサイトにリンクを張ったがために、リンクを張ったサイトにもペナルティを課される場合があるので注意する。

ランキングを上げるには、自社サイトと関連性のある、良質なサイトを探してリンクを張ること。さらに、良質なサイトからのインバウンドリンクを増やすことが大切だ。

SEOで失敗しないためのリダイレクト設定

リダイレクトの重要性と有効性について概念のみ説明させていただいたが、今回は具体的な手法とSEO上の効果について説明したい。
まず、リダイレクトの手法は大きく2つに分類できる。

クライアントサイドリダイレクト
サーバーサイドリダイレクト


両者の細かな違いについては以下をご確認いただきたい。
クライアントサイドリダイレクトこのリダイレクトを実行するには、htmlファイルに次のような記述を行なえばいい。

<meta equiv="Refresh" content="5; URL=http://○○○">

これは、対象のページへリンクした場合、5秒後に指定した別のページへ移動(リダイレクト)するというものである。
前回の説明でも触れたが、「このサイトは新しいURLへ移転しました。5秒後に自動的にジャンプします。」という文章を目にするのがこの方法だ。
ちなみに、この方法の場合、○秒後に移動させる○秒の部分をできる限り短くすることがSEOにおいては効果的である。
これは、そのページから即座に移動させることで、検索エンジンに移動後のページを重要視させることができ、移動前のページに対する評価をそのまま移動後のページへと引き継げるためである。
逆に、移動までの時間を長くしてしまうと、移動前のページが重要であると認識され、移動後のページは別ページとして認識されてしまう。結果、ポテンシャルは引継がれないことになる。
つまり、現実の商店を新装開店する時に置き換えれば、旧店舗に移転先の案内板だけが立っていれば誰でも店が移転したとわかるが、移転後に旧店舗でも営業をしていて来店者を足止めさせた場合、来店者は移転ではなく本店と支店ができたと勘違いしてしまう。少々例えは乱暴だったかもしれないが、理屈はこれと同じだ。
このリダイレクト方法については、Googleで推奨されている方法ではないため、筆者としては後述するサーバーサイドリダイレクトをおすすめしたい。ただし、推奨こそされていないが、上記のように認識がされることが多いので有効性はあるといえる。
また、確実にユーザーにWebサイトへ訪問してもらおうと考えた場合、移動後のページが表示されるまで長時間ユーザーを待たせることは、ユーザーにストレスを与え、別サイトへユーザーを逃してしまう要因にもなり得る。SEO上の効果だけでなく、そうしたユーザビリティの観点から考えても、即時に移動させることが望ましいだろう。
なお、クライアントサイドのリダイレクトについては、JavaScriptを用いてリダイレクトをさせることも可能である。しかし、検索エンジンはJavaScriptを理解することができない。そのため、ユーザーにとってはページが移動しているように見えても、検索エンジンは移動前のページに止まったままで、移動後のページがどれだけSEO上優れていたとしても評価することができない。
また、結果的に、ユーザーと検索エンジンに対して見せているページ内容が異なることとなり、検索エンジンのガイドラインに反する可能性があるため、JavaScriptによるリダイレクトはおすすめできない。

サーバーサイドリダイレクト

Webサーバーがブラウザからページを要求された際に、要求されたのが特定のページであった場合、それに変わる別のページを返すように設定するのがサーバーサイドリダイレクトである。
この方法では、Webサーバーがリダイレクト後のページを返すため、ユーザーにとっては直接リダイレクト後のページを見ることとなり、クライアントサイドリダイレクトの場合のようなストレスを感じることもなく、自然にページを閲覧することができる。
サーバーサイドでのリダイレクトの場合、大きく分けて2通りの方法が挙げられる。
それは、ブラウザとWebサーバー間のやり取りで交わされる3桁のステータスコードによって分類されるが、「301」と「302」のいずれかで設定するということである。
設定方法については、使用しているWebサーバーによって異なるため、ここではそれぞれの意味を説明するに止めさせていただく。
ステータスコード「301」でのリダイレクトの場合は、ページが「永久的に」移動したことを示すため、移動前のページの評価が移動後のページへ引き継がれる。また、検索結果に表示されるURLも、移動後のものへと変更される。
一方、ステータスコード「302」でのリダイレクトの場合は、ページが「一時的に」移動したことを示すため、あくまでも検索エンジンに認識されるのは移動前のページになる。検索結果の表示URLを見ても、移動前のものとなっている。
サイトの状態によって、どちらの方法を用いるか検討する必要はあるが、一般的なリニューアルでは、ステータスコード「301」を用いてリダイレクトするのが望ましい。
リダイレクト方法について、Yahoo!やGoogleはそれぞれサイト内で推奨するリダイレクト方法を公開しているので、そちらをご参照いただきたい。
・ Yahooサイト管理者向けヘルプhttp://help.yahoo.co.jp/help/jp/search/indexing/indexing-21.html
・ Googleウェブマスター向けヘルプセンターhttp://www.google.co.jp/support/webmasters/bin/answer.py?answer=34464&query=%E3%83%AA%E3%83%80%E3%82%A4%E3%83%AC%E3%82%AF%E3%83%88&topic=&type=

2007年8月12日日曜日

新しい相互リンクのかたち―リンクベイト―

リンクベイト―Link Bait―(またはリンクベイティング)とは、マーケティング手法またはSEO手法の1つで、ユーザーが飛びつくような面白い情報から、逆に議論を巻き起こすような情報まで、被リンクを増やす目的でサイトに掲載する情報またはコンテンツのこと。Baitとは、「餌をまく」という意味で、この場合の餌が情報またはコンテンツであり、それを使ってリンクを誘う(おびき寄せる)ことからリンクベイトと呼ばれる。

相互リンクの歴史

Googleがランキングアルゴリズムの一環として、被リンクを評価し始めた頃から、サイト運営者の間で大量に被リンクが獲得できなくなり、互いにリンクを交換し合う、「相互リンク」が主流になった。

このため、各サイトは相互リンク用のページを設けて、サイト同士でリンクを交換し、被リンク数を増やすという方法を取った。

ところが、当初はリンク数をある程度確保することに重点が置かれていたため、自サイトとは何の関連性もないリンクが大量に張られるといった現象が起きた。そのうちに、無関係のサイトからリンクされるよりも、自サイトと関連のあるサイト(同系のサイト)からリンクされている方が良いとされるようになったが、ユーザーにとって役に立つリンクを張るというよりは、ページランクに有利に働くリンクを張るという傾向が未だに強い。

リンクベイティング到来

リンクベイティングに関しては、SEOmozのオーナーであり管理者でもあるrandfishの記事を参考にして欲しい。記事の中で彼は、大勢のユーザーからリンクを(自サイトに)引き寄せる方法を説明している。リンクしてくれるユーザーは必ずしも、自サイトの商品やサービスに大変な関心を持っている人である必要はないというのも興味深い。

相互リンク獲得が効果を発揮したように、リンクベイティングも当面は有効であると考える。しかし遅かれ早かれ、検索エンジンのリンク分析能力が高度になり、この方法もそれほどの効果が得られなくなる時が来るだろう。

良質なリンクを獲得する方法は、数年前と現在とでは異なる。同じことがリンクベイティングにも言える。リンクベイティングでの真の成功は、ランキングで上位を獲得することではない。ターゲットユーザーがリンクしたいと思うようなサイトにすることである。そうすれば自ずと、被リンクも増えるというものだ。

Google八分を避ける秘訣

Google八分とは、検索エンジン最大手のGoogleのデータベースから自分のWebサイトが登録抹消されることである。(IT用語辞典バイナリより)

自分のサイトがGoogleインデックスから消え、キーワードをいくら入力してもサイトが見つからないというトラブルはよく聞く話だ。原因の1つとしては、過剰なSEO対策が挙げられる。このようなGoogle八分を避けるにはどうしたらよいか?以下で詳しく説明する。

サイトはいつでもアクセス可能な状態にしておく

信頼できるホスティングサービスを利用し、アップタイム(99%以上が望ましい)及びレスポンスタイム(応答時間)を良くすること。さらにRobots.txtファイルをURLのルートに置くようにする。Googleの検索ロボットがサイトに巡回に来ても、アクセスできなければ検索結果からサイトが削除されてしまう可能性があるためである。

コンテンツはサイトテーマに沿っていて、尚且つユニークであること

サイトには他にはないオリジナルコンテンツのみを掲載する。もちろんユーザーにとって有益で面白い内容でなくてはならないし、サイトテーマに沿っている必要がある。検索エンジンではなく、実際の人間(ユーザー)を対象にコンテンツを書くこと。他のサイトからコピーしたコンテンツをサイトに掲載した場合、重複コンテンツと見なされ、Googleインデックスから削除される可能性が高くなる。

スパム行為はしないこと

サイトを宣伝するためとはいえ、スパム行為は絶対にしないこと。でないとGoogleから追放される原因になりかねない。ドアウェイ、隠しテキスト、自動生成ページ、キーワードスタッフィング、クローキング、その他非倫理的なテクニックは厳禁。

リンクポピュラリティーを高める

インバウンドリンクは数が多ければ良いと言うわけではない。リンクの質は大変重要である。どのようなサイトからリンクを張られているかに注意すること。リンクファームやFFAページは利用しない方が良い。自サイトと関連のあるテーマのサイトからのみ、リンクを張ってもらうようにする。スパム目的のフォーラム、ゲストブック、ブログ、コメントは避けること。
アウトバウンドリンクも非常に重要。どのサイトにリンクを張るのかについては注意が必要である。スパムを行うサイトへはリンクを張らない。張ってしまうと最悪の場合、サイトがGoogleから抹消される可能性がある。

サイトマップを作成する

検索ロボットにサイトの全ページをインデックスしてもらえるよう、サイトマップを作成する。サイトマップにはサイト内にある全てのページへのリンクを載せると、検索ロボットはそれを辿ってサイト内のページを隈なくクロールしてくれる。JavaScriptやフラッシュリンクを使用している場合は、同じ内容をテキストでも表示しておくこと。

以上5項目を守れば、まずGoogle八分になる心配はないと考える。

2007年8月10日金曜日

4大検索エンジンのアルゴリズムの違い

長い時間がかかったが、4大検索エンジンがランキングアルゴリズムの点から見てそれぞれ実際にどう異なるのか、だんだんわかり始めてきた。検索エンジンの中でYahoo!は、相変わらず最も秘密主義だ。Googleのますます複雑化するアルゴリズムについては、最もきちんと文書化されてはいるものの、最も理解されていない。

Yahoo!が2003年4月に独自の検索エンジンを使用し始めたとき※1、おそらくAltavistaやAllTheWeb、Inktomiが持つ技術から最高の機能を取り込んだはずだ。Inktomiは、リンクに重きを置いた最初の大手検索エンジンであり、偏りのない純粋なリンク人気に依存していた。また、これは個人的な意見だが、Altavistaの主な強みは、各ページの内容をまとめ、関連テーマごとに集約する能力にあると思う。この点においても、またその他に点に関しても、Altavistaの実験的な投資家向けサイトRaging Bullはとにかく見事だった。

現在のYahoo!の検索エンジンでは、「ウェブページのテキスト、タイトル、(METAタグを用いた)サイトの説明文の正確さ……(中略)関連リンクなど、そのページ独自の特徴」に基づき、ページをランク付けしている。Yahoo!はスタンフォード大学が特許権を持つのPageRankのアルゴリズムにかなりの興味を示していたものの、(大きな規模で)PageRankを実際に使う人はいないという点で、Ask JeevesのApostolos Gerasoulis氏と同じ見解を持っているようだ。

それにも関わらず(1999年にスタンフォード大学から独立した)Googleは、詳細を説明することなくPageRankを実装していると誇らしげに主張している。PageRankとは、ページの重要性やクオリティの静的評価アルゴリズムで、関連性を動的に評価するために用いられる。Googleでは現在、ランキングを決定するために200以上の「信号」を使用していると説明しているが、Googleの技術に関する最初の論文には、検索が行われた時点におけるページ内外の要素を組み合わせて関連性を決定し、結果として得られる(動的な)関連性のスコアを、あらかじめ決定していた静的なPageRankのスコアと統合する、と明記している。

Ask Jeevesは2001年の9月に、検索エンジンのTeomaとそのHITS(現在はExpertRankに改称)アルゴリズムを獲得している。ExpertRankは、1998年にJon Kleinberg氏が提案したオーソリティーとハブの方法論から発想を得たアルゴリズムだ。ExpertRankでは、検索者のクエリに対し関連するコンテンツを動的にグループ化し、そのグループ内の関係を使用して、最も信頼性が高くユーザーのクエリに関連性の深いページを決定するということになっている。

MSNでは2004年7月になって、ようやく現在の人工知能による検索技術を発表した。MSNの検索結果は、Googleの検索結果に影響を及ぼしているのと同じ要素に影響を受けているようだと、多くの人が指摘しているが、MSNでは彼らのシステムが実際にどのように機能しているのかについて、ほとんど口を閉ざしてきた。MSNのサイトオーナーヘルプでは、リンクも考慮に入れると示唆しているものの、それがどの程度でどのような方法によるのか説明していない。

MSNの説明は以下の通りだ。「MSNの検索ランキングアルゴリズムでは、ページのコンテンツ、被リンクの数やリンク元サイトのクオリティ、キーワードに対するウェブサイトのコンテンツの関連性といった要素を分析する」

しかし、2006年5月に、MicrosoftのMatthew Richardson氏とEric Brill氏、およびMSNのAmit Prakash氏が共同で、「PageRankを超えて:静的ランキングためのマシンの学習能力」という論文を発表した。これら3名の著者たちは、コンテンツの静的な(クエリ非依存型の)順序付けによる新しい方法論を提案している。彼らの説明によると、MSNのRankNetは「アルゴリズムを学習するランク付けマシン」だという。この方法論では、ランクを決定するために用いるページごとの特質を、ページ、ドメイン、アンカーテキストと被リンク(アンカー)、(ブラウジングにおける)人気度の4つのカテゴリに分類し、これにPageRankを加えて5つの要素でランク付けを行なうとしている。

アンカー・カテゴリでは、そのページにしか現われない語句の数や、そのページにリンクしているアンカーテキストの総量などを計測する。

ページ・カテゴリでは、そのページ自体(およびページのURL)に注目し、文書本体内の単語数、単語の使用頻度、その他明らかにされていない6つの要素を計測する。

ドメイン・カテゴリでは、1ページあたりの外部リンクの平均数、ドメインごとのPageRankの平均値などを計測する。

人気度カテゴリの計測は、MSNツールバーをもとに導き出す。ツールバーによるデータ収集は何も新しいものではないが、彼らの論文は僕の知る限り、ツールバーによって収集したユーザーの閲覧履歴を検索ランキングのアルゴリズムに取り入れた最初の技術文書だ。すぐに多くの人々がAlexaのトラフィックランキングの存在を指摘するだろうが、トラフィックランキングは検索クエリを実行するために使用されるものではない。また、Googleがユーザーの閲覧データを取得しているだろうと推測している人も多いが、GoogleのMatt Cutts氏は(個人的な意見として)、もしGoogleツールバーがデータを取得したとしても、そのようなデータを使いたいとは思わないと指摘している。

MSNのRankNetは、それがもし本当にMSNが検索結果ランキング決定するために使用しているアルゴリズムなら、いくつかの意味においてユニークなものだ。まず第1に、RankNetでは、文書テキストなど、たくさんの情報源から得た静的データを統合している点だ。ExpertRankでさえ、静的評価のためにそんなことは行っていない。次に、RankNetではPageRankを基準あるいは土台として使用しているということだ。彼らはRankNetがPageRankと同等に機能すると見込んでいるどころか、PageRank以上に正確な静的評価を提供すると主張している。

そして最後に、RankNetでは、ウェブマスターたちが重要だと考えるものだけでなく、ウェブページを見る側が興味を持つものを検討する。RankNetは、ウェブマスター側からの評価(リンク人気やPageRank)と、ページを見る側からの評価(クリック数に対する閲覧状況に関する人気度)の評価を両方とも組み込んだ最初の検索エンジンアルゴリズムだ。MSNの手法は目新しくて革新的だが、もしMSNがツールバーの閲覧データを本当に追跡しているのなら、多数のIPアドレスにわたって人々がツールバーをだますようになるのも(もしまだやっていないのなら)時間の問題だ。こうした不正行為は、DirectHitのクリック数方式に対して実行された。

いずれMSNは、Googleの手法と同程度に、自分の手法も補足的なフィルタリングに依存しなければならないと理解するに至る可能性がある。しかし、GoogleおよびYahoo!がスパムのフィルタリングに関して非常に積極的と思えるのに対して、MSNにスパムフィルタに関する指摘がほとんどない理由については、前述の論文からわかるかもしれない。MSNが十分な市場シェアを獲得し、スパムコミュニティからこの種の詳細な注目を集めるのかどうかは、現時点ではわからない。

こんなに長くなってごめん。でも僕は基本的なアルゴリズムに関して要約し、できるだけ多くの信頼できるリンクを提供したいと思ったんだ。さて、この話について君の感想は?

リンク獲得で良質のディレクトリを判断する10のポイント

1. 選別的か
登録のリクエストがあったサイトの品質や、サイトをディレクトリに入れる価値を、編集者が慎重に検討していて、簡単には登録できない。Yahoo!やDMOZが選別的なディレクトリの良い例だ(ただ、DMOZはえり好みが過剰なことも多く、僕などはかつて、エディタのご機嫌取りが戦略の中心になってしまった。その意味で、DMOZは完璧な選択肢だとは言えない)。ほかに、Nature.comの推奨リンクや、Forbes.comのBest of The Webのように、登録要件がさらに厳しいディレクトリもあるし、Emily Chang氏のeHubやBusiness.comのように、チェックが緩めのディレクトリもある。僕の見方だけど、こうしたディレクトリは総じてそれなりに高い価値を提供する。

2. 検索エンジン用ではなく、人間が使うためのディレクトリか
検索エンジンの順位上昇に役立つことを主目的としたディレクトリは、どんなディレクトリであっても疑ってかからなければならない。リストが人間の訪問者の役に立つように考えられていると、検索エンジンがそのリンクを重視する可能性はずっと高い。そうでない場合、サイトはもともと操作的なものではないという主張が、非常に苦しいものになる。わかりやすい一般的な経験則を挙げてみよう。ディレクトリの所有者がSEO関係のフォーラムやブログやコミュニティで、SEOの顧客に対する売り込みを活発に行っていたら要注意だ。こうしたディレクトリのリンクがすべて質が低いとは言わないけど、危険信号であることは間違いない。

3. 良質なサイトからリンクを獲得しているか
編集者の目から見て、しっかりとしたソースから質の高いリンクをたくさん獲得しているディレクトリは、被リンクがすべて、ディレクトリのリストやSEO中心のコミュニティからのものだったり、購入したリンクやアフィリエイトリンクだったりするディレクトリよりも、はるかに高い価値を持っている可能性が高い。ディレクトリが獲得している被リンクをみる場合、僕は量より質を重視する。ありがたいことに、Yahoo! Site Explorerはより価値の高いリンクを、価値の低いリンクより先に表示してくれる傾向があって(必ずしも価値の高い順ではないけど)、少なくともリンクの価値をざっと把握するのにいくらか役に立つ。

4. 特化しているか一般に、ディレクトリは特化が進むほど価値が高まる。確かに、汎用のディレクトリであってもLibrarian's Internet Indexのようなすばらしいディレクトリもあるので、これが必ずしも真だとは言いきれない。しかし、化学工学分野の企業だけのディレクトリや、環境に優しい旅行先に的を絞ったユニークなディレクトリがあったとしたら、おそらくかなりの価値があると考えられる。

5. 信用度の高いドメイン名上に存在するかディレクトリが独自のドメイン名で作られているとすれば、それは質が低い目印である可能性がある(ここでも、当てはまらないものはたくさんある)。一方、信用度が高く、良い順位を獲得していて、知名度も高いサイトと同じドメイン名にあるディレクトリは、例外なくと言っていいくらい価値をともなっている。

6. 独自に構築したディレクトリか
DMOZのレイアウトや構成のクローンを作るという、よくある製法に従ったディレクトリでは(ODPのディレクトリをそっくりそのまま頂いたあとで、登録でてこ入れをしたとしても)、やはり低い価値しかもたらさない。一方、「ディレクトリ」ソフトウェアを使わずに、最初から最後まで独自に構築した完全に唯一無二のディレクトリというのは、影響力を得る傾向がある。

7. 利用者にとって便利か
自分がインターネット初心者で、関心のあるおもしろいコンテンツを求めてネットサーフィンをしているのだと想像してみよう。そのディレクトリの構成、コンテンツ、リンクはあなたに価値をもたらしているだろうか。「当然!」と自信を持って答えられないならば、そうではないのかもしれない。

8. 質の低いサイトやディレクトリへ手当たり次第にリンクを張っていないか
質の低いスパム的なサイトへリンクを張っているディレクトリというのは、検索エンジンに最も目をつけられやすいものの1つだといえる。検索エンジンにマークされると、そのドメインからの、PageRankやリンクジュースの受け渡しがすぐさまシャットダウンされる。MSNでコマンド「linkfromdomain:ドメイン名」を実行して、そこに挙がった数十ページの項目に目を通してみよう。自分のサイトからはリンクを張らないようなドメインが並んでいたら、そのディレクトリは思ったほどの値打ちがない可能性が高い。

※Web担編注:たとえば「linkfromdomain:impressrd.jp」のようにする。「linkfromdomain:web-tan.forum.impressrd.jp」のようなサブドメインではうまくいかない。
9. 良い検索順位を獲得できているか
サイトが持つリンクの価値を探るものとして、この方法にはいろいろと議論があるらしい。しかし、僕の意見として、また経験からも言うのだけど(どちらも実際のサイトから学んだ)、ページがリンクの価値を(どの程度)渡せるのかを判断する際、ターゲットとしている語句/フレーズでページが獲得できる検索順位よりすぐれた指標は、ないと言える。タイトルタグで良い順位を獲得できなければ、ほぼ間違いなく信用を失っている。タイトルタグで良い順位を獲得していれば、サイトの順位を押し上げるのに役立つページだと考えてまず間違いない。この基準について過去に僕と議論したことのある人で、僕の主張を論破したという証拠を示せる人がいたら、ぜひ示してほしいし、僕が間違っていることがわかったら喜んで訂正する。でもそれまで、僕はあくまでこの主張を堅持する。

10. 実際に見ればそれとわかる
こんな基準はがっかりさせるかも知れないけど、質が低いディレクトリの多くには、鋭いSEO関係者なら「感じ取れる」共通の特徴が確かにいくつかある。たとえば、Bob Mutch氏のディレクトリやAviva Directory、あるいはStrongest Linksなどにアクセスして登録されているものに目を通していると、自分が検索エンジンのエンジニアだとしたら重視するだろうディレクトリなのか、どちらかといえば重視しないディレクトリなのか、第六感がどうしても身に付いてくる。



価値の高いディレクトリの例
僕の言わんとするところをさらによくわかっていただくために、今夜は検索結果ページをいくつか探って、取り上げた基準の例証となるディレクトリを見つけておいた。おそらく価値の高いと思われるディレクトリの例を以下に示そう。

カリフォルニア大学アーバイン校の古典学者向けリソースのディレクトリ

The William & Gayle Cook Music Libraryによるインターネット音楽の国際的なリソース

Refdesk.comのクイックリサーチ・リンク集

ミズーリ植物園の植物学関連リンク集

価値の低いディレクトリの例
続いて、リンクジュースに乏しいのではないかと疑われるディレクトリの例をいくつか挙げておこう(今はリンクジュースを出しているかもしれないけど、この先はどうなるかわからないものだ)。

tenthyear.com

smittyzweb.com

kwikgoblin.com

Yahoo!あるいはGoogleの検索エンジニアの立場になって考えてみてほしい。リンク1つの購入に20~50ドルかかるこうした汎用のディレクトリを、あなたの検索エンジンのアルゴリズムで重視するに足る、もっともな理由が思いつけるだろうか? 質の低いディレクトリのオーナーがよく言う弁解がある。ディレクトリはウェブ上のコンテンツの整理に役立っているというものと(すこし説得力がある)、サイトのオーナーが「高い順位を獲得するために努力する」用意があることをディレクトリが示すというものだ。でも僕に言わせれば、この2つの弁解はいずれも次の見方ほどに説得力がない。それは、こうしたリンクを重視すれば検索結果の質が全般的に下がることになるので、ユーザーはリンクの重要度をきちんと判断している別の良質な検索エンジンに流れてしまう、という見方だ。

Google,検索結果で機能追加


 米Googleは,同社の検索サービス「Google」の検索結果ページに,より新しい情報を見つけやすくする機能を追加した。同社エンジニアリング・マネージャのPeeyush Ranjan氏とソフトウエア・エンジニアのHong Zhang氏が同社公式ブログへの投稿で米国時間8月9日に明らかにしたもの。

 例えば,8月6日に最新の金融情報を得ようと検索した場合,従来では検索結果のURLの横に「Aug 6. 2007」と表示されていた。今後は,「何時間前にGoogleのWebクロールがそのページに気づいたか」を示し,「13 hours ago」などと表示される。

 「インターネットが巨大であることを考えると,常に最新の情報を検索結果に提示するのは至難の業だ。しかし,検索結果の中で最も新しい情報を見つけることはそれほど難しくない。新機能により,ユーザーは検索結果一覧の中から,どれがより新鮮な情報かを簡単に見分けることができる」(両氏)。

2007年8月9日木曜日

新しいドメイン名はSEOに不利

Googleは検索アルゴリズムに「時間」の概念を持っており、新規に取得・開設されたばかりのドメイン(サイト)では検索上位に表示されにくい傾向があります。一般的にこれを「エイジングフィルタ(aging filter)」と呼ぶのですが、これが適用される明確な条件はよくわかっていません。このフィルタが有効な期間はおおよそ3〜6か月間、つまり新規に取得したドメインでウェブサイトを開設した場合、この期間はGoogleの上位に表示されないと考えておいた方がいいでしょう。

Yahoo!にはこうしたフィルタはありませんが、Yahoo!、Google共に古くから存在するウェブサイトが上位に表示されやすい傾向があります。したがって過去に積み重ねたSEO効果を有効に活用したいのであれば、特別な理由がない限りドメインを変更することはおすすめしません。新規にウェブサイトを開設する場合は、早期にドメインだけ取得しておき、空ファイルで構いませんのでアップロードしておき検索エンジンにクロールさせておくのも手です。

グーグル、誤って自社公式ブログをスパムに分類&削除

Google Blogoscopedの記事によると米Googleは今週、自社の公式ブログの1つ「Google Custom Search Blog」をあやまってスパムと分類、削除してしまったとのことだ。


同ブログによると、Googleは公式ブログをスパムに分類、自動通知を行ったが無視されたため削除されたとのこと。同ブログURLには一時、他のユーザによる書き込みが行われたが現在は復旧している。

Googleは今後、他の公式ブログでも同様の問題が発生しないよう対処しているとしている。

Google、リアルタイムにインデックスを更新

米GoogleのMatt Cuttsは2007年8月7日、Googleのインデックス更新頻度を飛躍的に高め、ページ更新から数分後にはブログやニュースが検索可能になったことを明らかにした。


これはサーチエンジン情報館「Googleウェブ検索、リアルタイムに最新ニュースが検索可能に」にて紹介したとおりのもので、一部のニュースサイトやブログは更新数分後にはウェブ検索にヒットするようになったことを示す。Cutts氏は例えば 7時54分にポストされたブログ記事が8時44分にはすでにウェブ検索結果に表示されるケースを紹介している。日本でも同様で、例えば、asahi.comに掲載された「大統領選控える韓国、米と関係改善望む北朝鮮 利害一致」という記事(2007年08月08日12時11分)は同12時46分の時点ですでにGoogleウェブ検索にヒットする。URLの横には「32分前」と該当記事が32分前に更新・公開されたことを示す表示がある。

Googleに限らずかつてウェブ検索のインデックス更新は3~5週間程度の時間がかかることが当たり前だった。近年はブログ/フィード検索がRSSフィードやpingを利用してリアルタイムな検索を実現していたが、クローリング技術やスコアリングを即座に行うインフラが整えたことで、Googleはウェブ検索でのリアルタイムインデックスを可能にした。

リンク生成の極意

リンク生成はSEO対策において非常に重要である。
が、サイトオーナーの中にはリンク生成について十分に理解していなかったり、古い情報に基づいてリンク生成を行っていたりするケースがしばしば見受けられる。リンク生成がきちんと出来ていないと、ランキングに悪影響を及ぼすので、気を付けなければならない。

リンク生成で最も一般的な方法は、「相互リンク」である。Google等の検索エンジンはこのやり方を好まないが、ページランクを上げるのには効果的な方法といえる。が、業種によってはリンクを張り合う相手が十分でない場合もある。

相互リンクをする際、気を付けなければならないことは自分のサイトと関連性のないサイトとの相互リンクを避けることである。これは検索エンジンにサイトをくまなくクロールしてもらえないばかりか、自サイトが検索結果から消されてしまう可能性もある。

また、ページランクの低いサイトとの相互リンクはランキングに良い影響を及ぼさない。が、自サイトに関連性の高い新サイトで、今後ページランクが確実に上がると予想されるサイトとの相互リンクは、例外的に唯一有効な方法といえる。

リンクを購入するのも有効だ。但し、やみくもに購入するのは良くない。必ず自サイトと関連のあるサイトかどうかの確認をすること。質の高いトラフィックが見込めるサイトであれば、思い切ってリンクを購入することをお勧めする。

記事を投稿するのも1つの方法だ。これは非常に効果がある。但し、記事の内容が貧弱にならないよう注意すること。また、記事を書く際にアンカーテキストを利用すること。

この他にもリンク生成の方法は多々あるが、以上の3つが最も一般的なやり方である。リンクは「量より質」が大切。またリンクの質だけでなく、コンテンツ・ページ・リンク先ページの質にも気を配ること。

2007年8月8日水曜日

偽PageRankを売りつける業者

米WebmasterWorldのフォーラムに偽PageRankがついたドメイン販売者に注意するよう警告するコメントが投稿されている。


この業者はオークションサイトeBayにてPageRank7と200のバックリンクを持ったドメインを販売。通常のドメインであれば数千~数万円単位で取引されるが、PageRankが高いことからSEO的価値が生まれ、より高い値段で売り飛ばしている。しかし販売されたドメインのPageRankは偽装されているため、購入数ヵ月後にはゼロに戻ってしまうわけだ。

この手口は次の通り。業者は本当に「PageRankとバックリンクを持つドメイン(ドメインP)」を持っているが、301リダイレクトで販売したいドメインに転送する(ドメインX)。リダイレクトすることでドメインPのPageRankとバックリンクがドメインXに移されるため、この時点でドメインXは見かけ上、PageRankとバックリンクを持つ。

しかし売却後にPからXへの転送を解除してしまうため、次回の更新のタイミングでゼロに戻ってしまう。業者はこの作業を繰り返すことで、次々とドメインを高値で売却していくことができるというわけだ。

これは購入対象となるドメインを文字列として検索して調査すれば回避可能。国内でも「PageRank 7のサイトからリンクがもらえます!」といって実際はそのPageRankが偽装されてる、なんてのを時々見かけます。

2007年8月7日火曜日

可能なかぎり最高のタイトルタグを作る方法

1、自分のトラフィックをブランド化せよ

どこに行こうとしているのか検索ユーザーに認識させるとともに、再訪問を増やすため、自分のサイトのタイトルもしくはブランド名を、各タイトルタグの頭または最後に配置しよう。この要素を重視する妥当な理由を見つけるのが困難なら、ぜひ思い出してほしいことがある。それは、あらゆる広告調査において、同じ種類の製品で比較した場合、消費者はノーブランド製品やショップブランドの製品よりも、「ブランド」製品により多くのお金を払う傾向があるという結果が出ていること。この理屈を検索結果に当てはめれば、下の方のランクでも、ユーザーは「信頼の置ける」ブランドをクリックすることがわかるだろう。

2、長さを65文字(スペースも含む)までに抑えよう
末尾の言葉が切れ、代わりに「……」となってしまって良い理由は何もない。留意してほしいのは、最近検索エンジンがタイトルの長さについて、変動的だということだ。特にGoogleの場合、現在では場合によって最大70文字まで対応することもある。

3、キーワードを織り込もう
これはわかりきったことのように思えるかもしれない。しかし、自分のキーワード調査において、検索トラフィック獲得のために最も有益なものとわかったものは何でも、タイトルタグに目立つように入れることは重要だ。それらをタイトルタグの頭に置く必要はないが、意味的にも論理的にも注目が集まるようにするべきだろう。

4、関連性があるなら、長い語句に狙いを定めよう
タイトルタグに織り込むキーワードを選択する際、僕はページに関して、正確かつ説明的で、十分に関連性のある語句を、できるだけ多く使用する傾向がある。すなわち、単に「SkiDudes | Skiing Equipment(スキー野郎 | スキー用品)」とするよりも、「SkiDudes | Downhill Skiing Equipment & Accessories(スキー野郎 | 滑降スキー用品およびアクセサリ)」のようなタイトルタグの方が、ずっと有効な可能性がある。こうした、該当ページ関連性があり、大量の検索トラフィックをもたらす追加的な語句を含めることは、ページの価値を高める可能性がある。しかし、「スキー用品」とは別に「スキー用アクセサリ」のランディングページがある場合は、それぞれの語句を組み合わせてタイトルに使うべきじゃない。これをやってしまうと、自分のサイトにあるどちらのページがより関連性が高いのか、検索エンジンに選択を強いることになり、ランキングにおいてキーワードカニバリゼーション(キーワードの共食い効果)が発生してしまうからね。

5、分割記号を使おう
ブランド名と、それ以外の説明的な語句を切り離す際に、僕が好んで用いるのが「|」記号(縦線記号、別名パイプ)だ。矢印代わりの「>」やハイフン「-」を使う人もいるし、両方使っても良い。個人的には、矢印またはハイフンをタイトルタグの途中で使用するのが有効と感じることが、たまにある。たとえば「SEOmoz | Articles > Keyword Research - A Beginner's Guide(SEOmoz | 記事 > キーワード調査 - 初心者ガイド)」のような感じ。そんなわけで、僕は縦線記号が好きなんだ。

6、クリックスルー率とコンバージョン率に注目しよう
タイトルタグを考える作業は、検索連動広告を実施する際に行うことになる広告タイトル作成作業にひどく似ているけれど、統計情報が簡単に手に入らないため、効果を測定したり改善するのが難しい。しかし、週ごとの検索規模が比較的安定している分野ならば、タイトルタグで多少のテストを行い、クリックスルー率(CTR)を上げることができる。自分の分析結果を観察し、もし納得できるものだったら、該当のページについて検索連動広告も購入してみよう。たとえ1、2週間だとしても、長い目で見れば大きな違いが出てくるかもしれない。ここで忠告だが、CTRだけに力を入れすぎないよう気をつけよう。コンバージョン率(CVR)にも目を配るように。MindValley Labsが示す通り、高いコンバージョン率を得るには、時にCTRが低い方がより良い選択肢になることもある。

7、検索ユーザーの意図を絞り込め
ウェブページのタイトルを作成する場合、自分のサイトに到達する際に訪問者たちが使った検索キーワードに留意すること。もし検索ユーザーの目的が、閲覧や調査が中心の場合は、より説明的なタイトルタグが適切だ。そして、もし検索ユーザーの目的が、購入やダウンロードといった行動に違いないと信じるに足る根拠があれば、自分のサイトでそれらを実行できるんだと、タイトルで明確に示そう。たとえば、「SkiDudes | View Snowboard Sizing Chart(スキー野郎 | スノーボードのサイズ一覧)」あるいは「SkiDudes | Buy Discount Snoqualmie Pass Lift Tickets(スキー野郎 | スノークォルミー峠越えリフトのチケット購入)」といった具合に。

8、一貫性を保て
自分のサイトの特定部分や特定範囲について、上手い形式をいったん定めたら、その形を崩さないこと。検索結果において、信用のある成功した「ブランド」になるにつれ、ユーザーはある主題領域に関して、君のページを捜し求め、君が要求を満たしてくれるはずだと期待を抱くようになることが分かるだろう。

9、タイトルをヘッドラインにも使おう各ページのH1見出しにもタイトルタグの文言を再利用することは、キーワードの絞り込みと、ユーザー体験向上の両方からみて、有効打になり得る。検索結果からあるページに訪れたユーザーは、彼らがクリックしたタイトルが内容に即していることを期待しているわけで、君がその義務を負うんだ。ユーザーは、彼らの意図した目的やクエリに無理なく一致するページに、長くとどまる可能性が高い。

SEO初心者のための被リンク戦略

SEOコミュニティーにおいて、2007年のキーワードは間違いなくリンクベイトであろう。
理由は非常に単純で、著名なサーチエンジンにおいて、被リンクは重要なSEOファクターだからだ。
SEOの戦略としてどのように被リンクを獲得していくかについて考える際の参考に、リンクのパターンについての分析と被リンクの分析の際に問うべき質問項目を紹介しよう。


4つのリンクのパターンについて

リンクには、おおよそ4つのパターンしかなくその内2つがSEOにおいて重要視されるパターンである。
まずはリンクのパターンについて説明しよう。

1つ目は、なんの理由もないリンク。
優れたブログエンジンによって、誰もが簡単にウェブサイトを持てるようになった昨今、より気軽に、なんの理由もなくリンクをする、検索結果に出ていたx番目のサイトにリンクを貼ってみる。そんなリンクがこれ。

2つ目は、友達や親類、仕事仲間からのリンク
1つ目と非常に似ているが、こちらは見知った人達からのリンク。
リンクを貼ったサイトにはとくに興味がないが、とりあえず付き合いで貼っている、そんなリンクがこれ。

3つ目は、引用のリンク
記事を書く際の補強や、説明のために引用する際、リンクを貼るリンク。
引用の仕方に関わらず、また引用された側のサイトの権威にも関係なく、サーチエンジンはこれらのリンクを多くの場合、権威ウェブコンテンツとして判断する。

4つ目は、プロモーション・リンク
広告などのプロモーションではなく、本当にどんなことをしてでも共有したいリンク。
4つのパターンの中でもっとも数少ないパターンでもあるリンク。

ここまで書けばきっと想像がついただろう。3つ目と4つ目がSEOにおいて重要視されるリンクパターンだ。

リンクベイトとは、ほとんどの場合この3つ目を強化する手法である。
4つ目は優れたサービスや機能を提供し、かつ効果的なマーケティングによりおそらく、それでもおそらく、獲得できる種類のリンクである。

被リンクの分析に必要な6つの質問

被リンクは重要ではあるが、その数が重要なのではなく、質。
被リンク戦略を考える際、念頭に置いておくべき質問を紹介しよう。

どこからリンクがされているのか?
それらのリンクはページのどこに配置されているか?
それらのリンクはどのくらいの期間貼られているか?
だれがそのリンクを貼ったのか?
なぜそのリンクを貼られたのか?
どのサーチエンジンがそのリンクをカウントしているか?
これらの質問に答えることが出来れば、質のいい被リンク、SEOにおいて価値のあるリンクがどのくらいあるのか知ることになるだろう。

被リンクの数でしか、SEOできないのであれば、それはSEOとは言えない。
百万の被リンクがあっても、コンテンツがなければ成立しないからだ。

2007年8月6日月曜日

Googleに挑戦? Wikipedia創設者の検索プロジェクト

 Wikipedia創設者のJimmy Wales氏が、進行中の新プロジェクト「Search Wikia」の概要を発表した。これまで情報が少なく、進行状況はあまり知られていなかったSearch Wikiaだが、新たに分散型技術を取得したことを発表するなど、形が見え始めている。Wales氏は「Wikipediaが百科事典の世界で革命を起こしたように、検索エンジンの世界で革命を起こす」と鼻息も荒い。

 Search Wikiaは、Wales氏が共同設立した営利組織Wikiaのプロジェクトとして、2006年12月に発表された。今回、7月23日~27日に米ポートランドで開催された“OSCON”こと、「O'Reilly Open Source Convention 2007」の基調講演で、Wales氏は分散型検索技術「Grub」を取得したことを発表するとともに、Search Wikiaのビジョンを語った。

 Search Wikiaは、「透明性」「コラボレーション」「クオリティ」「プライバシー」の4つの根本方針を持っている。アルゴリズムではカバーできない人間の知を重要な要素に、オープンソースの検索プロトコルと人間のコラボレーションを土台とする。Wikiaはすでに、同プロジェクトを統括する責任者として、XMPP(Extensible Messaging and Presence Protocol)の開発者であるJeremy Miller氏を引き入れている。Miller氏は、オープンソースのIMアプリケーション「Jabber」の開発元であるJabber Software Foundationを立ち上げたことでも知られる。

 プロジェクト発足から半年あまり、Wikiaは今回、プロジェクトの強化のため、米LookSmartからGrubを取得した。Grubは一般ユーザーのPCの使われていない処理能力を利用する分散型クローラーである。オープンソースプロジェクトとして誕生したが、LookSmartに買い取られたことでクローズド状態となっていた。Wikiaはこれを取得して、7月27日、Grubのソースコードを4年ぶりにオープンソースとして公開。開発者に参加を呼びかけた。

 Grubの取得によってSearch Wikiaは大きく前進するとWales氏は言う。GrubはSearch Wikiaの重要な要素となりそうだ。だが、Search Wikiaが世界中に分散したGrubクライアントをどのように利用するのかなどの詳細についてはまだ明らかになっていない。

 OSCONでのWales氏のスピーチによると、Search Wikiaは“検索分野のLAMP(Linux、Apache HTTP Server、MySQL、Perl/PHP/Python)”を目指しており、オープンソース検索技術の「Apache Lucerne」などオープンソース技術をベースとしたものになるようだ。

 Search Wikiaは当初、Wikiaの検索エンジンとして利用されるが、Wales氏はさらに大きな野望を抱いているようだ。Red Herring誌などによると、Wales氏は、「今後、他のWebサイトや中小規模企業が利用できるレベルを目指す」と述べている。

 「Google」の圧勝で勝負が決まったかのように見える検索エンジン分野だが、Wales氏がSearch Wikiaで狙うものは何なのか―? プロジェクトの目標は単なる技術の競い合いではなさそうだ。

 Wales氏はOSCONの基調講演とメーリングリストで「Wikipediaが政治的なミッションであるのと同様に、(Search Wikiaも)政治的なミッションだ」と語っている。「検索はインターネットにとって重要なインフラの一部であり、他のインフラの多くがフリーであるのと同じようにフリーであるべきだ。Web検索システムに関連した編集審査を明確にすべきだ」(Wales氏)というのである。

 これは、Search Wikiaの4つの方針の「透明性」にあたる部分である。米Googleや米Yahoo!などが提供する検索エンジンはプロプライエタリな技術に基づいている。Wales氏は、インターネットのインフラであるからこそ、フリーであること、オープンであることが重要だと考えているようだ。

 もう1つのキーワードは、「コラボレーション/参加」だろう。これは、Wikipedia、Wikiaを通じて、Wales氏が追求している思想で、ユーザーの参加によって質と量を高めていったWikipediaと同じことを検索で実現しようとしている。

 Wales氏はOSCONの講演で、「検索は、オープンソース開発者が大企業に対抗するチャンス」と語った。だが、メーリングリストでは、Googleとの競合について、「このミッションを“Google対抗”という観点で見るのなら、負けるだろう」とも述べている。

 「なにかクールなものを構築し、その過程を楽しむべきだと思っているだけだ」(Wales氏)。そして、そのための忍耐を参加者に呼びかけている。

 Wales氏は、Wikipediaで人間の知を結集した百科事典を、Wikiaで百科事典にとどまらない図書館を作り上げた。今度のSearch Wikiaでは、フリーアクセスにフォーカスしたものとなる。既存の検索エンジンに対抗するというよりも、インターネットや自由を追求するプロジェクトといえそうだ。

 Search Wikiaは、年内に最初のリリースとなる見込みという。

SEO に役立つキーワード活用法(応用編2)



検索フレーズの特徴・活用
検索フレーズは、検索キーワードと比較すると、当然、検索する訪問者数が少なく、集客効果が低い。しかし、その中でもアクセスされ、サイトの目的達成に繋がる検索フレーズも存在する。更に、「不動産」よりも「東京 不動産」の方が、訪問者が「東京近隣の不動産を探している」といった「訪問者の具体的なニーズ」がわかる。そのため、サイトの目的にマッチした関心の高い訪問者を獲得することができる。(参考:SEO に役立つキーワード活用法)

上述の不動産会社の場合、検索キーワード分析で「不動産+α」が有効であることがわかった。では、不動産を含めたキーワード(プラスα部分)を、検索フレーズ分析で確認してみよう。よりサイトの目的に合ったキーワード(ニーズ)を見つけ出すことで、効果の高いキーワードの厳選になる。




この場合、検索フレーズ分析の結果、訪問者のニーズは「不動産を売りたい」「不動産を借りたい」といった点にあることが分かる。このように、検索フレーズでキーワードの深堀を行うことで、「サイトの目的達成に繋がるキーワードの厳選」や「競合の少ない独自キーワードの発見」が行える。

加えて、検索フレーズ分析では、運営者が想定しないキーワードを確認することもできる。キーワードリストの上位には想定しているキーワードが並ぶが、下位を見てみると思わぬ想定していなかったキーワードが並ぶ場合がある。また、下位に並ぶ検索フレーズの中には、サイトの目的達成に直結するキーワードが眠っている場合があるので、注目していただきたい。

これまでお伝えしたように検索キーワードと検索フレーズは、運営サイトにおけるキーワードの効果を確かめるのに有効である。しかし、アクセス解析は自社サイトのアクセスのみを反映しているため、自社サイトでのアクセスが多くても、選定したキーワードが、大衆に認知されていない場合は、結果として、アクセス数(集客)は伸び悩んでしまう。

そこで、集客力、大衆の目線を意識するためには、キーワードアドバイスツールを利用するのが良い。

キーワードアドバイスツールの活用キーワードアドバイスツールとは、指定したキーワードを含む、キーワードの種類と検索数を教えてくれるものである。

アクセス解析のデータは、解析対象サイトへ訪れた際のキーワードの種類と流入数であるが、キーワードアドバイスツールのデータは、検索エンジンで使用されたキーワードと検索数である。運営するサイトだけでなく、検索エンジンで一般的に検索されるキーワードのデータを確認することができる。

アクセス解析で注目したキーワードが、どのくらい検索されるキーワードであるのか、大衆の認知度を確認すると良い。




また、幅広くキーワードの種類(プラスα部分)を確認することができるため、新しいキーワードを開拓する際にも役立つ。その際は、キーワードアドバイスツールでキーワードを検討し、SEO 対策後に、どのくらいのアクセスがあり、目的を達成したかどうか、効果検証のツールとしてアクセス解析を用いると良い。

SEO に役立つキーワード活用法(応用編1)



前回のコラム「SEO に役立つキーワード活用法(実践編)」では、アクセス解析を使ったキーワード選定法の流れをお伝えした。

1.サイトの目的やページごとのテーマを明確にする
2.運営者が訪問者に期待するキーワードを想定する
3.訪問者が利用するキーワードを確認する

これらの内容を意識して、実際にアクセス解析でキーワードを確認された方がいたならば幸いである。今回は、キーワード活用法に関して、さらに一歩踏み込んだお話をしたい。

■検索キーワードの種類
みなさんが検索エンジンを使用する際、1つの単語で検索されるだろうか。それとも複数の単語で検索されるだろうか。インターネット上には膨大な情報がある。自分の欲しい情報がすぐ見つけられるよう、複数の単語で検索する方は多いのではないだろうか。

現在、検索エンジンの利用数は、単語を「単数」「複数」で検索を行う人の割合は、それぞれ50%ずつという調査結果も出ている。

検索エンジンでは、当然「単数」と「複数」では、得られる情報が異なってくる。そのため、SEO を行う際も「単数」と「複数」によって競合となるサイトも変わってくる。この点、アクセス解析の種類によっては、「単数」と「複数」データを別に統計し、傾向を示唆してくれるものがある。今回は、検索キーワードの種類「単数」と「複数」について、それぞれの特徴と SEO に向けた活用法を紹介したい。

■アクセス解析での「単数」と「複数」キーワード
アクセス解析の場合、検索エンジンで使用する単語「単数」を「検索キーワード」、「複数」を「検索フレーズ」などと呼ぶ。検索フレーズ分析では、複数の単語を使用した場合、キーワードを単数に分けて統計する。

例)「アクセス解析 キーワード」で検索してサイトを訪問した場合
・検索キーワード分析:「アクセス解析」1件、「キーワード」1件の流入
・検索フレーズ分析:「アクセス解析 キーワード」1件の流入




それでは、アクセス解析の検索キーワード・検索フレーズの特徴・活用法を述べていく。

■検索キーワードの特徴・活用
まず、検索キーワードを考えてみよう。不動産会社の場合、検索パターンとしては、「不動産」「土地」「住宅」など、様々な検索キーワードが考えられる。




検索キーワード分析を見た際に、検索結果の上位が「不動産」ならば、訪問者は「不動産+α」で多く検索しているといえる。この場合、「不動産」を含めたキーワード(不動産+α)が SEO に有効な一手であることがわかる。

つまり、検索キーワードは、SEOを行う際に「どのキーワードを中心としたら良いか」を考えるキーワードの選定に役立つ。しかし、「不動産」というキーワードが分かっても、単数のキーワードのみで SEO を行う場合は、以下のようなデメリットがある。

・キーワードの種類は膨大となるが、多数のキーワードに対して SEO 対策を実施すると、1ページ内の1単語ごとの比率が下がっていく。その結果、SEO 効果が下がる。
・キーワードごとに SEO を行う必要が出てくるので、SEO の手間やコストも倍増する。
・大衆に認知されている単語は、SEO 効果を狙う競合が多いため、上位表示が難しい。 など

では、どうしたらよいのだろうか。そこで、解決するための次のステップとして「キーワードの深堀=中心としたキーワード+αの検索フレーズの発掘」が必要となる。

2007年8月5日日曜日

SEOとユーザビリティ

3クリックルール

ウェブユーザビリティにおいてもっとも古いルールの1つであるこのルールは、実はSEOにおいても大切なルールでもある。

3クリックルールとは、どのページを訪問してもほかのサイト上のどのページにも3クリック以内にたどり着けるようにするべき、というルールである。
一見すると簡単に思えるが、その実、サイトが巨大化すればするほど困難になっていく。
優れたサイト設計、優れたナビゲーションデザインがあってこそ実現することができる。

ユーザビリティ観点では、カスタマーは目的のページに3クリック以内にたどり着けなければ、ほとんど場合サイトから離脱してしまうためこのルールが重要視されるが、
その3クリックルールとSEOと、どう関係するか?

SEOの基礎を振り返る

サーチエンジンボットにページがクロールされるところからSEOはスタートする。
サーチエンジンボットは外部からのリンクを辿って自分のページを訪問する。サーチエンジンにはURL登録フォームがあるが、登録に時間をかけるより、被リンク戦略に時間をかけた方が有意義だろう。
話がそれたが、このサーチエンジンボットは、訪れたページにあるリンクを探す。
もしクロールされたページが完全な離れ小島のようなページだったら、折角のクロールも無駄になってしまう。

外部からのリンクはSEOにおいて非常に重要視されるが、コントロールすることができない。サイトのどのページがリンクされるかは、わからないわけだ。
外部からのリンクは往々にして、サイト情報構造上の下部ページにリンクはされる。
サーチエンジンもカスタマーもサイトの下部に位置する場所にあるユニークなコンテンツを探しているからだ。

だからこそ、3クリックルールをすべてのコンテンツページに適応することが大切になってくる。
サイトのトップページから全ての下部ページに誘導するトップボトム構造しかもたないというのは、SEOにとって致命的と言えるだろう。
トップページやハブとなるページなどの効率的なナビゲーションをもっとも持たせやすいページに、どのようにサーチエンジンボットを誘導するかが鍵となるのだ。

では、上の文章にあるサーチエンジンボットをユーザー、またはカスタマーと言い替えてみよう。
そう、人もサーチエンジンも同じなのだ。

すべてのカスタマーに使いやすいサイト構築を

ページを訪問するカスタマーをどのように効率よく誘導するか?という観点は、SEOにとってもよい結果をもたらす。
サーチエンジンボットもまたページを訪れるカスタマーなのだ。

SEOとはいかに検索結果の上位に表示させるか? ではなく、いかに効率的に検索結果の上位に表示させるかの技術だ。
Googleのページランク、検索のロングテール化、インデックスされたページ数における優位性、これらの効果を最大化するために、3クリックルールは今すぐにでも見直すべきだろう。

2007年8月4日土曜日

グーグル、「関連検索」を検索結果上部にも表示

Googleが関連検索の表示位置を検索結果画面の上にも表示するようになった。これまでは検索結果の下(10件目の下)だったが、画面上部のアドワーズ広告と自然検索1件目の間にも表示する。


Yahoo!の関連検索は直近でユーザがよく検索する組み合わせキーワードを表示するのに対して、Googleはウェブページで一緒に記述されることが多いキーワードを表示する。例えばSEOと検索するとYahoo!は「seo クリエイティブウェブ、seo対策,yahoo seo、seo tools」を表示するが(2007年8月3日 10:00時点)、Googleは「SEO対策, SEOツール, seo tools, モバイルSEO, SEO キーワード, 携帯 SEO, SEO 無料, seo tool, ブログ SEO, yahoo seo」と表示する。

SEO に役立つキーワード活用法(実践編3)

■ ユーザーが利用するキーワードを確認する
最後に、目的に沿って想定したキーワードが訪問者の利用するキーワードであるかどうかを確認する。

前回のコラムでもお伝えしたが、訪問者が実際に使用したキーワードを確認することは非常に重要なことである。目的達成を想定したキーワードが、実際は訪問者が使わないものであったならば、アクセス数すら集まらず、訴求どころではない。訪問者がより多く使用するキーワードであり、かつ、目的に沿ったキーワードを選定しなければならない。

例えば、Web セミナーの運営会社であれば、有料セミナーのお申し込みが目的となる。ターゲットとしては、「有料の Web セミナーに興味がある」訪問者だ。

訪問者が検索エンジンで「有料 Web セミナー」と入力したなら、自社のページと訪問者の要望は一致し、申込を検討するのではないだろうか。したがって、目的達成のためのキーワードは「有料 Web セミナー」と想定できる。

しかし、実際には、「有料 Web セミナー」での検索はほとんどない。「有料 Web セミナー」と入力するよりも「Web セミナー」というように「有料・無料」を断定しない、広義に意味の取れるようなキーワードで検索する人の方が多い。また、「ウェブ セミナー 費用」などのように運営側では想定できないキーワードが存在する。

SEO 効果向上を考えるならば、目的達成という視点だけでなく、訪問者がより多く使用するキーワードを考える必要がある。

■ キーワード選定に役立つアクセス解析活用法
キーワードを選定するために、アクセス解析の「検索キーワード分析」が効果的である。

アクセス解析の検索キーワード分析では、「訪問者が検索に使用したキーワードと、そのキーワードでの流入数」がわかる。訪問者が何に興味を持ってサイトを訪れたのかを確認することができる。また、「目的のページに達した訪問者の検索キーワード」もわかる。これを参考にし、目的達成しやすいキーワードを発見することができる。

実際に訪問者が使用したキーワードを確認し、運営者が目的達成のために想定したキーワードとニュアンスの異なるものや、+(プラス)αがあったならば、訪問者が興味を持つキーワードに変更することで、効果を上げることができる。さらに、運営側が想定したキーワードで SEO を行った後、結果として、そのキーワードが有効であったかどうかの指標としても確認するこができる。

今回は、SEO のターゲットキーワードの選定に役立つ「検索キーワード活用法」を紹介した。キーワードは一度選定して終わりではなく、常に訪問者の状況に合わせ変化すべきものである。選定したキーワードに関して、今回の内容を意識して今一度ご確認いただきたい。

SEO に役立つキーワード活用法(実践編2)

■ サイトの目的やページごとのテーマを明確にする
SEOを行った際、こんな経験をお持ちではないだろうか。「アクセス数はアップしたが、同時に1ページ離脱者も増加してしまった。」

前回のコラムでもお伝えしたが、アクセス数がアップしたとして、目的のページまで到達しない訪問者がいくら増えても SEO が本当の意味で成功したとは言えない。SEO を行う際には、「サイトの目的を達成する」という視点が大切である。

アクセス数アップを図るだけでなく、「目的達成」に繋がる訪問者を獲得する。目的を意識した施策を行うために、サイトの内容やページごとのテーマ・目的を明確にする必要がある。

■ 運営者が訪問者に期待するキーワードを想定する
サイトの内容やページごとのテーマ・目的を明確にしたならば、次は目的を達成するだろうキーワードを想定する。

サイトの目的を達成する訪問者の行動は様々あるが、必ず何らかの「流入」をする。流入という行動からは属性情報がわかる。特に、流入の属性情報の中でも特徴的なのは訪問者が検索エンジンで入力したキーワードである。このキーワードは、訪問者が何に興味を持ってサイトに訪れたのかを表している。そのため、目的に合ったキーワードを想定することはターゲットを絞り込むことにも繋がり、訴求力向上となる。

SEO に役立つキーワード活用法(実践編1)

前回のコラム「SEO に役立つキーワード活用法」では、アクセス解析でわかる「キーワード(リンク元)」に関して2点お伝えした。

・SEO で効果を上げるために、まずはサイトの目的を意識すること
・正しい単語より、訪問者が実際に使用したキーワードが重要であるということ

今回は、実際に SEO を行う際の第一歩「ターゲットキーワードの選定」についてお伝えしたい。


■ ターゲットキーワードの選定
SEO を行う際、最初のステップとなるのが「ターゲットキーワードの選定」である。ターゲットとなるキーワードを選定し、サイトにキーワードを埋め込むことで SEO は始まる。

この「ターゲットキーワード選定」で重要なことは3点
・サイトの目的やページごとのテーマを明確にする
・運営者が訪問者に期待するキーワードを想定する
・ユーザーが利用するキーワードを確認する

これらの重要性と SEO で効果を上げるために実際にアクセス解析を用いてどのように確認すればよいのか紹介する。

2007年8月3日金曜日

SEO に役立つキーワード活用法

アクセス解析ツールで取得できる「検索キーワード」
アクセス解析ツールで取得できるデータの一つに「リンク元」がある。リンク元とは、Web サイトへ訪問者がやって来たとき「どこからやって来たのか?」というような、そのサイトの1つ前に訪問者が見ていたページを教えてくれるものだ。

また、このリンク元は、関連ページや広告バナー、検索エンジンなど「どこから来た?」という情報だけでなく、検索エンジンで訪問者が実際に使用した単語(キーワード)を教えてくれる。このキーワードは、「サイトに訪れるユーザの声=ユーザの興味関心」がわかり、サイト改善やリスティング広告・SEO 対策などの目的で、サイト運営者、マーケティング担当者に幅広く注目されるものである。

リンク元が教えてくれる「キーワード」に関して、今注目度の高い「SEO 対策」にどのように活用すればよいのか伝えていきたい。

どのようにすれば、SEO 対策は成功か
まず活用法を述べる前に、目指すべき方向性を定めておこう。「SEO 対策の成功とは何か?」…それはやはり「アクセス数のアップ」であり、さらには「そのサイトの目的をどれだけ達成できたか否か」がその判断基準となるだろう。

この目的とは、メルマガ会員を募集するサイトならば応募フォーム。商品を購入するサイトならばカートなどが考えられる。サイトにお申し込みフォームなどが無い場合も含め、サイトの訪問者に「一番見てもらいたいページ」と考えていただければ良いだろう。また、この目的となるページへ訪問者がたどり着いた時、それを「目的を達成した=コンバージョン」と言う。

SEO 対策を施してアクセス数が増えたとする。しかし大半は「トップページですぐに離脱してしまう」というように、コンバージョンにまで達しない訪問者が増えていてはその施策は成功とはいえないだろう。SEO 対策の良し悪しを判断するには、アクセス数のアップだけでなく、コンバージョンを意識することが非常に大切である。

正しい単語より、訪問者が使う単語を大切に
それでは本題。SEO 対策を施す上での「検索キーワード」の活用法をご紹介しよう。

SEO を考える際、そのキーワードの選定はどのようにされているだろうか。こんな例がある。SEO の施策を考えたサイト運営者は、キーワードの中に「シミュレーション」というキーワードを選んだ。しかし、どうにもアクセス数が伸びない。そこでアクセス解析の検索キーワード分析を活用した。

アクセス解析でわかる検索キーワードは、訪問者が実際にそのサイトに訪れた際に使用したキーワードである。解析結果を確認し、そこで初めて分かったのは、「訪問者は『シミュレーション』ではなく、『シュミレーション』というキーワードを検索していることが多い。」ということだった。

確かに、「シミュレーション」は単語として正しい。だが、SEO 対策を施すには、正しい単語よりも訪問者が検索する単語の方が大切である。訪問者が検索したキーワードを確認して、サイトの文章を合わせると良いだろう。

このように、検索キーワードは「訪問者がどんなキーワードを利用しているのか」を確かめるために有効である。

また、コンバージョンを意識した際も同様である。コンバージョンした訪問者が使用したキーワードで、サイト運営者が想定していないキーワードの多いものとして、企業名や商品名などがある。「名前」で検索する訪問者は、興味関心が高い訪問者といって間違いないだろう。その「名前」に一致したものがサイトにあれば、すぐコンバージョンに結びつく。

しかし、訪問者が実際に検索する際は、長い名前を直接入力することは少ないだろう。また、漢字を「ひらがな」で入力したりと、「想定できないキーワード」があるかもしれない。闇雲にキーワードを選定しては、コンバージョンに繋がる訪問者さえ逃がしかねないということだ。

SEO 対策を施したキーワードが「適切かどうか」、キーワード分析で確認していただきたい。

2007年8月2日木曜日

経路分析でコンバージョンを増やす方法 後編

前回に引き続き、「経路(動線)」に触れてみたい。

入口、出口ページやリファラーといったデータをさらに掘り下げ、訪問者がどのような経路でページを閲覧したのか、より詳細に調べるための手法が「経路解析」である。

経路には「効率の良い経路」と「効率の悪い経路」が挙げられる。
※「効率の良い経路」とは、途中での離脱率が低い経路。
※「効率の悪い経路」とは、途中での離脱率が高い経路。

ユーザーをコンバージョンへ誘導するためは、効率の「悪い経路」を「良い経路」へ改善する方法もある。しかし、「効率の悪い」経路を切り捨てる方法もある。幅広い商品やサービスを提供していると、他社との競争に巻き込まれる可能性がある。効率の悪い経路を切り捨てることで、ホームページ内の商品やサービス情報をある程度限定し、ビジネスを成功に導いくケースがある。

ある法人向けの不動産会社のケースである。他の不動産会社同様、「住宅賃貸」・「マンション売買」・「アパート賃貸」や「住宅売買」など、不動産全般を取り扱っていた。競争の激しい不動産業界で勝ち抜く手段として、「アクセス解析」によるホームページの改善を行なった。まず、各サービスページから、最終目的ページまでの「経路解析」と閲覧経路にあたるページ離脱率のチェック、提供されている情報などを詳細に検証した。

検証の結果、訪問者をコンバージョンに誘導できていないサービスがあることが分かり、思い切ってそのページを削除した。「マンション売買」や「アパート賃貸」などのサービスがホームページから削除された。そして「戸建賃貸」の離脱率が低いことが分かった。そこでホームページで扱う商品群をあえて「戸建賃貸(リロケーション)」に特化したところ、売上が30%増となった。

上記の例は、ホームページ改善に「アクセス解析」を用い改善ではなく、効率の悪い経路を切っていくことで特化すべきサービスが見えた例である。

問題と思われる箇所を改善するため、施策・対策を練り、そして実行に移す。その実行結果から、どの箇所を改善したことが、結果的に効果に繋がったか、明確にする為には経路が非常に重要である。

2007年8月1日水曜日

経路分析でコンバージョンを増やす方法

品揃えは豊富だが、陳列の悪いスーパーには行きたいとは思わない。なぜなら、欲しいものを探してもなかなか見つからないからだ。そんな時、ストレスを感じ、購買意欲も失せるというものだ。逆に、品揃えは少なくても、陳列が良く、目的の商品が見つけやすいスーパーは、使い勝手が良く、好感が持てる。つい、また行きたいと思ってしまう。見つけやすい売り場や陳列棚を作るコツは、お客様の目線=「顧客の動線」を知ることが一番大切である。

ホームページも同様に最適な動線の組み立てが非常に重要である。アクセス解析ツールを利用すれば、「入口・出口ページ」や「リンク元」といったデータをさらに掘り下げ、
 ・ユーザーがどのような経路でページを閲覧していったか
 ・迷わず目的の商品まで辿り着けたか
など、ホームページ内のユーザー行動が見えてくる。

いまやユーザーの行動を具現化する経路解析は、アクセス解析ツールの基本機能となり、各種様々な工夫を凝らしている。単純な経路の把握なら、根気があれば自力で解析することも不可能ではない。しかし、ページ数が多く階層構造が複雑な場合や、簡単に有益なデータを把握したい場合は、やはりアクセス解析ツールの経路解析データを見るといいだろう。

アクセス解析ツールの経路解析のデータを見てみると実に様々なことがわかる。

「効率の悪い動線」
その経路を通るアクセス数は多いのに、離脱する割合が多い動線は、「効率の悪い動線」といえる。この場合、特にユーザーを逃しているページを発見し、そのページを改善することでコンバージョン数を増やすことができる。

「効率の良い動線」
その経路を通るアクセス数の多い少ないに関わらず、離脱する割合が少ない動線は、「効率の良い動線」といえる。「効率の良い動線」でアクセス数が少ない場合は、その経路へ誘導をするページをより目立たせる、検索連動型広告のリンク先に指定する、などの施策をうつことで、よりコンバージョンの増加に結び付けることができる。

「想定していない経路」
サイト制作時には、「入口ページ」から「コンバージョンページ」に到達するまでの、ユーザーが辿るであろう「最短な道のり」つまり、あらかじめ想定していた経路を描きながら、サイト内情報や掲載内容を決めるのでないだろか。

しかし、必ずしも制作側の意向と、ユーザー側の思惑が一致するとは限らない。「想定する経路」よりも、「コンバージョン率の高い経路」が出現する場合が多々ある。それが「想定していない経路」である。「想定していない経路」が多く出現した場合、リンクの位置やコンテンツの内容を変更するなどの施策を行うことで、コンバージョン数を増やすことが大いに期待できる。

このように経路解析を見ていくと、ユーザーの行動や嗜好がおのずと見えてくる。アクセス解析ツールでの経路は、ユーザービリティ(使いやすさ)の改善や、今後のコンテンツ作成において貴重なデータになる。これからも大いに経路解析を利用していただきたい。


記事提供:株式会社環