2007年12月24日月曜日

Yahoo!、南米の移動体通信事業者と提携

Yahoo! は20日、南米の大手移動体通信事業者 America Movil と提携し、南米およびカリブ海諸国の16か国でモバイルサービスを提供することを明らかにした。

今回の提携により、1億4300万人にのぼる America Movil の移動体通信サービス契約者に、『Yahoo! oneSearch』サービスがデフォルトのモバイル検索アプリケーションとして提供されることになる。Yahoo! が移動体通信事業者と結んだものとしては、過去最大規模の提携だ。

Yahoo! は10月にも、スペインの通信大手 Telefonica と、欧州の一部および南米市場におけるモバイルサービスの提供に関して契約を結んでいる。

Yahoo! の広報担当 Cory Pforzheimer 氏によれば、America Movil やその関連会社と提携したサービスが開始されれば、Yahoo! は南米のモバイル検索市場で圧倒的なシェアを占めることになるという。

「Yahoo! は引き続き、モバイル検索分野での国際的な存在感を強めていく。当社の目標は、携帯電話を通じて Yahoo! のサービスに数十億人のユーザーを結びつけることだ」と Pforzheimer 氏は取材に対して述べている。

Yahoo! は11月に、メキシコ、ブラジル、アルゼンチンのモバイルユーザー向けに oneSearch の提供を開始し、ユーザーが契約している通信事業者に関わらず、同アプリケーションをダウンロードできるようにした。

Yahoo! は oneSearch について、モバイル機器で情報を検索する優れた方法だと説明している。小さな画面という制約を考慮して検索結果が表示されるため、コンテンツにアクセスする際に、ずらりと並んだパソコン用のリンクに苦労して目を通す必要がない。

2007年12月12日水曜日

好ましくないサイトからリンクされた時の対処法

あなたのページに対して不正にリンク、リダイレクトするページを見つけたらどう対処しますか?
例えばakushituseo.comという好ましくないページからリンクされていたり、
不適切なページからあなたのページにリダイレクトされてしまう状況です、

こういった状況は好ましくない状況を生みますね
●変なサイトからリンクを受ける
●変なサイトから好ましくない人が流れてくる
●リダイレクトによって検索エンジンから悪い評価を受けるかもしれません


このような状況はリダイレクトを仕掛けてくる相手のドメイン名さえ判別できれば
”.htaccessファイル”をちょっといじれば簡単に解決できます(無料ブログでは不可)


----------------------------------------------------------------------------------------------
Options +FollowSymlinks
RewriteEngine on
RewriteCond %{HTTP_HOST} ^(www.)?akushituseo.com$
RewriteRule ^(.*) - [F]
----------------------------------------------------------------------------------------------

”.htaccessファイル”に上記の記述をすれば
akushituseo.comあるいはwww.akushituseo.comからの訪問者に対し、
"403 Forbidden"を返す事ができ、アクセスを防ぎます


好ましくないページからのリンクをブロックするのにこのやり方は有効です


また、検索エンジンも悪質なサイトからのリンクをたどって
あなたのページにたどり着くこともありませんので
検索結果の影響を悪質ページから受ける事もありません

是非お試し下さい

2007年12月10日月曜日

Google、サブドメインの扱いを変更

Googleがサブドメインを、独立したドメインではなく、同じドメインのサブディレクトリのように取り扱うように仕様を変更します。

米Las Vegasで開催されているPubConというSEO/SEMエキスポでのGoogleのMatt Cutts氏の発言を、WebmasterWorldで、アドミニストレータのtedstar氏が知らせてくれました。

「Matt Cutts informed us that Google will very soon begin treating subdomains and subdirectories the same in this fashion: there will be only 2 total urls from a domain in any set of search results, so no more getting 3, 4 or however many spots via subdomains. We didn’t get any more information than just that basic heads-up. 」


どんな影響があるかお分かりでしょうか?

Googleの検索結果では、同一ドメインのウェブページは「2つ」までしか表示されません。

たとえば、
www.example.com/seo1
www.example.com/seo2
www.example.com/seo3
のように、同じドメインに3つのディレクトリ(フォルダ)を作って、「SEO対策」というキーワードをターゲットにしたウェブページを作成したとします。

どんなに頑張ってSEOをかけても、3つのページが「SEO対策」の検索結果に、同時に表示されることはありません。
最大で2つまでです。

よく、Livedooorブログはサブディレクトリ方式なので、有料プランで独自ドメインを取った方がいいと言われるのは、blog.livedoor.jp/xxx(xxxはユーザーが自由に付ける)の形式になるからです。
ドメインが同じなので、ライブドアブログは2つまでしか表示されないのです。

しかし、
www.example.com
abc.example.com
xyz.example.com
のように、サブドメインを作れば親ドメイン(example.com)が同じでも、独立した存在として扱われるので、同じ検索結果ページに3つを同時に表示させることが可能でした。

これが、今後は不可能になりそうです。

いえ、正確に言えばかなり難しくなりそうです。

tedstar氏の報告はかなり衝撃を与え、いろいろな発言が飛び交った中、発言者の張本人Matt Cutss氏が真意が伝わらなかったとして、補足のコメントを残しました。

「This change will NOT mean that it’s 100% impossible to rank subdomain urls in addition to urls from the main domain. The current plans are to make it harder to rank a third url, then even harder to rank a fourth, and so on with an increasing “damping factor”.」

同じサブドメインのページを同時に表示させるのは不可能ではないのですが、3つめの表示は今よりも難しくなり、4つめはさらに難しくなるとのことです。

PucConから戻ったら、もう少し詳しく説明すると別の場でコメントしています。

いずれにしても、同じキーワードで上位表示を狙う場合は、サブドメインではなく、取得する独自ドメイン自体を変える必要が出てきそうです。

2007年11月21日水曜日

Google ”PayPerPost”に対して取り締まり!?

先日Googleのページランクが0になるという現象が多くのページで確認されました
ペナルティかと思ってびっくりした人もいたでしょうね、一体何故このような現象が起きたのでしょうか?

実はこれ、先日紹介した”PayPerPost”関連のサービスを
Googleが一斉取り締まりをした際の影響の可能性が高いようです

”PayPerPost”とは企業の商品やサービスについてブロガーが記事を書くことによって
企業がブロガーに対し、報酬を支払うという新しいタイプの広告媒体です

実はGoogleはこのサービスを毛嫌いしているようです
なぜならばこのような方法で書かれた記事には信憑性が無いからです
お金目当てになるとお世辞だらけの記事を書いてしまいますからね

そこでGoogleはこの”PayPerPost”に関わる全てのページのページランクを下げるという
大胆な作戦に出ました
(但し、不思議なことにPayPerPost本体のページのページランクは0になっていませんが…)

 そしてこの一斉作業は関係の無いサイトまで巻き込むほどの騒動になったようです
僕のページランクが下がった瞬間は確認していませんが
一時的にページランクが0になるページもあったようです

とんだとばっちりでしたね


この変更による不安定要素はもう無くなったのでしょうか?
それともまだ何か影響は残っているのでしょうか?

2007年11月15日木曜日

YAHOO!アップデート、ペナルティ?バグ?

あちこちから報告は受けていたのですが、気楽に考えていました。
去年頃からそういう現象は度々ありましたのでね。

え?何の話かって??

トップページの順位がYAHOO!SERPで著しく下げられているという話です。

例えばサイトタイトルで検索したとき、通常はトップページが最上位に表示されていました。
それが先の変動では多くのサイトが下層ページがトップページより上位に表示される傾向が目立っているのです。

※この場合のトップページとはドメイン直下のルートに置かれたindex.htmlを指しています。

ところが巷では「トップページ・ダウン・ペナルティ」なんてペナルティ名が付けられてサイト運営者を悩ます風評となっているようです。

え?これってペナルティだったの??

概要をまとめてみると以下のような現象です。
1.8月末のインデックス更新から徐々にトップページと下層ページの順位が入れ替わる現象が増えてきている。
2.米国と日本のどちらのインデックス更新時でもダウンフィルタにかかる可能性がある。
3.米国での更新時より日本独自の更新時のほうが順位下落の幅が激しい。


さて問題は日本独自のものではないということです。
米国のグローバルYSTのインデックス更新時からも同様の影響を受けている。
つまり単にバグとも言い切れない情況を呈しているのですね。

これは怠慢のそしりを免れないかとチョット危機感が・・・

ただ日本独自の更新時のほうが順位下落の幅が激しい傾向。
これについては二重にフィルタをかけたらかかりすぎちゃったとか、、そういう類のバグに近いと思います。


どうやら段階的に動いているらしきフィルタの存在は確かにありそうです。
ですが、それでもこのフィルタがペナルティとは未だに思えない筆者です。

そこで非常に私的な推論ですがひとつの仮説を立ててみました。。

「トップページよりも下層ページ(エントリーページ)にこそ細分化された情報が存在する」

YSTの新アルゴリズムとして上記のような機軸を打ち立てたとは考えられないでしょうか?

副次的な効果として
・1枚モノのペラページサイトの駆逐
・相互リンクの無効化
・ディープリンクの比重増大
などが考えられます。

要するにスパム的なSEOを施すサイトにたいしてのペナルティにも一役買うことになります。

ただし現状ではすべてのサイトに摘要されているわけではありません。
逆に言えばトップページの順位が下落しているサイト間の共通項が見出せなくある現状でもあります。
例えばヤフカテ登録サイトでも順位を下げるサイトが存在していたりします。

そういう意味では次のインデックス更新もまた考察してみないことには断言することができないのですが・・・

ひとつの仮説としてはアリかな?と考えています。

2007年10月29日月曜日

有料リンク と Google PageRank減点ペナルティ

SEO業界で話題になっている有料リンク問題をめぐるGoogle PageRank更新について、何人かの方から質問をいただいた。いずれも「有料リンク」のことを誤解されているようだったし、実際、勘違いしている方がブログを拝見する限り多そうなので、ここで解説しておく。

1. 有料リンクの定義、有料リンクとは呼ばないもの
2. PageRank減点ペナルティ対象外となっている(と思われる)サイトについて
3. リンク購入側の対応
4. リンク販売側の対応


さて、1点目から。SEO業界で話題になっている「有料リンク(Paid Link)」とは、SEO目的、つまりリンク評価を意図的に上昇させることのみを目的に販売(購入)されるリンクを指す。ところで、販売されるリンクはそれを設置する媒体サイトによって販売(広告代理店が仲介する場合も含む)されていることが前提だ。

だから、少し前にはてなブックマークなどで上位にエントリーされて話題になっていた「アクセスカウンター埋め込み型リンク」というのは、有料リンクとは呼ばない。あれは、検索エンジンに読ませることのみを目的にしたリンクなので単なる「隠しリンク」と呼ぶものであり、Googleウェブマスター向けガイドラインに明記された通り「隠しテキストや隠しリンクを使用しない。 」に違反するスパム行為であることは言うまでもない。

同じように、SEO会社にアウトソーシングした結果、張られるリンクもそれ自体は有料リンクとは呼ばない。SEO会社にお金を払った結果としてリンクが張ってもらえるなら、広義の意味で"有料リンク"と呼べるかもしれないが、少なくとも検索・SEO業界で私たちはそれを"有料リンク"とは呼ばないし、そういう文脈で有料リンクという言葉は使わない。

話を戻そう。今回問題となっている有料リンクは、販売側がSEO目的であることを理解して販売しているものが対象だ。従って、広告リンクが埋め込まれた各種ツール類を自分のサイトで使用していたからといって、有料リンクによるペナルティを受けることはないし、実際そういう人はいないと思うし、そういう報告は過去にも聞いたことはない。

2点目について。有料リンクを販売しているからといって(少なくとも今回は)ペナルティを受けていない種類のサイトもあるようだ。例えば、検索エンジンのリンク分析アルゴリズムに影響を与えうる無差別かつ大量のリンクを販売する無料ホームページサービスのサイト、あるいは不特定多数のユーザーの投稿・参加によりコンテンツが成立しているタイプのサイトだ。これらのサイトは、利用者それぞれが個々にリンクを販売しているわけではないから直接ドメイン単位でペナルティを課すとむしろ不利益になるという考えが働いたのかも知れない(だからといって、この手のサービス運営サイトは有料リンクを販売してOKということにはならない)。従って、有料リンクを大量に販売しているサービスでウェブを開設しているからといって、いますぐ退去する必要もなかろう。

3点目、リンク購入側の対応について。今回はあくまでリンク販売側に対するペナルティであって、購入側に対するペナルティではない。購入側に対するペナルティは現時点で、「購入元ページからのリンク加点を無効にする」(=お金が無駄になる)くらいしかない。ただし、Googleが購入側に対するポリシーを変更することはありうるし、もしかしたら悪質な購入サイトに対してもペナルティを課すという動きをしてくるかも知れない。販売側に対してPageRank減点ペナルティをするくらいなら、購入側に対して行ってもおかしくはなかろう。

1点いえることは、Googleは「全ての有料リンクを否定しているわけではない」ので、ユーザーに価値を与えるリンクである限りは、それが有料でも無料でもGoogleは特に気にしないだろう。


4点目、最後、リンク販売側の対応について。「有料リンク販売はやめたほうがよいのか?」という質問を頂いたが、将来、PageRankデータ上のみの減点だけでなく、ランキングやトラフィックの減少という目に見える不利益が発生することは目に見えているので、ビジネス的に、SEO目的のリンク販売による収益よりも主事業による収益が大事であれば、やめたほうがよいと思う。やめるといっても、テキスト広告そのものは残しておいて、リダイレクトURLを別途用意、かつそれをクロール禁止にするとか、広告を張っているページは robots.txt や METAタグで弾くとか、302リダイレクトに設定するとか方法はいろいろある。他のバナー広告枠で代替できるなら置き換えてもよいだろうし、枠そのものを撤廃してしまってもいいと思う。それは媒体側が好きなように行えばよいのではないだろうか。ただし、先述した通りGoogleはあらゆる有料リンクはNOといっているわけでもないので、やり方次第。


補足:PageRankがいろいろと話題になっているが、SEO的にはたいして重要ではない。PageRankが上がろうが下がろうがどうでもいいと考えるSEOのエキスパートは私を含めて少なくない。そういう中でも今回のPageRank減点が話題になっているのは、「有料リンク問題に対して最大シェアを誇るGoogleが対策に乗り出したから」だ。

2007年10月27日土曜日

国内有料リンクサイトのPageRank下落も確認

今冬~来春にかけて書籍をリリースできるように、私はきっと5年ぶりくらいに本気で執筆に取り組んでいる。しばらくブログ更新はお休みしたかったのだが、そんな矢先に業界の人間としてはおもしろい話題が出てきたので、ちょっとだけコメントをしたい。

このニュースは簡単に要約すると「SEO目的のリンクを販売していたサイトのPageRankが、事前のGoogle警告通り、下げられてしまいました」ということだ。

「海の向こうのお話か」くらいにしか捉えられていないようだが、日本国内でも同様のことが起きている。2007年10月26日時点、少なくとも筆者は2つの有料リンクを販売していたサイトのPageRank下落を確認している。1つはPageRank 7 > 4へ、もう1つは PageRank 6 > 4 だ。他にも有料リンクを販売しているサイトは山ほどあるが、今のところこの2サイトしか確認できていない。何とも中途半端な対応で、有料リンクへの対策を強化するならもっとちゃんと仕事をしてほしいとリクエストしたい > グーグル日本法人

さて、今回はあくまで「Googleツールバー表示用のPageRankが下がった」だけの話で、実質的な不利益はない模様だ。というのは、キーワードの検索順位やトラフィックが減少したという話は聞かない。日本国内の問題の2サイトも、キーワードの順位を測定しても更新前後で変化がない。

これはサイト運営者へのGoogleの警告を意味しているのか、それとも本当に近い将来に本当にランキングを落とすのか。とりあえずこういう時に何らかの発表を書いてくれるであろうMatt Cutts氏のブログに注目しよう。

2007年10月16日火曜日

新規ドメインができる3つのSEO対策

新たに取得したばかりのドメインではSEOが期待できないというのはご存じですか?
どんなにがんばっても上位表示はできず、突然検索結果から消えたりもします
これは、検索エンジンからの信用が少ないから起きる現象なのです

古いドメインでの上位表示は取得したてのドメインでの上位表示よりずっと有利です
なぜこのような現象が起きるのでしょうか?

実は取得したてのドメインはスパムの実験に使われる事が多いからです
こういったスパマーは何百ものドメインを取得し、一気にそれらを利用します
こういった行為を防ぐ為に、検索エンジンは新規ドメインのページを重要視しません

つまり、ドメイン取得後、一定期間が経過しなければ信用してもらえないという事です


では新規ドメイン取り立ての人はどのように対処すれば良いのでしょうか?
新規ドメインができる3つのSEO対策を紹介しますので
信用されるまではこの方法で少しでも多くのアクセスを稼いでください


1、マイナーキーワードでの上位表示だけに集中する

突然”車”というキーワードでトップ10に入るのは不可能ですが
”中古車 販売 横浜市 青葉区”
というような絞りきったマイナーキーワードであれば
新規ドメインであっても上位表示は可能です

更にこういったマイナーキーワードで検索してきた人は購入する可能性が非常に高いので
逆にこういったマイナーキーワードでコツコツ上位表示した方が有利かもしれません



2、被リンクを得る

被リンク無しで上位表示させる事はほぼ不可能です
可能な限り関連するサイトからのリンクを得るようにしましょう

これが検索エンジンから信用される為の一番のテクニックです
有効なサイトからの被リンクが多数あれば
新規ドメインでも古いドメインと同様に扱ってくれる場合もあるかもしれません


3、待つ

数年に渡ってオンライン上に存在するドメインは新規ドメインと比べると
検索エンジンからの信頼が非常に大きいです

検索エンジンの上昇の要因の一つに”待つ”というのも必要です
すぐに結果を求めてはいけません
じっくり待ちましょう

2007年10月13日土曜日

Gmail保存容量、大幅拡大。2月に6GBは実現しそう!

Gmailのストレージの増量ですが、新たに、GoogleJapanブログでも正式に発表されました!

Google Japan Blogより

Google は、ユーザーの皆様がより快適に Gmail をお使いいただけるように、保存容量の拡大に取り組んでいます。2004 年に提供開始された Gmail は、翌年4月、” Infinity + 1 ” storage plan (” 無限 + 1” 容量プラン )の一環として、保存容量の大幅な拡大を行いました。

もちろん実際には「 無限 」というわけにはいきませんでしたが、ユーザーの皆様に可能な限りの大容量を提供し続けていくことを約束したのです。現状でも、Gmail の容量を超えそうだという方はそんなには多くないと思いますが、Google は、この約束を守るために、さらなる容量拡大を無料で提供することを決定しました。皆様の Gmail の容量をご覧いただければ、すでに容量が拡大し始めていることにお気づきになるでしょう。

2007年10月12日金曜日

「display:noneの利用 = 検索エンジンスパム」 ではない

米GoogleのWysz氏は、ウェブサイトのナビゲーションメニュー設計において、CSSで display:none を使用したからといって即座にスパム行為と判定するわけではないとの見解を明らかにした。米Google Webmaster CentralチームがFAQを作る目的で募った質問に対して答えたもの。

CSSの display:none の利用はSEOの世界では頻繁に取り上げられるトピックの1つ。検索エンジンは、クローラが見るウェブページとユーザーが見る(ブラウザが表示する)ウェブページが異なること、つまり隠しリンクや隠しテキストを問題視している。理由は、訪問者にとって不利益になることとウェブページの適切なランク付けが行えないためだ。ただし、音声ブラウザやアクセシビリティへの対応、あるいはナビゲーションメニューの視覚表現上の理由でスタイルシートにより非表示にしなければならない場合も当然ある。つまり、display:none は必ずしも検索エンジンスパムという悪意ある目的のみで用いられるものではなく、正当な、合理的な理由があって用いられる場合もあるわけだ。

この問題について Wysz氏はウェブページ上で display:none を使用して一部のテキストが隠されているからといって即座に検索インデックスから削除するわけではないと説明。Google(クローラ)が見るコンテンツと、ユーザーが閲覧するであろうコンテンツがほぼ同一であれば問題がなく、一方で隠しテキストや隠しリンクが悪意を持って、故意に行われていると判断されれば、Googleはランキングを下げたりインデックスから排除するなどの対策を講じると説明した。

2007年10月10日水曜日

Googleがウェブマスターツールのデータ更新を変更

 今回Googleは、ウェブマスターツールのデータ更新を行うと共に、今後、ウェブマスターツールに登録されているサイトのデータ更新の頻度を上げるとも発表しています。

データ更新の頻度を上げる部分は、「 クロールに関する情報」と、 「インデックスに関する情報」、「 上位の検索クエリ」、そしてこの情報は、サイトの内容にかなり依存するそうです。

逆に、サイトの更新が長いこと行われていなかったり、サイトに新しい被リンクが増えていないようだと、ウェブマスターツールの情報が更新されないんだとか。

最近のGoogle検索結果は記事の公開から、インデックスが1時間以内に行われ順位変動も激しいことから見ると、Googleの検索結果のデータがウェブマスターツールへリアルタイムに反映されるようになったと言ってもいいのではないかと考えています。

また、サイトの更新がなされていないとウェブマスターツールのデータも更新されないということは、SEOの定説にある、「今検索順位が好位置にあるのであれば、ページはいじらないほうが良い。」が成立するとも言えそうですね。

2007年10月7日日曜日

Googleのページランク更新か?

 海外のSEOフォーラムにおいて、「複数のサイト運営者からGoogleページランクに変動がある。」という投稿があったようです。その更新内容は、SEOにコストをかけているサイトには厳しい結果を反映させているとも取れるものになっています。

 Googleのページランク更新有料リンク報告の結果を反映させたのかどうかは定かではありませんが、リンクを売買しているサイトのページランクに変動が発生しているようです。下記、DigitalPoint forumsからの引用。


 「私のブログにリンクしているいくつかのサイトがPR 7からPR 6まで落ちました! 多分GoogleはPRアップデートの進行中です。 私のブログは、PR 4がPR 1に落ちることを示しています。 この次のアップデートが私のサイトに肯定的な結果を与えることを祈ります。

これは興味深いです。 私は数ヶ月前にここでブログネットワークの1つからのリンクを購入しました。 そのネットワークからの全ての被リンクが私のサイトのウェブマスターツールから外されました。 他の全ての被リンクはまだ表示されており、そのネットワークからのリンクもYahoo!で「link:」をつけて検索してもまだ表示されています。(これは、リンク元のサイトがリンクタグを消去していないことを現しています。)

私は600以上の被リンクを失い、1500だった被リンク数が876になりました。私は被リンクに対してなにもアクションを起こしていないし、他のサイトも同様です。一時的にではありますが、このページランクの変動が起こる前にチェックしていました。 」

2007年10月5日金曜日

SEO に適した CMS 導入のための5つのポイント

CMS(Contents Management System)は、HTML や CSS などの技術的な知識がない人ても Web サイトを作成できるため、とても便利なツールである。例えば、CMS で作成できる Blog によって、多くの人が個人サイトを運営できるようになった現状を見ても、その利便性の高さは証明済みだ。

また、CMS はサイト運営者の負担を軽減し、サイト運営の本来の目的である魅力的なコンテンツ作りに集中できることや、それによってサイトの更新頻度を高めるという効果もある。そうしたメリットを考え、最近では CMS の導入に踏み切る企業も増えているようだ。

しかし、このように利便性の高い CMS だが、SEO の観点から見れば必ずしも好ましいとは言えない面もある。

それは導入する CMS の選択を間違うと、検索エンジンから判読されず評価を得られないという最悪の結果を招く場合もあるということだ。

そこで今回は、CMS 導入において SEO で不利を受けないために最低限確認すべき5つのポイントをご説明したい。

1.検索エンジンが判読できるソース構造になっているか

2.テンプレートは SEO を意識したタグの設計になっているか

3.検索エンジンに評価されるファイルの階層構造を作成する仕様になっているか

4.検索エンジンに評価されるファイルの拡張子を作成する仕様になっているか

5.CMS 導入後に臨機応変にテンプレートの修正ができる柔軟性の高い設計になっているか


CMS は最初の設計段階をしっかり行なっておかないと、修正に大幅な費用や時間のロスが発生する場合がある。また、一度導入した後にシステムを変更しようとしても、互換性のないシステムに変更することで、過去に作成したコンテンツを引き継げないといった大きな問題が発生してしまう可能性もある。そのため、導入時にこそ十分な検討が必要だ。

なお、上記5項目を確認する理由についても以下に詳しく説明したので、ぜひ参考にしていただきたい。

1.検索エンジンはすべてのタグを判読できるわけではない。そのため、判読できるソース構造で Web ページを生成する設計になっていることが重要である

2.SEO には検索エンジンから高く評価されるタグが存在し、その効果的なタグに対策キーワードを挿入することによって順位改善が見られる。したがって SEO の観点から好まれるタグをテンプレートに実装することが重要になる

3.検索エンジンには判読しやすい階層のレベルが存在する。また階層レベルによって順位の上がりやすさや対策方法が異なるため、データが深い階層レベルに格納される設計になっているシステムは不適切である

4.検索エンジンは拡張子の種類によって評価が異なる。Google では最近になって一部の拡張子を除きすべての拡張子の評価は同質とするという発表があったが、Yahoo! では依然として拡張子によって優劣が存在する。そのため、作成ファイルが好ましい拡張子になることが重要である

5.国内の主な検索エンジンは Yahoo! と Google の検索エンジンになるが、日々アルゴリズムが更新されている。そのため、テンプレートもその変更内容に即したソース構造に書き換える必要がある。したがって随時修正が行なえる柔軟性の高いテンプレート設計が必要である

2007年10月2日火曜日

MSN / Live Search 日本語版、検索アルゴリズムとインデックスを刷新

米Microsoftは2007年10月1日より、Live Search / MSN のインデックス及び検索アルゴリズムの刷新を開始した模様だ。日本語版(Live.jp)も2日未明から大幅な更新が確認されている。


これは先月26日に発表された、Live Searchの大幅バージョンアップを受けてのもの。同社は10月末までに順次、新機能をリリースしていくとアナウンスしていた。

とりわけ日本語版Live Searchの変更点は次の通り。発表どおりウェブインデックスが拡大されたほか、検索アルゴリズムに抜本的な着手を行った模様。

これまでLive Searchは、キーワード繰り返しや隠しリンク、単純なリンクファーム、スパム用リンクページの設置といった、10年前に流行した古典的な検索エンジンスパムにも十分に対応できていなかった上、本来評価すべきでないリンクに過剰な加点を与えていたことから、単ワードはもちろんテールワードでも満足いく検索結果を提示できたとはいえない状況だった。例えば、SEO会社がランキングを上昇させる目的で作成したと思われる、ほんとど内容のないウェブサイトであったり、画面フッター付近に47都道府県 x キーワードの全組み合わせを背景同色で埋めているサイトが上位に表示されていた。

今回のアルゴリズム刷新では、不特定多数のページ上に同一パターンで貼り付けられているリンクのスコアリング無効化、ページ(ソースコード)の特定箇所に出現するリンクのスコアリング無効化、ランキングを故意に上昇させようとする多種類のリンクパターンに対するスコアリングの調整、リンク元ページとリンク先ページ間のレリバンシー評価の改良などの変更が実施された模様。結果として、Yahoo!やGoogleで長きに渡り上位に表示されているサイトの大幅な順位下落が多数確認されている一方、自然リンク(あるいは、"自然な形態を持つ"多数のリンク)を受けるサイトが検索上位に表示されるようになっている。これまで米国版Live Searchのレリバンシーが改善されるという発表は何度かあってもそれが日本語サイトでも対応されることは皆無だったが、今回は本腰を入れて検索品質改善に着手したのだろう。

マイクロソフトのLive Searchは、一般に"PageRank"と呼ばれるリンクのスコアリングのほか、ニューラル・ネットワーク(神経回路網)を応用したRankNetといったアルゴリズムを導入していると言われている。

2007年10月1日月曜日

検索サービス「Live Search」を刷新,10月末には全世界で利用可能に

米Microsoftは9月最終週,Web検索サービス「Live Search」の新版の運用を開始し,ライバルである米Googleと米Yahoo!を追い上げる。まず数週間は米国ユーザーにのみ新版を提供し,10月末には全世界で利用可能とする(関連記事:Microsoft,「Live Search」の検索エンジンを強化,インデックスを4倍に拡大)。

Microsoft副社長のSatya Nadella氏は「今回のLive Searchリニューアルで,当社の技術陣が特に力を入れたのは,毎月この検索サービスを使ってくれるユーザー1億8500万人にとって最も重要な部分である」と述べる。「検索時の操作性を大幅に改善することができた。われわれはユーザーがどのような情報を検索するのか把握しており,エンタテインメント/ショッピング/ヘルスケア/地域検索という関心の高い分野に取り組んだ。Live Searchの新しい中核プラットフォームを導入することで,ユーザーを増やすとともに,検索するつどロイヤルティを高める計画だ」(Nadella氏)。

Nadella氏の発言したような状況は,実現するだろうか。Microsoftは長年の研究開発活動やLive Searchへの投資といった努力が実を結ばず,Web検索市場で万年3位に甘んじている。それどころか「この期間にMicrosoftの市場シェアは縮小した」とするWeb調査会社が複数ある。しかしMicrosoftは,優れた操作性と,当たり前ではあるが優れた検索結果を提供しさえすれば,顧客を獲得できると信じている。

2007年9月30日日曜日

Googleの検索アルゴリズムと戦略

 2007年9月の下旬にGoogleはアドワーズ広告に関する詳細な説明ページを公開した。
それによると、Googleは今後品質スコア決定のアルゴリズム変更についての事前告知を行わないとのこと。また、リンク先ページの品質スコアについても比較サイトやショッピングサイト、安価な広告で集客し、高価な広告で収入を得る事を目的としたサイトなどはページランクが下がる可能性があるという説明資料も公開されている。

確かに安価な広告で集客し、広告をクリックさせることで収益を上げる事を目的としているサイトは、検索キーワードとの関連性が高くとも一般ユーザが求める検索結果(あるいは情報)とは趣が異なるため、ページランクを下げるなどのペナルティを課すことに異論を挟む余地は無いと言って良いだろう。しかし、比較サイトやショッピングサイトのページランクを下げるというのはいかがであろうか?確かに「SEO対策」というキーワードで検索を行った時に得たい情報というのは概して「SEO対策とは?(定義)」であったり「SEO対策にはどんな手法があるか?(手法)」などである事が多いが、一方でそういったキーワードのベンチマークを測りたいという欲求があっても不思議ではない。勿論、比較には「比較」という目的があるのだから「SEO対策 比較」というようにキーワードを複数並べて検索を行うべき。という事もできるが人間というのはそうも合理的なものではないだけに「比較サイト」等を一様に下げてしまうというのはいささか乱暴なアプローチとも言えよう。

昨今のGoogleは新サービスを次々とリリースしている事を歓迎する反面、「Google様」と揶揄されるぐらいGoogleスタンスというのを強く求める仕組みが広がり始めているだけに、今回の対応がどのような効果を得るのか。それはSEO対策を行っている各業者の動向だけでなく、検索エンジンの在り方を考える上でも興味深い話題であると言えるだろう。

2007年9月29日土曜日

インフォシーク、 ウェブ検索をGoogle一本化に - infoseekエンジン姿消す

楽天のポータルサイト・インフォシークの検索サービス「infoseekハイブリッド検索」からinfoseek検索エンジンへのリンクが消滅。

楽天が運営するポータルサイト「インフォシーク」は、同サイトで提供するinfoseekハイブリッド検索で提供していた、インフォシーク独自エンジンとGoogleの併用を終了した模様だ。9月29日現在、ウェブ検索はGoogleのみとなっている。

インフォシークは2003年9月1日よりGoogleを採用した。ウェブ検索にGoogleのウェブ検索とインフォシーク独自のウェブ検索をユーザーが選択して利用できることが特長の1つだった。しかしインフォシーク独自の検索エンジンはほとんど開発が進まずインデックス更新が停滞していたほか検索品質も改善される兆しは全くなかった。今日の検索市場において楽天がinfoseek(自社の検索エンジン)に投資して開発する理由も見あたらず、消滅させるのも当然の成り行きといえよう。

単にメンテナンスでinfoseekのリンク外しているだけかもしれませんけれど。でも今更infoseekエンジンを提供する意味が私には理解できません。

2007年9月28日金曜日

Live Searchを刷新 - コア検索技術やバーティカル検索を改良

米Microsoftは2007年9月26日、同社の検索サービス「Live Search」のバージョンアップを実施すると発表した。2005年1月のLive Searchデビュー以来、最大のバージョンアップ。


今回はLive Searchのコア検索技術とバーティカル検索(専門検索)の改良が中心。Microsoftコーポレート・バイスプレジデントSatya Nadella氏は、今回のLive Searchアップデートは1億8,500万人の我々のユーザーの検索体験を飛躍的に高めることにフォーカスしており、エンタテイメントやショッピング、健康、地域検索といったユーザーが求める専門検索の開発に投資してきたと説明している。

 コア検索技術において具体的には、ウェブインデックスを従来の4倍に拡大。ユーザーの20%はロングテールの情報を求めており、カバレッジ拡大により適切な検索結果が表示されるようになるという。また、クエリインテント(検索意図)の適切な把握、ユーザーのクリックストリームデータを活用してランキングや関連性を判断できるようアルゴリズムの改良したこと、検索クエリの提案機能の改善が施された。クエリに関連するウェブや商品レビュー、レーティング、場所、連絡先、画像、動画などのあらゆる情報を集約することもできる。

バーティカル検索の改良は、ユーザーの検索の40%がエンタテイメント、ショッピング、健康、地域情報検索に該当することから、これら分野の改良を実施。Live Search Videoに検索結果画面上で動画のプレビューが閲覧できるモーションプレビュー機能、著名人の人気度を表示するLive Search Entertainment のxRank機能などが追加されている。

なお、これら新機能の具体的なリリース日は発表されておらず、現時点でどこまでの機能がLive Searchに実装されているか不明。また、米国以外での実装時期も不明だ。少なくとも日本語(Live.jp)はUIが若干変更されているだけで検索機能そのものは相変わらず。

2007年9月27日木曜日

Yahoo!(ヤフー)インデックス2007年9月26日更新

Yahoo!(ヤフー!)の検索アルゴリズムとインデックスの更新が、米Yahoo! Search Blogで、現地時間の2007/9/26に、公式にアナウンスされました。

We’ve rolled out some changes to our index with fresh web data and updates to our crawling, indexing and ranking algorithms over the last few days. We expect the update will be completed very soon. Throughout this process you may see some changes in ranking as well as some shuffling of the pages in the index.

前回の8/23の更新から、ほぼ1ヵ月後のアップデートになります。


今回のインデックス更新でも、いつものように大規模な順位変動が発生したようです。

Aaron Wallは、次のように分析しています。

a bit more weight on domain names
(以前より多少、ドメイン名にウェイトが置かれた)

「domain name」というのが、ドメイン名に含まれたキーワードなのか、それとも権威のあるドメイン(Authotity Domain)なのかがはっきりしません。

Search Engine JournalのLoren Bakerによれば、Yahoo! Directory(日本ではYahoo! カテゴリ)を代表とするオーソリティサイトが順位を上げていることから、権威のあるドメインが力を発揮しているようです。

米Yahoo!でも、登録サイトが強い状況は日本と変わりませんね。

また、日本語ドメインのサイトが順位を戻してきたとの報告もあります。
日本語ドメインが異常なほど評価された後、今度は反対に「ペナルティ扱い」かとも思わせるほど評価を落としましたが、常識的な範囲に収まってきたのかもしれません。

Yahoo!は、アルゴリズム更新のたびに順位が乱高下するので、Yahoo!対策はSEOに取り組むウェブマスターには悩みの種ですね

2007年9月25日火曜日

マイクロソフト、「Live Search」の変更予定をうっかり掲載

Microsoftは今週のイベントで同社の「Live Search」の変更点を報道陣向けに発表する予定だったが、それに先駆けあるMicrosoft従業員が、予定されている変更点の詳細をサイトに掲載してしまった。

 2007年9月にMicrosoftの全社的なミーティングでデモされた同検索製品への変更点には、特に映像検索や製品検索における、特定種類の検索クエリに対する改善などが含まれる。

 同社の「Windows Live」プログラムマネージャーであるAkram Hussein氏は、米国時間9月20日付けのブログ投稿で、改善されたLive Searchにおいて、デジタルカメラの検索がどのように処理されるかを発表した。ここでは製品の詳細情報のみでなく、その評価までもが表示される様子が披露されていた。新しい検索機能では、ユーザーによるレビューなどの情報を掲載した他のサイトからの情報を収集し、検索エンジン内でそれを表示することができる。

 Microsoftはその後同ブログを削除したが、Liveside.netにはHussein氏が提供した画像と詳細情報が保存されていた。Microsoftはカリフォルニア州マウンテンビューにある同社のオフィスで今週開催される「Searchification」イベントにおいて報道陣向けに発表する予定である。

 またHussein氏は、著名人検索ページを披露していた。「ブラッド・ピット」と検索すると、「celebrity xRank」と名づけられた評価システムにより、同氏が現時点でどれだけ人気があるかという情報も示されることを示していた。

 最後にHussein氏は、ビデオ検索結果の動画によるプレビュー機能を持つという、改善されたビデオ検索の概要を明らかにした。

 同氏は、「マウスをビデオの上に移動させることにより、ビデオをオンラインでプレビューすることができ、ビデオのプレビューは遅延することなく、すぐに再生されるようになる!」と記していた。「実際にビデオを視聴する前に、本当にそれが視聴したい内容かどうかを確かめるためのプレビューができるなんて、すばらしいことではないか」(Hussein氏)

 Live Searchへの変更点の一部は、この数日間で同サイトにおいて少しずつ投稿されていた。

 Hussein氏は、同氏の元のブログ投稿に置き換えられたお詫びの中で、同氏が掲載した画像はテストビルドのものであると述べた。「まだベータ段階にあると思われる情報を掲載したことに対し、皆様にお詫びし、掲載内容はテスト機能のようなものであったため、このブログ投稿は削除する」と同氏は述べている。

2007年9月22日土曜日

グーグル、アルゴリズムの変更を実施 - 単キーワードの検索結果に影響

 米Google検索アルゴリズムのアップデートを実施した。米WebmasterWorldのSeptember 2007 Google SERP Changes - part 2などによると、主に単キーワード検索時の検索結果(SERP)に影響がある模様だ。

 GoogleのMatt Cutts氏は今回のSERP変動について、「単一クエリの変更はすでに行われており、2~3日のうちに全データセンターで反映される模様だ」と9月18日にコメントしている。

「Hey Barry, these are two unrelated things, but the right teams are aware of both of them and have changes pending. The change for one-word queries is already live at some places and should be live at 100% of the datacenters in the next 2-3 days, for example. [Google, Matt Cutts, Weird Results At Google Being Reported」

 なお、今回のアルゴリズム変更と同時に中国.cnのスパムサイトが多数出現しており、これをクリックするとウイルスに感染するという。この問題についてCutts氏は対応を行ったと回答している。

2007年9月20日木曜日

自動登録系リンク集の是非

最近の流行なのでしょうか?

検索サイトでのインデックス更新が行われるたびに、やれ「テーマ関連性の低いリンクの評価が下がった」だの「自動登録系のリンクの評価が下がった」だのと多くのサイトやメルマガで示し合わせたかのように語られています。

先月末のYAHOO!でのインデックス更新後もやはり同様に多くの方が口を揃えてさえずっていました。

ここでいう自動登録系のリンク集というのはYomi-Searchなどを代表とするcgiで作成されたリンク集のことです。
リンクを依頼する側が掲示板に足跡を残すかのように自サイトのリンクを張ることが出来ますので、サイト管理者がリンク集の更新に時間をかけることなく運営できるという利点があります。

でも自動登録系リンク集というのは所詮、掲示板の亜流でしかありません。

人気の高いリンク集であればあるほど過去ログ(カレンダー?)へと追いやられてしまうのです。
そして大抵の場合、過去ログへは検索ロボットの巡回回数が減り、キャッシュすらされなくなる傾向にあります。

そして昨今の検索サイト、特にYAHOO!ではただでさえキャッシュ数、インデックス数が減る傾向にあります。
毎日、全世界では膨大な量のWEBページが作成され続けているのですから当然の対応策ではあるのですが・・・

懸命な読者の皆さんはもうお気づきですね。
自動登録系のリンク集の評価が下がったのではなく過去ログへ追いやられることで、リンクが掲載されたページが検索エンジンの認識しないページへと変貌しているのです。

「どっちだって同じことじゃん」とか考えていませんよね?

自動登録系リンク集の評価が下がったのなら、自サイトを登録する行為自体が無意味です。
ですが認識されにくくなっているというだけで、決して評価基準が下がったわけではないと筆者は考えています。

実際、検索エンジンに評価されている自動登録系のリンク集は存在していますから。

キチンと調査して該当の自動登録系リンク集が検索エンジンにどのように評価されているかを見極めてから、自サイトを登録するようにしましょう。


このようなことを話しますと、必ずといっていいほど

「調査する時間が無駄」

なんてことを、のたまう輩が存在します。

悲しいかなSEO対策に自信のある、そしてある程度SEOに詳しい方(中にはサイト制作業者も)にこそ、この傾向が見て取れます。
ほとんど控え目の病気です。

そのたびに「あぁ、この人もわかっていないんだな」と筆者は感じてしまいます。

※決して言い争うことはしません。持病の高血圧が悪化するだけですから。


調査をする時間が無駄という人間の獲る行動は2種類です。

・最初っから自動登録系のリンク集には登録しない
・数は質を凌駕するとばかりに片っ端から自動登録系リンク集に登録する

「登録しない」を選んだ方は端からSEOを諦めているに等しいです。

そして「数は質を凌駕する」考えの下に「片っ端から登録する」を選ぶ方。
危険な考え方です。
何故なら、これこそがSPAMと呼ばれる行為だからです。

調査することによる時間的な分散が似たようなSEO手法をSPAMとしないキモなのです。

プチ整形やアンチエイジングじゃあるまいし、SEOに「簡単」なんて言葉は無縁です。
ボトックスやエンダモロジー、レーザー脱毛のような特効薬なんてSEOには存在しませんから。

SEO業者に対策を依頼すると何故高額なのか?
人手のかかる手間仕事がほとんどだからです。
スペシャリストによる人件費と考えてもらえば間違いありません。

実は「片っ端から登録する」というSPAM手法を一番おこなっているのはWEBサイト制作業者なのです。
特にデザインハウスがWEBサイト制作の片手間にSEOを行うときにこの手法を多く利用するようです。

経営者の皆さんは「この制作会社ならデザインだけでなくSEOも施してくれる」などと考えて業務を発注するようです。

多くの制作業者はSEOの知識も乏しいくせに「SEOに効果の高いサイトを制作します」なんて謳い文句を騙ります。

だって、そのほうが売れますから。。

キチンと話を聞いて、実績を見せてもらって業者の実力を見極める必要が発注する側にも要求される時代になっているということです。

そのためには発注側でも、にきび面のハナタレ小僧(花粉症?)に等しいエセ業者に騙されないためにSEOを知る必要があります。

業者選定に注意を払うとともに、決して業者任せにしないようにしましょう。

2007年9月19日水曜日

Google Pagerank を向上させる 7 つの方法

サイトの人気度を測る尺度の一つとして、Google が提供している Pagerank は有名ですよね。あまり、気にし過ぎる必要はないし、実際の人気度と Pagerank とでは、多少乖離しているケースもあるようですが、やっぱり気になるときは気になります。私は、この Pagerank を何とか “4″ に将来ならないかな~って思っています。根拠は無いのですが・・・

海外のサイトですが、Pagerank を向上させる 7 つの方法を説明している投稿記事がありました。「UTheGuru.com::April 2007 Pagerank Update is Underway!」に下記のような 7 つがリストされていました。日本語は、私が勝手に解釈した訳ですから十分では無いかもしれません。

1.LINK OUT.
外部サイトへのリンクを貼ること。

2.WRITE UNIQUE, INFORMATIVE, INTERESTING ARTICLES.
面白く、情報量の多い、かつ興味ある投稿記事を公開すること。

3.WRITE SOMETHING CONTROVERSIAL.
閲覧者による議論が巻き起こるような話題を投稿すること。

4.USE SOCIAL NETWORKING TOOLS.
ソーシャルネットワーキングを利用すること。

5.MAKE A USEFUL TOOL.
役に立つツール(WordPress のテーマや plugin など)を提供すること。

6.USE YOUR HOST.
利用しているホストを利用すること。

7.BE A GUEST POSTER.
ゲストにも投稿してもらうこと。

2007年9月18日火曜日

コンテンツ重複が招く SEO 問題とその解決策

Blog や SNS といった手軽な情報発信ツールや他サイトのコンテンツの取り込み、あるいは他サイトへの提供が簡単にできる RSS フィード技術や関連ツールの広がりが、SEO を行う上であらたな問題を引き起こしている。それが「重複コンテンツ」の問題だ。


重複コンテンツとは、同一コンテンツが複数の URL に存在する状態を指す。検索エンジンは重複したコンテンツは基本的に登録を行うことはない。言い方を変えると、検索結果に同じものを複数表示しない、ということ。

もし同じコンテンツを重複してインデックスしていくと、ある検索クエリに対する検索結果画面に同一内容を持つ異なる URL を複数表示することになり、検索利用者の検索体験の質的低下を招くからだ。

従って Google はもっとも評価が高い、あるいは一定以上の評価を受けたページのみを登録するし、Yahoo! は重複コンテンツと判定すればクロールをしないようになっている。

Web サイト運営者からすれば、希望する検索キーワードで上位表示する大前提として、検索エンジンのデータベースに登録されることは必須条件であり、それが満たされない、あるいは本来意図した - ユーザーを誘導したいと考えたページが表示されない - のであれば大きな問題となる。

しかし、冒頭で述べたような Blog や SNS の存在、RSS フィードによるシンジケーションはもちろん、様々な過程を通じて発生した重複コンテンツによりインデックスに支障をもたらすケースがある。

例えばニュースサイトはブラウザ閲覧用のページとは別に、印刷用のページを用意している場合がある。あるいは数多くの商品点数を抱える Eコマースの場合、「メーカー別」「ブランド別」「用途別」と複数のカテゴリ階層で構成されている場合、各々の階層に同一商品のページが異なる URL で生成されてしまうこともある。

いずれの場合も、全く同じコンテンツが存在することになり、検索エンジンに適切に登録されない問題を招く場合がある。

冒頭で触れた Blog や SNS は第三者による「オリジナルコンテンツのコピー」により重複コンテンツが生まれる。Blog や SNS は手軽にページ生成が可能なため、個人的な記事クリップといった悪意のない目的、あるいはコンテンツ連動広告で金銭を稼ぐことを目的に他サイトのコンテンツを借用してページを作成する場合もあるが、いずれにせよこの場合も重複コンテンツが発生する。

このケースでは、コンテンツ盗用者の運営するサイトがもともとのコンテンツ保有者のサイトよりも評価が高い場合、関連するキーワードで検索した際にコンテンツ盗用者のサイトが先に表示されてしまいトラフィックが奪われる場合もある。

ソーシャルブックマーク(SBM)も時として厄介な問題をもたらすこともある。誰かがページ(これをオリジナルページとする)をブックマークすると、 SBM は当該ページのタイトルと本文の一部を自動的に引用するが、この時点で全く(ほぼ)同じタイトルを持つページが生成されてしまう。

この時、タイトルに含まれる文字列で検索した時にオリジナルページではなく SBM のページが次々と表示されてしまうことがある。

以上、重複コンテンツの存在は検索エンジンへの登録が妨げられるというケースと、それが発展してコンテンツ盗用者にトラフィックを奪われるという問題が発生するケースもある。いずれにしても、Web サイト運営者はこうした問題への対処法も考えなければいけない。

まず第1に、運営サイト内で重複コンテンツが発生しない仕組みを作ることが必要。基本的に1つのコンテンツは1つの URL のみに存在するようにする。システム上、それが回避できない場合はいずれか一方の重複コンテンツをクロール拒否設定することで、クローラが同じコンテンツを巡回しないように設定をする対策が可能である。

例えば印刷用と Web 閲覧用のページはユーザーの Web 体験上避けられないものであるから、これは印刷用を robots.txt などでクロール拒否すればいいわけである。META タグにロボットのクロールを拒否する nofollow、noindex を入れてもいいだろう。

ソーシャルブックマーク対策としては、テキストを掲載しない(例 はてなブックマークの場合)措置をとることも1つの解決策だ。

第2にコンテンツ盗用者対策だが、まずは盗用者に対して警告を行い削除要請をすることを試みる。応じられなければ、検索エンジンに対して該当コンテンツをインデックスから削除することを要請することが可能だ。

デジタルミレニアム著作権法(DMCA 法)に沿って必要な手続きを行うことで、Google も Yahoo! も盗用者のコンテンツをインデックスから排除する作業をしてくれる。

発信した情報を検索エンジンという情報流通システムを通じて必要とするユーザーに円滑に伝達できる環境を構築するためにも、検索エンジンにあわせたコンテンツの配置や管理を考えていく必要がある。

2007年9月15日土曜日

米Google、月面探査に役立つ「Google Moon」新バージョンを公開

 米Googleは13日、民間月面探査プロジェクトのスポンサーになるのと同時に、そのような月面探査に役立ち、かつ教育的資料になりうる月面地図サービス「Google Moon」の新バージョンを公開したと発表した。

 月面地図を「Google Maps」のように表示するGoogle Moonの最初のバージョンは2005年7月に公開されていた。今回の新バージョンでは、地図が高解像度のものになったほか、米国アポロ計画による一連の月面探査の結果得られた写真や資料を閲覧したり、テキスト検索を行なうこともできるようになった。場所によっては、宇宙飛行士たちが撮影したパノラマ画面も見られる。この画面では1カ所に立ったまま、ぐるりと周りを見渡すことが可能だ。

 さらにNASAがこれまでに作成してきた月面に関する様々な図面も見ることができる。多くの図面には月面のどの場所に何があるか、高さや大きさなどが記されており、実際の月面探査に役立つだけでなく、架空の月面探査計画を学校の勉強として立案する場合など、教育的用途にも役立つと考えられる。

 Google Moonの新バージョンは、GoogleとNASAが共同研究を行なうという合意に基づいて実現したもので、NASAエイムズ研究所の研究員とGoogleで共同開発された。Googleは、既に公開していた「Google Mars」の技術をGoogle Moonに応用した。現在のところ、Google MoonはWebブラウザから見ることができるが、将来的には「Google Earth」からも見られるようになる予定だ。

 また、Googleは同日、民間宇宙船が月面着陸を成功させた場合に賞金を支払う「Lunar X-PRIZE」のスポンサーになると発表した。Lunar X-PRIZEでは、この探査を成功させたチームに合計3,000万ドルの賞金を授与することになっている。今回公開されたGoogle Moonでは、NASAが作成した科学的資料を公開しており、このコンテスト参加チームが計画を練る上で役に立つ情報と言える。

 Googleがこのようなコンテストを支援する理由として「それがクールだから」という理由を挙げている。しかしそれだけでなく、こうした探査計画を通して開発される新技術が社会に貢献し、また一般社会に数学や工学、コンピュータサイエンスに対する関心を呼び覚まし、次世代の若者がこの分野に関心を持つようにすることに目的があると説明している。

2007年9月12日水曜日

日本国内の検索シェア、ヤフーが47.4%、グーグル35%

調査会社コムスコア・ジャパンは2007年9月12日、日本国内の検索市場に関するデータを発表した。


2006年7月と2007年7月の検索数、検索回数、検索シェアデータを発表。全検索件数は2006年7月の47億5,400万件から57億9,500万件と21.9%増加。これを検索エンジン別に見るとヤフーは31億3,400万件から27億4,400万件と12.4%マイナスに対してグーグルは13億2,200万件から20億2,700万件と53.3%増加している。さらに検索シェアもヤフーは65.9%から47.4%と1年で18.6%マイナスに対してグーグルは27.8%から35.0%と7.2ポイント増加。グーグルが急激にヤフーを追い上げている。

2007年9月11日火曜日

台湾版MSNサイトにて訪問者がリダイレクトされる不具合が発生

 Microsoftは米国時間9月7日、先週はじめに台湾版MSNサイトで発生した不具合について謝罪した。この不具合は、同サイトにアクセスしようとした一部のユーザーがMicrosoftと無関係のサイトにリダイレクトされたというもの。

 Microsoftによると、被害に遭ったのはごく一部の訪問者で、この不具合はすでに解消されたという。

 MicrosoftのセキュリティプログラムマネジャーChristopher Budd氏は、「この問題について報告すると、Microsoftは迅速かつ適切な対策を講じ、問題はすでに解消している。この活動による顧客への影響については分からないが、今後も状況の監視を継続し、顧客の保護に必要な対策をさらに講じていく」とした上で、「今回の不具合で顧客の皆様にご迷惑を掛けたしたことをお詫びしたい」と付け加えた。

 今回の不具合は、(ブラウザのURL欄に)www.msn.com.twと入力し、台湾のMSNサイトにアクセスしようとしたユーザーが、全く関係ない個人のウェブページにリダイレクトされたというもの。同サイトの管理人は、「Microsoft側のミス」と主張している。

 同サイトの管理人はページ上で、「(Microsoftの社員が)msn.com.twドメインのDNS情報を入力する際にタイプミスをしたと見られる」としている。

 またこの管理人は、自分のサイトにリダイレクトされた訪問者に嫌がらせはしていないとしながらも、次のように警告している。「Microsoftにセキュリティを任せてはいけない。Linuxを使ってみなさい。Linuxは安全で簡単な上に、無料だ」

 CNET Taiwanは現地時間9月7日にこの不具合について報じた。同社の記者がMicrosoftの台湾支社に最初に連絡した時、Microsoftの関係者はその不具合について知らないと答えたという。Microsoftの現地オフィスのある関係者は、「われわれのホームページがリダイレクトされていることは知らなかった」とし、さらに「このサイトのサーバは米国で管理されており、米国の技術者が同サイトの保守に当たっている」と語った。

 Microsoftの関係者によると、同社がこの不具合の知らせを受けたのは5日の午後で、「発覚後、数時間以内に問題は解決した」という。

 Microsoftは2006年にも、仏語版サイトのトップページが複数のハッカーらによって書き換えられる被害に遭っている。

2007年9月10日月曜日

効果検証における視点

■アクセス解析で効果を「検証」する
そもそもアクセス解析ツールは、「仮説→施策→検証」という視点を持つことで、より有効に活用できる。つまり、仮説無しでアクセス解析を見てもあまり効果的な活用とはいえない。ただ単に、日々のアクセス数をぼんやり見て、アクセス数が上がった、下がったと一喜一憂するものではない。「なぜ上がったのか」・「なぜ下がったのか」という原因を究明する視点が必要である。

例えば、ある施策を行いアクセス解析で調査をした結果が以下の場合、どのような評価をされるだろうか?


             4月    5月
--------------------------------------
ページA PV数   200,000  150,000
ページB PV数   300,000  500,000
全体の PV 数   500,000  650,000


「全体のPV数が4月から5月にかけて50万件から65万件と、15万件の伸びを示している」と読むことができるだろう。全体のPV数向上を目指した施策であれば、成功と言える。

しかし、ページAに注目していただきたい。PV数は、20万件から15万件と、5万件減少していることがわかる。Aページへの流入の強化を図ったのであれば、失敗である。施策を見直す必要がある。

このように、アクセス解析をただ見ているだけでは、良し悪しの判断はつけることができない。何のために、どのような施策を行い、どうなれば成功かという視点「仮説」を持ってアクセス解析の結果を見ることが必要である。

例えば、Aページを「キャンペーン告知ページ」とすると、最終目標は、「キャンペーンのお申込み」である。キャンペーンお申し込みのために、Aページへの流入を強化する施策として、リスティング広告を用いた誘導やサイト内のナビゲーションの強化を行った。これは、「キャンペーン効果を高める=Aページへの流入数が伸びる」と仮定した施策である。

当然、その結果として「申し込みがあったか」という視点も重要である。しかし、その前に Web サイトの果たす役割として、施策が「どの程度のマーケティング効果を発揮できたのか」、「仮定した結果が得られたかどうか」を確認されると良いだろう。

Web サイトへの施策に仮説を取り入れて、アクセス解析のデータをご確認いただくことで、ただ見ているよりもデータが「活用できる」ようになる。ぜひ試してみていただきたい。

2007年9月8日土曜日

Googleがディレクトリ検索エンジンを排除

ここ数週間、登録型のディレクトリ検索エンジンがGoogleからインデックス削除されるケースが、海外のSEOフォーラムで相次いで報告されています。

WebmasterWorld
DigitalPoint Forums (1)
DigitalPoint Forums (2)
Sphinn

システムによる自動的な処理ではなく、人間の手による人為的な処理ではないかとの推測もありますが、定かではありません。

最近、グーグルはそれまでインデックスしていたページを大量に検索結果から削除したりと、スパムチックなサイトに対するペナルティを課すアルゴリズムを強化しています。

今回、スパム扱いされたディレクトリサーチエンジンも質の低いサイトで、SEOを目的としたものだったようです。

日本でも、同じような扱いを受けるサイトが出てくる可能性もあります。
登録型のサーチエンジンに登録している人は、注意して監視してください。

また、新規に登録する場合はそのサイトがユーザー本位にできているか、スパム扱いをされていないか確認しましょう。
Matt Cuttsの発言では、サイト登録に当たって審査があるかどうかが、まず基本だそうです。
どんなサイトでも登録できるということは、クオリティ低下の恐れがありますからね。

そのサイトがペナルティを受けていないかは、URLやサイトのタイトルをGoogleで検索することで調べられます。
1位に表示されなければ、インデックスから削除されている可能性が大です。

簡単な見分け方として、Googleツールバーを使う使う方法もあります。
PageRankのゲージが「グリーン」ではなくが「グレー」になっているときは、そのサイトがペナルティを受けている場合があります。

登録型ディレクトリ検索エンジンのページがグレーになっていたら、1つ目の方法で確認しましょう。

2007年9月6日木曜日

SEO-YAHOO!対策の悩みと誤解

SEOコンサルなどという業務で生計を立てている筆者の下にはさまざまな相談が持ち込まれますが、その中でも最たるものが表題の通りYAHOO!対策です。

例えば私が標榜しています6つのモノサシで、相互リンクとサイトボリュームとどちらを増やすことに専念すればいいですか?という類の質問が非常に多いのです。

このコラムの中にも同様の悩みを抱える読者がいらっしゃるのではないでしょうか。

SEO対策として専念すべき一本の軸というか、しっかりした方向性を欲する方たちです。

結論として言えば6つのモノサシはどれも同等に施策しなくてはなりません。
どれかひとつを重点的にといったようなものでは、場当たり的な対処法といわざるを得ないのが現在のSEO事情です。

またこの多方面的な施策が必要となることがYAHOO!対策を「難しい」と感じさせる原因であると筆者は思っています。

さて、では何故YAHOO!は多方面的に施策しないといけないのでしょうか?

これはYAHOO!が6つのモノサシによる評価をバランスよく行っていないことが大きな要因です。

YAHOO!はインデックス更新のたびに評価バランスが変わります。
しかも評価の偏重がはなはだ際立っているのが特徴です。

筆者はこれを「YAHOO!の入替え制度」と呼んでいます。

「YAHOO!の入替え制度」については次回、改めて記したいと思います。
今回の記事は「入替え」が生じてしまう原因についてです。

ご存知のようにYAHOO!SERPsはYSTがその基幹エンジンとして機能しています。では Y!J という検索ロボットをご存知の方はどのくらい存在しているでしょう?

Y!Jとは日本独自の検索ロボットなんです。
YAHOO!はこのようにYSTに加えて、独自に収集したデータによるアルゴリズム改竄を各国のYAHOO!に認めています。

※厳密にはロボットの種類はもっと数多くあります。ここでは話をわかりやすくするために2種類のロボットを比較しています。ですがYSTとは検索ロボットのオーケストラと捉えるのが一番、的を射た表現と筆者は思っています。

つまりYSTの順位決定に対しY!Jが日本環境に合わせた微調整を施しているという図式です。
簡単に言えばyahoo.co.jpとyahoo.comとでは検索結果に隔たりがあるということです。

最近の話で言えば8/22のインデックス更新はYSTによるものでした。そして8/30のインデックス更新がY!Jによるものでした。

現在、YSTは30日~40日間隔で定期的にインデックス更新を行っています。逆にY!Jによるインデックス更新は非常に不定期であります。

もう、お気づきの方はいらっしゃるでしょうがYAHOO!の順位の入れ替えはこのYSTからY!Jへインデックス更新が切り替わるときに生じます。

両者の評価基準が違うのですから当然といえば当然です。

逆にY!JからYSTへの切り替わり時にも順位に大きな変動が見られます。
これも理屈ではおわかりになると思います。

このように性格の異なるアルゴリズムが同時にではなく間をおいて検索順位に反映されるために評価基準の異なる検索結果が表示されることになるのです。

冒頭の記述に戻りましょう。

6つのモノサシのどれかに偏重して対策することがどれだけ危険かは、これでおわかりになったと思います。

また6つのモノサシをどんなにバランスよく対策しても、その結果は毎月変動することもご理解いただけたのではないでしょうか。

2007年9月5日水曜日

PC・インターネットに対する恐怖を取り除くSEO

 2007年9月3日。セキュリティソフト大手のトレンドマイクロは「~82%のユーザがインターネット利用中迷惑行為の経験あり~」というニュースリリースを発表した。

このニュースリリースによると、インターネット利用者の98%がインターネット利用について不安を感じており、82%のユーザが既に何らかの迷惑行為を経験しているという。この「迷惑行為」の中には「望まないポップアップメッセージや大量の広告が表示される」(30.6%)、「大量の迷惑メールを受け取った」(26.6%)、「訪問したWebサイトから、知らないプログラムがダウンロードされそうになった(ダウンロードされた)」(12.4%)といったものに加え、「ワンクリック詐欺のメールを受け取ったり、Webサイトに誘導されたりした」(8.6%)、「YahooやGoogleなどの検索結果から、悪意 のあるWebサイトに誘導されそうになった(誘導された)」(5.0%)といったおよそ信じがたいような事実も含まれており、SEO対策にとっても興味深いニュースリリースとなっている。 勿論、このような調査結果を検討する上では有効回答者数や質問自体が適切で客観的なデータが得られるような質問内容になっているか?といった要素を考慮しなければならず、一概にこのデータだけを見てユーザ全体が不安を抱えているという訳ではないことはご理解いただけると思う。そもそもトレンドマイクロ社はセキュリティソフト大手企業と言うこともあり、大手企業という事からあからさまに恣意的な質問内容や回答者を募るような事はしないと考えられるが、それでも不安を感じているユーザが多いという結果が出た方が、広報的な視点からは都合がよい。

明確な根拠もなく疑ってはならないが、SEO対策を行う者としては、このデータに客観性を認めつつも、ある程度は下ぶれ要素があることを考慮に入れてこの結果を分析する必要があるだろう。

従って、直ちにこの結果が今後のSEO対策に影響を及ぼすとは考えにくいが、先日のGoogleがガイドラインから外れたwebmaster宛に警告メールを送付する仕組みを再開するなど、ますますwebサイトの作り方について厳しくチェックするような事になったのは上述でトレンドマイクロ社のニュースリリースが示している 「YahooやGoogleなどの検索結果から、悪意 のあるWebサイトに誘導されそうになった(誘導された)」(5.0%)という現状を重く受け止めているからかもしれない。

実際問題、5%と言えば一見たいした数値ではない。100人にて5人しかこのような問題に見舞われていないというのであればそのまま放置してしまえば済む話とも言えるが、見方によっては5%も存在していると受け取ることができる。人間が交通事故に遭う確率は1%にも満たないという発表もあるが、それでも警察はなお、交通事故の発生件数を下げるべく日夜努力を続けているように、Google社やYahoo社のように検索エンジンの精度によって成り立っている企業にしてみれば5%というのは大きな問題であろう。

また、ポップアップ広告などについては3割以上のユーザが「迷惑行為」として挙げている点も興味深い。Webマーケティング業者からすればポップアップ広告などは重要な宣伝行為の一つであるが、せっかくの広告宣伝が「迷惑行為」と受け取られてしまうのであれば今後、規制の対象となる可能性があるばかりか、広告を出すことで返って企業イメージを損ないかねない。

常日頃から言われてきたことだが、Webサイトのガイドラインは絶えず更新され続けていると言うことを再認識し、今後のWebマーケティングを検討していく必要があるだろう。

2007年9月1日土曜日

SEOにおいて回避するべき15の失敗

新興サイトや中小規模のサイトを運営する際によくある失敗をまとめた。
SEO初心者がよくやる失敗でもあり、SEOコンサルタントを雇おうと検討している際の判断基準としても役に立つだろう。
基本的な事ばかりだが、SEOは基本に忠実であるべきである。

1. SEOを始めるのを遅らせてはいけない。SEOはいつでもいいと思っているなら考え直すべき
2. ドメインをまたがって同じコンテンツを持ってはいけない。検索結果に複数ドメインでの同じコンテンツを表示させようとは思わないこと
3. URLをサーチエンジンに登録することに時間をかけてはいけない。クローラーベースのサーチエンジンにとって、すでにインデックスされたページからのリンクからクロールする方が早い
4. サーチエンジンがクロールできないページを作らない。完全フラッシュ、画像、AJAXのページ、robot.txtでのミス、セッションIDを持つURL、多すぎる要素を持つURL、クロールできないナビゲーションは作らないこと
5. あまりにも一般的なキーワードでSEOしない。小規模なら小規模なりにターゲットを絞ったキーワードでのSEOを行うこと
6. メタタグや画像altにキーワードを詰め込みすぎない。SPAM判定される可能性が高い
7. ページフッターなどに隠しテキストや薄い文字色でキーワードを詰め込まない。同じくSPAM判定される可能性が高い
8.すべてのページに同じワードをタイトル要素に入れない。常にユニークであるべきで、関連性こそ命。重複コンテンツとならないための第1歩でもある
9. www. ドメインcomとドメイン.comを同じURLと思わない。301リダイアレクトしなければサーチエンジンにとっては別アドレスとして認識されるため、重複するコンテンツとなる。www.ドメイ.com/index.htmlも同様である。被リンク効果も分散してしまう
10.ユーザビリティを無視しない。適切なサイト構造、ナビゲーション、リンクテキストはユーザにも、サーチエンジンにもプラスになる
11. バランスの悪い相互リンクはしない。目についた全てのサイトと相互リンクするのはよいアイデアではない。相互リンクはよいアイデアだが、リンクされる相手サイトと自サイトの関連性がより大切
12. 同じアンカーテキストでのリンクを要求しない。あまりにも不自然なリンク。リンクは自然に、バラエティを大切に
13. ブログコメントやSNSなどにリンクを貼りすぎない。SPAM判定される可能性が高い
14. 過剰にキーワード濃度にこだわらない。ターゲットキーワードまたは関連ワードををページタイトル、メタタグ、メタディスクリプション、コンテンツ内に詰め込みすぎないこと
15. Google Page Rankに過敏に反応しないこと。GoogleツールバーのPage Rankは数ヶ月遅れで、昔のような影響力を持たない。いまはクロールの頻度、深度を示す値であり、メインのインデックスに表示されているか、関連サイトになっているかによってランクが決まる
サイトの構造をよく考え、キーワードを選定し、関連性を大切に、ユーザのことを常に念頭に、よいコンテンツを作り、被リンクを受ける。やはり基本が大切だ。

2007年8月31日金曜日

SEO にも身の丈にあった戦略を

最近では、企業買収・合併を意味する M&A(Mergers and Acquisitions)という言葉を当たり前のように耳にするようになった。

M&A のメリットとしては、「新規事業の展開が低コスト・短時間で可能になる」とか、「ノウハウ・経験・実績を保有する人材を一挙に獲得できる」などさまざまであるが、金融業界に代表されるスケールメリットが重要な業種・業態では、そもそも規模自体を追求した M&A というケースも存在するようだ。

もちろん、会社の規模が市場における優位性の大部分を占めるのかというと、決してそんなことはない。その会社に適した戦略をとることで、生き残り、繁栄を続けることは可能だ。

実際に規模は小さくても高収益を実現している企業は存在する。つまり、M&A に頼らず、長期的に市場に受け入れられている会社は自らを理解し、「身の丈にあった戦略」をとってきた会社であるともいえる。

しかし、ここで「身の丈にあった戦略」と一言で表現したが、そのために考慮すべき判断指標は多岐にわたり、その条件を全て検討材料とすることはとても難しい。

需要をコントロールするという表現もあるように、より磐石な経営判断を下すためには、環境をよりよく理解するため、経験や勘だけではなく、スピードを意識しつつも会社経営の舵取りにとって有効な情報をできるだけ多く収集・整理し、活用する必要があると考えられる。

具体的な判断指標とすべき情報は、売上高のように目にみえる定量的なものばかりとは限らず、競合、業界全体のトレンド、はたまた政治などのマクロ環境がある。そして、それらの判断指標の要素を元にしつつ、概念として挙げられるビジョンの共有、コアコンピタンスの確立、ステークホルダーを考慮した経営などを考えなければならない。

しかも、その先には、経営戦略との整合性を保ちつつ、実質的なマーケティング戦略や営業戦略、具体的な戦術に落とし込むという、さらなる難題も待ち受けている。

筆者はこれまで数百社に及ぶ企業の SEM コンサルティングを担当し、プロジェクトに関係させていただいた経験のなかで、経営戦略部やマーケティング部、そして直接的に経営に近い方たちと接点をもたせていただき、上記の視点の重要性を認識させられた。

しかし、一方で SEO(検索エンジン最適化)も経営戦略の同一線上にあるべき戦術と考えた場合、現在でもまだ多くの企業で、自らを理解し、身の丈にあった戦略をベースにした SEO という視点が欠如しているのではないかという問題も実感させられる。

例えば、冒頭で企業規模について触れたが、 SEO においてもサイトボリュームは重要な要素となり、サイト内でより多くの Web ページがある方が有利である。しかし、そこでサイトボリュームが小さいので Web ページを増やすというのは、企業規模で有利に立てないので M&A をするというのと同じ発想だ。

そもそもサイトボリュームとは、事業の幅が広く、サービス・商品の点数が多いほどユーザーに与えるべき情報が増し、結果として増加するものだ。つまり、Web ページを増やす前に行なうべきこととして、一度サイトボリュームが小さい理由を考え、そのボリュームは果たして自社にとって最適な規模になっているのかどうかを立ち止まって考える必要があるのではないだろうか。

また、対策キーワードの判断基準も単純に検索数だけではなく、Web サイトやページとの適合性を考慮すべきである。

例えば、ゴルフ全般の総合ポータルサイトと、ゴルフに関する EC サイトでは、ユーザーに与えるべき情報量は異なり、最適なサイトボリュームも異なってくる。

そして、SEO を検討した際には、前者は「ゴルフ」、後者は「ゴルフ用品」というキーワードがトップページ、つまりはサイト全体のコンセプトを表すページへの対策キーワードとして妥当だと考えられる。

このように「身の丈にあった戦略」を考えないと、ユーザーが検索結果からページに来訪し、より多くの情報をみたり(1ユーザーあたりの平均ページ閲覧数や平均滞在時間など)、成約に結びつく(コンバージョン数)といった求めるべき成果も得られないだろう。

つまり、SEO はビッグキーワード対策への固執や、上位表示だけに満足せず、企業の全体戦略から目的を明確にし、効果検証を実施しながら、身の丈にあった対策を実施することも必要だろう。

2007年8月30日木曜日

人間グーグル・Googleの魅力(2)--歩くヤフー・Yahoo!との違い

1回目に「(1)--ググられる人」という記事を書かせていただきました。私が解釈する“人間グーグル”のイメージはご理解いただけたかと思います。今回のテーマは“歩くヤフー・Yahoo”との違いです。“人間グーグル”と“歩くヤフー”という二人のタイプの人間が知り合いだったら、あなたはどういうタイプと理解し、どのような接し方をするのでしょうか?


ネットレイティングスが2007年8月28日に発表した「2007年7月度のインターネット利用動向に関する結果」によると、GoogleとYahoo!JAPANの利用形態の違いがよくわかります。Googleは検索時間の比率が74%と大半を占めているのに対して、Yahoo!JAPANの場合は、オークションが総利用時間の26%がと4分の1を占めています。また総利用時間数の合計は、Googleが4億5843万分に対してYahoo!JAPANは86億3034万分と20倍前後の差をつけています。


Yahoo!辞書で「ヤフる」という単語を検索してみるとGoogleの「ググる」とニュアンスが違うようで、Googleは検索中心のイメージに対して、Yahooの場合は、オークションやコミュニティサイト等のYahoo!のサービスを利用することの意味を指しているようです。


これからの資料を元に“人間グーグル”と“歩くヤフー”を整理すると、


人間グーグル


・相手から相談や質問を受けた時に、付加価値を付けて情報を提供してあげる前向きな人

・“ググられる人”としての(検索)比率が高い。【(1)--ググられる人 参照】

・接する回数は多いが、接する時間は短いので表面的で長い付き合いを好まない。


・どちらかというと人に合わせる(カスタマイズ+マッシュアップ)タイプ。


歩くヤフー

・一人一人にコミュニケーションの環境を提供してあげる。

・長い時間でのコミュニケーションを好む。

・どちらかのというと自分の意見を主張(オリジナルコンテンツ)していくタイプ。


自分の思い通りにしたいのであれば人間グーグルに近づき、どちらかというとついていくタイプであれば歩くヤフーについていくというのが自然な姿なのかもしれません。


さて、皆さんは“人間グーグル”と“歩くヤフー”のどちらのタイプが好みでしょうか? 

人間グーグル・Googleの魅力(1)--ググられる人

“人間グーグル”という言葉は聞きなれない言葉かもしれません。以前「人間グーグルとは?」という記事を書かせていただきました。”人間グーグル”とは、

相手から相談や質問を受けた時に、付加価値を付けて情報を提供してあげる前向きな人

と考えています。

ネガティブに考えると、

うすっぺらで中身を何ももっていない人

と考えることもできるかもしれません。


社内を見渡してみて人間グーグルみたいな人はいるでしょうか? 何か社内の情報を知りたいと思った時に、期待以上の知恵とアイデアを提供してくれる人はいないでしょうか?もちろん社内に限らず、今までの付き合いのある人の中で、この人に聞いてみれば何か教えてくれそうだという人はいるでしょう。


検索をするという意味で、“ググる(ぐぐる)”【Yahoo!辞書参照】という人が増えてきています。人間グーグルという意味においては、できるだけ多くの人から“ググられる”ようになれば、多くの人がその人にアクセスし、より有益な情報が多く集まることになるでしょう。多くの情報が集まれば、必然的に人に影響を与え、そして魅力的な人間になることができるのかもしれません。


Webの世界においては、ご存知のようにgoogleが大きな影響をもっています。Web2.0時代の代表的企業と言われるgoogleのビジネスモデルを人間に置き換え、人間グーグルの魅力を少し考えていきたいと思っています。

2007年8月28日火曜日

米ヤフー、「Yahoo Mail」新版を正式公開

 Yahooは米国時間8月27日、「Yahoo Mail」の新版を正式公開した。新版では、携帯電話にテキストメッセージを送信できるなど、優れた機能が加わった。ウェブメールサービスがこのような機能を無料で提供するのは初めてのことだ。

 Yahoo Mailページの上部にあるボタンをクリックするとメニューが現れ、電子メールの送信、インスタントメッセンジャー(IM)でチャット、テキストメッセージ(SMS)の送信を選択できる。テキストを送信するには、相手の名前と携帯電話の番号を入力すればいい。メッセージの内容は、Yahoo Mailのウィンドウで、自分のアバターの隣にある吹き出しに表示される。メッセージを受け取った相手は、携帯電話のテキスト送信機能を使って返信が可能だ。

 この機能は、連絡を取りたい相手がオンラインになっていないが、おそらく携帯電話は持ち歩いているはずだというときに便利だ。また、SMSが苦手な人々も関心を持つだろう。

 新しいYahoo Mailにはこのほかにも新たなショートカット機能が追加されており、連絡先をアドレスブックに追加したり、住所を地図上で確認したり、イベントをカレンダーに追加したり、ある言葉について検索を行ったりといった操作が簡単にできる。メール本文内で青い下線のついた言葉があれば、そこにカーソルを合わせて右クリックすると、このショートカット機能を利用できる。

 さらに、「Yahoo Mail」と「Yahoo Messenger」のユーザーだけでなく、「Windows Live Messenger」のユーザーにもIMの送信が可能になった。

 正式公開版はベータ版のときよりも高速になり、6色の中から1色を選んでインターフェースをカスタマイズできる。また、メール検索機能も向上し、送信者、フォルダ、日付、添付ファイルの種類、メッセージの状態などで検索できるようになった。

 残念ながら、Yahoo Mailにログインしたときに表示される最初のページは以前のままで、メールを読むにはそのページにあるさまざまなリンクの中から「受信箱」をクリックしなければならない。有料メールサービス「Yahoo Mail Plus」を利用している会員は、直接受信箱を開くことが可能だ。

 Yahoo Mail担当バイスプレジデントのJohn Kremer氏によると、Yahoo Mailの新版は、今後6週間以内に各国語版が正式公開されるという。

2007年8月27日月曜日

モバイル・コンテンツとコマース市場は2010年に2.4兆円に

 「2010年におけるモバイル・コンテンツとモバイル・コマース(モバイル上位レイヤー)の経済波及効果は、06年の4倍の2.4兆円に成長する」。これは、情報通信総合研究所がNTTドコモの委託を受けて実施したモバイル上位レイヤーに関する調査・研究の結果をまとめたものである。調査レポートのタイトルは「携帯電話サービス普及による日本経済への波及効果」。携帯電話機の加入者は頭打ちになるものの、上位の市場拡大は続くというのが同レポートの結論だ。

 このうち、情報総合研究所が特に急増を見込んでいるのが、書籍や化粧品を中心とするモバイル・コマース市場。06年では2378億円だったが、2010年には6.3倍の1兆4870億円まで拡大すると予測する。

 一方、モバイル・コンテンツは、06年の3801億円から2010年には9225億円に達するとした。中心はモバイル・ゲームで、モバイル・コンテンツ全体のうち3581億円を占める。モバイル広告については06年の390億円から、2010年には791億円になるとみる。


 レポートでは、雇用創出効果にも言及している。それによると、2010年に33万2000人の雇用を生み出すと予測している。ちなみに、06年には8万2000人規模という。

 雇用の内訳では、モバイル・コマースが大きく、06年の3万6000人から2010年には22万2000人まで拡大する。ただし、成長の中心は、労働集約的産業の食品・飲料と衣類・アクセサリーだという。モバイル・コンテンツ分野の雇用は、06年の4万5000人から2010年には11万人まで成長すると見込んでいる。

2007年8月25日土曜日

Google,Yahoo!,MSNへの質問

San Jose(サンノゼ)で開催されている、SES(Search Engine Strategies 2007、サーチエンジン ストラテジー 2007)は、大いに盛り上がっています。

23日には、Google(グーグル)、Yahoo! Search(ヤフー! サーチ)、Microsoft(MSN)、Ask.comという4大サーチエンジンの社員がパネリストとして、プレゼンテーションしました。

そして、Q&Aの時間が設けられ、聴衆の「上位ランキング」「確実なインデックス」といった質問に関して、回答しました。


ウェブマスターにとって、サーチエンジン企業から直接、SEOに関する疑問に答えてもらえることはめったにない機会です。

いくつかピックアップして、解説します。

Q:
(Googleに対しての質問)検索結果ページで、補足結果(Supplemental results)の表示がなくなったが、Webmaster Central(ウェブマスターセントラル)で、確認することができるようになるか?

A:
補足結果は、ペナルティではないけれども、補足結果かどうかを確認できるようになるかどうかについてははっきりとはしていない。

※モデレータ(司会者)が、Google同様に、Yahoo!もMSNもAsk.comも、メインインデックスとサブインデックスの2階層の検索結果システムをとっていることを補いました。

Q:
より頻繁にクローリングさせるには?

A:
(Googleの回答)Webmaster Toolsの機能を利用し、サイトマップを最新の状態に保っておく。トップページに新しいコンテンツへのリンクを貼っておく。

Q:
サーチエンジンは、JavaScriptやAJAXなどをどのように解釈するか?

A:
(Microsoftの回答)今のところ、サーチエンジンのプログラムは、JavaScriptやAJAXを理解できない。

Q:
(Yahoo!に対して)ヤフーのランキングについて、3週間圏外に消えたかと思うと、また戻ってくる。これはアップデートが原因か?

A:
その可能性はある。問題があるようなら、Yahoo! Site Explorer(ヤフー サイトエクスプローラ)を使うことを推奨する。

Q:
サーチエンジンは、1ページにつきいくつのリンクをクロールできるか? 多すぎるのはどのくらいか?

A:
(Ask.comの回答)明確な基準はない。ただ、ユーザーの視点から考えることが重要だ。(Microsoftも同様の見解)

※Googleのウェブマスター向けガイドラインでは、「リンクが 100 以上ある場合は、サイトマップを複数のページに分けます」と記述されているます。しかし、これはクローリングの効率や、ウェブサーバーにかかる負荷、ユーザーの見やすさの問題であって、100以上だとスパム扱いされるわけではありません。

Q:
サーチエンジンは、META Descriptionタグの記述内容を使っているのか?

A:
すべてのサーチエンジンは、関連性があるとアルゴリズムが解釈したときには、META Descriptionタグの情報を考慮に入れる。

Q:
META Keywordタグは、いまだにランキングに関係があるのか?

A:
・Micofsoft ⇒ 関係なし
・Google ⇒ ほとんど関係なし
・Yahoo ⇒ ほとんど関係なし
・Ask ⇒ ほとんど関係なし

※非常に稀なキーワードで、メタタグにしか出現せず、他のどのウェブページにも見当たらないような場合は、YahooとAskは、META Keywordタグにもとづいて検索結果に表示するとのことです。

Q:
検索エンジンは、自動投稿ツールや自動ランキングツールをどのように扱うか?

A:
(Googleが回答)そういうツールは、使ってはいけない。

※そりゃそうですね。サーチエンジンが、認めるはずがありません。(笑)

検索順位を上げるために、自分のサイトへのリンクがあるページをGoogleにクロール(登録)させてもよいでしょうか?

あるページAが自分のサイト内のページBにリンクを張っていても、リンクとして評価されるためにはリンク元であるページAが検索エンジンに登録されていなければいけません。実際、「リンクを張っていても検索エンジン未登録のページ」は数多く存在しますので、評価を上げたいB側としては、これらを検索エンジンに登録して順位を上げるための一助としたいはずです。

これは手法とモラルの観点から考えるべき問題です。たとえば、サイト上でページAを紹介しつつリンクを張ることで、検索エンジンへ登録されやすくすること自体は悪いとはいえないでしょう。とはいえ、勝手にディレクトリ型検索エンジンに申請するのはモラル上問題があるでしょう。

Googleの“URLの登録と更新”フォームから登録申請するのは、「明確なクロール拒否の設定を行っていないなら検索エンジンがクロールしても問題ない」という検索会社側のロジックに従って申請してもよいでしょうし、「他人のサイト情報を勝手に第3者のサイトに送信するのはよくない」と考えるならば、やるべきでないともいえます。

SEOの観点からは「未登録のページは登録されていたほうがいい」ので、後は皆さんの判断で問題がない方法を選択すればよいと思います。ちなみに、私はこうしたサイトをみつけた場合、記事にトラックバックしたり、掲示板やメールなどで未登録であることを伝えたりしています。

2007年8月23日木曜日

iPhone効果? Google、モバイル検索の利用が急増

コンピュータの電源を切った後、携帯電話から再びGoogleサービスにサインインするユーザーが増えているようだ。

 米Googleのモバイルサービスの利用が5月以来急増しており、夏の間は通常コンピュータからの利用が落ち込むものだが、今年は初めて、そうした落ち込みが一部相殺されたという。同社幹部が22日、そう語った。

 「携帯端末からの利用が拡大している」とGoogleの検索製品および利便性の向上担当副社長マリッサ・メイヤー氏はシリコンバレーで開催されたWebマーケティングのカンファレンスで語っている。

 同氏によると、今年は5月から6月にかけて、Googleの地図・メール・検索などのモバイルサービスへの携帯電話やワイヤレス携帯デバイスからのトラフィックが35%増加しており、携帯電話からのトラフィックもコンピュータからのトラフィックも減少した前年と大きく異なる結果となっている。

 「待望されていたAppleのインターネット対応携帯電話iPhoneが今年6月に米国でリリースされたことで、携帯電話からのGoogle Mapsの利用が40~50%増加した」とメイヤー氏は続けている。

 Google MapsはiPhoneで利用できる幾つかのアプリケーションの1つだ。

 今年の夏の数カ月間は、全体的な検索トラフィックが急増したあと減少しているが、モバイル端末からのトラフィックは8月に入っても活発な状態が続いている。北半球のコンピュータユーザーが休暇を取る影響で、例年は5月から6月にかけてトラフィックは20~40%減少する。

 「これはある意味、人々が携帯端末をうまく使いこなせるようになってきていることの証であり、またコンピュータから離れている間もWebにアクセスできる優れた端末が提供されるようになってきたことの証でもある」とメイヤー氏はサンノゼで開催されたSearch Engine Strategies Conferenceでマーケティング担当者向けのプレゼンテーションを行った後、記者らに対し、語っている。

 「技術曲線が追い付きつつある。携帯電話の品質も高くなっている」と同氏。

 コンピュータベースの何億人ものGoogleユーザーと比べれば、Googleのモバイル検索サービスの利用者はまだ少数だが、こうしたトラフィックの増加はモバイルインターネットがユーザーに徐々に浸透しつつあることの表れだ、とメイヤー氏は言う。

 Googleでは毎日数千万件のモバイル検索が実行されているが、これは、コンピュータでGoogleサービスが毎日何十億件も実行されているのに比べると雲泥の差だ。

 これまでのところ、Googleのサービスは主に高価格帯のスマートフォンでの使用が想定されている。音声通話やテキストメッセージに使われる大衆市場向けの通常の携帯電話と比べて、スマートフォンはブラウザが高速で画面も大きい。

 メイヤー氏によると、社内のトラフィックデータから判断するに、コンピュータの電源を切った後、携帯電話から再びGoogleサービスにサインインするユーザーが徐々に増加しているという。

 ただし、Googleのモバイルトラフィックは今のところ主に米国ユーザーによるものだ。これは、国内市場である米国において、より広範なサービスが提供されている影響だろう。例えば、Google Mapsでは、米国の30以上の都市について詳細なリアルタイムの交通情報マップが提供されている。

 メイヤー氏によると、日本と欧州でもGmailやモバイル検索などのGoogleサービスの需要が高まっている。

 米国の学校が新学期に入り、社会人も休暇から仕事に戻り始めるなか、今週はGoogleサービス全体の利用が再び増加に転じている。

ヤフー(YST)の更新 - クロール、インデックス、順位付けシステム変更

Yahoo!が、クロール、インデックス、およびランキングシステムをアップデートしていることに気付いたかもしれない。これはウェブマスターにとってかなり重要なものである。

今回のアップデートでは、ここ数日クロールの巡回を抑えているが、それに気付いたかもしれない。

Yahoo! Site ExplorerでダイナミックURLをサポートすることを昨日発表しているが、新しいクローラは、これに対応するものである。さらにサーバ負荷を抑える巡回も試みているところだ。

今回の更新でも、インデックスのみならず「ranking systems」つまり順位付けのルールがアップデートされたことが告げられている。

現に、いくつかのサイト・キーワードで順位変動が起こっていることを確認している。

さらに、Yahoo! Inc.も新CEOの元かなりやる気を出しているようで、ダイナミックURLをサポートし、そのためにクロールもアップデートしたようだ。

2007年8月22日水曜日

Google Mapsの新機能,地図をサイトやブログに組み込める

 米Googleは米国時間8月21日に,地図情報サービス「Google Maps」の新機能を明らかにした。APIやJava Scriptの知識が無くても簡単に地図をWebサイトやブログに組み込めるという。

 ユーザーは,組み込みたい地図をGoogle Mapsで表示し,「Link to this page(このページをリンク)」をクリックする。HTMLコードを埋め込むための‘スニペット’が表示されるので,これをコピーして自身のWebサイトやブログにペーストする。組み込んだ地図は,ドラッグやズームが行えるほか,地図/航空写真/地図+写真のモード切替も可能。

 同機能は,米国,英国,カナダ,オーストラリア,日本,フランス,イタリア,ドイツ,スペイン,オランダ,ベルギー,デンマーク,フィンランド,ノルウェー,スウェーデン,ロシアですでに提供を開始している。

2007年8月21日火曜日

Web 2.0 Analytics - Google Analyticsよりも優れたアクセス解析ツール

Google Analyticsは、グーグルが無償で提供しているアクセス解析ツールです。

無償とはいえ、その高機能・多機能な特徴で使っているウェブマスターも多いことでしょう。
この海外SEO情報ブログでも、アクセス解析には、Google Analyticsを利用しています。


このGoogle Analyticsの対抗馬として、注目を浴びているアクセス解析ツールがあります。

それは、Clicky Web Analytics 2.0(クリッキー ウェブ アナリティクス 2.0)というアクセス解析のためのサービスです。

さっそく、この海外SEO情報ブログにも、Web Analytics 2.0を設置してみました。

「インターフェイス(画面)が見やすい」(クリックでスクリーンショット表示)と、「リアルタイム更新」の2つが、Google Analyticsよりも優れている、という感想を持ちました。

特にWeb Analytics 2.0がリアルタイムにデータを更新してくれるのは、Google Anaylitcsと比べて、いちばんのメリットかもしれません。

Google Analyticsは、多機能・高機能な反面、項目が多すぎてデータの見方が難しく感じることもあります。
その点、Web Analytics 2.0は直感的に理解できる分かりやす管理画面になっています。

その他に、各ユーザーの細かなアクションを追跡することもできます。
どうやって訪問してきて、どのページを何分見て、どのリンクをクリックしたか、まで追いかけます。
内部リンク、アウトバウンドリンク(外部リンク)のクリック数の調査、ダウンロード計測も可能です。

Web Analytics 2.0は、Google Anaylitcsが備えていない機能をそろえているというのもウリなようです。

ただし、欠点もあります。

「すべての機能は有料版でないと利用できない」ことと、「指定した期間にわたってのログ解析ができない」ことです。

あとは、Goolge Adwordsを利用している人は、アドワーズとの連動も当然できません。

ちなみに、Web Analytics 2.0はユーザーのロケーション表示に、「Google Maps(グーグルマップ)」を利用しているのが、笑えます。(~~;

Google AnalyticsとWeb Analytics 2.0の併用で、お互いの欠点を補完しあうのが賢い使い方かもしれません。

設定方法は、簡単です。
登録して、アクセス解析のためのコードを貼り付けるだけです。
WordPressを使っている場合は、専用のプラグインがあります。

Google Analyticsと違い、英語だけになってしまいますが挑戦してみてはいかがでしょうか。

2007年8月20日月曜日

1年以内に買収と5社へ投資、Google 中国が急拡大路線

「今後1年以内に Google 中国は、1社-2社の買収と4社-5社への投資を実行する」Google (中国名:谷歌)中国の李開復総裁は15日、上海でこう発表した。

同社は現在、資本買収、一括配布、ポータルサイトの連盟などによって中国国内での実力を高め、急速な拡大路線を歩んでいる。

李総裁は、「Google 中国は今後、高速路線に切り替え、投資や買収のスピードを更に加速していくつもりだ。」と述べた。

米国 Google 本社は、15日から無料視聴番組への全面的な広告展開を行うと発表。李総裁は、「ネット広告はまだ手探りの段階。同社は今のところ、中国におけるネット広告のタイムテーブルはない」と説明。

Google 中国は、上海に中国工程研究院という研究開発機関を擁し、広告に関する技術の開発や研究を行っている。

無知な顧客と相互理解――SEOビジネスの新たなモデル

SEOの世界は常に急速に移り変わり続けており、どの時点で変化が生じたのかを明確にするのは難しい。いつも何もかもが変化している。ただ、時にはそこら中に著しい違いを見いだし、新たなパラダイムを特定することが必要だと感じる人が現れる。

そこで僕の見解なのだけど、英国有数の携帯電話販売会社Dial-a-Phoneは、SEO顧客の新たなパラダイムだと思う。Dial-a-Phoneでは、オンラインマーケティング部門のリーダーが、SEOに関してかなり広い知識を持っている。複数のSEOプロバイダ(SEO業者)と一緒に仕事をしたことがあって、そのことが良い経験となっているのだろう。しかし、もっと注目すべきなのは、彼が長きにわたり、トップクラスのSEOフォーラムにいくつか参加し、メンバーを続けていることだ。この人は、僕が知る多くのSEO専門家が読んでいるのと同じブログや参考資料を読んでいる。

SEOサービスを受ける顧客が賢くなってきているのは確かで、ここ最近はさらに経験が加わっている。顧客が、始めてSEOのサービスを購入するというのではなく、すでにSEOプロバイダとの交渉経験を持っているケースが増えてきているんだ。そして、Dial-a-Phoneをはじめとする企業は、SEOに関する新しいレベルの知性、SEOとの新しいレベルの関係性を体現しているように見受けられる。

一部のSEO業者にとってSEOに詳しいこうした新しいタイプの会社は、最先端の顧客というだけでは済まない。Dial-a-Phoneのような顧客は、いつ落ちてくるかもしれない鋭い剣の剣先のようなもので、専門家としての経験が不十分なまま市場に参入しようとするSEOプロバイダにとっては、差し迫る不吉な運命を象徴している。

Dial-a-Phoneのオンラインマーケティング部長が、売り込みをかけてくるであろう多くのSEOプロバイダよりもSEOの経験が豊富であることを、僕は事実として知っている。この人は、SEO専門家が仲間として認めてしかるべき人物だといっても過言ではない。彼に電話するSEOの営業担当者には、お気の毒としか言うほかない。たいていの担当者は、SEOについて肝心な知識を欠いたまま、お決まりのセールストークを行うのだろう。

SEOに精通していて厳しい契約を結んでくるというのは、なにもDial-a-Phoneだけではない。このことは、Vintage Tub and BathのAlan Dick氏を知ってもらえばわかると思う。Alanは、メジャーなSEOカンファレンスの常連で、2005年にロンドンで開催されたSESでは、参加者を歓迎してディナーを御馳走してくれた。このディナーは、Danny Sullivan氏、Rand Fishkin氏、Dave Naylor氏などたくさんの参加者が出席し、心地よいおしゃべりにとどまらない有意義なものになった。


リック レバイン他 著/倉骨 彰 訳/日本経済新聞社/ISBN978-453214902-4以前、SEOmozでRandにインタビューを受けたときに、必読書として『Cluetrain Manifesto※Web担編注』に言及するのを忘れていた。実はこのインタビュー自体が、「Cluetrain Manifesto」が重要な本に分類される理由を良く示している。この書物は、顧客が対等な仲間となり、またそのような扱いが必須だという、まさに現在のトレンドを予測している。

SEOに詳しい新しいタイプの顧客が、なぜSEOの代理業者を必要とするのかおわかりだろうか。その答えははっきりしている。SEOサービスを営んでいながらまだ見当がつかない人は、自分が提供しているものに対する認識と理解を改める必要があると言ってもよいだろう。早急に理解すること。さもないと、将来は厳しいかもしれない。

僕が言わんとしている新しいパラダイムにおいて、企業がSEOを外部に委託するのは、必要に迫られてではなく、自らの選択によるものだ。最良のSEOエキスパート、つまり直接雇うことが(経済的にも)難しいような専門家と企業は契約する。企業は専門家や戦略家を求めていて、基本的な部分はすべて社内でカバーする世界だ。

Dial-a-Phoneでは、社内のマーケティングアシスタント2名に、基本的なSEO業務の大部分を担当させている。この2人は、単純だが時間のかかるSEO業務の処理に加えて、重要コンテンツも提供している。Dial-a-Phoneはこの社内リソースを活用し、SEOプロバイダからは戦略および実践の指導を受けただけで、携帯電話の新しいブログ「Mobile Phone Blog」を開設した。

われわれとの最初の会議にも、この社内ITチームが重要参加者として出席した。このチームは、いったんニーズが特定されると、既存のシステムに見られるデータオーバーロードなしで問題情報を提供するための、独自の分析システムの開発に熱心に取り組んだ。ここで繰り返される重要なコンセプトは、チームワークだ。新たなモデルでは、SEOプロバイダと顧客は同じ側にいるだけではない。同じチームの一員となり、チームとして機能する。

個人的には、こうした顧客のことをうれしく思う。顧客とプロバイダがチームとして効果的に機能している場合にのみ、SEOは本当の意味で最高に機能するのだと僕は考えている。どんなサプライチェーンも、全体の強さは最も弱いつながりの部分で決まる。SEOの場合も話は同じで、理解やパフォーマンス管理に弱みを残したために、SEOへの投資を無駄にしている企業を、僕はたくさん見てきた。

「サービスの内容を理解しているから購入する」顧客は、「内容を理解せずに理解の責任をすべて押し付けたくてサービスを購入する」顧客よりも、パートナーとしてずっと強力だ。ビジネスの一般通念に従えば、無知な顧客は依存性が高く、それゆえに固定的な顧客につながる。しかし、オンライン革命の大部分において、ビジネスの一般通念は通用していない。

無知な顧客は、サービスが注目に値するかどうかを判断できない。SEOに関するあらゆるニーズに数分の1の値段で対応するらしい、海外の格安SEOプロバイダから電子メールで提案があったとき、あなたの心からの提案がそれより良いものかどうか、無知な顧客は判断できないんだ。

ただ、無知な顧客もやがては学習する。無知はいつまでもそのままではない。無知とは、プロバイダが行おうとしていることが伝わらない、短期間の状況にすぎないんだ。

以上の理由から、僕は新しい顧客モデルがSEOサービスの新たなパラダイムの到来を告げているのだと固く信じている。相互理解とチームワークに基づいた、顧客とプロバイダの真のパートバーシップは、SEOの将来の規範となる。そして、その将来はもうここにある。

2007年8月16日木曜日

Googleが発見した10の事実

いまさらながら、Googleが発見した10の事実を読みました。Googleの成長のエンジンともいうべき、ミッションステートメントのようなものだと思います。

1. ユーザーに焦点を絞れば、「結果」は自然に付いてくる。
2. 1 つのことを極めて本当にうまくやるのが一番。
3. 遅いより速い方がいい。
4. ウェブでも民主主義は機能する。
5. 情報を探したくなるのは机に座っているときだけではない。
6. 悪事を働かなくても金儲けはできる。
7. 世の中の情報量は絶えず増え続けている。
8. 情報のニーズはすべての国境を越える。
9. スーツがなくても真剣に仕事はできる。
10. すばらしい、では足りない。

最後の項目では「常に期待を超える結果を出す」ということが書かれています。つまり、単に「すばらしいサービス」を生み出すだけでなく、ユーザーの「期待を上回るサービス」を目指すことが、Googleの革新的なサービスの源泉ということなのでしょう。

私たちの日々の仕事のなかでも、単に「いい製品やサービス」を提供することよりも、「お客様の期待を上回る」という点にフォーカスすることが大事な考え方なのかもしれません。お客様と目標や課題を共有し、期待値をマネジメントする「エクスペクテーション・マネジメント」という言葉をふと思い出しました。

2007年8月15日水曜日

検索エンジンの「満足度」、Yahoo!がGoogleを抜いてトップに

ポータル・検索エンジン分野の顧客満足度指数ランキングでは、Yahoo!が5年連続トップのGoogleを抜き、首位に立った。

 顧客満足度の面では、Yahoo!がGoogleを上回る――eビジネス部門の米顧客満足度指数(ACSI)が8月14日、発表された。

 ACSIは、米ミシガン大学が毎年発表しているもの。インターネットポータル/検索エンジンの分野のトップはYahoo!で、満足度指数が2006年の76から79ポイントに改善した。一方、2002年以来5年連続で首位をキープしていたGoogleは2位。満足度指数は、前年よりも3ポイント低い78ポイントだった。

 併せて発表されたPC部門のランキングでは、Appleが今年も首位をキープ。以下、HP(HPブランド)、Gatewayと続いている。

2007年8月14日火曜日

google、検索ワードに応じてニュース検索へのリンク

グーグル、ウェブ検索結果中のニュース記事表示についてUIテストを実施している模様。キーワードによって4件目や10件目にニュース記事へのリンクを表示することを確認できた。

Googleは検索キーワードに合致するニュース記事がある場合、自然検索の最上部(ワンボックス)部分にニュース記事の検索結果を表示している。しかし本日確認したところ、キーワードによって10件目や4件目に表示される場合もある模様だ。例えば、「starsuite」と検索すると4件目にstarsuite関連のニュース記事を、同じく「トラベルステーション」と検索すると10件目に同キーワードを含むニュース記事を表示する(いずれも2007年8月14日 18:30時点で確認済み)。

Googleは最近、YouTubeの動画コンテンツへのリンクをウェブ検索結果中に表示するなど通常ウェブ検索であっても検索キーワードのインテントによってコンテンツを検索結果に混ぜてくるアプローチを進めている。

2007年8月13日月曜日

ランキングが上がらない理由

サイトのSEO対策は完璧なのに、何故かランキングが上がらない・・・。
原因は一体どこにあるのか?リンクの数も十分で、コンテンツも新しく、競合他社に負けないようなキーワードを使っているとしても、考えられる原因は様々だ。

その中でも、Bad neighborhood(バッドネイバーフッド)について考えてみたい。バッドネイバーフッドとは、ポルノ・ギャンブル関係のサイトや、違法行為や不正行為をしてブラックリストに載っているサイト、スパム行為を繰り返すサイト等を指す。また、(順位を上げるために)過度にSEO対策をしているサイトもこれに含まれる。

これらのサイトに対してリンクを張らないようにするために、リンクを張る際には相手先のサイトをきちんと確認しておくことが重要となる。またSEO対策をサービスとして提供する際にも、これらのサイトは避けるのが賢明。こうしたサイトにリンクを張ったがために、リンクを張ったサイトにもペナルティを課される場合があるので注意する。

ランキングを上げるには、自社サイトと関連性のある、良質なサイトを探してリンクを張ること。さらに、良質なサイトからのインバウンドリンクを増やすことが大切だ。

SEOで失敗しないためのリダイレクト設定

リダイレクトの重要性と有効性について概念のみ説明させていただいたが、今回は具体的な手法とSEO上の効果について説明したい。
まず、リダイレクトの手法は大きく2つに分類できる。

クライアントサイドリダイレクト
サーバーサイドリダイレクト


両者の細かな違いについては以下をご確認いただきたい。
クライアントサイドリダイレクトこのリダイレクトを実行するには、htmlファイルに次のような記述を行なえばいい。

<meta equiv="Refresh" content="5; URL=http://○○○">

これは、対象のページへリンクした場合、5秒後に指定した別のページへ移動(リダイレクト)するというものである。
前回の説明でも触れたが、「このサイトは新しいURLへ移転しました。5秒後に自動的にジャンプします。」という文章を目にするのがこの方法だ。
ちなみに、この方法の場合、○秒後に移動させる○秒の部分をできる限り短くすることがSEOにおいては効果的である。
これは、そのページから即座に移動させることで、検索エンジンに移動後のページを重要視させることができ、移動前のページに対する評価をそのまま移動後のページへと引き継げるためである。
逆に、移動までの時間を長くしてしまうと、移動前のページが重要であると認識され、移動後のページは別ページとして認識されてしまう。結果、ポテンシャルは引継がれないことになる。
つまり、現実の商店を新装開店する時に置き換えれば、旧店舗に移転先の案内板だけが立っていれば誰でも店が移転したとわかるが、移転後に旧店舗でも営業をしていて来店者を足止めさせた場合、来店者は移転ではなく本店と支店ができたと勘違いしてしまう。少々例えは乱暴だったかもしれないが、理屈はこれと同じだ。
このリダイレクト方法については、Googleで推奨されている方法ではないため、筆者としては後述するサーバーサイドリダイレクトをおすすめしたい。ただし、推奨こそされていないが、上記のように認識がされることが多いので有効性はあるといえる。
また、確実にユーザーにWebサイトへ訪問してもらおうと考えた場合、移動後のページが表示されるまで長時間ユーザーを待たせることは、ユーザーにストレスを与え、別サイトへユーザーを逃してしまう要因にもなり得る。SEO上の効果だけでなく、そうしたユーザビリティの観点から考えても、即時に移動させることが望ましいだろう。
なお、クライアントサイドのリダイレクトについては、JavaScriptを用いてリダイレクトをさせることも可能である。しかし、検索エンジンはJavaScriptを理解することができない。そのため、ユーザーにとってはページが移動しているように見えても、検索エンジンは移動前のページに止まったままで、移動後のページがどれだけSEO上優れていたとしても評価することができない。
また、結果的に、ユーザーと検索エンジンに対して見せているページ内容が異なることとなり、検索エンジンのガイドラインに反する可能性があるため、JavaScriptによるリダイレクトはおすすめできない。

サーバーサイドリダイレクト

Webサーバーがブラウザからページを要求された際に、要求されたのが特定のページであった場合、それに変わる別のページを返すように設定するのがサーバーサイドリダイレクトである。
この方法では、Webサーバーがリダイレクト後のページを返すため、ユーザーにとっては直接リダイレクト後のページを見ることとなり、クライアントサイドリダイレクトの場合のようなストレスを感じることもなく、自然にページを閲覧することができる。
サーバーサイドでのリダイレクトの場合、大きく分けて2通りの方法が挙げられる。
それは、ブラウザとWebサーバー間のやり取りで交わされる3桁のステータスコードによって分類されるが、「301」と「302」のいずれかで設定するということである。
設定方法については、使用しているWebサーバーによって異なるため、ここではそれぞれの意味を説明するに止めさせていただく。
ステータスコード「301」でのリダイレクトの場合は、ページが「永久的に」移動したことを示すため、移動前のページの評価が移動後のページへ引き継がれる。また、検索結果に表示されるURLも、移動後のものへと変更される。
一方、ステータスコード「302」でのリダイレクトの場合は、ページが「一時的に」移動したことを示すため、あくまでも検索エンジンに認識されるのは移動前のページになる。検索結果の表示URLを見ても、移動前のものとなっている。
サイトの状態によって、どちらの方法を用いるか検討する必要はあるが、一般的なリニューアルでは、ステータスコード「301」を用いてリダイレクトするのが望ましい。
リダイレクト方法について、Yahoo!やGoogleはそれぞれサイト内で推奨するリダイレクト方法を公開しているので、そちらをご参照いただきたい。
・ Yahooサイト管理者向けヘルプhttp://help.yahoo.co.jp/help/jp/search/indexing/indexing-21.html
・ Googleウェブマスター向けヘルプセンターhttp://www.google.co.jp/support/webmasters/bin/answer.py?answer=34464&query=%E3%83%AA%E3%83%80%E3%82%A4%E3%83%AC%E3%82%AF%E3%83%88&topic=&type=

2007年8月12日日曜日

新しい相互リンクのかたち―リンクベイト―

リンクベイト―Link Bait―(またはリンクベイティング)とは、マーケティング手法またはSEO手法の1つで、ユーザーが飛びつくような面白い情報から、逆に議論を巻き起こすような情報まで、被リンクを増やす目的でサイトに掲載する情報またはコンテンツのこと。Baitとは、「餌をまく」という意味で、この場合の餌が情報またはコンテンツであり、それを使ってリンクを誘う(おびき寄せる)ことからリンクベイトと呼ばれる。

相互リンクの歴史

Googleがランキングアルゴリズムの一環として、被リンクを評価し始めた頃から、サイト運営者の間で大量に被リンクが獲得できなくなり、互いにリンクを交換し合う、「相互リンク」が主流になった。

このため、各サイトは相互リンク用のページを設けて、サイト同士でリンクを交換し、被リンク数を増やすという方法を取った。

ところが、当初はリンク数をある程度確保することに重点が置かれていたため、自サイトとは何の関連性もないリンクが大量に張られるといった現象が起きた。そのうちに、無関係のサイトからリンクされるよりも、自サイトと関連のあるサイト(同系のサイト)からリンクされている方が良いとされるようになったが、ユーザーにとって役に立つリンクを張るというよりは、ページランクに有利に働くリンクを張るという傾向が未だに強い。

リンクベイティング到来

リンクベイティングに関しては、SEOmozのオーナーであり管理者でもあるrandfishの記事を参考にして欲しい。記事の中で彼は、大勢のユーザーからリンクを(自サイトに)引き寄せる方法を説明している。リンクしてくれるユーザーは必ずしも、自サイトの商品やサービスに大変な関心を持っている人である必要はないというのも興味深い。

相互リンク獲得が効果を発揮したように、リンクベイティングも当面は有効であると考える。しかし遅かれ早かれ、検索エンジンのリンク分析能力が高度になり、この方法もそれほどの効果が得られなくなる時が来るだろう。

良質なリンクを獲得する方法は、数年前と現在とでは異なる。同じことがリンクベイティングにも言える。リンクベイティングでの真の成功は、ランキングで上位を獲得することではない。ターゲットユーザーがリンクしたいと思うようなサイトにすることである。そうすれば自ずと、被リンクも増えるというものだ。

Google八分を避ける秘訣

Google八分とは、検索エンジン最大手のGoogleのデータベースから自分のWebサイトが登録抹消されることである。(IT用語辞典バイナリより)

自分のサイトがGoogleインデックスから消え、キーワードをいくら入力してもサイトが見つからないというトラブルはよく聞く話だ。原因の1つとしては、過剰なSEO対策が挙げられる。このようなGoogle八分を避けるにはどうしたらよいか?以下で詳しく説明する。

サイトはいつでもアクセス可能な状態にしておく

信頼できるホスティングサービスを利用し、アップタイム(99%以上が望ましい)及びレスポンスタイム(応答時間)を良くすること。さらにRobots.txtファイルをURLのルートに置くようにする。Googleの検索ロボットがサイトに巡回に来ても、アクセスできなければ検索結果からサイトが削除されてしまう可能性があるためである。

コンテンツはサイトテーマに沿っていて、尚且つユニークであること

サイトには他にはないオリジナルコンテンツのみを掲載する。もちろんユーザーにとって有益で面白い内容でなくてはならないし、サイトテーマに沿っている必要がある。検索エンジンではなく、実際の人間(ユーザー)を対象にコンテンツを書くこと。他のサイトからコピーしたコンテンツをサイトに掲載した場合、重複コンテンツと見なされ、Googleインデックスから削除される可能性が高くなる。

スパム行為はしないこと

サイトを宣伝するためとはいえ、スパム行為は絶対にしないこと。でないとGoogleから追放される原因になりかねない。ドアウェイ、隠しテキスト、自動生成ページ、キーワードスタッフィング、クローキング、その他非倫理的なテクニックは厳禁。

リンクポピュラリティーを高める

インバウンドリンクは数が多ければ良いと言うわけではない。リンクの質は大変重要である。どのようなサイトからリンクを張られているかに注意すること。リンクファームやFFAページは利用しない方が良い。自サイトと関連のあるテーマのサイトからのみ、リンクを張ってもらうようにする。スパム目的のフォーラム、ゲストブック、ブログ、コメントは避けること。
アウトバウンドリンクも非常に重要。どのサイトにリンクを張るのかについては注意が必要である。スパムを行うサイトへはリンクを張らない。張ってしまうと最悪の場合、サイトがGoogleから抹消される可能性がある。

サイトマップを作成する

検索ロボットにサイトの全ページをインデックスしてもらえるよう、サイトマップを作成する。サイトマップにはサイト内にある全てのページへのリンクを載せると、検索ロボットはそれを辿ってサイト内のページを隈なくクロールしてくれる。JavaScriptやフラッシュリンクを使用している場合は、同じ内容をテキストでも表示しておくこと。

以上5項目を守れば、まずGoogle八分になる心配はないと考える。

2007年8月10日金曜日

4大検索エンジンのアルゴリズムの違い

長い時間がかかったが、4大検索エンジンがランキングアルゴリズムの点から見てそれぞれ実際にどう異なるのか、だんだんわかり始めてきた。検索エンジンの中でYahoo!は、相変わらず最も秘密主義だ。Googleのますます複雑化するアルゴリズムについては、最もきちんと文書化されてはいるものの、最も理解されていない。

Yahoo!が2003年4月に独自の検索エンジンを使用し始めたとき※1、おそらくAltavistaやAllTheWeb、Inktomiが持つ技術から最高の機能を取り込んだはずだ。Inktomiは、リンクに重きを置いた最初の大手検索エンジンであり、偏りのない純粋なリンク人気に依存していた。また、これは個人的な意見だが、Altavistaの主な強みは、各ページの内容をまとめ、関連テーマごとに集約する能力にあると思う。この点においても、またその他に点に関しても、Altavistaの実験的な投資家向けサイトRaging Bullはとにかく見事だった。

現在のYahoo!の検索エンジンでは、「ウェブページのテキスト、タイトル、(METAタグを用いた)サイトの説明文の正確さ……(中略)関連リンクなど、そのページ独自の特徴」に基づき、ページをランク付けしている。Yahoo!はスタンフォード大学が特許権を持つのPageRankのアルゴリズムにかなりの興味を示していたものの、(大きな規模で)PageRankを実際に使う人はいないという点で、Ask JeevesのApostolos Gerasoulis氏と同じ見解を持っているようだ。

それにも関わらず(1999年にスタンフォード大学から独立した)Googleは、詳細を説明することなくPageRankを実装していると誇らしげに主張している。PageRankとは、ページの重要性やクオリティの静的評価アルゴリズムで、関連性を動的に評価するために用いられる。Googleでは現在、ランキングを決定するために200以上の「信号」を使用していると説明しているが、Googleの技術に関する最初の論文には、検索が行われた時点におけるページ内外の要素を組み合わせて関連性を決定し、結果として得られる(動的な)関連性のスコアを、あらかじめ決定していた静的なPageRankのスコアと統合する、と明記している。

Ask Jeevesは2001年の9月に、検索エンジンのTeomaとそのHITS(現在はExpertRankに改称)アルゴリズムを獲得している。ExpertRankは、1998年にJon Kleinberg氏が提案したオーソリティーとハブの方法論から発想を得たアルゴリズムだ。ExpertRankでは、検索者のクエリに対し関連するコンテンツを動的にグループ化し、そのグループ内の関係を使用して、最も信頼性が高くユーザーのクエリに関連性の深いページを決定するということになっている。

MSNでは2004年7月になって、ようやく現在の人工知能による検索技術を発表した。MSNの検索結果は、Googleの検索結果に影響を及ぼしているのと同じ要素に影響を受けているようだと、多くの人が指摘しているが、MSNでは彼らのシステムが実際にどのように機能しているのかについて、ほとんど口を閉ざしてきた。MSNのサイトオーナーヘルプでは、リンクも考慮に入れると示唆しているものの、それがどの程度でどのような方法によるのか説明していない。

MSNの説明は以下の通りだ。「MSNの検索ランキングアルゴリズムでは、ページのコンテンツ、被リンクの数やリンク元サイトのクオリティ、キーワードに対するウェブサイトのコンテンツの関連性といった要素を分析する」

しかし、2006年5月に、MicrosoftのMatthew Richardson氏とEric Brill氏、およびMSNのAmit Prakash氏が共同で、「PageRankを超えて:静的ランキングためのマシンの学習能力」という論文を発表した。これら3名の著者たちは、コンテンツの静的な(クエリ非依存型の)順序付けによる新しい方法論を提案している。彼らの説明によると、MSNのRankNetは「アルゴリズムを学習するランク付けマシン」だという。この方法論では、ランクを決定するために用いるページごとの特質を、ページ、ドメイン、アンカーテキストと被リンク(アンカー)、(ブラウジングにおける)人気度の4つのカテゴリに分類し、これにPageRankを加えて5つの要素でランク付けを行なうとしている。

アンカー・カテゴリでは、そのページにしか現われない語句の数や、そのページにリンクしているアンカーテキストの総量などを計測する。

ページ・カテゴリでは、そのページ自体(およびページのURL)に注目し、文書本体内の単語数、単語の使用頻度、その他明らかにされていない6つの要素を計測する。

ドメイン・カテゴリでは、1ページあたりの外部リンクの平均数、ドメインごとのPageRankの平均値などを計測する。

人気度カテゴリの計測は、MSNツールバーをもとに導き出す。ツールバーによるデータ収集は何も新しいものではないが、彼らの論文は僕の知る限り、ツールバーによって収集したユーザーの閲覧履歴を検索ランキングのアルゴリズムに取り入れた最初の技術文書だ。すぐに多くの人々がAlexaのトラフィックランキングの存在を指摘するだろうが、トラフィックランキングは検索クエリを実行するために使用されるものではない。また、Googleがユーザーの閲覧データを取得しているだろうと推測している人も多いが、GoogleのMatt Cutts氏は(個人的な意見として)、もしGoogleツールバーがデータを取得したとしても、そのようなデータを使いたいとは思わないと指摘している。

MSNのRankNetは、それがもし本当にMSNが検索結果ランキング決定するために使用しているアルゴリズムなら、いくつかの意味においてユニークなものだ。まず第1に、RankNetでは、文書テキストなど、たくさんの情報源から得た静的データを統合している点だ。ExpertRankでさえ、静的評価のためにそんなことは行っていない。次に、RankNetではPageRankを基準あるいは土台として使用しているということだ。彼らはRankNetがPageRankと同等に機能すると見込んでいるどころか、PageRank以上に正確な静的評価を提供すると主張している。

そして最後に、RankNetでは、ウェブマスターたちが重要だと考えるものだけでなく、ウェブページを見る側が興味を持つものを検討する。RankNetは、ウェブマスター側からの評価(リンク人気やPageRank)と、ページを見る側からの評価(クリック数に対する閲覧状況に関する人気度)の評価を両方とも組み込んだ最初の検索エンジンアルゴリズムだ。MSNの手法は目新しくて革新的だが、もしMSNがツールバーの閲覧データを本当に追跡しているのなら、多数のIPアドレスにわたって人々がツールバーをだますようになるのも(もしまだやっていないのなら)時間の問題だ。こうした不正行為は、DirectHitのクリック数方式に対して実行された。

いずれMSNは、Googleの手法と同程度に、自分の手法も補足的なフィルタリングに依存しなければならないと理解するに至る可能性がある。しかし、GoogleおよびYahoo!がスパムのフィルタリングに関して非常に積極的と思えるのに対して、MSNにスパムフィルタに関する指摘がほとんどない理由については、前述の論文からわかるかもしれない。MSNが十分な市場シェアを獲得し、スパムコミュニティからこの種の詳細な注目を集めるのかどうかは、現時点ではわからない。

こんなに長くなってごめん。でも僕は基本的なアルゴリズムに関して要約し、できるだけ多くの信頼できるリンクを提供したいと思ったんだ。さて、この話について君の感想は?

リンク獲得で良質のディレクトリを判断する10のポイント

1. 選別的か
登録のリクエストがあったサイトの品質や、サイトをディレクトリに入れる価値を、編集者が慎重に検討していて、簡単には登録できない。Yahoo!やDMOZが選別的なディレクトリの良い例だ(ただ、DMOZはえり好みが過剰なことも多く、僕などはかつて、エディタのご機嫌取りが戦略の中心になってしまった。その意味で、DMOZは完璧な選択肢だとは言えない)。ほかに、Nature.comの推奨リンクや、Forbes.comのBest of The Webのように、登録要件がさらに厳しいディレクトリもあるし、Emily Chang氏のeHubやBusiness.comのように、チェックが緩めのディレクトリもある。僕の見方だけど、こうしたディレクトリは総じてそれなりに高い価値を提供する。

2. 検索エンジン用ではなく、人間が使うためのディレクトリか
検索エンジンの順位上昇に役立つことを主目的としたディレクトリは、どんなディレクトリであっても疑ってかからなければならない。リストが人間の訪問者の役に立つように考えられていると、検索エンジンがそのリンクを重視する可能性はずっと高い。そうでない場合、サイトはもともと操作的なものではないという主張が、非常に苦しいものになる。わかりやすい一般的な経験則を挙げてみよう。ディレクトリの所有者がSEO関係のフォーラムやブログやコミュニティで、SEOの顧客に対する売り込みを活発に行っていたら要注意だ。こうしたディレクトリのリンクがすべて質が低いとは言わないけど、危険信号であることは間違いない。

3. 良質なサイトからリンクを獲得しているか
編集者の目から見て、しっかりとしたソースから質の高いリンクをたくさん獲得しているディレクトリは、被リンクがすべて、ディレクトリのリストやSEO中心のコミュニティからのものだったり、購入したリンクやアフィリエイトリンクだったりするディレクトリよりも、はるかに高い価値を持っている可能性が高い。ディレクトリが獲得している被リンクをみる場合、僕は量より質を重視する。ありがたいことに、Yahoo! Site Explorerはより価値の高いリンクを、価値の低いリンクより先に表示してくれる傾向があって(必ずしも価値の高い順ではないけど)、少なくともリンクの価値をざっと把握するのにいくらか役に立つ。

4. 特化しているか一般に、ディレクトリは特化が進むほど価値が高まる。確かに、汎用のディレクトリであってもLibrarian's Internet Indexのようなすばらしいディレクトリもあるので、これが必ずしも真だとは言いきれない。しかし、化学工学分野の企業だけのディレクトリや、環境に優しい旅行先に的を絞ったユニークなディレクトリがあったとしたら、おそらくかなりの価値があると考えられる。

5. 信用度の高いドメイン名上に存在するかディレクトリが独自のドメイン名で作られているとすれば、それは質が低い目印である可能性がある(ここでも、当てはまらないものはたくさんある)。一方、信用度が高く、良い順位を獲得していて、知名度も高いサイトと同じドメイン名にあるディレクトリは、例外なくと言っていいくらい価値をともなっている。

6. 独自に構築したディレクトリか
DMOZのレイアウトや構成のクローンを作るという、よくある製法に従ったディレクトリでは(ODPのディレクトリをそっくりそのまま頂いたあとで、登録でてこ入れをしたとしても)、やはり低い価値しかもたらさない。一方、「ディレクトリ」ソフトウェアを使わずに、最初から最後まで独自に構築した完全に唯一無二のディレクトリというのは、影響力を得る傾向がある。

7. 利用者にとって便利か
自分がインターネット初心者で、関心のあるおもしろいコンテンツを求めてネットサーフィンをしているのだと想像してみよう。そのディレクトリの構成、コンテンツ、リンクはあなたに価値をもたらしているだろうか。「当然!」と自信を持って答えられないならば、そうではないのかもしれない。

8. 質の低いサイトやディレクトリへ手当たり次第にリンクを張っていないか
質の低いスパム的なサイトへリンクを張っているディレクトリというのは、検索エンジンに最も目をつけられやすいものの1つだといえる。検索エンジンにマークされると、そのドメインからの、PageRankやリンクジュースの受け渡しがすぐさまシャットダウンされる。MSNでコマンド「linkfromdomain:ドメイン名」を実行して、そこに挙がった数十ページの項目に目を通してみよう。自分のサイトからはリンクを張らないようなドメインが並んでいたら、そのディレクトリは思ったほどの値打ちがない可能性が高い。

※Web担編注:たとえば「linkfromdomain:impressrd.jp」のようにする。「linkfromdomain:web-tan.forum.impressrd.jp」のようなサブドメインではうまくいかない。
9. 良い検索順位を獲得できているか
サイトが持つリンクの価値を探るものとして、この方法にはいろいろと議論があるらしい。しかし、僕の意見として、また経験からも言うのだけど(どちらも実際のサイトから学んだ)、ページがリンクの価値を(どの程度)渡せるのかを判断する際、ターゲットとしている語句/フレーズでページが獲得できる検索順位よりすぐれた指標は、ないと言える。タイトルタグで良い順位を獲得できなければ、ほぼ間違いなく信用を失っている。タイトルタグで良い順位を獲得していれば、サイトの順位を押し上げるのに役立つページだと考えてまず間違いない。この基準について過去に僕と議論したことのある人で、僕の主張を論破したという証拠を示せる人がいたら、ぜひ示してほしいし、僕が間違っていることがわかったら喜んで訂正する。でもそれまで、僕はあくまでこの主張を堅持する。

10. 実際に見ればそれとわかる
こんな基準はがっかりさせるかも知れないけど、質が低いディレクトリの多くには、鋭いSEO関係者なら「感じ取れる」共通の特徴が確かにいくつかある。たとえば、Bob Mutch氏のディレクトリやAviva Directory、あるいはStrongest Linksなどにアクセスして登録されているものに目を通していると、自分が検索エンジンのエンジニアだとしたら重視するだろうディレクトリなのか、どちらかといえば重視しないディレクトリなのか、第六感がどうしても身に付いてくる。



価値の高いディレクトリの例
僕の言わんとするところをさらによくわかっていただくために、今夜は検索結果ページをいくつか探って、取り上げた基準の例証となるディレクトリを見つけておいた。おそらく価値の高いと思われるディレクトリの例を以下に示そう。

カリフォルニア大学アーバイン校の古典学者向けリソースのディレクトリ

The William & Gayle Cook Music Libraryによるインターネット音楽の国際的なリソース

Refdesk.comのクイックリサーチ・リンク集

ミズーリ植物園の植物学関連リンク集

価値の低いディレクトリの例
続いて、リンクジュースに乏しいのではないかと疑われるディレクトリの例をいくつか挙げておこう(今はリンクジュースを出しているかもしれないけど、この先はどうなるかわからないものだ)。

tenthyear.com

smittyzweb.com

kwikgoblin.com

Yahoo!あるいはGoogleの検索エンジニアの立場になって考えてみてほしい。リンク1つの購入に20~50ドルかかるこうした汎用のディレクトリを、あなたの検索エンジンのアルゴリズムで重視するに足る、もっともな理由が思いつけるだろうか? 質の低いディレクトリのオーナーがよく言う弁解がある。ディレクトリはウェブ上のコンテンツの整理に役立っているというものと(すこし説得力がある)、サイトのオーナーが「高い順位を獲得するために努力する」用意があることをディレクトリが示すというものだ。でも僕に言わせれば、この2つの弁解はいずれも次の見方ほどに説得力がない。それは、こうしたリンクを重視すれば検索結果の質が全般的に下がることになるので、ユーザーはリンクの重要度をきちんと判断している別の良質な検索エンジンに流れてしまう、という見方だ。

Google,検索結果で機能追加


 米Googleは,同社の検索サービス「Google」の検索結果ページに,より新しい情報を見つけやすくする機能を追加した。同社エンジニアリング・マネージャのPeeyush Ranjan氏とソフトウエア・エンジニアのHong Zhang氏が同社公式ブログへの投稿で米国時間8月9日に明らかにしたもの。

 例えば,8月6日に最新の金融情報を得ようと検索した場合,従来では検索結果のURLの横に「Aug 6. 2007」と表示されていた。今後は,「何時間前にGoogleのWebクロールがそのページに気づいたか」を示し,「13 hours ago」などと表示される。

 「インターネットが巨大であることを考えると,常に最新の情報を検索結果に提示するのは至難の業だ。しかし,検索結果の中で最も新しい情報を見つけることはそれほど難しくない。新機能により,ユーザーは検索結果一覧の中から,どれがより新鮮な情報かを簡単に見分けることができる」(両氏)。

2007年8月9日木曜日

新しいドメイン名はSEOに不利

Googleは検索アルゴリズムに「時間」の概念を持っており、新規に取得・開設されたばかりのドメイン(サイト)では検索上位に表示されにくい傾向があります。一般的にこれを「エイジングフィルタ(aging filter)」と呼ぶのですが、これが適用される明確な条件はよくわかっていません。このフィルタが有効な期間はおおよそ3〜6か月間、つまり新規に取得したドメインでウェブサイトを開設した場合、この期間はGoogleの上位に表示されないと考えておいた方がいいでしょう。

Yahoo!にはこうしたフィルタはありませんが、Yahoo!、Google共に古くから存在するウェブサイトが上位に表示されやすい傾向があります。したがって過去に積み重ねたSEO効果を有効に活用したいのであれば、特別な理由がない限りドメインを変更することはおすすめしません。新規にウェブサイトを開設する場合は、早期にドメインだけ取得しておき、空ファイルで構いませんのでアップロードしておき検索エンジンにクロールさせておくのも手です。

グーグル、誤って自社公式ブログをスパムに分類&削除

Google Blogoscopedの記事によると米Googleは今週、自社の公式ブログの1つ「Google Custom Search Blog」をあやまってスパムと分類、削除してしまったとのことだ。


同ブログによると、Googleは公式ブログをスパムに分類、自動通知を行ったが無視されたため削除されたとのこと。同ブログURLには一時、他のユーザによる書き込みが行われたが現在は復旧している。

Googleは今後、他の公式ブログでも同様の問題が発生しないよう対処しているとしている。

Google、リアルタイムにインデックスを更新

米GoogleのMatt Cuttsは2007年8月7日、Googleのインデックス更新頻度を飛躍的に高め、ページ更新から数分後にはブログやニュースが検索可能になったことを明らかにした。


これはサーチエンジン情報館「Googleウェブ検索、リアルタイムに最新ニュースが検索可能に」にて紹介したとおりのもので、一部のニュースサイトやブログは更新数分後にはウェブ検索にヒットするようになったことを示す。Cutts氏は例えば 7時54分にポストされたブログ記事が8時44分にはすでにウェブ検索結果に表示されるケースを紹介している。日本でも同様で、例えば、asahi.comに掲載された「大統領選控える韓国、米と関係改善望む北朝鮮 利害一致」という記事(2007年08月08日12時11分)は同12時46分の時点ですでにGoogleウェブ検索にヒットする。URLの横には「32分前」と該当記事が32分前に更新・公開されたことを示す表示がある。

Googleに限らずかつてウェブ検索のインデックス更新は3~5週間程度の時間がかかることが当たり前だった。近年はブログ/フィード検索がRSSフィードやpingを利用してリアルタイムな検索を実現していたが、クローリング技術やスコアリングを即座に行うインフラが整えたことで、Googleはウェブ検索でのリアルタイムインデックスを可能にした。

リンク生成の極意

リンク生成はSEO対策において非常に重要である。
が、サイトオーナーの中にはリンク生成について十分に理解していなかったり、古い情報に基づいてリンク生成を行っていたりするケースがしばしば見受けられる。リンク生成がきちんと出来ていないと、ランキングに悪影響を及ぼすので、気を付けなければならない。

リンク生成で最も一般的な方法は、「相互リンク」である。Google等の検索エンジンはこのやり方を好まないが、ページランクを上げるのには効果的な方法といえる。が、業種によってはリンクを張り合う相手が十分でない場合もある。

相互リンクをする際、気を付けなければならないことは自分のサイトと関連性のないサイトとの相互リンクを避けることである。これは検索エンジンにサイトをくまなくクロールしてもらえないばかりか、自サイトが検索結果から消されてしまう可能性もある。

また、ページランクの低いサイトとの相互リンクはランキングに良い影響を及ぼさない。が、自サイトに関連性の高い新サイトで、今後ページランクが確実に上がると予想されるサイトとの相互リンクは、例外的に唯一有効な方法といえる。

リンクを購入するのも有効だ。但し、やみくもに購入するのは良くない。必ず自サイトと関連のあるサイトかどうかの確認をすること。質の高いトラフィックが見込めるサイトであれば、思い切ってリンクを購入することをお勧めする。

記事を投稿するのも1つの方法だ。これは非常に効果がある。但し、記事の内容が貧弱にならないよう注意すること。また、記事を書く際にアンカーテキストを利用すること。

この他にもリンク生成の方法は多々あるが、以上の3つが最も一般的なやり方である。リンクは「量より質」が大切。またリンクの質だけでなく、コンテンツ・ページ・リンク先ページの質にも気を配ること。

2007年8月8日水曜日

偽PageRankを売りつける業者

米WebmasterWorldのフォーラムに偽PageRankがついたドメイン販売者に注意するよう警告するコメントが投稿されている。


この業者はオークションサイトeBayにてPageRank7と200のバックリンクを持ったドメインを販売。通常のドメインであれば数千~数万円単位で取引されるが、PageRankが高いことからSEO的価値が生まれ、より高い値段で売り飛ばしている。しかし販売されたドメインのPageRankは偽装されているため、購入数ヵ月後にはゼロに戻ってしまうわけだ。

この手口は次の通り。業者は本当に「PageRankとバックリンクを持つドメイン(ドメインP)」を持っているが、301リダイレクトで販売したいドメインに転送する(ドメインX)。リダイレクトすることでドメインPのPageRankとバックリンクがドメインXに移されるため、この時点でドメインXは見かけ上、PageRankとバックリンクを持つ。

しかし売却後にPからXへの転送を解除してしまうため、次回の更新のタイミングでゼロに戻ってしまう。業者はこの作業を繰り返すことで、次々とドメインを高値で売却していくことができるというわけだ。

これは購入対象となるドメインを文字列として検索して調査すれば回避可能。国内でも「PageRank 7のサイトからリンクがもらえます!」といって実際はそのPageRankが偽装されてる、なんてのを時々見かけます。

2007年8月7日火曜日

可能なかぎり最高のタイトルタグを作る方法

1、自分のトラフィックをブランド化せよ

どこに行こうとしているのか検索ユーザーに認識させるとともに、再訪問を増やすため、自分のサイトのタイトルもしくはブランド名を、各タイトルタグの頭または最後に配置しよう。この要素を重視する妥当な理由を見つけるのが困難なら、ぜひ思い出してほしいことがある。それは、あらゆる広告調査において、同じ種類の製品で比較した場合、消費者はノーブランド製品やショップブランドの製品よりも、「ブランド」製品により多くのお金を払う傾向があるという結果が出ていること。この理屈を検索結果に当てはめれば、下の方のランクでも、ユーザーは「信頼の置ける」ブランドをクリックすることがわかるだろう。

2、長さを65文字(スペースも含む)までに抑えよう
末尾の言葉が切れ、代わりに「……」となってしまって良い理由は何もない。留意してほしいのは、最近検索エンジンがタイトルの長さについて、変動的だということだ。特にGoogleの場合、現在では場合によって最大70文字まで対応することもある。

3、キーワードを織り込もう
これはわかりきったことのように思えるかもしれない。しかし、自分のキーワード調査において、検索トラフィック獲得のために最も有益なものとわかったものは何でも、タイトルタグに目立つように入れることは重要だ。それらをタイトルタグの頭に置く必要はないが、意味的にも論理的にも注目が集まるようにするべきだろう。

4、関連性があるなら、長い語句に狙いを定めよう
タイトルタグに織り込むキーワードを選択する際、僕はページに関して、正確かつ説明的で、十分に関連性のある語句を、できるだけ多く使用する傾向がある。すなわち、単に「SkiDudes | Skiing Equipment(スキー野郎 | スキー用品)」とするよりも、「SkiDudes | Downhill Skiing Equipment & Accessories(スキー野郎 | 滑降スキー用品およびアクセサリ)」のようなタイトルタグの方が、ずっと有効な可能性がある。こうした、該当ページ関連性があり、大量の検索トラフィックをもたらす追加的な語句を含めることは、ページの価値を高める可能性がある。しかし、「スキー用品」とは別に「スキー用アクセサリ」のランディングページがある場合は、それぞれの語句を組み合わせてタイトルに使うべきじゃない。これをやってしまうと、自分のサイトにあるどちらのページがより関連性が高いのか、検索エンジンに選択を強いることになり、ランキングにおいてキーワードカニバリゼーション(キーワードの共食い効果)が発生してしまうからね。

5、分割記号を使おう
ブランド名と、それ以外の説明的な語句を切り離す際に、僕が好んで用いるのが「|」記号(縦線記号、別名パイプ)だ。矢印代わりの「>」やハイフン「-」を使う人もいるし、両方使っても良い。個人的には、矢印またはハイフンをタイトルタグの途中で使用するのが有効と感じることが、たまにある。たとえば「SEOmoz | Articles > Keyword Research - A Beginner's Guide(SEOmoz | 記事 > キーワード調査 - 初心者ガイド)」のような感じ。そんなわけで、僕は縦線記号が好きなんだ。

6、クリックスルー率とコンバージョン率に注目しよう
タイトルタグを考える作業は、検索連動広告を実施する際に行うことになる広告タイトル作成作業にひどく似ているけれど、統計情報が簡単に手に入らないため、効果を測定したり改善するのが難しい。しかし、週ごとの検索規模が比較的安定している分野ならば、タイトルタグで多少のテストを行い、クリックスルー率(CTR)を上げることができる。自分の分析結果を観察し、もし納得できるものだったら、該当のページについて検索連動広告も購入してみよう。たとえ1、2週間だとしても、長い目で見れば大きな違いが出てくるかもしれない。ここで忠告だが、CTRだけに力を入れすぎないよう気をつけよう。コンバージョン率(CVR)にも目を配るように。MindValley Labsが示す通り、高いコンバージョン率を得るには、時にCTRが低い方がより良い選択肢になることもある。

7、検索ユーザーの意図を絞り込め
ウェブページのタイトルを作成する場合、自分のサイトに到達する際に訪問者たちが使った検索キーワードに留意すること。もし検索ユーザーの目的が、閲覧や調査が中心の場合は、より説明的なタイトルタグが適切だ。そして、もし検索ユーザーの目的が、購入やダウンロードといった行動に違いないと信じるに足る根拠があれば、自分のサイトでそれらを実行できるんだと、タイトルで明確に示そう。たとえば、「SkiDudes | View Snowboard Sizing Chart(スキー野郎 | スノーボードのサイズ一覧)」あるいは「SkiDudes | Buy Discount Snoqualmie Pass Lift Tickets(スキー野郎 | スノークォルミー峠越えリフトのチケット購入)」といった具合に。

8、一貫性を保て
自分のサイトの特定部分や特定範囲について、上手い形式をいったん定めたら、その形を崩さないこと。検索結果において、信用のある成功した「ブランド」になるにつれ、ユーザーはある主題領域に関して、君のページを捜し求め、君が要求を満たしてくれるはずだと期待を抱くようになることが分かるだろう。

9、タイトルをヘッドラインにも使おう各ページのH1見出しにもタイトルタグの文言を再利用することは、キーワードの絞り込みと、ユーザー体験向上の両方からみて、有効打になり得る。検索結果からあるページに訪れたユーザーは、彼らがクリックしたタイトルが内容に即していることを期待しているわけで、君がその義務を負うんだ。ユーザーは、彼らの意図した目的やクエリに無理なく一致するページに、長くとどまる可能性が高い。

SEO初心者のための被リンク戦略

SEOコミュニティーにおいて、2007年のキーワードは間違いなくリンクベイトであろう。
理由は非常に単純で、著名なサーチエンジンにおいて、被リンクは重要なSEOファクターだからだ。
SEOの戦略としてどのように被リンクを獲得していくかについて考える際の参考に、リンクのパターンについての分析と被リンクの分析の際に問うべき質問項目を紹介しよう。


4つのリンクのパターンについて

リンクには、おおよそ4つのパターンしかなくその内2つがSEOにおいて重要視されるパターンである。
まずはリンクのパターンについて説明しよう。

1つ目は、なんの理由もないリンク。
優れたブログエンジンによって、誰もが簡単にウェブサイトを持てるようになった昨今、より気軽に、なんの理由もなくリンクをする、検索結果に出ていたx番目のサイトにリンクを貼ってみる。そんなリンクがこれ。

2つ目は、友達や親類、仕事仲間からのリンク
1つ目と非常に似ているが、こちらは見知った人達からのリンク。
リンクを貼ったサイトにはとくに興味がないが、とりあえず付き合いで貼っている、そんなリンクがこれ。

3つ目は、引用のリンク
記事を書く際の補強や、説明のために引用する際、リンクを貼るリンク。
引用の仕方に関わらず、また引用された側のサイトの権威にも関係なく、サーチエンジンはこれらのリンクを多くの場合、権威ウェブコンテンツとして判断する。

4つ目は、プロモーション・リンク
広告などのプロモーションではなく、本当にどんなことをしてでも共有したいリンク。
4つのパターンの中でもっとも数少ないパターンでもあるリンク。

ここまで書けばきっと想像がついただろう。3つ目と4つ目がSEOにおいて重要視されるリンクパターンだ。

リンクベイトとは、ほとんどの場合この3つ目を強化する手法である。
4つ目は優れたサービスや機能を提供し、かつ効果的なマーケティングによりおそらく、それでもおそらく、獲得できる種類のリンクである。

被リンクの分析に必要な6つの質問

被リンクは重要ではあるが、その数が重要なのではなく、質。
被リンク戦略を考える際、念頭に置いておくべき質問を紹介しよう。

どこからリンクがされているのか?
それらのリンクはページのどこに配置されているか?
それらのリンクはどのくらいの期間貼られているか?
だれがそのリンクを貼ったのか?
なぜそのリンクを貼られたのか?
どのサーチエンジンがそのリンクをカウントしているか?
これらの質問に答えることが出来れば、質のいい被リンク、SEOにおいて価値のあるリンクがどのくらいあるのか知ることになるだろう。

被リンクの数でしか、SEOできないのであれば、それはSEOとは言えない。
百万の被リンクがあっても、コンテンツがなければ成立しないからだ。

2007年8月6日月曜日

Googleに挑戦? Wikipedia創設者の検索プロジェクト

 Wikipedia創設者のJimmy Wales氏が、進行中の新プロジェクト「Search Wikia」の概要を発表した。これまで情報が少なく、進行状況はあまり知られていなかったSearch Wikiaだが、新たに分散型技術を取得したことを発表するなど、形が見え始めている。Wales氏は「Wikipediaが百科事典の世界で革命を起こしたように、検索エンジンの世界で革命を起こす」と鼻息も荒い。

 Search Wikiaは、Wales氏が共同設立した営利組織Wikiaのプロジェクトとして、2006年12月に発表された。今回、7月23日~27日に米ポートランドで開催された“OSCON”こと、「O'Reilly Open Source Convention 2007」の基調講演で、Wales氏は分散型検索技術「Grub」を取得したことを発表するとともに、Search Wikiaのビジョンを語った。

 Search Wikiaは、「透明性」「コラボレーション」「クオリティ」「プライバシー」の4つの根本方針を持っている。アルゴリズムではカバーできない人間の知を重要な要素に、オープンソースの検索プロトコルと人間のコラボレーションを土台とする。Wikiaはすでに、同プロジェクトを統括する責任者として、XMPP(Extensible Messaging and Presence Protocol)の開発者であるJeremy Miller氏を引き入れている。Miller氏は、オープンソースのIMアプリケーション「Jabber」の開発元であるJabber Software Foundationを立ち上げたことでも知られる。

 プロジェクト発足から半年あまり、Wikiaは今回、プロジェクトの強化のため、米LookSmartからGrubを取得した。Grubは一般ユーザーのPCの使われていない処理能力を利用する分散型クローラーである。オープンソースプロジェクトとして誕生したが、LookSmartに買い取られたことでクローズド状態となっていた。Wikiaはこれを取得して、7月27日、Grubのソースコードを4年ぶりにオープンソースとして公開。開発者に参加を呼びかけた。

 Grubの取得によってSearch Wikiaは大きく前進するとWales氏は言う。GrubはSearch Wikiaの重要な要素となりそうだ。だが、Search Wikiaが世界中に分散したGrubクライアントをどのように利用するのかなどの詳細についてはまだ明らかになっていない。

 OSCONでのWales氏のスピーチによると、Search Wikiaは“検索分野のLAMP(Linux、Apache HTTP Server、MySQL、Perl/PHP/Python)”を目指しており、オープンソース検索技術の「Apache Lucerne」などオープンソース技術をベースとしたものになるようだ。

 Search Wikiaは当初、Wikiaの検索エンジンとして利用されるが、Wales氏はさらに大きな野望を抱いているようだ。Red Herring誌などによると、Wales氏は、「今後、他のWebサイトや中小規模企業が利用できるレベルを目指す」と述べている。

 「Google」の圧勝で勝負が決まったかのように見える検索エンジン分野だが、Wales氏がSearch Wikiaで狙うものは何なのか―? プロジェクトの目標は単なる技術の競い合いではなさそうだ。

 Wales氏はOSCONの基調講演とメーリングリストで「Wikipediaが政治的なミッションであるのと同様に、(Search Wikiaも)政治的なミッションだ」と語っている。「検索はインターネットにとって重要なインフラの一部であり、他のインフラの多くがフリーであるのと同じようにフリーであるべきだ。Web検索システムに関連した編集審査を明確にすべきだ」(Wales氏)というのである。

 これは、Search Wikiaの4つの方針の「透明性」にあたる部分である。米Googleや米Yahoo!などが提供する検索エンジンはプロプライエタリな技術に基づいている。Wales氏は、インターネットのインフラであるからこそ、フリーであること、オープンであることが重要だと考えているようだ。

 もう1つのキーワードは、「コラボレーション/参加」だろう。これは、Wikipedia、Wikiaを通じて、Wales氏が追求している思想で、ユーザーの参加によって質と量を高めていったWikipediaと同じことを検索で実現しようとしている。

 Wales氏はOSCONの講演で、「検索は、オープンソース開発者が大企業に対抗するチャンス」と語った。だが、メーリングリストでは、Googleとの競合について、「このミッションを“Google対抗”という観点で見るのなら、負けるだろう」とも述べている。

 「なにかクールなものを構築し、その過程を楽しむべきだと思っているだけだ」(Wales氏)。そして、そのための忍耐を参加者に呼びかけている。

 Wales氏は、Wikipediaで人間の知を結集した百科事典を、Wikiaで百科事典にとどまらない図書館を作り上げた。今度のSearch Wikiaでは、フリーアクセスにフォーカスしたものとなる。既存の検索エンジンに対抗するというよりも、インターネットや自由を追求するプロジェクトといえそうだ。

 Search Wikiaは、年内に最初のリリースとなる見込みという。

SEO に役立つキーワード活用法(応用編2)



検索フレーズの特徴・活用
検索フレーズは、検索キーワードと比較すると、当然、検索する訪問者数が少なく、集客効果が低い。しかし、その中でもアクセスされ、サイトの目的達成に繋がる検索フレーズも存在する。更に、「不動産」よりも「東京 不動産」の方が、訪問者が「東京近隣の不動産を探している」といった「訪問者の具体的なニーズ」がわかる。そのため、サイトの目的にマッチした関心の高い訪問者を獲得することができる。(参考:SEO に役立つキーワード活用法)

上述の不動産会社の場合、検索キーワード分析で「不動産+α」が有効であることがわかった。では、不動産を含めたキーワード(プラスα部分)を、検索フレーズ分析で確認してみよう。よりサイトの目的に合ったキーワード(ニーズ)を見つけ出すことで、効果の高いキーワードの厳選になる。




この場合、検索フレーズ分析の結果、訪問者のニーズは「不動産を売りたい」「不動産を借りたい」といった点にあることが分かる。このように、検索フレーズでキーワードの深堀を行うことで、「サイトの目的達成に繋がるキーワードの厳選」や「競合の少ない独自キーワードの発見」が行える。

加えて、検索フレーズ分析では、運営者が想定しないキーワードを確認することもできる。キーワードリストの上位には想定しているキーワードが並ぶが、下位を見てみると思わぬ想定していなかったキーワードが並ぶ場合がある。また、下位に並ぶ検索フレーズの中には、サイトの目的達成に直結するキーワードが眠っている場合があるので、注目していただきたい。

これまでお伝えしたように検索キーワードと検索フレーズは、運営サイトにおけるキーワードの効果を確かめるのに有効である。しかし、アクセス解析は自社サイトのアクセスのみを反映しているため、自社サイトでのアクセスが多くても、選定したキーワードが、大衆に認知されていない場合は、結果として、アクセス数(集客)は伸び悩んでしまう。

そこで、集客力、大衆の目線を意識するためには、キーワードアドバイスツールを利用するのが良い。

キーワードアドバイスツールの活用キーワードアドバイスツールとは、指定したキーワードを含む、キーワードの種類と検索数を教えてくれるものである。

アクセス解析のデータは、解析対象サイトへ訪れた際のキーワードの種類と流入数であるが、キーワードアドバイスツールのデータは、検索エンジンで使用されたキーワードと検索数である。運営するサイトだけでなく、検索エンジンで一般的に検索されるキーワードのデータを確認することができる。

アクセス解析で注目したキーワードが、どのくらい検索されるキーワードであるのか、大衆の認知度を確認すると良い。




また、幅広くキーワードの種類(プラスα部分)を確認することができるため、新しいキーワードを開拓する際にも役立つ。その際は、キーワードアドバイスツールでキーワードを検討し、SEO 対策後に、どのくらいのアクセスがあり、目的を達成したかどうか、効果検証のツールとしてアクセス解析を用いると良い。

SEO に役立つキーワード活用法(応用編1)



前回のコラム「SEO に役立つキーワード活用法(実践編)」では、アクセス解析を使ったキーワード選定法の流れをお伝えした。

1.サイトの目的やページごとのテーマを明確にする
2.運営者が訪問者に期待するキーワードを想定する
3.訪問者が利用するキーワードを確認する

これらの内容を意識して、実際にアクセス解析でキーワードを確認された方がいたならば幸いである。今回は、キーワード活用法に関して、さらに一歩踏み込んだお話をしたい。

■検索キーワードの種類
みなさんが検索エンジンを使用する際、1つの単語で検索されるだろうか。それとも複数の単語で検索されるだろうか。インターネット上には膨大な情報がある。自分の欲しい情報がすぐ見つけられるよう、複数の単語で検索する方は多いのではないだろうか。

現在、検索エンジンの利用数は、単語を「単数」「複数」で検索を行う人の割合は、それぞれ50%ずつという調査結果も出ている。

検索エンジンでは、当然「単数」と「複数」では、得られる情報が異なってくる。そのため、SEO を行う際も「単数」と「複数」によって競合となるサイトも変わってくる。この点、アクセス解析の種類によっては、「単数」と「複数」データを別に統計し、傾向を示唆してくれるものがある。今回は、検索キーワードの種類「単数」と「複数」について、それぞれの特徴と SEO に向けた活用法を紹介したい。

■アクセス解析での「単数」と「複数」キーワード
アクセス解析の場合、検索エンジンで使用する単語「単数」を「検索キーワード」、「複数」を「検索フレーズ」などと呼ぶ。検索フレーズ分析では、複数の単語を使用した場合、キーワードを単数に分けて統計する。

例)「アクセス解析 キーワード」で検索してサイトを訪問した場合
・検索キーワード分析:「アクセス解析」1件、「キーワード」1件の流入
・検索フレーズ分析:「アクセス解析 キーワード」1件の流入




それでは、アクセス解析の検索キーワード・検索フレーズの特徴・活用法を述べていく。

■検索キーワードの特徴・活用
まず、検索キーワードを考えてみよう。不動産会社の場合、検索パターンとしては、「不動産」「土地」「住宅」など、様々な検索キーワードが考えられる。




検索キーワード分析を見た際に、検索結果の上位が「不動産」ならば、訪問者は「不動産+α」で多く検索しているといえる。この場合、「不動産」を含めたキーワード(不動産+α)が SEO に有効な一手であることがわかる。

つまり、検索キーワードは、SEOを行う際に「どのキーワードを中心としたら良いか」を考えるキーワードの選定に役立つ。しかし、「不動産」というキーワードが分かっても、単数のキーワードのみで SEO を行う場合は、以下のようなデメリットがある。

・キーワードの種類は膨大となるが、多数のキーワードに対して SEO 対策を実施すると、1ページ内の1単語ごとの比率が下がっていく。その結果、SEO 効果が下がる。
・キーワードごとに SEO を行う必要が出てくるので、SEO の手間やコストも倍増する。
・大衆に認知されている単語は、SEO 効果を狙う競合が多いため、上位表示が難しい。 など

では、どうしたらよいのだろうか。そこで、解決するための次のステップとして「キーワードの深堀=中心としたキーワード+αの検索フレーズの発掘」が必要となる。

2007年8月5日日曜日

SEOとユーザビリティ

3クリックルール

ウェブユーザビリティにおいてもっとも古いルールの1つであるこのルールは、実はSEOにおいても大切なルールでもある。

3クリックルールとは、どのページを訪問してもほかのサイト上のどのページにも3クリック以内にたどり着けるようにするべき、というルールである。
一見すると簡単に思えるが、その実、サイトが巨大化すればするほど困難になっていく。
優れたサイト設計、優れたナビゲーションデザインがあってこそ実現することができる。

ユーザビリティ観点では、カスタマーは目的のページに3クリック以内にたどり着けなければ、ほとんど場合サイトから離脱してしまうためこのルールが重要視されるが、
その3クリックルールとSEOと、どう関係するか?

SEOの基礎を振り返る

サーチエンジンボットにページがクロールされるところからSEOはスタートする。
サーチエンジンボットは外部からのリンクを辿って自分のページを訪問する。サーチエンジンにはURL登録フォームがあるが、登録に時間をかけるより、被リンク戦略に時間をかけた方が有意義だろう。
話がそれたが、このサーチエンジンボットは、訪れたページにあるリンクを探す。
もしクロールされたページが完全な離れ小島のようなページだったら、折角のクロールも無駄になってしまう。

外部からのリンクはSEOにおいて非常に重要視されるが、コントロールすることができない。サイトのどのページがリンクされるかは、わからないわけだ。
外部からのリンクは往々にして、サイト情報構造上の下部ページにリンクはされる。
サーチエンジンもカスタマーもサイトの下部に位置する場所にあるユニークなコンテンツを探しているからだ。

だからこそ、3クリックルールをすべてのコンテンツページに適応することが大切になってくる。
サイトのトップページから全ての下部ページに誘導するトップボトム構造しかもたないというのは、SEOにとって致命的と言えるだろう。
トップページやハブとなるページなどの効率的なナビゲーションをもっとも持たせやすいページに、どのようにサーチエンジンボットを誘導するかが鍵となるのだ。

では、上の文章にあるサーチエンジンボットをユーザー、またはカスタマーと言い替えてみよう。
そう、人もサーチエンジンも同じなのだ。

すべてのカスタマーに使いやすいサイト構築を

ページを訪問するカスタマーをどのように効率よく誘導するか?という観点は、SEOにとってもよい結果をもたらす。
サーチエンジンボットもまたページを訪れるカスタマーなのだ。

SEOとはいかに検索結果の上位に表示させるか? ではなく、いかに効率的に検索結果の上位に表示させるかの技術だ。
Googleのページランク、検索のロングテール化、インデックスされたページ数における優位性、これらの効果を最大化するために、3クリックルールは今すぐにでも見直すべきだろう。

2007年8月4日土曜日

グーグル、「関連検索」を検索結果上部にも表示

Googleが関連検索の表示位置を検索結果画面の上にも表示するようになった。これまでは検索結果の下(10件目の下)だったが、画面上部のアドワーズ広告と自然検索1件目の間にも表示する。


Yahoo!の関連検索は直近でユーザがよく検索する組み合わせキーワードを表示するのに対して、Googleはウェブページで一緒に記述されることが多いキーワードを表示する。例えばSEOと検索するとYahoo!は「seo クリエイティブウェブ、seo対策,yahoo seo、seo tools」を表示するが(2007年8月3日 10:00時点)、Googleは「SEO対策, SEOツール, seo tools, モバイルSEO, SEO キーワード, 携帯 SEO, SEO 無料, seo tool, ブログ SEO, yahoo seo」と表示する。

SEO に役立つキーワード活用法(実践編3)

■ ユーザーが利用するキーワードを確認する
最後に、目的に沿って想定したキーワードが訪問者の利用するキーワードであるかどうかを確認する。

前回のコラムでもお伝えしたが、訪問者が実際に使用したキーワードを確認することは非常に重要なことである。目的達成を想定したキーワードが、実際は訪問者が使わないものであったならば、アクセス数すら集まらず、訴求どころではない。訪問者がより多く使用するキーワードであり、かつ、目的に沿ったキーワードを選定しなければならない。

例えば、Web セミナーの運営会社であれば、有料セミナーのお申し込みが目的となる。ターゲットとしては、「有料の Web セミナーに興味がある」訪問者だ。

訪問者が検索エンジンで「有料 Web セミナー」と入力したなら、自社のページと訪問者の要望は一致し、申込を検討するのではないだろうか。したがって、目的達成のためのキーワードは「有料 Web セミナー」と想定できる。

しかし、実際には、「有料 Web セミナー」での検索はほとんどない。「有料 Web セミナー」と入力するよりも「Web セミナー」というように「有料・無料」を断定しない、広義に意味の取れるようなキーワードで検索する人の方が多い。また、「ウェブ セミナー 費用」などのように運営側では想定できないキーワードが存在する。

SEO 効果向上を考えるならば、目的達成という視点だけでなく、訪問者がより多く使用するキーワードを考える必要がある。

■ キーワード選定に役立つアクセス解析活用法
キーワードを選定するために、アクセス解析の「検索キーワード分析」が効果的である。

アクセス解析の検索キーワード分析では、「訪問者が検索に使用したキーワードと、そのキーワードでの流入数」がわかる。訪問者が何に興味を持ってサイトを訪れたのかを確認することができる。また、「目的のページに達した訪問者の検索キーワード」もわかる。これを参考にし、目的達成しやすいキーワードを発見することができる。

実際に訪問者が使用したキーワードを確認し、運営者が目的達成のために想定したキーワードとニュアンスの異なるものや、+(プラス)αがあったならば、訪問者が興味を持つキーワードに変更することで、効果を上げることができる。さらに、運営側が想定したキーワードで SEO を行った後、結果として、そのキーワードが有効であったかどうかの指標としても確認するこができる。

今回は、SEO のターゲットキーワードの選定に役立つ「検索キーワード活用法」を紹介した。キーワードは一度選定して終わりではなく、常に訪問者の状況に合わせ変化すべきものである。選定したキーワードに関して、今回の内容を意識して今一度ご確認いただきたい。

SEO に役立つキーワード活用法(実践編2)

■ サイトの目的やページごとのテーマを明確にする
SEOを行った際、こんな経験をお持ちではないだろうか。「アクセス数はアップしたが、同時に1ページ離脱者も増加してしまった。」

前回のコラムでもお伝えしたが、アクセス数がアップしたとして、目的のページまで到達しない訪問者がいくら増えても SEO が本当の意味で成功したとは言えない。SEO を行う際には、「サイトの目的を達成する」という視点が大切である。

アクセス数アップを図るだけでなく、「目的達成」に繋がる訪問者を獲得する。目的を意識した施策を行うために、サイトの内容やページごとのテーマ・目的を明確にする必要がある。

■ 運営者が訪問者に期待するキーワードを想定する
サイトの内容やページごとのテーマ・目的を明確にしたならば、次は目的を達成するだろうキーワードを想定する。

サイトの目的を達成する訪問者の行動は様々あるが、必ず何らかの「流入」をする。流入という行動からは属性情報がわかる。特に、流入の属性情報の中でも特徴的なのは訪問者が検索エンジンで入力したキーワードである。このキーワードは、訪問者が何に興味を持ってサイトに訪れたのかを表している。そのため、目的に合ったキーワードを想定することはターゲットを絞り込むことにも繋がり、訴求力向上となる。

SEO に役立つキーワード活用法(実践編1)

前回のコラム「SEO に役立つキーワード活用法」では、アクセス解析でわかる「キーワード(リンク元)」に関して2点お伝えした。

・SEO で効果を上げるために、まずはサイトの目的を意識すること
・正しい単語より、訪問者が実際に使用したキーワードが重要であるということ

今回は、実際に SEO を行う際の第一歩「ターゲットキーワードの選定」についてお伝えしたい。


■ ターゲットキーワードの選定
SEO を行う際、最初のステップとなるのが「ターゲットキーワードの選定」である。ターゲットとなるキーワードを選定し、サイトにキーワードを埋め込むことで SEO は始まる。

この「ターゲットキーワード選定」で重要なことは3点
・サイトの目的やページごとのテーマを明確にする
・運営者が訪問者に期待するキーワードを想定する
・ユーザーが利用するキーワードを確認する

これらの重要性と SEO で効果を上げるために実際にアクセス解析を用いてどのように確認すればよいのか紹介する。

2007年8月3日金曜日

SEO に役立つキーワード活用法

アクセス解析ツールで取得できる「検索キーワード」
アクセス解析ツールで取得できるデータの一つに「リンク元」がある。リンク元とは、Web サイトへ訪問者がやって来たとき「どこからやって来たのか?」というような、そのサイトの1つ前に訪問者が見ていたページを教えてくれるものだ。

また、このリンク元は、関連ページや広告バナー、検索エンジンなど「どこから来た?」という情報だけでなく、検索エンジンで訪問者が実際に使用した単語(キーワード)を教えてくれる。このキーワードは、「サイトに訪れるユーザの声=ユーザの興味関心」がわかり、サイト改善やリスティング広告・SEO 対策などの目的で、サイト運営者、マーケティング担当者に幅広く注目されるものである。

リンク元が教えてくれる「キーワード」に関して、今注目度の高い「SEO 対策」にどのように活用すればよいのか伝えていきたい。

どのようにすれば、SEO 対策は成功か
まず活用法を述べる前に、目指すべき方向性を定めておこう。「SEO 対策の成功とは何か?」…それはやはり「アクセス数のアップ」であり、さらには「そのサイトの目的をどれだけ達成できたか否か」がその判断基準となるだろう。

この目的とは、メルマガ会員を募集するサイトならば応募フォーム。商品を購入するサイトならばカートなどが考えられる。サイトにお申し込みフォームなどが無い場合も含め、サイトの訪問者に「一番見てもらいたいページ」と考えていただければ良いだろう。また、この目的となるページへ訪問者がたどり着いた時、それを「目的を達成した=コンバージョン」と言う。

SEO 対策を施してアクセス数が増えたとする。しかし大半は「トップページですぐに離脱してしまう」というように、コンバージョンにまで達しない訪問者が増えていてはその施策は成功とはいえないだろう。SEO 対策の良し悪しを判断するには、アクセス数のアップだけでなく、コンバージョンを意識することが非常に大切である。

正しい単語より、訪問者が使う単語を大切に
それでは本題。SEO 対策を施す上での「検索キーワード」の活用法をご紹介しよう。

SEO を考える際、そのキーワードの選定はどのようにされているだろうか。こんな例がある。SEO の施策を考えたサイト運営者は、キーワードの中に「シミュレーション」というキーワードを選んだ。しかし、どうにもアクセス数が伸びない。そこでアクセス解析の検索キーワード分析を活用した。

アクセス解析でわかる検索キーワードは、訪問者が実際にそのサイトに訪れた際に使用したキーワードである。解析結果を確認し、そこで初めて分かったのは、「訪問者は『シミュレーション』ではなく、『シュミレーション』というキーワードを検索していることが多い。」ということだった。

確かに、「シミュレーション」は単語として正しい。だが、SEO 対策を施すには、正しい単語よりも訪問者が検索する単語の方が大切である。訪問者が検索したキーワードを確認して、サイトの文章を合わせると良いだろう。

このように、検索キーワードは「訪問者がどんなキーワードを利用しているのか」を確かめるために有効である。

また、コンバージョンを意識した際も同様である。コンバージョンした訪問者が使用したキーワードで、サイト運営者が想定していないキーワードの多いものとして、企業名や商品名などがある。「名前」で検索する訪問者は、興味関心が高い訪問者といって間違いないだろう。その「名前」に一致したものがサイトにあれば、すぐコンバージョンに結びつく。

しかし、訪問者が実際に検索する際は、長い名前を直接入力することは少ないだろう。また、漢字を「ひらがな」で入力したりと、「想定できないキーワード」があるかもしれない。闇雲にキーワードを選定しては、コンバージョンに繋がる訪問者さえ逃がしかねないということだ。

SEO 対策を施したキーワードが「適切かどうか」、キーワード分析で確認していただきたい。

2007年8月2日木曜日

経路分析でコンバージョンを増やす方法 後編

前回に引き続き、「経路(動線)」に触れてみたい。

入口、出口ページやリファラーといったデータをさらに掘り下げ、訪問者がどのような経路でページを閲覧したのか、より詳細に調べるための手法が「経路解析」である。

経路には「効率の良い経路」と「効率の悪い経路」が挙げられる。
※「効率の良い経路」とは、途中での離脱率が低い経路。
※「効率の悪い経路」とは、途中での離脱率が高い経路。

ユーザーをコンバージョンへ誘導するためは、効率の「悪い経路」を「良い経路」へ改善する方法もある。しかし、「効率の悪い」経路を切り捨てる方法もある。幅広い商品やサービスを提供していると、他社との競争に巻き込まれる可能性がある。効率の悪い経路を切り捨てることで、ホームページ内の商品やサービス情報をある程度限定し、ビジネスを成功に導いくケースがある。

ある法人向けの不動産会社のケースである。他の不動産会社同様、「住宅賃貸」・「マンション売買」・「アパート賃貸」や「住宅売買」など、不動産全般を取り扱っていた。競争の激しい不動産業界で勝ち抜く手段として、「アクセス解析」によるホームページの改善を行なった。まず、各サービスページから、最終目的ページまでの「経路解析」と閲覧経路にあたるページ離脱率のチェック、提供されている情報などを詳細に検証した。

検証の結果、訪問者をコンバージョンに誘導できていないサービスがあることが分かり、思い切ってそのページを削除した。「マンション売買」や「アパート賃貸」などのサービスがホームページから削除された。そして「戸建賃貸」の離脱率が低いことが分かった。そこでホームページで扱う商品群をあえて「戸建賃貸(リロケーション)」に特化したところ、売上が30%増となった。

上記の例は、ホームページ改善に「アクセス解析」を用い改善ではなく、効率の悪い経路を切っていくことで特化すべきサービスが見えた例である。

問題と思われる箇所を改善するため、施策・対策を練り、そして実行に移す。その実行結果から、どの箇所を改善したことが、結果的に効果に繋がったか、明確にする為には経路が非常に重要である。

2007年8月1日水曜日

経路分析でコンバージョンを増やす方法

品揃えは豊富だが、陳列の悪いスーパーには行きたいとは思わない。なぜなら、欲しいものを探してもなかなか見つからないからだ。そんな時、ストレスを感じ、購買意欲も失せるというものだ。逆に、品揃えは少なくても、陳列が良く、目的の商品が見つけやすいスーパーは、使い勝手が良く、好感が持てる。つい、また行きたいと思ってしまう。見つけやすい売り場や陳列棚を作るコツは、お客様の目線=「顧客の動線」を知ることが一番大切である。

ホームページも同様に最適な動線の組み立てが非常に重要である。アクセス解析ツールを利用すれば、「入口・出口ページ」や「リンク元」といったデータをさらに掘り下げ、
 ・ユーザーがどのような経路でページを閲覧していったか
 ・迷わず目的の商品まで辿り着けたか
など、ホームページ内のユーザー行動が見えてくる。

いまやユーザーの行動を具現化する経路解析は、アクセス解析ツールの基本機能となり、各種様々な工夫を凝らしている。単純な経路の把握なら、根気があれば自力で解析することも不可能ではない。しかし、ページ数が多く階層構造が複雑な場合や、簡単に有益なデータを把握したい場合は、やはりアクセス解析ツールの経路解析データを見るといいだろう。

アクセス解析ツールの経路解析のデータを見てみると実に様々なことがわかる。

「効率の悪い動線」
その経路を通るアクセス数は多いのに、離脱する割合が多い動線は、「効率の悪い動線」といえる。この場合、特にユーザーを逃しているページを発見し、そのページを改善することでコンバージョン数を増やすことができる。

「効率の良い動線」
その経路を通るアクセス数の多い少ないに関わらず、離脱する割合が少ない動線は、「効率の良い動線」といえる。「効率の良い動線」でアクセス数が少ない場合は、その経路へ誘導をするページをより目立たせる、検索連動型広告のリンク先に指定する、などの施策をうつことで、よりコンバージョンの増加に結び付けることができる。

「想定していない経路」
サイト制作時には、「入口ページ」から「コンバージョンページ」に到達するまでの、ユーザーが辿るであろう「最短な道のり」つまり、あらかじめ想定していた経路を描きながら、サイト内情報や掲載内容を決めるのでないだろか。

しかし、必ずしも制作側の意向と、ユーザー側の思惑が一致するとは限らない。「想定する経路」よりも、「コンバージョン率の高い経路」が出現する場合が多々ある。それが「想定していない経路」である。「想定していない経路」が多く出現した場合、リンクの位置やコンテンツの内容を変更するなどの施策を行うことで、コンバージョン数を増やすことが大いに期待できる。

このように経路解析を見ていくと、ユーザーの行動や嗜好がおのずと見えてくる。アクセス解析ツールでの経路は、ユーザービリティ(使いやすさ)の改善や、今後のコンテンツ作成において貴重なデータになる。これからも大いに経路解析を利用していただきたい。


記事提供:株式会社環

2007年7月31日火曜日

解析やってる?

今回でこのコラムも12回になる。このコラムを読んでいただいている方は、既にアクセス解析ツールを導入されているか、お試しいただいているはず。ですよね?

だが念のため、まだ使われていない方のために、もう一度コラムを通じて、「気軽に『アクセス解析ツール』をいろいろ試してみては?」とご提案したい。

Web サイトを車に例えてみよう。車の調子が悪いと感じると、すぐにディーラーに持ち込む人もいるだろう。普通そうだろう。しかし、旧車乗りのように、自身でトラブルの原因をみつけ、対応方法を考え、修理してしまう人もいる。普通は、車に関してはプロにお任せというのは当然であろう。しかし急速に進化する Web の世界では、ホームページの運営を業社に丸投げでは、十分な利益を上げ続けることが難しいのが現実である。

全部自分で直せる、とまではいかなくても、トラブルがあったら自分自身で Web のトラブルを発見し、対応を考えられる。そのお手伝いをするのが「アクセス解析ツール」であると考える。

車でも「トランクの無いスポーツカー」「道なき道を行くオフロード車」「乗り心地の良い高級車」など、好みも用途も多種多様である。アクセス解析ツールも同様である。ぜひ一度、アクセス解析ツールに「ご試乗」いただき、好みと用途に合ったものを選んでいただきたい。

ファーストメディア、被リンク提供サービス「被リンク対策.com」開設

SEO 対策の有効な手段のひとつに「被リンク」がある。外部サイトからリンクを受けることによって人気の高いホームページと判断され、上位に表示される仕組みで、同じテーマの良質サイトからの被リンクが効果的だ。株式会社ファーストメディアは2007年7月30日、被リンクを受けたい会社と被リンクを掲載したいサイトの仲介をするサービス「被リンク対策.com」を開始した、と発表した。被リンクを受けたい会社はキーワードやカテゴリで、掲載サイトを探すことができる。1か月間の掲載料金はサイトの質によって1,330円から。開設後間もないため、被リンク提供サイトは少ないが、今年中に被リンク提供サイトを1,000サイト、広告主100社を目標としている。

2007年7月30日月曜日

livedoorメールにGmail採用 「黒字化へ最後の一押し」

ライブドアは7月24日、無料のWebメールサービス「livedoorメール」で8月中旬から、Gmailのシステムを採用すると発表した。livedoor IDによる認証システム、メールアドレス、ロゴのみ同社のものを残し、サーバの提供から運用、サポートまでGoogleが担当。ユーザーインタフェースもGmailとほぼ同じになる。 「Webメールはコストがかかるが収益化できない。だが一度始めた以上、やめるわけにもいかない」――Gmail採用の最大の理由は、無料で利用できるというコストメリットだ。背景には、直近の黒字化を目指している同社の台所事情がある。●「ギガメーラー」で容量競争の口火を切ったが…… 「livedoorメール」の前身である「livedoorギガメーラー」のオープンは2004年7月。Googleが1Gバイトのメールサービスを発表して世間を騒がせた3カ月後に、国内で初めて1Gバイトのメールボックスを無料で利用できるWebメールとして登場した。 堀江貴文元社長のもとで、次々に新サービスを投入していた当時。サービスインのスピードを重視し、設計とシステム開発は外部に委託した。サーバは自社のものを利用し、運用も内部で行っているが、システム自体はいまもアウトソーシングしている。 同社の池邉智洋CTO(最高技術責任者)によると、メールサービスは「規模感のわりにはコストがかかる」もの。livedoorメールの月額コストは「数千万円の前の方」(同社執行役員の田端信太郎氏)で、オープン以来赤字だ。自社のデータセンターを使っているとはいえ、200万ユーザー(累計登録数)分のサーバ費用は小さくない。加えて、スパムフィルター対応やユーザーサポートにも手が取られる。 バナー広告やメールマガジン広告による収入もあるが、コストをカバーし切れない。加えて、2年前作ったシステムのままでは今後スケールできなくなってくるだろう――という不安もあり、サービスのリニューアルは必須だった。●Gmailは「使ったことがあったから安心」 ただ一から開発し直すのは高コストな上、スパムフィルターなど蓄積がものを言う機能がどうしても弱くなってしまう。かといってやめる訳にはいかないため、アウトソーシング先を見直すことに。候補はいくつかあったが、「自分でも使ったことがあり、スケール面でも安心な」(池邊CTO)Gmailに決めた。 Gmailならサーバからサポートまで無料で利用できる上、ライブドアとのID連携機能も容易に構築可能だ。「公開仕様のSAML(Security Assertion Markup Language)に対応しているから、ID連携も当社が開発でき、相手先が作業し終わるのを待つ必要もない」(池邊CTO) Gmailは検索性も高く、スパムフィルターが強力。1人当たりの容量も2Gバイトと従来の2倍に拡大でき、ユーザーメリットが大きい。「livedoorブログにアドレスをさらしても、強力なフィルターがスパムをはじいてくれるため、ブログユーザーがこれまで以上にメールを使ってくれるのでは」(田端氏) 同社は以前から検索にGoogleを採用しているほか、今年に入って、ニュースやブログにAdSenseを表示するなど、Googleサービスとの連携を強めてきた。「Google経由の広告収入が、全体の3分の1程度にまで増えている」(田端氏)――すでに深い関係にあるGoogleのGmail採用に至ったのは自然な流れだった。 Googleにとってのメリットは、広告収入とユーザー層の拡大だ。新livedoorメールに表示したAdSense広告からの収入はGoogleに入るほか、200万IDを持つメールユーザーが流入することで、Google検索ユーザーのすそ野を広げるのに役立つ。 「ギガメーラーが出た当時、各社ともWebメールで容量競争をしたが、あれはチキンレースだった。Webメールは、負担の割にはビジネスとしておいしくない。かといって一度始めた以上、その責任は当然、投げ出すことはできない。Gmailが大手ポータルに採用されるのは初めてらしいが、今後、当社のようにGmailを採用する会社も増えてくるのではないか」(田端氏)●移行は「ユーザー手作業」 アドレス整理も 新livedoorメールは、認証など“入り口”だけをlivedoorが担当し、それ以外はGoogleが提供するGmailと共通のシステムを利用する。ログイン時にlivedoor IDとパスワードを入力し、ユーザー画面にlivedoorメールのロゴが表示される以外は、見た目も機能もGmailと同じだ。 メールアドレスは、従来の「livedoorID@(サブドメイン).livedoor.com」からサブドメインが取れ、「livedoorID@livedoor.com」に変わる。旧アドレスに来たメールは新アドレスに転送される。 既存のlivedoorメールユーザーで、過去のメールを新システムに移行したい場合は、POPで公開されたログを新システムで吸い出す作業が必要。この作業をしてもらうことで、200万あるアカウントからアクティブユーザーのみが移ってくれ、メールアドレスなどの整理もできると見ている。●黒字化への「一押し」 ネット専業の事業会社としてこの4月に再出発した同社。事業の整理・再編を続けており、「ポータル事業はあと一押しで黒字化する」(田端氏)というところまで来た。livedoorメールのGmail化は、強力な「一押し」になるという。 「実は、以前のライブドアでは他社と協業すること自体が考えにくかった」(田端氏)。堀江元社長のころの同社には、「何でも自社でやってしまおう」という勢いがあった。「まじめに『世界一を目指す』と言っていて、誇大妄想的な部分もあったが、いまは総取りしてしまおうというのではなく、他社との提携にも積極的になった」(田端氏) 今では例えば、ニュースコンテンツをYahoo!JAPANに配信したり、ブックマークを相互に乗り入れるなど、堀江元社長が敵対視していたヤフーとも密接に協業している。今後も、他社との提携を含めて事業の整理・再編を進め、RSSリーダーやブログサービスなど、強い部分に注力していく。

Yahoo! デベロッパーネットワーク、Yahoo! トピックス取得 API 公開

ヤフーは、2007年7月30日、同社が提供する「Yahoo! デベロッパーネットワーク」にて、「トピックス API」を公開した。トピックス API では、開発者が自分の作成するアプリケーションにおいて、「Yahoo! トピックス」のデータを簡単に取得できる。利用するためには Yahoo! デベロッパーネットワークに登録する必要がある。Yahoo! トピックスはこれまでも、ブログパーツ、ウィジェット、RSS 配信などを提供してきたが、今回は API を公開、yahoo.co.jp ドメイン以外でのユーザーとの接点の拡大や、新しいアイデアの収集を行うという。取得できるデータは単純にジャンルごとだけではなく、ある特定のワードに絞りジャンルを横断したトピックスや、PV 順などのデータも取得可能。