ブログ

SEOとGoogleの本質

2014年1月20日 11:00 | パソコン関連 | | 204 views
タグ: , , , ,

このエントリーをはてなブックマークに追加
はてなブックマーク - SEOとGoogleの本質
reddit にシェア
Pocket
LINEで送る

スクリーンショット 2014-01-17 18.45.48

サーチエンジン最適化、Googleの検索の際に上位に表示されること、これをSEOと呼びます。

このSEOという部分だけを取り出して、Googleの挙動に一喜一憂してしまうのはあまりにコントロール性がないように思います。

Googleが何を目的としているのかを把握することが大事なのではないかと考えます。

SEOを語るうえであまり語られないGoogleの本質について考えてみます。

Googleはギーク企業

Googleを語るうえで欠かせない要素として、ギーク的な風土を持っていることがあげられます。

ギークとは技術オタク的な人のことを呼ぶ、くだけた言葉です。

当初Googleはトップページに現在データベースに登録しているページ数を表示していました。

現在当たり前のクローラー形式の検索エンジンがまだ珍しかった中で、Googleはこれだけ多くのページをかき集める能力を持っていると、誇示したかったのです。

スクリーンショット 2014-01-17 18.55.02

またページランクによる順位決定アルゴリズムは、他社よりも優秀で、利用者が必要とするページを上位に持ってくる仕組みでした。

これはGoogleが現在順位決定をしているプログラムに比べれば、原始的なものでしたが、シンプルな解決法でニーズを満たすことこそ、ギークとしては誇らしいことだったのです。

また現在でも、

スクリーンショット 2014-01-17 18.58.18

このように、この膨大なデータの中から、これだけわずかな時間でデータを抽出できたことを誇示しています。

このデータベース自身がGoogleの心臓部ですが、一般に使われているOracleやSQLServerなど商用データベースを使わず、Googleの起業グループがGoogleのために一から作成したものです。

Googleは、技術力を誇示したい、そのような欲求があるからこそ筆者はギーク的と考えるわけです。

Googleは情報をタグ付けしたい

Googleは情報をタグ付けしたいと考えています。それはより容易にデータを検索することができるようにするためです。

グーグルは一時期、GoogleImageLabelerという対戦型のゲームのようなものを提供していました。

http://ja.wikipedia.org/wiki/Google_Image_Labeler

これは表示された画像を見て、思いつく限りの単語を入力し、多くの単語を相手とマッチさせればポイントが加算されるというものでした。

これはGoogleが収集した画像に、最初に人間の言葉を結びつけるために行ったことです。

これをきっかけにして、類似と機械的に判断される画像をイメージ検索の結果に出せば、あとはユーザーがその画像を選ぶかどうかでタグ付けはされ、外れたものはフィルターされていきます。

これと同じようなものはGoogleのイメージ認証に使われています。

スクリーンショット 2014-01-17 19.07.08

これでGoogleストリートビューの中の読み取れない文字をユーザーにタグ付けさせて、検索の結果に反映しています。

Googleは情報を集約したい

Googleは世界中のWebサイトだけでなく、画像、動画、地図、風景、さまざまなデータ見つけるためのハブとなろうとしています。

メディアの情報、例えば、テレビ、ラジオ、書籍、新聞、CD、映画、さまざまな情報は、すべてGoogleが届かない範囲です。

しかしWebにあれば、事情は変わります。Googleがデータベースに登録することができるからです。

Googleの収益はもちろん検索広告をはじめとするWeb広告ですが、これはWebに情報を求める人が集中すれば集中するほど、多くクリックされるものです。

情報がさまざまなメディアに断片化していてはGoogleには都合が悪く、Webへの一極集中が行われれば、技術に秀でたGoogleがより事業を拡大し、他を圧倒する巨大なメディア企業になれるのです。

現実にさまざまなメディア企業を圧倒した存在となっていて、Googleはその立場を手放したいわけがありません。

SEOはなぜ変わるのか

Googleはギーク的な企業風土があると前述しましたが、ギークの宿命として、よりよく改良したいという欲求があります。

すでにきちんと動いているから、プログラムを変える必要がないのではないか、というのは非ギーク的な発想です。

ほんの0.1秒の処理速度の向上のために、プログラムを大きく変えてしまうのがギークの欲するところです。

PageRankはリンクの相関関係と、検索の利用結果でごく単純なものでした。そのころGoogleは一億のページをまずかき集めるところから始めなければいけなかったのです。

乳児が言葉を発するまでに、周囲の人の言葉や状態、莫大な情報を収集している最中は、黙っているようなものでしょう。

コンピュータの処理性能が向上すれば、Webサイト間のリンクの相関関係を離れて、内容の解釈が始まります。

これらは不必要なコンテンツを省くためにGoogleが頑張っているのではなく、むしろGoogleとしてはあるべき状態に進んでいると考えているでしょう。

不必要なページをふるいにかけるのではなく、検索結果が「より人間が選んだような」状態を目指す、ということです。

コンピュータは何も学習せず、200万画素の木の写真を見て、treeと判断することはありません。これに人力によってタグをつけさせて学習が始まるわけです。

Webサイトも同じことです。テキストの塊から有益な情報をのみ、選び出すことはコンピュータの力だけでは不可能です。

コンピュータは人間のように文章を読むことができないことは当然として、そのうえページ数が数兆をこえています。

これを人間が選んだようにすることは、普通に考えれば不可能なことのように思います。

しかし検索結果と、クリック数、訪問者、滞在時間などによって、これらテキストも確実にタグ付けされているということです。

ここにこれからのSEO対策の鍵があると筆者は考えます。