ページの先頭です。本文を読み飛ばして、このサイトのメニューなどを読む

ログイン

サイト内検索

翻訳

お問い合わせ

サイト内の現在位置です:

TOP  >  Wiki  >  SEO対策

SEO対策 anchor.png

ホームページを作ってもそれで終わりというわけではない。いかに多くの人が見てくれるか、つまりSEO対策(サーチエンジンに効率よく自動登録されること)は最初に考えておかなくてはいけない問題である。ここではSEO対策のガイドラインを挙げる。

Page Top

サイト内にページリンク切れがないこと anchor.png

  • 多くのクローラー(サーチエンジン情報収集プログラム。ロボットともいう)では、サイト内にページリンク切れがあるとそこで検索を中止してしまう。そのためサイト内ではページリンク切れを極力起こさないようにしなければならない。
  •  しかしこれは言うはやすし行なうは難しである。人手でやっていては矛盾のないようにページを管理することは難しい。XOOPSのようなCMSを使うのは、これを自動的に行うためなのである。
Page Top

ページが論理的な構成であること anchor.png

  • クローラーが好むページとは、論文のような論理構造がハッキリとした文章である。タイトル、大見出し、小見出し、内容、注釈が整然としており、HTML文法的に破綻していないことが基本となる。
  • Wikiはそのような論理的な構造を記述するのに適したツールである。pico(静的コンテンツ作成モジュール)もレンダラー機能を付加することでxpWiki書式を使うことができるので、Wiki書式を覚えておいた方がよい。
Page Top

ページが静的URLであること anchor.png

  • 多くのクローラーでは動的URL(URLの最後が、.php?xxxxxxxx、.asp?id=xxなどで終わっていること)のリンク先は基本的に検索しない。同一URLでもページ内容が異なる場合が多いからだ。クローラーにページ内リンクを検索してもらうには静的URLであること(URLの最後が、.htmlまたは.htmで終わっていること)が必須条件になる。
  • XOOPSではその構造上、動的URLを多用する。このままではクローラーが検索してくれない可能性があるので、モジュールごとに静的URLに変換できるものは極力そのように設定すべきである。pico、xpWikiはこの機能を持っている。
  • しかしこの事を逆手に取ることもできる。動的URLであればクローラーには引っかりにくいわけだから(全部が全部そうとは限らないが)、一般には公開したくないページは動的URLを使用することが望ましい。できればアクセス権限の制限やサイトマップの設定で、見せたくないページをゲスト権限ではアクセス不能にしておけばなおよい。
Page Top

robots.txtにSitemap:を記述しておくこと anchor.png

  • GoogleやYahoo、MSNなどのクローラーは未知のサイトをクロールする時、最初にルートにあるrobots.txtを読み込む。その中に「Sitemap:」と記述されたURLがあると、そのURLをサイト内のサイトマップとして認識する。
  • そのためにはサイトマップの作成が不可欠である。もちろん手動で作成してもいいのだが、クローラーが認識しやすいサイトマップはxml文法なので一般には作りにくい。Google Sitemapのように自動的に作成してくれるツールもあるが、これだとコンテンツを追加、修正した際に毎回サイトマップを作り直さなければならないことになる。また、アクセス制限をかけたい時(特定の利用者にだけ提供したいサービスがある場合)にも、このツールだと制限が効かないことになり、セキュリティホールになる。
  • 一番便利で確実なのは、その時点でのサイトマップを自動的に作成するプログラムを用いることである。XOOPSにはSitemapというモジュールがあり、この中に「xml_google.php」というプログラムがある。これをrobots.txtに記述しておくと、クローラーがやってきたときに勝手にサイトマップを作成、検索してくれるようになる。
robots.txtの記述例

 Sitemap: http://www.artsoftwareworks.net/xml_google.php
  • クローラーはこのサイトマップを一般利用者権限(ゲスト)で実行する。
Page Top

各ページがRSSに対応していること anchor.png

  • クローラーが訪れやすくするには、自然リンク(外部のサイトから勝手に設定されたリンク)が多いことが重要である。クローラーに認識されたとしても自然リンクが少ないと有益な情報とは見なされず、よって検索順位も上がらない。
  • 自然リンクを増やすには有益な情報の提供が一番であるが、いくら更新を頻繁にしてもそれが外部に知られないのでは意味がない。そのために有効な方法はRSSを用いることである。RSSとは、RSS情報を受け取っておいた利用者にホームページの更新を自動で通知するサービスである。ホームページを作成するならRSS情報を提供することは必須条件だといってもいい。
  • XOOPSではモジュールによってRSS情報を提供できるものがある。またd3pipesによってサイト全体のRSS情報をまとめることもできる。
  • もちろん、RSS情報を提供しているからといってリンクを張るか張らないかは利用者の任意であるため、外部リンクが確実に増えるとは言い切れない。しかし、しているとしていないでは大違いで、間接的な外部リンク増のためにも用意だけはかかさないでおくべきであろう。
Page Top

自然リンクを増やすには anchor.png

  • 自分が作成するページでも積極的に外部リンクを記述しておけば、自然リンクの増える可能性も増える。
  • 独自ドメインで運用する場合は、最低でも正式運用の6ヶ月前にドメインを取得しておき、仮設のホームページを設置しておくことである。仮設のホームページにこれから行うことを列記しておけば、検索結果の上位に表示されることも期待できる。
  • 短期的に見て外部リンクを増やす方法は、大手掲示板やブログで自分のサイトの紹介をリンク込みで記述することである。これらのリンク元はクローラーに重要な情報として認識されているので、そこからリンクされていればクローラーにも重要な情報として認識される可能性が高い。
  • 中長期的にはやはり有益な情報の継続的な提供以外に自然リンクを増やす方法はない。
Page Top

過剰なSEO対策をしないこと anchor.png

  • SEO対策というのはホームページを見てくれる人を増やすのに有効な手段ではあるが、肝心なのは「やり過ぎない」ことである。サーチエンジンが過剰なSEO対策を行っていると判断すればペナルティを課し、最悪そのドメインやIPアドレスの情報を一切表示しなくなる。こうなると本末転倒であるため、くれぐれもやり過ぎないよう注意が必要である。




Front page   Unfreeze Diff Backup Copy Rename Reload   New Page Page list Search Recent changes   Help   RSS of recent changes (RSS 1.0) RSS of recent changes (RSS 2.0) RSS of recent changes (RSS Atom)
Counter: 3310, today: 1, yesterday: 0
Last-modified: 2008-08-21 (Thu) 18:03:04 (JST) (4419d) by taked2

ページの終端です。ページの先頭に戻る