question:1121174859

ウェブサイトの効果的なアクセスログ解析について調べています。

  1. ウェブサイトで使われているアクセスログ解析の定石をできるだけリストアップして下さい。
  2. あなたのアクセスログ解析方法
  3. WebAlizerを使っているのですが、「hoge.php?page=hoge&hoge_id=1」とか?以降のデータも解析したい場合の設定のやりかた。
  4. WebAlizerでログローテートしている場合のレポートの作成の仕方。
  5. ページ毎に自前でアクセスログを取りDBに入れる方法も考えているのですが、現実的なのでしょうか?またそういう方式をとっているプロジェクトなど知っていたら教えてください。

データは「効果的」に<収集>することよりも,「効果的」に<利用>することが重要なわけで,利用目的を明示していないあたり,無駄な労力を費やしてそう.
唯一確実に言えるのは,JavaScriptCookie といった対象者が限定される方法を使わないことかな.

  • PHPでもCGIでも何でもいいが,全てのリクエストをスクリプトで処理し,アクセス解析とページ表示を1つのスクリプトで行う(当然クエリも取れる)
    • PHPなら$_SERVER['PATH_INFO']include_onceを使えば,既存のアクセス解析スクリプトと既存のウェブページ(スクリプト)にほんの少し手を加えるだけですむ(作業が「効率≒効果的」)
    • img要素やJavaScriptで別に呼び出す場合と比べるとページ表示は遅れるが,PHPのバージョンによってはregister_shutdown_functionでバックグラウンド処理をさせることも可能だし,敢えて重い方法を採ることで(ユーザのことを考える人なら)本当に必要な情報となくてもいい情報について常に気にかけることになり,結果的に「効率的」なアクセス解析になる
    • また,例えばJavaScript,img要素による呼び出しと併用することで,img読込みやJavaScriptをオフにしている人の比率と言う情報も収集できる.彼ら/彼女らについて考慮しないなら,当然収集する必要はない.
  • ユーザ・サーバの負担を軽減する為,収集する情報を最低限に抑える(サーバの負担についてはユーザとは直接関係なので,JavaScript,img要素などで別途呼び出す場合,特にimg要素で呼び出す場合にはユーザの負担は皆無)
  • リファラが取りたいだけなら,IPをcriptするなりした名前のtempファイルを作って,同一IPからのアクセスでは再解析をしない(DB接続・データ書き込みの時間差はあるが,temp良質サイトなら1回のアクセスで数ページ見るはずなので,環境にもよるがページ毎にDB接続するよりファイル存在確認の方が全体的には軽い).先にリファラの有無と内容(自サイトからか)を判定すべきだが,リファラ情報の使い方によっては,短時間に別のサイトから訪問する同一人物の判定も必要なはず(GoogleとYahooから同一サイトと気付かずに再訪問する場合など).

アクセス解析をしているサイトなら,99%ブラウザ比率を採っていると思うが,はたして非IE系のブラウザ比率がどの程度になったら,非IE系ブラウザについて考慮してもらえるようになるのだろう・・・
JavaScriptで画面サイズなんかを採れることを売りにしている解析をよく見たし,または最近では当然の機能になってもいそうだが,これも有効に使われている気配はあまりない.
そもそもここまでウェブページが氾濫している中で,ユーザの傾向を知ることは重要なのだろうか.リファラで検索語やリンク元が分かったところで,それらを中心にコンテンツを作成してもアクセスが増えるとは限らないし,そもそも書きたいコト,作りたいモノを作って結果的にアクセスが増えるのでなく,アクセスを増やす為にコンテンツを作って何が・・・あっ!商業サイトか.マジでここまで書くまで気付かなかった.
だとすると,顧客を一人も逃がさないことが重要なわけで,ブラウザ・設定を含む環境に依存しないことが最重要,必要な情報はリファラくらいなので,「リファラのみを収集する」これが効果的かつ効率的.MacユーザやGecko系ユーザは当然,スクリーンリーダ程度は考慮したサイトを作るのが「効果的」.MacGecko点字メディアはともかく,スクリーンリーダは盲目の方だけでなく弱視色盲の方でも利用している人がいて,ソフトもそこそこ充実しているので,それなりの市場力を持っているうえに,これが重要だけど対応しているサイトが少ないので寡占状態を期待できる.