アクセス解析を上手くやる方法

「アクセス解析を上手くやる方法を教えてください」

と言われたら、皆様ならなんと答えるでしょう?現状の僕ならこの五つを挙げます。

 

  1. 複雑なことはアクセス解析ツールではやらない。
  2. 精緻な数値を求めない。
  3. ExcelやBI等の3rdPartyソリューションとの連携を考慮して設定する。
  4. ちゃんとしたKPI設計を先にやる。
  5. データを「捨てる」覚悟を持つ。

 

1.複雑なことはアクセス解析ツールではやらない。

アクセス解析はいろいろな数値が見れますし、セグメント機能を使えば、割と複雑な絞り込み条件を組んだデータも抽出できます。ただ、アクセス解析ツールはあくまでウェブの簡易健康診断装置だと割り切るべきです。

アクセス解析ツールは飽くまでウェブ上の行動データの集積装置、およびモニタリングのためのソリューションだと思います。そのため、三つ以上のクロス条件・絞り込み条件が絡むような深い分析や、至極限定的な行動のデータのみを抽出するようなことをすると、どつぼに嵌まるケースが多いです。

例えば、「自然検索」で「トップページにランディング」した「初回訪問ユーザー」で、「真っ先にサイト内検索を実行」したユーザーの「その後にたどった経路」みたいなごく限定的な条件を抽出するのは、骨が折れると同時に、そのデータの使い方を明確に考えていない限り出しても無駄です。

上記のような条件の場合、簡単に想像が着くと思いますが、そのデータだけを出しても何も見えません。比較対象が明確ではないことや、仮説とアクションの結びつきが想像しづらいこと、またそれぞれの行動の動機が明確にできないことなどが理由です。

また、そういったデータは飽くまでテンポラリーなデータにしかならず、定常的にモニタリングすることは少ないと思います。やりたければGoogle AnalyticsユーザーならばBigQueryを使う、AdobeユーザーならAdhoc Analysisを使う等を考えた上で、さらにOptimizelyなりAdobe TargetやClickTaleなりを組み合わせて「何をどのように明らかにするのか」までを考慮すべきだと思われます。

 

2.精緻な数値を求めない

アクセス解析では傾向さえザックリと捉えられれば良い、と個人的には考えています。アクセス解析は手段であって目的ではない。あくまでウェブの改善を目的とした傾向把握と意思決定ができればOKだと思います。

つまるところ、意思決定、もしくは何が起きているかをパッと理解できるレベルでの「傾向」「割合」「比率」さえ抑えてしまえばOKだと思います。

細かい数値の整合性まで追おうとするほど、設定がどうだ、定義がどうだという話になります。結果、脳の処理容量を超えてどつぼに嵌まる、というもの。

また、一番の問題は、意思決定のための会議が、「この数値は実績と合わない、どういうことだ」みたいな話になり、建設的な議論が全くもって進捗しない、ということです。

なので、アクセス解析の数値はあくまで参考値として扱いましょう。

 

3.ExcelやBI等の3rdPartyソリューションとの連携を考慮して設定する。

アクセス解析ツールは、ウェブ上で起きていることをモニタリングするためのツールです。ただ、誰しもがアクセス解析ツールにログインして使いこなす必要はありません。

ウェブの数値は飽くまで経営情報の一部に過ぎません。最終的な売上や契約数などは基幹DBの方にあるはずです。なので、そういった数値とウェブデータをつなげて見られるように考慮し、ExcelやBIなどとの連携を考慮すべきです。

例えば営業ならばウェブからの資料請求実績値をCRMから引っ張ると同時に、ウェブ上でのトラフィック量も併せて知りたい、というニーズがあるはずです。その際、アクセス解析ツール上で取っているデータとCRMのデータの名称が異なれば、都度都度ルックアップテーブルを介して結合作業をしなければいけない、などの手間が発生します。ただ、そんな面倒なことはやりたくないし、最初から他ソリューションとの連携が考慮されていれば、アクセス解析データとCRMデータをAPI経由でBI上に取り込んで結合することが可能です。

Adobe AnalyticsにせよGoogle Analyticsにせよ、この手のAPIは用意されているし、それを活用すれば作業の簡略化が図れます。なので、予めそういった他ソリューションとの連携は考えて設計すべきだと思います。

 

4.ちゃんとしたKPI設計を先にやる。

アクセス解析の一番の敵は、いろいろなデータを取りすぎて、何がなにやら分からなくなる、ということだと思います。ことAdobe Analyticsのようにカスタマイズ性の高いツールほどこの手の状況に陥り易いと感じています。

こういったことを防ぐためにもKPI設計を最初にしっかりとやることが必要だと思います。見るべき指標さえ明確になっていれば、無駄な指標やレポートが増えることもないですし、「これを知りたいときはこのレポート!」という決めが作れると思います。

また、上述3の話にも絡むところですが、KPI設計がきっちりできていれば、基幹データをアクセス解析ツール側に取り込む、というところも設計まではスムーズにできるようになると思います。(実作業は別として)

KPIの立て方はこの辺のブログ参照。また別途うちの会社でやってる方法も紹介しようと思います。

 

5.データを「捨てる」覚悟を持つ。

アクセス解析はテクノロジーの進化や検索エンジンの仕様変更、ビジネス構造の変化などなど、多様な要因によって都度調整が走るものです。年月が経つほど多様なデータが混じり込み、以前のデータ形式ではビジネス判断にそぐわないケースも多々出てきます。

そのため、数年に一度はデータのクリーンアップをすべきだと思います。無駄なものは無駄!と割り切れるようにしておくべきだと思います。

 

以上あくまで私見ですが。ご参考まで。