アナリティクスサミット2014に行ってきた

「アクセス解析サミット」もとい、「アナリティクスサミット」たるものに行ってきた。アナリティクスサミットの概要はこちら。今年は場所を汐留に移しての開催。私はランチセッションから参加したので、前半は聴講できず残念・・・。

ザッと備忘のため感想を。

【ランチセッション】
「Excelから始めるデータ活用 〜集計・解析・レポートがもっと身近に」

とりあえず凄かった。お話しされたMSの人の勢いもさることながら、Excel BI凄いな!!って思いました。まさかここまでできるとは・・・。データの読み込みからグラフ化まで、非常にスムーズかつ簡単そうに見えたので、「こりゃうちのBIより良いかも!」と思いつつ。

やっぱり一番素晴らしかったのが、ウェブページのURLを入れて、そこのHTMLからtable構造読んでそのままデータとして引っ張ってくれるところ!!これ、社内イントラのデータもいけるのだろうか?もし行けると非常に嬉しいところ。また、アクセス解析ツールとのAPI接続もどの程度できるのかも気になりました。

多分インメモリで結構な容量を食ってくれるとは言え、自社データ全部取り込むとキツイなぁ・・・という一方で、簡単な集計であればExccelでやったほうが柔軟な表現ができそうで面白かった。

 

【第3部】
「成功事例に学ぶ!ビジネスに貢献するコーポレートサイトの改善手法」 

日本ハムさんとBebitさんの事例を交えたお話。

正直一部腑に落ちない部分があったのです。コーポレートサイトの指標をPVやUUではなく、メッセージがちゃんと伝わっているかを見るために、スクロール率や会社紹介の動画視聴時間等を測るべき、といった内容でした。ただ、スクロール率とかって、実際弊社のサイトでもClickTale使ってみたりしてますが、実はページに到達すると、ザッと下の方までスクロールして、その後内容をあまり見ずにすぐ出て行く、という行動パターンがかなりの頻度で見られるのです。なので、JavaScriptでページ終端到達等を測るとおっしゃってたものの、それだけじゃ多分実情には合わないだろうな、と思ったり。

 

【第4部】
「データ分析結果を用いたパーソナライゼーション」

Albertさんと日本旅行さんのレコメンドの事例。実現したいことに基づいて、いろいろツール選定とかしていったお話など。

こちらは時間が多分短いせいか、具体的なクラスタリングの話とかが中途半端に終ってしまってたので、結局普通にレコメンドエンジン回せば良いじゃん、っていうような感じになってた気がしなくも・・・。

 

【第5部】
「無印良品のDigital Marketing戦略 Big Data活用法」

これは面白かった。去年のアクセス解析サミットの時にも登壇されて、その時丁度MUJIパスポートがリリースされたばかりの時だったので、その後どういったデータが集まってきたのか、という部分。

やはり実店舗のある企業にとって、アプリの利用の重要性を強く感じるところでした。ID連携もソーシャルIDを使ったり、諸々のコミュニケーションの打ち手を見出すために必須。接触時間帯のデータや購買行動に関する実データを披露していただき、とても参考になること多数。

ポイントインセンティブによるキャッシュアウトは、広告宣伝とのバランスを考えていけば良い、とか。やはりデータが集まるだけじゃ上層部の理解を得づらい、という部分等も含め参考になる内容。また、個人的にはソーシャルデータを凄く重要なものと捉えてお話しされていたあたり、今後のソーシャル活用に後手踏みまくりな弊社にとってはかなり有益というか勇気づけられる内容でもありました。

あと、ウェブアナリティクスに精通する人間が重要、ということも仰って頂いていた部分も非常に心強く感じる限り。

やっぱり凄いな、無印。

 

【基調講演】
「分散するマーケティングデータを一元化する?デジタルマーケティングを機能させる組織のあり方?」

デジタルインテリジェンスの横山さんによる基調講演。これまた非常に面白いお話。とりあえず弊社上層部に是非聞いてもらいたい内容だった。

日本のマーケティングが広告宣伝にすぎないこと。マーケター自体が存在しないこと。数年後にはおそらくシステム部門以上にマーケティング部門の方がIT予算を持つことになるであろうことなど、非常に刺激的な内容。しかししっかり腹落ちする内容でとても面白かったです。

また、日本の企業はAdobeやSalesForce等のマーケティングツールベンダーの設計思想を理解していないからツールを使いこなせない、本来は設計思想に併せて業務構造も変えるべき、という部分はこれまでの私の頭の中に無い発想でした。これは確かに自社の各部署を見渡しても言えることで、旧態然とした業務構造を保持し続けて、そのスピード感無く無駄な作業の多い業務にツール群を無理矢理合わせようとする結果、全然形にならない、業務効率化に繋がらないシーンを見続けてます。なので、こういった考え方をもっと多くの人が理解してくれれば良いのになぁ、と。そして、自分もその辺りの啓蒙をしていかないといけないな、ということを思いました。

 

そんなこんなで、今年もいろいろと面白いお話を聞けて非常に有意義でした。

一点今後の要望を挙げるとすれば、もっと事業者側の先進的な取り組み、より深いところに踏み込んだお話(今回で言うところの無印さんの話)が多く聞けると良いのにな、ということも思いました。

『MAKERS―21世紀の産業革命が始まる』

『MAKERS―21世紀の産業革命が始まる』
クリス・アンダーソン著

読んだ。まぁまぁ面白かった。モノづくりに関する事例、3Dプリンタとかなんとか、オープンソースがどっちゃらこっちゃらと。

技術の進歩により、製品のプロトタイプは簡単に製作可能となり、製品の改善はネットワークを用いてオープンな環境で取り組むことで、その進化速度が飛躍的に向上する。また、大量生産品ではなく中規模の生産量であれば、むしろ中国や東南アジアに委託するよりも、近場の工場で生産するほうが効率的となり、アリババに代表されるようにサプライヤーを探すことも容易になった。

これまで、プロダクトの製造には企業の持つ大きな工場が必要であり、常につきまとった著作権や開発速度の課題はもはや存在しない。物質的生産(アトム)の世界とデータ(ビット)の世界が融合して、ニッチな産業にも多様性が生まれ、よりクリエイティブな世界が広がっている、というようなこと。また、資本もクラウド・ファンディングを利用することで、資金調達と同時に実際の需要を図るマーケティング活動にも役立つ、と。

そういった内容が、これからの産業変化に対する期待と予測を踏まえつつ、多くの事例を交えて書かれていた。

ちなみに余談ながら、Etsyのこととかも書いてあった。https://www.etsy.com/。Etsyの良さは、商品の一覧性が高いってとこだと思う。商品一個一個の見せ方が上手い。なぜ国内のECサイトはこれを取り入れないのか。

アクセス解析を上手くやる方法

「アクセス解析を上手くやる方法を教えてください」

と言われたら、皆様ならなんと答えるでしょう?現状の僕ならこの五つを挙げます。

 

  1. 複雑なことはアクセス解析ツールではやらない。
  2. 精緻な数値を求めない。
  3. ExcelやBI等の3rdPartyソリューションとの連携を考慮して設定する。
  4. ちゃんとしたKPI設計を先にやる。
  5. データを「捨てる」覚悟を持つ。

 

1.複雑なことはアクセス解析ツールではやらない。

アクセス解析はいろいろな数値が見れますし、セグメント機能を使えば、割と複雑な絞り込み条件を組んだデータも抽出できます。ただ、アクセス解析ツールはあくまでウェブの簡易健康診断装置だと割り切るべきです。

アクセス解析ツールは飽くまでウェブ上の行動データの集積装置、およびモニタリングのためのソリューションだと思います。そのため、三つ以上のクロス条件・絞り込み条件が絡むような深い分析や、至極限定的な行動のデータのみを抽出するようなことをすると、どつぼに嵌まるケースが多いです。

例えば、「自然検索」で「トップページにランディング」した「初回訪問ユーザー」で、「真っ先にサイト内検索を実行」したユーザーの「その後にたどった経路」みたいなごく限定的な条件を抽出するのは、骨が折れると同時に、そのデータの使い方を明確に考えていない限り出しても無駄です。

上記のような条件の場合、簡単に想像が着くと思いますが、そのデータだけを出しても何も見えません。比較対象が明確ではないことや、仮説とアクションの結びつきが想像しづらいこと、またそれぞれの行動の動機が明確にできないことなどが理由です。

また、そういったデータは飽くまでテンポラリーなデータにしかならず、定常的にモニタリングすることは少ないと思います。やりたければGoogle AnalyticsユーザーならばBigQueryを使う、AdobeユーザーならAdhoc Analysisを使う等を考えた上で、さらにOptimizelyなりAdobe TargetやClickTaleなりを組み合わせて「何をどのように明らかにするのか」までを考慮すべきだと思われます。

 

2.精緻な数値を求めない

アクセス解析では傾向さえザックリと捉えられれば良い、と個人的には考えています。アクセス解析は手段であって目的ではない。あくまでウェブの改善を目的とした傾向把握と意思決定ができればOKだと思います。

つまるところ、意思決定、もしくは何が起きているかをパッと理解できるレベルでの「傾向」「割合」「比率」さえ抑えてしまえばOKだと思います。

細かい数値の整合性まで追おうとするほど、設定がどうだ、定義がどうだという話になります。結果、脳の処理容量を超えてどつぼに嵌まる、というもの。

また、一番の問題は、意思決定のための会議が、「この数値は実績と合わない、どういうことだ」みたいな話になり、建設的な議論が全くもって進捗しない、ということです。

なので、アクセス解析の数値はあくまで参考値として扱いましょう。

 

3.ExcelやBI等の3rdPartyソリューションとの連携を考慮して設定する。

アクセス解析ツールは、ウェブ上で起きていることをモニタリングするためのツールです。ただ、誰しもがアクセス解析ツールにログインして使いこなす必要はありません。

ウェブの数値は飽くまで経営情報の一部に過ぎません。最終的な売上や契約数などは基幹DBの方にあるはずです。なので、そういった数値とウェブデータをつなげて見られるように考慮し、ExcelやBIなどとの連携を考慮すべきです。

例えば営業ならばウェブからの資料請求実績値をCRMから引っ張ると同時に、ウェブ上でのトラフィック量も併せて知りたい、というニーズがあるはずです。その際、アクセス解析ツール上で取っているデータとCRMのデータの名称が異なれば、都度都度ルックアップテーブルを介して結合作業をしなければいけない、などの手間が発生します。ただ、そんな面倒なことはやりたくないし、最初から他ソリューションとの連携が考慮されていれば、アクセス解析データとCRMデータをAPI経由でBI上に取り込んで結合することが可能です。

Adobe AnalyticsにせよGoogle Analyticsにせよ、この手のAPIは用意されているし、それを活用すれば作業の簡略化が図れます。なので、予めそういった他ソリューションとの連携は考えて設計すべきだと思います。

 

4.ちゃんとしたKPI設計を先にやる。

アクセス解析の一番の敵は、いろいろなデータを取りすぎて、何がなにやら分からなくなる、ということだと思います。ことAdobe Analyticsのようにカスタマイズ性の高いツールほどこの手の状況に陥り易いと感じています。

こういったことを防ぐためにもKPI設計を最初にしっかりとやることが必要だと思います。見るべき指標さえ明確になっていれば、無駄な指標やレポートが増えることもないですし、「これを知りたいときはこのレポート!」という決めが作れると思います。

また、上述3の話にも絡むところですが、KPI設計がきっちりできていれば、基幹データをアクセス解析ツール側に取り込む、というところも設計まではスムーズにできるようになると思います。(実作業は別として)

KPIの立て方はこの辺のブログ参照。また別途うちの会社でやってる方法も紹介しようと思います。

 

5.データを「捨てる」覚悟を持つ。

アクセス解析はテクノロジーの進化や検索エンジンの仕様変更、ビジネス構造の変化などなど、多様な要因によって都度調整が走るものです。年月が経つほど多様なデータが混じり込み、以前のデータ形式ではビジネス判断にそぐわないケースも多々出てきます。

そのため、数年に一度はデータのクリーンアップをすべきだと思います。無駄なものは無駄!と割り切れるようにしておくべきだと思います。

 

以上あくまで私見ですが。ご参考まで。