Google AnalyticsのEmbed APIでリアルタイムのActiveユーザーを取得する

Google AnalyticsのリアルタイムAPIは、以前から「Limited beta」扱いでリクエストを送る必要があります。個人的にも会社側のアカウントでリクエストを送っては見たものの、一向に許可が降りておらず、リアルタイムAPIが開放されたら実行しようと思っていた内容が完全に過去のドキュメントとなってしまいました。

昨日、海外でGoogle AnalyticsのEmbed APIに関する紹介記事があり、実際にデータを取得出来ましたので、ご紹介します。


Google AnalyticsにはCore Reporting APIやMCF Reporting API、Real Time Reporting APIなどのAPI群が提供されていますが、Embed APIというものが今春リリースされていたようです。
(デモページはこちらから。)

単純にキレイなビジュアルでデータが見えるだけであれば、Core Reporting APIなどを通じでデータを出力すれば良いのですが、注目したいところは「Active Users」の数値を5秒間隔でデータを出力しているところです。

実際のソースでは「active-users.js」というjsファイルを通じてカスタムコンポーネントが定義され、データを取得し、出力されているわけですが、これを応用すればReal Time Reporting APIを叩いてデータを出力することが可能だと思われます。
(まだ試してはいませんが、リストでpagePathやEventなども挑戦してみたいです)

■実装前のConsole API設定

1.Google ConsoleのProject画面から専用のProjectを一つ作成する


2.プロジェクト名は適当につけてください


3.APIはAnalytics APIのみをONとします


4.CredentialsからClient IDを作成します

5.「Web application」を選択し、「Authorized Javascript Origins」を指定します。
ローカル環境であれば「http://localhost:8080」のようなものだったりしますが、今回僕はDropbox上で構築したので、その場合は「https://dl.dropboxusercontent.com」が入っていたりします。

また、Redirect URIは空にしてください。


6.「Consent screen」でEmail addressとProduct Nameを設定をしておく必要があります。



■ページの作成

実際にウェブページに公開する場合は、デモページの各ページ下にGithubへのリンクがついていますので、そちらからソースを取得し利用するだけです。

Google自身が提供しているガイドで、各ソースが何を意味しているのか詳細に説明されていますので、こちらを参照にされても良いと思います。

何はともあれ、「リアルタイムデータ」が取得できる意義はとても大きいと感じているのですが、逆にこのリアルタイムデータのリクエスト回数には注意したいところです。
Google Analytics APIはデフォルトでは1日5万リクエストまでと上限が決まっています。丸一日で2万回弱なので恐らく問題は発生しないとは思いますが、他のツールなどでAPIを叩き続けるとエラーが返ってくることになります。

恐らくプロジェクト単位なので問題ないとは思いますが、この辺りは不必要に叩かない、または業務中のみ利用するなど、時間帯を制限しながら運用したほうが良いかもしれません。

脳から考えるコピーライティングの肝 - ウェルニッケ野とブローカ野

僕自身は経験を積んでいない事もあって、苦手なコピーライティングですが、言葉なら脳の言語野から考えよう!ということで、大学の時に勉強したなぁと思いつつも有名な「ウェルニッケ野」と「ブローカ野」のお話。

目から入ってきた情報はまず後頭葉で受け取ります。どうでも良いのですが、位置的にはO1とかO2とかその辺。

そこから言語野であるウェルニッケ野とブローカ野の出番なのですが、ウェルニッケ野は知覚性言語中枢とか言われますが、「コピーライティング」と絡めるのであれば、その文字情報の自分との関連性の意識や感情的なものが処理されると説明されます。


一方ブローカ野は運動性言語中枢で、音声言語の運動的な生成だったり、相手の言葉を口の中で再生成して理解したりするわけですが、「コピーライティング」に絡めるのであれば、期待を上回る「おっ」と思わせるようなコピーに強く反応すると説明されたりします。

この辺りは詳細な文献があったりするのかは分かっていないのですが、あくまで一般論として捉えてください。

結論はコピーライティング界隈の方からすれば至極当然の結論だとは思います。
ただ、この内容はコピーライティングだけに利用するのではなく、CROにも繋げたいところ。

ウェブサイトを通じて何か契約をしたり、商品を購入したりといった場合に、そのウェブサイトで購入する動機付け、所謂Value Proposition(VP)の説明にも活かしたいですね。

特にBtoBサイトで、何らかの契約を取り付ける場合には、そのプロダクトやソリューションの説明を端的に図解されると思いますが、一般的にVPの説明については以下の点を盛り込むべきです。
  • 端的で明確に、そのプロダクトの価値を示す
  • 他のサービスとの違いを説明する
  • 導入することによってもたらされる利益を示す
  • ターゲットユーザーに対する主要なニーズや克服すべきポイントを示す
  • 「一番」や「世界最高峰」的な表現は避ける
こういったポイントでユーザーに「ふーん」で終わらせず、「おっ」と思わせるポイントを図や言葉で端的に示す。その部分についても、まずは自分事にしてあげたり、その人が本当に困っているポイントに刺さる言葉をチョイスしたり、太字などのデコレーションをしてあげるといった事も大切ではないかと思います。

ページのCRO改善のヒントとしての「Buying Modalities」

海外では以前よりSEOと一緒に改善すべきポイントとして、CROすなわちConversion Rate Optimizationが取り上げられますが、その頻度は増加しており、特に昨年のAngie Schottmullerさんの「SEO Conversion Strategies」というプレゼンテーション資料はだいぶ多くの人に見られてようです。

そのAngieが最近示した資料の中で、この「The Buying Modalities」の図は、よく考えて見れば基本的な事のような気はしますが、普段意識から抜けていたなと思ったのでご紹介します。

angie-schottmuler-buying-modalities

Buyingとなっていますが、一般的に当てはまると思っています。
各ウェブページやマクロコンバージョンが発生するページに関しては、大きく4つのペルソナを意識すると良いというものです。

軸としてはロジカルに考えて意思決定をするペルソナとエモーショナルに考えて意思決定をするペルソナの2軸、そして意思決定の速さとしてのFASTとSLOWの組み合わせです。

上の図にあるとおり、各ペルソナにおいて何が一番重要視されるかが記載されていますが、例えばこれを活かしてページ構成を考えるとすれば、「FAST」に当たる部分の説明文や画像インパクト、わかりやすさをファーストビューで必ず盛り込み、「SLOW」に該当する部分の内容はわかりやすいナビゲーションによるアンカーリンク等で辿れるようにすれば良いということになります。

ロジカルに考える人とエモーショナルに考える人、という2つのパターンについては個人的には説明の方法として文章を採用するか画像を採用するかという違いかな?と感じがちですが、感情に訴える「コピーライティング」という選択もあります。

情報をいかに伝えるかという部分については様々手段があることと思いますが、CRO改善を意識する手段としてこのマトリックスからスタートするというのは、とても良いのではないかと感じました。

Google Analyticsの新しい「ベンチマーク機能」に対する個人的な感想

Google Analyticsを日常的に利用するユーザーに関しては、既にGoogle Analyticsに新しい機能として「ベンチマーク機能」が追加されたことはご存知だと思います。

アカウント設定でも設定を確認できます。


実はこの機能が追加されたと知った時、一つ思ったことがあります。
それは、「Google自身が、より"良質なコンテンツ"を判断する指標が1つ加わった」、または「従来から存在している指標の精度が上がる可能性がある」ということです。

従来、Google自身はGoogle Analyticsの情報を検索ランキング等には一切利用しないということを明言しており、その姿勢は今後も変わらないでしょう。
しかしながら、今回のベンチマーク機能で「匿名形式」でデータをベンチマーク化し、傾向値を表示することとなりました。

これは即ち一般企業で言えば、住所氏名などの個人を特定する情報を全て匿名化し、何らかの指標によりグルーピングしたデータを、全世界または日本だけをターゲットにデータを公開したという状況です。

言い過ぎなのかもしれませんが、この機能を提供したことによりGoogleはオープンデータとして、そのデータを利用できることを意味していると思っています。

Google自身は検索エンジンの順位をより最適化し、利用者を他の検索エンジンに取られないようにする必要がありますが、今回の個別サイトデータのオープン化により、各サイトでの滞在時間や直帰率・離脱率を測ることが出来るようになりました。

どういうことかと言うと、Google検索結果でリンクがクリックされてGoogleサイトを離脱し、その後再び検索結果に戻ってきた場合、その間の時間はクリックされたウェブサイトに滞在したということになります。

その時間が短ければ、そのウェブサイトのコンテンツが悪いか、検索キーワードとコンテンツの不一致として検索ランキングを落とす方向に動く一つの指標になり得ますが、クリックされたリンクが例えば「ニュースサイト」であった場合、一般的なニュースサイトの平均値と比較することが容易にできるようになります。

ただし、恐らくGoogleは今までもコンテンツ評価として、各ウェブサイトがどんなジャンルのサイトであるかは判定していたでしょう。
しかしながら、今回のベンチマーク機能の中には1セッションあたりのページビュー数も入っています。


したがって、今までざっくりとクリック先ウェブサイトの滞在時間という大きなくくりで計測していたものが、一般的なページビューデータも組み合わせることで、より精緻にコンテンツ評価を行えるようになったのではないかと思っています。

別にこれが良い悪いという事を言うつもりはありませんし、検索する側の人間としては、有益な情報を提供してくれるようになるのであれば構わないという立場ですが、運営サイトの検索順位がまた変動する要因の一つに成り得るなと思っていたりするわけです。

Google良し、検索者良し、Google Analyticsを見る人良しという、無理やりの「三方良し」と言ってしまっても良いかもしれませんが、「content is king」ということで、より自社のコンテンツや情報構造、そしてSEOだけでなくCROに対しては意識する必要がある。というのが個人的に思った感想です。

あと、Google Analyticsの一部データをオープンデータ的に扱うといってもデータを利用するのはGoogleのみだと思うので、今後他社も様々な解析ツールを無料で提供して、データの活用方法を模索していく流れができてくるのではないか。そう思っています。

皆さんはどう思われましたか?

Screaming Frog SEOの設定を有効活用しよう

Screaming Frog  SEOについては今までも色々な使い方を紹介してきました。
このクローラーについて細かく設定をすることが出来ますが、毎回決まった設定があるのであれば「デフォルト」設定に登録をしておきましょう。


Screaming Frog SEOは定期的に利用するものもありますが、スポットで利用するときに設定するのは、例えばLimit Max Folder Depth。

例えば設定値を2とすれば、 http://www.blabla.com/blabla/blabla/ という2階層までをクロールしてみたり、「Limit Number of Query Strings」を「0」として、URLの「?」以降のリクエストパラメータを全て排除してクロールするといったことができます。


他にもIncludeやExclude、URL Rewritingあたりはよく利用します。
ただ、Include / Exclude設定で、クロールしたページ内にクロール対象URLが存在しない場合にはクローラーが行き場を失って停止したりします。



この辺りの設定はいじったり、実際にクローラーを回しながら覚えていきましょう。
リンク構造の生データを取得したら、加工をしながら実際のウェブサイトのリンク構造を絵にしてあげればイイだけです。



自分でクロールしたいページだけ、クロールしたいURLだけ、クロールしたい階層だけといった細かい設定が可能なので、こういったツールを一つ持っておくと良いと思います。

<参考>
Screaming Frog SEO Spiderとその使い方・活用法に関する記事はこちら

Screaming Frog SEOで調べたURLに対し、MozscapeやAhrefsを自動で走らせる「urlprofiler」

「urlprofiler」というツールが、Screaming Frog SEOに対応したよ!という記事があがっていました。



もともと、urlprofilerは各種SEO業者のツールによるページ解析結果を自動で取得してくれるツールで、もしMozscapeなどに有料契約をしていたら、APIをツールに登録しておけば、自動で情報を取得してくれます。


個人的には前まで有料契約をしていたことがあったものがありますが、今はフリー契約になっているツールもチラホラ。
今フリーでもAPIで情報が取得できるものだけデータを取得してみています。

ただ、この「urlprofiler」も有料ツールなので、結果を見てから継続を考える感じです。
Domainレベルであればツールを通す必要性もないような気もするので、ページレベルでデータが必要かどうか。。。ページスピードだったりソーシャル系だったり。そのあたりでこの有料ツールを使う意味が変わってくるかもしれません。

Google Universal Analyticsで公式発表は無いものの「navigator.sendBeacon()」に対応

注意 : {useBeacon:true}の利用は非推奨に変わりました。

Googleからの公式発表は無いものの、Universal AnalyticsのJavascript APIにnavigator.sendBeacon()の設定が追加されているようです。

navigator.sendBeacon()」については、簡単に言うと解析用の小さな通信をブロッキング無しに非同期で行うというものです。
Universal Analyticsの場合、外部へ飛んで行くイベントだったり、PDF等のコンテンツダウンロードのイベントをcallbackを使って取得することが可能でしたが、今回の「navigator.sendBeacon()」への対応によって、callbackが必要無くなります。

実際にちょっとしかけてみました。
仕掛け方は簡単。

ga('send', 'event', 'Clicks', 'Outgoing', 'Google',  {useBeacon: true});

と「useBeacon」のプロパティを持たせてあげればOKです。
実際、Universal AnalyticsのJavascriptを見てみると、確かにパラメータを持っていました。


で、実際にイベントを発生さえた時のGoogle Chromeの「Network」がこちら。




Beacon APIの場合、Responseが返ってこないため「canceled」として表示されるようです
でも、実際にAnalytics側で見てみると、イベントが飛んできていることが分かります。


デバッグツールによっては、データが見えるものと見えないものが存在しているようです。


この「navigator.sendBeacon()」ですが、現在利用できるブラウザは

Chrome 37以上
Firefox 31以上
IE 非サポート
Opera 24以上
Safari 非サポート

となっているようです。
デジタルアナリティクス的には、データの欠損を防いだり、コンテンツに影響を及ぼさず、逆にコンテンツの影響を受けない状況を作り出す意味では、恐らく他のブラウザもサポートされるのではないかと期待しています。

Google Analyticsという意味では、恐らくON/OFF設定をサイト側に持つのか、Tag Managerのみで設定を開放するのか。そんな流れになるのでしょうね。

2014年のGoogleランキングファクター(米)は、それほど驚きのないものに

2013年版ほどの驚きはないものの、2014年のアメリカにおけるGoogle検索ランキングファクターが発表されました
去年はソーシャルが上位を埋めましたが、今年はCTRとキーワードマッチ度あたりですね。


ご参考までのデータですが、チラ見しておいたほうが良いでしょう。

Google検索結果にサイト内検索ボックスを表示

Googleから公式アナウンスがありましたね。
今までもテストで色んなサイトで提供されていたGoogle検索結果画面に表示するサイト内検索ボックスですが、Googleのヘルプも含めて更新がかかりました。



GoogleのヘルプでJSON-LDやMicrodataでの実装方法が記載されていますので、ぜひ導入しましょう!