【連載第11回】コンバージョン向上に欠かせない「ABテスト」で効果を上げるためのコツと結果分析での注意点

マーケティングノウハウ

深田 浩嗣

画像:弊社代表深田の著書「いちばんやさしいコンバージョン最適」の表紙と本ブログタイトル

コンバージョン向上など、Webマーケティングのためには欠かすことの出来ない「A/Bテスト」。複数のパターンを同時に実施し、最も効果の出るのがどれかを検証するA/Bテストはすでにおなじみという人も多いでしょう。この記事ではA/Bテストで効果を上げるためのコツと結果分析での注意点を紹介していきます。

コンバージョン改善の基本知識をご存知ですか?すぐに役立つコンバージョンとする指標の定め方や改善施策の考え方をまとめた資料をご用意しました。

→解説資料のダウンロードはこちらから

ABテストとは

ABテストは、同じ期間に同質と想定されるユーザーセグメントを対象に、ランダムに複数のテストパターンを実施するようなテストのことです。その結果から、どのテストパターンがより効果的かを検証します。テストに用いる各テストパターンを慣習的に「Aパターン」「Bパターン」などと呼ぶので「ABテスト」と呼ばれることが多いですが、ユーザーセグメントを分割するためスプリットテスト、スプリットランテストという言い方をすることもあります。

図:ABテストを図解。

こちらの図のように、Webマーケティングで実施するABテストを構成する要素としては次のようなものがあります。

テストのパターンは2つとは限らず、3つ以上となることもあります。

実際にABテストを行う際にはこうした要素はABテストツール側の設定項目として準備されていることがほとんどですのであまり気にする必要はありませんが、なぜそのような項目を設定する必要があるのかを簡単に紹介しておきます。

対象となるユーザーセグメント

ページに対してABテストを実施する場合には、そのページに訪問する全ユーザーを対象にしていると、あまりユーザーセグメントを意識することはないかもしれません。ユーザーのセグメントを指定することもできるツールも出てきているので、例えばまだ未購入のユーザーを対象にABテストを行う、というようなことがその場合は可能です。大切なことは、各テストパターンを配信するユーザーセグメントは同一にする(同一とみなせる)必要があるという点です。

実施するテスト期間(特に開始日時)

ABテストツールを使っている場合、テスト期間を設定できることがほとんどですのでこちらもことさら意識することはあまりないかもしれません。ここで大切なのは、各テストパターンごとにテスト期間を同じにする、という点です。特に開始日時を同じにすることです。テストパターンごとにテスト期間が違ってしまうと、同じユーザーセグメントとみなしにくくなってしまい、テストの信頼性が下がってしまいます。

テストパターン

基本的には「比較対象となるパターン」「テストしたいパターン」の2つ、場合によって「テストしたいパターンを複数」用意することになります。例えばバナー画像をABテストする場合、もともとのバナー画像が「比較対象となるパターン」、あたらしく試してみたいパターンが「テストしたいパターン」となります。

ABテストの対象によって用意するパターンは異なりますので、どのような対象があるかは後述します。

結果を測定する指標

ABテストの各テストパターンの結果を測定する指標を定めましょう。上の図の例の場合、CVRが結果を測定する指標になっています。ABテストの対象によっても当然これは変わります。たとえばメールの件名でABテストを実施しようとすると、開封率が結果測定の指標になるでしょう。バナー画像であればそのバナーのCTRになるかもしれません。

結果測定の指標は、配信したテストパターンに対するユーザーの直接の行動結果である必要は必ずしもありません。バナーならCTRを違いをまず比較するでしょう。ただそれだけではなく、そのバナー自体にリンク先のページについての何がしかの情報が書かれており、リンク先のページの精読率が上がる効果を狙うということもあり得ます。このような場合は、バナー自体のCTRだけでなく、遷移先ページの精読率も結果を測定する指標として採用を考えるべきです。

結果を判断する基準

結果を測定する指標を決めれば、結果を判断する基準も考えておきましょう。複数のテストパターンを実施したときには、それぞれの結果測定指標がまったく同じ値を示すということは通常はありません。なにがしかの差異が出るので、数値の大小を判定することが通常は可能です。

ただABテストの場合、数値が大きい(あるいは小さい)ほうが必ず結果を出しているとは限りません。「どのくらいの差になっていれば成果が出ていたとみなすのか」という問題が常につきまといます。ここについては大事なことなので後述しますが、統計的な知見を使う・定性的にも成果が出ていたという納得感がある、など複合的な要素から結果を判断することが必要になります。

参考:アカデミックな実験とデジタルマーケティングでのABテストの違い

ABテストという考え方は、もともとはWebマーケティングの領域ではなく化学の実験などアカデミックな研究で古くから行われてきています。研究の場面ではより高い厳密性が求められるので、まったく同じ環境で1 つだけ要素を変更して結果を比較するという形をとります。これにより、変えた要素が与える影響があったのかなかったのか、あったとすると何だったかがわかります。

一方デジタルマーケティングの場合は、「まったく同じ環境で、異なる要素を1つだけ」という条件を満たすようなテストは現実問題として困難です。そのため「同一期間」「特定のユーザーセグメントを対象にランダムでテストパターンを出し分け」という条件が設定できれば、擬似的に同じ環境とみなし、ABテストの結果がテストパターンの効果の違いを表すと考えることをよしとしています。

あくまでビジネス用途として実施するものですので、アカデミックな水準で要求されるような厳密性は過剰となることが多いと筆者は考えています。後ほど説明しますがこの考え方は統計有意という概念をどう使うかということにも関わってきます。

ABテストはなぜ必要か

一見シンプルそうに見えるこうした様々な構成要素が揃って初めてABテストが成立します。また、テストパターンは人力で作ることになるのでテストパターン数ごとに配信内容を作る必要もあります。実際実施するためにはABテストが実践できるツールも導入する必要があるでしょう。ここまで手間を掛けてなぜABテストを行わなければならないのでしょうか?

施策の効果の有無がわかるから

Webに限らず、マーケティング上のある施策が効果があったかどうかをある程度以上の厳密さで計測しようとすると、ABテストをする以外に方法がないためです。施策の効果の有無を測定するには、同一期間にて施策を実施したグループと実施しなかったグループでの効果の有無を比較するほかありません。

例えば「サイトのリニュアル」が効果があったかどうかを判断するにはどうすればいいでしょうか??リニュアルの前後でなにかしらの結果指標の差を見るというやり方はあまりオススメはできません。なぜなら比較対象同士の施策の実施時期にズレがあると、時期のズレの影響がどの程度あるのかを見極めなければ結果の差異を見ても正しい判断ができません。そして、様々な外的(自社のサイト以外の、という意味)要因がユーザーごとに異なる作用を及ぼすため、時期のズレがあるとその影響は何かしらの形で生じます。

ABテストは同時期に同一の対象ユーザグループに対して施策を実施しますので、配信したテストパターンの違いを除けば条件は同じです。このような状況を作って初めて、テストパターンの影響を考えることができるようになり、結果として効果のあった施策がどれだったのかを明確にできるようになります。

逆に言えば、ABテストをしなければ、施策の効果の有無はどうしても直感的な判断に頼らざるを得なくなります。

簡単に仮説検証のサイクルがまわせるから

小さい改善を積み重ねていくようなスタイルでサイト改善を行おうとする場合、試行錯誤の回数が物を言うようになります。最初の改善案でうまくいくということは実はあまり多くはないので、失敗を繰り返しながら改善の仮説の精度を上げていき何回か仮説検証のサイクルを回した上で改善の成果にたどり着く、というプロセスを経ることになります。

そのため、仮説検証のサイクルを簡単に回していけることがとても重要になります。回数を回せば回すほど仮説の精度を上げやすくなるので、結果を出しやすくなります。

ユーザーの理解が深まるから

これは結果的にという話ですが、ABテストを適切に繰り返していくと「こういう場面ではうちのユーザーはこういうコンテンツに反応するのか」あるいは「こういうコンテンツは刺さらないんだな」ということがだんだんわかってくるようになります。1つ1つは小さな発見ですが、積み重なっていくことでユーザー像のイメージがわきやすくなってきますので、施策の仮説の精度が上がるようになってきます。

コンバージョンとする指標の定め方、コンバージョン最適化のポイントをまとめた資料を公開中です。そちらもぜひご参照ください。

コンバージョン率改善の基本

ABテストの対象や手法

ABテストの対象や手法にはどのようなものがあるのかも合わせて押さえておきましょう。最近ではツールも進化してきているのでABテストができる対象も広がってきています。

基本編

 図:ABテストの対象となるコンポーネント。バナー画像、ランディングページ、メールの件名、サイト内ポップアップ、ボタンの色・文言・大きさ

ABテストの対象となるコンポーネント

ABテストは様々な要素に対して行うことが出来ます。Webマーケティングにおいてはバナー画像やランディングページ、あるいはボタンの色などで行うことが一般にはよくイメージされると思います。メール配信でもABテストを実施することがあり、メールの件名や配信時間を変えてテストするということがあります。またサイト内ポップアップでABテストをおこなうということも最近は増えてきているでしょう。

基本的には前述の「対象セグメントが同一にできる」「ランダムにテストパターンを出し分けられる」「同じ期間でテストが実施できる」「結果指標が計測できる」という条件をみたすことができるのであれば原理的にはどのような対象ででもABテストを行うことができます。

 

応用編

これらのほか、ツールによっては

のように、遷移性のあるものをテスト対象とすることができる場合もあります。これができると単発のコミュニケーションだけでなく、ストーリーのある体験として何が適切なのかをテストすることができるため、より深いレベルでの顧客体験改善を行いやすくなります。またユーザーの理解も同じく深いレベルでやりやすくなります。

複雑度が一気に高くなる分上級編の取組にはなりますが、ある程度ABテストを繰り返し要領が見えてくればぜひチャレンジしてみてください。

また、複数の要素を一度に試すことができる「多変量テスト」という方法もあります。これは例えば1つバナー画像を複数のパーツに分割し、それぞれのパーツごとにテストを行うことを想像してみてください。パーツ別の組み合わせ単位でテストパターンを用意していくと膨大な量になってしまいますが、多変量テストができると各パーツ単位でテストパターンを用意し、あとは組み合わせはツール側で自動的に生成、もっとも効果の高いパターンを見つけてくれるということが出来ます。facebook広告にも類似する機能がありますね。

ABテストのやり方

ではABテストの実際のやり方の手順をご説明していきます。おおよそ、以下のような手順となります。

  1. ABテストを実施する箇所及びテストで検証したい仮説を決める
  2. 仮説をもとにABテストを構成する5つの要素を決める
  3. ツールに設定し、動作検証を行った上で開始
  4. 結果データの蓄積を待つ
  5. 結果データを見てテストを続けるか、終えるかを決める
  6. 終えた場合は結果から当初の仮説がどうだったか検証し、必要に応じて仮説を見直して2へ戻り、以降2~6を繰り返す。良い結果が出るにせよ出ないにせよ、一定回数のABテストを繰り返せば仮説が正しそうかそうでないかを判断し、ABテストを終える。

このサイクルをいろいろな箇所で行い、改善を重ねていきましょう。次に各手順項目について。

1.ABテストを実施する箇所及びテストで検証したい仮説を決める

実はこの項目がもっとも難しい項目です。実施する箇所としては、「改善の効果が大きそうなところを選ぶ」「課題が大きそうなところを選ぶ」「目についたところからやる」など様々な選び方があり得ます。

原則的には、一定のデータ量が取れる箇所を選択しましょう。後述しますが、ABテストの結果が適切に出てくるのはある程度のボリュームのユーザーや結果指標の件数が必要です。ボリュームが十分にとれなければいつまで結果データを蓄積してもテストを終えることが出来ないという悪い循環に入ってしまいます。

実施箇所を決めると、次に何をテストしたいのか、仮説を考えてみましょう。「このページに来るユーザはきっとこういうつもりで来るからこういうメッセージが刺さるはずだ」「このメールの件名だとこのセグメントのユーザーには刺さるはずだ」といったものが仮説になります。

2.仮説をもとにABテストを構成する5つの要素を決める

実施する箇所と仮説が決まれば、自然に5つの構成要素のうちの4つ(対象となるユーザーセグメント、実施するテスト期間(特に開始日時)、テストのパターン、結果を測定する指標)が決まってきます。テスト期間はなるべく行動パターンの異なるユーザーが来にくい期間を選びましょう。例えばセール期間、広告出稿量を増やす期間、季節のイベントがある期間、などは避けたほうが無難です。

テストのパターンも原則的には仮説を検証するためにどういう比較をすればよいかを考えた上で決めていきましょう。ABテストは、何も考えずにテストパターンを当て込んで開始しても、データが貯まればそれなりの違いがでてきます。ただ、単に結果の良かったパターンを採用するということを繰り返していても、そこから得られる学びは多くはありませんしユーザーの理解も深めることが出来ません。ABテストのテストパターンは、結果から何かしらの学びが得られるように考えてみてください。

5つの構成要素のうち、「結果を判断する基準」だけはほかの4つ性質が異なっています。実はABテストの結果を判断する基準は意外に難題です。単純に数値が良かったほうを採用すれば良いかというとそうでもないのです。こちらは詳しくは後述しますが、定量・定性両面で考えて結果は判断するようにしましょう。

3.ツールに設定し、動作検証を行った上で開始

5つの構成要素が決まればツールに設定していくことが出来ます。設定後、意外にバカにならないのが動作検証です。設定したセグメントのユーザーに出ているか、結果指標は正しく設定されていてデータとして追跡できるようになっているか、各テストパターンの表示は問題ないか、といったことを確かめます。

動作検証が問題なければテストスタートとなります。

4.結果データの蓄積を待つ

スタートしてしばらくは各テストパターン別に結果データが貯まるのを待ちましょう。適切なボリュームがあるテスト箇所を選んでいたとしても、原則的に2週間はデータ蓄積の期間として置いておくことをおすすめします。置いておく、というのはテストパターンに手を入れないということです。

5.結果データを見てテストを続けるか、終えるかを決める

判断基準を最初に決めていれば、ここであまり迷うことはありません。判断基準に満たなければテストを続け、基準を超えていればテストを終え、次は別箇所でのABテストを準備しましょう。

とはいえ実際にはそこまで厳密に判断基準を決められないこともあります。その場合は「各テストパターンは十分な数のユーザーに接触出来た」とみなせるかどうか、「一定以上の差が出ている」「一定期間以上安定してあるパターンが良い結果を出し続けている」「サイト運営者の直感として、良い結果を出しているパターンは確かに効果がありそうと思える」などから複合的に判断していくことになります。ここは実は頭を悩ますところです。

ツールによっては結果の「信頼度」を表示してくれるものもあります。信頼度は、「統計的に有意であるかどうか」をもって測っていることが多いですが、Google Optimizeのようにベイズ推定を使っているツールもあります。統計的な算出方法はともかく、いずれもテスト結果を単純に大小で比較するのではなく、偶然にその差が生じているだけなのか、偶然には起こりそうにないくらいの差なのか、を表すためのものです。

6.終えた場合は結果から当初の仮説がどうだったか検証し、必要に応じて仮説を見直して2へ戻り、以降2~6を繰り返す。良い結果が出るにせよ出ないにせよ、一定回数のABテストを繰り返せば仮説が正しそうかそうでないかを判断し、ABテストを終える。

ABテストは、繰り返し仮説検証を行っていきその過程で学びを得ていくことがとても重要です。1回の実施で終わりとせずに、同じ箇所でのABテストを回していくことで仮説検証の精度を上げていきましょう。 

ABテスト実施上の注意点

ABテストは「同時に複数のパターンをテストし、効果があったパターンを採用する」という非常にシンプルなものです。ただそれだけに奥が深く、実践上も様々な注意点があります。ここではよくあるものをご紹介していきます。

テストパターンの1つを途中で修正したくなった

ABテストを回していると、テスト途中にある程度データが溜まった段階で、「あ、このテストパターンはイマイチだな」「こう修正したほうが良いかも」ということが見えてくることがあります。その場合に注意すべきこととして、テストの途中でテストパターンに対しての修正を行わないようにしようということがあります。途中で修正を行うと、その前後でテスト内容が変わってしまうことになります。それを同じテストとして継続していると、何と何を比較しているのかがわからなくなってしまい、結果の信頼性が担保できなくなります。

ABテストとは、よりよいパターンが何かを見つけることがゴールですので途中での修正はガマンするようにしましょう。もし修正をしたいとなれば、一度そのテストは終了させ、修正後のテストパターンを反映させたもので再度ABテストをやり直すという手順を踏むようにしましょう。

他社の成功事例を取り入れたがうまくいかなかった

ABテストの実施事例として、「このパターンを試すとCTRが200%上がった」というようなことがよく紹介されているかと思います(弊社もよくやります)。ではその成功パターンをそのまま自社のサイトに取り入れてうまくいくものでしょうか?

実はそのまま取り入れても大抵うまくいきません。

ユーザーの訪問意図、サイトの作りや詰まるポイント、コンテンツ、商品・サービス内容など、たとえ類似する他社だったとしても様々な要素に差異があります。結局のところは試行錯誤を繰り返すよりほかになく、それを認識しておくことはとても大切です。

事例をご覧になるときには、「なぜこのサイトだとこのパターンがうまくいったのだろうか」を是非自分なりに考えるようにしてみましょう。

ABテスト実施中に異なる行動傾向のユーザーが混ざってしまった

ABテストのテスト結果が有効だと言えるためには、テスト対象になっているユーザーはなるべく「同じ性質のユーザー」に揃えましょう。例えば、実施中に広告経由の流入が急増したりすると、その聞は性質の異なるユーザーが入ってくることになります。いつもと違うユーザーが混ざりそうな別の施策を予定している場合は、その期聞を避けて実施するか、やむを得ない場合はその期間とちょうど重ねて行うといいでしょう。

対象となるユーザー数が少なすぎる

テストの対象となるセグメントのユーザー数が十分でない場合、これは実ははっきりいってAB テストに不向きです。正確に言うとABテストの結果が信頼しにくくなります。ユーザー数が十分でないと、ランダムにテストパターンを配信したとしても、ランダム性が担保しづらくなってしまいます。極端な例を挙げますと、仮に対象セグメントのユーザーが2人しかいない場合、片方にAパターン、もう一人にBパターンを配信してテストを行えたとしても、結果が信頼できるとは思えませんよね。

例えば、特定ワードでのサイト内検索結果の表示数をABテストしようとしたときに、そのワードで検索する十分な数のユーザーがいなければ、信頼できる結果データが集まりません。入力される検索ワードの種類はかなりの数になるので、それぞれをAB テストしようとしても十分な数が集まらないでしょう。そもそも検索ワードごとのABテストも、テストの数が膨大になってしまうため非現実的な取り組みです。

後述しますがABテストの結果が信頼できるかどうかは統計的にも見ていきます。そのためには一定量以上のデータが必要になるので、ユーザー数が少ないといつまでも結果が出ないということになります。

テストの対象と結果を比較する指標が離れすぎている

テストの個所から結果が出るまでに距離がある、もしくは時間が長くかかる場合も、ABテストには向きません。例えば、トップページのバナー画像のABテストを行う際に、結果として見ていく指標を「リピート購入回数」にすることは設定上は可能です。ただリピート購入回数に影響を与える要因は、トップページのバナー画像以外にもさまざま考えられます。このように、テストを実施する個所(トップページのバナー)からその影響を測定したい個所(リピート購入)までが遠いと、その間にいろいろな要因が絡み合います。こうなるとセグメントの同質性の確保が難しくなり、出てきた結果が信頼しにくい(再現性が低い)ものとなります。

図;実施する個所から影響を測定したい個所までが遠いといろいろな要因が絡み合い、セグメントの同質性の確保が難しくなる

ABテストの結果の読み解きが正しくない

 ABテストを実施すると、テストパターンごとに結果が数値で表れます。結果の数値を読み解くときは、いい結果だったパターンを単純に「勝ちパターン」として採用してしまいがちですが、ここに落とし穴があります。

ABテストの結果、テストパターンAの数値がもっとも良かったとしても、偶然そうなっているだけなのかどうかを見極めなければいけません。それを教えてくれるのが「統計」です。テスト結果の違いが「偶然ではなさそうだ」となってはじめて勝ち負けを判断できます。

図:ABテストの結果、テストパターンAの数値がもっとも良かったとしても、偶然そうなっているだけなのかどうかを見極めなければならない

このようにAB テストの勝ち負けは、統計的に数値が信頼できるかどうかで判断する必要があります。統計や数字というと難しく感じるかもしれませんが、ABテストを正しく行うには、自分で計算できなくても大丈夫ですので「概念」 としては必ず理解しておきましょう。ここをいい加減にしてしまうと、仮説検証のサイクルを正しく回せなくなってしまいます。

統計的に信頼できる結果か?

数値の違いが偶然ではないことを、統計の言葉では「有意に差がある」と表現します。ややこしいのは「有意に差があるかどうか」が確率(パーセント)で表現される点です。差のある/なしが明確に出るわけではないので、見方を知っておく必要があります. ABテストツールの場合、簡易的に「結果を信頼できます』と表示されたり、あるいは信頼度が段階として表示されたりしますが、それはこの有意に差がある確率が何パーセントなのかということに基づいて表示内容を決めているのです。

「有意に差がある」とはどういうことか?

では、『有意に差がある/ない」とはどういうことでしょうか? 例えば、テストパターンAでは対象200人のユーザーに対して、コンバージョン行動を実施したのが20人だったとしましょう。同じパターンAを時期を変えて同質と思われる200人のユーザーに実施したときに、毎回きっちり20人がコンバージョンするわけではありません。19人だったり22人だったり、15人だったりするでしょう。ただ、これが150人になることはほとんどなさそうに思えます。統計が教えてくれるのは、「今回は20人だったけど、例えば80パーセントの確率だと15人~25人の幅になるよ」という「おおよその広がりの幅」です。広がりの幅を超えて差があれば「有意に差がある」(結果が信頼できる)となり、差が広がりの幅のなかに収まるなら「偶然」 (結果が信頼できない)となります。

差が偶然でない確率を高めようとすると、求められる差が大きくなっていきます。差が小さければ偶然の度合いが高まります。結果指標として差があったとしても「たまたま」そうなっているだけということは常にあり得るので、どの程度「たまたま」起きることなのかが統計的にわかるということは知っておいてください。

図:有意差についての説明。広がりの幅を超えて差があれば「有意に差がある」(結果が信頼できる)となり、差が広がりの幅のなかに収まるなら「偶然」となる

ABテスト、数値指標の目安

ABテストについて様々な角度から説明をしてきましたが、最後に数値指標の目安をご紹介しておこうと思います。ただ、あくまでここでご紹介する数値はこれまで我々Sprocketが取り組んできた経験からのものに過ぎません。これらの数値に依拠しすぎるのは本質的ではありませんのであらかじめご了承いただいた上でご参照ください。

ABテストの実施期間

実施期間中に十分なデータ量が集まるかという統計的な話だけでなく、「ユーザーの同質性」も考慮する必要があります。例えば、曜日が違えばユーザー層が変わるというのは多くのサイト(特にB2Cの)で見られます。そのため、ABテストの実施期聞を2週間以上にしておくと、曜日による違いを吸収しやすくなります。

結果指標の件数

結果を計測する指標としてどのくらいの件数があれば判断に足ると言えるか、はよく聞かれる質問です。経験則的な基準ですが、テストパターンごとにできれば100以上の結果指標の件数があれば、ユーザーの同質性や統計的な信頼性を含めて結果の比較として妥当と言えるでしょう。なるべくこのくらいの数のデータが貯まるまではAB テストを継続してください。

ただ、実際にはどうしてもコンバージョンが基準の数まで至らないことがあります。その場合は結果が偶然に過ぎない可能性もあるということを踏まえて判断するほかありません。

ABテストの勝率

僕ら自身もかなり気になる勝率ですが、相場としては2-3割、といったところではないかと思います。業界のいろいろな方とお話していても大体みなさんそのくらいの数値をおっしゃいます。Sprocketでも過去ABテストを25000回以上実施した自社データを見ると、

・一定の統計有意に到達する確率:約30%

・統計有意到達後、テストパターンがオリジナルのパターンより勝っている確率:約70%

と出ています。勝率としてはこの掛け算になりますのでやはり約20%となり、業界相場ともだいたい合致しています。思ったより勝てないな・・・と思われるかもしれませんが、だからこそテストを繰り返すことが大切になるのです。

1つの仮説に対し、何回ABテストを繰り返すか

これはなかなか正解のある話とは言えないので、数値の提示はあまり参考にならないのですが、Sprocketの場合は約3回繰り返しています。ただあくまで3回というのは平均値ですので、実際は10回以上テストを繰り返しているものもありますし、1回で判断する場合もあります。3回やればOK、というものではありませんのでその点はご注意ください。

Sprocketでは、消費者1,000人を対象としたアンケート調査の結果から、Webサイトの顧客体験を向上するオンライン接客についてまとめた資料を公開しています。ぜひダウンロードしてご活用ください。

オンライン接客で売り上げを上げる3つの方法

最後に

もともとは書籍内容を紹介する記事だったのですが、色々と加筆していくうちに3倍以上のボリュームになってしまい、ほぼ原型をとどめていない記事になってしまいました。その分内容は充実できたかと思いますのでご容赦ください。

ABテストを手際よく使いこなせば、仮説検証を素早く行い、より大きな成果を得ることができます。本記事で書いたことは、最初は難しく感じることもあるかもしれませんが、どれも非常に重要なので、ぜひマスターして成果につなげていって頂きたいなと思います。

弊社Sprocketが実践してきたABテストは70,000回以上に及びますが、ほとんどがサイト内ポップアップを対象としたものです。記事としてはABテストの対象によらない基本的な考え方として共通する部分を抽出して書いているつもりですが、特に数値指標周りは一定の偏りがあるかもしれません。ご容赦いただければ幸いです。

Sprocketでの過去の取り組み実績はこちらのインフォグラフィックでご覧いただけます

われわれは「おもてなしをデザインする」会社です。ビジネス成果とユーザーの心地よさを両立できる良質な体験をデジタル上で作り上げることをミッションにしています。おもてなしをデザインしていくうえではABテストを活用してPDCAを回していくことが不可欠です。そちらについても下記のホワイトペーパーにまとめていますので、よろしければ合わせて御覧ください。

ホワイトペーパー「PDCAがうまくいく 3つのポイント」

いちばんやさしいコンバージョン最適化の教本〜人気講師が教える実践デジタルマーケティング

深田浩嗣 著 / 2017年3月 インプレス刊

画像:弊社代表・深田が出している「いちばんやさしいコンバージョン最適化の教本」の表紙

本記事は、私が2017年に出版した「いちばんやさしいコンバージョン最適化の教本」から、特に多くのサイト運営者・経営者に知ってほしい重要なポイントを、再編集しました。よりくわしい解説や、コンバージョン最適化の全体像を知りたい方は、ぜひ本書を読んでください!

https://www.amazon.co.jp/dp/4295000159

▼連載:いちばんやさしいコンバージョン最適化のコツ 記事一覧

  1. 成果に結びつくコンバージョン・指標を設定するポイントとは?
  2. コンバージョン改善施策の失敗でありがちな3つの間違った指標
  3. デジタルマーケティング施策は自社でやるべきか? 外注するべきか?
  4. コンバージョン最適化は3つの階層で考えよう
  5. KPIツリーでコンバージョン最適化を考えよう

  6. 単品系ECサイトのKPIツリー
  7. 予約系サイトのKPIツリー
  8. 資料請求、体験/来場予約系サイトのKPIツリー
  9. なぜユーザは離脱するのか?
  10. コンバージョン最適化には「リアル店舗」の接客を参考にしよう
  11. コンバージョン向上に欠かせない「ABテスト」で効果を上げるためのコツと結果分析での注意点

サービス資料ダウンロード

Sprocketの機能、コンサルタント、導入事例、実績、
プラン体系などをご紹介します。(無料)

資料ダウンロード

導入検討の相談・見積もり

新規導入、乗り換えのご相談、Web接客ツールの比較など
お気軽にお問い合わせください。(無料)

お問い合わせ

03-6420-0079(受付:平日10:00~18:00)