準備
教科書では計算は主にエクセルによる関数で実行されています。エクセルはGUI上の操作性は抜群なのですが、外部のWebシステムと連携するためのAPIのライブラリやデータ分析ツールとの連携が十分でないため、本サイトではpythonにより教科書と同じ計算を行います。そのための準備です。
github
- githubのjupyter notebook形式のファイルはこちら
google colaboratory
- google colaboratory で実行する場合はこちら
筆者の環境
筆者の環境です。
!sw_vers
ProductName: Mac OS X
ProductVersion: 10.14.6
BuildVersion: 18G2022
!python -V
Python 3.7.3
必要なライブラリを読み込みます。
import numpy as np
import scipy
from scipy.stats import binom
%matplotlib inline
%config InlineBackend.figure_format = 'svg'
import matplotlib
import matplotlib.pyplot as plt
import seaborn as sns
print("numpy version :", np.__version__)
print("matplotlib version :", matplotlib.__version__)
print("sns version :",sns.__version__)
numpy version : 1.16.2
matplotlib version : 3.0.3
sns version : 0.9.0
概要
巻末解説2では、筆者たちがよく利用する6つのツールについて、具体例を踏まえて解説してくれています。実際のビジネスの場で必要になったらこれを参考にして適用すると良いでしょう。
- ガンマ・ポアソン・リーセンシーモデル
- 「最近いつ買ったか」、「最近いつ訪れたか」というデータ(最近の購入時期:Recency)から、相対的にどのブランド、どの施設、どの時期に資源を集中すべきか教えてくれます。
- 負の二項分布
- 消費者世帯パネルの自社ブランドのデータと、実際の売り上げ高との違いを補正してくれるツールです。予測時のトライアル率、リピート率、購入回数のベンチマークにも非常に有効という事です。
- カテゴリーの進出順位モデル
- 新しく作られたカテゴリーに、どの程度のシェアが取れるか教えてくれます。また、マーケティングの計画に基づくシェアのシミュレーションが出来ます。
- トライアルモデル・リピートモデル
- コンセプト・テスト、コンセプト・ユース・テストのデータと世帯パネル・データを使い、新製品の発売①年目の売り上げを予測できます。
- 平均購入額・量モデル (VPP Model: Volume per Purchase)
- 製品のサイズを決める手助けをしてくれます。
- デリシュレーNBDモデル
- 巻末解説1の1−6で説明した、教科書の表1−4のコルゲートの四半期購入率、四半期購入回数、100%ロイヤル顧客の割合の予測、NBDのカテゴリーKのデリシュレーSがどのような計算がされているか、その具体的な例が示されています。
2-1. ガンマ・ポアソン・リーセンシー・モデル
「最近いつ買ったか」、「最近いつ訪れたか」というデータから$m$と$k$を計算し、NBDモデルを構築する事が出来ます。NBDモデルを記述する式は、何度も紹介したとおり、以下の様に計算できます。
$$ P\left(r \right) = \frac{\left(1 + \frac{M}{K} \right)^{-K} \cdot \Gamma\left(K + r \right)}{\Gamma\left(r + 1 \right)\cdot \Gamma\left(K \right)} \cdot \left(\frac{M}{M+K} \right)^r $$
ある製品の期間$t$の対応する平均値$M$を$mt$とし、$K$を$k$と表記します。浸透率は100%から一度もこの製品を購入しない人を引けば良いので、
となります。よってある期間$t$と$t-1$における浸透率は、
$$ P\left(t \right) - P\left(t-1 \right) = \left(1+\frac{m\times t}{k} \right)^{-k} - \left(1+\frac{m\times \left(t-1 \right)}{k} \right)^{-k} $$
となります。
これを任意の期間に適用するために、二つの変数$t_1$と$t_2$を用いて、以下の様に$f \left(x \right)$と定義します。
$$ f\left(t_1,t_2,m,k \right) = \left(1+\frac{m\times t_1}{k} \right)^{-k} - \left(1+\frac{m\times t_2}{k} \right)^{-k} $$
教科書の表10-1は共通の関数$f\left(x \right)$を用いて、以下の様に表現することが出来ます。
ガンマ分布 | 実測値 |
---|---|
$\displaystyle f\left(t_1=0,t_2= \frac{14}{31}\right) $ | 43.9% |
$\displaystyle f\left(t_1=\frac{14}{31},t_2=1 \right) $ | 25.6% |
$\displaystyle f\left(t_1=1,t_2=2 \right) $ | 19.1% |
$\displaystyle f\left(t_1=2,t_2=3 \right) $ | 5.1% |
$\displaystyle f\left(t_1=3,t_2=4 \right) $ | 1.5% |
$\displaystyle f\left(t_1=4,t_2=5 \right) $ | 0.7% |
$\displaystyle f\left(t_1=5,t_2=6 \right) $ | 1.4% |
$\displaystyle f\left(t_1=6,t_2=\infty \right) $ | 2.7% |
scipyのcurve_figによる m,k の導出
一般に非線形の関数に対して最小二乗法によるfittingを行うには、scipy のcurve_fitモジュールを利用します。scipyのウェブサイト によると
scipy.optimize.curve_fit(f, xdata, ydata, p0=None, sigma=None, absolute_sigma=False, check_finite=True, bounds=(-inf, inf), method=None, jac=None, **kwargs)[source]
となっており、さらに、$xdata$と$ydata$は
xdata : array_like
The independent variable where the data is measured. Must be an M-length sequence or an (k,M)-shaped array for functions with k predictors.
ydata : array_like
The dependent data, a length M array - nominally f(xdata, ...).
と定義されています。教科書のfittingの問題を解くためには、
$$ f\left(t_1,t_2,m,k \right) =\left(1+\frac{m\times t_1}{k} \right)^{-k} - \left(1+\frac{m\times t_2}{k} \right)^{-k} $$
という上記で定義した関数 $\displaystyle f\left(x \right)$に対して、2変数関数のfitting問題を解く事になります。2変数は期間を指定する2変数(2週間〜1ヶ月の購入数を求める際は、$ \displaystyle t_1=\frac{14}{31}, t_2=1$となります)が必要で、以下のように二次元配列で定義します。
x = np.array([
[0.0 ,14/31 ,1.0 ,2.0 ,3.0 ,4.0 ,5.0 ,6.0 ],
[14/31 ,1.0 ,2.0 ,3.0 ,4.0 ,5.0 ,6.0 , 10000.0]
])
x[0]が$t_1$の配列、x[1]が$t_2$の配列となります。x[1,7]=10000.0としているのは、本来は$\infty$となりますが、実際の数値計算では無限大は受けいられないので、事実上無限大となる10000を入れています。この値は100程度でも問題ありません。
fittingする実際のコードは以下の通りです。
import json
import numpy as np
from scipy.optimize import curve_fit
from scipy.special import gamma
def _get_delta_nbd(x, m, k):
return (1 + m * x[0] / k )**(-k) - (1 + m * x[1] / k )**(-k)
x = np.array([
[0.0 ,14/31 ,1.0 ,2.0 ,3.0 ,4.0 ,5.0 ,6.0 ],
[14/31 ,1.0 ,2.0 ,3.0 ,4.0 ,5.0 ,6.0 , 10000.0]
])
y = [0.439, 0.256, 0.191, 0.051, 0.015, 0.007, 0.014, 0.027]
parameters, covariances = curve_fit(_get_delta_nbd, x, y)
print('parameters : ', parameters)
print('covariances : ', covariances)
parameters : [1.37824241 4.14429889]
covariances : [[ 0.00284656 -0.03699629]
[-0.03699629 1.57449471]]
結果として得られた$m$と$k$は、
となり、筆者が利用した$m$と$k$
とほぼ等しい値になっています。
2-2. 負の二項分布
本項では、実際の売上高のデータとパネル・データから得られるデータの差分を用いて、パネル・データを補正する方法が解説されています。
まず、パネル・データによってわかるのは以下の通りです。
- (A) : 世帯数
- (B) : 浸透率
- (C) : 平均購入回数
- (D) : 平均購入個数
- (E) : 平均購入単価
具体的な値は下記の表10−2を参照してください。教科書ではP281です。ここから、
また、実績としてわかっているのは以下の通りです。
- 売上高
このパネル・データ上の売上高と実績としての売上高の比を利用して、パネル・データや様々なパラメタの補正を行います。
そのために、教科書ではいくつの重要な仮定が設定されています。この仮定をしっかり頭に入れることが以後の計算をスムーズに理解する一助となります。
仮定
- 今売上の実績:58.9億円
- パネルデータによる売上高:41.2億円(売り上げ実績比: 70%, AxBxCxDxEによって求められる)
- 1回当たり平均購入個数はパネル・データと現実において同一
- 1回当たり平均購入単価はパネル・データと現実において同一
- $K$はパネル・データと現実において同一
となり、繰り返しますが、あくまでも実績としてわかっているのは、「売上高」のみです。教科書の例で言うと、売上が58.9億円という事だけがわかっています。
項目 | 補正前 | 補正後 | |
---|---|---|---|
(A) | 平成20年の総世帯数(千) | 49973 | 49973 |
(B) | 浸透率 | 15.0% | 17.4% |
(C) | 平均購入回数 | 2.50 | 3.07 |
(D) | 1回当たり平均購入個数 | 1.10 | 1.10 |
(E) | 1回当たり平均購入単価 | 200円 | 200円 |
(F) | 2回以上購入者比率 | 50% | 55% |
(G) | 年間売り上げ高(AxBxCxDxE) | 41.2億円 | 58.9億円 |
(H) | 実績に対するGの比率 | 70% | 100% |
項目 | 補正前 | 補正後 | |
---|---|---|---|
(I) | ブランドの$m$:(BxCxD) | 0.4125 | 0.5893 |
(J) | ブランドの$k$ | 0.09899 | 0.09899 |
(K) | $P_0$(1回も買わない確率) | 85.00% | 82.53% |
(L) | $P_1$(1回買う確率) | 6.79% | 7.00% |
(M) | $P_{+2}=100\%-P_0-P_1$ | 8.21% | 10.47% |
(N) | モデルによる2回以上の購入者比率:$\left(\frac{M}{B} \right)$ | 54.76% | 59.95% |
補正のステップ
- ブランドの$m=$浸透率×平均購入回数×平均購入個数
- ブランドの$k$ $$ P\left(r \right) = \frac{\left(1 + \frac{M}{K} \right)^{-K} \cdot \Gamma\left(K + r \right)}{\Gamma\left(r + 1 \right)\cdot \Gamma\left(K \right)} \cdot \left(\frac{M}{M+K} \right)^r $$ に、$\displaystyle K=k, M=m=0.4125, r=0$を代入することにより、
$$ P_0=\frac{\left(1+\frac{m}{k} \right)^{-k}\cdot \Gamma\left(k+0 \right)}{\Gamma\left(0+1 \right)\cdot \Gamma\left(k \right)}=\left(1+\frac{0.4125}{k} \right)^{-k} =0.85 $$
という非線形方程式を得ます。ここで$\displaystyle P_0$は一回も購入していない確率なので、(1-浸透率)から計算できて、
$$ P_0=1 - 015 = 0.85 $$
となることを利用しています。
非線形方程式を数値計算によって解く
$k$を求める方程式
$$ \left(1+\frac{0.4125}{k} \right)^{-k} =0.85 $$
は非線形であり、解析に解く事は出来ません。数値計算法により、コンピュータを用いて解く事になります。ここではpythonのnewton法によって解を得ます。教科書では、エクセルによって$k$の値を得ていますが、どちらでも構いません。
結果として、 $$ k=0.09899 $$ を得ます。
python code
$k$を求めるpythonのコードは以下の通りです。
from scipy.optimize import newton
MIN_k = 0
MAX_k = 1.0
def check_k(k):
if MIN_k < k and k < MAX_k:
return True
else:
return False
def get_k(m, P0):
def func(k, m=m, P0=P0):
return (1 + m / k) ** (-1 * k) - P0
k = None
try:
for initial_k in [(i + 1) * 0.01 for i in range(100)]:
k = newton(func, initial_k)
if check_k(k):
return k
else:
if not check_k(k):
return None
except:
return None
m = 0.4125
P0 = 0.85
print("k = {:,.5f}".format(get_k(m, P0)))
k = 0.09893
となり、pythonを用いても教科書とほぼ等しい値が得られています。
3. 1回買う確率であるP_1
$P_1$は$P_0$と同じように、
$$ P\left(r \right) = \frac{\left(1 + \frac{m}{k} \right)^{-k} \cdot \Gamma\left(k + r \right)}{\Gamma\left(r + 1 \right)\cdot \Gamma\left(k \right)} \cdot \left(\frac{m}{m+k} \right)^r $$
に、$\displaystyle k=0.09899, m=0.4125, r=1$を代入するだけです。ただ、ガンマ関数が含まれているので、pythonやエクセルによる計算が必要です。
となります。
4. 2回以上買う確率P_{2+}
1から$P_0$と$P_1$を引けば良いので、
$$ P_{2+}=1-0.85-0.06709=0.0821 $$
となります。
5. モデルによる購入者の中で2回以上買う人の割合(補正前)
これは単純に比を取るだけです。
$$ \frac{P_{2+}}{1-P_0} =\frac{0.0821}{1-0.85} =\frac{0.0821}{0.1500}=0.5476 $$ となります。
具体的な補正の計算
6. $P_0$の計算
$m$は実際の売上高とパネル・データ上の売上の比(0.7)によって補正されます。補正後の$m$を$m’$とします。
$$ m’=\frac{m}{0.7}=\frac{0.4125}{0.7}=0.5893 $$
と単純に補正されます。事前の仮定より$k$はパネル・データでも実際のデータでも共通なので、$k’=k=0.09899$となります。$k’$は補正後の$k$と言う意味です。この$k’$を用いて、$P_0$は以下の様に補正されます。
$$ P_0=\left(1+\frac{0.5893}{0.09899} \right)^{-0.09899}=0.8253 $$
また、補正後の浸透率($\tau’$と定義、補正前の浸透率を$\tau$と定義)も
$$ \tau’=1-0.8253=0.1747 $$
と計算できます。
7. 補正後の平均購入回数
1.で求めたように、$m=$浸透率×平均購入回数×平均購入個数なので、
8. 購入者の中で2回以上買う人の比率
これも同様に補正後の$P_0$と$P_1$を計算するだけです。計算には、 $$ P\left(r \right) = \frac{\left(1 + \frac{m^\prime}{k^\prime} \right)^{-k^\prime} \cdot \Gamma\left(k^\prime+ r \right)}{\Gamma\left(r + 1 \right)\cdot \Gamma\left(k^\prime \right)} \cdot \left(\frac{m^\prime}{m^\prime+k^\prime} \right)^r $$
を利用します。 それぞれ補正後の値に$’$をつけると、
よって、
$$ \frac{P_{2+}^\prime}{1-P_0^\prime} =\frac{0.1047}{1-0.8253} =0.5995 $$ となります。
9. 2回以上購入者比率
こちらは、パネル・データの値に、モデルによる2回以上の購入者比率の比で補正するだけです。
となり、補正されます。
2-3. カテゴリーの進出順位モデル
本節では、
となる公式が示されています。対応可能な商品のカテゴリは、
- 柔軟剤
- 衣料用液体洗剤
- フリーズドライ
- コーヒー
となります。
公式
ここで、
- a : 参入順位
- b : 相対的好意度
- c : 宣伝費の比率
- d : 間合いの年数 となります。
例
教科書では具体的な例が示されています。
- パイオニアブランド(トップのシェアを持つブランド)のシェア:35%
- 参入順位:4
- 相対的好意度:0.9
- 広告宣伝費率:0.7
- 3番目の製品と同じ年に参入(間合いの年数):1
となり、シェアは14%になります。
python code
あまり必要ないですが、pythonの計算コードを記載します。
pioneer_share = 0.35
order = 4
m = 0.9
cost = 0.7
entry = 1
prediceted_share = pioneer_share*order**(-0.49)*m**(1.11)*cost**(0.28)*entry**(0.07)
print('予想されるシェア率 = {:,.3f}'.format(prediceted_share))
予想されるシェア率 = 0.143
これが実際に正しく予測できるかという問題は別として、この公式から、今後新しく市場に参入した際のシェアを予測できるという点でかなり有意義の高い公式になります。
2-4. トライアルモデル・リピートモデル
本節では、
- コンセプト・テスト
- コンセプト・ユース・テスト
- 世帯パネル・データ
の値から、新製品の1年目の売上を予測する事について説明がなされています。
a) トライアル・モデル、リピートモデル
定義
- トライアルによる売上= (Pop) ×(トライアル率) ×(トライアルVPP)
- リピーターによる売上= (Pop) x (トライアル率) x (リピート率) x (リピート回数) x (リピートVPP)
b) 各項目の説明
- Pop: 消費者全体・全体世帯数の数
- トライアル率:一年間に初めて対象の製品を購入した人のPopの割合
- リピート率:一年間に初めて購入した人の内、もう一度一年間に購入した人の割合
- リピート回数:リピートした人の平均購入回数から一回(トライアル分)を除いた回数
- トライアルVPP:トライアル時の平均購入金額
- リピートVPP:リピート時の平均購入金額
c) 例
条件
- 全世帯の10%が発売から1年間にある新製品のシャンプーを購入
- 購入者の30%が期間内に少なくとももう一度購入
- リピーターの平均購入回数は2.5回
- トライアル時の平均購入金額は383円(365円x1.05)
- リピート時の平均購入金額は475円(431円x1.10)
= 4997万世帯x10%x383円 + 4997万世帯x10%x30%x1.5x475円
= 19.1億円 + 10.7億円 = 29.8億円
本節は、トライアル率さえパネルデータから導き出せれば、それほど理解することは難しくないと思われます。
2-5. 平均購入額・量モデル (VPP Model: Volume per Purchase)
本節は特に数学的な面の説明も必要ないと思われるため、省略します。
2-6. デリシュレーNBDモデル
デリシュレーNBDモデルとは、1-6 で説明したように、ブランド間シェアから、カテゴリーの中のすべてのブランドの購入率と購入回数を予測分析するのに役に立つモデルです。
イギリスでのコルゲートの購買データを元に、重要なパラメタであるKとSの導出から始まり、購入率、100%ロイヤル顧客の比率、平均購入回数まで求める方法が具体的に記載されています。
Kの算出
デリシュレーのNBDモデルを改めて示すと以下の様になります。教科書の式(6)です。
ここで、
です。
$K$の算出はカテゴリーのNBDモデルの式から2-2 と同様に導かれます。非線形方程式ですが、未知数がnewton方により数値計算で解を得ることが出来ます。
一度も購入していない世帯の割合から求めるので、式(6)の$p(r_j|R)$の項が1となり、計算が大幅に簡略されます。これにより$S$は消去され、この時点でわかっていなくても構いません。
コルゲートの場合
となるようです。
Sの算出
Sを求めるために、表1−4のコルゲートを一回も買っていない世帯のデータ(80%)を利用します。
少しややこしいですが、コルゲートを一回も買っていない世帯というのは、$R=0$で$r=0$、すなわち、歯磨き粉(カテゴリー)を一切買っていない世帯、$R=1$で$r=0$、歯磨き粉を1回買ったが、コルゲートを買っていない世帯、$R=2$で$r=0$、歯磨き粉を2回買ったが、コルゲートを買っていない世帯$R=3$で$r=0$、歯磨き粉を3回買ったが、コルゲートを買っていない世帯・・・のすべての人をカウントしなければなりません。
よって、以下の式を解くことになります。
理想的には、歯磨き粉を無限回買ったが、コルゲートを一切買っていない人もいるので、数式ではそれが表現されています。
しかし、現実にはそのようなデータはなく、ある程度Rが大きくなればそれ以降は0になる(そもそもブランドが無限個も存在しない)ので、ある一定数で打ち切る必要があります。P289では10個までに絞っています。
となり、現実的にはこれで十分です。
また、$p(r_j=0|R)$はいくらか簡単に書くことが出来て、
となり、$S$と$R$の関数になるため、式$(\ast)$は$S$のみの関数になります。
しかしながら、式$(\ast)$はかなり複雑な式となります。実際に数値計算で求める場合は、初期値をある程度想定してから求める必要があります。$K$を求めたときと同様にNewton法などを利用して求める事が出来ます。教科書では最終的な$S$を$$S=1.2$$と求めています。
表10-9について
表10-9は$p(r_j|R)$を$r_j$と$R$の値を具体的に与えたときの計算結果になります。$p(r_j=1|R=2)=20.5%$というのは、歯磨き粉を2回買った世帯がコルゲートを1回買った世帯の割合になります。ただし、$p(r_j|R)$は条件付き確率なので、あくまでも歯磨き粉を2回買った世帯の中で20%という事に気をつける必要があります。
表10-10について
表10-10は表10−9に$p_R(NBD)$を書けた数値の表になります。ある世帯が、歯磨き粉というカテゴリーを購入し、かつ、コルゲートを何個買うかの確率になります。
コルゲートの100%ロイヤル顧客の比率
表10-10の対角線上の数値は、歯磨き粉はコルゲートしか買わないと決めている購入者の比率なので、それを歯磨き粉を購入した率で割ることで、コルゲートのロイヤル顧客の比率を求めることが出来ます。
コルゲートの平均購入回数
コルゲートの購入確率と購入個数を掛け合わせて和を取ることで、購入個数の期待値(平均購入回数)が計算できます。
pythonのコード
以下に表10-8,9,10で計算するのに利用したpythonのコードを載せておきます。負の二項分布やデリシュレー分布の導出は難しいですが、結果の計算自体はそれほど複雑ではないです。
import numpy as np
import math
from scipy.special import gamma
def get_nbd(M, T, K, R):
return ((1 + M * T / K)**(-1 * K)) * \
(gamma(K + R) / math.factorial(R) / gamma(K)) * \
((M * T / (M * T + K)) ** R)
def get_p_rj_0(r, a, S, R):
return (math.factorial(R)/ math.factorial(r) / math.factorial(R - r)) * \
(gamma(S) / gamma(a) / gamma(S - a)) * \
(gamma(a + r) * gamma(S - a + R - r) / gamma(S + R))
def print01():
for R in range(0,11):
print('R={} | '.format(R), end='')
for r in range(R + 1):
print('{:.3f} | '.format(round(get_p_rj_0(r=r, a=1.2 * 0.25, S=1.2, R=R), 3)), end='')
print()
def print02():
for R in range(0,11):
print('R={} | '.format(R), end='')
for r in range(R + 1):
print('{:.1f} % | '.format(round(100 * get_nbd(M=1.46, T=1, K=0.78,R=R) * get_p_rj_0(r=r, a=1.2 * 0.25, S=1.2, R=R), 3)), end='')
print()
print('表10-9 S=0.12の時のカテゴリー購入回数別の比率')
print01()
print()
print()
print('表10-10 S=0.12の時のカテゴリー、ブランドの購入回数別の比率')
print02()
表10-9 S=0.12の時のカテゴリー購入回数別の比率
R=0 | 1.000 |
R=1 | 0.750 | 0.250 |
R=2 | 0.648 | 0.205 | 0.148 |
R=3 | 0.587 | 0.182 | 0.125 | 0.106 |
R=4 | 0.545 | 0.168 | 0.113 | 0.091 | 0.083 |
R=5 | 0.514 | 0.157 | 0.105 | 0.083 | 0.072 | 0.069 |
R=6 | 0.489 | 0.149 | 0.099 | 0.078 | 0.066 | 0.060 | 0.059 |
R=7 | 0.468 | 0.143 | 0.094 | 0.074 | 0.062 | 0.055 | 0.052 | 0.052 |
R=8 | 0.451 | 0.137 | 0.090 | 0.070 | 0.059 | 0.052 | 0.048 | 0.045 | 0.046 |
R=9 | 0.437 | 0.132 | 0.087 | 0.068 | 0.057 | 0.050 | 0.045 | 0.042 | 0.040 | 0.041 |
R=10 | 0.424 | 0.128 | 0.084 | 0.066 | 0.055 | 0.048 | 0.043 | 0.040 | 0.038 | 0.037 | 0.038 |
表10-10 S=0.12の時のカテゴリー、ブランドの購入回数別の比率
R=0 | 43.9 % |
R=1 | 16.7 % | 5.6 % |
R=2 | 8.4 % | 2.6 % | 1.9 % |
R=3 | 4.6 % | 1.4 % | 1.0 % | 0.8 % |
R=4 | 2.6 % | 0.8 % | 0.5 % | 0.4 % | 0.4 % |
R=5 | 1.5 % | 0.5 % | 0.3 % | 0.2 % | 0.2 % | 0.2 % |
R=6 | 0.9 % | 0.3 % | 0.2 % | 0.1 % | 0.1 % | 0.1 % | 0.1 % |
R=7 | 0.6 % | 0.2 % | 0.1 % | 0.1 % | 0.1 % | 0.1 % | 0.1 % | 0.1 % |
R=8 | 0.3 % | 0.1 % | 0.1 % | 0.1 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % |
R=9 | 0.2 % | 0.1 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % |
R=10 | 0.1 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % | 0.0 % |
まとめ
以上、「確率思考の戦略論」の巻末解説を私なりにかみ砕いてみました。私はマーケティングの専門家でなければ、実務経験もありません。普段はWebシステム開発や機械学習のモデル開発など、IT系の仕事をしています。その中で、ポアソン分布やガンマ分布などは普段利用しますが、このような形でマーケティングに応用されているとは思ってもいませんでした。
最初、マーケティングを専門にしている友人に「負の二項分布って何」って言われて始まった輪読会でしたが、改めて確率統計の重要さを思い知らされました。友人曰く、P&Gなどの海外では、普段から数学を利用してマーケティングがなされているという事ですが、日本ではまだまだのようです。マーケティングの大御所であるアレンバーグ先生は何十年も前にこの本の元となる論文を発表しています。しかしながら、今後日本でも「確率思考の戦略論」がきっかけにマーケティングにも確率や統計の考え方がますます応用されてくると思います。