en   ua   🔍

До списку прикладів

Методи знаходження оцінок
(метод моментів)
Середній рівень

Умова

Під час нейтронного бомбардування ядер урану починається розщеплення ядра, за якого ядро урану розпадається на дві частини різного роду. У камері Вільсона це явище спостерігається у вигляді двох траєкторій, що виходять з однієї точки. Ці траєкторії невдовзі розділяються на кілька гілок, що отримуються в результаті зіткнення частинок з молекулами в камері. Позначимо через \(\xi \) кількість гілок в одній з цих траєкторій. Відомо, що ця випадкова величина має «подвійний» розподіл Пуассона з параметрами \({\lambda _1}\) та \({\lambda _2}\): $$P\left\{ {\xi = k} \right\} = \frac{1}{2} \cdot \frac{{\lambda _1^k}}{{k!}}{e^{ - {\lambda _1}}} + \frac{1}{2} \cdot \frac{{\lambda _2^k}}{{k!}}{e^{ - {\lambda _2}}},~ ~ ~ k = 0,1,2 \ldots $$ де \(0 < \,{\lambda _1} < {\lambda _2}\). За допомогою методу моментів знайти оцінки параметрів \({\lambda _1}\) та \({\lambda _2}\). Порахувати їх, якщо спостереження велись за 327 частинками і отримали наступну таблицю:

\(k\) 0 1 2 3 4 5 6 7 8 9 10
\({n_k}\) 28 47 81 67 53 24 13 8 3 2 1
\({n_k}\) – кількість траєкторій, що мали \(k\) гілок.


Розв’язок

Випадкова величина \(\xi \) є дискретною випадковою величиною, її теоретичні моменти \({\alpha _1}\left( {{\theta _1},{\theta _2}} \right)\) та \({\alpha _2}\left( {{\theta _1},{\theta _2}} \right)\) шукаємо як суми відповідних рядів: \[{\rm{M}}\xi = {\alpha _1}\left( {{\theta _1},{\theta _2}} \right) = \sum\limits_{k = 0}^\infty {k \cdot \left( {\frac{1}{2} \cdot \frac{{\theta _1^k}}{{k!}}{e^{ - {\theta _1}}} + \frac{1}{2} \cdot \frac{{\theta _2^k}}{{k!}}{e^{ - {\theta _2}}}} \right)} = \frac{1}{2}\sum\limits_{k = 0}^\infty {k \cdot \frac{{\theta _1^k}}{{k!}}{e^{ - {\theta _1}}}} + \frac{1}{2}\sum\limits_{k = 0}^\infty {k \cdot \frac{{\theta _2^k}}{{k!}}{e^{ - {\theta _2}}}} ;\] \[{\rm{M}}{\xi ^2} = {\alpha _2}\left( {{\theta _1},{\theta _2}} \right) = \sum\limits_{k = 0}^\infty {{k^2} \cdot \left( {\frac{1}{2} \cdot \frac{{\theta _1^k}}{{k!}}{e^{ - {\theta _1}}} + \frac{1}{2} \cdot \frac{{\theta _2^k}}{{k!}}{e^{ - {\theta _2}}}} \right)} = \frac{1}{2}\sum\limits_{k = 0}^\infty {{k^2} \cdot \frac{{\theta _1^k}}{{k!}}{e^{ - {\theta _1}}}} + \frac{1}{2}\sum\limits_{k = 0}^\infty {{k^2} \cdot \frac{{\theta _2^k}}{{k!}}{e^{ - {\theta _2}}}} .\] Підрахуємо суму ряду \[\sum\limits_{k = 0}^\infty {k \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} .\] Оскільки член ряду при \(k = 0\) є рівним нулю, то \[\sum\limits_{k = 0}^\infty {k \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} = \sum\limits_{k = 1}^\infty {k \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} = \sum\limits_{k = 1}^\infty {\frac{{{\lambda ^k}}}{{\left( {k - 1} \right)!}}{e^{ - \lambda }}} = \lambda {e^{ - \lambda }}\sum\limits_{k = 1}^\infty {\frac{{{\lambda ^{k - 1}}}}{{\left( {k - 1} \right)!}}} \mathop = \limits^{k \to k + 1} \lambda {e^{ - \lambda }}\sum\limits_{k = 0}^\infty {\frac{{{\lambda ^k}}}{{k!}}} .\] Оскільки \(\sum\limits_{k = 0}^\infty {\frac{{{\lambda ^k}}}{{k!}}} = {e^\lambda }\) (як ряд Маклорена), то \[\sum\limits_{k = 0}^\infty {k \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} = \lambda {e^{ - \lambda }}{e^\lambda } = \lambda .\] Тоді \[ {\alpha _1}\left( {{\theta _1},{\theta _2}} \right) = \frac{1}{2}\sum\limits_{k = 0}^\infty {k \cdot \frac{{\theta _1^k}}{{k!}}{e^{ - {\theta _1}}}} + \frac{1}{2}\sum\limits_{k = 0}^\infty {k \cdot \frac{{\theta _2^k}}{{k!}}{e^{ - {\theta _2}}}} = \frac{1}{2}{\theta _1} + \frac{1}{2}{\theta _2} = \frac{{{\theta _1} + {\theta _2}}}{2} \tag{1} \] Підрахуємо значення суми ряду \(\sum\limits_{k = 0}^\infty {{k^2} \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}}. \). Для цього скористаємось тотожністю \({k^2} \equiv k \cdot \left( {k - 1} \right) + k\) і розіб’ємо відповідний ряд на два: \[\sum\limits_{k = 0}^\infty {{k^2} \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} = \sum\limits_{k = 0}^\infty {\left( {k\left( {k - 1} \right) + k} \right) \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} = \sum\limits_{k = 0}^\infty {k\left( {k - 1} \right) \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} + \sum\limits_{k = 0}^\infty {k \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} .\] Значення суми ряду \(\sum\limits_{k = 0}^\infty {k \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} \) відоме з попередніх викладок і дорівнює \(\lambda \). Знайдемо значення суми ряду \(\sum\limits_{k = 0}^\infty {k\left( {k - 1} \right) \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} \), користуючись тими ж міркуваннями, що й для знаходження суми ряду \(\sum\limits_{k = 0}^\infty {k \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} ~\): \[\sum\limits_{k = 0}^\infty {k\left( {k - 1} \right) \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} = {\lambda ^2}{e^{ - \lambda }}\sum\limits_{k = 2}^\infty {\frac{{{\lambda ^{k - 2}}}}{{\left( {k - 2} \right)!}}} \mathop = \limits^{k \to k + 2} {\lambda ^2}{e^{ - \lambda }}\sum\limits_{k = 0}^\infty {\frac{{{\lambda ^k}}}{{k!}}} = {\lambda ^2}{e^{ - \lambda }}{e^\lambda } = {\lambda ^2}.\] Отже, \[\sum\limits_{k = 0}^\infty {{k^2} \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} = \sum\limits_{k = 0}^\infty {k\left( {k - 1} \right) \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} + \sum\limits_{k = 0}^\infty {k \cdot \frac{{{\lambda ^k}}}{{k!}}{e^{ - \lambda }}} = {\lambda ^2} + \lambda .\] З цього: \[ {\alpha _2}\left( {{\theta _1},{\theta _2}} \right) = \frac{1}{2}\sum\limits_{k = 0}^\infty {{k^2} \cdot \frac{{\theta _1^k}}{{k!}}{e^{ - {\theta _1}}}} + \frac{1}{2}\sum\limits_{k = 0}^\infty {{k^2} \cdot \frac{{\theta _2^k}}{{k!}}{e^{ - {\theta _2}}}} = \frac{1}{2}\left( {\theta _1^2 + {\theta _1}} \right) + \frac{1}{2}\left( {\theta _2^2 + {\theta _2}} \right) . \tag{2} \]

Прирівнюючи за методом моментів теоретичні моменти до вибіркових, а також враховуючи, що \(\alpha _1^* = \overline X \) і \(\alpha _2^* = {S^2} + {\overline X ^2}\), із (1) та (2) маємо: \[\left\{ \begin{array}{l}\frac{{{\theta _1} + {\theta _2}}}{2} = \overline X \\\frac{1}{2}\left( {\theta _1^2 + {\theta _1}} \right) + \frac{1}{2}\left( {\theta _2^2 + {\theta _2}} \right) = {S^2} + {\overline X ^2}\end{array} \right.\] Розв’язавши цю систему відносно \({\theta _1}\) та \({\theta _2}\) (враховуючи, що за умовою \({\theta _1} < {\theta _2}\)), отримуємо \[{\widehat \theta _1} = \overline X - \sqrt {{S^2} - \overline X }, ~ ~ ~ ~ ~ ~ ~ ~ {\widehat \theta _2} = \overline X + \sqrt {{S^2} - \overline X } .\] З іншого боку, \(\alpha _1^* = \frac{1}{N}\sum\limits_{i = 1}^N {{x_i}} \), де \({x_i}\) – кількість гілок в \(i\)-й спостережуваній траєкторії, \(N\) – кількість спостережуваних траєкторій. Враховуючи, що \({x_i} = k\) справедливе для \({n_k}\) спостережень, отримаємо \[\alpha _1^* = \frac{1}{N}\sum\limits_{k = 0}^K {k{n_k}}, \] де \(K\) – найбільша із кількостей гілок серед усіх спостережуваних траєкторій, \(K = \mathop {\max }\limits_{i \in \overline {1,n} } \left\{ {{x_i}} \right\}\). Абсолютно аналогічно і в тих самих позначеннях маємо, що \[\alpha _2^* = \frac{1}{N}\sum\limits_{i = 1}^N {x_i^2} = \frac{1}{N}\sum\limits_{k = 0}^K {{k^2}{n_k}} .\]

За умовою, \(N = 327, ~ K=10\), тому \[\alpha _1^* = \frac{1}{{327}}\sum\limits_{k = 0}^{10} {k{n_k}} = \frac{{928}}{{327}} \approx 2.8379 ,\] \[\alpha _2^* = \frac{1}{{327}}\sum\limits_{k = 0}^{10} {{k^2}{n_k}} = \frac{{3736}}{{327}} \approx 11.4251 .\] \[{\widehat \theta _1} = \alpha _1^* - \sqrt {\alpha _2^* - \alpha _1^* - {{\left( {\alpha _1^*} \right)}^2}} = \frac{{928 - \sqrt {57032} }}{{327}} \approx 2.1076 ,\] \[{\widehat \theta _2} = \alpha _1^* + \sqrt {\alpha _2^* - \alpha _1^* - {{\left( {\alpha _1^*} \right)}^2}} = \frac{{928 + \sqrt {57032} }}{{327}} \approx 3.5682 .\]


Відповідь: \({\widehat \theta _1} = \overline X - \sqrt {{S^2} - \overline X } \approx 2.1076\), \({\widehat \theta _2} = \overline X + \sqrt {{S^2} - \overline X } \approx 3.5682\).


Шарапов М.М. 2007-2024