Бизнес-портал для руководителей, менеджеров, маркетологов, экономистов и финансистов

Поиск на AUP.Ru


Объявления

А.И. Орлов
Математика случая
Вероятность и статистика – основные факты

Учебное пособие. М.: МЗ-Пресс, 2004.

Предыдущая

2. Основы теории вероятностей

Дисперсия случайной величины

Математическое ожидание показывает, вокруг какой точки группируются значения случайной величины. Необходимо также уметь измерить изменчивость случайной величины относительно математического ожидания. Выше показано, что M[(X-a)2] достигает минимума по а при а = М(Х). Поэтому за показатель изменчивости случайной величины естественно взять именно M[(X-М(Х))2].

Определение 5. Дисперсией случайной величины Х называется число

Установим ряд свойств дисперсии случайной величины, постоянно используемых в вероятностно-статистических методах принятия решений.

Утверждение 8. Пусть Х – случайная величина, а и b – некоторые числа, Y = aX + b. Тогда D(Y) = a2D(X).

Как следует из утверждений 3 и 5, M(Y) = aM(X) + b. Следовательно, D(Y) =M[(Y - M(Y))2] = M[(aX + b - aM(X) - b)2] = M[a2(X - M(X))2]. Поскольку постоянный множитель можно выносить за знак суммы, то M[a2(X - M(X))2] = a2 M[(X - M(X))2] = a2 D(Х).

Утверждение 8 показывает, в частности, как меняется дисперсия результата наблюдений при изменении начала отсчета и единицы измерения. Оно дает правило преобразования расчетных формул при переходе к другим значениям параметров сдвига и масштаба.

Утверждение 9. Если случайные величины Х и У независимы, то дисперсия их суммы Х+У равна сумме дисперсий: D(X+Y) = D(X) + D(Y).

Для доказательства воспользуемся тождеством

(Х + У – (М(Х)+М(У))2 = (Х–М(Х))2

+ 2(Х–М(Х))(У–М(У)) + (У–М(У))2,

которое вытекает из известной формулы элементарной алгебры (a+b)2 = a2 + 2ab + b2 при подстановке a = X-M(X) и b = Y-M(Y). Из утверждений 3 и 5 и определения дисперсии следует, что

D(X+Y) = D(X) + D(Y) + 2M{(Х–М(Х))(У–М(У))}.

Согласно утверждению 6 из независимости Х и У вытекает независимость Х-М(Х) и У-М(У). Из утверждения 7 следует, что

M{(Х–М(Х))(У–М(У))}= M(Х–М(Х))М(У–М(У)).

Поскольку M(Х–М(Х)) = 0 (см. утверждение 3), то правая часть последнего равенства равна 0, откуда с учетом двух предыдущих равенств и следует заключение утверждения 9.

Утверждение 10. Пусть X1, X2,…, Xk – попарно независимые случайные величины (т.е. Xi и Xj независимы, если ). Пусть Yk – их сумма, Yk = X1+ X2+…+ Xk. Тогда математическое ожидание суммы равно сумме математических ожиданий слагаемых, М(Yk) = М(X1)+ М(X2)+…+М(Xk), дисперсия суммы равна сумме дисперсий слагаемых, D(Yk) = D(X1)+D(X2)+…+D(Xk).

Соотношения, сформулированные в утверждении 10, являются основными при изучении выборочных характеристик, поскольку результаты наблюдений или измерений, включенные в выборку, обычно рассматриваются в математической статистике, теории принятия решений и эконометрике как реализации независимых случайных величин.

Для любого набора числовых случайных величин (не только независимых) математическое ожидание их суммы равно сумме их математических ожиданий. Это утверждение является обобщением утверждения 5. Строгое доказательство легко проводится методом математической индукции.

При выводе формулы для дисперсии D(Yk) воспользуемся следующим свойством символа суммирования:

Положим ai = XiM(Xi), получим

Воспользуемся теперь тем, что математическое ожидание суммы равно сумме математических ожиданий:

   (8)

Как показано при доказательстве утверждения 9, из попарной независимости рассматриваемых случайных величин следует, что  при . Следовательно, в сумме (8) остаются только члены с i=j, а они равны как раз D(Xi).

Полученные в утверждениях 8-10 фундаментальные свойства таких характеристик случайных величин, как математическое ожидание и дисперсия, постоянно используются практически во всех вероятностно-статистических моделях реальных явлений и процессов.

Пример 9. Рассмотрим событие А и случайную величину Х такую, что , если , и  в противном случае, т.е. если . Покажем, что М(Х) = Р(А), D(X) = P(A)(1 – P(A)).

Воспользуемся формулой (5) для математического ожидания. Случайная величина Х принимает два значения – 0 и 1, значение 1 с вероятностью Р(А) и значение 0 с вероятностью 1 – Р(А), а потому М(Х) = 1 х Р(А) + 0 х (1 - Р(А)) = Р(А). Аналогично (Х – М(Х))2 = (1 – Р(А))2 с вероятностью Р(А) и (Х – М(Х))2 = (0 – Р(А))2 с вероятностью 1 – Р(А), а потому D(A) = (1 – P(A))2 P(A) + (P(A))2(1 – P(A)). Вынося общий множитель, получаем, что D(A) = P(A)(1 – P(A)).

Пример 10. Рассмотрим k независимых испытаний, в каждом из которых некоторое событие А может наступить, а может и не наступить. Введем случайные величины X1, X2,…, Xk следующим образом:  = 1, если в i-ом испытании событие А наступило, и  = 0 в противном случае. Тогда случайные величины X1, X2,…, Xk попарно независимы (см. пример 7). Как показано в примере 9, M(Xi) = p, D(Xi) = p(1 – p), где p = P(A). Иногда р называют «вероятностью успеха» - в случае, если наступление события А рассматривается как «успех».

Предыдущая

Объявления