logo
Voprosy_k_ekzamenu-matematika

Доказательство

Для доказательства Теоремы будем использовать формулу Стирлинга из математического анализа:

(1)

где 0 < θs < 1 / 12s. При больших s величина θ очень мала, и приближённая формула Стирлинга, записанная в простом виде,

(2)

даёт малую относительную ошибку, быстро стремящуюся к нулю, когда .

Нас будут интересовать значения m, не очень отличающиеся от наивероятнейшего. Тогда при фиксированном p условие будет так же означать, что

, (3)

Поэтому использование приближённой формулы Стирлинга для замены факториалов в биномиальном распределении допустимо, и мы получаем

(4)

Также понадобится использование отклонения относительной частоты от наивероятнейшего значения

(5)

Переписываем полученное ранее биномиальное распределение с факториалами, заменёнными по приближённой формуле Стирлинга:

(6)

Предположим, что

xm < pq (7)

Взяв логарифм второго и третьего множителей равенства (6), применим разложение в ряд Тейлора:

(8)

Располагаем члены этого разложения по степеням xm:

(9)

Предположим, что при

(10)

Это условие, как уже было указанно выше, означает, что рассматриваются значения m, не очень далёкие от наивероятнейшего. Очевидно, что (10) обеспечивает выполнение (7) и (3).

Теперь, пренебрегая вторым и последующими членами в разложении (6), получаем, что логарифм произведения второго и третьего членов произведения в правой части (8) равен

(11)

Отбрасывая малые слагаемые в скобках первого множителя (6), получаем:

(12)

Обозначив

(13)

Переписываем (12) в виде:

(14)

Где — нормальная функция.

Поскольку в интервале [m,m + 1) имеется только одно целое число m, то можно сказать, что pn(m) есть вероятность попадания mв интервал [m,m + 1). Из (5) следует, что изменению m на 1 соответствует изменение xm на

(15)

Поэтому вероятность попадания m в интервал [m,m + 1) равна вероятности попадания xm в промежуток [xm,xm + Δx)

(16)

Когда , и равенство (16) показывает, что нормальная функция является плотностью случайной переменной xm

Таким образом, если то для отклонения относительной частоты от наивероятнейшего значения справедлива ассимптотическая формула (16), в которой — нормальная функция с xm = 0 и .

Таким образом теорема доказана.

  1. Интегральная теорема Муавра-Лапласа.

Если вероятность событияв каждом испытании постоянна и отлична как от нуля, так и от единицы, то вероятностьтого, что событиепоявится виспытаниях отдораз, приближенно равна определенному интегралу:

,

где ,.

Доказательство. На основании теоремы сложения вероятности для несовместных событий:

.

Отсюда, используя локальную теорему Лапласа:

,

где ();.

Поскольку ,

следовательно .

Причем, эта сумма является интегральной для функции на отрезке, так как при, т.е. при, ее предел равен соответствующему определенному интегралу:

,

где , а,

что и требовалось доказать.

Введем стандартный интеграл Лапласа (функцию Лапласа):

,

который, очевидно, является первообразной функции Гаусса:

.

Тогда на основании формулы Ньютона – Лейбница можно записать

.

Значения функций иобычно находятся из таблиц, причем таблицы обычно даны лишь для неотрицательных значений, поскольку– четная функция, а– нечетная. Из таблиц видно, что призначенияпрактически не отличаются от 0.5, поэтому далее табуляция, как правило, не ведется.

  1. Основные понятия математической статистики.

Математическая статистика – раздел математики, в котором изучаются методы сбора, систематизации и обработки результатов наблюдений массовых случайных явлений для выявления существующих закономерностей.

Математическая статистика тесно связана с теорией вероятностей. Предметом математической статистики является изучение случайных величин (или случайных событий, процессов) по результатам наблюдений.

Совокупность всех подлежащих изучению объектов или возможных результатов всех мыслимых наблюдений, производимых в неизменных условиях над одним объектом, называется генеральной совокупностью.

Зачастую проводить сплошное обследование, когда изучаются все объекты, трудно или дорого, а иногда и невозможно. В этих случаях наилучшим способом обследования является выборочное наблюдение: выбирают из генеральной совокупности часть ее объектов («выборку») и подвергают ее изучению.

Выборочной совокупностью (выборкой) называют совокупность объектов, отобранных случайным образом из генеральной совокупности. Более строго:

выборка – это последовательность X1, X2, … Xn независимых одинаково

распределенных случайных величин, распределение каждой из которых совпадает с распределением генеральной случайной величины.

Число объектов (наблюдений) в совокупности, генеральной или выборочной, называется ее объемом; обозначается соответственно через N и n.

Конкретные значения выборки, полученные в результате наблюдений (испытаний), называют реализацией выборки и обозначают строчными буквами x1, х2 …хn.

Метод статистического исследования, состоящий в том, что на основе изучения выборочной совокупности делается заключение о всей генеральной совокупности, называется выборочным.

Различают выборки с возвращением (повторные) и без возвращения (бесповторные). В первом случае отобранный объект возвращается в генеральную совокупность перед извлечением следующего; во втором – не возвращается. На практике чаще используется бесповторная выборка

  1. Оценка числовых характеристик случайных величин.

  2. Оценка математического ожидания и дисперсии, их свойства.

Числа, назначение которых в сжатом виде характеризовать основные особенности распределений случайных величин, называются числовыми характеристиками. Рассмотрим некоторые из числовых характеристик и их основные свойства.

Математическое ожидание и его свойства.

Математическим ожиданием (или средним значением) дискретной случайной величины называется сумма произведений всех её возможных значение на соответствующие им вероятности.

Т.е., если сл. величина имеет закон распределения, то

называется её математическим ожиданием. Если сл. величина имеет бесконечное число значений, то математическое ожидание определяется суммой бесконечного ряда , при условии, что этот ряд абсолютно сходится (в противном случае говорят, что математическое ожидание не существует).

Для непрерывной сл. величины, заданной функцией плотности вероят­ности f(x), математическое ожидание определяется в виде интеграла

при условии, что этот интеграл существует (если интеграл расходится, то говорят, что математическое ожидание не существует).

Свойства математического ожидания.

Свойство 1. Математическое ожидание постоянной равно самой этой постоянной.

Постоянная С принимает это значение с вероятностью единица и по определению М(С)=С1=С

Свойство 2. Математическое ожидание алгебраической суммы случайных величин равно алгебраической суме их математических ожиданий.

Свойство 3. Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий.

Дисперсия и среднее квадратическое отклонение.

Названные числовые характеристики дают представление о разбросе случайных величин относительно их среднего значения.

Дисперсией (рассеянием) случайной величины называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания.

Для вычисления дисперсии можно использовать слегка преобразованную формулу

т.к. М(х), 2 и постоянные величины, то

.

Свойства дисперсии.

Свойство 1. Дисперсия постоянной равна нулю.

Свойство 2. Постоянную можно выносить за знак дисперсии с возведением в квадрат.

Центрированной случайной величиной называется отклонение случайной величины от ее математического ожидания.

Центрированная величина обладает двумя удобными для преобразования свойствами:

Свойство 3. Если случайные величины Х и У независимы, то

Дисперсия, как характеристика разброса случайной величины, имеет один недостаток. Если, например, Х – ошибка измерения имеет размерность ММ, то дисперсия имеет размерность . Поэтому часто предпочитают пользоваться другой характеристикой разброса – средним квадратическим отклонением, которое равно корню квадратному из дисперсии.

Среднее квадратическое отклонение имеет ту же размерность, что и сама случайная величина.

Моменты случайных величин.

Помимо уже рассмотренных случайные величины имеют множество других числовых характеристик.

Начальным моментом k-го порядка случайной величины Х называется математическое ожидание k-ой степени этой случайной величины.

Центральным моментом k-го порядка случайной величины Х называется математическое ожидание k-ой степени соответствующей центрированной величины.

Легко видеть, что центральный момент первого порядка всегда равен нулю, центральный момент второго порядка равен дисперсии, т.к. .

Центральный момент третьего порядка дает представление об асимметрии распределения случайной величины. Моменты порядка выше второго употребляются сравнительно редко, поэтому мы ограничимся только самими понятиями о них.

Числовые характеристики системы случайных величин составляют числовые характеристики каждой из величин, входящих в систему, и числовые характеристики, дающие представление о характере связи между величинами. Числовые характеристики каждой из величин по отдельности определяются как числовые характеристики обычных случайных величин. Из числовых характеристик зависимости между величинами назовем лишь наиболее употребимую.

Корреляционным моментом или ковариацией случайных величин Х и У называется математическое ожидание произведения соответствующих центрированных величин

Если случайные величины независимы, то их ковариация равна нулю. Обратное утверждение верно не всегда. Равенство нулю ковариации независимых случайных величин следует из теоремы о математическом ожидании произведения независимых случайных величин

часто силу зависимости между случайными величинами характеризуют безразмерным коэффициентом

  1. Оценка функции распределения.

  1. Оценка функции плотности.

  2. Метод моментов.

  3. Метод максимального правдоподобия.

  4. Метод наименьших квадратов.

  5. Интервальные оценки.

  6. Интервальные оценки параметров нормального распределения.

  7. Основные понятия проверки гипотез.

  8. Гипотезы о параметрах нормального распределения.

  9. Критерии согласия.

  10. Однофакторный дисперсионный анализ.

  11. Парная корреляция.

  12. Анализ парной корреляции.

  13. Парная линейная регрессия.