logo
Voprosy_k_ekzamenu-matematika

Экспоненциальное распределение играет важную роль в задачах телекоммуникации, так как позволяет моделировать интервалы времени между наступлением событий.

Из экспоненциальных величин строятся другие важные величины, например, случайные величины, имеющие распределение Эрланга.

Мы говорим, что случайная величина имеет экспоненциальное (показательное) распределение, если

(0)

Пусть - время ожидания события, тогда из формулы (0) следует, что вероятность того, что это событие наступит раньше x равна . Этот удобный формализм позволяет описывать моменты возникновения случайных событий.

Параметр λ оценивается на основе реальных данных.

Плотность экспоненциального распределения имеет вид

, (1)

где λ>0 —положительная постоянная, называемая параметром экспоненциального распределения.

Заметьте, экспоненциальное распределение сосредоточено на положительной полуоси.

Экспоненциальная случайная величина принимает положительные значения.

Среднее значение равно

Дисперсия равна

Из формулы (0) следует:

Иными словами, вероятность того, что следующее событие наступит через время больше , равна

  1. Нормальное распределение.

Нормальное распределение (normal distribution) – играет важную роль в анализе данных.

Иногда вместо термина нормальное распределение употребляют термин гауссовское распределение в честь К.Гаусса (более старые термины, практически неупотребляемые в настоящее время: закон Гаусса, Гаусса-Лапласа распределение).

Нормальное распределение имеет плотность::

(*)

В этой формуле , фиксированные параметры, – среднее, – стандартное отклонение.

Графики плотности при различных параметрах приведены ниже.

Характеристическая функция нормального распределения имеет вид:

Дифференцируя характеристическую функцию и полагая t = 0, получаем моменты любого порядка.

Кривая плотности нормального распределения симметрична относительно и имеет в этой точке единственный максимум, равный

Параметр стандартного отклонения меняется в пределах от 0 до ∞.

Среднее меняется в пределах от -∞ до +∞.

При увеличении параметра кривая растекается вдоль оси х, при стремлении к 0 сжимается вокруг среднего значения (параметр характеризует разброс, рассеяние).

При изменении кривая сдвигается вдоль оси х (см. графики).

Варьируя параметры и , мы получаем разнообразные модели случайных величин, возникающие в телефонии.

Типичное применение нормального закона в анализе телекоммуникационных данных – моделирование сигналов, описание шумов, помех, ошибок, трафика.

Графики нормального распределения

Рисунок 1. График плотности нормального распределения: среднее равно 0, стандартное отклонение 1

Рисунок 2. График плотности стандартного нормального распределения с областями, содержащими 68% и 95% всех наблюдений

Рисунок 3. Графики плотностей нормальных распределений c нулевым средним и разными отклонениями (=0.5, =1, =2)

Рисунок 4 Графики двух нормальных распределений N(-2,2) и N(3,2).

Заметьте, центр распределения сдвинулся при изменении параметра .

  1. Вероятность попадания на отрезок.

Вероятность попадания случайной величины Х, распределенной по нормальному закону, в интервал , равна,

Где ,.

□ Учитывая, что вероятность есть приращение функции распределения на отрезкеи учитывая формулуполучим:

. ■

  1. Правило "трех сигм".

Вероятность того, что отклонение случайной величины Х, распределенной по нормальному закону, от математического ожидания а не превысит величину (по абсолютной величине), равна, где .

□ . Учитывая свойство 1, а также свойство нечетности функции Лапласа, получим

. ■

«правило трех сигм»:

Если случайная величина Х имеет нормальный закон распределения с параметрами а и , т.е. N(a;), то практически достоверно, что ее значения заключены в интервале ().

Нарушение «правила трех сигм», т.е. отклонение нормально распределенной случайной величины Х больше, чем на (по абсолютной величине), является событием практически невозможным, так как его вероятность весьма мала:

.

  1. Системы случайных величин.

Существуют случайные величины, которые определяются двумя, тремя и т.д. числами. Такие случайные величины называются двумерными, трехмерными и т.д.

В зависимости от типа, входящих в систему случайных величин, системы могут быть дискретными, непрерывными или смешанными, если в систему входят различные типы случайных величин.

Законом распределения системы случайных величин называется соотношение, устанавливающее связь между областями возможных значений системы случайных величин и вероятностями появления системы в этих областях.

  1. Законы распределения системы двух случайных величин.

Функцией распределения системы двух случайных величин называется функция двух аргументов F(x, y), равная вероятности совместного выполнения двух неравенств X<x, Y<y.

Свойства функции распределения системы двух случайных величин:

1) Если один из аргументов стремится к плюс бесконечности, то функция распределения системы стремится к функции распределения одной случайной величины, соответствующей другому аргументу.

2) Если оба аргумента стремятся к бесконечности, то функция распределения системы стремится к единице.

3) При стремлении одного или обоих аргументов к минус бесконечности функция распределения стремится к нулю.

4) Функция распределения является неубывающей функцией по каждому аргументу.

5) Вероятность попадания случайной точки (X, Y) в произвольный прямоугольник со сторонами, параллельными координатным осям, вычисляется по формуле:

  1. Условные законы распределения.

Распределение одной случайной величины, входящей в систему, найденное при условии, что другая случайная величина приняла определенное значение, называется условным законом распределения.

Условный закон распределения можно задавать как функцией распределения так и плотностью распределения.

Условная плотность распределения вычисляется по формулам:

Условная плотность распределения обладает всеми свойствами плотности распределения одной случайной величины.

  1. Зависимые и независимые случайные величины.

При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными величинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми.

Случайная величина называется независимой от случайной величины, если закон распределения величиныне зависит от того, какое значение приняла величина.

Для непрерывных случайных величин условие независимости отможет быть записано в виде:

при любом .

Напротив, в случае, если зависит от, то

.

Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.

Случайные величины иназываются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величиныиназываются зависимыми.

Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид:

, (8.5.2)

т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.

Условие (8.5.2) может рассматриваться как необходимое и достаточное условие независимости случайных величин.

Часто по самому виду функции можно заключить, что случайные величины,являются независимыми, а именно, если плотность распределенияраспадается на произведение двух функций, из которых одна зависит только от, другая - только от, то случайные величины независимы.

Изложенный критерий суждения о зависимости или независимости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает наоборот: закон распределения системы не известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величиныинезависимы. Тогда можно написать плотность распределения системы как произведение плотностей распределения отдельных величин, входящих в систему.

Остановимся несколько подробнее на важных понятиях о «зависимости» и «независимости» случайных величин.

Понятие «независимости» случайных величин, которым мы пользуемся в теории вероятностей, несколько отличается от обычного понятия «зависимости» величин, которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости - полную, жесткую, так называемую - функциональную зависимость. Две величины иназываются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой.

В теории вероятностей мы встречаемся с другим, более общим, типом зависимости — с вероятностной или «стохастической» зависимостью. Если величина связана с величинойвероятностной зависимостью, то, зная значение, нельзя указать точно значение, а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина.

Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай - полная независимость случайных величин. Между этими двумя крайними случаями лежат все градации вероятностной зависимости - от самой сильной до самой слабой. Те физические величины, которые на практике мы считаем функционально зависимыми, в действительности связаны весьма тесной вероятностной зависимостью: при заданном значении одной из этих величин другая колеблется в столь узких пределах, что ее практически можно считать вполне определенной. С другой стороны, те величины, которые мы на практике считаем независимыми, и действительности часто находятся в некоторой взаимной зависимости, но эта зависимость настолько слаба, что ею для практических целей можно пренебречь.

Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины инаходятся в вероятностной зависимости, это не означает, что с изменением величинывеличинаизменяется вполне определенным образом; это лишь означает, что с изменением величинывеличинаимеет тенденцию также изменяться (например, возрастать или убывать при возрастании). Эта тенденция соблюдается лишь «в среднем», в общих чертах, и в каждом отдельном случае от нее возможны отступлении.

  1. Числовые характеристики системы двух случайных величин.

Первые начальные моменты представляют собой математические ожидание величин Х и У, входящих в систему:

a1,0(x, y) = mx; a0,1(x, y) = my. (11.5)

Совокупность математических ожиданий представляет собой характеристику положения системы. Геометрически это координаты средней точки на плоскости, вокруг которой происходит рассеивание случайных точек (Х,У).

m1,0(x, y) = М[Х-mx]=0 m0,1(x, y)= М[Y-my)=0; (11.6)

a2,0(x, y) = a2(x) a0,2(x, y) = a2(y)

На практике широко используются вторые центральные моменты системы. Два из них представляют собой дисперсии, которые характеризуют рассеивание случайной точки в направлении осей 0Х и 0Y:

m2,0(x, y) = М[Х-mx)2=D[X]=Dx; m0,2(x, y) = М[Y-my)2 ]=D[Y]=Dy; (11.7)

Ковариация, коэффициент корреляции.

Особую роль играет центральный момент порядка 1+1 или второй смешанный центральный момент, который называется ковариацией или корреляционным моментом

m1,1(x, y) = Kxy= (11.8)

Ковариация представляет собой математическое ожидание произведения центрированных случайных величин X и Y и характеризует степень линейной статистической зависимости величин X и Y и рассеивание относительно точки (mx, my):

Kxy =, (11.9)

Или

(11.10)

Расчетные формулы для определения ковариации:

(11.11)

Свойства корреляции:

1. Kxy=Kyx.

2. Корреляционный момент двух независимых случайных величин Х и У равен нулю.

3. Абсолютная величина корреляционного момента двух случайных величин не превышает среднего геометрического их дисперсий

или

Если , случайные величиныХ и Y называются коррелированными. Если , то необязательно, чтоХ и Y независимы. В этом случае они называются некоррелированными. Итак, из коррелированности двух случайных величин следует их зависимость, но из зависимости еще не вытекает их коррелированность. Из независимости двух случайных величин следует их некоррелированность, но из некоррелированности еще нельзя заключить о независимости этих величин.

Величина ковариации зависит единиц измерения каждой из случайных величин, входящих в систему и от того, насколько каждая из случайных величин отклоняется от своего математического ожидания (одна – мало, вторая – сильно, все равно будет мал).

Поэтому для характеристики связи между Х и Y в чистом виде переходят к безразмерной характеристике, которая называется Коэффициент корреляции rxy характеризует степень линейной зависимости величин:

(11.12)

Свойства коэффициента корреляции:

1. Абсолютная величина коэффициента корреляции двух случайных величин не превышает единицы:

2. │rxy│=1 если Y=aХ+b

Коэффициент корреляции служит для оценки тесноты линейной связи между Х и Y: чем ближе абсолютная величина коэффициента корреляции к 1, тем связь сильнее, чем ближе к 0, тем слабее.

3. Если величины X и Y независимы, то rxy = 0.

  1. Регрессия

Регрессия - величина, выражающая зависимость среднего значения случайной величины у от значений случайной величины х.

Уравнение регрессии выражает среднюю величину одного признака как функцию другого.

Функция регрессии - это модель вида у = х», где у - зависимая переменная (результативный признак); х - независимая, или объясняющая, переменная (признак-фактор).

Линия регрессии - график функции у = f (x).