Если случайные величины независимы то. События случайные независимые. Смотреть что такое "события случайные независимые" в других словарях

При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее тесной.

Понятие о независимых случайных величинах -- одно из важных понятий теории вероятностей.

Определение 1. Случайная величина Y называется независимой от случайной величины X, если закон распределения величины Y не зависит от того, какое значение приняла величина X.

Для непрерывных случайных величин условие независимости Y от X может быть записано в виде:

Напротив, в случае, если Y зависит от X, то

Докажем, что зависимость или независимость случайных величин всегда взаимны: если величина Y не зависит от X, то и величина X не зависит от Y.

Действительно, пусть Y не зависит от X , тогда

Плотность совместного распределения согласно (5.4.5) и (5.4.6) можно записать

откуда, получим:

что и требовалось доказать.

Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.

Определение 2. Случайные величины X и Y называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины X и Y называются зависимыми.

Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид:

т.е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.

Остановимся, несколько подробнее на важных понятиях о «зависимости» и «независимости» случайных величин.

Понятие «зависимости» случайных величин, которым мы пользуемся в теории вероятностей, несколько отличается от обычного понятия «зависимости» величин, которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости--полную, жесткую, так называемую функциональную зависимость. Две величины X и Y называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой.

В теории вероятностей мы встречаемся с другим, более общим, типом зависимости -- с вероятностной или «стохастической» зависимостью. Если величина Y связана с величиной X вероятностной зависимостью, то, зная значение X, нельзя указать точно значение Y, а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина X.

Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины X и Y находятся в вероятностной зависимости, это не означает, что с изменением величины X величина Y изменяется вполне определенным образом; это лишь означает, что с изменением величины X величина Y имеет тенденцию также изменяться (например, возрастать или убывать при возрастании X).

Рассмотрим, например, две такие случайные величины: X -- рост наугад взятого человека, Y -- его вес. Очевидно, величины X и Y находятся в определенной вероятностной зависимости; она выражается в том, что в общем люди с большим ростом имеют больший вес.

Любой из них, не зависит от того, какие значения приняли (или примут) остальные случайные величины.

Например, система двух игральных кубиков – совершенно понятно, что результат броска одного кубика никак не влияет на вероятности выпадения граней другого кубика. Или одинаковые независимо работающие игровые автоматы. И, наверное, у некоторых сложилось впечатление, что независимы вообще любые СВ. Однако это далеко не всегда так.

Рассмотрим одновременное сбрасывание двух кубиков-магнитов, у которых северные полюса находятся на стороне 1-очковой грани и южные – на противоположной грани в 6 очков. Будут ли независимыми аналогичные случайные величины? Да, будут. Просто снизятся вероятности выпадения «1» и «6» и увеличатся шансы других граней, т.к. в результате испытания кубики могут притянуться противоположными полюсами.

Теперь рассмотрим систему , в которой кубики сбрасываются последовательно :

– количество очков, выпавших на первом кубике;

– количество очков, выпавших на втором кубике, при условии, что он всё время сбрасывается по правую (например) сторону от 1-го кубика .

В этом случае закон распределения случайной величины зависит от того, как расположился 1-й кубик. Вторая кость может либо притянуться, либо наоборот – отскочить (если «встретились» одноимённые полюса), либо частично или полностью проигнорировать 1-й кубик.

Второй пример: предположим, что одинаковых игровых автоматов объединены в единую сеть, и – есть система случайных величин - выигрышей на соответствующих автоматах. Не знаю, законна ли эта схема, но владелец игрового зала вполне может настроить сеть следующим образом: при выпадении крупного выигрыша на каком-либо автомате, автоматически меняются законы распределения выигрышей вообще на всех автоматах. В частности, целесообразно на некоторое время обнулить вероятности крупных выигрышей, чтобы заведение не столкнулось с нехваткой средств (в том случае, если вдруг кто-то выиграет по-крупному ещё раз). Таким образом, рассмотренная система будет зависима.

В качестве демонстрационного примера рассмотрим колоду из 8 карт, пусть это будут короли и дамы, и простую игру, в которой два игрока последовательно (не важно, в каком порядке) извлекают из колоды по одной карте. Рассмотрим случайную величину , которая символизирует одного игрока и принимает следующие значения: 1 , если он извлёк червовую карту, и 0 – если карту другой масти.

Аналогично, пусть случайная величина символизирует другого игрока и тоже принимает значения 0 либо 1, если он извлёк не черву и черву соответственно.

– вероятность того, что оба игрока извлекут черву,

– вероятность противоположного события, и:

– вероятность того, что один извлечёт черву, а другой – нет; ну или наоборот:

Таким образом, закон распределения вероятностей зависимой системы :

Контроль: , что и требовалось проверить. …Возможно, у вас возник вопрос, а почему я рассматриваю именно 8, а не 36 карт? Да просто для того, чтобы дроби получились не такими громоздкими.

Теперь немного проанализируем результаты. Если просуммировать вероятности по строкам : , то получится в точности закон распределения случайной величины :

Легко понять, что это распределение соответствует ситуации, когда «иксовый» игрок тянет карту один, без «игрекового» товарища, и его математическое ожидание:
– равно вероятности извлечения червы из нашей колоды.

Аналогично, если просуммировать вероятности по столбцам , то получим закон распределения одиночной игры второго игрока:

с тем же матожиданием

В силу «симметрии» правил игры, распределения получились одинаковыми, но, в общем случае, они, конечно, различны.

Помимо этого, полезно рассмотреть условные законы распределения вероятностей . Это ситуация, когда одна из случайных величин уже приняла какое-то конкретное значение, или же мы предполагаем это гипотетически.

Пусть «игрековый» игрок тянет карту первым и извлёкает не черву . Вероятность этого события составляет (суммируем вероятности по первому столбцу таблицы – см. вверху ). Тогда, из той же теоремы умножения вероятностей зависимых событий получаем следующие условные вероятности:
– вероятность того, что «иксовый» игрок вытянет не черву при условии, что «игрековый» вытянул не черву;
– вероятность того, что «иксовый» игрок вытянет черву, при условии, что «игрековый» вытянул не черву.

…все помнят, как избавляться от четырёхэтажных дробей ? И да, формальное, но очень удобное техническое правило вычисления этих вероятностей : сначала следует просуммировать все вероятности по столбцу , и затем каждую вероятность разделить на полученную сумму.

Таким образом, при условный закон распределения случайной величины запишется так:

, ОК. Вычислим условное математическое ожидание:

Теперь составим закон распределения случайной величины при условии, что случайная величина приняла значение , т.е. «игрековый» игрок извлёк карту червовой масти. Для этого суммируем вероятности 2-го столбца таблицы (см. вверху ): и вычисляем условные вероятности:
– того, что «иксовый» игрок вытянет не черву,
– и черву.
Таким образом, искомый условный закон распределения:

Контроль: , и условное математическое ожидание:
– разумеется, оно получилось меньше, чем в предыдущем случае, так как «игрековый» игрок убавил количество черв в колоде.

«Зеркальным» способом (работая со строками таблицы ) можно составить – закон распределения случайной величины , при условии, что случайная величина приняла значение , и условное распределение , когда «иксовый» игрок извлёк черву. Легко понять, что в силу «симметрии» игры, получатся те же распределения и те же значения .

Для непрерывных случайных величин вводятся такие же понятия условных распределений и матожиданий , но если в них нет горячей надобности, то лучше продолжить изучение этого урока.

На практике в большинстве случаев вам предложат готовый закон распределения системы случайных величин:

Пример 4

Двумерная случайная величина задана своим законом распределения вероятностей:

…хотел рассмотреть таблицу побольше, но решил таки не маньячить, ведь главное разобраться в самом принципе решения.

Требуется:

1) Составить законы распределения и вычислить соответствующие математические ожидания. Сделать обоснованный вывод о зависимости или независимости случайных величин .

Это задание для самостоятельного решения! Напоминаю, что в случае независимости СВ законы должны получиться одинаковыми и совпасть с законом распределения случайной величины , и законы – совпасть с . Десятичные дроби, кто не знает или позабыл, удобно делить так: .
Свериться с образцом можно внизу страницы.

2) Вычислить коэффициент ковариации.

Сначала разберёмся в самом термине, и откуда он вообще произошёл: когда случайная величина принимает различные значения, то говорят, что она варьируется , и количественное измерение этой вариации , как вы знаете, выражается дисперсией . Используя формулу вычисления дисперсии, а также свойства матожидания и дисперсии, нетрудно установить, что:

то есть, при сложении двух случайных величин суммируются их дисперсии и добавляется дополнительное слагаемое, характеризующее совместную вариацию или коротко – ковариацию случайных величин.

Ковариация или корреляционный момент – это мера совместной вариации случайных величин.

Обозначение : или

Ковариация дискретных случайных величин определяется, сейчас буду «выражаться»:), как математическое ожидание произведения линейных отклонений этих случайных величин от соответствующих матожиданий:

Если , то случайные величины зависимы . Образно говоря, ненулевое значение говорит нам о закономерных «откликах» одной СВ на изменение другой СВ.

Ковариацию можно вычислить двумя способами, я рассмотрю оба.

Способ первый . По определению математического ожидания :

«Страшная» формула и совсем не страшные вычисления. Сначала составим законы распределения случайных величин и – для этого суммируем вероятности по строкам («иксовая» величина) и по столбцам («игрековая» величина) :

Взгляните на исходную верхнюю таблицу – всем понятно, как получились распределения? Вычислим матожидания :
и отклонения значений случайных величин от соответствующих математических ожиданий:

Полученные отклонения удобно поместить в двумерную таблицу, внутрь которой затем переписать вероятности из исходной таблицы:


Теперь нужно вычислить все возможные произведения , в качестве примера я выделил: (красный цвет) и (синий цвет) . Вычисления удобно проводить в Экселе, а на чистовике расписать всё подробно. Я привык работать «по строкам» слева направо и поэтому сначала перечислю все возможные произведения с «иксовым» отклонением -1,6, затем – с отклонением 0,4:

Способ второй , более простой и распространённый. По формуле:

Матожидание произведения СВ определяется как и технически всё очень просто: берём исходную таблицу задачи и находим все возможные произведения на соответствующие вероятности ; на рисунке ниже я выделил красным цветом произведение и синим произведение :


Сначала перечислю все произведения со значением , затем – со значением , но вы, разумеется, можете использовать и другой порядок перебора – кому как удобнее:

Значения уже вычислены (см. 1-й способ), и осталось применить формулу:

Как отмечалось выше, ненулевое значение ковариации говорит нам о зависимости случайных величин, причём, чем оно больше по модулю , тем эта зависимость ближе к функциональной линейной зависимости . Ибо определяется через линейные отклонения.

Таким образом, определение можно сформулировать точнее:

Ковариация – это мера линейной зависимости случайных величин.

С нулевым значением всё занятнее. Если установлено, что , то случайные величины могут оказаться как независимыми, так и зависимыми (т.к. зависимость может носить не только линейный характер). Таким образом, этот факт в общем случае нельзя использовать для обоснования независимости СВ !

Однако, если известно, что независимы, то . В этом легко убедиться аналитически: так как для независимых случайных величин справедливо свойство (см. предыдущий урок) , то по формуле вычисления ковариации:

Какие значения может принимать этот коэффициент? Коэффициент ковариации принимает значения, не превосходящие по модулю – и чем больше , тем сильнее выражена линейная зависимость. И всё вроде бы хорошо, но есть существенное неудобство такой меры:

Предположим, мы исследуем двумерную непрерывную случайную величину (готовимся морально:)), компоненты которой измеряются в сантиметрах, и получили значение . Кстати, какая размерность у ковариации? Коль скоро, – сантиметры, и – тоже сантиметры, то их произведение и матожидание этого произведения – выражается в квадратных сантиметрах, т.е. ковариация, как и дисперсия – есть квадратичная величина.

Теперь предположим, что кто-то изучил ту же систему , но использовал не сантиметры, а миллиметры. Так как 1 см = 10 мм, то ковариация увеличится в 100 раз и будет равна !

Поэтому удобно рассмотреть нормированный коэффициент ковариации, который давал бы нам одинаковое и безразмерное значение. Такой коэффициент получил название, продолжаем нашу задачу:

3) Коэффициент корреляции . Или, точнее, коэффициент линейной корреляции:

, где – стандартные отклонения случайных величин.

Коэффициент корреляции безразмерен и принимает значения из промежутка:

(если у вас на практике получилось другое – ищите ошибку) .

Чем больше по модулю к единице, тем теснее линейная взаимосвязь между величинами , и чем ближе к нулю – тем такая зависимость выражена меньше. Взаимосвязь считается существенной, начиная примерно с . Крайним значениям соответствует строгая функциональная зависимость , но на практике, конечно, «идеальных» случаев не встретить.

Очень хочется привести много интересных примеров, но корреляция более актуальна в курсе математической статистики , и поэтому я приберегу их на будущее. Ну а сейчас найдём коэффициент корреляции в нашей задаче. Так. Законы распределения уже известны, скопирую сверху:

Матожидания найдены: , и осталось вычислить стандартные отклонения. Табличкой уж оформлять не буду, быстрее подсчитать строкой:

Ковариация найдена в предыдущем пункте , и осталось рассчитать коэффициент корреляции:
, таким образом, между величинами имеет место линейная зависимость средней тесноты.

Четвёртое задание опять же более характерно для задач математической статистики , но на всякий случай рассмотрим его и здесь:

4) Составить уравнение линейной регрессии на .

Уравнение линейной регрессии – это функция , которая наилучшим образом приближает значения случайной величины . Для наилучшего приближения, как правило, используют метод наименьших квадратов , и тогда коэффициенты регрессии можно вычислить по формулам:
, вот это чудеса, и 2-й коэффициент:

Различают события зависимые и независимые. Два события называются независимыми, если появление одного из них не изменяет вероятность появления другого. Например, если в цехе работают две автоматические линии, по условиям производства не взаимосвязанные, то остановки этих линий являются независимыми событиями.

Несколько событий называются независимыми в совокупности , если любое из них не зависит от любого другого события и от любой комбинации остальных.

События называются зависимыми , если одно из них влияет на вероятность появления другого. Например, две производственные установки связаны единым технологическим циклом. Тогда вероятность выхода из строя одной из них зависит от того, в каком состоянии находится другая. Вероятность одного события B, вычисленная в предположении осуществления другого события A, называется условной вероятностью события Bи обозначается P{A|B}.

Условие независимости события B от события A записывают в виде P{B|A}=P{B}, а условие его зависимости - в виде P{B|A}≠P{B}.

Вероятность события в испытаниях Бернулли. Формула Пуассона.

Повторными независимыми испытаниями, испытаниями Бернулли или схемой Бернулли называются такие испытания, если при каждом испытании имеются только два исхода - появление события А или и вероятность этих событий остается неизменной для всех испытаний. Эта простая схема случайных испытаний имеет большое значение в теории вероятностей.

Наиболее известным примером испытаний Бернулли является опыт с последовательным бросанием правильной (симметричной и однородной) монеты, где событием А является выпадение, например, "герба", ("решки").

Пусть в некотором опыте вероятность события А равна P(А)=р , тогда , где р+q=1. Выполним опыт n раз, предположив, что отдельные испытания независимы, а значит исход любых из них не связан с исходами предыдущих (или последующих) испытаний. Найдем вероятность появления событий А точно k раз, скажем только в первых k испытаниях. Пусть - событие, заключающееся в том, что при n испытаниях событие А появиться точно k раз в первых испытаниях. Событие можно представить в виде

Поскольку опыты мы предположили независимыми, то

41)[стр2] Если ставить вопрос о появлении события А k-раз в n испытаниях в произвольном порядке, то событие представимо в виде

Число различных слагаемых в правой части этого равенства равно числу испытаний из n по k , поэтому вероятность событий , которую будем обозначать , равна

Последовательность событий образует полную группу независимых событий . Действительно, из независимости событий получаем

Упорядоченная пара (X , Y) случайных величин X и Y называется двумерной случайной величиной, или случайным вектором двумерного пространства. Двумерная случайная величина (X,Y) называется также системой случайных величина X и Y. Множество всех возможных значений дискретной случайной величины с их вероятностями называется законом распределения этой случайной величины. Дискретная двумерная случайная величина (X , Y) считается заданной, если известен ее закон распределения:

P(X=x i , Y=y j) = p ij , i=1,2...,n, j=1,2...,m

Назначение сервиса . С помощью сервиса по заданному закону распределения можно найти:

  • ряды распределения X и Y, математическое ожидание M[X], M[Y], дисперсию D[X], D[Y];
  • ковариацию cov(x,y), коэффициент корреляции r x,y , условный ряд распределения X, условное математическое ожидание M;
Кроме этого, дается ответ на вопрос, "зависимы ли случайные величины X и Y ?".

Инструкция . Укажите размерность матрицы распределения вероятностей (количество строк и столбцов) и ее вид. Полученное решение сохраняется в файле Word .

Пример №1 . Двумерная дискретная случайная величина имеет таблицу распределения:

Y/X 1 2 3 4
10 0 0,11 0,12 0,03
20 0 0,13 0,09 0,02
30 0,02 0,11 0,08 0,01
40 0,03 0,11 0,05 q
Найти величину q и коэффициент корреляции этой случайной величины.

Решение. Величину q найдем из условия Σp ij = 1
Σp ij = 0,02 + 0,03 + 0,11 + … + 0,03 + 0,02 + 0,01 + q = 1
0.91+q = 1. Откуда q = 0.09

Пользуясь формулой ∑P(xi ,yj ) = pi (j=1..n), находим ряд распределения X.

Математическое ожидание M[Y] .
M[y] = 1*0.05 + 2*0.46 + 3*0.34 + 4*0.15 = 2.59
Дисперсия D[Y] = 1 2 *0.05 + 2 2 *0.46 + 3 2 *0.34 + 4 2 *0.15 - 2.59 2 = 0.64
Среднее квадратическое отклонение σ(y) = sqrt(D[Y]) = sqrt(0.64) = 0.801

Ковариация cov(X,Y) = M - M[X]·M[Y] = 2·10·0.11 + 3·10·0.12 + 4·10·0.03 + 2·20·0.13 + 3·20·0.09 + 4·20·0.02 + 1·30·0.02 + 2·30·0.11 + 3·30·0.08 + 4·30·0.01 + 1·40·0.03 + 2·40·0.11 + 3·40·0.05 + 4·40·0.09 - 25.2 · 2.59 = -0.068
Коэффициент корреляции r xy = cov(x,y)/σ(x)&sigma(y) = -0.068/(11.531*0.801) = -0.00736

Пример 2 . Данные статистической обработки сведений относительно двух показателей X и Y отражены в корреляционной таблице. Требуется:

  1. написать ряды распределения для X и Y и вычислить для них выборочные средние и выборочные средние квадратические отклонения;
  2. написать условные ряды распределения Y/x и вычислить условные средние Y/x;
  3. изобразить графически зависимость условных средних Y/x от значений X;
  4. рассчитать выборочный коэффициент корреляции Y на X;
  5. написать выборочное уравнение прямой регрессии;
  6. изобразить геометрически данные корреляционной таблицы и построить прямую регрессии.
Решение . Упорядоченная пара (X,Y) случайных величин X и Y называется двумерной случайной величиной, или случайным вектором двумерного пространства. Двумерная случайная величина (X,Y) называется также системой случайных величина X и Y.
Множество всех возможных значений дискретной случайной величины с их вероятностями называется законом распределения этой случайной величины.
Дискретная двумерная случайная величина (X,Y) считается заданной, если известен ее закон распределения:
P(X=x i , Y=y j) = p ij , i=1,2...,n, j=1,2..,m
X / Y 20 30 40 50 60
11 2 0 0 0 0
16 4 6 0 0 0
21 0 3 6 2 0
26 0 0 45 8 4
31 0 0 4 6 7
36 0 0 0 0 3
События (X=x i , Y=y j) образуют полную группу событий, поэтому сумма всех вероятностей p ij (i=1,2...,n, j=1,2..,m ), указанных в таблице, равна 1.
1. Зависимость случайных величин X и Y .
Находим ряды распределения X и Y.
Пользуясь формулой ∑P(xi ,yj ) = pi (j=1..n), находим ряд распределения X.
X 11 16 21 26 31 36
P 2 10 11 57 17 3 ∑P i = 100
Математическое ожидание M[X] .
M[x] = (11*2 + 16*10 + 21*11 + 26*57 + 31*17 + 36*3)/100 = 25.3
Дисперсия D[X] .
D[X] = (11 2 *2 + 16 2 *10 + 21 2 *11 + 26 2 *57 + 31 2 *17 + 36 2 *3)/100 - 25.3 2 = 24.01
Среднее квадратическое отклонение σ(x) .

Пользуясь формулой ∑P(xi ,yj ) = qj (i=1..m), находим ряд распределения Y.

Y 20 30 40 50 60
P 6 9 55 16 14 ∑P i = 100
Математическое ожидание M[Y] .
M[y] = (20*6 + 30*9 + 40*55 + 50*16 + 60*14)/100 = 42.3
Дисперсия D[Y] .
D[Y] = (20 2 *6 + 30 2 *9 + 40 2 *55 + 50 2 *16 + 60 2 *14)/100 - 42.3 2 = 99.71
Среднее квадратическое отклонение σ(y) .

Поскольку, P(X=11,Y=20) = 2≠2·6, то случайные величины X и Y зависимы .
2. Условный закон распределения X .
Условный закон распределения X(Y=20) .
P(X=11/Y=20) = 2/6 = 0.33
P(X=16/Y=20) = 4/6 = 0.67
P(X=21/Y=20) = 0/6 = 0
P(X=26/Y=20) = 0/6 = 0
P(X=31/Y=20) = 0/6 = 0
P(X=36/Y=20) = 0/6 = 0
Условное математическое ожидание M = 11*0.33 + 16*0.67 + 21*0 + 26*0 + 31*0 + 36*0 = 14.33
Условная дисперсия D = 11 2 *0.33 + 16 2 *0.67 + 21 2 *0 + 26 2 *0 + 31 2 *0 + 36 2 *0 - 14.33 2 = 5.56
Условный закон распределения X(Y=30) .
P(X=11/Y=30) = 0/9 = 0
P(X=16/Y=30) = 6/9 = 0.67
P(X=21/Y=30) = 3/9 = 0.33
P(X=26/Y=30) = 0/9 = 0
P(X=31/Y=30) = 0/9 = 0
P(X=36/Y=30) = 0/9 = 0
Условное математическое ожидание M = 11*0 + 16*0.67 + 21*0.33 + 26*0 + 31*0 + 36*0 = 17.67
Условная дисперсия D = 11 2 *0 + 16 2 *0.67 + 21 2 *0.33 + 26 2 *0 + 31 2 *0 + 36 2 *0 - 17.67 2 = 5.56
Условный закон распределения X(Y=40) .
P(X=11/Y=40) = 0/55 = 0
P(X=16/Y=40) = 0/55 = 0
P(X=21/Y=40) = 6/55 = 0.11
P(X=26/Y=40) = 45/55 = 0.82
P(X=31/Y=40) = 4/55 = 0.0727
P(X=36/Y=40) = 0/55 = 0
Условное математическое ожидание M = 11*0 + 16*0 + 21*0.11 + 26*0.82 + 31*0.0727 + 36*0 = 25.82
Условная дисперсия D = 11 2 *0 + 16 2 *0 + 21 2 *0.11 + 26 2 *0.82 + 31 2 *0.0727 + 36 2 *0 - 25.82 2 = 4.51
Условный закон распределения X(Y=50) .
P(X=11/Y=50) = 0/16 = 0
P(X=16/Y=50) = 0/16 = 0
P(X=21/Y=50) = 2/16 = 0.13
P(X=26/Y=50) = 8/16 = 0.5
P(X=31/Y=50) = 6/16 = 0.38
P(X=36/Y=50) = 0/16 = 0
Условное математическое ожидание M = 11*0 + 16*0 + 21*0.13 + 26*0.5 + 31*0.38 + 36*0 = 27.25
Условная дисперсия D = 11 2 *0 + 16 2 *0 + 21 2 *0.13 + 26 2 *0.5 + 31 2 *0.38 + 36 2 *0 - 27.25 2 = 10.94
Условный закон распределения X(Y=60) .
P(X=11/Y=60) = 0/14 = 0
P(X=16/Y=60) = 0/14 = 0
P(X=21/Y=60) = 0/14 = 0
P(X=26/Y=60) = 4/14 = 0.29
P(X=31/Y=60) = 7/14 = 0.5
P(X=36/Y=60) = 3/14 = 0.21
Условное математическое ожидание M = 11*0 + 16*0 + 21*0 + 26*0.29 + 31*0.5 + 36*0.21 = 30.64
Условная дисперсия D = 11 2 *0 + 16 2 *0 + 21 2 *0 + 26 2 *0.29 + 31 2 *0.5 + 36 2 *0.21 - 30.64 2 = 12.37
3. Условный закон распределения Y .
Условный закон распределения Y(X=11) .
P(Y=20/X=11) = 2/2 = 1
P(Y=30/X=11) = 0/2 = 0
P(Y=40/X=11) = 0/2 = 0
P(Y=50/X=11) = 0/2 = 0
P(Y=60/X=11) = 0/2 = 0
Условное математическое ожидание M = 20*1 + 30*0 + 40*0 + 50*0 + 60*0 = 20
Условная дисперсия D = 20 2 *1 + 30 2 *0 + 40 2 *0 + 50 2 *0 + 60 2 *0 - 20 2 = 0
Условный закон распределения Y(X=16) .
P(Y=20/X=16) = 4/10 = 0.4
P(Y=30/X=16) = 6/10 = 0.6
P(Y=40/X=16) = 0/10 = 0
P(Y=50/X=16) = 0/10 = 0
P(Y=60/X=16) = 0/10 = 0
Условное математическое ожидание M = 20*0.4 + 30*0.6 + 40*0 + 50*0 + 60*0 = 26
Условная дисперсия D = 20 2 *0.4 + 30 2 *0.6 + 40 2 *0 + 50 2 *0 + 60 2 *0 - 26 2 = 24
Условный закон распределения Y(X=21) .
P(Y=20/X=21) = 0/11 = 0
P(Y=30/X=21) = 3/11 = 0.27
P(Y=40/X=21) = 6/11 = 0.55
P(Y=50/X=21) = 2/11 = 0.18
P(Y=60/X=21) = 0/11 = 0
Условное математическое ожидание M = 20*0 + 30*0.27 + 40*0.55 + 50*0.18 + 60*0 = 39.09
Условная дисперсия D = 20 2 *0 + 30 2 *0.27 + 40 2 *0.55 + 50 2 *0.18 + 60 2 *0 - 39.09 2 = 44.63
Условный закон распределения Y(X=26) .
P(Y=20/X=26) = 0/57 = 0
P(Y=30/X=26) = 0/57 = 0
P(Y=40/X=26) = 45/57 = 0.79
P(Y=50/X=26) = 8/57 = 0.14
P(Y=60/X=26) = 4/57 = 0.0702
Условное математическое ожидание M = 20*0 + 30*0 + 40*0.79 + 50*0.14 + 60*0.0702 = 42.81
Условная дисперсия D = 20 2 *0 + 30 2 *0 + 40 2 *0.79 + 50 2 *0.14 + 60 2 *0.0702 - 42.81 2 = 34.23
Условный закон распределения Y(X=31) .
P(Y=20/X=31) = 0/17 = 0
P(Y=30/X=31) = 0/17 = 0
P(Y=40/X=31) = 4/17 = 0.24
P(Y=50/X=31) = 6/17 = 0.35
P(Y=60/X=31) = 7/17 = 0.41
Условное математическое ожидание M = 20*0 + 30*0 + 40*0.24 + 50*0.35 + 60*0.41 = 51.76
Условная дисперсия D = 20 2 *0 + 30 2 *0 + 40 2 *0.24 + 50 2 *0.35 + 60 2 *0.41 - 51.76 2 = 61.59
Условный закон распределения Y(X=36) .
P(Y=20/X=36) = 0/3 = 0
P(Y=30/X=36) = 0/3 = 0
P(Y=40/X=36) = 0/3 = 0
P(Y=50/X=36) = 0/3 = 0
P(Y=60/X=36) = 3/3 = 1
Условное математическое ожидание M = 20*0 + 30*0 + 40*0 + 50*0 + 60*1 = 60
Условная дисперсия D = 20 2 *0 + 30 2 *0 + 40 2 *0 + 50 2 *0 + 60 2 *1 - 60 2 = 0
Ковариация .
cov(X,Y) = M - M[X]·M[Y]
cov(X,Y) = (20·11·2 + 20·16·4 + 30·16·6 + 30·21·3 + 40·21·6 + 50·21·2 + 40·26·45 + 50·26·8 + 60·26·4 + 40·31·4 + 50·31·6 + 60·31·7 + 60·36·3)/100 - 25.3 · 42.3 = 38.11
Если случайные величины независимы, то их ковариации равна нулю. В нашем случае cov(X,Y) ≠ 0.
Коэффициент корреляции .


Уравнение линейной регрессии с y на x имеет вид:

Уравнение линейной регрессии с x на y имеет вид:

Найдем необходимые числовые характеристики.
Выборочные средние:
x = (20(2 + 4) + 30(6 + 3) + 40(6 + 45 + 4) + 50(2 + 8 + 6) + 60(4 + 7 + 3))/100 = 42.3
y = (20(2 + 4) + 30(6 + 3) + 40(6 + 45 + 4) + 50(2 + 8 + 6) + 60(4 + 7 + 3))/100 = 25.3
Дисперсии:
σ 2 x = (20 2 (2 + 4) + 30 2 (6 + 3) + 40 2 (6 + 45 + 4) + 50 2 (2 + 8 + 6) + 60 2 (4 + 7 + 3))/100 - 42.3 2 = 99.71
σ 2 y = (11 2 (2) + 16 2 (4 + 6) + 21 2 (3 + 6 + 2) + 26 2 (45 + 8 + 4) + 31 2 (4 + 6 + 7) + 36 2 (3))/100 - 25.3 2 = 24.01
Откуда получаем среднеквадратические отклонения:
σ x = 9.99 и σ y = 4.9
и ковариация:
Cov(x,y) = (20·11·2 + 20·16·4 + 30·16·6 + 30·21·3 + 40·21·6 + 50·21·2 + 40·26·45 + 50·26·8 + 60·26·4 + 40·31·4 + 50·31·6 + 60·31·7 + 60·36·3)/100 - 42.3 · 25.3 = 38.11
Определим коэффициент корреляции:


Запишем уравнения линий регрессии y(x):

и вычисляя, получаем:
y x = 0.38 x + 9.14
Запишем уравнения линий регрессии x(y):

и вычисляя, получаем:
x y = 1.59 y + 2.15
Если построить точки, определяемые таблицей и линии регрессии, увидим, что обе линии проходят через точку с координатами (42.3; 25.3) и точки расположены близко к линиям регрессии.
Значимость коэффициента корреляции .

По таблице Стьюдента с уровнем значимости α=0.05 и степенями свободы k=100-m-1 = 98 находим t крит:
t крит (n-m-1;α/2) = (98;0.025) = 1.984
где m = 1 - количество объясняющих переменных.
Если t набл > t критич, то полученное значение коэффициента корреляции признается значимым (нулевая гипотеза, утверждающая равенство нулю коэффициента корреляции, отвергается).
Поскольку t набл > t крит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим.

Задание . Количество попаданий пар значений случайных величин X и Y в соответствующие интервалы приведены в таблице. По этим данным найти выборочный коэффициент корреляции и выборочные уравнения прямых линий регрессии Y на X и X на Y .
Решение

Пример . Распределение вероятностей двумерной случайной величины (X, Y) задано таблицей. Найти законы распределения составляющих величин X, Y и коэффициент корреляции p(X, Y).
Скачать решение

Задание . Двумерная дискретная величина (X, Y) задана законом распределения. Найти законы распределения составляющих X и Y, ковариацию и коэффициент корреляции.

 Зависимые и независимые случайные величины

 При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными величинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми.
 Понятие о независимых случайных величинах - одно из важных понятий теории вероятностей.
 Случайная величина \(Y\) называется независимой от случайной величины \(X\), если закон распределения величины \(Y\) не зависит от того, какое значение приняла величина \(X\).
 Для непрерывных случайных величин условие независимости \(Y\) от \(X\) может быть записано в виде: $$f(y\mid x)=f_{2}(y)$$ при любом \(у\).
 Напротив, в случае, если \(Y\) зависит от \(X\), то $$f(y\mid x) \neq f_{2}(y)$$  Докажем, что зависимость или независимость случайных величин всегда взаимны : если величина \(Y\) не зависит от \(X\), то и величина \(X\) не зависит от \(Y\).
 Действительно, пусть \(Y\) не зависит от \(X\): $$f(y\mid x)=f_{2}(y)$$ имеем: $$f_{1}(x)f(y\mid x)=f_{2}(y)f(x\mid y)$$ откуда, получим: $$f_{1}(x)=f(x\mid y)$$ что и требовалось доказать.
 Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.
 Случайные величины \(X\) и \(Y\) называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины \(X\) и \(Y\) называются зависимыми .
 Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид: $$f(x, y)=f_{1}(x)f_{2}(y)$$ т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.
Часто по самому виду функции \(f(x, у)\) можно заключить, что случайные величины \(X, Y\) являются независимыми, а именно, если плотность распределения \(f(x, у)\) распадается на произведение двух функций, из которых одна зависит только от \(х\), другая - только от \(у\), то случайные величины независимы.
Пример 1. Плотность распределения системы \((X, Y)\) имеет вид: $$f(x, y)=\frac{1}{\pi ^{2}(x^{2}+y^{2}+x^{2}y^{2}+1)}$$ Определить: зависимы или независимы случайные величины \(X\) и \(Y\).
Решение. Разлагая знаменатель на множители, имеем: $$f(x, y)=\frac{1}{\pi (x^{2}+1)}\frac{1}{\pi (y^{2}+1)}$$ Из того, чти функция \(f(x, y)\) распалась на произведение двух функций из которых одна зависит только от \(х\), а другая - только от \(у\), заключаем, чго величины \(X\) и \(Y\) должны быть независимы. Действительно, применяя формулы, имеем: $$f(x, y)=\frac{1}{\pi (x^{2}+1)}\int_{-\infty}^{\infty}{\frac{dy}{\pi (y^{2}+1)}}=\frac{1}{\pi (x^{2}+1)}$$ аналогично $$f(x, y)={\frac{1}{\pi (y^{2}+1)}}$$ откуда убеждаемся, что $$f(x, y)=f_{1}(x)f_{2}(y)$$ и, следовательно, величины \(X\) и \(Y\) независимы.

Loading...Loading...