Мои Конспекты
Главная | Обратная связь


Автомобили
Астрономия
Биология
География
Дом и сад
Другие языки
Другое
Информатика
История
Культура
Литература
Логика
Математика
Медицина
Металлургия
Механика
Образование
Охрана труда
Педагогика
Политика
Право
Психология
Религия
Риторика
Социология
Спорт
Строительство
Технология
Туризм
Физика
Философия
Финансы
Химия
Черчение
Экология
Экономика
Электроника

Теоремы де Моргана (операции над событиями)

 

6. Вероятность события. Классический подход.

 

Вероятностью события называют численную меру, пронимающую значение от 0 до 1 и характеризующую степень объективной возможности появления события в опыте. Если событие невозможно, то говорят, что его вероятность равно нулю. Если событие достоверно, то вероятность равна 1. Вероятности случайных событий [0;1].

Классическое определение вероятностисводит понятие вероятности к понятию равновозможности. Пример: в урне 3 синих и 7 красных шаров.

Событие A – появление красного шара, B – синего шара.

P(A)=7/(7+3)= 70% P(B)=30% (7+3) – полная группа несовместных событий

Вероятность событий определяется как отношение числа исходов, благоприятных к появлению интересующего события (m), к полной группе несовместных событий (n).

P(A)=m/n

7. Вероятность события. Статистический подход.

Если число возможных исходов бесконечно, то классическое определение неприменимо. Поэтому используют статистическое определение – в качестве статистической вероятности принимают относительную частоту или число, близкое к ней. P*(A)=m/n, где m – число опытов, в которых наблюдалось событие, n-общее число опытов (пример- опыт с монетой, число опытов- до 24000).

8. Вероятность события. Геометрический подход.

В ряде случаев значение m и n найти не удается. Геометрической вероятностью события A называют отношение геометрической меры фигуры, изображающей событие A, к геометрической мере фигуры, изображающей событие B P(a)=mesA/mesB. (пример- два отрезка).

9. Теорема сложения вероятностей для совместных и несовместных событий. Следствия теоремы сложения.

Теорема. Вероятность суммы двух несовместных событий равна сумме их вероятностей P(A+B)=P(A)+P(B)

P(A+B)=(m+k)/n=m/n +k/n= P(A)+P(B)

Применима к любому числу несовместных событий.

P( )=

Сл1. Если события образуют полную группу несовместных событий, то сумма их вероятностей равна 1

Сл2. Сумма вероятностей противоположных событий равна 1 P(A)+P( )=1

Два события называются совместными, если появление одного из них не исключает появление другого в одном и том же испытании (пример с костями: A-вероятность выпадения 4, B- выпадения четного числа)

Теорема.Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления P(A+B)=P(A)+P(B)-P(AB)

P(A+B+C)=P(A)+P(B)+P(C)-P(AB)-P(AC)-P(BC)+P(ABC)

10. Зависимые и независимые события. Условия независимости событий. Примеры.

A не зависит от B, если вероятность события A не зависит от того, произошло ли B, и наоборот. Если P(A)=P( ) условия независимые, и наоборот.

Определение независимости P(AB)=P(A)P(B). Пример- последовательное извлечение шариков.

11. Теоремы умножения вероятностей. Следствия.

Вероятность произведения двух событий равна вероятности одного из них на условную вероятность другого, вычисленную при условии, что первая имеет место. P(AB)=P(A)P( )=P(B)P( )

Сл1. Если A не зависит от B, то и B не зависит от A. P(A)=P( )=>P(B)=P( )

Сл2. Вероятность произведения двух независимых событий равна произведению вероятностей этих событий

P(AB)=P(A)P(B)

12. Аксиоматическое построение теории вероятностей.

Событие рассматривается как множество, каждому элементу множества ставится мера.

Акс1: Вероятность неотрицательного числа м/у 0 и 1; 0<Р(А)>1

Акс2: Р(U)=1

Акс3: Р(V)=0

Акс4: (Аксиома конечной аддитивности)Вероятность суммы 2ух несовместных событий А и В равно сумме вероятностей событий Р(А+В)=Р(А)+Р(В)

Акс5: Р(АВ)= Р(А)Р(В/А)=Р(В)Р(А/В)

13. Формула полной вероятности.

Теорема. Вероятность события A, которое может наступить лишь при условии появления одного из несовместных событий , образующих полную группу, равна сумме произведения вероятностей каждого из этих событий на соответствующую условную вероятность события A P(A)=

Док-во: A= +

P(A)=P( )+…P( )= =

14. Теорема гипотез (формула Бейеса).


Находит широкое применение в задачах диагностики, является следствием формулы полной вероятности. Позволяют переоценить вероятности гипотез после того, как становится известным результат испытания, в итоге которого появилось событие A.

15. Повторение независимых опытов. Формула Бернулли.

Если производится несколько испытаний, причем вероятность события A в каждом испытании не зависит от исходов других испытаний, то таки е испытания называют независимыми относительно события A.

Произведено n независимых опытов.

B= +…+

При больших m и n эту формулу применять нежелательно.

16. Локальная теорема Лапласа (Муавра-Лапласа).

Дает асимптотическую формулу, которая приближенно позволяет найти вероятность появления события ровно m раз в n опытах. Применяется для случаев, когда m и n достаточно велики. Если вероятность P(A) в каждом событии постоянна и не равна 0 и 1, то

 

 

где n- число опытов, m- благоприятные исходы, q=1-p, p- вероятность появления, четная,

17. Интегральная теорема Лапласа.


Если вероятность p наступления события n постоянна и отлична от 1 и 0, то вероятность того, что в n опытов интересующее событие произойдет от до раз, равна

 

18.
Общая теорема о повторении опытов. Производящая функция.

Пусть производится n независимых опытов, в каждом из которых может появиться и не появиться событие a, причем вероятность события в каждом опыте своя. Можно использовать прием как при выводе формулы Бернулли, либо воспользоваться формальным приемом

Каждый член, содержащий , будет иметь в качестве коэффициента m букв P и m-n букв q

19. Случайные величины. Их классификация. Примеры.

3 выстрела

Случайная величина - переменная, которая в результате испытаний принимает одно из возможного множества значений, причем заранее неизвестно, какое именно. Делятся на 3 группы: дискретные (число гербов при бросании монеты), непрерывные (время безотказной работы прибора), смешанные, или сингулярные (поезд?)

20. Закон распределения ДСВ.

x
p

P(X=

P(X=

P(X=

P(X=

Законом распределения СВ называют всякое соотношение, устанавливающее связь между всевозможными значениями величины и соответствующей ему вероятности.

21. F(x) и ее свойства.

Функцией распределенияназывают , выражающe. для каждого x вероятность того, что СВ примет значение меньше x:

Свойства:

1.

2. [ ; ] Вероятность появления СВ равна

3. Функция распределения - неубывающая функция, т. е. при

4.

22. f(x) и ее свойства.

Плотностью распределения (вероятности), или плотностью непрерывной СВ называют производную ее функции распределения

Свойства:

1.

2.

3. Вероятность попадания НСВ на участок [ ; ] равна интегралу от плотности распределения, взятому по этому участку

Док-во:

4.

Док-во:

23. Индикатор события.

Индикатором события A называют СВ, которая принимает два значения: 0 и 1

(x)

 

 

24. Математическое ожидание и его свойства.

Математическое ожидание - сумма произведений всех ее возможных значений на их вероятности.

Для дискретной СВ, заданной рядом распределения

Для непрерывной СВ, заданной плотностью распределения

Свойства:

1. M(C)=C

2.M(CX)=CM(X)

3.M(XY)=M(X)M(Y)

4.M(X Y)=M(X) M(Y)

Вероятностный смысл - приближенно равно среднему арифметическому наблюдаемых значений СВ.

25. Математическое ожидание числа появлений события в n независимых испытаниях.

Теорема. Мат. ожидание числа появления событий A в n независимых испытаний равно произведению числа испытаний на вероятность появления события A в каждом испытании:

Док-во:

- появление в первом испытании

26. Мода и медиана СВ

Для пр: Модой СВ называют наиболее вероятное ее значение.

Для непр: Модой СВ называют значение, в котором плотность вероятности максимальна.


Сущ. двумодальные распределения, антимодальные (не max, а min), полимодальные (более одного).


Медианой СВ называют такое ее значение, относительно которого равновероятно получение большего или меньшего значения величины:

Геометрически медиана - это абсцисса точки, в которой площадь, ограниченная кривой распределения, делится пополам.

В случае симметричного распределения мода, медиана и мат. ожидание совпадают.

27. Квантиль (квантилья).

Квантиль называют абсциссу интегральной кривой, соответствующую некоторой заданной координате. Например, медиану можно определить как квантиль, отвечающую значению 0,5. Существует также квартиль (0,25), дециль (0,1), перциль (0,01).

28. Дисперсия и ее свойства.

Дисперсией СВ называют мат. ожидание квадрата отклонения СВ от ее мат. ожидания

Свойства:

1. D(C)=0

2. D(CX)= D(X)

3. D(X+Y)=D(X)+D(Y)

4. D(X-Y)= D(X)+D(Y)

Вероятностный смысл - характеризует рассеивание, разбросанность значений СВ около ее мат. ожидания.

29. Формулы для практического вычисления дисперсии для НСВ и ДСВ.

Для ДСВ:

Для НСВ:

30. Среднее квадратичное отклонение.

31. mх и ϭх индикатора события.

 

32. Дисперсия числа появлений события в n независимых испытаниях.

Пусть производится n независимых испытаний, в каждом из которых вероятность появления события A постоянна.

Теорема.Дисперсия числа появлений события A в n независимых испытаниях, в каждом из которых вероятность p появления события постоянна, равна n произведению числа испытаний на вероятности появления и непоявления события в одном испытании: .

Док-во: X- число появлений события A в n независимых испытаниях

)

, где

Заменим каждое правое слагаемое на

33. Начальные и центральные моменты распределения СВ

Начальным моментом порядка k СВ X называют мат. ожидание величины

:

Пользуясь формулой момента, можно записать:

Центральным моментом порядка k СВ X называют мат. ожидание величины :

34. Асимметрия (скошенность) распределения, эксцесс.

Асимметрией теоретического распределенияназывают отношение центрального момента третьего порядка к кубу среднего квадратичного отклонения: . Она положительна, если длинная часть кривой распределения расположена справа от мат. ожидания, и наоборот. Практически знак асимметрии определяют по положению кривой распределения относительно моды.

Для оценки большего или меньшего подъема кривой теоретического распределения по сравнению с нормальной кривой, пользуются эксцессом. Эксцессом теоретического распределения называют характеристику, которая определяется равенством

. Для нормального распределения , значит эксцесс равен 0. Поэтому если эксцесс некоторого распределения отличен от нуля, то кривая этого распределения отличается от нормальной кривой.

 

 

35. Равномерное распределение (Закон равной плотности).

Величины, о которых заранее не известно, что их возможные значения лежат в пределах некоторого определенного интервала; известно, что в пределах этого интервала все значения СВ одинаково вероятны, распределены по закону равной плотности.

 

Моды закон равной плотности не имеет.

36. Биномиальное распределение.

Пусть производится n независимых испытаний, в каждом из которых событие A может появиться или не появиться. Вероятность наступления события во всех испытаниях постоянна и равна p (q=1-p). Рассмотрим в качестве СВ X число появлений события A в этих испытаниях.

Нужно найти закон распределения СВ X. Для ее решения потребуется определить возможные значения X и их вероятности. Очевидно, событие A в n испытаниях может либо появиться либо 1 раз, либо 2, либо n раз. Возможные значения X таковы: , . Остается найти вероятности этих возможных значений, для чего достаточно воспользоваться формулой Бернулли: . Биноминальным называют распределение вероятностей, определяемое формулой Бернулли. Закон в виде таблицы:

X n n-1 k 0
P

M(x)=np

D(x)=np(1-p)

37. Экспоненциальное распределение.

M(x)=1/𝜆

D(x)=1/

 

38. Показать, что mx и ϭх являются f(x) нормального закона соответственно mх и ϭх, график плотности распределения.

 

39. Случайная величина подчинена нормальному закону. Определить вероятность попадания С.В. и интервал (α;β).

 

40. Случайная величина подчинена нормальному закону. Определить вероятность заданного отклонения.

Определить вероятность того, что . Замени неравенство двойным:


.

Т.к. функция Лапласа нечетная, то

41. Правило 3ϭ для нормального закона.

Преобразуем формулу вычисления вероятности заданного отклонения: положив . В итоге Если t=3 и , то , т.е. вероятность того, что отклонение по абсолютной величине будет меньше утроенного среднего квадратичного отклонения 0.9973. Отсюда правило трех сигм: если случайная величина распределена нормально, то абсолютная величина ее отклонения от математического ожидания не превосходит утроенного среднего квадратичного отклонения. Применение на практике: если распределение СВ неизвестно, но условие правила выполняется, то есть основание предполагать, что изучаемая величина распределена нормально, и наоборот.

42. Закон Пуассона.

Пусть производится n независимых испытаний, в каждом из которых событие A может появиться или не появиться. Вероятность наступления события во всех испытаниях постоянна и равна p (q=1-p). Если n велико, то пользуются асимптотической формулой Лапласа, но она непригодна, если вероятность события мала (p ). В этих случаях используют формулу Пуассона:

43. Пуассоновский поток, его свойства.

Если поток удовлетворяет условиям ординарности, стационарности и без последействия, то такой поток называют простейшим или пуассоновским.

Поток считается ординарным если вероятность попадания на малый участок времени 2х и более событий пренебрежительно мала по сравнению с попаданием одного события. Поток считается стационарным если его вероятные характеристики не зависят от времени. Поток называется потоком без последействия если вероятность появления событий на любом промежутке времени не зависит от появления или не появления в предшествующие моменты времени.

44. Понятие системы 2-х и n случайных величин. Примеры.

Это величины, возможные значения которых определяются двумя, тремя,…, n числами. Такие величины называют двумерными, трехмерными,…, n-мерные. Обозначается (X,Y). Каждую из величин X и Y называют составляющей (компонентой). Пример: станок штампует плитки. Размеры плиток- длина и ширина- двумерная СВ, если еще и высота- трехмерная; случайная точка на плоскости.

45. Закон распределения вероятностей 2-х мерной СВ.

Законом распределения дискретной двумерной СВ называют перечень возможных значений этой величины, т.е. пар чисел и их вероятностей

46. Интегральная функция для 2-х мерной СВ, ее свойства (4 свойства).

 

47. Плотность 2-х мерной случайной СВ, ее свойства (4 свойства).

 

48. Вероятность попадания случайной точки в прямоугольник.

Рассмотрим прямоугольник ABCD со сторонами, параллельными координатным осям. Пусть уравнения сторон таковы:

Найдем вероятность попадания случайной точки (X,Y) в этот прямоугольник. Искомую вероятность можно найти из вероятности попадания случайной точки в полуполосу AB с вертикальной штриховкой (она равна ), вычесть вероятность попадания точки в полуполосу CD с горизонтальной штриховкой (она равна ):

 

49. Отыскание плотностей вероятности составляющих 2-х мерной С.В.

Известна плотность совместного распределения вероятностей системы двух СВ. Найдем плотность распределения составляющей X. Обозначим через функцию распределения составляющей X. По определению .

Найдем

Продифференцировав обе части по x, получим

или

Аналогично для Y:

Плотность распределения одной из составляющих равна несобственному интегралу с бесконечными пределами от плотности распределения системы, причем переменная интегрирования соответствует другой составляющей.

50. Условные законы распределения составляющих системы ДСВ.

Рассмотрим двумерную ДСВ (X,Y). Возможные значения: . Допустим, в результате испытания величина Y приняла значение , при этом X примет одно из своих возможных значений. Обозначим условную вероятность того, что X примет, например, значение , через . В общем случае . Условным распределением составляющей X при Y= называют совокупность условных вероятностей , вычисленных в предположении, что событие Y= уже наступило. Аналогично для Y. В общем случае законы распределения составляющей X . Аналогично для Y

51. Условные законы распределения составляющих системы НСВ.

Рассмотрим двумерную ДСВ (X,Y). Условной плотностью распределения составляющих X при заданном значении Y=y называют отношение плотности распределения f(x,y) системы (X,Y) к плотности распределения составляющей: . Аналогично для Y:

Отсюда: умножая закон распределения одной из составляющих на условный закон распределения другой составляющей, найдем закон распределения системы СВ.

52. Условное математическое ожидание.

Условным мат. ожиданием ДСВ Y при X=x называют произведение возможных значений Y на их условные вероятности: . Для НСВ:

, где -условная плотность СВ Y при X=x. Условное мат. ожидание есть функция от x: , которую называбт функцией регрессии Y на X. Аналогично для Y.

53. Зависимые и независимые СВ для НСВ и ДСВ.

Теорема.Для того, чтобы СВ X и Y были независимыми необходимо и достаточно, чтобы функция распределения системы (X,Y) была равна произведению функций распределения составляющих: Док-во:

Необходимость. Пусть X и Y независимы. Тогда события X<x и Y<y независимы и вероятность совмещения этих событий равна произведению их вероятностей:

Достаточность. Пусть .

Отсюда , то есть вероятность совмещения событий равна произведению вероятностей. ЧТД.

Следствие.Для того, чтобы НСВ были независимыми, необходимо и достаточно, чтобы плотность совместного распределения системы (X,Y) была равна произведению плотностей распределения составляющих: . Док-во:

Необходимость. Пусть X и Y- НСВ. Тогда . Дифференцируем по x и y:

или .

 

 

Достаточность.Пусть . Интегрируем по x и y:

или

 

 

54. Числовые характеристики системы С.В. (начальные и центральные моменты).

 

55. Корреляционный момент (2-й смешанный, центральный момент).

Особую роль при исследовании с-мы двумерных СВ играет 2ой смешанный центральный момент - кореляционный момент(момент связи, ковариация).

Коэффициентом корреляции величин X и Y называют отношение корреляционного момента к произведению средних квадратических отклонений этих величин.

Если СВ независимы то , такие СВ называют некарелированными. Коэффициент корреляции - безразмерная величина. Коэффициент корреляции служит для оценки тесноты линейной связи между X и Y: чем ближе абсолютная величина коэффициента

корреляции к единице, тем связь сильнее; чем ближе абсолютная величина коэффициента корреляции к нулю, тем связь слабее. Коррелированными называют две случайные величины, если их корреляционный момент отличен от нуля. Некоррелированныминазывают две случайные величины, если их корреляционный момент равен нулю.

56. Числовые характеристики системы нескольких С.В. (М.О., D, kij), коэффициент корреляции.

 

57. Показательный закон надежности.

 

58. Характеристики положения С.В.

 

59. Влияние параметров mx и ϭх на дифференциальную форму кривой нормального распределения.