Независимость (в теории вероятностей)

Определение "Независимость (в теории вероятностей)" в Большой Советской Энциклопедии


Независимость в теории вероятностей, одно из важнейших понятий этой теории. В качестве примера можно привести определение Независимость (в теории вероятностей) двух случайных событий. Пусть А и В - два случайных события, а Р (А) и Р (В) - их вероятности. Условную вероятность Р (В|А) события В при условии осуществления события А определяют формулой:

где Р (А и В) - вероятность совместного осуществления событий А и В. Событие В называется независимым от события А, если
Р (В|А) = Р (В). (*)
Равенство (*) может быть записано в виде, симметричном относительно А и В:
Р (А и В) = Р (А) Р (В),


откуда видно, что если событие В не зависит от А, то и А не зависит от В. Т. о., можно говорить просто о Независимость (в теории вероятностей) двух событий. Конкретный смысл данного определения Независимость (в теории вероятностей) можно пояснить следующим образом. Известно, что вероятность события находит своё выражение в частоте его появления. Поэтому если производится большое число N испытаний, то между частотой появления события В во всех N испытаниях и частотой его появления в тех испытаниях, в которых наступает событие, должно иметь место приближённое равенство. Независимость (в теории вероятностей) событий указывает, т. о., либо на отсутствие связи между наступлением этих событий, либо на несущественный характер этой связи. Так, событие, заключающееся в том, что наудачу выбранное лицо имеет фамилию, начинающуюся, например, с буквы «А», и событие, заключающееся в том, что этому лицу достанется выигрыш в очередном тираже лотереи, - независимы.



При определении Независимость (в теории вероятностей) нескольких (более двух) событий различают попарную и взаимную Независимость (в теории вероятностей) События A1, A2,..., An называются попарно независимыми, если каждые два из них независимы в смысле данного выше определения, и взаимно независимыми, если вероятность наступления любого из них не зависит от наступления какой угодно комбинации остальных.


Понятие «Независимость (в теории вероятностей)» распространяется и на случайные величины. Случайные величины Х и Y называются независимыми, если для любых двух интервалов D1 и D2 события, заключающиеся в том, что значение Х принадлежит D1, а значение Y - интервалу D2, независимы. На гипотезе Независимость (в теории вероятностей) тех или иных событий и случайных величин основаны важнейшие схемы теории вероятностей (см., например, Предельные теоремы теории вероятностей). О способах проверки гипотезы Независимость (в теории вероятностей) каких-либо событий см. Статистическая проверка гипотез.
Лит.: Гнеденко Б. В., Курс теории вероятностей, 4 изд., М., 1965; Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., 2 изд., М., 1964.




"БСЭ" >> "Н" >> "НЕ" >> "НЕЗ"

Статья про "Независимость (в теории вероятностей)" в Большой Советской Энциклопедии была прочитана 497 раз
Куриный суп
Луковый соус

TOP 20