«Независимость (в теории вероятностей)»

Независимость (в теории вероятностей) в словарях и энциклопедиях

Значение слова «Независимость (в теории вероятностей)»

Источники

    Большая Советская энциклопедия

    Независимость в теории вероятностей, одно из важнейших понятий этой теории. В качестве примера можно привести определение Н. двух случайных событий. Пусть А и В ‒ два случайных события, а Р (А) и Р (В) ‒ их вероятности. Условную вероятность Р (В|А) события В при условии осуществления события А определяют формулой:

    где Р (А и В) ‒ вероятность совместного осуществления событий А и В. Событие В называется независимым от события А, если

    Р (В|А) = Р (В). (*)

    Равенство (*) может быть записано в виде, симметричном относительно А и В:

    Р (А и В) = Р (А) Р (В),

    откуда видно, что если событие В не зависит от А, то и А не зависит от В. Т. о., можно говорить просто о Н. двух событий. Конкретный смысл данного определения Н. можно пояснить следующим образом. Известно, что вероятность события находит своё выражение в частоте его появления. Поэтому если производится большое число N испытаний, то между частотой появления события В во всех N испытаниях и частотой его появления в тех испытаниях, в которых наступает событие, должно иметь место приближённое равенство. Н. событий указывает, т. о., либо на отсутствие связи между наступлением этих событий, либо на несущественный характер этой связи. Так, событие, заключающееся в том, что наудачу выбранное лицо имеет фамилию, начинающуюся, например, с буквы «А», и событие, заключающееся в том, что этому лицу достанется выигрыш в очередном тираже лотереи, ‒ независимы.

    При определении Н. нескольких (более двух) событий различают попарную и взаимную Н. События A1, A2,..., An называются попарно независимыми, если каждые два из них независимы в смысле данного выше определения, и взаимно независимыми, если вероятность наступления любого из них не зависит от наступления какой угодно комбинации остальных.

    Понятие «Н.» распространяется и на случайные величины. Случайные величины Х и Y называются независимыми, если для любых двух интервалов D1 и D2 события, заключающиеся в том, что значение Х принадлежит D1, а значение Y ‒ интервалу D2, независимы. На гипотезе Н. тех или иных событий и случайных величин основаны важнейшие схемы теории вероятностей (см., например, Предельные теоремы теории вероятностей). О способах проверки гипотезы Н. каких-либо событий см. Статистическая проверка гипотез.

    Лит.: Гнеденко Б. В., Курс теории вероятностей, 4 изд., М., 1965; Феллер В., Введение в теорию вероятностей и ее приложения, пер. с англ., 2 изд., М., 1964.

  1. Источник: Большая советская энциклопедия. — М.: Советская энциклопедия. 1969—1978.