Вероятностей теория

ВЕРОЯТНОСТЕЙ ТЕОРИЯ, раздел математики, изучающий математические модели случайных явлений. Вероятностей теория является основой многих математических дисциплин, например математической статистики, теории массового обслуживания, теории надёжности, финансовой и актуарной математики.

Экспериментальные основы теории вероятностей. Возможность изучения случайных событий основана на том, что массовые случайные явления в неизменных условиях обладают закономерностью, называемой статистической устойчивостью частот, которая заключается в следующем. Пусть случайное событие А может произойти или не произойти при осуществлении некоторого комплекса условий S. Если условия S реализуются N раз, то говорят, что произведено N испытаний. Отношение N(А)/N, где N(А) - число появлений события А при N испытаниях, называется относительной частотой события А. С ростом N относительная частота N(А)/N колеблется около некоторого числа, называемого вероятностью события А и обычно обозначаемого Р(А). Так, при большом числе бросаний монеты орёл появляется примерно в половине случаев, поэтому вероятность появления орла можно считать равной 1/2. Статистика рождений показывает, что мальчиков рождается больше, чем девочек, причём наблюдаемая доля рождений мальчиков равна 0,51-0,52; поэтому вероятность рождения мальчика несколько больше 1/2. Смотри также Вероятность.

Реклама

Основные понятия теории вероятностей. Исходя из данных событий A1,..., Ar, можно определить их объединение и пересечение. Объединением событий A1,..., Ar называют событие В, которое происходит тогда и только тогда, когда в данном испытании наступает хотя бы одно из событий A1,..., Ar. Пересечением (или произведением, или совмещением) событий A1,..., Ar называется событие С, которое происходит тогда и только тогда, когда в данном испытании наступают все события A1,..., Ar. Для каждого события А вводится противоположное событие ?A, которое происходит тогда и только тогда, когда А не происходит.

Для объединения В событий A1,..., Ar обычно используются обозначения

а для пересечения -

Иногда пишут С = A1,..., Ar.

В так называемый урновой схеме предполагается, что в урне содержатся шары, которые обозначаются элементами ω некоторого конечного множества Ω. Из урны случайным образом извлекается один шар ω. Если ω Є А, где А - подмножество Ω, то говорят, что произошло событие А. Всё множество Ω называется достоверным событием, так как всегда ω Є Ω, а пустое множество Ø - невозможным событием, так как всегда ω Є Ø.

В вероятностей теории вероятность Р вводится аксиоматически. Предполагается, что события А образуют класс подмножеств некоторого пространства элементарных исходов (элементарных событий) Ω = {ω}, этот класс А подмножеств является σ-алгеброй, т. е. А содержит невозможное Ø и достоверное Ω события, а также замкнут относительно образования разностей двух событий и объединения и пересечения событий в конечном или счётном числе. Вероятность Р определена на всех множествах А Є А и удовлетворяет следующим аксиомам:

Аn Аj = Ø при i≠j (счётная аддитив­ность).

Тройка (Ω, А, Р), в которой Р удовлетворяет аксиомам A1, А2, А3, называется вероятностным пространством.

Эта аксиоматика была предложена в 1933 А. Н. Колмогоровым и является наиболее распространённой логической основой построения вероятностей теории. Свойствам неотрицательности, нормированности и конечной аддитивности удовлетворяют относительные частоты N(А)/N реальных случайных событий, поэтому естественно было потребовать, чтобы этим же свойствам удовлетворяли и вероятности Р(А), к которым близки относительные частоты. Требование счётной аддитивности вероятности Р необходимо для создания полноценной математической теории. При построении вероятностных пространств вероятность Р может задаваться разными способами. Например, если Ω - конечное множество, вероятностное пространство называется конечным, и в этом случае вероятность Р можно задать с помощью вероятностей ρ(ω) элементарных исходов ω Є Ω, эти вероятности удовлетворяют условиям

а значение вероятности Р(А) события А задаётся формулой

Часто элементарные исходы ω Є А называются исходами, благоприятствующими событию А.

В том случае, когда есть основания считать элементарные исходы равновозможными, все ρ(ω) считают равными друг другу и получают в качестве частного случая (1) так называемые классическое определение вероятности

где |А| - число элементов множества А, т. е. вероятность события А равна отношению числа исходов, благоприятствующих событию А, к общему числу элементарных исходов. Этот подход широко используется в вероятностной комбинаторике и вопросах защиты информации.

Другой важный случай, когда вероятность Р задаётся исходя из обобщения понятия равновозможности, может быть описан следующим образом. Пусть Ω - некоторое ограниченное множество евклидова пространства, имеющее объём V(Ω) (соответственно длину или площадь в одномерном и двумерном случаях). Пусть ω - случайно взятая в Ω точка; полагая, что вероятность попасть точке ω в множество А с Ω пропорциональна его объёму V(А), получают так называемое геометрическое определение вероятности

Это определение используется в интегральной геометрии.

Вероятность Р, удовлетворяющая аксиомам A1 - А3, является нормированной мерой на σ-алгебре А подмножеств Ω (смотри Мера множества). Таким образом, вероятностей теория может с формальной точки зрения рассматриваться как часть теории меры. Однако основные проблемы вероятностей теории и теории меры различны, что во многом связано со специфическим для вероятностей теории понятием независимости.

Условную вероятность Р(А | В) события А при условии В определяют формулой

если вероятность Р(В) не равна нулю. Событие А называется независимым (стохастически независимым) от события В, если

Условие (3) можно записать в симметричной форме:

В более общем случае σ-алгебры событий A1,..., Ar А называются независимыми, если для любых Ai Є Ai i= 1,...,r, справедливо равенство

События из различных независимых σ-алгебр называются независимыми.

Понятие независимости и условные вероятности оказываются особенно полезными при рассмотрении составных испытаний. В простых случаях испытание - это осуществление некоторых условий, при которых происходит одно и только одно из событий {Ai}, называемых исходами испытания. В вероятностном пространстве (Ω, А, Р) испытанию соответствует разбиение Ω=UiAi, где Ai  попарно несовместимы (несовместны), то есть Ai n Aj = Ø при i≠j. Говорят, что испытание Т составлено из испытаний Т1, Т2,..., Tn-1, Tn, если каждый исход испытания Т есть совмещение некоторых исходов Ai, Bj, ..., Uk, Vl со-ответствующих испытаний Т1, Т2, ..., Тn-1, Tn. Из тех или иных соображений часто бывают известны вероятности

По вероятностям (5) с помощью (2) могут быть определены вероятности Р(Е) для любого события вида

Наиболее значительными с практической точки зрения представляются два типа составных испытаний, в первом из которых испытания Т1, Т2, Tn независимы, т. е. вероятности (5) равны безусловным вероятностям Р(Ai), Р(Bj), ..., Р(Vl), а во втором на вероятности исходов какого-либо испытания влияют результаты лишь непосредственно предшествующего испытания, т. е. вероятности (5) равны соответственно Р(Ai), Р(Bj | Ai), ..., Р(Vl | Uk). В этом случае говорят об испытаниях, связанных в Маркова цепь; вероятности всех событий, связанных с составным испытанием, определяются здесь начальными вероятностями Р(Ai) и так называемыми переходными вероятностями Р(Bj |Ai) Р(Vl|Uk).

Исходам испытаний могут соответствовать какие-либо числовые значения, в этом случае говорят о случайных величинах. Если задано вероятностное пространство (Ω, А, Р), то случайная величина Х - это функция Х(ω) от элементарного исхода ω, для которой определена функция распределения

FX(x) = Р{Х <х}, -∞ < x < ∞.

Важный класс распределений составляют абсолютно непрерывные распределения, для которых существуют так называемые плотности вероятности рХ(х), для этих распределений

Другой класс распределений - дискретные распределения; они задаются конечным или счётным числом точек xk, действительной прямой R и вероятностями Р{Х = xk} так, что для любого

Примерами абсолютно непрерывных распределений могут служить нормальное распределение, задаваемое плотностью

где а и σ - параметры нормального распределения, а Є R, σ>0, а также показательное распределение, задаваемое плотностью

рX(х) = λе-λx, х ≥ 0; рX(х) = 0, х<0,

где λ - параметр показательного распределения, λ>0.

Примером дискретного распределения служит биномиальное распределение, задаваемое вероятностями

где X - число успехов в n испытаниях в Бернулли схеме, р - вероятность успе­ха, 0 ≤ р ≤1.

Часто вместо распределения вероятностей случайной величины можно ограничиться использованием небольшого количества числовых характеристик распределения. Из них наиболее употребительны математическое ожидание и дисперсия.

При одновременном изучении нескольких случайных величин вводится совместное распределение, которое для случайных величин Х1, ..., Xn задаётся функцией совместного распределения

FX1,...,Xn(x1,...,xn) = P{X1<x1,..., Xn<xn}

где  -∞ < x1, ... ,xn < ∞.

Случайные величины X1, ..., Χn называ­ются независимыми, если

FX1,...,Xn(x1,...,xn) = FX1(x1)...FXn(xn)

для любых x1 ..., xn, - ∞ < x1,..., xn  < ∞.

Предельные теоремы. С помощью совместного распределения случайных величин можно вычислить вероятность любого события, определяемого этими величинами, например события а < Х1 + ... +  Xn < b. Вычисление точных вероятностей таких событий, как правило, связано со значительными трудностями, поэтому обычно используются так называемые предельные теоремы, которые позволяют получать приближённые значения таких вероятностей (с оценкой точности приближения).

Одним из примеров применения предельных теорем в вероятностей теории может служить замена значения вероятности (7), трудно вычисляемой при больших n, приближённым значением

При формальном изложении вероятностей теории предельные теоремы появляются в виде своего рода надстройки над её элементарными разделами, в которых все задачи имеют конечный, чисто арифметический характер. Однако предельными теоремами раскрывается познавательная ценность вероятностей теории. Так, Бернулли теорема показывает, что при независимых испытаниях частота появления какого-либо события, как правило, мало отклоняется от его вероятности, а теорема Муавра - Лапласа указывает вероятности тех или иных отклонений. Смысл таких характеристик случайной величины, как её математическое ожидание и дисперсия, проявляется в больших чисел законе и центральной предельной теореме.

Пусть Х1, Х2, ... - независимые случайные величины, имеющие одно и то же распределение вероятностей с математическим ожиданием EXk = a и дисперсией DXk = σ2, и Sn=(Х1 + ... +Хn)/n - среднее арифметическое первых n величин этой последовательности.

В соответствии с законом больших чисел, каково бы ни было число ε > 0, ве­роятность неравенства | Sn - а | ≤ ε при n→∞ имеет пределом 1 и, таким образом, Sn, как правило, мало отличается от а (это - аналог устойчивости частот). Центральная предельная теорема уточняет этот результат, показывая, что отклонения Sn от а приближённо подчинены нормальному распределению со средним 0 и дисперсией σ2/n. Таким образом, для вычисления (в первом приближении) вероятностей тех или иных отклонений Sn от а при больших n нет надобности знать во всех деталях распределение величин Хn; достаточно знать лишь их дисперсию. Для оценки точности этого приближения необходимо привлекать моменты порядка, большего 2. Использование таких моментов позволяет также строить более точные приближения.

Эти утверждения могут быть с надлежащими изменениями распространены на различно распределённые слагаемые (смотри Ляпунова теорема) и на случайные векторы (из конечномерных и некоторых бесконечномерных пространств). Условия независимости могут быть заменены условиями слабой (в том или ином смысле) зависимости случайных величин Х1, Х2, ....

В 1920-х годах было обнаружено, что даже в схеме последовательности одинаково распределённых и независимых случайных величин появляются предельные распределения, отличные от нормального.

Случайные процессы. Механизм возникновения большинства предельных закономерностей может быть понят лишь в связи с теорией случайных процессов. В ряде физических и химических исследований в середине 20 века возникла потребность наряду с одномерными и многомерными случайными величинами рассматривать случайные процессы. В вероятностей теории случайный процесс рассматривают как параметрическое семейство случайных величин Xt. Примером случайного процесса может служить процесс Xt, где Xt - координата в момент t частицы, совершающей броуновское движение. Обычно в приложениях параметр t является временем, но этим параметром может быть, например, произвольная независимая переменная, и тогда говорят о случайной функции (если t - точка пространства, то говорят о случайном поле). В том случае, когда параметр t пробегает целочисленные значения, случайная функция называется случайной последовательностью (или временным рядом). Подобно тому, как случайная величина характеризуется законом распределения, случайный процесс может быть характеризован так называемыми конечномерными распределениями - совокупностью совместных законов распределения Xt1,..., Xtn, где t1, ..., tn - всевозможные моменты времени, n = 1, 2, ... . В теории случайных процессов наиболее изучены марковские процессы, стационарные случайные процессы, ветвящиеся процессы, а также мартингалы. Интенсивно развивается теория случайных процессов, происходящих в случайной среде.

Исторически первыми изучались марковские процессы. Случайный процесс Xt называется марковским, если для любых моментов времени t0 и t1, t0 < t1 условное распределение вероятностей Xt1 при условии, что заданы все значения Xt при t ≤ t0 зависит только от Xt0 (в силу этого марковские случайные процессы иногда называются процессами без последействия). Марковские процессы являются естественным обобщением детерминированных процессов, рассматриваемых в классической физике. В детерминированных процессах состояние системы в момент t0 однозначно определяет ход процесса в будущем; в марковских процессах состояние системы в момент времени t0 однозначно определяет распределение вероятностей процесса при t > t0, причём никакие сведения о поведении процесса до момента времени t0 не изменяют это распределение. Подобно тому, как изучение непрерывных детерминированных процессов сводится к дифференциальным уравнениям относительно функций, описывающих состояние системы, изучение непрерывных марковских процессов сводится к дифференциальным или интегродифференциальным уравнениям относительно распределений вероятностей процесса.

 Другим крупным разделом в теории случайных процессов является теория стационарных случайных процессов. Стационарность процесса, т. е. неизменность во времени его вероятностных характеристик, налагает сильное ограничение на процесс и позволяет из одного этого допущения извлечь ряд важных следствий. Для большей части теории достаточно предположения о стационарности в широком смысле, т. е. требования независимости от t математических ожиданий EXt и EXtXt+τ для всех τ.

Теория случайных процессов тесно связана с классической проблематикой предельных теорем для сумм случайных величин. Те законы распределения, которые выступают при изучении сумм случайных величин как предельные, в теории случайных процессов являются точными законами распределения соответствующих характеристик. Этот факт позволяет доказывать многие предельные теоремы с помощью соответствующих случайных процессов.

Исторический очерк. Первые работы по вероятностей теории, принадлежащие Б. Паскалю, П. Ферма и Х. Гюйгенсу, появились в середине 17 века и были связаны с подсчётом различных вероятностей в азартных играх. Первый строго доказанный результат вероятностей теории принадлежит Я. Бернулли, установившему закон больших чисел для схемы независимых испытаний с двумя исходами (опубликован в 1713).

Второй период истории вероятностей теории (18 - 1-я половина 19 века) связан с именами А. де Муавра, П. Лапласа, К. Гаусса и С. Пуассона. В этот период вероятностей теория находит ряд актуальных применений в естествознании и технике, главным образом в теории ошибок, развившейся в связи с потребностями геодезии и астрономии, и в теории стрельбы. К этому периоду относятся доказательство первого варианта центральной предельной теоремы (А. де Муавр, 1733, П. Лаплас, 1812) и Пуассона теоремы. А. Лежандром (1806) и К. Гауссом (1808) был разработан метод наименьших квадратов. В 18 веке ряд трудов по вероятностей теории был написан работавшими в России Л. Эйлером, Н. Бернулли и Д. Бернулли; появились работы М. В. Остроградского по вопросам вероятностей теории, связанным с математической статистикой, и В. Я. Буняковского по применениям вероятностей теории к страховому делу, статистике и демографии.

Третий период истории вероятностей теории (2-я половина 19 века) связан в основном с именами П. Л. Чебышева и его учеников А. М. Ляпунова и А. А. Маркова. Они поставили ряд общих задач, решение которых привело к обобщению теорем Бернулли и Муавра - Лапласа. Чебышев доказал (1867) закон больших чисел при весьма общих предположениях. Он же впервые сформулировал центральную предельную теорему для сумм независимых случайных величин и указал один из методов её доказательства (1887). Другим методом доказательство этой теоремы в условиях, близких к окончательным, получил А. М. Ляпунов (1901). А. А. Марков впервые рассмотрел (1907) один случай зависимых испытаний, который впоследствии получил название цепей Маркова. Со 2-й половины 19 века исследования по вероятностей теории в России занимают ведущее место в мире. В Западной Европе во 2-й половине 19 века получили большое развитие работы по математической статистике (А. Кетле, Ф. Гальтон) и статистической физике (Л. Больцман), которые наряду с основными теоретическими работами П. Л. Чебышева, А. М. Ляпунова и А. А. Маркова создали основу для существенного расширения проблематики вероятностей теории в современный период её развития.

Четвёртый (современный) период истории вероятностей теории, начавшийся в 20 веке, характеризуется существенным расширением круга её применений, созданием нескольких систем строгого математического обоснования вероятностей теории, появлением новых мощных методов, требующих применения, помимо классического анализа, средств теории множеств, теории функций действительного переменного и функционального анализа; в области вероятностей теории плодотворно работали во Франции - Э. Борель, П. Леви, М. Фреше, в Германии - Р. Мизес, в США - Н. Винер, У. Феллер, Дж. Дуб, в Швеции - Г. Крамер; отечественная наука продолжала занимать значительное, а в ряде направлений и ведущее положение. В нашей стране новый период развития вероятностей теории открывается деятельностью С. Н. Бернштейна, обобщившего классические предельные теоремы П. Л. Чебышева, А. М. Ляпунова и А. А. Маркова и указавшего на ряд применений вероятностей теории в естествознании. А. Я. Хинчин и А. И. Колмогоров успешно применяли методы теории функций действительного переменного к вероятностей теории. В 1930-х годах ими и Е. Е. Слуцким были заложены основы теории случайных процессов. В. И. Романовский, И. В. Смирнов, Ю. В. Линник и Л. Н. Большев внесли большой вклад в развитие математической статистики, применяя методы вероятностей теории к статистическим задачам.

Лит.: История математики с древнейших времен до начала XIX столетия. М., 1970-1972. Т. 2-3; Колмогоров А. Н. Основные понятия теории вероятностей. 2-е изд. М., 1974; Феллер В. Введение в теорию вероятностей и ее приложения: В 2 т. М., 1984; Прохоров Ю. В., Розанов Ю. А. Теория вероятностей. 3-е изд. М., 1987; Боровков А.А. Теория вероятностей. 4-е изд. М., 2003; Севастьянов Б. А. Курс теории вероятностей и математической статистики. 3-е изд. М., 2004; Ширяев А. Н. Вероятность: В 2 т. 3-е изд. М., 2004; Гнеденко Б. В. Курс теории вероятностей. 8-е изд. М., 2005.

Ю. В. Прохоров, Б. А. Севастьянов.