УДК 51:658.01 (075)
Казанцев Э.Ф. Математика. Раздел 4. Теория вероятностей и математическая статистика (тетрадь 4.1):...
6 downloads
272 Views
450KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
УДК 51:658.01 (075)
Казанцев Э.Ф. Математика. Раздел 4. Теория вероятностей и математическая статистика (тетрадь 4.1): Учебно-методическое пособие для менеджеров и экономистов. — М.: Международный университет в Москве, 2005. — 50 с. Тетрадь 4.1 учебно-методического пособия посвящена некоторым вопросам теории вероятностей. Приводятся основные сведения из теории вариационных рядов и теории вероятностей. Может быть использовано как рабочая тетрадь при самостоятельной работе с домашними заданиями и как справочник для менеджера и экономиста по прикладной математике. Для студентов Международного университета в Москве, обучающихся по экономическим и управленческим специальностям.
© Международный университет в Москве, 2005 © Э.Ф.Казанцев, 2005
ОГЛАВЛЕНИЕ Историческая справка . . . . . . . . . . . . . . . . . . . . . . 4
4.1 Вариационные ряды 4.1.1 Основные понятия . . . . . . . . . . . . . . . . . . . . . . . . 5 4.1.2 Характеристики вариационного ряда . . . . . . . . . . . . . 9 4.1.3 Показатели вариации. . . . . . . . . . . . . . . . . . . . . . 14 Задания для самостоятельной работы . . . . . . . . . . . . 19
4.2 Теория вероятностей 4.2.1 Случайные события. . . . . . . . . . . . . . . . . . . . . . . 21 4.2.2 Случайные величины. . . . . . . . . . . . . . . . . . . . . . 28 4.2.3 Закон больших чисел . . . . . . . . . . . . . . . . . . . . . . 44 Задания для самостоятельной работы . . . . . . . . . . . . 47 Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
РАЗДЕЛ 4. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА Историческая справка Теория вероятностей и математическая статистика изначально развивались в неразрывной связи друг с другом, так как вероятностные закономерности получают статистическое выражение в силу закона больших чисел (вероятности осуществляются приближенно в виде частот, а математические ожидания — в виде средних). Истоки математической статистики можно найти в сочинениях создателей теории вероятностей — Я.Бернулли (1654–1705), П.Лапласа (1749–1827), С.Пуассона (1781–1840). Решающее значение для дальнейшего развития математической статистики имели работы русской классической школы теории вероятностей — П.Л.Чебышева (1821–1894), А.А.Маркова (1856–1922), А.М.Ляпунова (1857–1918). Современная логическая схема построения основ теории вероятностей разработана А.Н.Колмогоровым (1903–1987). Аксиомы А.Н.Колмогорова: I. Каждому событию А поставлено в соответствие неотрицательное число Р(А), называемое вероятностью события А . II. Если события A1 , A2 ,K An ,K попарно несовместны, то P ( A1 + A2 +K+ An +K) = P ( A1 ) + P ( A2 ) +K+ P ( An ) + K. III.
Полная вероятность всех элементарных событий W P(W) =1.
Нетрудно видеть, что свойства вероятности, зафиксированные в аксиомах, напоминают свойства площадей и объемов. В общем случае неотрицательная функция Р(А) называется мерой, то есть Р(А) является мерой подмножества А. Понятие меры является обобщением понятия площади и объема. Таким образом, теорию вероятностей можно рассматривать как один из разделов общей теории меры. Язык современной теории вероятностей есть язык теории множеств, или, более точно, язык теории меры. Но прикладные задачи традиционно формулируются на другом, «практическом» языке. В частности, когда множество W (пространство элементарных событий) является конечным множеством, то применяется упрощенный метод подсчета вероятностей, который получил название классического. Здесь мы будем рассматривать только классический метод. 4
4.1 ВАРИАЦИОННЫЕ РЯДЫ
4.1.1. Основные понятия 1) Почти все встречающиеся на практике величины (производительность труда, заработная плата, объем произведенной продукции, урожайность и т.д.) принимают неодинаковые численные значения в различных ситуациях. Поэтому возникает необходимость в изучении их изменяемости. Предположим, что мы, интересуясь размером проданной в магазине мужской обуви, получили следующие данные (в порядке продажи): 41, 39, 40, 38, 43,41, 42, 40, 38, 41, 42, 41, 40, 42, 39, 41, 41, 36, 43, 41, 42, 38, 41, 40, 42, 41, 42, 42, 42, 40, 41, 41, 39, 42, 40, 40, 39, 41, 39, 38, 40, 41, 41, 40, 40, 39, 42, 40, 43, 37, 40, 42, 43, 42, 38, 40, 40, 41, 41, 41, 40, 43, 42, 42, 39, 43, 41, 40, 43, 41, 42, 42, 39, 41, 43, 42, 41, 42, 40. Не трудно видеть, что интересующий нас признак меняется от одного члена совокупности к другому, или, как мы будем говорить, варьирует. Итак, варьирование есть изменяемость признака у отдельных членов совокупности. Значения признака у отдельных членов совокупности будем называть вариантами. В нашем примере имеется 79 вариантов (общее число покупок). Многие из них оказываются одинаковыми, поэтому варианты целесообразно упорядочить — расположить их в порядке возрастания (или убывания). В результате получим следующий ряд : 36, 37, 38, 38, 38, 38, 38, 39, 39, 39, 39, 39, 39, 39, 39, 40, 40, 40, 40, 40, 40, 40, 40, 40, 40, 40, 40, 40, 40, 40, 40, 40, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 41, 42, 42, 42, 42, 42, 42, 42, 42, 42, 42, 42, 42, 42, 42, 42, 42, 42, 42, 43, 43, 43, 43, 43, 43, 43, 43. Операция упорядочения ряда, то есть расположение вариантов в порядке возрастания (или убывания), называется ранжированием ряда. Теперь легко подсчитать, что интересующий нас признак может принимать восемь различных значений (см. Таблица 4.1): 5
Число Размер обуви проданных (варианты) пар (частоты) 36 1 37 1 38 5 39 8 40 17 41 21 42 18 43 8 Итого 79
Номер варианта 1 2 3 4 5 6 7 8
Частости отн. вел.
%
0,013 0,013 0,063 0,101 0,215 0,266 0,228 0,101 1,000
1,3 1,3 6,3 10,1 21,5 26,6 22,8 10,1 100,0
В третьем столбце Таблицы 4.1 стоят числа, которые характеризуют, сколько раз повторяется каждое значение признака в данной совокупности. Эти числа называются частотами признака. Сумма частот — это объем совокупности (в нашем примере общее число проданных пар обуви — 79). Можно указывать не частоты, а доли каждого варианта во всей совокупности. Они получаются как отношения соответствующих частот к объему совокупности. Эти отношения называются частостями. Выражаются они в относительных числах или в процентах (см. Таблица 4.1). В результате мы получили так называемый вариационный ряд . Определение 1. Вариационным рядом называется упорядоченные значения варьирующего признака (в порядке возрастания или убывания) и соответствующие им частоты (или частости). Частоту (или частость) варианта будем называть его весом. Таким образом, веса показывают, сколько раз встречаются отдельные варианты в данной совокупности, или какую долю объема совокупности составляет каждый из них. 2) В зависимости от того, какие значения может принимать признак, вариационные ряды делятся на дискретные и непрерывные(интервальные). В нашем примере признак (размер обуви) мог принимать только целые (дискретные) значения. Такого типа ряды называются дискретными. Кроме дискретных вариационных рядов широкое распространение имеют интервальные (непрерывные) вариационные ряды. В этом 6
случае говорят , что значениями варьирующего признака могут быть любые значения в заданных пределах. Примерами такого типа вариационных рядов могут служить распределения людей по возрасту или по росту, распределение посевной площади по урожайности и т.д. При непрерывном варьировании возможные значения признака задаются интервалом «от … до …» (см. Таблица 4.2). Таблица 4.2. Распределение 1000 взрослых мужчин по росту. Рост (в см) 143–146 146–149 149–152 152–155 155–158 158–161 161–164 164–167
Число мужчин 1 2 8 26 65 120 181 201
Рост (в см) 167–170 170–173 173–176 176–179 179–182 182–185 185–188
Число мужчин 170 120 64 28 10 3 1
Итого
1000
Интервалы не обязательно должны быть равными. Для непрерывных распределений вводится понятие плотности распределения. Так называется частота, приходящаяся на единицу величины интервала варьирования признака. Если в непрерывном вариационном ряду указаны не частоты, а частости для каждого интервала варьирования признака, то находят отношения частостей к соответствующим интервалам. Они называются относительными плотностями распределения. Особенно важно понятие плотности распределения для непрерывных распределений с неравными интервалами. Если нас интересует, например, вопрос сколько было продано пар обуви размеров, меньших некоторого, мы должны последовательно просуммировать частоты, начиная с частоты первого варианта. Полученные числа называются накопленными частотами. 3) Графическое изображение вариационных рядов. Применяется несколько способов графического изображения рядов распределений в зависимости от вида их и от поставленной задачи: полигон, гистограмма, кумулятивная кривая, огива. 7
Пусть дискретный вариационный ряд задан Таблицей 4.1. В прямоугольной системе координат построим точки с координатами (x, n), где х — значения признака, а n — соответствующие им частоты. Эти точки соединим последовательно прямолинейными отрезками. К данным Таблицы 4.1 добавляют нулевые значения частот для вариантов с размерами обуви 35 и 44. Получится ломаная замкнутая линия, называемая полигоном (см. рис. 4.1 по данным Таблицы 4.1).
Рис. 4.1 Полигон
Полигон можно использовать для графического изображения и интервальных вариационных рядов. Для этого следует частоты отнести к серединам интервалов. Но чаще всего для графического изображения интервальных распределений применяется гистограмма, которая строится также в прямоугольной системе координат. По оси абсцисс откладывают отрезки, изображающие интервалы значений варьирующего признака. На этих отрезках, как на основаниях, строят прямоугольники, высоты которых пропорциональны частотам (или частостям) соответствующих интервалов. В результате получаем ступенчатую фигуру в виде сдвинутых друг к другу прямоугольников, площади которых пропорциональны частотам (или частостям) (см. рис. 4.2 по данным Таблицы 4.2). Следует помнить, что гистограмма изображает не фактическое изменение плотности распределения в зависимости от изменения признака, а лишь средние плотности распределения на каждом интервале. Если построена гистограмма интервального распределения, то, как 8
нетрудно сообразить, полигон того же распределения получим, если соединим прямолинейными отрезками середины верхних оснований прямоугольников.
Рис. 4.2 Гистограмма
Для построения кумулятивной кривой в прямоугольной системе координат строим точки с координатами (х, n1 + n2 + … + ni), то есть абсциссы их — значения признака, а ординаты — соответствующие им накопленные частоты. Точки соединяем прямолинейными отрезками. Получим ломанную линию — ее и называют кумулятивной кривой (или кривой нарастающих итогов). Если в прямоугольной системе координат в качестве ординаты отложить значения признака, а абсциссы — накопленные частоты и полученные точки соединить прямолинейными отрезками, то получим ломаную линию, которая называется огивой. Таким образом, по сравнению с кумулятивной кривой при построении огивы оси абсцисс и ординат меняются ролями. 4.1.2. Характеристики вариационного ряда 1) Средняя арифметическая Определение 2. Средней арифметической вариационного ряда называется сумма произведений всех вариантов на соответствующие им частоты (или частости), поделенная на сумму частот: 9
m
x=
x 1 n1 + x 2 n 2 +K+ x m n m n1 + n 2 +K+n m
åx =
i
n
i =1
(4.1)
m
Иначе можно сказать, что средняя арифметическая равна сумме произведений вариантов на их веса, разделенной на сумму весов. При вычислении средней арифметической интервального распределения в качестве вариантов берут середины соответствующих интервалов. Пример 4.1: Вычислить среднее число жителей в поселках городского типа по следующим данным: Число жителей в поселках (тыс. человек) от 1 до 3 от 3 до 5 от 5 до 10 от 10 до 20 от 20 до 50 от 50 до 80 Итого x=
Число поселков 682 875 1367 443 50 1 3418
2 × 682 + 4 × 875 + 7,5 ×1367 +15 × 443 + 35 × 50 + 65 ×1 = 6,9 тыс. чел. 3418
Здесь смысл среднего следующий — это такое число жителей, которое было бы в каждом поселке, если в каждом из них жителей было бы поровну. Рассмотрим основные теоремы, характеризующие свойства средней арифметической. Теорема 1. Если все варианты увеличить (уменьшить) в одно и то же число раз, то средняя арифметическая увеличится (уменьшится) во столько же раз. 10
Действительно: m
å kx
m
i
i =1
kx =
åx
i =1
=
m
m
k å x i ni
× ni
= k × i =1
m
i
× ni (4.2)
= k× x
m
Аналогично доказывается, что уменьшение вариантов в k раз приводит к уменьшению средней арифметической также в k раз. Теорема 2. Если все варианты уменьшить (увеличить) на одно и то же число, то средняя арифметическая уменьшится (увеличится) на то же число. Действительно : m
å( x
x - c = i =1
m
i
- c) × ni
åx
m
i
= i =1
m
× ni - å c × ni i =1
m
m
åx
= i =1
m
i
× ni
m
ån
i
- c × i =1 = x - c m
(4.3)
Аналогично доказывается , что увеличение вариантов на одно и то же число приводит к увеличению средней на то же число. Теорема 3. Сумма произведений отклонений вариантов от их средней арифметической на соответствующие им веса равна нулю. Действительно, используя предыдущую теорему, полагая c = x , получим: m
å( x
- x)
i
i =1
= x - x = 0.
m Откуда следует: m
å( x
i
(4.4)
- x)× ni = 0
i =1
Теорема 4. При увеличении и уменьшении весов в одно и то же число раз средняя арифметическая не изменяется. Действительно : m
åx
m
i
i =1
=
m
å kn
m
k å x i ni
× kn i
i =1
km
åx =
i
i =1
m
ni =x
(4.5)
i
i =1
11
Введем понятие групповой средней. Предположим, что некоторая совокупность разбита на группы. Группы будем называть непересекающимися, если каждый вариант принадлежит только одной группе. Определение 3. Групповой средней называется средняя арифметическая вариантов, составляющих часть данной совокупности. Тогда среднюю арифметическую того же признака во всей совокупности называют общей средней. Теорема 5. Если совокупность разбита на непересекающиеся группы, то общая средняя равна средней арифметической групповых средних, когда весами являются объемы групп. l
x=
x 1 N 1 + x 2 N 2 +K+ x l N l N 1 + N 2 +K+N l
å xN =
i =1
l
i
(4.6)
Теорема 6. Если каждое значение признака z представляет сумму (разность) значений признаков x и y , то средняя арифметическая признака z равна сумме (разности) средних арифметических x и y : z = x +y 2) Медиана Определение 4. Медианой (Me) называется вариант, приходящийся на середину вариационного ряда. Иными словами, медианой является вариант, который делит совокупность на две равные по объему части. До медианы и после нее имеется одинаковое число членов совокупности. При нахождении медианы вариационного ряда следует различать два случая : а) объем совокупности нечетный; б) объем совокупности четный. а) пусть объем совокупности нечетный и равен 2m – 1. Расположим все варианты x 1 , x 2 , ..., x m -1 , x m , x m + 1 , ..., x 2 m -1 в возрастающем порядке. В этом ряду каждый вариант повторен столько раз, сколько он встречается в совокупности. Поэтому среди них могут быть и одинаковые. Медианой этого распределения является вариант с номером m, так как он находится в середине ряда: Ме = x m . б) если объем совокупности четный и равен 2m, то в ряду x 1 , x 2 ,..., x m -1 , x m , x m + 1 ,..., x 2 m нет ва ри ан та, ко то рый де лил бы совокупность на две равные по объе му группы. Поэтому за медиа ну ус12
лов но при ни ма ют по лу сум му на хо дя щих ся в се ре ди не ря да ва ри ан1 тов: Me = ( x m + x m + 1 ). 2 Пример 4.2. Вычислить медиану распределения по размеру проданной обуви (см. Таблица 4.1). Решение. Объем совокупности (79) нечетный. Здесь 2m – 1 = 79, откуда m = 40 . Следовательно, медианой этого распределения будет вариант с номером 40 в ранжированном ряду, в котором каждый вариант повторен столько раз, какова его частота. Чтобы найти этот вариант, определим накопленные частоты данного распределения: Размер обуви 36 37 38 39 40 41 42 43 Итого
Число проданных пар Накопленные частоты 1 1 1 1+1=2 5 2+5=7 8 7+8=15 17 15+17=32 21 32+21=53 18 53+18=71 8 71+8=79 79
Теперь ищем последнюю накопленную частоту, которая меньше половины объема совокупности, и первую, которая больше ее. Они соответственно равны 32 и 53. Таким образом, первые 32 варианта по своей величине меньше 41, а следующие 21 вариант, имеющие номера с 33 по 53 включительно, принимают значение 41. Среди них находится и вариант с номером 40, следовательно медиана этого распределения равна 41 размеру обуви. 3) Мода Определение 4. Модой (Мо) называется наиболее часто встречающийся вариант. Нахождение моды дискретного распределения не требует какихлибо вычислений — ею является вариант, которому соответствует наибольшая частота (или частость). 13
Для примера с обувью, наибольшая частота распределения равна 21. Она соответствует варианту 41. Следовательно, мода распределения по размеру проданной мужской обуви (см. Таблица 4.1) равна 41. Мода для непрерывного распределения вычисляется по формуле : Мо = x 0 + k
n i - n i -1 (n i - n i -1 ) + (n i - n i + 1 )
где x 0 — начальное значение модального интервала, то есть интервала, содержащего моду; k — величина модального интервала; n i — частота модального интервала; n i -1 — частота интервала, предшествующего модальному; n i +1 — частота интервала, следующего за модальным. В непрерывном распределении с равными интервалами модальным будет интервал, которому соответствует наибольшая частота. Если интервалы неодинаковые, то модальным будет интервал, которому соответствует наибольшая плотность распределения. 4.1.3. Показатели вариации 1) Простейшим показателем вариации признака является размах вариации R — это разность между наибольшим и наименьшим вариантами в данном вариационном ряду : R = x max - x min . Так, размах вариации распределения по размеру проданной мужской обуви (см. Табл. 4.1) равен: R = 43 — 36 = 7. Размах вариации — весьма приближенная характеристика рассеяния признака. Наибольший интерес представляет характер группировки значений признака около их средней: x i - x . Кроме того, должно быть учтено, как часто они имеют место в данном распределении. Это показывают веса вариантов. И наконец, разности x i - x необходимо освободить от знака: взять или абсолютные величины, или их квадраты, или вообще четные степени. В соответствии с этим получают различные характеристики рассеяния признака: среднее линейное отклонение, дисперсию и др. Определение 5. Средним линейным отклонением называется средняя арифметическая абсолютных величин отклонений вариантов от их средней арифметической: 14
m
åx d=
i
- x × ni
i =1
(4.7)
m
Однако на практике и в теоретических исследованиях среднее линейное отклонение применяется сравнительно редко, так как оно не имеет таких свойств, какие желательно было иметь. Поэтому обычно рассеяние признака характеризуют дисперсией и непосредственно получаемым из нее средним квадратическим отклонением. Определение 6. Дисперсией вариационного ряда называется средняя арифметическая квадратов отклонений вариантов от их средней: m
2
s =
å( x
i
- x)2 × ni
i =1
(4.8)
m
Для характеристики рассеяния часто бывает удобнее иметь величину, которая выражается в тех же единицах, что и значения признака. Ее мы получим, вычислив корень квадратный из дисперсии. Определение 7. Арифметическое значение корня квадратного из дисперсии называется средним квадратическим отклонением: m
å( x s=
i
- x)2 × ni
i =1
(4.9)
m
2) Свойства дисперсий Теорема 7. Если все варианты увеличить (уменьшить) в одно и то же число k раз, то дисперсия увеличится (уменьшится) в k 2 раз. Действительно: m
å (kx
i
m
- kx ) 2 × ni
i =1
m
åk =
2
m
( x i - x ) 2 × ni
i =1
m
å( x
=k
i
- x ) 2 × ni
2 i =1
m
= k 2 s 2 (4.10)
Теорема 8. Увеличение или уменьшение вариантов на одну и ту же постоянную величину не изменяет дисперсии. 15
Действительно: m
å(( x
m
2
i
å( x
+ c) - ( x + c)) × ni
i =1
å( x
+ c - x - c) × ni
= i =1
m
m
2
i
= i =1
m
2
i
- x ) × ni
(4.11)
m
Теорема 9. При увеличении и уменьшении весов в одно и то же число раз дисперсия не изменяется. Действительно : m
å( x
m
2
i
i =1
=
m
å kn
m
2
k å( x i - x ) × n i
- x ) × kn i
i =1
å( x =
m
- x ) × ni
i =1
(4.12)
m
k å ni
i
i =1
2
i
i =1
Теорема 10. Дисперсия относительно средней арифметической равна дисперсии относительно произвольной постоянной без квадрата разности между средней арифметической и этой постоянной: m
s2 =
å( x
i
- c) 2 × n i - ( x - c) 2
i =1
m
(4.13)
Действительно, так как 2
( x i - x ) 2 = ( x i - c + c - x ) 2 = ( ( x i - c) - ( x - c)) = = ( x i - c ) 2 - 2( x i - c )( x - c ) + ( x - c ) 2 , то дисперсию относительно средней арифметической можно представить так: m
s2 =
å( x
i
m
- x)2 × ni
i =1
å( x =
m
i =1
i
m
m
i =1
i =1
- c) 2 × n i - 2 å( x i - c)( x - c) × n i + å( x - c) 2 × n i m
За знак суммы можно вынести постоянный множитель x - c, поэтому m
i =1
m 16
m
2
å( x - c ) × n
( x - c) 2 å n i
i
=
i =1
m
=
( x - c) 2 × m = ( x - c) 2 m
m
å( x
m
i
å( x
- c)( x - c)n i
i =1
= ( x - c)
m
i
- c)n i
i =1
m
= ( x - c)( x - c) = ( x - c) 2 .
В результате мы получим: m
s2 =
å( x
i
m
- c) 2 n i - 2( x - c ) 2 + ( x - c ) 2 =
i =1
m
å( x
i
- c) 2 n i
i =1
m
- ( x - c) 2
что и требовалось доказать. Теорема 11. Дисперсия равна средней арифметической квадратов вариантов без квадрата их средней арифметической: m
2
s =
åx
2 i
i =1
m
ni - (x)2
(4.14)
Данное выражение мы получим, полагая в предыдущей формуле с = 0. Пользуясь свойствами дисперсии, можно вычисление дисперсии упростить с помощью следующей формулы: æ xi -c çç å k i =1 s2 = è m m
2
ö ÷÷ × n i ø × k 2 - ( x - c) 2
(4.15)
где с и k —произвольные, специально подобранные постоянные.
Пример 4.3. Вычислить дисперсию распределения по росту взрослых мужчин (см. Табл. 4.2). Решение: примем с = 165,5 — это середина интервала, которому соответствует наибольшая частота, и одновременно это приближенное значение средней арифметической. В качестве k возьмем величину интервалов (они все одинаковые), то есть 3. Результаты вычислений расположим в таблице: 17
Рост (в см) 143–146 146–149 149–152 152–155 155–158 158–161 161–164 164–167 167–170 170–173 173–176 176–179 179–182 182–185 185–188 Итого
Число Середина мужчин интервала ni xi 1 144,5 2 147,5 8 150,5 26 153,5 65 156,5 120 159,5 181 162,5 201 165,5 170 168,5 120 171,5 64 174,5 28 177,5 10 180,5 3 183,5 1 186,5 1000
xi -c
xi -c k
xi -c × ni k
–21 –18 –15 –12 –9 –6 –3 0 3 6 9 12 15 18 21
–7 –6 –5 –4 –3 –2 –1 0 1 2 3 4 5 6 7
–7 –12 –40 –104 –195 –240 –181 0 170 240 192 112 50 18 7 10
æ xi -c çç è k
2
ö ÷÷ × n i ø
49 72 200 416 585 480 181 0 170 480 576 448 250 108 49 4064
Средний рост мужчин равен: x=
10 × 3 +165,5 = 165,53 см 1000
Применяя формулу (4.15), найдем дисперсию: s2 =
2 4064 2 × 3 - (165,53 -165,5) = 36,5751. 1000
3) Групповая дисперсия Определение 8. Групповой дисперсией называется дисперсия вариантов, составляющих часть данной совокупности, относительно их средней, то есть относительно групповой средней. Тогда дисперсия вариантов всей совокупности относительно общей средней называется общей дисперсией: m
s 2j = 18
å( x
i
- x j ) 2 × mi
i =1
Nj
(4.16)
где x i — варианты, x j — групповая средняя, m i — частота вариантов m
в группе, N j = å m i — объем группы. i =1
Определение 9. Средняя арифметическая групповых дисперсий, когда весами являются объемы групп, называется средней групповых дисперсий: m
2
ås
s =
2 i
×N i
i =1
(4.17)
m
Задания для самостоятельной работы: 1) Задан дискретный вариационный ряд: 5, 4, 3, 5, 5, 6, 7, 6, 7, 7, 8, 8, 5, 2, 4, 5, 6, 6, 8, 9, 9, 6, 6, 4, 4, 3, 4, 2, 2, 2, 5, 5, 5, 6, 8, 4, 4, 8, 8, 6. а) ранжировать данный ряд; б) найти частоты вариантов; в) построить полигон данного ряда; г) построить кумулятивную кривую данного ряда; д) вычислить среднюю арифметическую; е) вычислить медиану и моду; ж) найти дисперсию. 2) Задан интервальный вариационный ряд: Объем валовой продукции (в млн. руб.) 101–500 501–1000 1001–5000 5001–10000 10001–50000 50001–55000 55001–60000 Итого
Число предприятий (в процентах) 8,3 18,8 16,4 39,0 8,5 7,6 1,4 100
19
а) найти плотности распределения по интервалам; б) построить гистограмму данного ряда; в) найти средний объем валовой продукции; г) найти медиану и моду; д) вычислить дисперсию.
4.2 ТЕОРИЯ ВЕРОЯТНОСТЕЙ 4.2.1. Случайные события 1) Основные понятия Cобытие — это все то, что может произойти, а может и не произойти. Очень важно, чтобы события, которые мы сравниваем, принадлежали одному множеству. Элементы этого множества называются элементарными событиями. Пример. Предложение: «выберите, пожалуйста, пойти направо, налево или прочитать новый детектив» звучит нелепо, так как последний вариант принадлежит другому множеству. К одному множеству принадлежат события: «пойти на лекцию, пойти в кино или поспать». События могут обладать совершенно разными качествами, или, как говорят, различной ценностью информации: например, «Маша любит сыр», или «Маша любит Колю». События имеют иерархическую структуру: например, каждый человек, родившись, сперва выбирает язык общения (это определяется окружением), затем человек выбирает специальность и так далее. Поэтому также нелепо звучит фраза: «Выберите, пожалуйста, кем вы хотите стать: физиком, химиком или французом». Это события различных уровней. Будем рассматривать события одного множества, качества, уровня и обозначать их большими буквами A, B, C … . Два события называются несовместимыми, если наступление одного из них исключает наступление другого. Пример. Событие A — пойти налево, событие B — пойти направо. Событие называется достоверным, если оно не может не произойти в условиях данного опыта. Пример. Монета упадет или «орлом» или «решкой». Событие называется невозможным, если оно не может произойти при выполнении определенного комплекса условий. Пример. Монета не может упасть на ребро. Два события, одно из которых исключает возможность наступления другого, называются противоположными. 21
Пример. «Орел» и «решка». Число, являющееся выражением меры объективной возможности наступления события, называется его вероятностью и обозначается символом P(A). Читается «вероятность события A». Теорема 1. Вероятность события A равна отношению числа случаев m, благоприятствующих ему из общего числа n единственно возможных и несовместимых случаев, к числу n: P(A) = m/n (классическая вероятность)
(4.2.1)
Пример. Имеется 100 одинаковых деталей, среди которых 3 бракованных. Найти событие A — появление хорошей детали. Этому событию благоприятствует 97 случаев, следовательно, вероятность события A: P(A) = 97/100 = 0,97. Вероятность появления бракованной детали (событие B): P(B)= 3/100 = 0,03. Следствие 1. Вероятность любого события не может быть меньше нуля и больше единицы. Действительно: событие A удовлетворяет неравенству: 0 £ m £ n. Разделим это неравенство на n, и получим: 0 £ m/n £ 1 или 0 £ P(A) £ 1. Следствие 2. Вероятность достоверного события равна единице. Действительно: для достоверного события m = n, то есть P(A) = 1. Следствие 3. Вероятность невозможного события равна нулю. Действительно: m = 0, то есть P(B) = 0. 2) Сложение вероятностей Теорема 2. Если события A и B несовместимы, то вероятность того, что произойдет одно из этих событий равна сумме вероятностей наступления каждого события. Доказательство. Пусть из общего числа n случаев, событию A благоприятствуют k случаев, а событию B — t случаев, тогда P(A) = k/n; P(B) = t/n. По условию события A и B несовместимые. Поэтому, событию «или A, или B» благоприятствует (k + t) случаев. P (или A, или B) = (k + t)/n = k/n + t/n , то есть P(или A, или B) = P(A) + P(B). Следствие. Сумма вероятностей всех единственно возможных событий равна единице. P(A1) + P(A2) + P(A3) + … + P(Ak) = 1. 22
Пример 1. Партия из 200 деталей содержит: (A1) I сорта — 150 деталей; (A2) II сорта — 30 деталей; (A3) III сорта — 16 деталей; (A4) брак — 4 детали. Вероятность выбрать наудачу детали I или II сорта: P(A1) = = 150/200 = 0,75; P(A2) = 30/200 = 0,15; P (A1 или A2) = 0,75 + 0,15 = 0,90. Вероятность выбрать любую деталь: P(A1)+P(A2)+P(A3)+P(A4) = = 0,75 + 0,15 + 0,08 + 0,02 = 1. Пример 2. Возле вашей остановки останавливаются троллейбусы №№ 5, 8, 1, 6. Вам нужны только № 5 и № 8. Вычислить вероятность того, что к вашей остановке первым подойдет нужный вам маршрут, если троллейбусы курсируют в количестве: № 5 — 15 шт; № 8 — 12 шт; № 1 — 10 шт; № 6 — 13 шт. Всего курсирует 15 + 12 + 10 + 13 = 50 троллейбусов. P5 = 15/50 = 0,3; P8 = 12/50 = 0,24; P (5 или 8) = P5 + P8 = 0,3 + 0,24 = 0,54, что и составляет вероятность появления студента на лекции. 3) Умножение вероятностей Два события называются зависимыми, если вероятность каждого из них меняется, когда становится известным, что другое имеет место. Вероятность события A, вычисленная в предположении, что событие В наступило, называется условной вероятностью события A. Обозначение: PВ(A) в отличие от безусловной вероятности P(A). Пример. Есть два станка. На первом станке изготавливается 200 деталей, из них 180 годных; на втором станке изготавливается 300 деталей, из них 260 годных. Безусловная вероятность взять годную деталь — P(A): P(A) = (180 + 260) / (200 + 300) = 0,88. Ес ли же ста ло из вест но, что де таль взя ли с пер вого стан ка (то есть произошло событие B),то вероятность события A равна: P Ç (A) = 180/200 = 0,9. 23
Теорема 3. Вероятность того, что произойдут событие A и событие B, равна произведению вероятности одного из них на вероятность второго, вычисленную в предположении, что первое событие имело место: P(и A, и B) = P(A) PA(B). Доказательство: Пусть всего из n случаев, m благоприятствуют событию A. Тогда P(A) = m/n. Пусть из m случаев, благоприятствующих A, k случаев благоприятствуют B. Тогда PA(B) = k/m. Событию «и A, и B» благоприятствуют только k случаев из n: P (и A, и B) = k/n. P (и A, и B) = k/n = (mk)/(nm) = (m/n)(k/m) = P(A) PA(B). События A и B играют одинаковую роль, поэтому P(и A, и B) = = P(B) PB(A). Событие A называется независимым от события B, если вероятность события A не изменяется, когда становится известным, что событие В имеет место. P(A) = PB(A) и PA(B) = P(B), то есть события A и B независимы. Теорема 4. Если событие A и B независимые, то вероятность того, что произойдут и событие A, и событие B, равна произведению их вероятностей. Доказательство. По теореме 3: P(и A, и B) = P(A) P(B). Пример. Вероятность безотказной работы автомашины — 0,9. Найти вероятность безотказной работы двух автомашин. P(и A, и B) = 0,9 × 0,9 = 0,81. Обобщение на несколько независимых событий: Теорема 4а. Если события A, B, …, L независимы в совокупности, то вероятность того, что произойдут события и A, и B, …, и L, равна произведению их вероятностей: P(и A, и B, …, и L) = P ( A) × P (B) × K × P (L). Пример. На десяти карточках стоят цифры 1, 2, 3, 4, …, 8, 9, 0. Какова вероятность выбрать наудачу цифры 1, 2, 5? Событие A: выбрать карточку «1»: PA = 1/10. Событие B: выбрать карточку «2»: PB = 1/9. Событие C: выбрать карточку «5»: PC = 1/8. P(и A, и B, и C) = 1/10 × 1/9 × 1/8 = 1/720. 24
4) Полная вероятность Пример. Три завода выпускают лампочки. На 100 лампочек: I завод выпускает — 10 бракованных лампочек — и обеспечивает 50% лампочек города; II завод выпускает — 15 бракованных лампочек — и обеспечивает 30% лампочек города; III завод — 20 бракованных лампочек — 20% лампочек города. Надо найти вероятность купить хорошую лампочку P(F). Вероятность события - изготовление лампочек заводом: I-ым заводом: P(A1) = 0,5; II-ым заводом: P(A2) = 0,3; III-им заводом: P(A3) = 0,2. Вероятность лампочки быть хорошей при условии изготовления на: I-ом заводе: PA 1 (F) = 0,90; II-м заводе: PA 2 (F) = 0,85; III-м заводе: PA 3 (F) = =0,80. Искомое событие F будет иметь место если произойдут: • или событие K: лампочки изготовлены на I-м заводе: P(K) = P(A1) × PA 1 (F) = 0,5 × 0,9 = 0,45; • или событие M: лампочки изготовлены на II-м заводе: P(M) = P(A2) × PA 2 (F) = 0,3 × 0,85 = 0,255; • или событие L: лампочки изготовлены на III-м заводе: P(L) = P(A3) × PA 3 (F) = 0,2 × 0,8 = 0,16. События K,L и M являются несовместимыми, поэтому полная вероятность купить хорошую лампочку: P(F) = P(или K, или M, или L) = P(K) + P(M) + P(L) = P(A1) ×PA 3 (F) + + P(A2) ×PA 2 (F) + P(A3) × PA 3 (F) = 0,5 × 0,9 + 0,3 × 0,85 + 0,2 × 0,8 = 0,45 + + 0,255 + 0,16 = 0,865. Теорема 5. В общем виде формула полной вероятности имеет вид: n
P(F) = P(A1) × PA 1 (F) + P(A2) × PA 2 (F) +…+ P(An) × PA n (F) = å P ( Ai ) × PA i (F ) i =1
25
5) Формула Байеса По примеру из предыдущего раздела, поставим следующие вопросы: на каком заводе изготовлена купленная лампочка; или, какова вероятность, что купленная лампочка (хорошая) изготовлена на I-м заводе: PF (A1)? Вероятность, что лампочка изготовлена на I-ом заводе и хорошая: P(A1) × PA 3 (F) = P(F) × PF (A1), так как события одинаковы (теорема 3), то есть PF ( A1 ) =
P ( A1 ) × PA 1 (F ) , P (F )
а P(F) выразим по формуле полной вероятности: PF ( A1 ) =
P ( A1 ) × PA 1 (F ) P ( A1 ) × PA 1 (F ) + P ( A2 ) × PA 2 (F ) + P ( A3 ) × PA 3 (F )
=
= 0,5 × 0,9 (0,5 × 0,9 + 0,3 × 0,85 + 0,2 × 0,8) = 0,45 0,865 = 0,520. Вероятность того, что хорошая лампочка изготовлена на II заводе: PF ( A1 ) =
P ( A2 ) × PA 2 (F ) P ( A1 ) × PA 1 (F ) + P ( A2 ) × PA 2 (F ) + P ( A3 ) × PA 3 (F )
= 0,255 0,865 = 0,295.
На третьем заводе: PF ( A1 ) =
P ( A3 ) × PA 3 (F ) P ( A1 ) × PA 1 (F ) + P ( A2 ) × PA 2 (F ) + P ( A3 ) × PA 3 (F )
= 016 , 0,865 = 0185 , .
Теперь сформулируем вопросы в самом общем виде: Пусть: а) некоторое событие F может иметь место только при наступлении одного из событий A1, A2 , …, An, образующих полную систему. Вероятности P(A1), P(A2), …, P(An) — известны. б) известны также вероятности события F при условии наступления каждого из событий A1, A2, …, An. Они равны PA 1 (F), PA 2 (F), …, PA n (F). Какова вероятность события Ai, если известно, что событие F наступило? 26
Ответ дает формула Байеса: PF ( Ai ) =
P ( Ai ) × PA i (F )
, å P( Ai ) × PAi (F )
(4.2.2)
N
i =1
то есть это послеопытные вероятности при всех n возможных гипотезах: A1, A2, …, Аn. Поэтому формулу Байеса называют формулой гипотез. Она служит для оценки вероятностей гипотез A1, A2, …, An после того как событие F наступило. 6) Формула Бернулли Задача: Пусть есть независимое испытание, которое может наступить с вероятностью p. Надо найти вероятность Pmn того, что из n опытов ровно m окажутся успешными. Решение: m испытаний составляют неупорядоченное подмножество множества n, следовательно, их число равно числу сочетаний по m из n. Вероятность каждого из m возможностей наступления нужного события по теореме умножения вероятностей равно произведению m вероятностей наступления события p на произведение (n – m) вероятностей не наступления события q = 1 – p, то есть равна pm× qn–m. Указанные вероятности являются несовместимыми событиями, поэтому по теореме сложения вероятность искомого события равна сумме одинаковых слагаемых, каждое из которых равно pm× qn-m, а число слагаемых равно С nm : Pn, m = C nm × p m × q n - m =
n! × p m ×q n -m . m !× (n - m)!
(4.2.3)
Данная формула носит название формулы Бернулли. Вероятности Pmn называются биномиальными вероятностями, так как они совпадают с (m + 1) членом бинома Ньютона: (p + q)n = qn + C1n × qn-1 × p + C2n × qn-2 × p2 +…+ Cn-1n × q × pn-1 + pn. Пример. Монета подбрасывается 10 раз. Какова вероятность того, что герб выпадет 3 раза? p = 1/2; q = 1/2; P10, 3 = C103 × (0,5) 3 × (0,5) 7 =
10 × 9 × 8 1 15 . × 10 = 1× 2 × 3 2 128 27
Если вероятность p наступления события в каждом испытании постоянна и отлична от 0 и 1, а число испытаний достаточно велико, то вероятность Pm,n того, что в n независимых испытаниях событие наступает m раз, приближенно равна: Pm, n »
f ( x) npq
;
где 1
f ( x) =
2p
× e -x
2
2
, x=
m - nq npq
.
(4.2.4)
Данная формула носит название приближенной формулы Муавра-Лапласа. Если p близка к 0 и 1, то Pm, n »
(np) m - np ×e . m!
(4.2.5)
Это приближенная формула Пуассона. 4.2.2 Случайные величины Применение теории вероятностей к обработке результатов наблюдений (экспериментов) основано на понятии случайной величины. Определение 1. Величина x, принимающая в зависимости от некоторых случайных обстоятельств одно из значений x1, x2, x3, …, xn, имеющих определенные вероятности p1, p2, p3, …, pn, называется случайной величиной. Случайные величины бывают дискретными (с дискретным рядом возможных значений) и непрерывными (имеющими сколь угодно близкие возможные значения). Сначала рассмотрим дискретные величины. 1) Дискретные величины Совокупность значений случайных величин и соответствующих вероятностей называется распределением случайной величины. Значение Вероятность 28
x1 p1
x2 p2
x3 p3
… …
xn pn
События x являются несовместимыми и единственно возможными, то есть образуют полную систему событий, поэтому сумма вероятностей равна единице: n
p1 + p2 + p3 + … + pn = å pi = 1. i =1
Элементарные вероятности pi или задаются известным законом распределения p(x), или вычисляются по экспериментальным данным. Введем понятие математического ожидания. Определение 2. Математическим ожиданием случайной величины (дискретной) называется число, равное сумме произведений всех ее значений на соответствующие им вероятности: n
E(x) = x1 p1 + x2 p2 + … + xn pn = å x i pi .
(4.2.6)
i =1
Математическое ожидание показывает, какое значение случайной величины следует ожидать в среднем. Пример. Даны результаты стрельбы двух стрелков: результат 1-го стрелка: число очков 3 4 5 вероятность 0,3 0,4 0,3
результат 2-го стрелка: число очков 1 2 3 4 5 вероятность 0,1 0,1 0,1 0,2 0,5
Математическое ожидание результатов стрельбы (среднее значение): E(xI) = 3×0,3 + 4×0,4 + 5×0,3 = 4,0; E(xII) = 1×0,1 + 2×0,1 + 3×0,1 + 4×0,2 + 5×0,5 = 3,9. Свойства математического ожидания: а) математическое ожидание постоянной величины равно этой постоянной: E(a) = a; б) постоянный множитель можно выносить за символ математического ожидания E(ax) = aE(x); в) математическое ожидание суммы случайных величин равно сумме их математических ожиданий: E(x ± y ± z ± … ± w) = E(x) ± E(y) ± … ± E(w); 29
г) математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий: E(xy) = E(x)×E(y); д) если все значения случайной величины x уменьшить (увеличить) на одно и то же число c, то математическое ожидание ее уменьшится (увеличится) на то же число c: E(x – c) = E(x) – c. Следствие. Математическое ожидание отклонения случайной величины x от ее математического ожидания равно нулю: E[x – E(x)] = 0. Введем понятие дисперсии. Определение 3. Дисперсией случайной величины называется математическое ожидание квадрата отклонения от ее математического ожидания: s2 = E [x – E(x)]2 = [x1 – E(x)]2 p1 + [x2 – E(x)]2 p2 + … + [xn – E(x)]2 pn = n
=å[ x i - E ( x )]2 pi .
(4.2.7)
i =1
Свойства дисперсии: а) дисперсия постоянной величины равна нулю: 2
s (a) = 0; б) постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат: 2
2 2
s (kx) = k s (x); в) дисперсия случайной величины равна математическому ожиданию квадрата ее без квадрата ее математического ожидания: s2(x) = E(x2) – E2(x); г) дисперсия суммы конечного числа случайных величин равна сумме их дисперсий: s2(x + y) = s2 (x) + s2(y); 30
д) дисперсия разности случайных величин равна сумме их дисперсий: s2(x – y) = s2(x) + s2(y). Действительно: x – y = x + (–1) y, тогда s2(x – y) = s2(x) + s2[(–1)y] = s2(x) + (–1)2s2(y) = s2(x) + s2(y). е) Если есть несколько независимых случайных величин x1, x2, … xn, то можно вычислить дисперсию каждой из них: 2
2
2
2
s 1 = E[x1 – E(x1)] ; s 2 = E[x2 – E(x2)] … . В общем случае: s2i = E[xi – E(xi)]2; ж) можно вычислить дисперсию средней величины: 2
é x + x 2 +K+ x n E ( x 1 ) + E ( x 2 )+K+E ( x n ) ù s = E[ x - E ( x )] = E ê 1 ú = n n ë û 2 x
2
= 1/n2 × E{[x1 – E(x1)] + [x2 – E(x2)] + … + [xn – E(xn)]}2 = = 1/n ×
s 12 + s 22 + K + s 2n n
.
Если все дисперсии равны между собой, то s 2x = s 2 n, то есть дисперсия средней в n раз меньше дисперсии каждой случайной величины. Теорема 6. Математическое ожидание числа наступлений события A в n независимых испытаний, в каждом из которых оно может наступить с постоянной вероятностью p, равно np, а дисперсия равна npq, где q — вероятность ненаступления события A. Доказательство. n — независимых испытаний — это распределение случайных величин x1, x2, …, xn, выражающих число наступлений события A соответственно в 1, 2, …, n-ом испытаниях — всего n. Рассмотрим одно из них — 1-е. У него есть два значения: 0 или 1; p = 1; q = 0. Математическое ожидание: E(x1) = x1 p1 + x2 p2 = 0 × q + 1 × p = p. Дисперсия: s2(x)= E[x – E(x)]2 = [x1 – E(x)]2 p1 + [x2 – E(x)]2 p2 = = (0 – p)2× q + (1 – p)2 p = p2q – q2p = pq(1/(p + q)) = pq. A всего n — испытаний, следовательно: E(x) = np; s2(x) = npq. 31
2) Непрерывные величины Введем понятие функции распределения. Закон распределения случайной величины кроме табличной формы можно задать аналитически в виде формулы или изобразить графически. Определение 4. Зависимость вероятности от текущей переменной называется функцией распределения F(x) или интегральной функцией распределения. Эта функция всегда неотрицательна F(x) ³ 0 и она не может быть больше 1: 0 £ F(x) £ 1. В случае дискретной случайной переменной величины функция F(x) увеличивается скачками (рисунок 4.3).
Рис. 4.3
В случае непрерывной случайной переменной величина функции F(x) изображается плавной, монотонно возрастающей кривой. Эта функция всюду дифференцируема (рисунок 4.4).
Рис. 4.4
32
F ( x + Dx ) - F ( x ) характеризует плотность, с которой Dx распределяются случайные значения в данной точке. F ( x + Dx ) - F ( x ) В пределе при Dx ® 0 lim = F ¢( x ) = f ( x ) называетD x ®0 Dx ся плотностью распределения или плотностью вероятности или дифференциальной функцией распределения. Кривая, изображающая плотность распределения случайной переменной называется кривой распределения (рисунок 4.5). Другими словами, кривой распределения непрерывной случайной величины называют график ее плотности вероятности. Отношение
Рис. 4.5. Кривая распределения непрерывной случайной величины
Теорема 7. Вероятность того, что непрерывная случайная величина x примет какое-нибудь значение в интервале (a, b), равна определенному интегралу от ее плотности вероятности в пределах от a до b (рисунок 4.5): a
P (a < x < b) = ò f ( x )dx = F ( x ). b
¥
Очевидно, что
ò f ( x)dx = 1 — это полная вероятность.
-¥
Определим математическое ожидание и дисперсию непрерывной случайной величины. Определение 5. Математическим ожиданием E(x) непрерывной случайной величины x, плотностью вероятности которой является ¥
функция f(x), называется величина интеграла E ( x ) =
ò x × f ( x)dx, если он
-¥
сходится абсолютно. 33
Определение 6. Дисперсией непрерывной случайной величины ¥
называется величина интеграла s 2 ( x ) = ò ( x - a) 2 × f ( x )dx , если он также -¥
сходится (a = E(x)). Свойства математических ожиданий и дисперсий для непрерывных случайных величин остаются те же, что и для дискретных. 3)Рассмотрим некоторые типы распределений. а) Равномерное (прямоугольное) распределение: ì0, если x < 0; x > 1 Плотность вероятности : f ( x ) = í î1, если 0 < x < 1 ì0, если x < 0 ï Функция распределения : F ( x ) = í x , если 0 < x < 1 ï1, если x > 1 î Данное распределение позволяет вычислить в явном виде математическое ожидание и дисперсию: 1
¥
Математическое ожидание: x =
ò x × p( x)dx = ò x ×dx = 0
-¥ ¥
1
1 2
2
1ö 1 æ Дисперсия: s 2 = ò ( x - x ) 2 p( x )dx = ò ç x - ÷ dx = 2ø 12 -¥ 0è б) Экспоненциальное (показательное) распределение : ìl × exp(-lx ), если x > 0 Плотность вероятности: f ( x ) = í î0, если x < 0 ì1 - exp(-lx ), если x > 0 Функция распределения: F ( x ) = í î0, если x < 0 Экспоненциальный закон распределения (и только он) обладает важным свойством того, что вероятность безотказной работы (например, прибора) в данном интервале времени не зависит от времени предшествующей работы, а зависит только от длины данного интервала времени. 34
в) Биноминальное распределение (формула Бернулли): n! × p m ×q n -m m !× ( n - m ) !
Pmn = C nm p m q n - m
Данное распределение показывает, что при повторных независимых испытаниях, в каждом из которых может осуществиться некоторое событие с одной и той же вероятностью, вероятность любого числа его появлений соответствует членам разложения бинома Ньютона в степени равной числу испытаний. Пример: монета подбрасывается 10 раз. Какова вероятность того, что герб выпадет 3 раза? 1 15 Решение: p = q = , P103 = C103 × (0,5) 3 × (0,5) 7 = . 2 128 При n ® ¥, p ® 0 биномиальное распределение превращается в распределение Пуассона (предельный случай формулы Бернулли): W (m) =
(np) m - np ×e . m!
Пример: В коллективе численностью 500 человек, m лиц родились 6 января. Построить распределение этих лиц от 1 до 6. Решение: n = 500; p = 1/365; np = 1,37. m
W(m)
pm,500
0
0,2541
0,2537
1
0,3484
0,3484
2
0,2385
0,2388
3
0,0372
0,1089
4
0,0103
0,0372
5
0,0102
0,0101
6
0,0023
0,0023 35
Рис. 4.6
Не трудно видеть, что в данном случае (n ® ¥, p ® 0) оба распределения практически совпадают. г) В классической физике распределение молекул по скоростям описывается формулой Максвелла (см. рисунок 4.7): Плотность распределения: f M ( v) = 1 p
v2 v2 exp( ). a3 2a 2
где a — параметр распределения, больший нуля:
Рис. 4.7. Распределение Максвеллла
В квантовой физике частицы с полуцелым спином подчиняются распределению Ферми-Дирака: fФ =
1 e
E kT
, +1
а частицы с целым спином — распределению Бозе-Эйнштейна: fБ = 36
1 e
E kT
. -1
Эти распределения при условии Е ? кТ переходят в классическое распределение Больцмана : n = n0 e -E
kT
.
д) Особое значение имеет так называемое нормальное распределение случайной величины (распределение Гаусса): плотность нормального распределения (см. рисунок 4.8): f n ( x) =
1 b× 2p
× exp[-( x - a) 2 2 b 2 ]
(4.2.8)
интегральная функция нормального распределения (см. рисунок 4.9): F ( x) =
1 b× 2p
¥
× ò exp[-( x - a) 2 2 b 2 ]dx
(4.2.9)
-¥
Рис. 4.8
Рис. 4.9
Свойства нормального распределения Теорема 8. Параметры a и b в выражениях плотности вероятности и функции распределения случайной величины, распределенной по нормальному закону являются ее математическим ожиданием и дисперсией. Доказательство: а) Математическое ожидание: ¥
E ( x) =
ò x × f ( x)dx; где f ( x) = b ×
-¥
æ -( x - a) 2 × expçç 2 2p è 2b
1
ö ÷. ÷ ø 37
Таким образом: E ( x) =
¥ æ -( x - a) 2 × ò x × expçç 2 b × 2 p -¥ è 2b
1
ö ÷dx = ÷ ø
делаем замену переменной: t = ( x - a) b; x = t b + a; dx = bdt , (пределы интегрирования не изменяются): =
¥
b b
¥ æ t2 ö æ t2 a ÷dt = çexp ò ÷ ç 2 2 p -¥ ø è
ò (a + bt ) × expççè - 2 2p -¥
¥
Здесь первое слагаемое:
¥ ö æ t2 b ÷dt + ç× t × exp ò ÷ ç 2 2 p -¥ ø è
ö ÷dt . ÷ ø
æ t2 ö ÷dt = 2p — интеграл Эйлера÷ ø
ò expççè - 2
-¥
Пуассона. Второе слагаемое: ¥
æ t2 çt × exp ò ç 2 è -¥
¥ ö æ t2 ÷dt = - ò expç ÷ ç 2 ø è -¥
Таким образом: E ( x ) =
a 2p 2p
ö æ t2 ÷dç ÷ ç 2 ø è
ö æ t2 ÷ =expç ÷ ç 2 ø è
ö ¥ ÷ ÷ -¥ = 0. ø
= a.
æ ( x - a) 2 ö ÷dx = expçç 2 b 2 ÷ø b è -¥ cделаем замену переменных: t = ( x - a) b; x - a = bt ; dx = bdt , (пределы интегрирования не изменяются): б) Дисперсия: s 2 ( x ) =
=
b2
¥
¥
1
ò ( x - a) 2p
æ t2 2 çt exp ò ç 2 2 p -¥ è
2
¥ ö æ t2 2b2 2 ÷dt = çt exp ò ÷ ç 2 2p 0 ø è
ö ÷dt ÷ ø
(так как под интегралом — четная функция). ¥
æ t2 2 çt exp ò0 ç 2 è
ö 2p ÷dt = — интеграл Эйлера-Пуассона. ÷ 2 ø
Таким образом: s 2 ( x ) =
2b2
2p Что и требовалось доказать. 38
×
2p = b2 . 2
Теорема 9. Случайные величины, распределенные по нормальному закону, различаются только значениями математического ожидания и дисперсии. Доказательство: а) Пусть у двух распределений дисперсия s2 — одинакова, но разные математические ожидания: E = 0; f1 ( x ) =
æ x2 expçç - 2 s 2p è 2s
E ¹ 0 ; f 2 ( x) =
1
ö ÷; ÷ ø
æ x2 -E expçç 2 s 2p è 2s 1
ö ÷. ÷ ø
Если ввести новую переменную x1 = (x – E) , тогда f 2 ( x) =
æ x2 expç - 1 2 ç 2s s 2p è 1
ö ÷, то есть кривые для f1 ( x ) и f 2 ( x )совпадут. ÷ ø
Следовательно, E — это параллельный перенос (рисунок 4.10):
Рис. 4.10
б) Пусть у трех распределений одинаковые математические ожидания E (E = 0), но дисперсии разные: s1 = 1/2; s2 = 1; s3 = 2. (см. рис. 4.11):
Рис. 4.11
39
f1 =
1
exp(-2 x 2 ); f 2 =
2p
æ x2 expçç 2p è 2
1
ö æ x2 1 ÷; f 3 = çexp ÷ ç 8 2 2p ø è
ö ÷. ÷ ø
Нетрудно видеть, что дисперсия служит мерой рассеяния случайной величины. е) В математической статистике часто используют законы распределения случайных величин, являющихся функциями независимых нормальных случайных величин. Впервые астроном Ф.Хельмерт (1876 г.) исследовал суммы квадратов нормально распределенных случайных величин и получил распределение, которое позже (1900 г.) К.Пирсон назвал функцией распределения «хи квадрат» (c 2 ): F c2 ( k ) =
1
x
k
-1 æ t ö × ò t 2 × expç - ÷dt ; k è 2ø ækö 2 2 × Gç ÷ 0 è2 ø
(4.2.10)
соответствующая плотность вероятности: f c2 ( x ) =
1
k
-1 æ xö × x 2 × expç - ÷, k è 2ø ækö 2 2 × Gç ÷ è2 ø
(4.2.11)
где Г(m) — гамма-функция Эйлера: ¥
G(m) = ò x m -1 × exp(- x )dx ,
(4.2.12)
0
k — называется числом степеней свободы независимых нормальных случайных величин x 1 , x 2 , ... x k . Распределение c 2 ищется для случайных величин x k2 = x 12 + x 22 +K+ x k2 . Оно табулировано (представлено в виде таблиц). Среднее: E c2 = k, дисперсия: s 2 = 2 k. ж) Английский статистик В.Госсет (писавший под псевдонимом «Стьюдент») получил в 1908 г. для случайных нормально распределенных величин, так называемое, «t-распределение»: 40
Ft =
x0 1 k 2 ×å xi k i =1
,
(4.2.13)
соответствующая плотность вероятности: æ k +1 ö k +1 Gç ÷ 2 øæ x 2 ö 2 1 è ç1 + ÷ ft = × ç k ÷ø p× k Gæ k ö è ç ÷ è2 ø
(4.2.14)
з) Анализируя поведение отношения выборочных дисперсий двух выборок извлеченных из одной и той же нормальной генеральной совокупности, английский статистик Р.Фишер (1924 г.) нашел, так называемое, «F-распределение»: плотность распределения: k
k
2 æ k + k2 ö 21 k1 ÷÷ × k1 × k2 2 Gçç 1 -1 2 ø x2 è fF = × k1 + k2 æ k1 ö æ k2 ö ç ÷ Gç ÷ × Gçç ÷÷ ( k1 x + k2 ) 2 è 2 ø è 2 ø
(4.2.15).
4) Метод моментов Основные параметры кривых распределения можно характеризовать с помощью так называемых моментов. а) Пусть имеется случайная величина Х. Моментом k-го порядка Mk(a) по отношению к значению а называется математическое ожидание k-ой степени отклонения X от a: Mk(a) = M (X – a)k. Если a = 0, момент называется начальным (nk), при a = M(x) его называют центральным (mk). Таким образом: nk = Mk(0) = M(xk); k
m k = Mk(M(x)) = M(X – M(x)) . Центральные моменты случайной величины X можно выразить через начальные моменты этой величины: 41
k
mk = M(X – M(x))k = M (å Ckn (–1)n Xk-n (M(x))k) = n =0
k
n
n
n
k
k-n
n
n
n
= å (–1) Ck n1 M(x ) = å (–1) Ck n1 nk-n. n =0
n =0
Отсюда: m2 = n2 – 2n1n1 + n12 = n2 – n12, m3 = n3 – 3n1n2 + 3n12n1 – n13 = n3 – 3n2n1 + 2n12, m4 = n4 – 4n1n3 + 6n12n2 – 3n14. ¥
б) Начальный момент k-го порядка n k =
òx
k
f ( x )dx .
-¥ ¥
Центральный момент k-го порядка m k = ò ( x - a) k f ( x )dx = E ( x - a) k . -¥
Моменты нулевого порядка: k = 0: ¥
n0 =
ò
¥
x 0 f ( x )dx =
-¥
ò f ( x)dx = 1,
-¥
¥
m0 =
0 ò ( x - a) f ( x)dx =
-¥
¥
ò f ( x)dx = 1.
-¥
Моменты 1-го порядка: k = 1: ¥
ò x f ( x)dx = E ( x) — математическое ожидание;
n1 =
-¥ ¥
m 1 = ò ( x - a) f ( x )dx = 0 — следствие 5-го свойства математического -¥
ожидания. Центральный момент 2-го порядка: ¥
m 2 = ò ( x - a) 2 f ( x )dx E ( x - a) 2 = s 2 — дисперсия. -¥
42
в) Вычислим центральные моменты случайной величины, распределенной по нормальному закону: mk =
æ ( x - a) 2 k ç( x a ) exp ò ç 2s 2 s 2 p -¥ è 1
¥
ö ÷dx ; ÷ ø
Сделаем замену переменной t = ( x - a) s, x - a = s × t ; (пределы интегрирования не изменяются) dx = s dt, mk =
¥ æ t2 × ò t k expçç 2 p -¥ è 2
sk
ö ÷dt . ÷ ø
Пусть k — нечетные: k = 2×l + 1; докажем, что при этом все интегралы равны нулю: ¥ æ t2 ö × ò t 2 l + 1 expçç - ÷÷dt = 2 p -¥ è 2 ø 0 ¥ æ t2 ö æ t2 s 2 l + 1 æç 2 l + 1 = × òt expçç - ÷÷dt + ò t 2 l + 1 expçç 2 p çè -¥ è 2 ø è 2 0
m 2 ×l + 1 =
s 2 l +1
ö ÷dt ÷ ø
ö ÷= ÷ ø
делаем замену переменной: z = t2 =
0 ¥ s 2 l + 1 æç 1 l - z 2 1 l - z 2 ö÷ × z × e dz + z × e dz = 0, ò ÷ 2 ò0 2 p çè 2 -¥ ø
так как перестановка пределов дает перед интегралом знак «–». Пусть k — четные; k = 2×l m 2l =
¥ æ t2 × ò t 2 l expçç 2 p -¥ è 2
s 2l
¥ ö æ t2 2s 2 l 2l ÷dt = ç× t exp ò ÷ ç 2 2p 0 ø è
ö ÷dt, ÷ ø
так как подынтегральная функция четная, используя формулу ЭйлераПуассона, получим: m 2 l = (2l -1)!! × s 2 l ; (2l -1)!! = 1× 3 × 5 × K × (2l -1). В частности: m4 = 1×3×s4 = 3s4 . г) Центральный момент m3 характеризует отклонение распределения случайной величины x от симметричного. За меру этого отклонения берут отношение m3 к среднему квадратичному в кубе (s3), которое называется коэффициентом асимметрии: a = m3 /s3. 43
Четвертый центральный момент служит для характеристики крутости распределения случайной величины x по сравнению с крутостью распределения нормальной случайной величины с математическим ожиданием и дисперсией такими же, как и у x. За меру крутости берут относительную величину, которая называется эксцессом и определяется по формуле: c=
m4 s4
- 3.
Не трудно видеть, что для нормального распределения (m4 = 3s4) эксцесс равен нулю (c = 0), и коэффициент асимметрии a = 0 (m 3 = 0). 4.2.3 Закон больших чисел Опыт, накопленный человечеством за многовековую историю, дает основание принять в качестве руководящего в любой деятельности следующий принцип практической уверенности: если при выполнении определенных условий вероятность события очень мала, то при однократном осуществлении их можно быть уверенным в том, что это событие не произойдет, и в практической деятельности поступать так, как будто оно является невозможным. Определение 7. Вероятность, которой решено пренебрегать в данном исследовании называется уровнем значимости. Под законом больших чисел понимается совокупность предложений, в которых утверждается, что с вероятностью, как угодно близкой к единице, отклонение средней арифметической достаточно большого числа случайных величин от постоянной величины — средней арифметической их математических ожиданий не превзойдет заданного как угодно малого числа. Давно было замечено, что средняя арифметическая числовых характеристик некоторых признаков (частоты события, результатов измерений и т.д.) в большом числе таких однородных случайных явлений подвержена очень незначительным колебаниям. В средней как бы проявляется закономерность, присущая существу явлений, взаимно погашается влияние отдельных факторов, которые делали случайными результаты единичных наблюдений. 44
Теоретическое объяснение такого поведения средней и является содержанием закона больших чисел. Общая современная постановка задачи, формулировка закона больших чисел, развитие методов исследования и доказательства теорем, относящихся к этому закону, принадлежит русским ученым П.Л.Чебышеву, А.А.Маркову и А.М.Ляпунову. Приведем основные результаты, полученные этими учеными, не останавливаясь на доказательстве теорем. Лемма Чебышева. Если среди значений случайной величины х нет отрицательных, то вероятность того, что она примет какое-нибудь значение, превосходящее положительное число А , будет не больше дроби, числитель которой есть ее математическое ожидание, а знаменатель — число А: P( x > A ) £
E ( x) . A
Случайные величины могут иметь различные распределения при одинаковых математических ожиданиях. Однако лемма Чебышева для них даст одинаковую оценку вероятности того или иного результата испытания. Этот недостаток леммы связан с ее общностью: добиться лучшей оценки сразу для всех случайных величин невозможно. Неравенство Чебышева. Вероятность того, что отклонение случайной величины от ее математического ожидания превзойдет по абсолютной величине положительное число e , не больше дроби, числитель которой есть ее дисперсия, а знаменатель — e2: P (| x - E| > e ) £
s2 e2
Неравенство Чебышева дает нетривиальную оценку вероятности события лишь в случае, если дисперсия случайной величины достаточно мала: меньше e2. Обобщением неравенства Чебышева является теорема Чебышева, выражающая закон больших чисел. Теорема Чебышева. Если дисперсии независимых случайных величин x 1 , x 2 , ... x n ограничены одной и той же постоянной величиной, и число их достаточно велико, то как угодно близка к единице вероят45
ность того, что отклонение средней арифметической этих случайных величин от средней арифметической их математических ожиданий не превзойдет по абсолютной величине положительного числа e, как бы мало оно не было: æ½x + x 2 +K + x n E 1 + E 2 +K + E n½ ö ½ £ e ÷ > 1 - d. P ç½ 1 ç½ n n ½ ÷ø è Ни одно из рассмотренных здесь утверждений не дает точного, ни даже приближенного значения искомой вероятности, а указывается лишь нижняя или верхняя граница ее. Приближенное значение вероятностей при больших значениях n можно получить только с помощью предельных теорем. С помощью таких теорем можно доказать, что сумма любого конечного числа независимых нормально распределенных случайных величин также распределена по нормальному закону: Теорема Ляпунова. Если независимые случайные величины x 1 , x 2 , ... x n имеют конечные математические ожидания и конечные дисперсии, и число их достаточно велико, а предел lim n ®¥
m 3 (1) + m 3 (2) +K + m 3 (n)
(s
2 1
2 2
+ s +K + s
2 n
)
3 2
=0
где m 3 (1), m 3 (2), ..., m 3 (n) — центральные моменты третьего порядка случайных величин, то сумма их с достаточной степенью точности распределена по нормальному закону с параметрами E = E 1 + E 2 +K+E n ; s 2 = s 12 + s 22 + K + s 2n . Таким образом, случайная величина, являющаяся суммой достаточно большого числа независимых слагаемых, согласно теореме Ляпунова распределена по нормальному закону, если действие каждого слагаемого невелико по сравнению с суммарным действием их всех.. Данный вывод известен как центральная предельна теорема. Впервые эту теорему доказал Марков (1898 г.), затем — в более общей форме — Ляпунов (1900). Многие случайные явления , встречающиеся в природе и в общественной жизни, протекают именно по такой схеме. В связи с этим тео46
рема Ляпунова имеет исключительно большое значение, а нормальный закон распределения — один из основных в теории вероятностей. Для обоснования выборочного метода, рассматриваемого в следующем разделе (4.3.1), нам понадобится еще одно заключение, которое можно получить, как следствие теоремы Ляпунова: если случайная величина является суммой достаточно большого числа одинаково распределенных независимых случайных величин, имеющих центральные моменты третьего порядка, то она распределена по нормальному закону. Задания для самостоятельной работы: 1. Подбрасывают игральную кость. Какова вероятность того, что на верхней грани выпадет четное число очков ? 2. Подбрасывают 2 игральные кости. Какова вероятность выпадения суммы 4 очков ? 3. Среди 50 деталей три нестандартные. Найти вероятность того, что из взятых наудачу двух деталей обе окажутся нестандартными ? 4. Вероятность продать обувь 40 размера равна 0,12; 43 размера — 0,04; 46 размера — 0,01. Наитии вероятность продажи обуви не менее 40 размера. 5. Производится 4 выстрела по цели с вероятностью попадания 0,2 при каждом выстреле. Попадания считаются независимыми. Какова вероятность попадания в цель 3 раза? 6. Имеется 6 ящиков с одинаковыми по внешнему виду деталями, но с разным качеством деталей 1-го сорта: Номер ящика 1
Количество деталей Всего 1-го сорта 10 8
2
10
8
3
10
8
4
10
6
5
10
6
6
10
5
Определить полную вероятность того, что при взятии одной детали она окажется 1-го сорта. 47
7. Найти математическое ожидание и дисперсию случайной величины х в интервале (0, p), с плотностью распределения: 1 f ( x ) = sin x 2 8. Найти математическое ожидание и дисперсию случайной величины х, распределенной по показательному закону: P ( x ) = l × e - lx ; x > 0 9. Найти математическое ожидание и дисперсию случайной величины х, распределенной по закону: f ( x ) = 1 - e - xa .
ЛИТЕРАТУРА 1. Колемаев В.А. Теория вероятностей и математическая статистика. Учебник. М.: ИНФРА-М, 2000, 301 с. 2. Гмурман В.Е. Теория вероятностей и математическая статистика. Учебное пособие. ВШ, 2004, 479 с. 3. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистики. Учебное пособие. ВШ, 2000, 400 с. 4. Новорожкина Л.И., Морозова З.А. Основы статистики с элементами теории вероятностей для экономистов. Руководство для решения задач. Ростов-на-Дону, ФЕНИКС, 1999, 316 с. 5. Карасев А.И. Теория вероятностей и математическая статистика. Учебник. М.: Статистика, 1970, 344 с.
Эдуард Федорович Казанцев МАТЕМАТИКА РАЗДЕЛ 4. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА (Тетрадь 4.1)
Учебно-методическое пособие Печатается по решению Редакционно-издательского совета Международного университета в Москве Компьютерная верстка и дизайн: Д.А.Глазков Печатается в авторской редакции Подписано в печать 18.04.05 Гарнитура Times New Roman Формат 60´90 1/16 Бумага офсетная. Печать ризографическая Усл. печ. л. 3,2. Тираж 150 экз. Изд. № 22 Издательский дом Международного университета в Москве Москва, Ленинградский проспект, 17 Международный университет в Москве Тел. (095) 250-45-42