Теория вероятностей и математическая статистика =: Probability theory and mathematical statistics : учебник для студентов [3-е изд., перераб. и доп.] 9785238012704

253 120 12MB

Russian Pages 550, [1] с. [552] Year 2007

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Теория вероятностей и математическая статистика =: Probability theory and mathematical statistics : учебник для студентов [3-е изд., перераб. и доп.]
 9785238012704

Table of contents :
Титульный лист
Выходные данные
Оглавление
Предисловие
Введение
РАЗДЕЛ I. ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Глава 1. Основные понятия и теоремы теории вероятностей
1.1 Классификация событий
1.2 Классическое определение вероятности
1.3 Статистическое определение вероятности
1.4 Геометрическое определение вероятности
1.5 Элементы комбинаторики
1.6 Непосредственное вычисление вероятностей
1.7 Действия над событий
1.8 Теорема сложения вероятностей
1.9 Условная вероятность события. Теорема умножения вероятностей. Независимые события
1.10 Решение задач
1.11 Формула полной вероятности. Формула Байеса
1.12 Теоретико-множественная трактовка основных понятий и аксиоматическое построение теории вероятностей
Упражнение
Глава 2. Повторные независимые события
2.1 Формула Бернулли
2.2 Формула Пуассона
2.3 Локальная и интегральная формулы Муавра-Лапласа
2.4 Решение задач
2.5 Полиномиальная схема
Упражнения
Глава 3. Случайные величины
3.1 Понятие случайной величины. Закон распределения дискретной случайной величины
3.2 Математичиские операции над случайными величинами
3.3 Математическое ожидание дискретной случайной величины
3.4 Дисперсия дискретной случайной величины
3.5 Функция распределения случайной величины
3.6 Непрерывные случайные величины. Плотность вероятности
3.7 Мода и медиана. Квантили. Моменты случайных величин. Асимметрия и эксцесс
3.8 Производящая функция
3.9 Решение задач
Упражнения
Глава 4. Основные законы распределения
4.1 Биномальный закон распределения
4.2 Закон распределения Пуассона
4.3 Геометрическое распределение и его обобщения
4.4 Гипергеометрическое распределение
4.5 Равномерный закон распределения
4.6 Показательный (экспоненциальный) закон распределения
4.7 Нормальный закон распределения
4.8 Логарифмически-нормальное распределение
4.9 Распределение некоторых случайных величин, представляющих функции нормальных величин
Упражнения
Глава 5. Многомерные случайные величины
5.1 Понятие многомерной случайной величины и закон ее распределения
5.2 Функция распределения многомерной случайной величины
5.3 Плотность вероятности двумерной случайной величины
5.4 Условные законы распределения. Числовые характеристики двумерной случайной величины. Регрессия
5.5 Зависимые и независимые случайные величины
5.6 Ковариация и коэффициент корреляции
5.7 Двумерный (n-мерный) нормальный закон распределения
5.8 Функция случайных величин. Композиция законов распределения
Упражнения
Глава 6. Закон больших чисел и предельные теоремы
6.1 Неравенство Маркова (лемма Чебышева)
6.2 Неравенство Чебышева
6.3 Теорема Чебышева
6.4 Теорема Бернулли
6.5 Центральная предельная теорема
Упражнения
Глава 7. Элементы теории случайных процессов и теории массового обслуживания
7.1 Определение случайного процесса и его характеристики
7.2 Марковские случайные процессы с дискретными состояниями
7.3 Основные понятия теории массового обслуживания
7.4 Потоки событий
7.5 Уравнения Колмогорова. Предельные вероятности состояний
7.6 Процессы гибели и размножения
7.7 СМО с отказами
7.8 Понятие о методе статистических испытаний (методе Монте-Карло)
Упражнения
РАЗДЕЛ II. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Глава 8. Вариационные ряды и их характеристики
8.1 Вариационные ряды и из графическое изображение
8.2 Средние величины
8.3 Показатели вариации
8.4 Упрощенный способ расчета средней арифметической и дисперсии
8.5 Начальные и центральные моменты вариационного ряда
Упражнения
Глава 9. Основы математической теории выборочного метода
9.1 Общие сведения выборочного метода
9.2 Понятие оценки параметров
9.3 Методы нахождения оценок
9.4 Оценки параметров генеральной совокупности по собственно-случайной выборке
9.5 Определение эффективных оценок с помощью неравенства Рао-Крамера-Фреше
9.6 Понятие интервального оценивания. Доверительная вероятность и предельная ошибка выборки
9.7 Оценки характеристик генеральной совокупности по малой выборке
Упражнения
Глава 10. Проверка статистических гипотез
10.1 Принцип практической уверенности
10.2 Статистическая гипотеза и общая схема ее проверки
10.3 Проверка гипотез о равестве средних двух и более совокупностей
10.4 Проверка гипотез о равенстве долей признака в двух и более совокупностей
10.5 Проверка гипотез о равенстве дисперсий двух и более совокупностей
10.6 Проверка гипотез о числовых значений параметров
10.7 Построение теоретического закона распределения по опытным данным. Проверка гипотезы о законе распределения
10.8 Проверка гипотез об однородности выборки
10.8 Понятие о проверке гипотез методом последовательного анализа
Упражнения
Глава 11. Дисперсионный анализ
11.1 Однофакторный дисперсионный анализ
11.2 Понятие о двухфакторном дисперсионном анализе
Упражнения
Глава 12. Корреляционный анализ
12.1 Функциональная, статистическая и корреляционная зависимости
12.2 Линейная парная регрессия
12.3 Коэффициент корреляции
12.4 Основные положения корреляционного анализа. Двумерная модель
12.5 Проверка значимости и интервальная оценка параметров связи
12.6 Корреляционное отношение и индекс корреляции
12.7 Понятие о многомерном корреляционном анализе. Множественный и частный коэффициенты корреляции
12.8 Ранговая корреляция
Упражнения
Глава 13. Регрессионный анализ
13.1 Основные положения регрессионного анализа. Парная регрессионая модель
13.2 Интервальная оценка функции регрессии
13.3 Проверка значимости уравнения регрессии. Интервальная оценка параметров парной модели
13.4 Нелинейная регрессия
13.5 Множественный регрессионный анализ
13.6 Ковариоционная матрица и ее выборочная оценка
13.7 Определение доверительных интервалов для коэффициентов и функции регрессии
13.8 Оценка взаимосвязи переменных. Проверка значимости уравнения множественной регрессии
13.9 Мультиколлинеарность
13.10 Понятие о других методах многомерного статистического анализа
Упражнения
Глава 14. Введение в анализ временных рядов
14.1 Общие сведения о временных рядах и задачах их анализа
14.2 Стационарные временные ряды и их характеристики. Автокорреляционная функция
14.3 Аналитическое выравнивание (сглаживание) временного ряда (выделение неслучайной компоненты)
14.4 Временные ряды и прогнозирование. Автокорреляция возмущений
14.5 Авторегрессионная модель
Упражнения
Глава 15. Линейные регрессионные модели финансового рынка
15.1 Регрессионные модели
15.2 Рыночная модель
15.3 Модели зависимости от касательного портфеля
15.4 Неравновесные и равновесные модели
15.5 Модель оценки финансовых активов (САРМ)
15.6 Связь между ожидаемой доходностью и риском оптимального портфеля
15.7 Многофакторные модели
15.8 Многофакторная модель оценки финансовых активов
Библиографический список
Ответы к упражнениям
Приложения. Математико-статистические таблицы
Таблица 1. Значения функции Гаусса
Таблица 2. Значения функции Лапласа
Таблица 3. Значения функции Пуассона
Таблица 4. Значения критерия Стьюдента
Таблица 5. Значения критерия Пирсона
Таблица 6. Значения критерия Фишера-Снедекора
Предметный указатель

Citation preview

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

       

    

       

 

 

 

   



Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

N.Sh. Kremer

PROBABILITY THEORY AND

MATHEMATICAL STATISTICS Third Edition

Textbook

Moscow Ѓ 2012

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

.. 

    

   

   Третье издание, переработанное и дополненное

Рекомендовано Министерством образования Российской Федерации в качестве учебника для студентов высших учебных заведений, обучающихся по экономическим специальностям

Москва



2012

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

УДК 519.2(075.8) ББК 22.171я73-1+22.172я73-1 К79 Р е ц е н з е н т ы: кафедра математической статистики и эконометрики Московского государственного университета экономики, статистики и информатики (МЭСИ) (зав. кафедрой д-р экон. наук, проф. В.С. Мхитарян); д-р физ.-мат. наук, проф. В.Ф. Гапошкин; канд. техн. наук, доц. Г.Л. Эпштейн Главный редактор издательства Н.Д. Эриашвили, кандидат юридических наук, доктор экономических наук, профессор, лауреат премии Правительства РФ в области науки и техники

К79

Кремер, Наум Шевелевич. Теория вероятностей и математическая статистика: учебник для студентов вузов, обучающихся по экономическим специальностям / Н.Ш. Кремер. — 3-е изд., перераб. и доп. — М.: ЮНИТИ-ДАНА, 2012. — 551 с. — (Серия «Золотой фонд российских учебников»). ISBN 978-5-238-01270-4 Агентство CIP РГБ Эта книга не только учебник, но и краткое руководство к решению задач. Излагаемые основы теории вероятностей и математической статистики сопровождаются большим количеством задач (в том числе экономических), приводимых с решениями и для самостоятельной работы. При этом упор делается на основные понятия курса, их теоретико-вероятностный смысл и применение. Приводятся примеры использования вероятностных и математикостатистических методов в задачах массового обслуживания и моделях финансового рынка. Для студентов и аспирантов экономических специальностей и направлений, а также преподавателей вузов, научных сотрудников и экономистов. ББК 22.171я73-1+22.172я73-1

ISBN 978-5-238-01270-4

© Н.Ш. Кремер, 2000, 2003, 2007 © ИЗДАТЕЛЬСТВО ЮНИТИ-ДАНА, 2000, 2003, 2007 Принадлежит исключительное право на использование и распространение издания. Воспроизведение всей книги или любой ее части любыми средствами или в какой-либо форме, в том числе в Интернет-сети, запрещается без письменного разрешения издательства. © Оформление «ЮНИТИ-ДАНА», 2007

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Оглавление Предисловие Введение

10 12

Раздел 1. Теория вероятностей Глава 1. Основные понятия и теоремы теории вероятностей 1.1. Классификация событий 1.2. Классическое определение вероятности 1.3. Статистическое определение вероятности 1.4. Геометрическое определение вероятности 1.5. Элементы комбинаторики 1.6. Непосредственное вычисление вероятностей 1.7. Действия над событиями 1.8. Теорема сложения вероятностей 1.9. Условная вероятность события. Теорема умножения вероятностей. Независимые события 1.10. Решение задач 1.11. Формула полной вероятности. Формула Байеса 1.12. Теоретико-множественная трактовка основных понятий и аксиоматическое построение теории вероятностей Упражнения

15 16 16 18 20 22 23 27 33 36 37 45 51 56 61

Глава 2. Повторные независимые испытания

68

2.1. Формула Бернулли 2.2. Формула Пуассона 2.3. Локальная и интегральная формулы Муавра—Лапласа 2.4. Решение задач 2.5. Полиномиальная схема Упражнения

68 71 72 78 82 84

Глава 3. Случайные величины

3.1. Понятие случайной величины. Закон распределения дискретной случайной величины 3.2. Математические операции над случайными величинами 3.3. Математическое ожидание дискретной случайной величины 3.4. Дисперсия дискретной случайной величины 3.5. Функция распределения случайной величины 3.6. Непрерывные случайные величины. Плотность вероятности

5

87

87 91 94 98 103 106

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

3.7. Мода и медиана. Квантили. Моменты случайных величин. Асимметрия и эксцесс 3.8. Производящая функция 3.9. Решение задач Упражнения

Глава 4. Основные законы распределения 4.1. Биномиальный закон распределения 4.2. Закон распределения Пуассона 4.3. Геометрическое распределение и его обобщения 4.4. Гипергеометрическое распределение 4.5. Равномерный закон распределения 4.6. Показательный (экспоненциальный) закон распределения 4.7. Нормальный закон распределения 4.8. Логарифмически-нормальное распределение 4.9. Распределение некоторых случайных величин, представляющих функции нормальных величин Упражнения

Глава 5. Многомерные случайные величины 5.1. Понятие многомерной случайной величины и закон ее распределения 5.2. Функция распределения многомерной случайной величины 5.3. Плотность вероятности двумерной случайной величины 5.4. Условные законы распределения. Числовые характеристики двумерной случайной величины. Регрессия 5.5. Зависимые и независимые случайные величины 5.6. Ковариация и коэффициент корреляции 5.7. Двумерный (n-мерный) нормальный закон распределения 5.8. Функция случайных величин. Композиция законов распределения Упражнения

Глава 6. Закон больших чисел и предельные

теоремы

6.1. Неравенство Маркова (лемма Чебышева) 6.2. Неравенство Чебышева 6.3. Теорема Чебышева 6.4. Теорема Бернулли 6.5. Центральная предельная теорема Упражнения

6

114 119 121 133

141 141 145 148 150 152 154 158 167 169 172

175 175 179 182 188 192 195 202 207 213

218 218 220 223 229 231 236

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава 7. Элементы теории случайных процессов

и теории массового обслуживания

7.1. Определение случайного процесса и его характеристики 7.2. Марковские случайные процессы с дискретными состояниями 7.3. Основные понятия теории массового обслуживания 7.4. Потоки событий 7.5. Уравнения Колмогорова. Предельные вероятности состояний 7.6. Процессы гибели и размножения 7.7. СМО с отказами 7.8. Понятие о методе статистических испытаний (методе Монте-Карло) Упражнения

Раздел II. Математическая статистика Глава 8. Вариационные ряды и их характеристики 8.1. Вариационные ряды и их графическое изображение 8.2. Средние величины 8.3. Показатели вариации 8.4. Упрощенный способ расчета средней арифметической и дисперсии 8.5. Начальные и центральные моменты вариационного ряда Упражнения

Глава 9. Основы математической теории

выборочного метода

9.1. Общие сведения о выборочном методе 9.2. Понятие оценки параметров 9.3. Методы нахождения оценок 9.4. Оценка параметров генеральной совокупности по собственно-случайной выборке 9.5. Определение эффективных оценок с помощью неравенства Рао—Крамера—Фреше 9.6. Понятие интервального оценивания. Доверительная вероятность и предельная ошибка выборки

9.7. Оценка характеристик генеральной совокупности

по малой выборке Упражнения

238 238 241 245 246 250 254 256 261 263

266 267

267 272 275 279 281 284

286 286 289 293 297 305 308 318 327

Глава 10. Проверка статистических гипотез

330

10.1. Принцип практической уверенности 10.2. Статистическая гипотеза и общая схема ее проверки 10.3. Проверка гипотез о равенстве средних двух и более совокупностей

330 331

7

339

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

10.4. Проверка гипотез о равенстве долей признака в двух и более совокупностях 10.5. Проверка гипотез о равенстве дисперсий двух и более совокупностей 10.6. Проверка гипотез о числовых значениях параметров 10.7. Построение теоретического закона распределения по опытным данным. Проверка гипотез о законе распределения 10.8. Проверка гипотез об однородности выборок 10.9. Понятие о проверке гипотез методом последовательного анализа Упражнения

345 348 352 357 366 372 375

Глава 11. Дисперсионный анализ

379

Глава 12. Корреляционный анализ

395

11.1. Однофакторный дисперсионный анализ 11.2. Понятие о двухфакторном дисперсионном анализе Упражнения 12.1. Функциональная, статистическая и корреляционная зависимости 12.2. Линейная парная регрессия 12.3. Коэффициент корреляции 12.4. Основные положения корреляционного анализа. Двумерная модель 12.5. Проверка значимости и интервальная оценка параметров связи 12.6. Корреляционное отношение и индекс корреляции 12.7. Понятие о многомерном корреляционном анализе. Множественный и частный коэффициенты корреляции 12.8. Ранговая корреляция Упражнения

Глава 13. Регрессионный анализ

13.1. Основные положения регрессионного анализа. Парная регрессионная модель 13.2. Интервальная оценка функции регрессии 13.3. Проверка значимости уравнения регрессии. Интервальная оценка параметров парной модели 13.4. Нелинейная регрессия 13.5. Множественный регрессионный анализ 13.6. Ковариационная матрица и ее выборочная оценка 13.7. Определение доверительных интервалов для коэффициентов и функции регрессии

8

379 387 393

395 398 406 412 415 419 424 429 436

439 439 441 446 450 454 462 464

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

13.8. Оценка взаимосвязи переменных. Проверка значимости уравнения множественной регрессии 13.9. Мультиколлинеарность 13.10. Понятие о других методах многомерного статистического анализа Упражнения

474 476

Глава 14. Введение в анализ временных рядов

479

14.1. Общие сведения о временных рядах и задачах их анализа 14.2. Стационарные временные ряды и их характеристики. Автокорреляционная функция 14.3. Аналитическое выравнивание (сглаживание) временного ряда (выделение неслучайной компоненты) 14.4. Временные ряды и прогнозирование. Автокорреляция возмущений 14.5. Авторегрессионная модель Упражнения

Глава 15. Линейные регрессионные модели 15.1. 15.2. 15.3. 15.4. 15.5. 15.6.

финансового рынка

Регрессионные модели Рыночная модель Модели зависимости от касательного портфеля Неравновесные и равновесные модели Модель оценки финансовых активов (САРМ) Связь между ожидаемой доходностью и риском оптимального портфеля 15.7. Многофакторные модели 15.8. Многофакторная модель оценки финансовых активов

Библиографический список Ответы к упражнениям Приложения. Математико-статистические таблицы Предметный указатель

9

468 472

479 481

484 488 494 495

497

497 499 500 503 505 506 507 509

511 513 530 539

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Предисловие Издательство ЮНИТИ-ДАНА продолжает выпуск учебников и учебных пособий по математическим дисциплинам для студентов и абитуриентов экономических вузов. Мотивацией подготовки данного учебника явилось также то, что в настоящее время ощущается нехватка доступных для студентовэкономистов учебников по дисциплине «Теория вероятностей и математическая статистика». В первую очередь это касается студентов, обучающихся в вузе без отрыва от производства, для многих из которых учебник служит основным источником учебной информации. Вышедшие из печати в последнее время учебники и пособия по теории вероятностей и математической статистике ориентированы в основном на студентов технических вузов и предполагают достаточно высокий уровень их математической подготовки. Данный учебник написан в соответствии с требованиями Государственного образовательного стандарта и Примерной программой дисциплины «Математика», утвержденной Минобразованием РФ. Основной принцип, которым руководствовался автор при подготовке курса теории вероятностей и математической статистики для экономистов, — повышение уровня фундаментальной математической подготовки студентов с усилением ее прикладной экономической направленности. Учебник состоит из двух разделов, отражающих основы дисциплины: I «Теория вероятностей» (гл. 1 «Основные понятия и теоремы теории вероятностей»; гл. 2 «Повторные независимые испытания»; гл. 3 «Случайные величины»; гл. 4 «Основные законы распределения»; гл. 5 «Многомерные случайные величины»; гл. 6 «Закон больших чисел и предельные теоремы») и II «Математическая статистика» (гл. 8 «Вариационные ряды и их характеристики»; гл. 9 «Основы математической теории выборочного метода»; гл. 10 «Проверка статистических гипотез»; гл. 11 «Дисперсионный анализ»; гл. 12 «Корреляционный анализ»; гл. 13 «Регрессионный анализ»; гл. 14 «Введение в анализ временных рядов»). Наряду с этим в учебнике в сжатой форме рассматривается применение вероятностных и математико-статистических методов в решении ряда прикладных экономических задач: в разделе I — это гл. 7 «Элементы теории случайных процессов и теории массового обслуживания» и в разделе II — гл. 15 «Линейные регрессионные модели финансового рынка» (гл. 15 (с. 497—510) написана доц. Б.А. Путко). Известно, что новый учебный материал усваивается студентами (особенно обучающимися без отрыва от производства) значительно легче, если он сопровождается достаточно большим числом иллюстрирующих его примеров. Поэтому автором сделана попытка соединить в одной

10

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

книге учебник и краткое руководство к решению задач. При подготовке задач были использованы различные пособия и методические материалы. Часть задач составлена автором специально для учебника. Задачи с решениями (в том числе с экономическим содержанием) рассматриваются на протяжении всего изложения учебного материала. Более сложные, комплексные, а также дополнительные задачи с решениями приводятся в ряде глав в специальном параграфе «Решение задач». Задачи для самостоятельной работы рассматриваются в конце каждой главы в рубрике «Упражнения» (нумерация задач единая — начинается в основном тексте главы и продолжается в этой рубрике). Ответы к этим задачам приводятся в конце книги. Необходимые для решения задач математико-статистические таблицы даются в приложении. В конце книги приводится развернутый предметный указатель основных понятий курса. В т р е т ь е издание включены новые параграфы: § 3.8 «Производящая функция» в разделе I «Теория вероятностей» и § 10.9 «Понятие о проверке гипотез методом последовательного анализа» в разделе II «Математическая статистика». Дополнено изложение ряда вопросов, например, приведены распределения Паскаля, отрицательное биномиальное и полиномиальное, даны формулы числовых характеристик условных распределений дискретных случайных величин, рассмотрены цепи Маркова, немонотонные функции случайных величин, ранговый критерий Вилкоксона—Манна—Уитни, сформулирована теорема Гаусса—Маркова об оценках метода наименьших квадратов, приведен пример многофакторной регрессионной модели оценки финансовых активов и т.д. Добавлены новые задачи с решениями и для самостоятельной работы. Исправлены замеченные опечатки и неточности. Автор выражает глубокую благодарность проф. В.С. Мхитаряну, проф. В.Ф. Гапошкину и доц. Г.Л. Эпштейну за рецензирование рукописи и сделанные ими замечания. В книге знаком  обозначается начало доказательства теоремы, знаком  — ее окончание; знаком  — начало условия задачи, знаком  — окончание ее решения.

11

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Введение Задача любой науки, в том числе экономической, состоит в выявлении и исследовании закономерностей, которым подчиняются реальные процессы. Найденные закономерности, относящиеся к экономике, имеют не только теоретическую ценность, они широко применяются на практике — в планировании, управлении и прогнозировании. Теория вероятностей — математическая наука, изучающая закономерности случайных явлений. Под случайными явлениями понимаются явления с неопределенным исходом, происходящие при неоднократном воспроизведении определенного комплекса условий. Очевидно, что в природе, технике и экономике нет явлений, в которых не присутствовали бы элементы случайности. Существуют два подхода к изучению этих явлений. Один из них — классический, или «детерминистский», состоит в том, что выделяются основные факторы, определяющие данное явление, а влиянием множества остальных, второстепенных, факторов, приводящих к случайным отклонениям его результата, пренебрегают. Таким образом выявляется основная закономерность, свойственная данному явлению, позволяющая однозначно предсказать результат по заданным условиям. Этот подход часто используется в естественных («точных») науках. При исследовании многих явлений и прежде всего социальноэкономических такой подход неприемлем. В этих явлениях необходимо учитывать не только основные факторы, но и множество второстепенных, приводящих к случайным возмущениям и искажениям результата, т.е. вносящих в него элемент неопределенности. Поэтому другой подход к изучению явлений состоит в том, что элемент неопределенности, свойственный случайным явлениям и обусловленный второстепенными факторами, требует специальных методов их изучения. Разработкой таких методов, изучением специфических закономерностей, наблюдаемых в случайных явлениях, и занимается теория вероятностей. Математическая статистика — раздел математики, изучающий математические методы сбора, систематизации, обработки и интерпретации результатов наблюдений с целью выявления статистических закономерностей. Математическая статистика опирается на теорию вероятностей. Если теория вероятностей изучает закономерности случайных явлений на основе абстрактного описания действитель-

12

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ности (теоретической вероятностной модели), то математическая статистика оперирует непосредственно результатами наблюдений над случайным явлением, представляющими выборку из некоторой конечной или гипотетической бесконечной генеральной совокупности. Используя результаты, полученные теорией вероятностей, математическая статистика позволяет не только оценить значения искомых характеристик, но и выявить степень точности получаемых при обработке данных выводов. Если говорить кратко, теория вероятностей позволяет находить вероятности «сложных» событий через вероятности «простых» событий (связанных с ними каким-либо образом), а математическая статистика по наблюденным значениям (выборке) оценивает вероятности этих событий либо осуществляет проверку предположений (гипотез) относительно этих вероятностей. Изучение вероятностных моделей дает возможность понять различные свойства случайных явлений на абстрактном и обобщенном уровне, не прибегая к эксперименту. В математической статистике, наоборот, исследование связано с конкретными данными и идет от практики (наблюдения) к гипотезе и ее проверке. При большом числе наблюдений случайные воздействия в значительной мере погашаются (нейтрализуются) и получаемый результат оказывается практически неслучайным, предсказуемым. Это утверждение (принцип) и является базой для практического использования вероятностных и математико-статистических методов исследования. Цель указанных методов состоит в том, чтобы, минуя сложное (а зачастую и невозможное) исследование отдельного случайного явления, изучить закономерности массовых случайных явлений, прогнозировать их характеристики, влиять на ход этих явлений, контролировать их, ограничивать область действия случайности. Первые работы, в которых зарождались основные понятия теории вероятностей, появились в ХVI—ХVII вв. Они принадлежали Д. Кардано, Б. Паскалю, П. Ферма, Х. Гюйгенсу и др. и представляли попытки создания теории азартных игр с целью дать рекомендации игрокам. Следующий этап развития теории вероятностей связан с именем Я. Бернулли (ХVII — начало ХVIII в.), который доказал теорему, теоретически обосновавшую накопленные ранее факты и названную в дальнейшем «законом больших чисел». Дальнейшее развитие теории вероятностей приходится на ХVII— XIX вв. благодаря работам А. Муавра, П. Лапласа, К. Гаусса, С. Пуассона и др. Весьма плодотворный период развития «математики случайного» связан с именами русских математиков П.Л. Чебышева, А.М. Ляпунова и А.А. Маркова (XIX — начало XX в.). Большой вклад в последующее развитие теории вероятностей и математической статистики внесли российские математики С.Н. Бернштейн, В.И. Романовский, А.Н. Колмогоров, А.Я. Хинчин, Ю.В. Линник,

13

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Б.В. Гнеденко, Н.В. Смирнов, Ю.В. Прохоров и др., а также ученые англо-американской школы Стьюдент (псевдоним В. Госсета), Р. Фишер, Э. Пирсон, Е. Нейман, А. Вальд и др. Особо следует отметить неоценимый вклад академика А.Н. Колмогорова в становление теории вероятностей как математической науки. Широкому внедрению математико-статистических методов исследования способствовало появление во второй половине ХХ в. электронных вычислительных машин и, в частности, персональных компьютеров. Статистические программные пакеты сделали эти методы более доступными и наглядными, так как трудоемкую работу по расчету различных статистик, параметров, характеристик, построению таблиц и графиков в основном стал выполнять компьютер, а исследователю осталась главным образом творческая работа: постановка задачи, выбор методов ее решения и интерпретация результатов. Появление мощных и удобных статистических пакетов для персональных компьютеров позволяет использовать их не только как специальный инструмент научных исследований, но и как общеупотребительный инструмент плановых, аналитических, маркетинговых отделов производственных и торговых корпораций, банков и страховых компаний, правительственных и медицинских учреждений и даже представителей мелкого бизнеса. Среди множества используемых для этих целей пакетов прикладных программ выделим популярные в России универсальные и специализированные статистические пакеты: отечественные STADIA, Эвриста, Статистик-консультант, Олимп: СтатЭксперт и американские STATGRAPHICS, SPSS, SYSTAT, STATISTICA/w и др.

14

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Раздел

I

Теория вероятностей

Глава 1. Основные понятия и теоремы теории вероятностей Глава 2. Повторные независимые испытания Глава 3. Случайные величины Глава 4. Основные законы распределения Глава 5. Многомерные случайные величины Глава 6. Закон больших чисел и предельные теоремы Глава 7. Элементы теории случайных процессов и теории массового обслуживания

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»



1

Основные понятия и теоремы теории вероятностей

1.1. Классификация событий Одним из основных понятий теории вероятностей является понятие события. Случайным событием (возможным событием или просто событием) называется любой факт, который в результате испытания может произойти или не произойти. Под испытанием (опытом, экспериментом) в этом определении понимается выполнение определенного комплекса условий, в которых наблюдается то или иное явление, фиксируется тот или иной результат. Испытание (опыт) может быть осуществлено человеком, но может проводиться и независимо от человека, выступающего в этом случае в роли наблюдателя. Приведем п р и м е р ы событий. 1. Появление герба (реверса — оборотной стороны) при подбрасывании монеты. 2. Выигрыш автомобиля по билету денежно-вещевой лотереи. 3. Выход бракованного изделия с конвейера предприятия. 4. Выпадение более 1000 мм осадков в данном географическом пункте за определенный год. Событие — это не какое-нибудь происшествие, а лишь возможный исход, результат испытания (опыта, эксперимента). События обозначаются прописными (заглавными) буквами латинского алфавита: А, В, С. Если при каждом испытании, при котором происходит событие А, происходит и событие В, то говорят, что А влечет за собой событие В (входит в В, является частным случаем, вариантом В ) или В включает событие А, и обозначают А ф В. Например, если событие А — изделие 1-го сорта, В — изделие 2-го сорта, С — изделие стандартное, то А ф С и В ф С. Если одновременно А ф В и В ф А, то в этом случае события А и В называют равносильными и обозначают А = В. Например, события «не все изделия данной партии стандартные» и «по крайней мере одно из изделий данной партии нестандартное» являются равносильными (хотя и имеют различные по форме словесные описания). События называются несовместными (несовместимыми), если наступление одного из них исключает наступление любого другого. В противном случае события называются совместными (совместимы-

16

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ми). Например, выигрыш по одному билету денежно-вещевой лотереи двух ценных предметов — события несовместные, а выигрыш тех же предметов по двум билетам — события совместные. Получение студентом на экзамене по одной дисциплине оценок «отлично», «хорошо» и «удовлетворительно» — события несовместные, а получение тех же оценок на экзаменах по трем дисциплинам — события совместные. Событие называется достоверным (обозначаем буквой ), если в результате испытания оно обязательно должно произойти. Событие называется невозможным (обозначаем символом ), если в результате испытания оно вообще не может произойти. Например, если в партии все изделия стандартные, то извлечение из нее стандартного изделия — событие достоверное, а извлечение при тех же условиях бракованного изделия — событие невозможное. События называются равновозможными, если в результате испытания по условиям симметрии ни одно из этих событий не является объективно более возможным. Например, извлечение туза, валета, короля или дамы из колоды карт либо появление герба или решки при подбрасывании монеты — события равновозможные. Так, если монета «правильная», выполнена симметрично, то нет никаких оснований считать «появление герба» при подбрасывании монеты событием объективно более возможным, чем «появление решки». Равновозможные события не могут появляться иначе, чем в испытаниях, обладающих симметрией возможных исходов; и наше н е з н а н и е того, какое из событий объективно более возможно при отсутствии симметрии исходов, не может служить основанием, чтобы считать события равновозможными. Несколько событий называются единственно возможными, если в результате испытания обязательно должно произойти хотя бы одно из них. Например, события, состоящие в том, что в семье из двух детей: А — «два мальчика», В — «один мальчик, одна девочка», С — «две девочки» — являются единственно возможными. Другой пример. События, состоящие в том, что при 10 выстрелах число m попаданий в цель: D – m < 2, E – m < 8, F – m > 5 также являются единственно возможными, так как при любом результате стрельбы обязательно произойдет хотя бы одно из этих событий (например, при m = 9 — событие F, при m = 1 — событие D или Е и т.д.). Несколько событий образуют полную группу (полную систему), если они являются единственно возможными и несовместными исходами испытания. Это означает, что в результате испытания обязательно должно произойти одно и только одно из этих событий. Так, в приведенных двух последних примерах события А, В, С образуют полную группу, так как они единственно возможные и несовмест-

17

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ные, а события D, E, F — полную группу не образуют, так как они только единственно возможные, но совместные1. Частным случаем событий, образующих полную группу, являются противоположные события. Два несовместных события, из которых одно должно обязательно произойти, называются противоположными. Событие, противоположное событию А, будем обозначать2 A . Очевидно, что A = A,  = ,  = . Например, «появление герба» и «появление решки» при подбрасывании монеты, «отсутствие бракованных изделий» и «наличие хотя бы одного бракованного изделия» в партии — события противоположные.

1.2. Классическое определение вероятности Для практической деятельности важно уметь сравнивать события по степени возможности их наступления. Очевидно, события: «выпадение дождя» и «выпадение снега» в первый день лета в данной местности, «выигрыш по одному билету» и «выигрыш по каждому из n приобретенных билетов» денежно-вещевой лотереи — обладают разной степенью возможности их наступления. Поэтому для сравнения событий нужна определенная мера. Численная мера степени объективной возможности наступления события называется вероятностью события. Это определение, к а ч е с т в е н н о отражающее понятие вероятности события, не является математическим. Чтобы оно таким стало, необходимо определить его к о л и ч е с т в е н н о. Пусть исходы некоторого испытания образуют полную группу событий и равновозможны, т.е. единственно возможны, несовместны и равновозможны. Такие исходы называются элементарными исходами, случаями или шансами3. При этом говорят, что испытание сводится к схеме случаев или «схеме урн» (ибо любую вероятностную задачу для рассматриваемого испытания можно заменить эквивалентной задачей с урнами и шарами разных цветов). Случай называется благоприятствующим (благоприятным) событию А, если появление этого случая влечет за собой появление события А. 1 В некоторых курсах теории вероятностей в понятие «полная группа событий» не включается требование несовместности событий. При такой трактовке события D, E, F также будут образовывать полную группу. 2

В литературе события А и

A называют также взаимно-дополнительными, а со-

бытие A отрицанием или дополнением события А. 3 В теоретико-множественной трактовке (см. § 1.12) такие исходы называют элементарными событиями.

18

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Согласно к л а с с и ч е с к о м у о п р е д е л е н и ю вероятность1 события А равна отношению числа случаев, благоприятствующих ему, к общему числу случаев, т.е.

P ( A) = где P(А) m n

m , n

(1.1)

— вероятность события А; — число случаев, благоприятствующих событию А; — общее число случаев.

 Пример 1.1. При бросании игральной кости возможны шесть исходов — выпадение 1, 2, 3, 4, 5, 6 очков. Какова вероятность появления четного числа очков? Р е ш е н и е. Все n = 6 исходов образуют полную группу событий и равновозможны, т.е. единственно возможны, несовместны и равновозможны. Событию А — «появление четного числа очков» благоприятствуют 3 исхода (случая) — 2, 4 и 6 очков. По формуле (1.1) P(А) = 3/6 = 1/2.  Классическое определение (точнее, к л а с с и ч е с к а я ф о р м у л а) вероятности (1.1) долгое время, с XVII вплоть до ХIХ в., рассматривалось действительно как о п р е д е л е н и е вероятности, так как в то время методы теории вероятностей применялись в основном к азартным играм, которые сводились к схеме случаев, или в задачах, которые искусственно сводились к этой схеме. В настоящее время формальное определение вероятности не дается (это понятие считается первичным и не определяется, а при его пояснении используют понятие относительной частоты события (см. § 1.3)). Поэтому классическое определение (классическую формулу) вероятности (1.1) следует рассматривать не как определение, а как метод вычисления вероятностей для испытаний, сводящихся к схеме случаев. Отметим с в о й с т в а вероятности события. 1. Вероятность любого события заключена между нулем и единицей, т.е. 0  P(A)  1.

(1.2)

2. Вероятность достоверного события равна единице, т.е. P() = 1. 3. Вероятность невозможного события равна нулю, т.е. P() = 0.  Свойства очевидны, так как P(А) = m/n, а число m благоприятствующих случаев для любого события удовлетворяет неравенству 1 Для вероятности события А в литературе используется также обозначение Pr(A) (сокращение слова probability (вероятность)).

19

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

0  m  n , для достоверного события равно n (m = n) и для невозможного события равно нулю (m = 0).  События, вероятности которых очень малы (близки к нулю) или очень велики (близки к единице), называются соответственно практически невозможными или практически достоверными событиями.

1.3. Статистическое определение вероятности Выше отмечено, что классическое определение вероятности применимо только для тех событий, которые могут появиться в результате испытаний, обладающих с и м м е т р и е й возможных исходов, т.е. сводящихся к схеме случаев. Однако существует большой класс событий, вероятности которых не могут быть вычислены с помощью классического определения. В первую очередь это события, которые не являются равновозможными исходами испытания. Например, если монета сплющена, то, очевидно, события «появление герба» и «появление решки» при подбрасывании монеты нельзя считать равновозможными, и формула (1.1) для расчета вероятности любого из них окажется неприменима. Но есть и другой подход при оценке вероятности событий, основанный на том, насколько ч а с т о будет появляться данное событие в произведенных испытаниях. В этом случае используется с т а т и с т и ч е с к о е о п р е д е л е н и е вероятности. Статистической вероятностью события А называется относительная частота (частость) появления этого события в n произведенных испытаниях, т.е.

m P ( A ) = w ( A ) = , n

(1.3)

где P ( A ) — статистическая вероятность события А; w(A) — относительная частота (частость) события А; m — число испытаний, в которых появилось событие А; n — общее число испытаний. В отличие от «математической» вероятности P(A), рассматриваемой в классическом определении (1.1), статистическая вероятность P ( A ) является характеристикой опытной, экспериментальной. Если Р(А) есть доля с л у ч а е в, благоприятствующих событию А, которая определяется непосредственно, без каких-либо испытаний, то P ( A ) есть доля тех ф а к т и ч е с к и п р о и з в е д е н н ы х и с п ы т а н и й, в которых событие А появилось. Статистическое определение вероятности, как и понятия и методы теории вероятностей в целом, применимы не к любым событиям с неопределенным исходом, которые в житейской практике

20

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

считаются случайными, а только к тем из них, которые обладают определенными с в о й с т в а м и1. 1. Рассматриваемые события должны быть исходами только тех испытаний, которые могут быть воспроизведены неограниченное число раз при одном и том же комплексе условий. Так, например, бессмысленно ставить вопрос об определении вероятностей возникновения войн, появления гениальных произведений искусства и т.п., так как речь идет о неповторимых в одинаковых условиях испытаниях, уникальных событиях. Или, например, не имеет смысла говорить о том, что данный студент сдаст семестровый экзамен по теории вероятностей, поскольку речь здесь идет о единичном испытании, повторить которое в тех же условиях нет возможности. И хотя приведенные в примерах события с неопределенным исходом относятся к категории «может произойти, а может и не произойти», такими событиями теория вероятностей не занимается. 2. События должны обладать так называемой статистической устойчивостью, или устойчивостью относительных частот. Это означает, что в различных сериях испытаний относительная частота (частость) события изменяется незначительно (тем меньше, чем больше число испытаний), колеблясь около постоянного числа. Оказалось, что этим постоянным числом является в е р о я т н о с т ь события (об этом идет речь в теореме Бернулли, приведенной в гл. 6). Факт приближения относительной частоты, или частости, события к его вероятности при увеличении числа испытаний, сводящихся к схеме случаев, подтверждается многочисленными массовыми экспериментами, проводимыми разными лицами со времен возникновения теории вероятностей. Так, например, в опытах Бюффона (XVIII в.) относительная частота (частость) появления герба при 4040 подбрасываниях монеты оказалась равной 0,5069, в опытах Пирсона (XIX в.) при 23 000 подбрасываниях — 0,5005, практически не отличаясь от вероятности этого события, равной 0,5. 3. Число испытаний, в результате которых появляется событие А, должно быть достаточно велико, ибо только в этом случае можно считать вероятность события Р(А) приближенно равной ее относительной частоте. Резюмируя, можно сказать, что теория вероятностей изучает лишь такие события, в отношении которых имеет смысл не только утверждение об их случайности, но и возможна объективная оценка относительной частоты их появления. Так, утверждение, что при выполнении определенного комплекса условий S вероятность собы1 В прикладной литературе выполнение приводимых ниже свойств событий с неопределенным исходом в исследуемой реальной действительности иногда называют условиями действия статистического ансамбля.

21

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

тия равна p, означает не только случайность события А, но и определенную, достаточно близкую к p, долю появлений события А при большом числе испытаний; а значит, выражает определенную объективную (хотя и своеобразную) связь между комплексом условий S и событием А (не зависящую от субъективных суждений о наличии этой связи того или иного лица). И даже просто существование вероятности p (когда само значение p неизвестно) сохраняет качественно суть этого утверждения, выделенную курсивом. Легко проверить, что свойства вероятности (см. (1.2)), вытекающие из классического определения (1.1), сохраняются и при статистическом определении вероятности (1.3).

1.4. Геометрическое определение вероятности Одним из недостатков классического определения вероятности (1.1), ограничивающим его применение, является то, что оно предполагает к о н е ч н о е ч и с л о возможных исходов испытания. Оказывается, иногда этот недостаток можно преодолеть, используя г е о м е т р и ч е с к о е определение вероятности, т.е. находя вероятность попадания точки в некоторую область (отрезок, часть плоскости и т.п.). Пусть, например, плоская фигура g составляет часть плоской фигуры G. На фигуру G наудачу бросается точка. Это означает, что все точки области G «равноправны» в отношении попадания туда брошенной случайной точки. Полагая, что вероятность события А — попадания брошенной точки на фигуру g — пропорциональна площади этой фигуры и не зависит ни от ее расположения относительно G, ни от формы g, найдем

P ( A) =

Sg SG

,

(1.4)

где Sg и SG — соответственно площади областей g и G (рис. 1.1). Фигуру g называют благоприятствующей (благоприятной) событию А. Область, на которую распространяется понятие геометрической вероятности, может быть одномерной (прямая, отрезок) и трехмерной (некоторое тело в пространстве). Обозначая меру (длину, площадь, объем) области через mes, приходим к следующему определению. О п р е д е л е н и е. Геометрической вероятностью события А называется отношение меры области, благоприятствующей появлению события А, к мере всей области, т.е.

P ( A) =

mes g . mes G

22

(1.5)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

y

y K

1

G g

L

G

0,5

g C

A M x

0

0

Рис. 1.1

0,5

x

Рис. 1.2

 Пример 1.2. Два лица — А и В — условились встретиться в определенном месте, договорившись только о том, что каждый является туда в любой момент времени между 11 и 12 ч и ждет в течение 30 мин. Если партнер к этому времени еще не пришел или уже успел покинуть установленное место, встреча не состоится. Найти вероятность того, что встреча состоится. Р е ш е н и е. Обозначим моменты прихода в определенное место лиц А и В соответственно через х и у. В прямоугольной системе координат Оху возьмем за начало отсчета 11 ч, а за единицу измерения — 1 ч. По условию 0  х  1, 0  у  1. Этим неравенствам удовлетворяют координаты любой точки, принадлежащей квадрату OKLM со стороной, равной 1 (рис. 1.2). Событие С — встреча двух лиц — произойдет, если разность между х и у не превзойдет 0,5 ч (по абсолютной величине), т.е. у – х   0,5. Решение последнего неравенства есть полоса х – 0,5  у  х + 0,5, которая внутри квадрата на рис. 1.2 представляет заштрихованную область g. По формуле (1.4)

P (C ) =

Sg SG

=

1  2 (1 2 )  0,52 12

= 0, 75 ,

так как площадь области g равна площади квадрата G без суммы площадей двух угловых (незаштрихованных) треугольников. 

1.5. Элементы комбинаторики Для успешного решения задач с использованием классического определения вероятности необходимо знать основные правила и формулы комбинаторики — раздела математики, изучающего, в частности, методы решения комбинаторных задач —задач на подсчет числа различных комбинаций. Пусть Аi (i = 1, 2, …, n) — элементы конечного множества. Сформулируем два важных правила, часто применяемых при решении комбинаторных задач.

23

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Правило суммы. Если элемент А1 может быть выбран n1 способами, элемент А2 — другими n2 способами, А3 — отличными от первых двух n3 способами и т.д., Аk — nk способами, отличными от первых (k – 1), то выбор одного из элементов: или А1, или А2, …, или Аk может быть осуществлен n1+ n2+ …+ nk способами.  Пример 1.3. В ящике 300 деталей. Известно, что 150 из них — 1-го сорта, 120 — 2-го, а остальные — 3-го сорта. Сколько существует способов извлечения из ящика одной детали 1-го или 2-го сорта? Р е ш е н и е. Деталь 1-го сорта может быть извлечена n1 = 150 способами, 2-го сорта — n2 = 120 способами. По правилу суммы существует n1 + n2 = 150 + 120 = 270 способов извлечения одной детали 1-го или 2-го сорта.  Правило произведения. Если элемент А1 может быть выбран n1 способами, после каждого такого выбора элемент А2 может быть выбран n2 способами и т.д., после каждого (k–1) выбора элемент Аk может быть выбран nk способами, то выбор всех элементов А1, А2, …, Аk в указанном порядке может быть осуществлен n1n2…nk способами.  Пример 1.4. В группе 30 человек. Необходимо выбрать старосту, его заместителя и профорга. Сколько существует способов это сделать? Р е ш е н и е. Старостой может быть выбран любой из 30 учащихся, его заместителем — любой из оставшихся 29, а профоргом — любой из оставшихся 28 учащихся, т.е. n1 = 30, n2 = 29, n3 = 28. По правилу произведения общее число способов выбора старосты, его заместителя и профорга равно n1n2n3 = 30Ѓ29Ѓ28 = 24 360 способов.  Пусть дано множество из n различных элементов. Из этого множества могут быть образованы подмножества из m элементов (0  m  n). Например, из 5 элементов а, b, с, d, е могут быть отобраны комбинации по 2 элемента — аb, cd, еb, bа, се и т.д., по 3 элемента — abc, cbd, cba, eаd и т.д. Если комбинации из n элементов по m отличаются либо составом элементов, либо порядком их расположения (либо и тем и другим), то такие комбинации называют размещениями из n элементов по m. Число размещений из n элементов по m равно

Anm = n ( n  1)( n  2 ) ... ( n  m + 1) ,   

(1.6)

n! , ( n  m )!

(1.7)

m 

или

nm =

где n! равно произведению n первых чисел натурального ряда, т.е. n! = 1Ѓ2…n.

24

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 1.5. Расписание одного дня состоит из 5 уроков. Определить число вариантов расписания при выборе из 11 дисциплин. Р е ш е н и е. Каждый вариант расписания представляет набор 5 дисциплин из 11, отличающийся от других вариантов как составом дисциплин, так и порядком их следования (или и тем и другим), т.е. является размещением из 11 элементов по 5. Число вариантов расписаний, т.е. число размещений из 11 по 5, находим по формуле (1.6) 5 11 = 11  10  9  8  7 = 55 440.    5 

Если комбинации из n элементов по m отличаются только составом элементов, то их называют сочетаниями из n элементов по m. Число сочетаний из n элементов по m равно

Cnm = или

n ( n  1)( n  2 ) ... ( n  m + 1)

1  2...m n ! . Cnm = m!( n  m )!

(1.8) (1.9)

Так как по определению 0! = 1, то Cn0 = 1, Cnn = 1. Свойства числа сочетаний:

Cnm = Cnn  m , m n

C +C

Cn0

m +1 n

+ Cn1

(1.10)

=C

+ Cn2

m +1 n +1

,

+ ... + Cnn

(1.11) n

=2 .

(1.11)

 Пример 1.6. В шахматном турнире участвуют 16 человек. Сколько партий должно быть сыграно в турнире, если между любыми двумя участниками должна быть сыграна одна партия? Р е ш е н и е. Каждая партия играется двумя участниками из 16 и отличается от других только составом пар участников, т.е. представляет собой сочетание из 16 элементов по 2. Их число находим по формуле (1.8):

C162 =

16  15 = 120.  1 2

Если комбинации из n элементов отличаются только порядком расположения этих элементов, то их называют перестановками из n элементов. Число перестановок из n элементов равно Pn = n!

(1.12)

 Пример 1.7. Порядок выступления 7 участников конкурса определяется жребием. Сколько различных вариантов жеребьевки при этом возможно?

25

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Р е ш е н и е. Каждый вариант жеребьевки отличается только порядком участников конкурса, т.е. является перестановкой из 7 элементов. Их число по формуле (1.12): P7 = 7! = 1Ѓ2Ѓ3Ѓ4Ѓ5Ѓ6Ѓ7 = 5040.  Если в размещениях (сочетаниях) из n элементов по m некоторые из элементов (или все) могут оказаться одинаковыми, то такие размещения (сочетания) называют размещениями (сочетаниями) с повторениями из n элементов по m. Например, из 5 элементов а, b, с, d, е по 3 размещениями с повторениями будут abc, cbа, bcd, cdb, bbe, ebb, beb, ddd и т.д., сочетаниями с повторениями будут abc, bcd, bbe, ddd и т.д. Число размещений с повторениями из n элементов по m равно

nm = nm ,

(1.13)

а число сочетаний с повторениями из n элементов по m равно

C nm = Cnm+ m 1 ,

(1.14)

m

где Cn + m 1 определяется по формуле (1.8) или (1.9).  Пример 1.8. В конкурсе по 5 номинациям участвуют 10 кинофильмов. Сколько существует вариантов распределения призов, если по каждой номинации установлены: а) различные призы; б) одинаковые призы? Р е ш е н и е. а) Каждый из вариантов распределения призов представляет собой комбинацию 5 фильмов из 10, отличающуюся от других комбинаций как составом фильмов, так и их порядком по номинациям (или и тем и другим), причем одни и те же фильмы могут повторяться несколько раз1, т.е. представляет размещение с повторениями из 10 элементов по 5. Их число по формуле (1.13) равно

105 = 105 = 100 000. б) Если по каждой номинации установлены одинаковые призы, то порядок следования фильмов в комбинации 5 призеров значения не имеет, и число вариантов распределения призов представляет собой число сочетаний с повторениями из 10 элементов по 5, определяемое по формуле (1.14) с учетом равенства (1.8):

14  13  12  11  10 C105 = C105 + 51 = C145 = = 2002.  1 2  3  4  5 1 Любой фильм может получить призы как по одной, так и по нескольким (включая все пять) номинациям.

26

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Если в перестановках из общего числа n элементов есть k различных элементов, при этом 1-й элемент повторяется n1 раз, 2-й элемент — n2 раз, k-й элемент — nk раз, причем n1 + n2 +…+ nk = n, то такие перестановки называют перестановками с повторениями из n элементов. Число перестановок с повторениями из n элементов равно

Pn ( n1 , n2 , ..., nk ) =

n! . n1! n2! ...nk!

(1.15)

 Пример 1.9. Сколько существует семизначных чисел, состоящих из цифр 4, 5 и 6, в которых цифра 4 повторяется 3 раза, а цифры 5 и 6 — по 2 раза? Р е ш е н и е. Каждое семизначное число отличается от другого порядком следования цифр (причем n1 = 3, n2 = 2, n3 = 2, а их сумма равна 7), т.е. является перестановкой с повторениями из 7 элементов. Их число по формуле (1.15):

P7 ( 3; 2; 2 ) =

7! = 210 .  3! 2! 2!

1.6. Непосредственное вычисление вероятностей Для непосредственного вычисления вероятности используется ее классическое определение (1.1).  Пример 1.10. Буквы Т, Е, И, Я, Р, О написаны на отдельных карточках. Ребенок берет карточки в случайном порядке и прикладывает одну к другой: а) 3 карточки; б) все 6 карточек. Какова вероятность того, что получится слово: а) «ТОР»; б) «ТЕОРИЯ»? Р е ш е н и е. а) Пусть событие А — получение слова «ТОР». Различные комбинации трех букв из имеющихся шести представляют размещения, так как могут отличаться как составом входящих букв, так и порядком их следования (или и тем и другим), т.е. общее число случаев n = A63 , из которых благоприятствует событию А т = 1 случай. По формуле (1.1)

P ( A) =

1 1 m 1 . = = = n A63 6  5  4 120

б) Пусть событие B — получение слова «ТЕОРИЯ». Различные комбинации шести букв из имеющихся шести представляют собой перестановки, так как отличаются только порядком следования букв; т.е. общее число случаев n = P6 = 6! , из которых благоприятствует событию B m = 1 случай. Поэтому

P ( B) =

m 1 1 1 = = = . n P6 6! 720

27

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 1.11. Используя условие примера 1.10, найти вероятность того, что получится слово «АНАНАС», если на отдельных карточках написаны три буквы А, две буквы Н и одна буква С. Р е ш е н и е. Пусть событие В — получение слова «АНАНАС». Так же, как и в примере 1.10 б, общее число случаев n = P6 = 6! , но теперь число случаев m, благоприятствующих событию В, существенно больше, так как перестановка трех букв А, осуществляемая P3 = 3! способами, и перестановка двух букв Н (Р2 = 2! способами) не меняет собранное из карточек слово «АНАНАС»; по правилу произведения (см. § 1.5) m = P3ЃP2 . Итак,

P ( B) =

m P3  P2 3! 2! 1 = = = . 6! 60 n P6

(Задачу можно решить и иначе, рассматривая комбинации букв как перестановки с повторениями (см. § 1.5), из которых событию В благоприятствует 1 комбинация:

P ( B ) = 1 : P6 ( 3; 2; 1) = 1 :

6! 1 = .)  3! 2! 1! 60

 Пример 1.12. Из 30 студентов 10 имеют спортивные разряды. Какова вероятность того, что выбранные наудачу 3 студента — разрядники? Р е ш е н и е. Пусть событие А — 3 выбранных наудачу студента — разрядники. Общее число случаев выбора 3 студентов из 30 равно n = C303 , так как комбинации из 30 студентов по 3 представляют собой сочетания, ибо отличаются только составом студентов. Точно так же 3 число случаев, благоприятствующих событию А, равно n = C10 . Итак,

P ( A) =

m C103 10  9  8 30  29  28 61 : = = =  0, 030.  1 2  3 1 2  3 203 n C303

 Пример 1.13. В лифт на 1-м этаже девятиэтажного дома вошли 4 человека, каждый из которых может выйти независимо друг от друга на любом этаже с 2-го по 9-й. Какова вероятность того, что все пассажиры выйдут: а) на 6-м этаже; б) на одном этаже? Р е ш е н и е. а) Пусть событие А — все пассажиры выйдут на 6-м этаже. Каждый пассажир может выйти со 2-го по 9-й этаж 8 способами. По правилу произведения (§ 1.5) общее число способов выхода четырех пассажиров из лифта равно n = 8Ѓ8Ѓ8Ѓ8 = 84. Число случаев, благоприятствующих событию А, равно m = 1. Таким образом,

P ( A) =

m 1 = = 0,00024. n 84

28

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

б) Пусть событие В — все пассажиры выйдут на одном этаже. Теперь событию В будут благоприятствовать m = 8 случаев (все пассажиры выйдут или на 2-м этаже, или на 3-м, …, или на 9-м этаже). Поэтому

P ( B) =

m 8 1 = 4 = 3 = 0,00195. n 8 8

(Общее число способов выхода пассажиров из лифта можно найти иначе, если учесть, что комбинации номеров этажей, на которых может выйти из лифта каждый из четырех пассажиров, например 3456, 4356, 4433, 5666, 5555, 9785 и т.д., представляют собой размещения с повторениями из 8 элементов (этажей) по 4. Их число по формуле (1.13) равно n = 84 = 84 .)   Пример 1.14. По условиям лотереи «Спортлото 6 из 45» участник лотереи, угадавший 4, 5, 6 видов спорта из отобранных при случайном розыгрыше 6 видов спорта из 45, получает денежный приз. Найти вероятность того, что будут угаданы: а) все 6 цифр; б) 4 цифры. Р е ш е н и е. а) Пусть событие А — угадывание всех 6 видов спорта из 45. Общее число всех случаев, т.е. всех вариантов заполне6 ния карточек спортлото, есть n = C45 , так как каждый вариант заполнения отличается только составом видов спорта. Число случаев, благоприятствующих событию А, есть m = 1. Поэтому

P ( A) =

1 6 C 45

=

1 2  3  4  5  6  0, 00000012. 45  44  43  42  41  40

б) Пусть событие В — угадывание 4 видов спорта из 6 выигравших из 45. Вначале найдем число способов, какими можно выбрать 4 вида спорта из 6 выигравших, т.е. C 64. Но это еще не все: к каждой комбинации 4-х выигравших видов спорта из 6 следует присоединить комбинацию 2-х невыигравших видов из 45 – 6 = 39; таких комбинаций C392 . По правилу произведения общее число случаев, благоприятст4 2 вующих событию В, равно m = C6  C39 . Итак,

P ( B) =

m C64  C392 = = 0, 00136.  6 n C45

 Пример 1.15. В партии 100 изделий, из которых 4 — бракованные. Партия произвольно разделена на две равные части, которые отправлены двум потребителям. Какова вероятность того, что все бракованные изделия достанутся: а) одному потребителю; б) обоим потребителям поровну?

29

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Р е ш е н и е. а) Пусть событие А — все бракованные изделия достанутся одному потребителю. Общее число способов, какими 50 можно выбрать 50 изделий из 100, равно n = C100 . Событию А благоприятствуют случаи, когда из 50 изделий, отправленных одному потребителю, будет либо 46 стандартных из 96 (и все 4 бракованных) изделий, либо 50 стандартных из 96 (и 0 бракованных); их 46 4 50 0 число m = C96  C4 + C96 C4 . Поэтому

P ( A) =

=

m C9646  C44 + C9650  C40 C9646  1 + C9646  1 2C9646 = = = 50 = 50 50 n C100 C100 C100

2  96!  50!  50! 2  96!  46!  47  48  49  50 = = 0,117 , 46!  50!  100! 46!  96!  97  98  99  100

где 100! = 96!Ѓ97Ѓ98Ѓ99Ѓ100, 50! = 46!Ѓ47Ѓ48Ѓ49Ѓ50. б) Пусть событие В — в каждой партии по 2 бракованных изделия. Теперь событию В будут благоприятствовать случаи, когда из 50 изделий, отправленных одному потребителю, будут 48 стандартных из 96 и 48 2 бракованных из 4, их число m = C96  C42 . Поэтому

P ( B) =

=

m C9648  C42 96!  4!  50!  50! = = = 50 48!  48!  2!  2!  100! n C100

96!( 2!  3  4 )( 48!  49  50 )

( 48!)

2

2

2!  2 ( 96!  97  98  99  100 )

=

3  4 ( 49  50 )

2

2  97  98  99  100

= 0,383. 

 Пример 1.15а. В магазине было продано 21 из 25 холодильников трех марок, имеющихся в количествах 5, 7 и 13 штук. Полагая, что вероятность быть проданным для холодильника каждой марки одна и та же, найти вероятность того, что остались нераспроданными холодильники: а) одной марки; б) трех разных марок. Р е ш е н и е. а) Пусть событие А — остались нераспроданными холодильники одной марки. Общее число способов, которыми можно получить 4 (непроданных) холодильника из 25, равно n = C254 . Число способов, которыми можно получить 4 холодильника первой марки из 5, равно m1 = C54 ; второй марки из 7 – m2 = C74 и 4 третьей марки из 13 — m3 = C13 . Событию А по правилу суммы 4 4 4 (§ 1.5) благоприятствует m = m1 + m2 + m3 = C5 + C7 + C13 случаев. Поэтому

P ( A) =

755 m C54 + C74 + C134 5 + 35 + 715 = = = = 0,060. 4 12 650 12 650 n C25

30

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

б) Пусть событие В — остались нераспроданными холодильники трех разных марок. Событие В может произойти по одному из трех вариантов. По первому варианту событие В произойдет, если останутся нераспроданными 1, 1, 2 холодильников соответственно 1-й, 2-й и 3-й марок; по второму варианту — 1, 2, 1 и по третьему варианту останутся нераспроданными 2, 1, 1 холодильников соответственно 1-й, 2-й и 3-й марок. Так как до продажи имелось 5 холодильников 1-й марки, 7 — 2-й и 13 холодильников 3-й марки, то по правилу произведения (§ 1.5) число случаев, благоприятствующих 1 1 2 1 2 1 первому варианту, равно m1 = C5 C7 C13 ; второму — m2 = C5 C7 C13 ; 2 1 1 третьему варианту — m3 = C5 C7 C13 . Общее число случаев, благоприятствующих событию В, равно m = m1 + m2 + m3. Теперь

P ( B) = =

m m1 + m2 + m3 C51C71C132 + C51C72C131 + C52C71C131 = = = n n C254

5  7  78 + 5  21  13 + 10  7  13 5005 = = 0,396.  12 650 12 650

 Пример 1.16. За круглым столом рассаживаются 5 мужчин и 5 женщин. Найти вероятность того, что: а) никакие два лица одного пола не сядут рядом; б) супруги сядут рядом, если эти мужчины и женщины образуют 5 супружеских пар. Р е ш е н и е. а) Пусть событие А — никакие два лица одного пола не сядут рядом. Общее число способов рассадки 10 лиц на 10 местах определяется числом перестановок n = P10 = 10!. Если женщины займут четные места 5! способами, то мужчины будут занимать нечетные места также 5! способами, и наоборот, т.е. число случаев, благоприятствующих событию А, равно m1 = 2(5!)2. Итак,

P ( A) =

m1 2(5!)2 2 1202 = = = 0, 00794. 10! 3 628 800 n

б) Пусть событие В — супруги, образующие пять супружеских пар, сядут рядом. Теперь число случаев m2, благоприятствующих событию B, определяется числом 5! всевозможных перестановок 5 супружеских пар, причем в каждой паре возможна перестановка мужа и жены; по правилу произведения m2 = 5!25. Итак,

P ( B) =

m2 5!25 120  32 = = = 0,00106.  n 10! 3 628 800

 Пример 1.16а. В аудитории m = 25 студентов. Найти вероятность того, что хотя бы у двух студентов дни рождения совпадают. При ка-

31

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ком числе m студентов вероятность того же события не меньше чем 0,95? (Полагаем равновозможность рождений в любой день года.) Р е ш е н и е. Пусть событие А — дни рождения хотя бы двух студентов из m присутствующих в аудитории совпадают. Найдем вероятность противоположного события A — дни рождения всех студентов различны. Число случаев, благоприятствующих событию A , есть число размещений из n = 365 элементов (дней года) по m, т.е. Anm . Общее число случаев определяется также числом размещений из n элементов по m, но размещений с повторениями, т.е. A nm = n m (см. (1.13)). Согласно классическому определению вероятности

P( A) =

Anm n(n  1)...(n  m + 1) = nm nm

и для n = 365

P( A) = 1 Љ P( A) = 1 Љ

365  364...(365 Љ m + 1) 365m

(*)

При m = 25 искомая вероятность, рассчитанная по формуле (*), составит Р(А) = 0,569. Вычисляя вероятности Р(А) для различных m, нетрудно убедиться в том, что неравенство Р(А) > 0,95 будет выполняться при m  47, т.е. достаточно лишь 47 студентов в аудитории, чтобы с вероятностью, не меньшей чем 0,95, утверждать, что по крайней мере у двух из них дни рождения совпадают.   Пример 1.17. В купейный вагон (9 купе по 4 места) семи пассажирам продано 7 билетов. Найти вероятности того, что пассажиры попали: а) в два купе; б) в семь купе; в) в три купе. Р е ш е н и е. а) Пусть событие А — пассажиры попали в два купе. Общее число способов выбора 7 любых мест из имеющихся в 7 вагоне 36 определяется числом сочетаний n = C36 . Для нахождения числа m1 случаев, благоприятствующих событию А, учтем, что 2 купе из 9 можно выбрать C92 способами, а 7 мест из имеющихся в двух купе 8 мест — C87 способами. По пра2  C87 . Итак, вилу произведения m1 = C36

P ( A) =

m1 C92  C87 36  8 = = = 0, 0000345. 7 n 8 347 680 C36

б) Пусть событие B — пассажиры попали в семь купе. 7 купе из 9 можно выбрать C97 способами. Семь мест в семи купе можно полу-

32

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

чить, если в каждом купе выбрать по одному месту из четырех, что возможно 47 способами. Общее число случаев, благоприятствующих событию B, по правилу произведения равно m2 = C97  47. Итак,

P ( B) =

m2 C97  47 36 16 384 = = = 0, 07066. 7 n 8 347 680 C36

в) Пусть событие D — пассажиры попали в три купе. 3 купе из 9 можно выбрать C93 способами, а число способов выбора семи мест из 12 в трех купе определяется сложнее, чем в п. а) и б). Действительно, возможные варианты выбора 7 мест из 12 в трех купе следующие: 4 + 2 + 1, 3 + 3 + 1, 3 + 2 + 2, а за счет перестановок купе таких вариантов будет соответственно 6, 3 и 3. Каждый из этих вариантов по правилу произведения может быть получен C44 C42 C41 , C43C43C41 , C43C42 C42 способами соответственно. В результате общее число случаев, благоприятствующих событию D, равно m3 = C93 (6C44 C42 C41 + 3 C43C43C41 + 3C43C42 C42 ) =

= 84(6  24 + 3  64 + 3 144) = 84  768 = 64 512. Итак,

P ( D) =

m3 64 512 = = 0, 00773.  n 8 347 680

1.7. Действия над событиями Введем понятие суммы, произведения и разности событий. О п р е д е л е н и е. Суммой нескольких событий называется событие, состоящее в наступлении хотя бы одного из данных событий. Если А и В — совместные события, то их сумма1 А + В обозначает наступление или события А, или события В, или обоих событий вместе. Если А и В — несовместные события, то их сумма А + В означает наступление или события А, или события В. О п р е д е л е н и е. Произведением нескольких событий называется событие, состоящее в совместном наступлении всех этих событий. Если А, В, С — совместные события, то их произведение1 АВС означает наступление и события А, и события В, и события С. О п р е д е л е н и е. Разностью1 А — В двух событий А и В называется событие, которое состоится, если событие А произойдет, а событие В не произойдет.

1

Для суммы событий А и В используется также обозначение A  B , для произ-

ведения тех же событий — A  B , а для их разности — A \ В (см. § 1.12).

33

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 1.17а. Победитель соревнования награждается: призом (событие А), денежной премией (событие В), медалью (событие С). Что представляют собой события: а) А + В; б) АВС; в) АB – C? Р е ш е н и е. а) Событие А + В состоит в награждении победителя или призом, или премией, или и тем и другим. б) Событие АВС состоит в награждении победителя одновременно и призом, и премией, и медалью. в) Событие АВ – С состоит в награждении победителя одновременно и призом, и премией без выдачи медали.  Ниже (§ 1.12) рассматривается теоретико-множественная трактовка основных понятий теории вероятностей. Здесь же дадим геометрическую интерпретацию основных действий над событиями с помощью диаграмм Венна. Пусть, например, внутри прямоугольника (рис. 1.3) выбирается наудачу точка (достоверное событие ), и событие А состоит в попадании этой точки в меньший круг (рис. 1.3, а), а событие В — в больший круг (рис. 1.3, б). Тогда сумма событий А + В означает попадание точки во всю заштрихованную область обоих кругов (рис. 1.3, в), а произведение АВ — в общую часть кругов (рис. 1.3, г). На рис. 1.3, д, е заштрихованные области показывают события  и B , противоположные событиям А и В, а на рис. 1.3, ж и з — разности событий А — В и В — А.

Рис. 1.3

34

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 1.18. Убедиться в справедливости жающих законы де Моргана:

равенств, выра-

а) A + B + ... + K = A B...K ; б) AB...K = A + B + ... + K . Р е ш е н и е. а) Если событие А + В +…+ К состоит в появлении хотя бы одного из данных событий А, В, …, К, то противоположное событие A + B + ... + K означает непоявление всех данных событий, т.е. произведение событий A B...K . б) Если событие АВ…К состоит в совместном наступлении всех данных событий А, В, …, К, то противоположное событие AB...K означает непоявление хотя бы одного из этих событий, т.е. сумму

A + B + ... + K . На рис. 1.3, и и к приведенные соотношения между событиями иллюстрируются на примере двух событий.  Если событие А представляет собой сумму н е с о в м е с т н ы х событий А1, А2, …, Аn, т.е. А = А1 + А2 +…+ Аn, то говорят, что событие А распадается на n частных случаев (вариантов) А1, А2, …, Аn. Операции сложения и умножения событий обладают следующими с в о й с т в а м и: 1. А + В = В + А — коммутативность сложения. 2. А + (В + С) = (А + В) + С — ассоциативность сложения. 3. АВ = ВА — коммутативность умножения. 4. А(ВС) = (AB)C — ассоциативность умножения. 5. А(В + С) = АВ + АС; А + ВС = (A + B)(A + C) — законы дистрибутивности. Последние два свойства иллюстрируются на рис. 1.3, л и м. Из определения операций над событиями вытекают очевидные равенства: A + A = A, AA = A; A +  = , A = A; A +  = A, A = ; A + A = , AA = ;  +  = ,  = .

.

 Пример 1.18а. Упростить выражения: а) D = ( A + B )( A + B )( A + B ); ) E = A + AB + BC + AC. Р е ш е н и е. а) Используя приведенные выше свойства операций сложения и умножения событий, получим: D = ( A + B )( A + B )( A + B ) = ( AA + AB + AB + BB )( A + B ). Так как AA = , AB + AB = ( A + A) B = B = B, BB = B, то

D = ( + B + B )( A + B ) = B( A + B ) = AB + BB = AB +  = AB. б) Используя закон де Моргана (см. пример 1.18) и приведенные выше свойства, получим E = ( A + AB ) + BC + AC = A + BC + ( A + C ) =

= ( A + A) + BC + C ) =  + ( BC + C ) = . 

35

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1.8. Теорема сложения вероятностей Сформулируем теорему (правило) с л о ж е н и я вероятностей. Теорема. Вероятность суммы конечного числа несовместных событий равна сумме вероятностей этих событий: Р(А + В + … + К) =Р(А) + Р(В) + … + Р(K).

(1.16)

 Докажем теорему для схемы случаев, рассматривая сумму двух событий. Пусть в результате испытания из общего числа n равновозможных и несовместных (элементарных) исходов испытания (случаев) событию А благоприятствует m1 случаев, а событию В — m2 случаев (рис. 1.4). Bfm

Afm

2  1   ЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃ   

n

Рис. 1.4 Согласно классическому определению P ( A ) =

m1 m , P ( B) = 2 . n n

Так как события А и В несовместные, то ни один из случаев, благоприятствующих одному из этих событий, не благоприятствует другому (см. рис. 1.4). Поэтому событию А +В будет благоприятствовать m1 + m2 случаев. Следовательно,

P ( A + B) =

m1 + m2 m1 m2 = + = P ( A) + P ( B ) .  n n n

Следствие 1. Сумма вероятностей событий, образующих полную группу, равна единице: Р(А) + Р(В) +…+ Р(К) = 1.

(1.17)

 Если события А, В, …, К образуют полную группу, то они единственно возможные и несовместные. Так как события А, В, …, К — единственно возможные, то событие А + В +…+ К, состоящее в появлении в результате испытания хотя бы одного из этих событий, является достоверным1, т.е. А + В +…+ К =  и его вероятность равна единице: P() = Р(А + В + … + К) = 1. 1 Поэтому полную группу событий можно было бы определить и иначе, чем в § 1.1: несколько событий образуют полную группу (систему), если они являются несовместными исходами испытания и их сумма представляет собой достоверное событие.

36

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

В силу того, что события А, В, …, К — несовместные, к ним применима теорема сложения (1.16), т.е. Р(А + В + … + К) = Р(А) + Р(В) + … + Р(К) = 1.  Следствие 2. Сумма вероятностей противоположных событий равна единице: Р(А) + P ( A) = 1. (1.18)  Утверждение (1.18) следует из того, что противоположные события образуют полную группу.   Пример 1.19. Вероятность выхода изделия из строя при эксплуатации сроком до одного года равна 0,13, а при эксплуатации сроком до 3 лет — 0,36. Найти вероятность выхода изделия из строя при эксплуатации сроком от 1 года до 3 лет. Р е ш е н и е. Пусть события А, В, С — выход из строя изделий при эксплуатации сроком соответственно до 1 года, от 1 года до 3 лет, свыше 3 лет, причем по условию Р(А) = 0,13, Р(С) = 0,36. Очевидно, что C = А + В, где А и В — несовместные события. По теореме сложения Р(С) = Р(А) + Р(В), откуда Р(В) = Р(С) – Р(А) = = 0,36 – 0,13 = 0,23.  З а м е ч а н и е. Следует еще раз подчеркнуть, что рассмотренная теорема сложения применима только для несовместных событий и попытка ее использования в виде (1.16) для совместных событий приводит к неверным и даже абсурдным результатам. Например, пусть вероятность события Ai — выигрыша по любому билету денежно-вещевой лотереи, т.е. Р(Ai) = 0,05, и приобретено 100 билетов (i = 1, 2, …, 100). Тогда, применяя теорему сложения, получим, что вероятность выигрыша хотя бы по одному из 100 билетов, т.е. Р(А1+А2+…+Аi +…+А100) = Р(А1)+Р(А2)+…+Р(Аi)+…+Р(А100) = = 0,05 + 0,05 + ... + 0,05 = 5.

   100 

Абсурдность полученного ответа (вероятность любого события не может быть больше 1) объясняется неприменимостью в данном случае теоремы сложения, ибо выигрыш по каждому билету, т.е. события А1, А2, …, А100 являются событиями совместными.

1.9. Условная вероятность события. Теорема умножения вероятностей. Независимые события Как отмечено выше, вероятность Р(B) как мера степени объективной возможности наступления события В имеет смысл при выполнении определенного комплекса условий. При изменении условий веро-

37

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ятность события В может измениться. Так, если к комплексу условий, при котором изучалась вероятность Р(B), добавить новое условие А, то полученная вероятность события В, найденная при условии, что событие А произошло, называется условной вероятностью события В и обозначается РА(В), или Р(B/A), или Р(B | A). Строго говоря, «безусловная» вероятность Р(B) также является условной, так как она получена при выполнении определенного комплекса условий.  Пример 1.20. В ящике 5 деталей, среди которых 3 стандартные и 2 бракованные. Поочередно из него извлекается по одной детали (с возвратом и без возврата). Найти условную вероятность извлечения во второй раз стандартной детали при условии, что в первый раз извлечена деталь: а) стандартная; б) нестандартная. Р е ш е н и е. Пусть события А и В — извлечение стандартной детали соответственно в 1-й и 2-й раз. Очевидно, что P ( ) =

3 . 5

Если вынутая деталь вновь возвращается в ящик, то вероятность извлечения стандартной детали во второй раз P ( B ) =

3 . Если выну5

тая деталь в ящик не возвращается, то вероятность извлечения стандартной детали во второй раз Р(B) зависит от того, какая деталь была извлечена в первый раз — стандартная (событие А) или бракованная (событие

P ( B ) =

 ). В первом случае P ( B ) =

2 , во втором случае 4

3 , так как из оставшихся четырех деталей стандартных будет со4

ответственно1 2 или 3. 

Найдем формулу для вычисления условной вероятности P ( B ) .  Пусть из общего числа n равновозможных и несовместных (элементарных) исходов испытания (случаев) событию А благоприятствует m случаев, событию В — k случаев, а совместному появлению событий А и В, т.е. событию АВ — l случаев (l  m, l  k) (рис. 1.5).

1 Следует заметить, что «безусловная» вероятность извлечения во второй раз стандартной детали P(B) (когда извлеченная деталь не возвращается) определится по формуле полной вероятности (1.31) — см. далее § 1.11:

P ( B ) = P ( A)  PA ( B ) + P ( A) PA ( B ) =

3 2 2 3 3  +  = , т.е. та же, что и при возвра5 4 5 4 5

те извлеченной детали.

38

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Afm

  

Bfk

 AB f l

  ЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃЃ    n

Тогда,

согласно

Рис. 1.5 классическому определению

вероятности,

l m P ( A ) = , P ( AB ) = . n n

После того как событие А произошло, число всех равновозможных исходов (случаев) сократилось с n до m, а число случаев, благоприятствующих событию В, с k до l. Поэтому условная вероятность1

P ( B ) =

l l n P ( B ) = = . m mn P ( )

Аналогично

PB ( A) =

P ( B ) P ( B)

. 

(1.19)

(1.20)

Умножая правую и левую части равенств (1.19) и (1.20) соответственно на Р(А) и Р(В), получим

P ( B ) = P (  )  P ( B ) = P ( B )  PB (  ) .

(1.21)

Это так называемая теорема (правило) умножения вероятностей: вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, найденную в предположении, что первое событие произошло. Теорема (правило) умножения вероятностей2 легко обобщается на случай произвольного числа событий: Р(АВС…КL) = Р(А)ЃРА(В)ЃРАВ(С)…РАВС…К(L),

(1.22)

т.е. вероятность произведения нескольких событий равна произведению вероятности одного из этих событий на условные вероятности других; 1 Формулу условной вероятности (1.19) мы получили, опираясь на классическое определение вероятности. В общем случае эта формула служит определением условной вероятности (см. § 1.12). 2 В случае, если P(A)=0 или P(В)=0, то соответствующие формулы (1.19) и (1.20) для условных вероятностей не имеют смысла, ибо невозможно событие А или В, однако теорема (правило) умножения вероятностей (1.21) остается верной и при P(A)=0, P(B)=0.

39

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

при этом условная вероятность каждого последующего события вычисляется в предположении, что все предыдущие события произошли.  Пример 1.21. Работа электронного устройства прекратилась вследствие выхода из строя одного из пяти унифицированных блоков. Производится последовательная замена каждого блока новым до тех пор, пока устройство не начнет работать. Какова вероятность того, что придется заменить: а) 2 блока; б) 4 блока? Р е ш е н и е. а) Обозначим события: Ai — i-й блок исправен, i = 1, 2, …, 5; B — замена двух блоков. Очевидно, что придется заменить 2 блока, если 1-й блок исправен (4 шанса из 5), а 2-й — неисправен (1 шанс из оставшихся 4), т.е. B = A1 2 . Теперь по теореме умножения (1.21)

(

)

( )

Р(В) = Р 1 2 = P ( 1 )  P1 2 =

4 1 1  = . 5 4 5

б) Пусть событие С — замена 4 блоков. Очевидно, что С = = A1 A2 A3 4 и по теореме умножения (1.22)

(

)

( )

P ( C ) = P 1 2 3 4 = P ( 1 ) P1 ( 2 ) P1 2 ( 3 ) P1 2 3 4 = =

4 3 2 1 1    = . 5 4 3 2 5

 Пример 1.22. Решить другим способом задачу, приведенную в примере 1.11. Р е ш е н и е. Пусть событие В — получение слова «АНАНАС». Событие В наступит, если первой окажется карточка с буквой А (3 шанса из 6), вторая — с буквой Н (2 шанса из оставшихся 5), третья — с буквой А (2 шанса из оставшихся 4) и т.д. По теореме умножения (1.22)

P ( B) =

3 2 2 1 1 1 1      = .  6 5 4 3 2 1 60

Теорема умножения вероятностей принимает наиболее простой вид, когда события, образующие произведение, н е з а в и с и м ы. Событие В называется независимым от события А, если его вероятность не меняется от того, произошло событие А или нет, т.е.

P ( B ) = P ( B )

( 

P ( B ) = P ( B ) ) .

)

В противном случае, если P ( B )  P ( B ) (  P ( B )  P ( B ) , событие В называется зависимым от А. Докажем, что если событие В не зависит от А, то и событие А не зависит от В.

40

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Так как по условию событие В не зависит от А, то

P ( B ) = P ( B ) .

Запишем теорему умножения вероятностей (1.21) в двух формах:

P ( B ) = P (  )  P ( B ) = P ( B )  PB (  ) .

Заменяя РA(B) на Р(В), получим Р(А)ЃР(В) = Р(В)РВ(А), откуда, полагая, что P ( B )  0, получим РВ(А) = Р(А), т.е. событие А не зависит от В.  Таким образом, зависимость и независимость событий всегда взаимны. Поэтому можно дать следующее определение независимости событий. Два события называются независимыми, если появление одного из них не меняет вероятности наступления другого.  Пример 1.23. Установить, зависимы или нет события А и В по условию примера 1.20. Р е ш е н и е. В случае возврата извлеченной детали

3 P ( B ) = PA ( B ) = P ( B ) = , т.е. события А и В независимы. Если 5 извлеченная из ящика деталь не возвращается, то P ( B )  2 3  PA ( B )    , т.е. P ( B )  P ( B ) и события А и В зависимы.  4 4 Несколько событий А, В, ..., L называются независимыми в совокупности (или просто независимыми), если независимы любые два из них и независимы любое из данных событий и любые комбинации (произведения) остальных событий. В противном случае события А, В, …, L называются зависимыми. Например, три события А, В, С независимы (независимы в совокупности), если независимы события А и В, А и С, В и С, А и ВС, В и АС, С и АВ. Для н е з а в и с и м ы х событий теорема (правило) умножения вероятностей для двух и нескольких событий примет вид1:

P ( B ) = P (  ) P ( B ) , Р(АВС…KL) = Р(А)Р(В)…Р(L),

(1.23) (1.24)

т.е. вероятность произведения двух или нескольких независимых событий равна произведению вероятностей этих событий. 1 Формулу (1.23) можно было бы рассматривать и в качестве о п р е д е л е н и я независимости д в у х событий. Для определения независимости н е с к о л ь к и х событий (в совокупности) одной формулы (1.24) было бы уже недостаточно.

41

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 1.24. Вероятность попадания в цель для первого стрелка равна 0,8, для второго — 0,7, для третьего — 0,9. Каждый из стрелков делает по одному выстрелу. Какова вероятность того, что в мишени 3 пробоины? Р е ш е н и е. Обозначим события: Ai — попадание в цель i-го стрелка (i = 1, 2, 3); B — в мишени три пробоины. Очевидно, что В = А1А2А3, причем события А1, А2, А3 — независимы. По теореме умножения (1.24) для независимых событий Р(В) = Р(А1А2А3) = Р(А1)Р(А2)Р(А3) = 0,8Ѓ0,7Ѓ0,9 = 0,504.  З а м е ч а н и е. Говоря о н е з а в и с и м о с т и событий, отметим следующее. 1. В основе независимости событий лежит их физическая независимость, означающая, что множества случайных факторов, приводящих к тому или иному исходу испытания, не пересекаются (или почти не пересекаются). Например, если в цехе имеются две установки, никак не связанные между собой по условиям производства, то простой каждой установки — события независимые. Если эти установки связаны единым технологическим циклом, то простой одной из установок зависит от состояния работы другой. Вместе с тем если множества случайных факторов пересекаются, то появляющиеся в результате испытания события не обязательно зависимые. Пусть, например, рассматриваются события: А — извлечение наудачу из колоды карты пиковой масти; В — извлечение наудачу из колоды туза. Необходимо выяснить, являются ли события А и В зависимыми. На первый взгляд, можно предполагать зависимость событий А и В в силу пересечения случаев, им благоприятствующих: среди карт пиковой масти есть туз, а среди тузов — карта пиковой масти. Убедимся, однако, в том, что события А и В независимы.

P ( B) =

4 1 = (в колоде 4 туза из 36 карт), 36 9

1 (в колоде 1 туз из 9 карт пиковой масти). 9 Итак, P ( B ) = P ( B ) , т.е. события А и В независимы1. P ( B ) =

1

Независимость событий А и В можно показать иначе, убедившись в выполнении равенства (1.23). Так как P(AB) = 1/36 (в колоде 1 пиковый туз из 36 карт), P(A) = 9/36 (в колоде 9 карт пиковой масти из 36), P(B) = 1/9 (см. выше), т.е. P(AB) = P(A)ЃP(B)

9 1 1    =  36 36 9 

, следовательно, события А и В независимы. При

добавлении джокера (см. с. 43) имеем P(A) = 9/37, P(B) = 4/37, P(АB) = 1/37, т.е.

9 4   1 P ( AB )  P( A) P ( B )          „  .  37 37 37

42

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Если же в колоду карт добавлен джокер, то карт станет 37 и соответствующие вероятности P(B) = 4/37, PA(B) = 1/9, т.е. P ( B )  P ( B ) и события А и В зависимы. 2. Попарная независимость нескольких событий (т.е. независимость взятых из них любых двух событий) еще не означает их независимости в совокупности. Убедимся в этом на следующем примере (примере С.Н. Бернштейна). Предположим, что грани правильного тетраэдра (треугольной пирамиды с равными ребрами) окрашены: 1-я — в красный цвет (событие А), 2-я — в зеленый (В), 3-я — в синий (С) и 4-я — во все три цвета (событие АВС). При подбрасывании тетраэдра вероятность любой грани, на которую он упадет, в своей окраске иметь одинаковый цвет равна 1/2 (так как всего граней 4, а с соответствующей окраской 2, т.е. два шанса из четырех). Таким образом, Р(А) = 1/2, P(B) = 1/2, P(C) = 1/2. Точно так же можно подсчитать, что PB(A) = PC(A) = PA(B) = PC(B) = PA(C) = PB(C) = 1/2 (один шанс из двух), т.е. события А, В, С попарно независимы. Если же наступили одновременно два события, например А и В, т.е. АВ, то третье событие С обязательно наступит, т.е. РАВ(С) = 1 и аналогично РАС(В) = 1, РВС(А) = 1; следовательно, вероятность каждого из событий А, В или С изменилась, и события А, В и С в совокупности зависимы. При решении ряда задач требуется найти вероятность суммы двух или нескольких с о в м е с т н ы х событий, т.е. вероятность появления х о т я б ы о д н о г о из этих событий. Напомним, что в этом случае применять теорему сложения вероятностей в виде (1.16) нельзя. Теорема. Вероятность суммы двух совместных событий равна сумме вероятностей этих событий без вероятности их произведения, т.е. Р(A + B) = P(A) + P(B) – P(AB).

(1.25)

 Представим событие А + В, состоящее в наступлении хотя бы одного из двух событий А и В, в виде суммы трех несовместных вариантов:  + B = B + B + B . Тогда по теореме сложения (1.16)

( )

( )

P (  + B ) = P B + P AB + P ( B ) . Учитывая, что

 = B + B,

( )

P ( ) = P ( B ) + P ( B ) ,

( )

(1.26) откуда

P B = P( )  P( B) , и аналогично P B = P ( B )  P ( B ) , получим, подставляя найденные выражения в (1.26):

43

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

P( A + B) = [ P( A)  P( AB )] + [ P ( B )  P ( AB ) ] + P( AB ) = = P ( A) + P ( B )  P ( AB ). 

. 1.6

В справедливости формулы (1.25) можно наглядно убедиться по рис. 1.6. В случае трех и более совместных событий соответствующая формула для вероятности суммы P(A+B+…+K) весьма громоздка и проще перейти к противоположному событию L:

L = A + B + ... + K = A B...K (см. пример 1.18). Тогда на основании (1.18) Р(А + В + … + К) = 1 – Р(L), или

(

)

Р (А + В + … + К) = 1 – P A B...K ,

(1.27)

т.е. вероятность суммы нескольких совместных событий А, В, …, К равна разности между единицей и вероятностью произведения противоположных событий A, B, ..., K . Если при этом события А, В, …, К — н е з а в и с и м ы е, то Р (А + В + … + К) = 1 – P ( A)P ( B )...P ( K ). (1.28) В частном случае, если вероятности независимых событий равны, т.е. Р(А) = Р(В) =…= Р(К) = р, то вероятность их суммы Р (А + В + … + К) = 1 – (1 – р)n,

(1.29)

(ибо в этом случае P ( A ) P ( B ) ...P (K ) = (1   )...(1   ) = (1   ) n ) .

 n 

 Пример 1.25. На 100 лотерейных билетов приходится 5 выигрышных. Какова вероятность выигрыша хотя бы по одному билету, если приобретено: а) 2 билета; б) 4 билета? Р е ш е н и е. Пусть событие Ai — выигрыш по i-му билету (i = 1, 2, 3, 4). а) По формуле (1.25) вероятность выигрыша хотя бы по одному из двух билетов

P ( A1 + A2 ) = P ( A1 ) + P ( A2 )  P ( A1 A2 ) =

= P ( A1 ) + P ( A2 )  P ( A1 ) PA1 ( A2 ) =

44

5 5 5 4 + Љ  = 0,098. 100 100 100 99

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

б) По формуле (1.27) вероятность выигрыша хотя бы по одному из четырех билетов

(

)

P ( A1 + A2 + 3 + 4 ) = 1  P 1 2 3 4 = =1Љ

95 94 93 92    = 0,188.  100 99 98 97

1.10. Решение задач  Пример 1.26. Вероятность того, что студент сдаст первый экзамен, равна 0,9; второй — 0,9; третий — 0,8. Найти вероятность того, что студентом будут сданы: а) только 2-й экзамен; б) только один экзамен; в) три экзамена; г) по крайней мере два экзамена; д) хотя бы один экзамен. Р е ш е н и е. а) Обозначим события: Ai — студент сдаст i-й экзамен (i = 1, 2, 3); B — студент сдаст только 2-й экзамен из трех. Очевидно, что В = 1 2 3 , т.е. совместное осуществление трех событий, состоящих в том, что студент сдаст 2-й экзамен и не сдаст 1-й и 3-й экзамены. Учитывая, что события А1, А2, А3 независимы, получим

(

)

( )

( )

Р(В) = P 1 2 3 = P 1 P ( 2 ) P 3 = 0,1  0,9  0, 2 = 0,018. б) Пусть событие С — студент сдаст один экзамен из трех. Очевидно, событие С произойдет, если студент сдаст только 1-й экзамен из трех, или только 2-й, или только 3-й, т.е.

(

)

P ( C ) = P 1 2 3 + 1 2 3 + 1  2 3 = = 0,9  0,1  0, 2 + 0,1  0,9  0, 2 + 0,1  0,1  0,8 = 0, 044. в) Пусть событие D — студент сдаст все три экзамена, т.е. D = = А1А2А3. Тогда

P ( D ) = P ( 1 A2 A3 ) = P ( A1 ) P ( A2 ) P ( A3 ) = 0,9  0,9  0,8 = 0,648.

г) Пусть событие Е — студент сдаст по крайней мере два экзамена (иначе: «хотя бы два» экзамена или «не менее двух» экзаменов). Очевидно, что событие Е означает сдачу любых двух экзаменов из трех либо всех трех экзаменов, т.е.

E = 1 2 3 + 1 2 3 + 1 2 3 + 1 2 3 и Р(Е) = 0,9Ѓ0,9 Ѓ 0,2 + 0,9Ѓ0,1Ѓ0,8 + 0,1Ѓ0,9Ѓ0,8 + 0,9Ѓ0,9Ѓ0,8 = 0,954. д) Пусть событие F — студент сдаст хотя бы один экзамен (иначе: «не менее одного» экзамена). Очевидно, событие F представляет сумму событий С (включающего три варианта) и Е (четыре вариан-

45

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

та), т.е. F = А1 + А2 + А3 = С + Е (семь вариантов). Однако проще найти вероятность события F, если перейти к противоположному событию, включающему всего один вариант — F = A1 + A2 + A3 = A1 A 2 A3 , т.е. применить формулу (1.27). Итак,

(

)

P ( F ) = P ( A1 + A2 + A3 ) = 1  P( F ) = 1  P A1 A 2 A3 = = 1  P( A1 )  P( A 2 )P( A3 ) = 1  0,1  0,1  0, 2 = 0,998, т.е. сдача студентом хотя бы одного экзамена из трех является событием практически достоверным.   Пример 1.27. Причиной разрыва электрической цепи служит выход из строя элемента К1 или одновременный выход из строя двух элементов — К2 и К3. Элементы могут выйти из строя независимо друг от друга с вероятностями, равными соответственно 0,1; 0,2; 0,3. Какова вероятность разрыва электрической цепи? Р е ш е н и е. Обозначим события: Ai — выход из строя элемента Ki (i = 1, 2, 3); B — разрыв электрической цепи. Очевидно, по условию событие В произойдет, если произойдет либо событие A1, либо А2А3, т.е. В = А1 + А2А3. Теперь, по формуле (1.25) Р(B) = P(A1 + A2A3) = P(A1) + P(A2A3) – P[A1(A2A3)] = = P(A1) + P(A2)P(A3) – P(A1)P(A2)P(A3) = = 0,1 + 0,2Ѓ0,3 – 0,1Ѓ0,2Ѓ0,3 = 0,154 (при использовании теоремы умножения учли независимость событий А1, А2 и А3).   Пример 1.28. Производительности трех станков, обрабатывающих одинаковые детали, относятся как 1:3:6. Из нерассортированной партии обработанных деталей взяты наудачу две. Какова вероятность того, что: а) одна из них обработана на 3-м станке; б) обе обработаны на одном станке? Р е ш е н и е. а) Обозначим события: Ai — деталь обработана на i-м станке (i = 1, 2, 3); В — одна из двух взятых деталей обработана на 3-м станке. По условию

P ( A1 ) =

1 3 6 = 0,1, P ( A2 ) = = 0,3, P ( A3 ) = = 0, 6. 1+ 3 + 6 1+ 3 + 6 1+ 3 + 6

46

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Очевидно, что В = А1А3 + А2А3 + А3А1 + А3А2 (при этом надо учесть, что либо первая деталь обработана на 3-м станке, либо вторая). По теоремам сложения и умножения (для независимых событий) Р(B) = P(A1)Р(А3) + P(A2А3) + P(A3A1) + P(A3A2) = = 0,1Ѓ0,6 + 0,3Ѓ0,6 + 0,6Ѓ0,1 + 0,6Ѓ0,3 = 0,48. б) Пусть событие С — обе отобранные детали обработаны на одном станке. Тогда С = А1А1 + А2А2 + А3А3 и Р(C) = 0,1Ѓ0,1+ 0,3Ѓ0,3 + 0,6Ѓ0,6 = 0,46.   Пример 1.29. Экзаменационный билет для письменного экзамена состоит из 10 вопросов — по 2 вопроса из 20 по каждой из пяти тем, представленных в билете. По каждой теме студент подготовил лишь половину всех вопросов. Какова вероятность того, что студент сдаст экзамен, если для этого необходимо ответить хотя бы на один вопрос по каждой из пяти тем в билете? Р е ш е н и е. Обозначим события: А1, А2 — студент подготовил 1-й, 2-й вопросы билета по каждой теме; Bi — студент подготовил хотя бы один вопрос билета из двух по i-й теме (i = 1, 2, …, 5); С — студент сдал экзамен. В силу условия С = В1В2В3В4В5. Полагая ответы студента по разным темам независимыми, по теореме умножения вероятностей (1.24)

P ( C ) = P ( B1 ) P ( B2 ) P ( B3 ) P ( B4 ) P ( B5 ) . Так как вероятности Р(Bi) (i = 1, 2, …, 5) равны, то Р(C) = (Р(Bi))5. Вероятность Р(Bi) можно найти по формуле (1.27) (или (1.25)): Р(Bi) = Р(А1+А2) = 1– P ( A1 A2 ) =

= 1 Љ P( A1 ) P ( A2 ) = 1 Љ 1

Теперь Р(С) = 0,7635 = 0,259. 

10 9  = 0, 763. 20 19

 Пример 1.30. При включении зажигания двигатель начнет работать с вероятностью 0,6. Найти вероятность того, что: а) двигатель начнет работать при третьем включении зажигания; б) для запуска двигателя придется включать зажигание не более трех раз. Р е ш е н и е. а) Обозначим события: А — двигатель начнет работать при каждом включении зажигания; В — то же при третьем включении зажигания.

47

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Очевидно, что В = A AA и P ( B ) = P (  ) P ( A ) P ( A ) = 0,4Ѓ0,4Ѓ0,6 = = 0,096. б) Пусть событие С — для запуска двигателя придется включать зажигание не более трех раз. Очевидно, событие С наступит, если двигатель начнет работать при 1-м включении, или при 2-м, или при 3-м включении, т.е. С = A + AA + A AA. Следовательно,

P (C ) = P ( A) + P ( A) P ( A) + P ( A) P ( A)  P ( A) = = 0,6 + 0, 4  0,6 + 0, 4  0, 4  0,6 = 0,936 .   Пример 1.31. Среди билетов денежно-вещевой лотереи половина выигрышных. Сколько лотерейных билетов нужно купить, чтобы с вероятностью, не меньшей 0,999, быть уверенным в выигрыше хотя бы по одному билету? Р е ш е н и е. Пусть вероятность события Ai — выигрыша по i-му билету равна р, т.е. Р(Ai) = p. Тогда вероятность выигрыша хотя бы по одному из n приобретенных билетов, т.е. вероятность суммы независимых событий А1, А2, …, Аi, …, Аn определится по формуле (1.29): Р(А1 + А2 + … + Аn) = 1 – (1 – р)n. По условию 1 – (1 – р)n 

Р, где Р

= 0,999, откуда

(1 – р)n  1 –

Р.

Логарифмируя обе части неравенства, имеем n lg (1 – p)  lg (1 –

Р).

Учитывая, что lg (1 – p) — величина отрицательная, получим

n  По условию р = 0,5,

lg (1  Р ) . lg (1  p)

(1.30)

Р = 0,999. По формуле (1.30)

lg 0, 001 n = 9,96, т.е. n  10 и необходимо купить не менее 10 лоlg 0,5 терейных билетов. (Задачу можно решить, не прибегая к логарифмированию, путем подбора целого числа n, при котором выполняется неравенство (1 – n



р)n 

1 1 – Р, т.е. в данном случае    0, 001 ; так, еще при n = 9 2

9

10

1 1 1 1 > 0, 001 , а уже при n = 10   =  0, 001, т.е. n  10).   =  2  512  2  1024

48

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 1.31а. Среди клиентов банка 80% являются физическими лицами и 20% — юридическими. Из практики известно, что 40% всех операций приходится на долгосрочные расчеты, в то же время из общего числа операций, связанных с физическими лицами, 30% приходится на долгосрочные расчеты. Какова вероятность того, что наудачу выбранный клиент является юридическим лицом и осуществляет долгосрочный расчет? Р е ш е н и е. Обозначим события: А — клиент является физическим лицом; В — клиент осуществляет долгосрочный расчет. По условию P(A) = 0,8; P ( A) = 0, 2; P(B) = 0,4; PA(B) = 0,3. Требуется найти вероятность совместного осуществления событий A и B, т.е. P ( AB ). Так как B = AB + AB , то P ( AB ) = P ( B ) Љ P ( AB ) = P ( B ) Љ P ( A)  PA ( B ) = 0, 4 Љ 0,8  0,3 = 0,16.   Пример 1.32. Два игрока поочередно бросают игральную кость. Выигрывает тот, у которого первым выпадет «6 очков». Какова вероятность выигрыша для игрока, бросающего игральную кость первым? Вторым? Р е ш е н и е. Обозначим события: Ai — выпадение 6 очков при i-м бросании игральной кости (i = 1, 2, …); В — выигрыш игры игроком, бросающим игральную кость первым. Имеем P(Ai) = 1/6, P( A i) = 5/6 при любом i. Событие В можно представить в виде суммы вариантов:

B = A1 + A1 A2 A3 + A1 A2 A3 A4 A5 + ... Поэтому

(

) (

)

P ( B ) = P ( A1 ) + P A1 A 2 A3 + P A1 A 2 A3 A 4 A5 + ... = 2

=

4

1 5 1 5 1 +    +    + ... 6 6 6 6 6

По формуле суммы геометрического ряда с первым членом а = 1/6 и знаменателем q = (5/6)2 < 1

P ( B) =

16 6 a = = = 0,545. 2 1  q 1  ( 5 6 ) 11

Вероятность Р( B ) выигрыша игры игроком, бросающим игральную кость вторым, равна Р( B ) = 1 – Р(В) = 1 – 6/11 = 5/11 = 0,455,

49

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

т.е. существенно меньше, чем игроком, бросающим игральную кость первым.   Пример 1.33. Вероятность попадания в мишень при каждом выстреле для 1-го стрелка равна 0,7, а для 2-го — 0,8. Оба они делают по одному выстрелу по мишени, а затем каждый из стрелков стреляет еще раз, если при первом сделанном им выстреле он промахнулся. Найти вероятность того, что в мишени ровно 2 пробоины. Р е ш е н и е. Пусть события: Ai, Bi — попадание в цель соответственно 1-м и 2-м стрелком при i-м выстреле (i = 1, 2); С — в мишени ровно 2 пробоины. Событие С произойдет, если: Ѓ у каждого стрелка по одному попаданию с первого раза; Ѓ у 1-го стрелка — попадание (при одном выстреле), у 2-го стрелка промах и попадание; Ѓ у 1-го стрелка — промах и попадание, у 2-го стрелка — попадание (при одном выстреле); Ѓ у каждого стрелка — промах и попадание после двух выстрелов. Итак,

C = A1 B1 + A1 B1 B2 + A1 B1 A2 + A1 B1 A2 B2 .

Используя теоремы сложения для несовместных и умножения для независимых событий, получим

(

)

P ( C ) = P A1 B1 + A1 B1 B2 + A1 B1 A2 + A1 B1 A2 B2 = = 0, 7  0,8 + 0,7  0, 2  0,8 + 0,3  0,8  0, 7 + 0,3  0, 2  0,7  0,8 = 0,8736.   Пример 1.33а. Вероятность того, что студент сдаст экзамен по дисциплине А, равна 0,8. Условная вероятность того, что студент сдаст экзамен по дисциплине B, равна: 0,5 при условии, что он экзамен по дисциплине А сдаст; 0,6 при условии — что не сдаст. 1) Найти вероятность того, что экзамен хотя бы по одной из двух дисциплин студент: а) сдаст; б) не сдаст. 2) Являются ли события — сдача экзамена по дисциплинам А и B независимыми? Р е ш е н и е. 1) Пусть события А и B означают, что студент сдаст экзамены по дисциплинам А и B. По условию требуется найти P(A + B) и P( A + B ), если известно, что P( A) = 0,8,

PA ( B) = 0, 6, PA ( B) = 0,5.

Предварительно найдем:

P( AB) = P( A)  PA ( B) = 0,8  0, 6 = 0, 48; P( AB ) = P ( A)  PA ( B ) = 0, 2  0,5 = 0,10, где P ( A) = 1  P ( A) = 1  0,8 = 0, 2;

50

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

P( B) = P( AB + AB ) = 0, 48 + 0,10 = 0,58. Теперь по формуле (1.25)

P( A + B ) = P ( A) + P ( B ) Љ P ( AB ) = 0,8 + 0,58 Љ 0, 48 = 0,9.

Согласно закону де Моргана A + B = AB, поэтому

P( A + B ) = P ( AB ) = 1  P ( AB ) = 1  0, 48 = 0,52. 2) Так как

PA ( B)  PA ( B), PA ( B)  P ( B ), PA ( B )  P ( B ), P ( AB )  P ( A)  P ( B ),

то по любому из этих оснований события А и В зависимы. 

1.11. Формула полной вероятности. Формула Байеса Следствием двух основных теорем теории вероятностей — теоремы сложения и теоремы умножения — являются формула полной вероятности и формула Байеса. Теорема. Если событие F может произойти только при условии появления одного из событий (гипотез) А1, А2, …, An, образующих полную группу, то вероятность события F равна сумме произведений вероятностей каждого из этих событий (гипотез) на соответствующие условные вероятности события F: P(F)=

n

 P( A )P (F ) . i

i =1

Ai

(1.31)

 По условию события (гипотезы) А1, А2, …, Аn образуют полную группу, следовательно, они единственно возможные и несовместные (рис. 1.7). A2

A1 A 2F

A1F AnF

F

...

An

Рис. 1.7 Так как гипотезы А1, А2, …, Аn — единственно возможные, а событие F по условию теоремы может произойти только вместе с одной из гипотез (см. рис. 1.7), то F = A1F + A2F + … + AnF. В силу того что гипотезы А1, А2, …, Аn несовместны, можно применить теорему сложения вероятностей:

51

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

P(F ) = P(А1F ) + P(А2F ) + … + P(AnF ) =

n

 P ( Ai F ). i =1

По теореме умножения P(AiF ) = P(Ai)Ѓ PAi ( F ), откуда и получается утверждение (1.31).  Формула (1.31) называется формулой полной вероятности. В частности, для противоположных событий (гипотез) А и A , образующих полную группу, формула (1.31) примет вид: P(F) = P ( A) PA ( F ) + P ( A) PA ( F ) .

(1.31)

Следствием теоремы умножения и формулы полной вероятности является формула Байеса. Она применяется, когда событие F, которое может появиться только с одной из гипотез А1, А2, …, Аn, образующих полную группу событий, п р о и з о ш л о и необходимо произвести количественную п е р е о ц е н к у априорных вероятностей этих гипотез Р (А1), Р (А2), …, Р (Аn), известных до испытания, т.е. надо найти апостериорные (получаемые после проведения испытания) условные вероятности гипотез PF (A1), PF (A2), …, PF (An).  Для получения искомой формулы запишем теорему умножения вероятностей событий F и Ai в двух формах: Р(FAi) = P(F)PF (Ai) = P(Ai)Ѓ PAi (F), откуда

PF ( Ai ) = или с учетом формулы (1.31)

PF ( Ai ) =

P ( Ai ) PAi ( F ) P(F )

,

P ( Ai ) PAi ( F ) n

 P ( Ai ) PA ( F ) i =1

(1.32)

. 

(1.33)

i

Формула (1.33) называется формулой Байеса. Значение формулы Байеса состоит в том, что при появлении события F, т.е. по мере поступления данных, получения новой информации, мы можем проверять и корректировать выдвинутые до испытания гипотезы (принятые решения, предполагаемые модели), основываясь на переходе от их априорных вероятностей к апостериорным (рис. 1.8). Такой подход, называемый байесовским, дает возможность корректировать управленческие решения в экономике, оценки неизвестных параметров распределения изучаемых признаков в статистическом анализе и т.п.

52

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Рис. 1.8

З а м е ч а н и е. Если условные вероятности PA i ( F ) ( i = 1, 2, … , n ) постоянны, т.е. на вероятность события F все гипотезы влияют одинаково, то согласно формуле Байеса (1.33) получаем PF ( Ai ) = P ( Ai ) , т.е. дополнительная информация о появлении события F не имеет никакой ценности, поскольку не меняет наших представлений об априорных вероятностях гипотез.  Пример 1.34. В торговую фирму поступили телевизоры от трех поставщиков в отношении 1 : 4 : 5. Практика показала, что телевизоры, поступающие от 1-го, 2-го и 3-го поставщиков, не потребуют ремонта в течение гарантийного срока соответственно в 98, 88 и 92% случаев. 1) Найти вероятность того, что поступивший в торговую фирму телевизор не потребует ремонта в течение гарантийного срока. 2) Проданный телевизор потребовал ремонта в течение гарантийного срока. От какого поставщика вероятнее всего поступил этот телевизор? Р е ш е н и е. 1) Обозначим события: Аi — телевизор поступил в торговую фирму от i-го поставщика (i = 1, 2, 3); F — телевизор не потребует ремонта в течение гарантийного срока. По условию

1 = 0,1; 1+ 4 + 5 4 P ( 2 ) = = 0, 4; 1+ 4 + 5 5 P ( 3 ) = = 0,5; 1+ 4 + 5

P ( 1 ) =

P1 ( F ) = 0,98; P2 ( F ) = 0,88; P3 ( F ) = 0,92.

По формуле полной вероятности (1.31) Р(F ) = 0,1Ѓ0,98 + 0,4Ѓ0,88 + 0,5Ѓ0,92 = 0,91.

2) Событие F — телевизор потребует ремонта в течение гарантийного срока; F ( F ) = 1 – P(F ) = 1 – 0,91 = 0,09.

53

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

По условию

P1 ( F ) = 1  0,98 = 0, 02, P2 ( F ) = 1  0,88 = 0,12,

P3 ( F ) = 1  0,92 = 0, 08. По формуле Байеса (1.32)

PF ( 1 ) =

0,1  0,02 0, 4  0,12 = 0,022; PF ( 2 ) = = 0,533; 0,09 0,09 0,5  0,08 PF ( 3 ) = = 0, 444. 0, 09

Таким образом, после наступления события F вероятность гипотезы А2 увеличилась с Р(А2) = 0,4 до максимальной PF ( 2 ) = 0,533, а

гипотезы А3 — уменьшилась от максимальной Р(А3) = 0,5 до PF ( 3 ) = 0, 444; если ранее (до наступления события F) наиболее веро-

ятной была гипотеза А3, то теперь, в свете новой информации (наступления события F), наиболее вероятна гипотеза А2 — поступление данного телевизора от 2-го поставщика.   Пример 1.35. Известно, что в среднем 95% выпускаемой продукции удовлетворяют стандарту. Упрощенная схема контроля признает пригодной продукцию с вероятностью 0,98, если она стандартна, и с вероятностью 0,06, если она нестандартна. Определить вероятность того, что: 1) взятое наудачу изделие пройдет упрощенный контроль; 2) изделие стандартное, если оно: а) прошло упрощенный контроль; б) дважды прошло упрощенный контроль. Р е ш е н и е. 1) Обозначим события: А1, А2 — взятое наудачу изделие соответственно стандартное или нестандартное; F — изделие прошло упрощенный контроль. По условию Р(А1) = 0,95, Р(А2) = 0,05, PA1 ( F ) = 0,98; PA2 ( F ) = 0,06. Вероятность того, что взятое наудачу изделие пройдет упрощенный контроль, по формуле полной вероятности (1.31): Р(F) = 0,95Ѓ0,98 + 0,05Ѓ0,06 = 0,934. 2, а) Вероятность того, что изделие, прошедшее упрощенный контроль, стандартное, по формуле Байеса (1.32):

PF ( 1 ) =

0,95  0,98 = 0,997. 0,934

54

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

2, б) Пусть событие F  — изделие дважды прошло упрощенный контроль. Тогда по теореме умножения вероятностей

P1 ( F  ) = 0,98  0,98 = 0,9604 и P2 ( F  ) = 0,06  0,06 = 0,0036 . По формуле Байеса (1.33)

PF  ( A1 ) =

0,95  0,9604 = 0,9998. 0,95  0,9604 + 0,05  0, 0036

Так как

PF  ( A2 ) = 1  PF  ( A1 ) = 1  0,9998 = 0, 0002 очень мала, то гипотезу А2 о том, что изделие, дважды прошедшее упрощенный контроль, нестандартное, следует отбросить как практически невозможное событие.   Пример 1.36. Два стрелка независимо друг от друга стреляют по мишени, делая каждый по одному выстрелу. Вероятность попадания в мишень для первого стрелка равна 0,8; для второго — 0,4. После стрельбы в мишени обнаружена одна пробоина. Какова вероятность того, что она принадлежит: а) 1-му стрелку; б) 2-му стрелку? Р е ш е н и е. Обозначим события: А1 — оба стрелка не попали в мишень; А2 — оба стрелка попали в мишень; А3 — 1-й стрелок попал в мишень, 2-й нет; А4 — 1-й стрелок не попал в мишень, 2-й попал; F — в мишени одна пробоина (одно попадание). Найдем вероятности гипотез и условные вероятности события F для этих гипотез:

P ( A1 ) = 0, 2  0,6 = 0,12,

PA ( F ) = 0;

P ( A2 ) = 0,8  0, 4 = 0,32,

PA ( F ) = 0;

P ( A3 ) = 0,8  0, 6 = 0, 48,

PA ( F ) = 1;

P ( A4 ) = 0, 2  0, 4 = 0,08,

PA ( F ) = 1.

1

2

3

4

Теперь по формуле Байеса (1.33)

0, 48  1 6 = = 0,857, 0,12  0 + 0,32  0 + 0, 48  1 + 0, 08  1 7 0, 08  1 1 PF ( A4 ) = = = 0,143, 0,12  0 + 0,32  0 + 0, 48  1 + 0, 08  1 7

PF ( A3 ) =

55

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

т.е. вероятность того, что попал в цель 1-й стрелок при наличии одной пробоины, в 6 раз выше, чем для второго стрелка.   Пример 1.36а. Компания по страхованию автомобилей разделяет водителей на три класса, которые включают 20%, 50% и 30% водителей соответственно. Вероятности того, что в течение года водитель попадает в аварию, равны 0,01, 0,03 и 0,1 соответственно для каждого класса. Наугад выбранный водитель два года подряд из пяти лет срока страховки попадал в аварию. Какова вероятность того, что он относится: а) к первому классу; б) к третьему классу? Р е ш е н и е. Обозначим события: A1 , A2 , A3 — водитель соответственно первого, второго и третьего класса; F — водитель два года подряд из пяти лет срока страховки попадал в аварию. По условию P ( A1 ) = 0, 2; P ( A2 ) = 0,5; P ( A3 ) = 0,3. Найдем условные вероятности события F (учитываем, что из пяти лет водитель три года не попадал в аварию, два года — попадал, причем попадал два года подряд, что дает четыре варианта (по годам 1—2, 2—3, 3—4, 4—5 )):

PA1 ( F ) = 4  0,012  0,993 = 0,00039; PA2 ( F ) = 4  0,032  0,973 = 0, 00329; PA3 ( F ) = 4  0,12  0,93 = 0,02916. По формуле Байеса (1.33)

0, 2  0,00039 = 0, 007, 0, 2  0, 00039 + 0,5  0, 00329 + 0,3  0,02916 0,3  0,02916 PF ( A3 ) = = 0,835, 0, 2  0, 00039 + 0,5  0, 00329 + 0,3  0,02916 PF ( A1 ) =

т.е. после наступления события F гипотеза A1 практически невозможна и должна быть отвергнута. 

1.12. Теоретико-множественная трактовка основных понятий и аксиоматическое построение теории вероятностей Приведем теоретико-множественную трактовку основных понятий теории вероятностей, рассмотренных выше. Пусть  — множество всех возможных исходов некоторого испытания (опыта, эксперимента). Каждый элемент  множества , т.е.   , называют элементарным событием, или элементарным исхо-

56

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

дом, а само множество  — пространством элементарных событий. Любое событие А рассматривается как некоторое подмножество (часть) множества , т.е. А  . Так, в примере 1.1 при бросании игральной кости возможны 6 эле2 — выпаментарных исходов (событий): 1 — выпадение 1 очка, дение 2 очков, ..., 6 — выпадение 6 очков, т.е. пространство элементарных событий  = {1 , 2 , 3 , 4 , 5 , 6 } . Событие А, состоящее в выпадении четного числа очков, есть A = {2 , 4 , 6 } .

В задаче о встрече, приведенной в примере 1.2, возможно бесконечное несчетное множество элементарных исходов (событий) — точек (х, у) квадрата OKLM, координаты х и у которых равны моментам прихода к месту встречи двух лиц (см. рис. 1.2), т.е. пространство элементарных событий  — квадрат OKLM. Событие А, состоящее в том, что встреча двух лиц произойдет, есть заштрихованная область g на рисунке — часть квадрата, т.е. подмножество пространства : A  . Само пространство элементарных событий  представляет собой событие, происходящее всегда (при любом элементарном исходе ), и называется достоверным событием. Таким образом,  выступает в двух качествах: множества всех элементарных исходов и достоверного события. Ко всему пространству  элементарных событий добавляется еще пустое множество , рассматриваемое как событие и называемое невозможным событием. Суммой нескольких событий А1, А2, …, Аn называется объединение множеств A1  A2  ...  An . Произведением нескольких событий А1, А2, …, Аn называется пересечение множеств A1  A2  ...  An . Событием  , противоположным событию А, называется дополнение множества А до , т.е. \А. На диаграммах Венна (см. § 1.7, рис. 1.3, в, г, д, е) представлены сумма А + В, произведение АВ двух событий и события A , B , противоположные событиям А, В. Несколько событий А1, А2, …, Аn образуют полную группу (полную систему), если их сумма представляет все пространство элементарных событий, а сами события несовместные, т.е. n

A = i =1

i

 Ai Aj = 

(i  j ).

Таким образом, под операциями над событиями понимаются операции над соответствующими множествами. В табл. 1.1 показано соответствие терминов теории множеств и теории вероятностей.

57

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Таблица 1.1 Обозначения

Термины Теории множеств

Теории вероятностей



Множество, пространство Пространство элементарных событий, достоверное событие



Элемент, точка множест- Элементарное событие (элева ментарный исход)

А, В

Подмножество А, В

А+В = А  В Объединение (сумма) множеств А и В АВ = А  В

Событие А, В Сумма событий А и В

Пересечение множеств А Произведение событий А и В иВ



Пустое множество

A

Дополнение множества А Противоположное для А событие

АВ = А  В= Множества А и В не пересекаются

Невозможное событие

События А и В несовместны

А=В

Множества А и В равны

События А и В равносильны

АВ

А есть подмножество В

Событие А влечет за собой событие В

На основе изложенной трактовки событий как множеств перейдем к аксиоматическому построению теории вероятностей. Необходимость формально логического обоснования теории вероятностей, ее аксиоматического построения возникла в связи с развитием самой теории вероятностей как математической науки и ее приложений в различных областях. Такие сформировавшиеся науки, как геометрия, теоретическая механика, теория множеств, строятся аксиоматически. Фундаментом каждой служит ряд аксиом, являющихся обобщением многовекового человеческого опыта, а само здание науки строится на основе строгих логических рассуждений без обращения к наглядным представлениям. Аксиоматика теории вероятностей исходит от основных свойств вероятности событий, к которым применимо классическое или статистическое определение вероятности. Аксиоматическое определение вероятности как частные случаи включает в себя и классическое, и статистическое определения и преодолевает недостатки каждого из них.

58

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Впервые идея аксиоматического построения вероятностей была высказана российским академиком С.Н. Бернштейном, исходившим из качественного сравнения событий по их большей или меньшей вероятности. В начале 1930-х гг. академик А.Н. Колмогоров разработал иной подход, связывающий теорию вероятностей с современной метрической теорией функций и теорией множеств, который в настоящее время является общепринятым. Сформулируем а к с и о м ы теории вероятностей. Каждому событию А поставим в соответствие некоторое число, называемое вероятностью события А, т.е. Р(А). Так как любое событие есть множество, то вероятность события есть функция множества. Вероятность события должна удовлетворять следующим а к с и о м а м. Р.1. Вероятность любого события неотрицательна: Р(А)  0. Р.2. Вероятность достоверного события равна 1: Р() = 1. Р.3. Вероятность суммы несовместных событий равна сумме вероятностей этих событий, т.е. если AiAj =  (i  j), то Р(А1 + А2 + … + Аn) = Р(А1) + Р(А2) + … + Р(Аn). Для классического определения вероятности свойства, выраженные аксиомами Р.2, Р.3, не нужно постулировать, так как эти свойства были нами доказаны выше. Из аксиом Р.1, Р.2, Р.3 можно вывести основные с в о й с т в а вероятностей, известные нам из предыдущего изложения:

1. 2. 3. 4. 5. 6.

P ( A) = 1  P ( A).

Р() = 0. 0 Р(А) 1. Р(А) Р(В), если А  В. Р(А + B) = Р(А) + Р(В) – P(AB). Р(А + В) Р(А) + Р(В). В случае произвольного (не обязательно конечного) пространства элементарных событий  аксиому Р.3 необходимо заменить более сильной, расширенной аксиомой сложения Р.3 (которую нельзя вывести из аксиомы Р.3). Если имеется счетное1 множество несовместных событий А1, А2, …, Аn, …, (АiAj =  при i  j), то

    P   Ai  =  P ( Ai ) .  i =1  i =1 1

Напомним, что множество называется счетным, если его элементы можно перенумеровать натуральными числами.

59

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Аксиомы теории вероятностей позволяют вычислить вероятности любых событий (подмножеств пространства ) через вероятности элементарных событий (если их конечное или счетное число). Вопрос о том, откуда берутся вероятности элементарных событий, при аксиоматическом построении теории вероятностей не рассматривается. На практике они определяются с помощью классического определения (если испытание сводится к схеме случаев) или статистического определения. Сформулированные аксиомы не определяют условной вероятности одного события относительно другого, которая вводится по определению. О п р е д е л е н и е. Условная вероятность события В относительно события А есть отношение вероятности произведения этих событий к вероятности события А, т.е. РА(В) =

P( AB) , P( A)

(1.34)

если Р(А)  0. Из этого определения автоматически следует теорема (правило) умножения вероятностей для любых событий. В последующих главах мы по-прежнему будем ссылаться на теоремы (правила) сложения и умножения вероятностей, хотя правильнее было бы говорить об аксиоме сложения, определении условной вероятности. В более полных курсах теории вероятностей рассматривается понятие вероятностного пространства, определяемого тройкой компонент (символов) (, S, P), где  — пространство элементарных событий, S — (cигма)-алгебра событий, Р — вероятность. Первую () и третью (Р) компоненты вероятностного пространства мы уже рассмотрели в данном параграфе. Вторая компонента (S) вероятностного пространства — -алгебра событий — представляет собой некоторую систему подмножеств пространства элементарных исходов (событий) . Если  конечно или счетно, то любое подмножество элементарных исходов является событием, а -алгебра есть система всех этих подмножеств. Если же  более чем счетно, то оказывается, что не каждое произвольное подмножество  может быть названо событием. Причина этого заключается в существовании так называемых неизмеримых подмножеств. Поэтому в этом случае под событием понимается уже не любое подмножество пространства , а только подмножество из выделенного класса S, a -алгебра есть система таких подмножеств. Рассмотрение указанных вопросов выходит за рамки данной книги.

60

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Упражнения 1.37. Слово составлено из карточек, на каждой из которых написана одна буква. Карточки смешивают и вынимают без возврата по одной. Найти вероятность того, что карточки с буквами вынимаются в порядке следования букв заданного слова: а) «событие»; б) «статистика». 1.38. Пятитомное собрание сочинений расположено на полке в случайном порядке. Какова вероятность того, что книги стоят слева направо в порядке нумерации томов (от 1 до 5)? 1.39. Среди 25 студентов, из которых 15 девушек, разыгрываются четыре билета, причем каждый может выиграть только один билет. Какова вероятность того, что среди обладателей билета окажутся: а) четыре девушки; б) четыре юноши; в) три юноши и одна девушка? 1.40. Из 20 филиалов Сбербанка 10 расположены за чертой города. Для обследования случайным образом отобрано 5 филиалов. Какова вероятность того, что среди отобранных окажется в черте города: а) 3 филиала; б) хотя бы один? 1.41. Из ящика, содержащего 5 пар обуви, из которых три пары мужской, а две пары женской, перекладывают наудачу 2 пары обуви в другой ящик, содержащий одинаковое количество пар женской и мужской обуви. Какова вероятность того, что во втором ящике после этого окажется одинаковое количество пар мужской и женской обуви? 1.42. В магазине имеются 30 телевизоров, причем 20 из них импортных. Найти вероятность того, что среди 5 проданных в течение дня телевизоров окажется не менее 3 импортных телевизоров, предполагая, что вероятности покупки телевизоров разных марок одинаковы. 1.43. Наудачу взятый телефонный номер состоит из 5 цифр. Какова вероятность того, что в нем все цифры: а) различные; б) одинаковые; в) нечетные? Известно, что номер телефона не начинается с цифры ноль. 1.44. Для проведения соревнования 16 волейбольных команд разбиты по жребию на две подгруппы (по восемь команд в каждой). Найти вероятность того, что две наиболее сильные команды окажутся: а) в разных подгруппах; б) в одной подгруппе. 1.45. Студент знает 20 из 25 вопросов программы. Зачет считается сданным, если студент ответит не менее чем на 3 из 4 поставленных в билете вопросов. Взглянув на первый вопрос билета, студент обнаружил, что он его знает. Какова вероятность того, что студент: а) сдаст зачет; б) не сдаст зачет?

61

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1.46. У сборщика имеются 10 деталей, мало отличающихся друг от друга, из них четыре — первого, по две — второго, третьего и четвертого видов. Какова вероятность того, что среди шести взятых одновременно деталей три окажутся первого вида, два — второго и одна — третьего? 1.47. Найти вероятность того, что из 10 книг, расположенных в случайном порядке, 3 определенные книги окажутся рядом. 1.48. В старинной игре в кости необходимо было для выигрыша получить при бросании трех игральных костей сумму очков, превосходящую 10. Найти вероятности: а) выпадения 11 очков; б) выигрыша. 1.49. На фирме работают 8 аудиторов, из которых 3 — высокой квалификации, и 5 программистов, из которых 2 — высокой квалификации. В командировку надо отправить группу из 3 аудиторов и 2 программистов. Какова вероятность того, что в этой группе окажется по крайней мере 1 аудитор высокой квалификации и хотя бы 1 программист высокой квалификации, если каждый специалист имеет равные возможности поехать в командировку? 1.50. Два лица условились встретиться в определенном месте между 18 и 19 ч и договорились, что пришедший первым ждет другого в течение 15 мин., после чего уходит. Найти вероятность их встречи, если приход каждого в течение указанного часа может произойти в любое время и моменты прихода независимы. 1.51. Какова вероятность того, что наудачу брошенная в круг точка окажется внутри вписанного в него квадрата? 1.52. При приеме партии изделий подвергается проверке половина изделий. Условие приемки — наличие брака в выборке менее 2%. Вычислить вероятность того, что партия из 100 изделий, содержащая 5% брака, будет принята. 1.53. По результатам проверки контрольных работ оказалось, что в первой группе получили положительную оценку 20 студентов из 30, а во второй — 15 из 25. Найти вероятность того, что наудачу выбранная работа, имеющая положительную оценку, написана студентом первой группы. 1.54. Экспедиция издательства отправила газеты в три почтовых отделения. Вероятность своевременной доставки газет в первое отделение равна 0,95, во второе отделение — 0,9 и в третье — 0,8. Найти вероятность следующих событий: а) только одно отделение получит газеты вовремя; б) хотя бы одно отделение получит газеты с опозданием. 1.55. Прибор, работающий в течение времени t, состоит из трех узлов, каждый из которых независимо от других может за это время выйти из строя. Неисправность хотя бы одного узла выводит прибор из строя целиком. Вероятность безотказной работы в течение

62

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

времени t первого узла равна 0,9, второго — 0,95, третьего — 0,8. Найти вероятность того, что в течение времени t прибор выйдет из строя. 1.56. Студент разыскивает нужную ему формулу в трех справочниках. Вероятность того, что формула содержится в первом, втором и третьем справочниках, равна соответственно 0,6, 0,7 и 0,8. Найти вероятность того, что эта формула содержится не менее чем в двух справочниках. 1.57. Произведено три выстрела по цели из орудия. Вероятность попадания при первом выстреле равна 0,75; при втором — 0,8; при третьем — 0,9. Определить вероятность того, что будет: а) три попадания; б) хотя бы одно попадание. 1.58. Вероятность своевременного выполнения студентом контрольной работы по каждой из трех дисциплин равна соответственно 0,6, 0,5 и 0,8. Найти вероятность своевременного выполнения контрольной работы студентом: а) по двум дисциплинам; б) хотя бы по двум дисциплинам. 1.59. Мастер обслуживает 4 станка, работающих независимо друг от друга. Вероятность того, что первый станок в течение смены потребует внимания рабочего, равна 0,3, второй — 0,6, третий — 0,4 и четвертый — 0,25. Найти вероятность того, что в течение смены хотя бы один станок не потребует внимания мастера. 1.60. Контролер ОТК, проверив качество сшитых 20 пальто, установил, что 16 из них первого сорта, а остальные — второго. Найти вероятность того, что среди взятых наудачу из этой партии трех пальто одно будет второго сорта. 1.61. Среди 20 поступающих в ремонт часов 8 нуждаются в общей чистке механизма. Какова вероятность того, что среди взятых одновременно наудачу 3 часов по крайней мере двое нуждаются в общей чистке механизма? 1.62. Среди 15 лампочек 4 стандартные. Одновременно берут наудачу 2 лампочки. Найти вероятность того, что хотя бы одна из них нестандартная. 1.63. В коробке смешаны электролампы одинакового размера и формы: по 100 Вт — 7 штук, по 75 Вт — 13 штук. Вынуты наудачу 3 лампы. Какова вероятность того, что: a) они одинаковой мощности; б) хотя бы две из них по 100 Вт? 1.64. В коробке 10 красных, 3 синих и 7 желтых карандашей. Наудачу вынимают 3 карандаша. Какова вероятность того, что они все: а) разных цветов; б) одного цвета? 1.65. Брак в продукции завода вследствие дефекта А составляет 4%, а вследствие дефекта В — 3,5%. Годная продукция завода составляет 95%. Найти вероятность того, что: а) среди продукции,

63

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

не обладающей дефектом А, встретится дефект В; б) среди забракованной по признаку А продукции встретится дефект В. 1.66. Пакеты акций, имеющихся на рынке ценных бумаг, могут дать доход владельцу с вероятностью 0,5 (для каждого пакета). Сколько пакетов акций различных фирм нужно приобрести, чтобы с вероятностью, не меньшей 0,96875, можно было ожидать доход хотя бы по одному пакету акций? 1.67. Сколько раз нужно провести испытание, чтобы с вероятностью, не меньшей Р, можно было утверждать, что по крайней мере один раз произойдет событие, вероятность которого в каждом испытании равна р? Дать ответ при р = 0,4 и Р = 0,8704. 1.68. На полке стоят 10 книг, среди которых 3 книги по теории вероятностей. Наудачу берутся три книги. Какова вероятность, что среди отобранных хотя бы одна книга по теории вероятностей? 1.69. На связке 5 ключей. К замку подходит только один ключ. Найти вероятность того, что потребуется не более двух попыток открыть замок, если опробованный ключ в дальнейших испытаниях не участвует. 1.70. В магазине продаются 10 телевизоров, 3 из них имеют дефекты. Какова вероятность того, что посетитель купит телевизор, если для выбора телевизора без дефектов понадобится не более трех попыток? 1.71. Радист трижды вызывает корреспондента. Вероятность того, что будет принят первый вызов, равна 0,2, второй — 0,3, третий — 0,4. События, состоящие в том, что данный вызов будет услышан, независимы. Найти вероятность того, что корреспондент услышит вызов радиста. 1.72. Страховая компания разделяет застрахованных по классам риска: I класс — малый риск, II класс — средний, III класс — большой риск. Среди этих клиентов 50% — первого класса риска, 30% — второго и 20% — третьего. Вероятность необходимости выплачивать страховое вознаграждение для первого класса риска равна 0,01, второго — 0,03, третьего — 0,08. Какова вероятность того, что: а) застрахованный получит денежное вознаграждение за период страхования; б) получивший денежное вознаграждение застрахованный относится к группе малого риска? 1.73. В данный район изделия поставляются тремя фирмами в соотношении 5:8:7. Среди продукции первой фирмы стандартные изделия составляют 90%, второй — 85%, третьей — 75%. Найти вероятность того, что: а) приобретенное изделие окажется нестандартным; б) приобретенное изделие оказалось стандартным. Какова вероятность того, что оно изготовлено третьей фирмой? 1.74. Два стрелка сделали по одному выстрелу в мишень. Вероятность попадания в мишень для первого стрелка равна 0,6, а для

64

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

второго — 0,3. В мишени оказалась одна пробоина. Найти вероятность того, что она принадлежит первому стрелку. 1.75. Вся продукция цеха проверяется двумя контролерами, причем первый контролер проверяет 55% изделий, а второй — остальные. Вероятность того, что первый контролер пропустит нестандартное изделие, равна 0,01, второй — 0,02. Взятое наудачу изделие, маркированное как стандартное, оказалось нестандартным. Найти вероятность того, что это изделие проверялось вторым контролером. 1.76. Вероятность изготовления изделия с браком на данном предприятии равна 0,04. Перед выпуском изделие подвергается упрощенной проверке, которая в случае бездефектного изделия пропускает его с вероятностью 0,96, а в случае изделия с дефектом — с вероятностью 0,05. Определить: а) какая часть изготовленных изделий выходит с предприятия; б) какова вероятность того, что изделие, выдержавшее упрощенную проверку, бракованное? 1.77. В одной урне 5 белых и 6 черных шаров, а в другой — 4 белых и 8 черных шаров. Из первой урны случайным образом вынимают 3 шара и опускают во вторую урну. После этого из второй урны также случайно вынимают 4 шара. Найти вероятность того, что все шары, вынутые из второй урны, белые. 1.78. Из n экзаменационных билетов студент А подготовил только m (m < n). В каком случае вероятность вытащить на экзамене «хороший» для него билет выше: когда он берет наудачу билет первым, или вторым, …, или k-м (k < n) по счету среди сдающих экзамен? 1.79. В лифт семиэтажного дома на первом этаже вошли три человека. Каждый из них с одинаковой вероятностью выходит на любом из этажей, начиная со второго. Найти вероятность того, что все пассажиры выйдут: а) на четвертом этаже; б) на одном и том же этаже; в) на разных этажах. 1.80. Батарея, состоящая из 3 орудий, ведет огонь по группе, состоящей из 5 самолетов. Каждое орудие выбирает себе цель случайно и независимо от других. Найти вероятность того, что все орудия будут стрелять: а) по одной и той же цели; б) по разным целям. 1.81. 20 человек случайным порядком рассаживаются за столом. Найти вероятность того, что два фиксированных лица А и В окажутся рядом, если: а) стол круглый; б) стол прямоугольный, а 20 человек рассаживаются случайно вдоль одной из его сторон. 1.82. Имеется коробка с девятью новыми теннисными мячами. Для игры берут три мяча; после игры их кладут обратно. При выборе мячей игранные от неигранных не отличаются. Какова вероятность того, что после трех игр в коробке не останется неигранных мячей? 1.83. Завод выпускает определенного типа изделия; каждое изделие имеет дефект с вероятностью 0,7. После изготовления изделие осматривается последовательно тремя контролерами, каждый из

65

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

которых обнаруживает дефект с вероятностями 0,8; 0,85; 0,9 соответственно. В случае обнаружения дефекта изделие бракуется. Определить вероятность того, что изделие: 1) будет забраковано; 2) будет забраковано: а) вторым контролером, б) всеми контролерами. 1.84. Из полной колоды карт (52 карты) выбирают шесть карт; одну из них смотрят; она оказывается тузом, после чего ее смешивают с остальными выбранными картами. Найти вероятность того, что при втором извлечении карты из этих шести мы снова получим туз. 1.85. В урне два белых и три черных шара. Два игрока поочередно вынимают из урны по шару, не вкладывая их обратно. Выигрывает тот, кто раньше получит белый шар. Найти вероятность того, что выиграет первый игрок. 1.86. Производятся испытания прибора. При каждом испытании прибор выходит из строя с вероятностью 0,8. После первого выхода из строя прибор ремонтируется; после второго признается негодным. Найти вероятность того, что прибор окончательно выйдет из строя в точности при четвертом испытании. 1.87. Имеется 50 экзаменационных билетов, каждый из которых содержит два вопроса. Экзаменующийся знает ответ не на все 100 вопросов, а только на 60. Определить вероятность того, что экзамен будет сдан, если для этого достаточно ответить на оба вопроса из своего билета, или на один вопрос из своего билета и на один (по выбору преподавателя) вопрос из дополнительного билета. 1.88. Прибор состоит из двух узлов: работа каждого узла безусловно необходима для работы прибора в целом. Надежность (вероятность безотказной работы в течение времени t) первого узла равна 0,8, второго — 0,9. Прибор испытывался в течение времени t, в результате чего обнаружено, что он вышел из строя (отказал). Найти вероятность того, что отказал только первый узел, а второй исправен. 1.89. В группе из 10 студентов, пришедших на экзамен, 3 — подготовлены отлично, 4 — хорошо, 2 — посредственно и 1 — плохо. В экзаменационных билетах имеется 20 вопросов. Отлично подготовленный студент может ответить на все 20 вопросов, хорошо подготовленный — на 16, посредственно — на 10, плохо — на 5. Вызванный наугад студент ответил на три произвольно заданных вопроса. Найти вероятность того, что студент подготовлен: а) отлично; б) плохо. 1.90. А, В, С, D — некоторые события. Упростить выражение

E = ( A + B)( AB + C ) + C + ( A + B )( D + E ). 1.91. 12 студентов, среди которых Иванов и Петров, занимают оче-

редь в библиотеку. Какова вероятность того, что между ними в образовавшейся очереди окажутся ровно 5 человек? 1.92. При игре в бридж между четырьмя игроками раздают 52 карты по 13 карт каждому. Найти вероятность того, что каждый игрок получит: а) по одному тузу; б) по одной карте каждого достоинства.

66

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1.93. Из букв слова «СТАТИСТИКА» путем их случайной перестановки формируется новое слово. Найти вероятность того, что: а) вновь получится слово «СТАТИСТИКА»; б) получится слово, в котором согласные идут подряд. 1.94. Чему равна вероятность того, что дни рождения шести наугад выбранных человек придутся в точности на два месяца? 1.95. Из урны, содержащей три белых и пять черных шаров два человека вынули поочередно по шару (без возвращения). Какова вероятность того, что первый вынул белый шар, если второй вынул черный шар? 1.96. На сборочной линии завода проводится сборка четырех изделий. Вероятность бездефектной сборки изделия равна 0,8. После выпуска двух изделий линию перенастроили, что повысило вероятность бездефектной сборки изделия на 0,05. Найти вероятность того, что ровно три изделия собраны без дефектов. 1.97. Два стрелка поочередно стреляют по мишени до первого попадания. Вероятность попадания для первого стрелка равна 0,2, для второго — 0,3. Какова вероятность того, что первый сделает больше выстрелов? 1.98. Два руководителя планируют создать совместное предприятие, если в течение года каждому из них удается сформировать свою долю начального капитала. Вероятности этого равны соответственно 0,4 и 0,7. По истечении года выяснилось, что совместное предприятие не может быть создано. Какова вероятность того, что каждый участник сумел накопить свою долю начального капитала? 1.99. Есть два золотоносных района, поделенных на четыре участка каждый, причем по прогнозам известно, что вероятность выбрать золотоносный участок равна 3/4 и 1/2 соответственно для первого и второго районов. Наугад выбран район и куплен один участок, который оказался золотоносным. Какова вероятность вторичной удачной покупки?

67

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

2

Повторные независимые испытания

На практике часто приходится сталкиваться с задачами, которые можно представить в виде многократно повторяющихся испытаний при данном комплексе условий, в которых представляет интерес вероятность числа m наступлений некоторого события А в n испытаниях. Например, необходимо определить вероятность определенного числа попаданий в мишень при нескольких выстрелах, вероятность некоторого числа бракованных изделий в данной партии и т.д. Если вероятность наступления события А в каждом испытании не меняется в зависимости от исходов других, то такие испытания называются независимыми относительно события А. Если независимые повторные испытания проводятся при одном и том же комплексе условий, то вероятность наступления события А в каждом испытании одна и та же. Описанная последовательность независимых испытаний получила название схемы Бернулли.

2.1. Формула Бернулли Теорема. Если вероятность р наступления события А в каждом испытании постоянна, то вероятность Pm,n того, что событие А наступит m раз в n независимых испытаниях, равна

Pm, n = Cnm p m q n  m ,

(2.1)

где q = 1 – p.  Пусть Ai и Ai — соответственно появление и непоявление события А в i-м испытании (i = 1, 2, …, n), а Bm — событие, состоящее в том, что в n независимых испытаниях событие А появилось m раз. Представим событие Bm через элементарные события Ai. Например, при n = 3, m = 2 cобытие

B2 = A1 A2 A3 + A1 A2 A3 + A1 A2 A3 , т.е. событие А произойдет два раза в трех испытаниях, если оно произойдет в 1-м и 2-м испытаниях (и не произойдет в 3-м), или в 1-м и 3-м (и не произойдет во 2-м), или произойдет во 2-м и 3-м (и не произойдет в 1-м).

68

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

В общем виде

Bm = A1 A2 ... Am Am +1... An + A1 A2 A3 ... An 1 An + ... + + A1 A2 ... An  m An  m +1... An ,

(2.2)

т.е. каждый вариант появления события Bm (каждый член суммы (2.2)) состоит из m появлений события А и n – m непоявлений, т.е. из m событий А и из n – m событий  с различными индексами. Число всех комбинаций (слагаемых суммы (2.2)) равно числу способов выбора из n испытаний m, в которых событие А произошло, т.е. числу сочетаний Cnm . Вероятность каждой такой комбинации (каждого варианта появления события Вm) по теореме умножения для независимых событий равна рmqn-m, так как p ( Ai ) = p,

p ( Ai ) = q, i = 1, 2, …, n. В связи с тем, что комбинации между со-

бой несовместны, по теореме сложения вероятностей получим Pm, n = P ( Bm ) = p m q n  m + ... + p m q n  m = Cnm p m q n  m . 

 Cnm 

 Пример 2.1. Вероятность изготовления на автоматическом станке стандартной детали равна 0,8. Найти вероятности возможного числа появления бракованных деталей среди 5 отобранных. Р е ш е н и е. Вероятность изготовления бракованной детали р = 1 – 0,8 = 0,2. Искомые вероятности находим по формуле Бернулли (2.1):

P0,5 = C50  0, 20  0,85 = 0,32768;

P1,5 = C51  0, 21  0,84 = 0, 4096;

P2,5 = C52  0, 22  0,83 = 0, 2048;

P3,5 = C53  0, 23  0,82 = 0,0512;

P4,5 = C54  0, 24  0,81 = 0,0064;

P5,5 = C55  0, 25  0,80 = 0, 00032.

Полученные вероятности изобразим графически точками с координатами (m, Pm,n). Соединяя эти точки, получим многоугольник, или полигон, распределения вероятностей (рис. 2.1).  Рассматривая многоугольник распределения вероятностей (рис. 2.1), мы видим, что есть такие значения m (в данном случае, одно — m0 = 1), обладающие наибольшей вероятностью Pm,n. Число m0 наступления события А в n независимых испытаниях называется наивероятнейшим, если вероятность осуществления этого события Pm0 , n по крайней мере не меньше вероятностей других событий Pm,n при любом m.

69

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Для нахождения m0 запишем систему неравенств:

Pm,n 0,3 n = 5; p = 0,2

0,2

 Pm0 , n  Pm0 +1, n ,   Pm0 , n  Pm0 1, n .

0,1 0

1

2

3

4

5

Рис. 2.1

таний, запишем:

m

(2.3)

Решим первое неравенство системы (2.3). Используя формулы Бернулли и числа соче-

n! n! m nm p 0q 0  p m0 +1q n  m0 1. m0!(n Љ m0 )! (m0 + 1)!(n Љ m0 Љ 1)!

Так как (m0 + 1)! = m0!(m0 + 1),

(n  m0 )! = (n  m0  1)!(n  m0 ), то 1 1 q p, откуда получим после упрощений неравенство n Љ m0 m0 + 1 (m0 + 1) q  (n – m0) p. Теперь m0 (p + q)  np – q или m0  np – q (ибо p + q = 1). Решая второе неравенство системы (2.3), получим аналогично: m0  np + p. Объединяя полученные решения двух неравенств, придем к двойному неравенству: np – q  m0  np + p.

(2.4)

Отметим, что так как разность np + p – (np – q) = p + q = 1, то всегда существует целое число m0, удовлетворяющее неравенству (2.4). При этом если np + p — целое число, то наивероятнейших чисел два: m0 = np + p и m0 = np Љ q.  Пример 2.2. По данным примера 2.1 найти наивероятнейшее число появления бракованных деталей из 5 отобранных и вероятность этого числа. Р е ш е н и е. По формуле (2.4) 5Ѓ0,2 – 0,8  m0  5Ѓ0,2 + 0,2 или 0,2  m0  1,2. Единственное целое число, удовлетворяющее полученному неравенству, m0 = 1, а его вероятность Р1,5 = 0,4096 была получена в примере 2.1.   Пример 2.3. Сколько раз необходимо подбросить игральную кость, чтобы наивероятнейшее выпадение тройки было равно 10?

70

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Р е ш е н и е. В данном случае p = (2.4) n 

1 . Согласно неравенству 6

1 5 1 1 Љ  10  n  + или n – 5  60  n + 1, откуда 59  n  65, 6 6 6 6

т.е. необходимо подбросить кость от 59 до 65 раз (включительно). 

2.2. Формула Пуассона Предположим, что мы хотим вычислить вероятность Pm,n появления события А при большом числе испытаний n, например, P300,500. По формуле Бернулли (2.1) 300 300 200 P300,500 = C500 p q =

500! p300 q 200 . 300! 200!

Ясно, что в этом случае непосредственное вычисление по формуле Бернулли технически сложно, тем более если учесть, что сами р и q — числа дробные. Поэтому возникает естественное желание иметь более простые приближенные формулы для вычисления Рm,n при больших n. Такие формулы, называемые асимптотическими, существуют и определяются теоремой Пуассона, локальной и интегральной теоремами Муавра—Лапласа. Наиболее простой из них является теорема Пуассона. Теорема. Если вероятность р наступления события А в каждом испытании стремится к нулю (р  0) при неограниченном увеличении числа n испытаний (n  ), причем произведение np стремится к постоянному числу  ( np   ) , то вероятность Pm,n того, что событие А появится m раз в n независимых испытаниях, удовлетворяет предельному равенству

lim Pm, n = Pm (  ) = n 

 m eЉ . m!

(2.5)

 По формуле Бернулли (2.1)

Pm, n = Cnm p m q n  m =

n ( n  1)( n  2 ) ... ( n  m + 1) m!

p m (1  p ) (1  p ) n

m

или, учитывая, что lim np =  , т.е. при достаточно больших n, n 

p

m

    1  2   m Љ 1      и Pm , n  1  1 Љ 1 Љ  ... 1 Љ   1 Љ  n m! n n n

n

71

n

m

  1 Љ  . n

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 

Так как lim  1  n 

1  2  m 1  = lim 1   = ... = lim 1   = 1, n  n  n n   n 

Љn n         lim 1 Љ  = lim 1 Љ  n   n  n   n      m Љ lim Pm , n = e .  n  m!

Љ

=e

Љ

и

  lim 1 Љ  n   n

m

= 1,

то

Строго говоря, условие теоремы Пуассона p  0 при n  , так что np  , противоречит исходной предпосылке схемы испытаний Бернулли, согласно которой вероятность наступления события в каждом испытании p = const. Однако если вероятность р — постоянна и мала, число испытаний n — велико и число  = np — незначительно (будем полагать, что  = np  10), то из предельного равенства (2.5) вытекает приближенная формула Пуассона:

Pm, n 

 m eЉ = Pm (  ) . m!

(2.6)

В табл. III приложений приведены значения функции Пуасcона

Pm (  ) .

 Пример 2.4. На факультете насчитывается 1825 студентов. Какова вероятность того, что 1 сентября является днем рождения одновременно четырех студентов факультета? Р е ш е н и е. Вероятность того, что день рождения студента 1 сентября, равна p = 1/365. Так как p = 1/365 — мала, n = 1825 — велико и  = np = 1825  (1/365 ) = 5  10, то применяем формулу Пуассона (2.6):

P4,1825 = P4 (5) = 0,1755 (по табл. III приложений). 

2.3. Локальная и интегральная формулы Муавра—Лапласа Локальная теорема Муавра—Лапласа. Если вероятность р наступления события А в каждом испытании постоянна и отлична от 0 и 1, то вероятность Pm,n того, что событие А произойдет m раз в n независимых испытаниях при достаточно большом числе n, приближенно равна1

1 Доказательство теоремы приведено в § 6.5. Вероятностный смысл величин np, npq устанавливается в § 4.1 (см. замечание на с. 142—143).

72

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Pm,n  f ( x) =

где

f ( x)

,

(2.7)

e x / 2

(2.8)

npq

1 2

2

— функция Гаусса

x=

и

m  np npq

.

(2.9)

Чем больше n, тем точнее приближенная формула (2.7), называемая локальной формулой Муавра—Лапласа. Приближенные значения вероятности Pm,n, даваемые локальной формулой (2.7), на практике используются как точные при npq порядка двух и более десятков, т.е. при условии npq  20. Для упрощения расчетов, связанных с применением формулы (2.7), составлена таблица значений функции f(x) (табл. I, приведенная в приложениях). Пользуясь этой таблицей, необходимо иметь в виду очевидные с в о й с т в а функции f(x) (2.8). 1. Функция f(x) является четной, т.е. f(–x) = f(x). 2. Функция f(x) — монотонно убывающая при положительных значениях х, причем при х   f(x)  0. (Практически можно считать, что уже при х > 4 f(x)  0.)  Пример 2.5. В некоторой местности из каждых 100 семей 80 имеют холодильники. Найти вероятность того, что из 400 семей 300 имеют холодильники. Р е ш е н и е. Вероятность того, что семья имеет холодильник, равна p = 80/100 = 0,8. Так как n = 100 достаточно велико (условие npq = 100Ѓ0,8(1–0,8) = 64  20 выполнено), то применяем локальную формулу Mуaвpa—Лапласа. Вначале определим по формуле (2.9) x = Тогда

=

по

формуле

(2.7)

P300,400 

0,0175  0,0022 8

300 Љ 400  0,8

400  0,8  0, 2 f ( 2,50 )

100  0,8  0, 2

=

= Љ2,50. f ( 2,50 ) 64

=

(значение f(2,50) найдено по табл. I приложений). Весьма малое значение вероятности Р300,400 не должно вызывать сомнения, так как кроме события «ровно 300 семей из 400 имеют холодильники» возможно еще 400 событий: «0 из 400», «1 из 400», …, «400 из 400» со

73

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

своими вероятностями. Все вместе эти события образуют полную группу, а значит, сумма их вероятностей равна единице.  Пусть в условиях примера 2.5 необходимо найти вероятность того, что от 300 до 360 семей (включительно) имеют холодильники. В этом случае по теореме сложения вероятность искомого события Р400(300  m  360) =P300,400 + P301,400 + … + P360,400. В принципе вычислить каждое слагаемое можно по локальной формуле Муавра—Лапласа, но большое количество слагаемых делает расчет весьма громоздким. В таких случаях используется следующая теорема. Интегральная теорема Муавра—Лапласа. Если вероятность р наступления события А в каждом испытании постоянна и отлична от 0 и 1, то вероятность того, что число m наступления события А в n независимых испытаниях заключено в пределах от а до b (включительно), при достаточно большом числе n приближенно равна

1 [( x2 ) Љ ( x1 )] , 2 2 x  t 2/ 2  ( x) =  e dt 2 0

Pn ( a  m  b )  где

(2.10) (2.11)

— функция (или интеграл вероятностей) Лапласа;

x1 =

a  np npq

, x2 =

b  np npq

.

(2.12)

(Доказательство теоремы приведено в § 6.5.) Формула (2.10) называется интегральной формулой Муавра— Лапласа. Чем больше n, тем точнее эта формула. При выполнении условия npq  20 интегральная формула (2.10), так же как и локальная, дает, как правило, удовлетворительную для практики погрешность вычисления вероятностей. Функция  ( x ) табулирована (см. табл. II приложений). Для применения этой таблицы нужно знать с в о й с т в а  ( x) .

функции

1. Функция  ( x ) нечетная, т.е.  ( Љ x ) = Љ ( x ) .   (Љx) =

2

 2

x 0

2

e t / 2 dt. Сделаем замену переменной t = –z.

Тогда dt = –dz. Пределами интегрирования по переменной z будут 0 и х. Получим

 (Љx) = Љ

2

 2

x 0

e z

74

2

/2

dz = Љ  ( x ) ,

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

поскольку величина определенного интеграла не зависит от обозначения переменной интегрирования.  2. Функция  ( x ) монотонно возрастающая, причем при x  +

 ( x )  1 (практически можно считать, что уже при х > 4  ( x )  1 ).

 Так как производная интеграла по переменному верхнему пределу равна подынтегральной функции при значении верхнего предела, т.е.  ( x ) =

2

e x / 2 , и всегда положительна, то  ( x ) 2

2

монотонно возрастает на всей числовой прямой. Найдем

lim  ( x ) = lim x +

2

x +

 2

x 0

2

2

 2

eЉ t / 2 dt =

+ 0

Сделаем замену переменной z = t / 2, тогда интегрирования не меняются, и

2

lim  ( x ) =

 2

x +

+ Љ z 2 0

e

2dz =

2

1  2 

2

eЉ t / 2 dt. 2dz = dt , пределы



+

Љ

2

eЉ z dz

(так как интеграл от четной функции

Учитывая, что



+ Љ



+

Љ

+

2

2

eЉ z dz = 2 eЉ z dz ). 0

2

eЉ z dz =  (интеграл Эйлера—Пуассона), получим

lim  ( x ) = x +

2

1    = 1.   2

 Пример 2.6. По данным примера 2.5 вычислить вероятность того, что от 300 до 360 (включительно) семей из 400 имеют холодильники. Р е ш е н и е. Применяем интегральную теорему Муавра— Лапласа (npq = 64  20). Вначале определим по формулам (2.12)

x1 =

300 Љ 400  0,8 400  0,8  0, 2

= Љ2,50,

x2 =

360 Љ 400  0,8 400  0,8  0, 2

= 5,0 .

Теперь по формуле (2.10), учитывая свойства  ( x ) , получим

1 1  ( 5,0 ) Љ  ( Љ2,50 )  =  ( 5,0 ) +  ( 2,50 )   2 2 1  (1 + 0,9876 ) = 0,9938 2 (по табл. II приложений  ( 2,50 ) = 0,9876,  ( 5,0 )  1) .  P400 ( 300  m  360 ) 

75

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Рассмотрим с л е д с т в и е интегральной теоремы Муавра— Лапласа. Следствие. Если вероятность p наступления события А в каждом испытании постоянна и отлична от 0 и 1, то при достаточно большом числе n независимых испытаний вероятность того, что: а) число m наступлений события А отличается от произведения np не более чем на величину  > 0 (по абсолютной величине), т.е.

   Pn ( m Љ np   )    ;  npq



б) частость чительно)1, т.е.

(2.13)

m события А заключена в пределах от  до  (вклюn m   1 Pn       ( z2 ) Љ  ( z1 )  , n   2

z1 =

где

Љ p pq n

,

z2 =

Љ p pq n

;

(2.14) (2.15)

m события А отличается от его вероятности р не n более чем на величину  > 0 (по абсолютной величине), т.е.  n m  (2.16) Pn  Љ p     . 

n

pq  а) Неравенство m Љ np   равносильно двойному неравенству np Љ   m  np + . Поэтому по интегральной формуле (2.10) в) частость

Pn ( m Љ np   ) = Pn ( np Љ   m  np +  )  

 np Љ  Љ np   1      Љ   1   np +  Љ np   Љ  =  Љ  = 2  npq  npq   2  npq 

npq  

=

1

      1    

+ 

= 

. 2  npq npq  npq

Вероятностный смысл величины pq/n устанавливается в § 4.1.

76

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

m   равносильно неравенству a  m  b при n a = n и b = n. Заменяя в формулах (2.10), (2.12) величины a и b б) Неравенство  

полученными выражениями, получим доказываемые формулы (2.14) и (2.15).

m  p   равносильно неравенству m  np  n . n Заменяя в формуле (2.13)  = n , получим доказываемую формулу в) Неравенство

(2.16). 

 Пример 2.7. По данным примера 2.5 вычислить вероятность того, что от 280 до 360 семей из 400 имеют холодильники. Р е ш е н и е. Вычислить вероятность P400( 280  m  360) можно аналогично примеру 2.6 по основной формуле (2.10). Но проще это сделать, если заметить, что границы интервала 280 и 360 симметричны относительно величины np = 320. Тогда по формуле (2.13) P400(280  m  360 ) = P400(–40  m Љ 320  40 ) =

  40  400  0,8  0, 2  =  ( 5,0 )  1. 

= P400( m  320  40 )   

 Пример 2.8. По статистическим данным в среднем 87% новорожденных доживают до 50 лет. 1. Найти вероятность того, что из 1000 новорожденных доля (частость) доживших до 50 лет будет: а) заключена в пределах от 0,9 до 0,95; б) будет отличаться от вероятности этого события не более чем на 0,04 (по абсолютной величине). 2. При каком числе новорожденных с надежностью 0,95 доля доживших до 50 лет будет заключена в границах от 0,86 до 0,88? Р е ш е н и е. 1, а) Вероятность p того, что новорожденный доживет до 50 лет, равна 0,87. Так как n = 1000 велико (условие npq = =1000Ѓ0,87Ѓ0,13 = 113,1  20 выполнено), то используем следствие интегральной теоремы Муавра—Лапласа. Вначале определим по формулам (2.15)

z1 =

0,9  0,87

0,87  0,13/1000

= 2,82, z2 =

0,95  0,87

0,87  0,13/1000

= 7,52.

Теперь по формуле (2.14)

m   1 P1000 0,9   0,95    ( 7,52 ) Љ  ( 2,82 )  = n

 2 1 = (1  0,9952 ) = 0,0024. 2

77

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1, б) По формуле (2.16)

 0,04  1000  m  P1000  Љ 0,87  0,04    =  ( 3,76 ) = 0,9998.

n

0,87  0,13 m  0,87  0, 04 равносильно неравенству Так как неравенство n m 0,83   0,91, полученный результат означает, что практически n

достоверно, что от 0,83 до 0,91 числа новорожденных из 1000 доживут до 50 лет. 

m m  0,88) = 0,95, или Pn (0, 01   n n m   0,87  0, 01) = Pn   0,87  0,01 = 0,95. (*) n  2. По условию Pn (0,86 

 n  = 0,95.  pq   По табл. II приложений (t ) = 0,95 при t = 1,96, следовательно, По формуле (2.16) при  = 0,01

 n pq

= t , откуда

n=

t 2 pq 1,962  0,87  0,13 = = 4345 , 0,012 2

т.е. условие (*) может быть гарантировано при существенном увеличении числа рассматриваемых новорожденных до n = 4345. 

2.4. Решение задач  Пример 2.9. В среднем 20% пакетов акций на аукционах продаются по первоначально заявленной цене. Найти вероятность того, что из 9 пакетов акций в результате торгов по первоначально заявленной цене: 1) не будут проданы 5 пакетов; 2) будет продано: а) менее 2 пакетов; б) не более 2 пакетов; в) хотя бы 2 пакета; г) наивероятнейшее число пакетов. Р е ш е н и е. 1) Вероятность того, что пакет акций не будет продан по первоначально заявленной цене, р = 1 – 0,2 = 0,8. По формуле Бернулли (2.1)

P5,9 = C95  0,85  0, 24 = 0,066.

78

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

2, а) По условию р = 0,2.

P9 ( m < 2 ) = P0,9 + P1,9 = C90  0, 20  0,89 + C91  0, 2  0,88 = 0, 436. 2, б) P9 ( m  2 ) = P0,9 + P1,9 + P2,9 = C9  0, 2  0,8 + C9  0, 2  0,8 + 0

0

9

1

8

+ C92  0, 22  0,87 = 0, 738 . 2, в) P9 ( m  2 ) = P2,9 + P3,9 + ... + P9,9 . Указанную вероятность можно найти проще, если перейти к противоположному событию, т.е.

P9 ( m  2 ) = 1 Љ P9 ( m < 2 ) = 1 Љ ( P0,9 + P1,9 ) = 1 Љ 0, 436 = 0,564 (см. п. 2, a). 2, г) Наивероятнейшее число проданных акций по первоначально заявленной цене определится из условия (2.4), т.е. 9Ѓ0,2 – 0,8  m0  9  0, 2 + 0, 2 или 1  m0  2, т.е. наивероятнейших чисел два: m0 = 1 и m~0 = 2 . Поэтому вероятность

P’ = P1,9 + P2,9 = C91  0, 2  0,88 + C92  0, 22  0,87 = 0, 604.   Пример 2.10. Завод отправил на базу 10 000 стандартных изделий. Среднее число изделий, повреждаемых при транспортировке, составляет 0,02%. Найти вероятность того, что из 10 000 изделий: 1) будет повреждено: а) 3; б) по крайней мере 3; 2) не будет повреждено: а) 9997; б) хотя бы 9997. Р е ш е н и е. 1, а) Вероятность того, что изделие будет повреждено при транспортировке, равна р = 0,0002. Так как p — мала, n = 10 000 — велико и  = np = 10 000  0,0002 = 2  10 , следует применить формулу Пуассона (2.6): Р3,10 000 =

23 e2 . 3!

Это значение проще найти, используя табл. III приложений: Р3,10 000 = Р3(2) = 0,1804.

1, б) Вероятность P10 000 ( m  3) может быть вычислена как сумма большого количества слагаемых:

P10 000 ( m  3) = Р3,10 000 + Р4,10 000 + … + Р10 000,10 000.

Но, разумеется, проще ее найти, перейдя к противоположному событию:

P10 000 ( m  3) = 1 Љ P10 000 ( m < 3) = 1 Љ ( P0,10000 + P1,10000 + P2,10000 ) = = 1  ( 0,1353 + 0, 2707 + 0, 2707 ) = 0,3233.

79

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Следует отметить, что для вычисления вероятности P10 000 ( m  3) = = P10 000 ( 3  m  10 000 ) нельзя применить интегральную формулу Муавра—Лапласа, так как не выполнено условие ее применимости, ибо npq  2 < 20. 2, а) В данном случае р = 1 – 0,0002 = 0,9998 и надо найти Р9997,10 000, для непосредственного вычисления которой нельзя применить ни формулу Пуассона (р велика), ни локальную формулу Муавра—Лапласа ( npq  2 < 20 ) . Однако событие «не будет повреждено 9997 из 10 000» равносильно событию «будет повреждено 3 из 10 000», вероятность которого, равная 0,1804, получена в п. 1, а). 2, б) Событие «не будет повреждено хотя бы 9997 из 10 000» равносильно событию «будет повреждено не более 3 из 10 000», для которого р = 0,0002 и

P10 000 ( m  3) = P0,10 000 + P1,10 000 + P2,10 000 + P3,10 000 =

= 0,1353 + 0, 2707 + 0, 2707 + 0,1805 = 0,8572.   Пример 2.11. По результатам проверок налоговыми инспекциями установлено, что в среднем каждое второе малое предприятие региона имеет нарушение финансовой дисциплины. Найти вероятность того, что из 1000 зарегистрированных в регионе малых предприятий имеют нарушения финансовой дисциплины: а) 480 предприятий; б) наивероятнейшее число предприятий; в) не менее 480; г) от 480 до 520. Р е ш е н и е. а) По условию р = 0,5. Так n = 1000 достаточно велико (условие npq = 10 000  0,5 (1 Љ 0,5 ) = 250  20 выполнено), то применяем локальную формулу Муавра—Лапласа. Вначале по формуле (2.9) определим x =

480 Љ 1000  0,5

1000  0,5  0,5 f ( 1, 265 )

P480,1000 

1000  0,5  0,5

=

= Љ1, 265, затем по формуле (2.7)1 f (1, 265 ) 250

=

0,1792 250

= 0,0113.

1

При вычислении значений f(1,265) и (1,265) используем линейную интерполяцию (см. табл. I и II приложений): f (1,26 ) + f (1,27 ) 1 f 1, 265  = 0,1804 + 0,1781 = 0,1792 , 2 2

(

)

(

)

 1, 265 

(

)

(1,26 ) + (1,27 ) 1 = 0, 7923 + 0, 7959 = 0, 7941. 2 2

(

80

)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

б) По формуле (2.6) наивероятнейшее число 1000Ѓ0,5 – – 0,5  m0  1000  0,5 + 0,5 , т.е. 499,5  m0  500,5 и целое m0 = 500 . Теперь по формулам (2.9) и (2.7) определим

x=

500 Љ 1000  0,5 1000  0,5  0,5

= 0 и P500,1000 

f ( 0) 250

=

0,3989 250

= 0, 0252.

в) Необходимо найти

P1000 ( m  480 ) = P1000 ( 480  m  1000 ) . Применяем интегральную

формулу Муавра—Лапласа (2.10), предварительно найдя по формулам (2.12)

x1 =

480 Љ 1000  0,5 1000  0,5  0,5

= Љ1, 265, x2 =

1000 Љ 1000  0,5 1000  0,5  0,5

= 31,6.

Теперь

1  ( 31,6 ) Љ  ( Љ1, 265 )  = 2 1 1 =  ( 31,6 ) +  (1, 265 )   (1 + 0,7941)  0,897. 2 2 г) Вероятность P1000 ( 480  m  520 ) можно было найти по той же P1000 ( 480  m  1000 ) 

интегральной формуле Муавра—Лапласа (2.10). Но проще это сделать, используя следствие (2.13), заметив, что границы интервала 480 и 520 симметричны относительно значения np = 1000Ѓ0,5 = 500:

 20  P1000 ( 480  m  520 ) = P1000 ( m Љ 500  20 )    = 250

=  (1, 265 ) = 0,794.   Пример 2.12. В страховой компании 10 тыс. клиентов. Страховой взнос каждого клиента составляет 500 руб. При наступлении страхового случая, вероятность которого, по имеющимся данным и оценкам экспертов, можно считать равной р = 0,005, страховая компания обязана выплатить клиенту страховую сумму размером 50 тыс. руб. На какую прибыль может рассчитывать страховая компания с надежностью 0,95? Р е ш е н и е. Размер прибыли компании составляет разность между суммарным взносом всех клиентов и суммарной страховой суммой, выплаченной n0 клиентам при наступлении страхового случая, т.е.

81

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

П = 500Ѓ10 – 50n0 = 50(100 – n0) тыс. руб. Для определения n0 применим интегральную формулу Муавра— Лапласа (требование npq = 10 000Ѓ0,005Ѓ0,995 = 49,75  20 выполнено). По условию задачи

P10000 ( 0  m  n0 ) =

1  ( x2 ) Љ  ( x1 )  = 0,95, 2

(2.17)

где m — число клиентов, которым будет выплачена страховая сумма;

x1 =

0 Љ np npq



n  np np 10 000  0, 005 =Љ = Љ7,09, x2 = 0 , q 0,995 npq

откуда

n0 = np + x2 npq = 10 000  0,005 + x2 49,75 = 50 + x2 49, 75. Из соотношения (2.17)

 ( x2 ) = 1,9 +  ( x1 ) = 1,9 +  ( Љ7, 09 )  1,9 + ( Љ1) = 0,9. По табл. II приложений  ( x2 ) = 0,9 при х2 = 1,645. Теперь n0 = 50 + 1, 645 49, 75 = 61, 6 и П = 50(100 – 61,6) = 1920, т.е. с надежностью 0,95 ожидаемая прибыль составит 1,92 млн руб. 

2.5. Полиномиальная схема Как отмечено выше, схема Бернулли представляет последовательность независимых испытаний с двумя исходами. При этом в каждом испытании событие А может появиться с одной и той же вероятностью p, а событие A — с вероятностью q = 1 – p. В полиномиальной (мультиномиальной) схеме осуществляется переход от последовательности независимых испытаний с двумя исходами (А и A ) к последовательности независимых испытаний с k исключающими друг друга исходами А1, А2, …, Аk. При этом в каждом испытании события А1, А2, …, Аk наступают соответственно с вероятностями p1, p2, …, pk. Тогда вероятность Pn (m1, m2, …, mk) того, что в n независимых испытаниях событие А1 произойдет m1 раз, А2 – m2, и т.д., событие Ak – mk раз (m1 + m2 +… + mk = n), определится по формуле: Pn(m1, m2, …, mk) =

n! p1m1 p2m2 ... pkmk . m1 !m2 !...mk !

82

(2.18)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Формула (2.18) получается с учетом того, что событие, состоящее в появлении в n независимых испытаниях события А1 m1 раз, А2 – m2 и т.д., события Аk – mk раз (m1 + m2 + … + mk = n), можно представить в виде суммы несовместных вариантов, вероятность каждого из которых по теореме умножения вероятностей для независимых событий m равна p1m1 p2m2 ... pk k , а число вариантов определяется числом перестановок с повторениями (1.15) из n элементов. На практике вероятность Pn (m1 , m2 , ..., mk ) можно получить как коэффициент

x1m1 x2m2 ...xkmk

при

в

разложении

полинома

n

( p1 x1 + p2 x2 + ... + pk xk ) по степеням x1 , x2 , ..., xk . В частном случае двух исходов при m1 = m, m2 = n –m, p1 = p, p2 = q, где q = 1 – p, формула (2.18) представляет формулу Бернулли (2.1).  Пример 2.12а. Человек, принадлежащий к определенной группе населения, с вероятностью 0,2 оказывается брюнетом, с вероятностью 0,3 — шатеном, с вероятностью 0,4 — блондином и с вероятностью 0,1 — рыжим. Найти вероятность того, что в составе выбранной наудачу группы из 8 человек: а) равное число брюнетов, шатенов, блондинов и рыжих; б) число блондинов втрое больше числа рыжих. Р е ш е н и е. а) По формуле (2.18) вероятность искомого события А равна

P( A) = P8 (2; 2; 2;2) =

8! 0, 22  0,32  0, 42  0,12 = 0, 0145. 2! 2! 2! 2!

б) Вероятность искомого события B равна сумме вероятностей двух несовместных событий (вариантов): B1 — в группе 3 блондина, 1 — рыжий, а остальные — ни то, ни другое; В2 — в группе 6 блондинов и 2 рыжих. По формуле (2.18), полагая, что p1 = 0,4; p2 = 0,1; p3 = 1 – (0,4 + 0,1) = = 0,5, найдем

P( B1 ) = P8 (3;1; 4) =

8! 0, 43  0,1  0,54 = 0,1120; 3!1! 4!

8! 0, 46  0,12 = 0,0011; 6! 2! P( B) = P( B1 ) + P( B2 ) = 0,1120 + 0,0011 = 0,1131.  P( B2 ) = P8 (6;2) =

Если вероятности p1, p2, …, pk наступления событий А1, А2, …, Ak в каждом испытании меняются в зависимости от исходов других, то мы имеем схему зависимых испытаний.

83

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Последовательность зависимых испытаний, в которых условные вероятности наступления событий А1, А2, …, Ak в каждом (n + 1-м) испытании (n = 1, 2,…) зависят только от исхода предшествующего (n-го) испытания, называются цепями Маркова. Цепи Маркова представляют один из видов марковского случайного процесса, рассматриваемого (в иной терминологии) в § 7.2.

Упражнения 2.13. Вероятность малому предприятию быть банкротом за время t равна 0,2. Найти вероятность того, что из шести малых предприятий за время t сохранятся: а) два; б) более двух. 2.14. В среднем пятая часть поступающих в продажу автомобилей некомплектны. Найти вероятность того, что среди десяти автомобилей имеют некомплектность: а) три автомобиля; б) менее трех. 2.15. Производится залп из шести орудий по некоторому объекту. Вероятность попадания в объект из каждого орудия равна 0,6. Найти вероятность ликвидации объекта, если для этого необходимо не менее четырех попаданий. 2.16. В среднем по 15% договоров страховая компания выплачивает страховую сумму. Найти вероятность того, что из десяти договоров с наступлением страхового случая будет связано с выплатой страховой суммы: а) три договора; б) менее двух договоров. 2.17. Предполагается, что 10% открывающихся новых малых предприятий прекращают свою деятельность в течение года. Какова вероятность того, что из шести малых предприятий не более двух в течение года прекратят свою деятельность? 2.18. В семье десять детей. Считая вероятности рождения мальчика и девочки равными между собой, определить вероятность того, что в данной семье: а) не менее трех мальчиков; б) не более трех мальчиков. 2.19. Два равносильных противника играют в шахматы. Что более вероятно: а) выиграть 2 партии из 4 или 3 партии из 6; б) не менее 2 партий из 6 или не менее 3 партий из 6? (Ничьи в расчет не принимаются.) 2.20. В банк отправлено 4000 пакетов денежных знаков. Вероятность того, что пакет содержит недостаточное или избыточное число денежных знаков, равна 0,0001. Найти вероятность того, что при проверке будет обнаружено: а) три ошибочно укомплектованных пакета; б) не более трех пакетов. 2.21. Строительная фирма, занимающаяся установкой летних коттеджей, раскладывает рекламные листки по почтовым ящикам. Прежний опыт работы компании показывает, что примерно в одном случае из двух тысяч следует заказ. Найти вероятность того, что

84

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

при размещении 100 тыс. листков число заказов будет: а) равно 48; б) находиться в границах от 45 до 55. 2.22. В вузе обучаются 3650 студентов. Вероятность того, что день рождения студента приходится на определенный день года, равна 1/365. Найти: а) наиболее вероятное число студентов, родившихся 1 мая, и вероятность такого события; б) вероятность того, что по крайней мере 3 студента имеют один и тот же день рождения. 2.23. Учебник издан тиражом 10 000 экземпляров. Вероятность того, что экземпляр учебника сброшюрован неправильно, равна 0,0001. Найти вероятность того, что: а) тираж содержит 5 бракованных книг; б) по крайней мере 9998 книг сброшюрованы правильно. 2.24. Два баскетболиста делают по 3 броска мячом в корзину. Вероятности попадания мяча в корзину при каждом броске равны соответственно 0,6 и 0,7. Найти вероятность того, что: а) у обоих будет одинаковое количество попаданий; б) у первого баскетболиста будет больше попаданий, чем у второго. 2.25. Известно, что в среднем 60% всего числа изготовляемых заводом телефонных аппаратов является продукцией первого сорта. Чему равна вероятность того, что в изготовленной партии окажется: а) 6 аппаратов первого сорта, если партия содержит 10 аппаратов; б) 120 аппаратов первого сорта, если партия содержит 200 аппаратов? 2.26. Вероятность того, что перфокарта набита оператором неверно, равна 0,1. Найти вероятность того, что: а) из 200 перфокарт правильно набитых будет не меньше 180; б) у того же оператора из десяти перфокарт будет неверно набитых не более двух. 2.27. Аудиторную работу по теории вероятностей с первого раза успешно выполняют 50% студентов. Найти вероятность того, что из 400 студентов работу успешно выполнят: а) 180 студентов, б) не менее 180 студентов. 2.28. При обследовании уставных фондов банков установлено, что пятая часть банков имеют уставный фонд свыше 100 млн руб. Найти вероятность того, что среди 1800 банков имеют уставный фонд свыше 100 млн руб.: а) не менее 300; б) от 300 до 400 включительно. 2.29. Сколько нужно взять деталей, чтобы наивероятнейшее число годных деталей было равно 50, если вероятность того, что наудачу взятая деталь будет бракованной, равна 0,1? 2.30. Вероятность того, что пассажир опоздает к отправлению поезда, равна 0,01. Найти наиболее вероятное число опоздавших из 800 пассажиров и вероятность такого числа опоздавших. 2.31. Вероятность того, что деталь стандартна, равна p = 0,9. Найти: а) с вероятностью 0,9545 границы (симметричные относительно p), в которых заключена доля стандартных среди проверенных 900 деталей; б) вероятность того, что доля нестандартных деталей среди них заключена в пределах от 0,08 до 0,11.

85

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

2.32. В результате проверки качества приготовленных для посева семян гороха установлено, что в среднем 90% всхожи. Сколько нужно посеять семян, чтобы с вероятностью 0,991 можно было ожидать, что доля взошедших семян отклонится от вероятности взойти каждому семени не более чем на 0,03 (по абсолютной величине)? 2.33. Вероятность того, что дилер, торгующий ценными бумагами, продаст их, равна 0,7. Сколько должно быть ценных бумаг, чтобы можно было утверждать с вероятностью 0,996, что доля проданных среди них отклонится от 0,7 не более чем на 0,04 (по абсолютной величине)? 2.34. У страховой компании имеются 10 000 клиентов. Каждый из них, страхуясь от несчастного случая, вносит 500 руб. Вероятность несчастного случая 0,0055, а страховая сумма, выплачиваемая пострадавшему, составляет 50 000 руб. Какова вероятность того, что: а) страховая компания потерпит убыток; б) на выплату страховых сумм уйдет более половины всех средств, поступивших от клиентов? 2.35. Первый прибор состоит из 10 узлов, второй из 8 узлов. За время t каждый из узлов первого прибора выходит из строя, независимо от других, с вероятностью 0,1, второго — с вероятностью 0,2. Найти вероятность того, что за время t в первом приборе выйдет из строя хотя бы один узел, а во втором — по крайней мере два узла. 2.36. Студент рассматриваемого вуза по уровню подготовленности с вероятностью 0,3 является «слабым», с вероятностью 0,5 — «средним», с вероятностью 0,2 — «сильным». Какова вероятность того, что из наудачу выбранных 6 студентов вуза: а) число «слабых», «средних» и «сильных» окажется одинаковым; б) число «слабых» и «сильных» окажется одинаковым? 2.37. Два завода производят электролампы. Производительность первого вдвое выше производительности второго. В среднем 5 ламп (3 лампы) на каждую сотню в продукции первого (второго) завода являются бракованными. Приобретено 5 ламп, произведенных одним из этих заводов. Из них 2 лампы оказались бракованными. Какова вероятность того, что купленные лампы произведены первым заводом? вторым заводом?

86

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

3

Случайные величины

3.1. Понятие случайной величины. Закон распределения дискретной случайной величины Одним из важнейших понятий теории вероятностей является понятие случайной величины. Под случайной величиной понимается переменная, которая в результате испытания в зависимости от случая принимает одно из возможного множества своих значений (какое именно — заранее не известно). Примеры случайных величин: 1) число родившихся детей в течение суток в г. Москве; 2) количество бракованных изделий в данной партии; 3) число произведенных выстрелов до первого попадания; 4) дальность полета артиллерийского снаряда; 5) расход электроэнергии на предприятии за месяц. Случайная величина называется дискретной (прерывной), если множество ее значений конечное, или бесконечное, но счетное1. Под непрерывной случайной величиной будем понимать величину, бесконечное несчетное множество2 значений которой есть некоторый интервал (конечный или бесконечный) числовой оси3. Так, в приведенных выше примерах 1)—3) имеем дискретные случайные величины (в примерах 1) и 2) — с конечным множеством значений; в примере 3) — с бесконечным, но счетным множеством значений); а в примерах 4) и 5) — непрерывные случайные величины. Прежде чем перейти к более строгому определению случайной величины, основанному на теоретико-множественной трактовке основных понятий, следует отметить, что возможности использования в теории вероятностей понятия события, введенного ранее в гл. 1, ограничены. Это связано с тем, что элементарные исходы (события) в общем случае имеют нечисловую природу (например, интерес игрока вызывает не наступление какого-либо случайного исхода в игре, а связанный с ним размер выигрыша или проигрыша). Для того чтобы качественные результаты испытаний отобразить количественно, достаточно каждому элементарному исходу (событию)  поставить в соответствие некоторое число, т.е. на множестве элементарных исходов  задать функцию. 1 2 3

См. сноску на с. 59. Такое множество в математике называют континуумом. Строгое определение непрерывной случайной величины дано ниже.

87

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

О п р е д е л е н и е. Случайной величиной Х называется функция, заданная на множестве элементарных исходов (или в пространстве элементарных событий)1, т.е.

 = f ( ) ,

где  — элементарный исход (или элементарное событие, принадлежащее пространству  , т.е.   ). Для дискретной случайной величины множество  возможных значений случайной величины, т.е. функции f (  ) , конечно или счетно, для непрерывной — бесконечно и несчетно. Убедимся, например, в том, что случайная величина Х — число дней во взятом наудачу месяце года (невисокосного) есть функция элементарных исходов (событий) , т.е. X = f(). В результате испытания — розыгрыша (выбора наудачу) месяца года — все множество элементарных исходов (пространство элементарных событий)  может быть представлено в виде  = {1, 2, 3, …, 12}, где 1, 2, 3, …, 12 — соответственно 1-й, 2-й, 3-й, …, 12-й месяц года. Так как X(1) = 31, X(2) = 28, X(3) = 31, X(4) = 30, …, X(12) = 31, то число дней во взятом наудачу месяце года (случайная величина Х) есть функция элементарных исходов (событий) . Случайные величины будем обозначать прописными буквами латинского алфавита X, Y, Z, …, а их значения — соответствующими строчными буквами x, y, z,… . Наиболее полным, исчерпывающим описанием случайной величины является ее закон распределения. О п р е д е л е н и е. Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями. Про случайную величину говорят, что она «распределена» по данному закону распределения или «подчинена» этому закону распределения. Для д и с к р е т н о й случайной величины закон распределения может быть задан в виде таблицы, аналитически (в виде формулы) и графически. Простейшей формой задания закона распределения дискретной случайной величины Х является таблица (матрица), в которой пере1

В случае бесконечного несчетного множества элементарных событий  это определение нуждается в уточнении (связанном с измеримостью функции f() относительно -алгебры S), которое здесь не приводится, так как выходит за рамки данной книги.

88

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

числены в порядке возрастания все возможные значения случайной величины и соответствующие их вероятности, т.е. X:

 x1  p1

или Х = 

х1 р1

… …

х2 p2

… …

xi pi

xn pn

x2 ... xn   xi   (сокращенно X =   , i = 1, 2, ..., n). p2 ... pn   pi 

Такая таблица (матрица) называется рядом распределения дискретной случайной величины. События X = x1, X = x2, …, X = xn, состоящие в том, что в результате испытания случайная величина Х примет соответственно значения x1, x2, …, xn, являются несовместными и единственно возможными (ибо в таблице перечислены все возможные значения случайной величины), т.е. образуют полную группу. Следовательно, сумма их вероятностей равна 1. Таким образом, для любой дискретной случайной величины n

n

 P( X = x ) =  p i

i =1

i =1

i

= 1.

(3.1)

(Эта единица как-то р а с п р е д е л е н а между значениями случайной величины, отсюда и термин «распределение».) Ряд распределения может быть изображен графически, если по оси абсцисс откладывать значения случайной величины, а по оси ординат — соответствующие их вероятности. Соединение полученных точек образует ломаную, называемую многоугольником, или полигоном, распределения вероятностей (рис. 3.1). pi

p2 pi p1 0

x1

pn x2

...

xi

...

xn

x

. 3.1

 Пример 3.1. В лотерее разыгрываются: автомобиль стоимостью 5000 ден. ед., 4 телевизора стоимостью 250 ден. ед., 5 видео-

89

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

магнитофонов стоимостью 200 ден. ед. Всего продается 1000 билетов по 7 ден. ед. Составить закон распределения чистого выигрыша, полученного участником лотереи, купившим один билет. Р е ш е н и е. Возможные значения случайной величины Х — чистого выигрыша на один билет — равны 0 – 7 = –7 ден. ед. (если билет не выиграл), 200 – 7 = 193, 250 – 7 = 243, 5000 – 7 = 4993 ден. ед. (если на билет выпал выигрыш соответственно видеомагнитофона, телевизора или автомобиля). Учитывая, что из 1000 билетов число невыигравших составляет 990, а указанных выигрышей соответственно 5, 4 и 1, и используя классическое определение вероятности, получим: P(X = –7) = 990/1000 = 0,990; P(X = 193) = 5/1000 = 0,005; P(X = 243) = 4/1000 = 0,004; P(X = 4993) = 1/1000 = 0,001, т.е. ряд распределения X:

хi

–7

193

243

4993

рi

0,990

0,005

0,004

0,001



 Пример 3.2. Вероятности того, что студент сдаст семестровый экзамен в сессию по дисциплинам А и Б, равны соответственно 0,7 и 0,9. Составить закон распределения числа семестровых экзаменов, которые сдаст студент. Р е ш е н и е. Возможные значения случайной величины Х — числа сданных экзаменов — 0, 1, 2. Пусть Аi — событие, состоящее в том, что студент сдаст i-й экзамен (i = 1, 2). Тогда вероятности того, что студент сдаст в сессию 0, 1, 2 экзамена, будут соответственно равны (считаем события A1 и А2 независимыми):

(

) ( ) ( )

P ( X = 0 ) = P A1 A2 = P A1 P A2 = = (1 Љ 0, 7 )(1 Љ 0,9 ) = 0,3  0,1 = 0, 03;

(

)

( ) ( )

P ( X = 1) = P A1 A2 + A1 A2 = P ( A1 ) P A2 + P A1 P ( A2 ) = = 0,7  0,1 + 0,3  0,9 = 0,34,

P ( X = 2 ) = P ( A1 A2 ) = P ( A1 ) P ( A2 ) = 0,7  0,9 = 0, 63. Итак, ряд распределения случайной величины X:

хi

0

1

2

рi

0,03

0,34

0,63

90

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

На рис. 3.2 полученный ряд распределения представлен графически в виде многоугольника (полигона) распределения вероятностей. 

pi 0,5 0,3 0,1 0

1

2 xi

. 3.2

3.2. Математические операции над случайными величинами Вначале введем понятие н е з а в и с и м о с т и случайных величин. Две случайные величины называются независимыми, если закон распределения одной из них не меняется от того, какие возможные значения приняла другая величина. Так, если дискретная случайная величина Х может принимать значения xi (i = 1, 2, ..., n), а случайная величина Y — значения yj (j = 1, 2, ..., m), то независимость дискретных случайных величин Х и Y означает независимость событий Х = xi и Y = yj при любых i = 1, 2, ..., n и j = 1, 2, ..., m. В противном случае случайные величины называются зависимыми. Например, если имеются билеты двух р а з л и ч н ы х денежных лотерей, то случайные величины X и Y, выражающие соответственно выигрыш по каждому билету (в денежных единицах), будут независимыми, так как при любом выигрыше по билету одной лотереи (например, при X = xi) закон распределения выигрыша по другому билету (Y) не изменится. Если же случайные величины X и Y выражают выигрыш по билетам о д н о й денежной лотереи, то в этом случае X и Y являются зависимыми, ибо любой выигрыш по одному билету (X = xi) приводит к изменению вероятностей выигрыша по другому билету (Y), т.е. к изменению закона распределения Y. В дальнейшем понятие независимости случайных величин будет уточнено (см. § 5.5). Определим м а т е м а т и ч е с к и е о п е р а ц и и над дискретными случайными величинами. Пусть даны две случайные величины:

91

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

X: Y:

xi

x1

x2



xn

pi

p1

p2



pn

yj

y1

y2



ym

pj

p1

p2



pm

Произведением kХ случайной величины Х на постоянную величину k называется случайная величина, которая принимает значения kxi с теми же вероятностями pi (i = 1, 2, ..., n). m

m-й степенью случайной величины Х, т.е. X , называется случайная величина, которая принимает значения xim с теми же вероятностями pi (i = 1, 2, …, n).  Пример 3.3. Дана случайная величина X:

xi

–2

1

2

pi

0,5

0,3

0,2

Найти закон распределения случайных величин: a) Y = 3X; б) Z = X 2 . Р е ш е н и е. а) Значения случайной величины Y будут: 3 (–2) = –6; 3Ѓ1 = 3; 3Ѓ2 = 6 с теми же вероятностями 0,5; 0,3; 0,2, т.е. Y:

yi

–6

3

6

pi

0,5

0,3

0,2

б) Значения случайной величины Z будут: (–2)2 = 4, 12 = 1, 22 = 4 с теми же вероятностями 0,5; 0,3; 0,2. Так как значение Z = 4 может быть получено возведением в квадрат значений (–2) с вероятностью 0,5 и (+2) с вероятностью 0,2, то по теореме сложения P(Z = 4) = 0,5 + 0,2 = 0,7. Итак, закон распределения случайной величины Z:

zi

1

4

pi

0,3

0,7



Суммой (разностью или произведением) случайных величин Х и Y называется случайная величина, которая принимает все возможные значения вида xi + yj (xi – yj или xiЃyj), где i = 1, 2, …, n; j = 1, 2, …, m, с вероятностями pij того, что случайная величина Х примет значение xi, а Y — значение yj:

(

)

pij = P ( X = xi ) Y = y j  .  

92

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Если случайные величины Х и Y независимы, т.е. независимы любые события X = xi, Y = yj, то по теореме умножения вероятностей для независимых событий

(

)

pij = P ( X = xi )  P Y = y j = pi  pj .

(3.2)

З а м е ч а н и е. Приведенные выше определения операций над дискретными случайными величинами нуждаются в уточнении: если среди получаемых значений

(x

m i

, xi ± yi , xi yi ) встретятся одина-

ковые, то соответствующие их вероятности ( pi или pij ) надо сложить, приписав повторяющемуся значению суммарную вероятность (см. примеры 3.3б и 3.4).  Пример 3.4. Даны законы распределения двух независимых случайных величин: X:

Y:

xi

0

2

4

pi

0,5

0,2

0,3

yj

–2

0

2

pj

0,1

0,6

0,2

Найти закон распределения случайных величин: а) Z = X – Y; б) U = XY. Р е ш е н и е. а) Для удобства нахождения всех значений разности Z = X – Y и их вероятностей составим вспомогательную таблицу, в каждой клетке которой поместим в левом углу значения разности Z = X – Y, а в правом углу — вероятности этих значений, полученные в результате перемножения вероятностей соответствующих значений случайных величин X и Y. yj xi

pj pi

0

0,5

2

0,2

4

0,3

2 4 6

–2

0

2

0,1

0,6

0,3

0,05 0,02 0,03

0

0,30

2

0,12

4

0,18

–2 0 2

0,15 0,06 0,09

Например, если Х = 4 (последняя строка таблицы), а Y = –2 (третий столбец таблицы), то случайная величина Z = X – Y принимает значение Z = 4 – (–2) = 6 с вероятностью P (Z = 6) = P(X = 4) Ч

93

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Ч P(Y = –2) = 0,3Ѓ0,1 = 0,03 (эти числа Z = 6 и P = 0,03 находятся в клетке на пересечении последней строки и третьего столбца). Так как среди 9 значений Z имеются повторяющиеся, то соответствующие вероятности их складываем по теореме сложения вероятностей (см. замечание на с. 93). Например, значение Z = X – Y = 2 может быть получено, когда X = 0, Y = –2 (с вероятностью 0,05); X = 2, Y = 0 (с вероятностью 0,12); X = 4;Y = 2 (с вероятностью 0,09), поэтому

P(Z = 2) = 0,05 + 0,12 + 0,09 = 0, 26 и т.д. В результате получим распределение Z:

zk

–2

0

2

4

6

pk

0,15

0,36

0,26

0,20

0,03

Убеждаемся в том, что условие

5

p

i

i =1

= 1 выполнено.

б) Распределение U = XY находится аналогично п. а). U:

uk

–8

–4

0

4

8

pk

0,03

0,02

0,80

0,06

0,09



3.3. Математическое ожидание дискретной случайной величины Закон (ряд) распределения дискретной случайной величины дает исчерпывающую информацию о ней, так как позволяет вычислить вероятности любых событий, связанных со случайной величиной. Однако такой закон (ряд) распределения бывает трудно обозримым, не всегда удобным (и даже необходимым) для анализа. Рассмотрим, например, задачу. Задача. Известны законы распределения случайных величин Х и Y — числа очков, выбиваемых 1-м и 2-м стрелками. X:

xi pi

Y:

yj

pj

0

1

2

3

4

5

6

7

8

9

10

0,15 0,11 0,04 0,05 0,04 0,10 0,10 0,04 0,05 0,12 0,20 0

1

2

3

4

5

6

7

8

9

0,01 0,03 0,05 0,09 0,11 0,24 0,21 0,10 0,10 0,04

94

10 0,02

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Необходимо выяснить, какой из двух стрелков стреляет лучше. Рассматривая ряды распределения случайных величин Х и Y, ответить на этот вопрос далеко не просто из-за обилия числовых значений. К тому же у первого стрелка достаточно большие вероятности (например, больше 0,1) имеют крайние значения числа выбиваемых очков (Х = 0; 1 и Х = 9; 10), а у второго стрелка — промежуточные значения (Y = 4; 5; 6) (см. многоугольники распределения вероятностей Х и Y на рис. 3.3). Очевидно, что из двух стрелков лучше стреляет тот, кто в с р е д н е м выбивает большее количество очков. pi, pj 0,20 0,15

Y X

0,10 0,05 0

M(X)=M(Y) 1

2

3

4

5 6 5,36

7

8

9

10

x

. 3.3

Таким средним значением случайной величины является ее математическое ожидание1. О п р е д е л е н и е. Математическим ожиданием, или средним значением, М(Х) дискретной случайной величины Х называется сумма произведений всех ее значений на соответствующие им вероятности2: n

M ( X ) =  xi pi .

(3.3)

i =1

 Пример 3.5. Вычислить М(Х ) и М(Y ) в задаче о стрелках. Р е ш е н и е. По формуле (3.3)

M ( X ) = 0  0,15 + 1  0,11 + 2  0,04 + ... + 9  0,12 + 10  0, 20 = 5,36, M (Y ) = 0  0,01 + 1  0,03 + 2  0, 05 + ... + 9  0,04 + 10  0, 02 = 5,36, т.е. среднее число выбиваемых очков у двух стрелков одинаковое.  1 Происхождение термина «математическое ожидание» связано с начальным периодом возникновения теории вероятностей, когда область ее применения ограничивалась азартными играми. Игрока интересовало среднее значение ожидаемого выигрыша, или, иначе, математическое ожидание выигрыша. 2 Для математического ожидания случайной величины Х в литературе также ис-

пользуются обозначения Е(Х), X .

95

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 3.6. Вычислить М(Х) для случайной величины Х — чистого выигрыша по данным примера 3.1. Р е ш е н и е. По формуле (3.3)

M ( X ) = ( Љ7 )  0,990 + 193  0, 005 + 243  0, 004 + 4993  0,001 = 0, т.е. средний выигрыш равен нулю. Полученный результат означает, что вся выручка от продажи билетов лотереи идет на выигрыши.  Из приведенного определения следует, что математическое ожидание заключено между наименьшим и наибольшим значениями случайной величины. (Действительно, xmin < M ( X ) < xmax , что вытекает из очевидного неравенства

n

x i =1

(3.1),

n

x i =1

min

min

n

n

i =1

i =1

pi <  xi pi <  xmax pi , ибо, учитывая равенство n

pi = xmin  pi = xmin и аналогично i =1

n

x i =1

max

pi = xmax .)

Математическое ожидание рассматривают как характеристику положения случайной величины, ее центр распределения. Последний термин связан с м е х а н и ч е с к о й и н т е р п р е т а ц и е й математического ожидания. Если предположить, что каждая материальная точка с абсциссой xi имеет массу, равную pi (i = 1, 2, …, n), а вся е д и н и ч н а я



n

p 

масса 

i =1

i

 = 1 

распределена между этими точками, то математическое ожидание представляет собой абсциссу центра масс системы материальных точек. Так, для систем материальных точек, соответствующим распределениям Х и Y в примере 3.5, центры масс совпадают: M(X) = = M(Y) = 5,36 (см. рис. 3.3). Если дискретная случайная величина Х принимает бесконечное, но счетное множество значений x1, x2, …, xn, …, то математическим ожиданием, или средним значением, такой дискретной случайной величины называется сумма ряда (если он абсолютно сходится): 

M ( X ) =  xi pi .

(3.4)

i =1

Так как ряд (3.4) может и расходиться, то соответствующая случайная величина может и не иметь математического ожидания. Например, случайная величина Х с рядом распределения X:

xi pi

2

22

23

1/2

1/22

1/23

96



2i





1/2i



Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»





 2 / 2 = 1

не имеет математического ожидания, ибо сумма ряда

i

i =1

i

i =1

равна  . На практике, как правило, множество возможных значений случайной величины распространяется лишь на ограниченный участок оси абсцисс, и, значит, математическое ожидание существует. Рассмотрим с в о й с т в а математического ожидания. 1. Математическое ожидание постоянной величины равно самой постоянной: М(С) = С. (3.5)  Постоянную величину С можно рассматривать как величину, принимающую значение С с вероятностью 1. Поэтому М(С) = СЃ1 = 1.  2. Постоянный множитель можно выносить за знак математического ожидания, т.е. M(kX) = kM(X). (3.6)  Так как случайная величина kХ принимает значения kxi (i = n

 ( kx ) p

= 1, 2, …, n), то M (kX ) =

i =1

i

i

n

= k  xi pi = kM (X ).  i =1

3. Математическое ожидание алгебраической суммы конечного числа случайных величин равно такой же сумме их математических ожиданий, т.е.1 M(X ± Y) = M(X) ± M(Y).

(3.7)

 В соответствии с определением суммы и разности случайных величин (см. § 3.2) X + Y (X – Y) представляют случайную величину, которая принимает значения xi + yj (xi – yj) (i = 1, 2, …, n; j = 1, 2, …, m) c вероятностями pij = P [(X = xi)(Y = yj)]. Поэтому n

m

(

n

)

m

n

m

M ( X ± Y ) =  xi ± yj pij =  xi pij ±  yj pij . i =1 j =1

i =1 j =1

i =1 j =1

Так как в первой двойной сумме xi не зависит от индекса j, по которому ведется суммирование во второй сумме, и аналогично во второй двойной сумме yj не зависит от индекса i, то n

m

m

n

n

m

i =1

j =1

j =1

i =1

i =1

j =1

M ( X ± Y ) =  xi  pij ±  y j  pij =  xi pi ±  y j pj =

= M ( X ) ± M (Y ) . 

1

Записываем свойство для двух случайных величин.

97

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

4. Математическое ожидание произведения конечного числа независимых случайных величин равно произведению их математических ожиданий1: M(XY) = M(X)M(Y).  В соответствии с определением произведения случайных величин (см. § 3.2), ХY представляет собой случайную величину, которая принимает значения xiyj (i = 1, 2, …, n; j = 1, 2, …, m) c вероятностями pij = P [(X = xi) (Y = yj)], причем в силу независимости X и Y pij = pi pj . Поэтому n

m

n

m

n

m

i =1

j =1

M ( XY ) =  xi y j pij =  xi y j pi pj =  xi pi   y j pj = i =1 j =1

i =1 j =1

= M (X )  M (Y ).  5. Если все значения случайной величины увеличить (уменьшить) на постоянную С, то на эту же постоянную С увеличится (уменьшится) математическое ожидание этой случайной величины: M(X ± C) = M(X) ± C.

(3.8)

 Учитывая свойства 3 и 1 математического ожидания, получим M(X ± C) = M(X) ± M(C) = M(X) ± C.  6. Математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю: M[X – M(X)] = 0.

(3.9)

 Пусть постоянная С есть математическое ожидание2 a = M(X), т.е. С = a. Тогда, используя свойство 5, получим M(X – a) = M(X) – a = a – a = 0.   Пример 3.7. Найти математическое ожидание случайной величины Z = 8X – 5Y + 7, если известно, что M(X) = 3, М(Y) = 2. Р е ш е н и е. Используя свойства 1, 2, 3 математического ожидания, найдем M(Z) = 8M(X) – 5M(Y) + 7 = 8Ѓ3 – 5Ѓ2 + 7 = 21. 

3.4. Дисперсия дискретной случайной величины Только математическое ожидание не может в достаточной степени характеризовать случайную величину. 1 Записываем свойство для двух случайных величин; случай зависимых случайных величин рассматривается в § 5.6 — см. формулу (5.40). 2 См. замечание на с. 101.

98

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

В задаче о стрелках (см. § 3.3) мы убедились в том, что М(X) = = М(Y) = 5,36, т.е. среднее количество выбиваемых очков у двух стрелков одинаковое. Но если у 1-го стрелка, как отмечено выше, значительные вероятности имеют крайние значения, сильно отличающиеся от среднего М(Х), то у 2-го, наоборот, — значения, близкие к среднему М(Y) (см. рис. 3.3). Очевидно, лучше стреляет тот стрелок, у которого при равенстве средних значений числа выбитых очков меньше о т к л о н е н и я (разброс, вариация, рассеяние) этого числа относительно среднего значения. В качестве такой характеристики рассматривается д и с п е р с и я случайной величины. Слово дисперсия означает «рассеяние». О п р е д е л е н и е. Дисперсией D(X) случайной величины Х называется математическое ожидание квадрата ее отклонения от математического ожидания1: D(X) = M[X – M(X)]2, или

a)2,

D(X) = M(X –

(3.10)

где a = M(X).

В качестве характеристики рассеяния нельзя брать математическое ожидание отклонения случайной величины от ее математического ожидания М(X – a), ибо согласно свойству 6 математического ожидания эта величина равна нулю для любой случайной величины. Из определения (3.10) следует, что дисперсия D(X) есть величина неотрицательная. Выбор дисперсии, определяемой по формуле (3.10), в качестве характеристики рассеяния значений случайной величины X оправдывается также тем, что, как можно показать, математическое ожидание квадрата отклонения случайной величины X от постоянной величины С минимально именно тогда, когда эта постоянная С равна математическому ожиданию M(X) = а, т.е.

min M ( X  C ) 2 = M ( X  a )2 = D ( X ) . C

(3.10)

Если случайная величина Х — дискретная с конечным числом значений, то D(X) =

n

( x

i

i =1

 a ) pi . 2

(3.11)

Если случайная величина Х — дискретная с бесконечным, но счетным множеством значений, то D(X) =



( x i =1

1

i

 a ) pi . 2

(3.12)

Для дисперсии случайной величины Х в литературе используется также обо2

значение var(X), V(x),  x (см. далее определение (3.13)).

99

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(если ряд в правой части равенства сходится). Дисперсия D(X) имеет размерность квадрата случайной величины, что не всегда удобно. Поэтому в качестве показателя рассеяния используют также величину

D( X ).

О п р е д е л е н и е. Средним квадратическим отклонением (стандартным отклонением, или стандартом) x случайной величины Х называется арифметическое значение корня квадратного из ее дисперсии:

x = D( X ).

(3.13)

 Пример 3.8. В задаче о стрелках (см. § 3.3) вычислить дисперсию и среднее квадратическое отклонение числа выбитых очков для каждого стрелка. Р е ш е н и е. В примере 3.5 были вычислены M(X) = 5,36 и M(Y) = 5,36. По формулам (3.12) и (3.13) D(X) = (0 – 5,36)2Ѓ0,15 + (1 – 5,36)2Ѓ0,11 + … + + (10 – 5,36)2Ѓ0,20 = 13,61,

x = D(X ) = 3,69; D(Y) = (0 – 5,36)2Ѓ0,01 + (1 – 5,36)2Ѓ0,03 + … + + (10 – 5,36)2Ѓ0,02 = 4,17,

y = D(Y ) = 2,04. Итак, при равенстве средних значений числа выбиваемых очков (М(X) = M(Y)) его дисперсия, т.е. характеристика рассеяния относительно среднего значения, меньше у второго стрелка (D(X) < D(Y)) и, очевидно, ему для получения более высоких результатов стрельбы по сравнению с первым стрелком нужно сместить «центр» распределения числа выбиваемых очков, т.е. увеличить M(Y), научившись правильно целиться в мишень.  Отметим с в о й с т в а дисперсии случайной величины. 1. Дисперсия постоянной величины равна нулю: D(С) = 0.

(3.14)

 D(C) = M[C – M(С)]2 = M(С – С)2 = M(0) = 0.  2. Постоянный множитель можно выносить за знак дисперсии, возведя его при этом в квадрат: D(kX) = k2D(X).

100

(3.15)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Учитывая свойство 2 математического ожидания, получим D(kX) = M[kX – M(kX)]2 = M[kX – kM(X)]2 = = k2M[X – M(X)]2 = k2D(X).  3. Дисперсия случайной величины равна разности между математическим ожиданием квадрата случайной величины и квадратом ее математического ожидания: D(X) = M(X 2) – [M(X)]2,

(3.16)

или D(X) = M(X 2) – a2, где а = М(Х).  Пусть M(X) = a. Тогда D(X) = M(X – a)2 = M(X 2 – 2aX + a2). Учитывая, что а — величина постоянная, неслучайная1, найдем D(X) = M(X)2 – 2аM(X) + a2 = M(X 2) – 2aЃa + a2 = M(X 2) – a2.  Это свойство часто используют при вычислении дисперсии. Вычисление по формуле (3.16) дает, например, упрощение расчетов по сравнению с основной формулой (3.11), если значения xi случайной величины — целые, а математическое ожидание, а значит, и разности (xi – a) — нецелые числа.  Пример 3.9. По данным примера 3.5 (задачи о стрелках) вычислить дисперсии случайных величин Х, Y, используя свойство 3. Р е ш е н и е. Вначале найдем

( )

n

M X 2 =  xi2 pi = 02  0,15 + 12  0,11 + ... + 92  0,12 + 102  0, 20 = 42,34. i =1

Теперь по формуле (3.16) D(X) = M(X 2 ) – а2 = 42,34 – 5,362 = 13,61. Аналогично D(Y) = 4,17.  4. Дисперсия алгебраической суммы конечного числа независимых случайных величин равна сумме их дисперсий2: D(X ± Y) = D(X)+D(Y).

(3.17)

 По свойству 3: D(X ± Y) = M(X ± Y)2 – [M(X ± Y)]2 = M(X 2 ± 2XY + Y 2 ) – [M(X) ± M(Y)]2. 1

Из определений как математического ожидания М(Х), так и дисперсии D(X) случайной величины Х (представляющих алгебраические операции над постоянными величинами — значениями xi и их вероятностями pi) следует, что сами М(Х) и D(X) — величины неслучайные, постоянные. 2 Записываем свойство для двух случайных величин; случай зависимых случайных величин рассматривается в § 5.6 — см. формулы (5.42), (5.43).

101

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Обозначая M(X) = ax, M(Y) = ay и учитывая, что для независимых случайных величин M(XY) = M(X)M(Y), получим D(X ± Y) = M(X 2 ) ± 2ахay + M(Y 2 ) – ax2 е 2axay – a 2y = 2

=[M(X 2 ) – ax ] + [M(Y 2 ) – a 2y ] = D(X) + D(Y).  Обращаем внимание на то, что дисперсия как суммы, так и разности независимых случайных величин X и Y равна с у м м е их дисперсий, т.е. D(X + Y) = D(X – Y) = D(X) + D(Y).  Пример 3.10. Найти дисперсию случайной величины Z = 8X – – 5Y + 7, если известно, что случайные величины Х и Y независимы и D(X) = 1,5, D(Y) = 1. Р е ш е н и е. Используя свойства 1, 2, 4 дисперсии, найдем

D ( Z ) = 82 D ( X ) + 52 D (Y ) + 0 = 64  1,5 + 25  1 = 121. 

Если использовать м е х а н и ч е с к у ю и н т е р п р е т а ц и ю распределения случайной величины, то ее дисперсия представляет собой момент инерции распределения масс относительно центра масс (математического ожидания). З а м е ч а н и е. Обратим внимание на интерпретацию математического ожидания и дисперсии в ф и н а н с о в о м а н а л и з е. Пусть, например, известно распределение доходности Х некоторого актива (например, акции), т.е. известны значения доходности xi и соответствующие их вероятности pi за рассматриваемый промежуток времени. Тогда, очевидно, математическое ожидание М(Х) выражает среднюю (прогнозную) доходность актива, а дисперсия D(X) или среднее квадратическое отклонение x — меру отклонения, колеблемости доходности от ожидаемого среднего значения, т.е. риск данного актива. Математическое ожидание, дисперсия, среднее квадратическое отклонение и другие числа, призванные в сжатой форме выразить наиболее существенные черты распределения, называются числовыми характеристиками случайной величины. Обращаем внимание на то, что сама величина Х — случайная, а ее числовые характеристики являются величинами н е с л у ч а й н ы м и, постоянными. Поэтому их часто называют параметрами распределения случайной величины. В теории вероятностей числовые характеристики играют большую роль. Часто удается решать вероятностные задачи, оперируя лишь числовыми характеристиками случайных величин. Применение вероятностных методов для решения практических задач в зна-

102

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

чительной мере определяется умением пользоваться числовыми характеристиками случайной величины, оставляя в стороне законы распределения.

3.5. Функция распределения случайной величины До сих пор в качестве исчерпывающего описания дискретной случайной величины мы рассматривали закон ее распределения, представляющий собой ряд распределения или формулу, позволяющие находить вероятности любых значений случайной величины X. Однако такое описание случайной величины Х не является единственным и, главное, не универсально. Так, оно неприменимо для непрерывной случайной величины, так как, во-первых, нельзя перечислить все бесконечное несчетное множество ее значений; вовторых, как мы увидим дальше, вероятности каждого отдельно взятого значения непрерывной случайной величины равны нулю. Для описания закона распределения случайной величины Х возможен и другой подход: рассматривать не вероятности событий Х = х для разных х (как это имеет место в ряде распределения), а вероятности события Х < х, где х — текущая переменная. Вероятность Р(X < x), очевидно, зависит от х, т.е. является некоторой функцией от х. О п р е д е л е н и е. Функцией распределения случайной величины Х называется функция F(x), выражающая для каждого x вероятность того, что случайная величина Х примет значение, меньшее x:

F ( x) = P ( X < x ).

(3.18)

Функцию F(x) иногда называют интегральной функцией распределения или интегральным законом распределения. Геометрически функция распределения интерпретируется как вероятность того, что случайная точка Х попадет левее заданной точки х (рис. 3.4). X 7.

F ( x ) =  P ( X = 1) + P ( X = 4 ) + P ( X = 5 )  + P ( X = 7 ) = 0,8 + 0, 2 = 1. Изобразим функцию F(x) графически (рис. 3.5).

Итак,

0 0, 4 F ( x ) = 0,5 0,8 1,0

 x  1,  1 < x  4,  4 < x  5,  5 < x  7,  x > 7.

1

3

F(x) 1,0 0,8 0,6 0,4 0,2 0

2

4

5

6

7

x

Рис. 3.5

Заметим, что при подходе слева к точкам разрыва функция сохраняет свое значение (про такую функцию говорят, что она непрерывна слева, т.е. lim F ( x) = F (a ) ). Эти точки на графике выделены.  x a Љ0

Данный пример позволяет прийти к утверждению, что функция распределения любой дискретной случайной величины есть разрывная

104

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ступенчатая функция, скачки которой происходят в точках, соответствующих возможным значениям случайной величины и равны вероятностям этих значений. Сумма всех скачков функции F(x) равна 1. Рассмотрим общие с в о й с т в а функции распределения. 1. Функция распределения случайной величины есть неотрицательная функция, заключенная между нулем и единицей:

0  F ( x )  1.  Утверждение следует из того, что функция распределения — это вероятность.  2. Функция распределения случайной величины есть неубывающая функция на всей числовой оси.  Пусть x1 и x2 — точки числовой оси, причем x2 > x1. Покажем, что F(x2)  F ( x1 ). Рассмотрим два несовместных события

A = ( X < x1 ) ,

B = ( x1  X < x2 ) . Тогда А + В = (Х < x2).

Рис. 3.6

Это соотношение между событиями легко усматривается из их геометрической интерпретации (рис. 3.6). По теореме сложения

P ( A + B ) = P ( A) + P ( B ) или

P ( X < x2 ) = P ( X < x1 ) + P ( x1  X < x2 ) ,

откуда

F ( x2 ) = F ( x1 ) + P ( x1  X < x2 ) .

(3.19)

Так как вероятность P ( x1  X < x2 )  0, то F ( x2 )  F ( x1 ), т.е. F(x) — неубывающая функция.  3. На минус бесконечности функция распределения равна нулю, на плюс бесконечности равна единице, т.е.

F ( Љ ) = lim F ( x ) = 0,

F ( + ) = lim F ( x ) = 1 .

x Љ

x +

 F ( Љ ) = P ( X < Љ  ) = 0 как вероятность невозможного события X < Љ .

F ( + ) = P ( X < +  ) = 1 как вероятность достоверного события

X < +. 

105

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

4. Вероятность попадания случайной величины в интервал [x1, x2) (включая x1) равна приращению ее функции распределения на этом интервале, т.е.

P ( x1  X < x2 ) = F ( x2 ) Љ F ( x1 ) .

(3.20)

 Формула (3.20) следует непосредственно из формулы (3.19).  Итак, функция распределения любой случайной величины (дискретной или непрерывной) обладает указанными выше свойствами. Верно и обратное: каждая непрерывная слева функция, удовлетворяющая приведенным свойствам, есть функция распределения некоторой случайной величины.  Пример 3.12. Функция распределения случайной величины Х имеет вид:

0 F ( x ) =  x /2 1

 x  0,  0 < x  2,  x > 2.

Найти вероятность того, что случайная величина примет значение: а) в интервале [1;3); б) не менее чем 1/3. Р е ш е н и е. а) По формуле (3.20)

P (1  X < 3) = F ( 3) Љ F (1) = 1 Љ б) Так как X

x

и

X 2, 1 2  0 < x  2. 

Отметим с в о й с т в а плотности вероятности непрерывной случайной величины. 1. Плотность вероятности — неотрицательная функция, т.е.

 ( x )  0.

  ( x )  0 как производная монотонно неубывающей функции F(x).  2. Вероятность попадания непрерывной случайной величины в интервал [ a, b ] равна определенному интегралу от ее плотности вероятности в пределах от a до b, т.е. b

P ( a  X  b ) =   ( x ) dx. a

(3.22)

 Согласно свойству 4 функции распределения

P ( a  X  b) = F (b) Љ F ( a ).

Так как F(x) есть первообразная для плотности вероятности ( x) (ибо F ( x) = ( x) ), то по формуле Ньютона—Лейбница при-

109

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ращение первообразной на отрезке грал

[ a, b ]

есть определенный инте-

b

  ( x ) dx , т.е. формула (3.20) верна.  a

Геометрически полученная вероятность равна площади фигуры, ограниченной сверху кривой распределения и опирающейся на отрезок [ a, b ] (рис. 3.8).

Рис. 3.9

Рис. 3.8

3. Функция распределения непрерывной случайной величины может быть выражена через плотность вероятности по формуле:

F ( x) = 

x Љ

 ( x ) dx.

(3.23)

Формула (3.23) получается из формулы (3.22) при a  Љ , если верхний предел b заменить на переменный предел x. Геометрически функция распределения равна площади фигуры, ограниченной сверху кривой распределения и лежащей левее точки x (рис. 3.9). 4. Несобственный интеграл в бесконечных пределах от плотности вероятности непрерывной случайной величины равен единице:



+ Љ

 По формуле (3.23): F ( x) = т.е. верно равенство (3.24). 

 ( x ) dx = 1.



x

(3.24)

( x)dx и при x  + F (+) = 1 ,

Љ

Геометрически свойства 1 и 4 плотности вероятности означают, что ее график — кривая распределения — лежит не ниже оси абсцисс, и полная площадь фигуры, ограниченной кривой распределения и осью абсцисс, равна единице. Понятие математического ожидания М(Х) и дисперсии D(X), введенные выше (§ 3.3, 3.4) для дискретной случайной величины, можно распространить на непрерывные случайные величины.

110

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Для получения соответствующих формул для М(Х) и D(X) достаточно в формулах (3.3) и (3.11) для дискретной случайной величины Х заменить знак суммирования

n



по всем ее значениям зна-

i=1

ком интеграла с бесконечными пределами



+ Љ

, «скачущий» аргумент

xi — непрерывно меняющимся x, а вероятность pi — элементом вероятности  ( x ) dx. Под элементом вероятности понимается вероятность попадания случайной величины Х на участок [x, x + dx] (с точностью до бесконечно малых более высоких порядков); геометрически элемент вероятности приближенно равен площади элементарного прямоугольника под кривой (x), опирающегося на отрезок [x, Рис. 3.10 x + dx] (рис. 3.10). В результате получим следующие формулы для математического ожидания и дисперсии непрерывной случайной величины X:

a = M (X ) = 

+ Љ

x  ( x ) dx

(3.25)

(если интеграл абсолютно сходится) и +

D( X ) =  ( x Љ a )2 ( x)dx Љ

(3.26)

(если интеграл сходится). На практике обычно область значений случайной величины, для которых  ( x )  0 , ограничена и указанные интегралы сходятся, а значит, существуют М(Х) и D(X). Все свойства математического ожидания и дисперсии, рассмотренные выше для дискретных случайных величин, справедливы и для непрерывных величин1. В частности, свойство 3 дисперсии (формула (3.16)) имеет вид:

( )

D ( X ) = M X 2  a 2 или D ( X ) = 

+ Љ

x 2  ( x ) dx Љ a 2 .

(3.27)

З а м е ч а н и е. Наряду с дискретными и непрерывными случайными величинами на практике встречаются смешанные случайные вели1 Заметим, что сохраняет тот же смысл механическая интерпретация математического ожидания как абсциссы центра масс для единичной массы, распределенной в данном случае н е п р е р ы в н о на оси абсцисс с плотностью вероятности (x), и дисперсии как момента инерции распределения масс относительно центра масс.

111

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

чины, для которых функция распределения F(x) на некоторых участках непрерывна, а в отдельных точках имеет разрывы. Примером смешанной случайной величины может служить заработок рабочего, пропорциональный его выработке, но не меньший гарантированного размера оплаты x0. (При x = x0 функция распределения F(x) имеет скачок от нуля до некоторого значения p0, а при x > x0 непрерывно возрастает.) Для смешанных случайных величин остается справедливой формула (3.20) вероятности попадания случайной величины на любой интервал [x0, x1).  Пример 3.14. Функция ( x) задана в виде:

0  x  1, ( x) =  A  x > 1.  x 4 Найти: а) значение постоянной А, при которой функция будет плотностью вероятности некоторой случайной величины X; б) выражение функции распределения F ( x ) ; в) вычислить вероятность того, что случайная величина Х примет значение на отрезке [ 2;3] ; г) найти математическое ожидание и дисперсию случайной величины X. Р е ш е н и е. а) Для того чтобы  ( x ) была плотностью вероятности некоторой случайной величины X, oна должна быть неотрица-

A  0 , откуда A  0 , и она должна удовлеx4

тельна, т.е.  ( x )  0 или

творять свойству 4. Поэтому в соответствии с формулой (3.24)



+

Љ

 ( x ) dx = 1. Следовательно,



+ Љ

 ( x ) dx = =



1

0  dx +

Љ

 1 A lim  Љ 3 + b 3  x



+ 1

A dx = 0 + lim b + x4



b 1

 A 1 A  1 Љ 3  = = 1,  = blim  + 1 3  b  3

b

откуда А = 3. б) По формуле (3.23) найдем F(x). Если x  1, то F ( x ) =



A dx = x4

x

x

 ( x ) dx =  0  dx = 0.

Љ

Если x > 1, то F ( x ) = 0 +

Љ



x 1

3 1 dx =  3 x4 x

x 1

=1

 x  1, 0 1 1Љ  x > 1.  x3

Таким образом, F ( x ) = 

112

1 . x3

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

в) По формуле (3.22)

P ( 2  X  3) =



3 1 dx = Љ 3 4 x 2 x

3

3

2

=

1 1 19 . Љ 3 = 3 2 3 216

Вероятность P ( 2  X  3) можно было найти непосредственно как приращение функции распределения по формуле (3.19):

 1 P ( 2  X  3) = F ( 3) Љ F ( 2 ) = 1 Љ 3 3 

г) По формуле (3.25) вычислим

a = M (X ) =



  1  19 .  Љ 1 Љ 3  = 2  216  

 3  x  4  dx Љ Љ 1 x  1 b 3 1   = 3 lim  Љ 2  = lim  1 Љ 2  = b +  2 x 1  2 b+  b  +

x  ( x ) dx =



1

0  dx +



+

= 0 + 3 lim

b +



b

1

dx = x3

3 . 2

Дисперсию D(X) вычислим по формуле (3.27). Вначале найдем

( )

M X2 =



+ Љ

x 2(x) dx = 0 +



+ 1

 3 x2  4 x

  dx = 3 

(вычисление интеграла аналогично приведенному выше). Теперь 2

3 3 D( X ) = 3 Љ   = .  4 2 З а м е ч а н и е. В ряде случаев, если имеется график функции распределения F(x), полезно иметь в виду геометрическую интерпретацию математического ожидания М(Х) случайной величины X:

M ( X ) = S2 Љ S1 ,

где S2 и S1 — площади фигур, заключенных соответственно между осью Оy, прямой y = 1 и кривой y = F(x) на интервале ( 0; +  ) и между кри-

вой y = F(x) и осями Ox и Оу на промежутке ( Љ;0 ) (рис. 3.11).

Рис. 3.11

Рис. 3.12

Так, например, для нахождения математического ожидания М(Х) случайной величины X, заданной функцией распределения

113

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

F(x), состоящей из участков прямых и дуги окружности (рис. 3.12), нет необходимости находить ( x ) по формуле (3.21), а затем М(Х) по формуле (3.25). Значительно проще найти М(Х), используя его геометрическую интерпретацию, т.е.

M ( X ) = S2 Љ S1 =

2

1 2 1 1 1 1 1 1 Љ2 R Љ ah =    Љ   =  0,072. 4 2 4 2 2 2 2 16

Приведенная геометрическая интерпретация позволяет записать математическое ожидание в виде:

M (X ) = 



0 Љ

F ( x)dx +



+

1

(1  F ( x))dx.

3.7. Мода и медиана. Квантили. Моменты случайных величин. Асимметрия и эксцесс Кроме математического ожидания и дисперсии, в теории вероятностей применяется еще ряд числовых характеристик, отражающих те или иные черты распределения. О п р е д е л е н и е. Модой Mо(X) случайной величины Х называется ее наиболее вероятное значение (для которого вероятность pi или плотность вероятности ( x ) достигает максимума). Если вероятность или плотность вероятности достигает максимума не в одной, а в нескольких точках, распределение называется полимодальным (рис. 3.13).

Рис. 3.13

Рис. 3.14

Мода M 0 ( X ), при которой вероятность pi или плотность вероятности ( x) достигает глобального максимума, называется наивероятнейшим значением случайной величины (на рис. 3.13 это M 0 ( X ) 2 ). О п р е д е л е н и е. Медианой Ме(Х) непрерывной случайной величины Х называется такое ее значение, для которого

P ( X < Me ( X ) ) = P ( X > Me ( X ) ) =

114

1 , 2

(3.28)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

т.е. вероятность того, что случайная величина Х примет значение, меньшее медианы Mе(X) или большее ее, одна и та же и равна 1/2. Геометрически вертикальная прямая х = Mе(X), проходящая через точку с абсциссой, равной Mе(X), делит площадь фигуры под кривой распределения на две равные части (рис. 3.14). Очевидно, что в точке х = Mе(X) функция распределения равна 1/2, т.е. F ( Me( X )) = 1 2 (рис. 3.15).

Рис. 3.15

Рис. 3.16

Отметим важное свойство медианы случайной величины: математическое ожидание абсолютной величины отклонения случайной величины X от постоянной величины С минимально тогда, когда эта постоянная С равна медиане Me (X) = m, т.е.

min M ( X  C ) = M ( X  m ) C

(свойство аналогично свойству (3.10) минимальности среднего квадрата отклонения случайной величины от ее математического ожидания).  Пример 3.15. Найти моду, медиану и математическое ожидание случайной величины Х с плотностью вероятности  ( x ) = 3x 2

при x  [ 0;1].

Р е ш е н и е. Кривая распределения представлена на рис. 3.16. Очевидно, что плотность вероятности  ( x ) максимальна при x = Mо(X) = 1. Медиану Me(X) = b найдем из условия (3.28):

 или откуда



b

 ( x ) dx =

Љ

1 2

0 b b 1  ( x ) dx =  0  dx +  3x 2 dx = x3 = b3 = , 0 Љ Љ 0 2 b

b = Me ( X ) = 3 1 2  0,79.

115

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Математическое ожидание вычислим по формуле (3.25):

M (X ) = 

+ Љ

0

1

Љ

0

( )

x  ( x ) dx =  0  dx +  x 3x 2 dx + 

+ 1

0  dx =

3 4 1 x = 0,75. 0 4

Взаимное расположение точек M(X), Me(X) и Mо(X) в порядке возрастания абсцисс показано на рис. 3.16.  Наряду с отмеченными выше числовыми характеристиками для описания случайной величины используется понятие квантилей и процентных точек. О п р е д е л е н и е. Квантилем уровня q (или q-квантилем) называется такое значение xq случайной величины, при котором функция ее распределения принимает значение, равное q, т.е. F(xq) = P(X < xq) = q.

(3.29)

Некоторые квантили получили особое название. Очевидно, что введенная выше медиана случайной величины есть квантиль уровня 0,5, т.е. Me(X) = x0,5. Квантили х0,25 и х0,75 получили название соответственно нижнего и верхнего квартилей1. С понятием квантиля тесно связано понятие процентной точки. Под 100q%-ной точкой подразумевается квантиль х1–q, т.е. такое зна-

(

)

чение случайной величины X, при котором P X  x1 q = q.  Пример 3.16. По данным примера 3.15 найти квантиль x0,3 и 30%-ную точку случайной величины Х. Р е ш е н и е. По формуле (3.23) функция распределения x

0

x

Љ

Љ

0

F ( x ) =   ( x ) dx =  0  dx +  3 x 2 dx = x 3 .

3 Квантиль x0,3 найдем из уравнения (3.29), т.е. x0,3 = 0,3, откуда

x0,3  0,67. Найдем 30%-ную точку случайной величины X, или 3 квантиль x0,7, из уравнения x0,7 = 0, 7, откуда x0,7  0,89. 

Среди числовых характеристик случайной величины особое значение имеют м о м е н т ы — начальные и центральные. О п р е д е л е н и е. Начальным моментом k-го порядка случайной величины Х называется математическое ожидание k-й степени этой величины: k = M ( X k ) . (3.30) О п р е д е л е н и е. Центральным моментом k-го порядка случайной величины Х называется математическое ожидание k-й степени отклонения случайной величины Х от ее математического ожидания: k

µk = M  X Љ M ( X )  ,

(3.31)

1 В литературе встречаются также термины: децили (под которыми понимаются квантили x0,1, x0,2, …, x0,9) и процентили (перцентили) (квантили x0,01, x0,02, …, x0,99).

116

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

µ k = M ( X  a ) , где a = M(X). k

или

Формулы для вычисления моментов для дискретных случайных величин (принимающих значения xi с вероятностями pi) и непрерывных (с плотностью вероятности (x)) приведены в табл. 3.1. Таблица 3.1 Случайная величина

Момент Начальный

Дискретная

Непрерывная

n



Љ

µk = 

Љ

(3.32)  k =

 k =  xik pi i =1

Центральµk = ный

n

( x  a ) i

i =1

k

pi

(3.34)

+

x  ( x ) dx k

+

( x Љ a )  ( x ) dx k

(3.33) (3.35)

Нетрудно заметить, что при k = 1 первый начальный момент случайной величины Х есть ее математическое ожидание, т.е.

1 = M ( X ) = a , при k = 2 второй центральный момент — диспер-

сия, т.е. µ 2 = D ( X ) . Центральные моменты µ k могут быть выражены через начальные моменты  k по формулам:

µ1 = 0, µ 2 =  2 Љ 12 ,

µ3 = 3 Љ 31 2 + 213 , µ 4 =  4 Љ 41 3 + 612  2 Љ 314 и т.д. 

Например,

µ3 = M ( X  a)3 = M ( X 3  3aX 2 + 3a 2 X  a 3 ) =

= M ( X 3 )  3aM ( X 2 ) + 3a 2 M ( X )  a3 = 3 Љ 312 + 3121 Љ 13 = 3 Љ 31 2 + + 213 (при выводе учли, что a = M(X ) = 1 — неслучайная величина).  Выше отмечено, что математическое ожидание М(Х ), или первый начальный момент, характеризует с р е д н е е з н а ч е н и е или п о л о ж е н и е, ц е н т р распределения случайной величины X на числовой оси; дисперсия D(Х), или второй центральный момент µ 2 , — с т е п е н ь р а с с е я н и я распределения Х относи-

117

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

тельно М(Х). Для более подробного описания распределения служат моменты высших порядков. Третий центральный момент µ 3 служит для характеристики а с и м м е т р и и (с к о ш е н н о с т и ) распределения. Он имеет размерность куба случайной величины. Чтобы получить безразмерную величину, ее делят на 3 , где  — среднее квадратическое отклонение случайной величины X. Полученная величина А называется коэффициентом асимметрии случайной величины:

=

µ3 . 3

(3.36)

Если распределение симметрично относительно математического ожидания, то коэффициент асимметрии А = 0.

Рис. 3.18

Рис. 3.17

На рис. 3.17 показаны две кривые распределения: I и II. Кривая I имеет положительную (правостороннюю) асимметрию (A > 0), а кривая II — отрицательную (левостороннюю) (А < 0). Четвертый центральный момент µ 4 служит для характеристики к р у т о с т и (о с т р о в е р ш и н н о с т и или п л о с к о в е р ш и н н о с т и ) распределения. Эксцессом (или коэффициентом эксцесса) случайной величины называется число

µ4  3. (3.37) 4 4 (Число 3 вычитается из отношения µ 4  потому, что для наибоE=

лее часто встречающегося нормального распределения (о нем идет 4 речь в гл. 4) отношение µ 4  = 3. Кривые, более островершинные, чем нормальная, обладают положительным эксцессом, более плосковершинные — отрицательным эксцессом (рис. 3.18).

118

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 3.17. Найти коэффициент асимметрии и эксцесс случайной величины, распределенной по так называемому закону Лапласа с плотностью вероятности  ( x ) =

( x )

1 x e . 2

Р е ш е н и е. Так как распределение случайной величины Х симметрично относительно оси ординат, то все нечетные моменты (как начальные, так и центральные) равны 0, т.е. 1 = 0, 3 = 0, µ3 = 0 и в

0,5

–2

–1

0

1

2

x

Рис. 3.19

силу определения (3.36) коэффициент асимметрии А = 0. Для нахождения эксцесса необходимо вычислить четные начальные моменты1  2 и  4 :

2 =



+ Љ

x 2  ( x ) dx =



1 1  x 2  eЉ x  dx = 2  2 Љ 2

+



+ 0

x 2 eЉ x dx = 2.

Следовательно,

D ( X ) = µ 2 =  2 Љ 12 = 2 Љ 02 = 2 и x = D ( X ) = 2.

4 =



+ Љ

x 4  ( x ) dx =



+ Љ

1  1 Љx  x 4  e  dx = 2  2 2



+ 0

x 4 e Љ x dx = 24.

Теперь эксцесс по формуле (3.37)

E=

µ4 3= 4

24

( ) 2

4

 3 = 3.

Эксцесс распределения положителен, что говорит об островершинности кривой распределения  ( x ) (рис. 3.19). 

3.8. Производящая функция Полезным инструментом при изучении случайной величины является производящая функция.

1 Вычисление получаемых интегралов опускаем и предлагаем его провести читателю самостоятельно.

119

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

О п р е д е л е н и е. Функция от параметра t, равная математическому ожиданию функции etX, называется производящей функцией случайной величины X: mX (t ) = MetX . (3.38) Производящая функция mX (t ) содержит в себе сведения о всех начальных моментах («производит» моменты), т.е. по ней можно определить функцию распределения, содержащую все сведения о случайной величине. В этом смысле производящая функция и функция распределения являются эквивалентными обобщающими характеристиками случайной величины. Рассмотрим с в о й с т в а производящей функции. 1. Если mX (t ) — производящая функция случайной величины X, то производящей функцией величины cX будет

mcX (t ) = mX (ct ).

(3.39)

2. Производящая функция суммы независимых случайных величин равна произведению производящих функций этих величин: n

m n (t ) =  mX i (t ). i =1  Xi

(3.40)

i =1

3. Начальные моменты k-го порядка случайной величины X равны значениям k-й производной от функции mX (t ) в точке t = 0, т.е.

m(Xk ) (0) = vk , k = 1, 2,...

(3.41)

 Пример 3.17а. Найти производящую функцию, математическое ожидание и дисперсию случайной величины, распределенной по биноминальному закону (см. § 4.1), т.е. дискретной случайной величины, принимающей значения X = m (m = 0, 1, …, n) с вероятностями Pm, n = P( X = m) = Cnm p m q n  m , где q = 1 – p. Р е ш е н и е. Производящая функция такой случайной величины по формуле (3.38) имеет вид: n

mX (t ) = MetX = Metm =  etm Pm, n = n

= e C p q m =0

tm

m n

m

n m

m=0

n

=  C ( pe ) q n  m = ( pet + q) n m=0

m n

t m

(последнее равенство получено на основании формулы бинома Ньютона). Найдем производные функции mX (t ) :

mX (t ) = np( pet + q )n 1 et ; mX (t ) = np[(n Љ 1) p ( pet + q ) n  2 e2t + ( pet + q )n 1 et ]. Найдем начальные моменты 1 и 2 по формуле (3.41):

120

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1 = mX (0) = np ( p + q ) n 1 = np, ибо p + q = 1;

 2 = mX (0) = np[(n Љ 1) p( p + q) n  2 + ( p + q ) n 1 ] = = np(np Љ p + 1) = np(np + q). Следовательно, математическое ожидание M ( X ) = 1 = np. Для получения формулы дисперсии учтем, что она представляет второй центральный момент µ 2 (см. § 3.7), т.е.

D( X ) = µ 2 =  2 Љ 12 , или D( X ) = np(np + q) Љ (np )2 = npq. Итак, для биноминального закона

M ( X ) = np, D( X ) = npq. 

Производящая функция комплексной случайной величины iX, т.е. функция g X (t ) = MeitX , называемая характеристической, широко используется в фундаментальной теории вероятностей.

3.9. Решение задач  Пример 3.18. По многолетним статистическим данным известно, что вероятность рождения мальчика равна 0,515. Составить закон распределения случайной величины Х — числа мальчиков в семье с 4 детьми. Найти математическое ожидание и дисперсию этой случайной величины. Р е ш е н и е. Число мальчиков в семье из n = 4 представляет случайную величину Х с множеством значений Х = m = 0, 1, 2, 3, 4, вероятности которых определяются по формуле Бернулли:

P ( X = m ) = Cnm p m q n  m , где q = 1 – p. В нашем случае n = 4, p = 0,515, q = 1 – p = 0,485. Вычислим

P ( X = 0 ) = C40  0,5150  0, 4854 = 0,055; P ( X = 1) = C41  0,5151  0, 4853 = 0, 235; P ( X = 2 ) = C 42  0,5152  0, 4852 = 0,375;

P ( X = 3) = C43  0,5153  0, 4851 = 0, 265; P ( X = 4 ) = C44  0,5154  0, 4850 = 0, 070. 0 1 2 (Здесь учтено, что C4 = 1, C4 = 4, C4 =

121

43 = 6, C43 = C41 = 4, C 44 = 1.) 1 2

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Ряд распределения имеет вид X = m:

xi

0

1

2

3

4

pi

0,055

0,235

0,375

0,265

0,070

Убеждаемся, что

5

p i =1

i

= 0,055 + 0, 235 + ... + 0,070 = 1.

Математическое ожидание M(X) и дисперсию D(X) можно найти, как обычно, по формулам (3.3) и (3.11). Но в данном случае, учитывая, что закон распределения случайной величины Х б и н о м и а л ь н ы й (о нем см. § 4.1), можно воспользоваться простыми формулами (4.2) и (4.3): M(X) = np = 4Ѓ0,515 = 2,06, D(X) = npq = 4Ѓ0,515Ѓ0,485 = 0,999.   Пример 3.19. Радист вызывает корреспондента, причем каждый последующий вызов производится лишь в том случае, если предыдущий вызов не принят. Вероятность того, что корреспондент примет вызов, равна 0,4. Составить закон распределения числа вызовов, если: а) число вызовов не более 5; б) число вызовов не ограничено. Найти математическое ожидание и дисперсию этой случайной величины. Р е ш е н и е. а) Случайная величина Х — число вызовов корреспондента — может принимать значения 1, 2, 3, 4, 5. Обозначим событие Ai — i-й вызов принят (i = 1, 2, 3, 4, 5). Тогда вероятность того, что первый вызов принят, P(X = 1) = P(A1) = 0,4. Второй вызов состоится лишь при условии, что первый вызов не принят, т.е.

(

) ( )

P ( X = 2 ) = P A1 A2 = P A1 P ( A2 ) = (1 Љ 0, 4 )  0, 4 = 0, 24. Аналогично

(

) ( ) ( ) P ( X = 4) = P ( A A A A ) = P ( A ) P ( A ) P ( A ) P ( A ) =

P ( X = 3) = P A1 A 2 A3 = P A1 P A 2 P ( A3 ) = 0, 62  0, 4 = 0,144; 1

2

3

4

1

2

3

4

= 0, 63  0, 4 = 0,0864. Пятый вызов при любом исходе (будет принят, не принят) — последний. Поэтому

122

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(

) ( ) ( ) ( ) ( )

P ( X = 5) = P A1 A 2 A3 A 4 = P A1 P A 2 P A3 P A 4 = 0,64 = 0,1296. (Вероятность P(X = 5) можно найти и иначе, учитывая, что последний вызов будет или принят, или нет, т.е.

(

)

P ( X = 5 ) = P A1 A2 A3 A4 A5 + A1 A2 A3 A4 A5 =

= 0,64  0, 4 + 0,64  0, 6 = 0,64 ( 0, 4 + 0,6 ) = 0,64 = 0,1296. ) Ряд распределения случайной величины Х имеет вид Х:

xi

1

2

3

4

5

pi

0,4

0,24

0,144

0,0864

0,1296

Проверяем, что

5

p i =1

i

= 0, 4 + 0, 24 + ... + 0,1296 = 1.

По формуле (3.3) вычислим математическое ожидание: n

a = M ( X ) =  xi pi = i =1

= 1  0, 4 + 2  0, 24 + 3  0,144 + 4  0,0864 + 5  0,1296 = 2,3056. Так как M(X) — нецелое число, то находить дисперсию D(X) проще не по основной формуле (3.11), а по формуле (3.16), т.е. D(X) = M(X 2) – a2. Вычислим

( )

n

M X 2 =  xi2 pi = 12  0, 4 + 22  0, 24 + 32  0,144 + 42  0,0864 + i =1

+ 52  0,1296 = 7, 2784. Теперь D(X) = 7,2784 – 2,30562 = 1,9626. б) Так как число вызовов не ограничено, то ряд распределения случайной величины Х примет вид Х:

xi pi

1 0,4

2 0,24

3 0,144

4 0,0864

… …

n 0,6n–1Ѓ0,4

… …

Проверяем, что n

p i =1

i

(

)

= 0, 4 + 0, 24 + ... + 0,6n 1  0, 4 + ... = 0, 4 1 + 0,6 + ... + 0,6 n 1 + ... = = 0, 4 

1 0, 4 = =1 1 Љ 0,6 0, 4

123

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(использовали формулу суммы сходящегося ( q < 1) геометрическо-

a при а = 1, q = 0,6). 1 q

го ряда: S =

По формуле (3.4) вычислим математическое ожидание 

M ( X ) =  xi pi = 1  0, 4 + 2  0, 24 + 3  0,144 + ... + n  0, 6n Љ1  0, 4 + … = i =1

(

)

= 0, 4 1 + 2  0, 6 + 3  0, 62 + ... + n  0,6n 1 + … . Для вычисления суммы полученного ряда воспользуемся формулой:

(

)

S ( x ) = 1 + 2 x + 3x 2 + ... + nx n 1 + ... = x + x 2 + x3 + ... + x n + ...  =

1  x  = ,  = 2  1 Љ x  (1 Љ x ) (т.е. сумма данного ряда является производной сходящегося геометрического ряда при q = x < 1). При х = 0,6

S ( 0, 6 ) =

1

(1  0, 6 )

2

= 6, 25,

т.е. M(X) = 0,4Ѓ6,25 = 2,5.

По формуле (3.12) вычислим дисперсию: D(X) = M(X 2) – a2. Вначале найдем

( )



M X 2 =  xi2 pi = 12  0, 4 + 22  0, 24 + 32  0,144 + ... + n 2  0,6n Љ1  0, 4 + ... = i =1

= 0, 4(12 + 22  0,6 + 32  0,62 + ... + n 2  0, 6n 1 + ...). Для вычисления суммы полученного ряда рассмотрим сумму ряда S1 ( x ) при x < 1 :

S1 ( x ) = 1 + 22 x + 32 x 2 + ... + n 2 x n 1 + ... =

  x = x + 2 x 2 + 3x3 + ... + nx n + ...  = ( xS ( x ) ) =   (1 Љ x )2 

(

)

=

(1 Љ x )

При х = 0,6 S1 ( 0, 6 ) =

2

+ x  2 (1 Љ x )

(1 Љ x )

4

1 + 0, 6

(1  0,6 )

3

=

1+ x

(1 Љ x )

3

  =  

.

= 25, т.е. M(X 2) = 0,4Ѓ25 = 10.

Теперь D(X) = 10 – 2,52 = 3,75. 

124

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 3.20. Среди 10 изготовленных приборов 3 неточных. Составить закон распределения числа неточных приборов среди взятых наудачу четырех приборов. Найти математическое ожидание и дисперсию этой случайной величины. Р е ш е н и е. Случайная величина Х — число неточных приборов среди четырех отобранных — может принимать значения i = 0, 1, 2, 3. Общее число способов выбора 4 приборов из 10 определяется 4 числом сочетаний C10 . Число способов выбора четырех приборов, среди которых i неточных приборов и 4 – i точных (i = 0, 1, 2, 3), по правилу произведения (см § 1.5) определится произведением i числа способов выбора i неточных приборов из 3 неточных C3 на 4i число способов выбора 4 – i точных приборов из 7 точных C7 , т.е.

C3i Ѓ C74i . Согласно классическому определению вероятности

P ( X = i) =

C3i  C74i C104

(i = 0,

1, 2, 3) .

Учитывая, что

C30 = 1, C31 = 3, C32 = C31 = 3, C33 = 1, 765 76 C74 = C73 = = 35, C73 = 35, C72 = = 21, C71 = 7, 1 2  3 1 2 10  9  8  7 4 = 210, C10 = 1 2  3  4

вычислим

35 1 3  35 1 = , P ( X = 1) = = , 210 6 210 2 3  21 3 1 7 1 = , P ( X = 3) = = , P ( X = 2) = 210 10 210 30 P ( X = 0) =

т.е. ряд распределения будет такой: Х:

xi

0

1

2

3

pi

1/6

1/2

3/10

1/30

Убеждаемся в том, что

4

p i =1

i

= 1 6 + 1 2 + 3 10 + 1 30 = 1.

Математическое ожидание М(Х) и дисперсию D(X) вычисляем по формулам (3.3) и (3.16): a = M(X) = 0 

1 1 3 1 + 1 + 2  + 3  = 1, 2, 6 2 10 30

125

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1 2 1 3 1 + 1  + 22  + 32  = 2,0 6 2 10 30 2 2 2 и D ( X ) = M X  a = 2,0  1, 2 = 0,56. 

( )

M X 2 = 02 

( )

 Пример 3.21. Ряд распределения дискретной случайной величины состоит из двух неизвестных значений. Вероятность того, что случайная величина примет одно из этих значений, равна 0,8. Найти функцию распределения случайной величины, если ее математическое ожидание равно 3,2, а дисперсия 0,16. Р е ш е н и е. Ряд распределения имеет вид X:

xi

x1

x2

pi

0,8

0,2

,

где pi = 0,8, а p2 = 1 – p1 = 1 – 0,8 = 0,2. По условию 2  a = M ( X ) =  xi pi = 3, 2, i =1  2  D ( X ) = M X 2 Љ a 2 =  xi2 Љ a 2 = 0,16  i =1

( )

или

0,8 x1 + 0, 2 x2 = 3, 2,  2 2 2 0,8 x1 + 0, 2 x2 Љ 3, 2 = 0,16.

Решая полученную систему, находим два решения:

{xx == 3,4 1

2

и

{xx == 3,2,4,4. 1

2

Аналогично примеру 3.11 записываем выражение функции распределения:

0  x  3, F ( x ) = 0,8  3 < x  4, 1  x > 4

0

 x  2, 4,

1

 x > 3, 4.

или F ( x ) = 0, 2  2, 4 < x  3, 4, 

 Пример 3.22. Рабочий обслуживает 4 станка. Вероятность того, что в течение часа станок не потребует внимания рабочего, для первого станка равна 0,9, для второго — 0,8, для третьего — 0,75 и для четвертого — 0,7. Составить закон распределения случайной величины X — числа станков, которые не потребуют внимания рабочего в течение часа. Р е ш е н и е. Задача может быть решена несколькими способами.

126

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Первый

с п о с о б.

( )

Пусть Ak A k

— событие, состоящее

в том, что k-й станок не потребует (потребует) внимания рабочего в течение часа. Тогда, очевидно:

(

)

P ( X = 0 ) = P A1 A 2 A3 A 4 = (1  0,9 )(1  0,8)(1  0,75)(1  0,7 ) = 0,0015;

(

)

P ( X = 1) = P A1 A2 A3 A4 + A1 A2 A3 A4 + A1 A2 A3 A4 + A1 A2 A3 A4 = = 0,9  0, 2  0, 25  0,3 + 0,1  0,8  0, 25  0,3 + 0,1  0, 2  0, 75  0,3 +

+ 0,1  0, 2  0, 25  0, 7 = 0,0275. Аналогично находим

(

P ( X = 2 ) = P A1 A2 A3 A4 + A1 A2 A3 A4 + A1 A2 A3 A4 + A1 A2 A3 A4 +

)

+ A1 A2 A3 A4 + A1 A2 A3 A4 = 0,1685;

(

)

P ( X = 3) = P A1 A2 A3 A4 + A1 A2 A3 A4 + A1 A2 A3 A4 + A1 A2 A3 A4 = 0, 4245; P(X = 4) = P(A1A2A3A4) = 0,378, т.е. закон (ряд) распределения случайной величины Х имеет вид: X:

хk

0

1

2

3

4

pk

0,0015

0,0275

0,1685

0,4245

0,378

(3.42)

В т о р о й с п о с о б состоит в том, что заданы законы (ряды) распределения альтернативных случайных величин Xk (k = 1, 2, 3, 4), выражающих число станков, не потребующих внимания рабочего в течение часа (это число для каждого станка равно 1, если этот станок не потребует внимания рабочего, и равно 0, если потребует): X 1:

Х2:

Х3:

xi

0

1

xi

0

1

xi

pi1

0,1

0,9

pi2

0,2

0,8

pi3

0

X4: 1

0,25 0,75

xi pi4

0

1

0,3 0,7

Необходимо найти закон распределения суммы этих случайных величин, т.е. Х = Х1 + Х2 + Х3 + Х4. Суммируя последовательно (см. § 3.2) Х1 + Х2 = Z, X1 + X2 + X3 = Z + X3 = U, X1 + X2 + X3 + X4 = U + + X4 = X, получим аналогично решению примера 3.4:

127

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Z = X1+X2:

U = Z +X3:

zl

0

1

2

pl

0,02

0,26

0,72

иm , pm

0

1

2

3

0,005

0,08

0,375

0,54

и, наконец, распределение X = U + X4, т.е. получили (3.42). Т р е т и й с п о с о б. Распределение Х можно получить чисто механически, перемножив биномы (двучлены):

4 ( z ) = ( 0,1 + 0,9 z )( 0, 2 + 0,8 z )( 0, 25 + 0,75 z )( 0,3 + 0, 7 z ) ,

(3.43)

zk

причем каждый из пяти полученных коэффициентов при (k = 0, 1, 2, 3, 4) в функции 4 ( z ) будет выражать соответствующие вероятности P(X = k). Действительно, преобразовав выражение (3.43), получим

4 ( z ) = 0,0015 + 0,0275 z + 0,1685 z 2 + 0, 4245 z 3 + 0,378 z 4 ,

где коэффициенты — это вероятности значений случайной величины Х (3.42).  Данный формальный способ основан на том, что искомые вероятности являются коэффициентами при z k производящей функции случайной

n

X =  X i , которой (при

величины

z = et )

является

i =1

функция n ( z ) =

n

 (q i =1

i

+ pi z ). Действительно, по свойству (3.40)

производящая функция суммы независимых случайных величин равна произведению их производящих функций, в данном случае биномов (qi + pi z ) (см. § 3.8).  Пример 3.23. В 1-й урне содержится 6 белых и 4 черных шара, а во 2-й — 3 белых и 7 черных шаров. Из 1-й урны берут наудачу два шара и перекладывают во 2-ю урну, а затем из 2-й урны берут наудачу один шар и перекладывают в 1-ю урну. Составить законы распределения числа белых шаров в 1-й и 2-й урнах. Р е ш е н и е. Найдем закон распределения случайной величины Х — числа белых шаров в 1-й урне. Пусть Аi ( Ai ) — событие, состоящее в извлечении из первой урны i-го белого (черного) шара (i = 1, 2), a В ( B ) — извлечение из 2-й урны белого (черного) шара после того, как в нее из 1-й урны переложили два извлеченных шара. В соответствии с условием число Х белых шаров в 1-й урне может быть равным 4, 5, 6 или 7. Вероятность того, что в 1-й урне останется 4 белых шара, будет равна вероятности совместного осуществления трех событий: из 1-й урны извлечены первый шар — белый, второй шар —

128

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

белый, из 2-й урны извлечен черный шар (после того как в нее переложили два белых шара), т.е.

(

)

( )

P ( X = 4 ) = P A1 A2 B = P ( A1 )  PA1 ( A2 )  PA1 A2 B = Рассуждая аналогично, получим

(

6 5 7 7   = . 10 9 12 36

)

P ( X = 5 ) = P A1 A2 B + A1 2 B + 1 2 B =

=

6 4 8 4 6 8 6 5 5 89   +   +   = ; 10 9 12 10 9 12 10 9 12 180

(

)

P ( X = 6 ) = P A1 A2 B + A1 2 B + 1 2 B =

=

4 3 9 6 4 4 4 6 4 5   +   +   = ; 10 9 12 10 9 12 10 9 12 18

(

)

P ( X = 7 ) = P A1 A2 B = Итак, закон распределения X:

4 3 3 1   = . 10 9 12 30

xi

4

5

6

7

pi

7/36

89/180

5/18

1/30

Убеждаемся в том, что 4

p i =1

i

= 7 36 + 89 180 + 5 18 + 1 30 = 1.

Распределение числа Y белых шаров во 2-й урне можно найти аналогично, но проще это сделать, если учесть, что X + Y = 9 (при любых значениях xi и yj). Поэтому закон распределения случайной величины Y = 9 – Х есть Y:

yj

2

3

4

5

pj

1/30

5/18

89/180

7/36



 Пример 3.23а. За пятилетие фирма может прекратить свое существование с вероятностью 1/2, выжить в конкурентной борьбе с вероятностью 1/3 и разделиться на две фирмы с вероятностью 1/6. В следующее пятилетие с каждой фирмой может произойти то же самое с теми же вероятностями. Составить закон распределения числа фирм к концу второго пятилетия. Р е ш е н и е. Случайная величина X — число фирм к концу второго пятилетия — может принимать значения 0, 1, 2, 3, 4. Обозначим

129

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

события Ai ( Bi ) — к концу первого (второго) пятилетия будет i фирм,

i = 0, 1, ..., 4 . Известно, что P( A0 ) = 1/ 2, P( A1 ) = 1/ 3, P( A2 ) = 1/ 6. В соответствии с условием найдем вероятности:

1 1 1 1  1 1  17 1 +  +    = ; 2 3 2 6  2 2  24 1 1 11 1 1 1 1 = 1) = P ( A1 B1 + A2 B1 ) =  +   +   = ; 3 3 6 2 3 3 2 6 1 1 1  1 1 1 1 1 1  11 = 2) = P ( A1 B2 + A2 B2 ) =  +   +  +   = ; 3 6 6  3 3 6 2 2 6  108 11 1 1 1 1 = 3) = P ( A2 B3 ) =   +   = ; 6  3 6 6 3  54 11 1 1 = 4) = P ( A2 B4 ) =    = . 6  6 6  216

P( X = 0) = P ( A0 B0 + A1 B0 + A2 B0 ) = P( X P( X P( X P( X

Более сложные выражения в скобках для вероятностей событий, происходящих совместно с событием А2, связано с тем, что при наступлении события А2 происходит разделение фирмы на две, из которых одна (или обе) могут ликвидироваться, выжить либо вновь разделиться на две. Итак, искомый закон распределения X:

Условие

xi

0

1

2

3

4

pi

17/24

1/6

11/108

1/54

1/216

4

p i =0

i

= 1 выполнено. 

 Пример 3.24. Дана функция распределения случайной величины X:

 x  0, 0 F ( x ) =  x 2 4  0 < x  2,  x > 2. 1

Необходимо: а) найти плотность вероятности ( x ) ; б) постро-

ить графики ( x ) и F(x); в) убедиться в том, что X — непрерывная случайная величина; г) найти вероятности P(X = 1), P(X < 1), P(1  X < 2) (две последние вероятности показать на графиках (x)

и F(x)); д) вычислить математическое ожидание М(Х), дисперсию D(X), моду Мo(X) и медиану Ме(X). Р е ш е н и е. а) Плотность вероятности

130

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

{

 ( x ) = F  ( x ) = 0  x  0   x > 2, x 2  0 < x  2. б) Графики ( x ) и F(x) изображены на рис. 3.20, а и б.

a)

б)

Рис. 3.20

в) Случайная величина Х — непрерывная, так как функция распределения F(x) непрерывна, а ее производная — плотность вероятности ( x ) — непрерывна во всех точках, кроме одной (х = 2).

г) Вероятность P(X = 1) = 0 как вероятность отдельно взятого значения непрерывной случайной величины. Вероятность P(X < 1) можно найти либо по определению функции распределения (3.18), либо по формуле (3.21) через плотность вероятности ( x ) :

P ( X < 1) = F (1) = или

12 1 = (ордината графика F(1) — см. рис. 3.20, б — 4 4

131

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

P ( X < 1) =



1 Љ

0



 ( x ) dx =



0  dx +

Љ

1 0

1

x x2 dx = 0 + 2 4

0

=

1 4

(площадь под кривой распределения ( x ) на отрезке [0;1] — см. рис. 3.20, а). Вероятность P (1  X  2 ) можно найти либо как приращение функции распределения по формуле (3.20), либо по формуле (3.22) через плотность вероятности ( x):

P (1  X  2 ) = F ( 2 ) Љ F (1) =

22 12 3 Љ = 4 4 4

(приращение ординаты графика F(x) на отрезке [1;2] — рис. 3.20, б) — или P (1  X  2 ) =



2 1

x x2 dx = 2 4

2 1

22 12 3 Љ = 4 4 4

(площадь под кривой распределения ( x ) на отрезке [1;2] — рис. 3.20, а). д) По формуле (3.25) математическое ожидание

a = M (X ) =



+ Љ

x  ( x ) dx = x3 6

=0+

2 0

0

2

 x x   dx + Љ 0  2 1 4 + 0 =  23 = . 6 3



0  dx +





+ 2

0  dx =

Если представить распределение случайной величины X в виде единичной массы, распределенной по треугольнику (рис. 3.20, а), то значение M(X) = 4/3 означает абсциссу центра массы треугольника. По формуле (3.27) дисперсия D(X) = M(X 2) – a2. Вначале найдем

M (X 2) =



+ Љ

x 2  ( x ) dx = 0 +



2 0

 x x 2   dx + 0 = 2. 2

2

2 4  = 9. 3   Плотность вероятности ( x ) Теперь D(X) = 2 – 

максимальна при х = 2 (см. рис. 3.20, а), следовательно, Mо(X) = 2. Медиану Me(X) = b найдем из условия F(b) =

1 1 b2 , т.е. = , от2 2 4

куда b = e (  ) = 2 , или через плотность вероятности



b

 ( x ) dx =

Љ

1 , т.е. 0 + 2



x x2 dx = 4 0 2

откуда b = Me(X) = 2. 

132

b

b 0

=

b2 1 = , 4 2

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 3.24a. Функция распределения непрерывной случайной величины X, распределенной по закону Коши, имеет вид:

F ( x) = A + B arctg

x ( a > 0). a

Найти: а) постоянные A и B; б) плотность вероятности (x); в) вероятность P (  a  X  a ). Убедиться в том, что математическое ожидание и дисперсия для этой случайной величины не существуют. Р е ш е н и е. а) Воспользуемся свойствами функции распределения F ( Љ) = 0, F (+) = 1.

x  ) = A Љ B = 0; x Љ x Љ a 2 x  F (+) = lim F ( x) = lim ( A + B arctg ) = A + B = 1. x + x + 2 a 1 1 Из полученной системы уравнений находим A = , B = , т.е. 2  1 1 x F ( x) = + arctg . 2  a F (Љ) = lim F ( x) = lim ( A + B arctg

б) Плотность вероятности

x a 1 1 . ( x) = F ( x) =  + arctg  = a ( x 2 + a 2 ) 2  в) По формуле (3.20) вероятность

1 1  P(Љa  X  a) = F (a) Љ F (Љa ) =  + arctg 1 Љ 2  1 1  1      1 Љ  + arctg (Љ1)  =  Љ  Љ   = . 2    4  4 2 По формуле (3.25)

M (X ) =



+

Љ

x

a a ln ( x 2 + a 2 ) dx = 2 2  (x + a ) 2

+ Љ

,

т.е. математическое ожидание не существует, ибо

lim ln ( x 2 + a 2 ) =

x ±

Следовательно, не существует и дисперсия D(Х).

Упражнения 3.25. Вероятность поражения вирусным заболеванием куста земляники равна 0,2. Составить закон распределения числа кустов земляники, зараженных вирусом, из четырех посаженных кустов.

133

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

3.26. Стрелок ведет стрельбу по цели с вероятностью попадания при каждом выстреле 0,2. За каждое попадание он получает 5 очков, а в случае промаха очков ему не начисляют. Составить закон распределения числа очков, полученных стрелком за 3 выстрела, и вычислить математическое ожидание этой случайной величины. 3.27. В рекламных целях торговая фирма вкладывает в каждую десятую единицу товара денежный приз размером 1 тыс. руб. Составить закон распределения случайной величины — размера выигрыша при пяти сделанных покупках. Найти математическое ожидание и дисперсию этой случайной величины. 3.28. Клиенты банка, не связанные друг с другом, не возвращают кредиты в срок с вероятностью 0,1. Составить закон распределения числа возвращенных в срок кредитов из 5 выданных. Найти математическое ожидание, дисперсию и среднее квадратическое отклонение этой случайной величины. 3.29. Контрольная работа состоит из трех вопросов. На каждый вопрос приведено 4 ответа, один из которых правильный. Составить закон распределения числа правильных ответов при простом угадывании. Найти математическое ожидание и дисперсию этой случайной величины. 3.30. В среднем по 10% договоров страховая компания выплачивает страховые суммы в связи с наступлением страхового случая. Составить закон распределения числа таких договоров среди наудачу выбранных четырех. Вычислить математическое ожидание и дисперсию этой случайной величины. 3.31. В билете три задачи. Вероятность правильного решения первой задачи равна 0,9, второй — 0,8, третьей — 0,7. Составить закон распределения числа правильно решенных задач в билете и вычислить математическое ожидание и дисперсию этой случайной величины. 3.32. Вероятность попадания в цель при одном выстреле равна 0,8 и уменьшается с каждым выстрелом на 0,1. Составить закон распределения числа попаданий в цель, если сделано три выстрела. Найти математическое ожидание, дисперсию и среднее квадратическое отклонение этой случайной величины. 3.33. Произведено два выстрела в мишень. Вероятность попадания в мишень первым стрелком равна 0,8, вторым — 0,7. Составить закон распределения числа попаданий в мишень. Найти математическое ожидание, дисперсию и функцию распределения этой случайной величины и построить ее график. (Каждый стрелок делает по одному выстрелу.) 3.34. Найти закон распределения числа пакетов трех акций, по которым владельцем будет получен доход, если вероятность получения дохода по каждому из них равна соответственно 0,5, 0,6, 0,7. Найти математическое ожидание и дисперсию данной случайной величины, построить функцию распределения.

134

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

3.35. Дан ряд распределения случайной величины Х:

xi

2

4

pi

p1

p2

Найти функцию распределения этой случайной величины, если ее математическое ожидание равно 3,4, а дисперсия равна 0,84. 3.36. Из пяти гвоздик две белые. Составить закон распределения и найти функцию распределения случайной величины, выражающей число белых гвоздик среди двух одновременно взятых. 3.37. Из 10 телевизоров на выставке 4 оказались фирмы «Сони». Наудачу для осмотра выбрано 3. Составить закон распределения числа телевизоров фирмы «Сони» среди 3 отобранных. 3.38. Среди 15 собранных агрегатов 6 нуждаются в дополнительной смазке. Составить закон распределения числа агрегатов, нуждающихся в дополнительной смазке, среди пяти наудачу отобранных из общего числа. 3.39. В магазине продаются 5 отечественных и 3 импортных телевизора. Составить закон распределения случайной величины — числа импортных из четырех наудачу выбранных телевизоров. Найти функцию распределения этой случайной величины и построить ее график. 3.40. Вероятность того, что в библиотеке необходимая студенту книга свободна, равна 0,3. Составить закон распределения числа библиотек, которые посетит студент, если в городе 4 библиотеки. Найти математическое ожидание и дисперсию этой случайной величины. 3.41. Экзаменатор задает студенту вопросы, пока тот правильно отвечает. Как только число правильных ответов достигнет четырех либо студент ответит неправильно, экзаменатор прекращает задавать вопросы. Вероятность правильного ответа на один вопрос равна 2/3. Составить закон распределения числа заданных студенту вопросов. 3.42. Торговый агент имеет 5 телефонных номеров потенциальных покупателей и звонит им до тех пор, пока не получит заказ на покупку товара. Вероятность того, что потенциальный покупатель сделает заказ, равна 0,4. Составить закон распределения числа телефонных разговоров, которые предстоит провести агенту. Найти математическое ожидание и дисперсию этой случайной величины. 3.43. Каждый поступающий в институт должен сдать 3 экзамена. Вероятность успешной сдачи первого экзамена равна 0,9, второго — 0,8, третьего — 0,7. Следующий экзамен поступающий сдает только в случае успешной сдачи предыдущего. Составить закон распределения числа экзаменов, сдававшихся поступающим в институт. Найти математическое ожидание этой случайной величины.

135

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

3.44. Охотник, имеющий 4 патрона, стреляет по дичи до первого попадания или до израсходования всех патронов. Вероятность попадания при первом выстреле равна 0,6, при каждом последующем — уменьшается на 0,1. Необходимо: а) составить закон распределения числа патронов, израсходованных охотником; б) найти математическое ожидание и дисперсию этой случайной величины. 3.45. Из поступивших в ремонт 10 часов 7 нуждаются в общей чистке механизма. Часы не рассортированы по виду ремонта. Мастер, желая найти часы, нуждающиеся в чистке, рассматривает их поочередно и, найдя такие часы, прекращает дальнейший просмотр. Составить закон распределения числа просмотренных часов. Найти математическое ожидание и дисперсию этой случайной величины. 3.46. Имеются 4 ключа, из которых только один подходит к замку. Составить закон распределения числа попыток открывания замка, если испробованный ключ в последующих попытках не участвует. Найти математическое ожидание, дисперсию и среднее квадратическое отклонение этой случайной величины. 3.47. Абонент забыл последнюю цифру нужного ему номера телефона, однако помнит, что она нечетная. Составить закон распределения числа сделанных им наборов номера телефона до попадания на нужный номер, если последнюю цифру он набирает наудачу, а набранную цифру в дальнейшем не набирает. Найти математическое ожидание и функцию распределения этой случайной величины. 3.48. Дана функция распределения случайной величины Х

0  F ( x ) = 0,3 0, 7 1 

   

x  1, 1 < x  2, 2 < x  3, x > 3.

Найти: а) ряд распределения; б) M(X) и D(X); в) построить многоугольник распределения и график F(x). 3.49. Даны законы распределения двух независимых случайных величин Х:

xi

0

1

3

pi

0,2

0,5

?

и

Y:

yi

2

3

pi

0,4

?

Найти вероятности, с которыми случайные величины принимают значение 3, а затем составить закон распределения случайной величины 3X – 2Y и проверить выполнение свойств математических ожиданий и дисперсий: M(3X – 2Y) = 3M(X) – 2M(Y), D(3X – 2Y) = 9D(X) + 4D(Y).

136

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

3.50. На двух автоматических станках производятся одинаковые изделия. Даны законы распределения числа бракованных изделий, производимых в течение смены на каждом из них: а) для первого Х:

б) для второго

xi

0

1

2

pi

0,1

0,6

0,3

Y:

yj

0

2

pj

0,5

0,5

Необходимо: а) составить закон распределения числа производимых в течение смены бракованных изделий обоими станками; б) проверить свойство математического ожидания суммы случайных величин. 3.51. Одна из случайных величин задана законом распределения xi

–1

0

1

pi

0,1

0,8

0,1

а другая имеет биномиальное распределение с параметрами n = 2, р = 0,6. Составить закон распределения их суммы и найти математическое ожидание этой случайной величины. 3.52. Случайные величины Х и Y независимы и имеют один и тот же закон распределения: Значение Вероятность

1

2

4

0,2

0,3

0,5

Составить закон распределения случайных величин 2Х и Х +Y. Убедиться в том, что 2Х  Х + Y, но M(2X)= M(X + Y). 3.53. По данным примера 3.52 убедиться в том, что X 2  XY . Проверить равенство M(XY) = [M(X)]2. 3.54. Два стрелка сделали по два выстрела по мишени. Вероятность попадания в мишень для первого стрелка равна 0,6, для второго — 0,7. Необходимо: а) составить закон распределения общего числа попаданий; б) найти математическое ожидание и дисперсию этой случайной величины. 3.55. Пусть X, Y, Z — случайные величины: Х — выручка фирмы, Y — ее затраты, Z = X – Y — прибыль. Найти распределение прибыли Z, если затраты и выручка независимы и заданы распределениями: X:

xi

3

4

5

pi

1/3

1/3

1/3

Y:

137

yj

1

2

pj

1/2

1/2

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

3.56. Пусть Х — выручка фирмы в долларах. Найти распределение выручки в рублях Z = XЃY в пересчете по курсу доллара Y, если выручка X не зависит от курса Y, а распределения X и Y имеют вид X:

xi

1000

2000

pi

0,7

0,3

и

Y:

yj

25

27

pj

0,4

0,6

3.57. Сделано два высокорисковых вклада: 10 тыс. руб. — в компанию А и 15 тыс. руб. — в компанию В. Компания А обещает 50% годовых, но может «лопнуть» с вероятностью 0,2. Компания В обещает 40% годовых, но может «лопнуть» с вероятностью 0,15. Составить закон распределения случайной величины — общей суммы прибыли (убытка), полученной от двух компаний через год, и найти ее математическое ожидание. 3.58. Дискретная случайная величина Х задана рядом распределения X:

xi

1

2

3

4

5

pi

0,2

0,3

0,3

0,1

0,1

Найти условную вероятность события X < 5 при условии, что X > 2. 3.59. Случайные величины Х1, Х2 независимы и имеют одинаковое распределение xi

0

1

2

3

pi

1/4

1/4

1/4

1/4

Найти: a) вероятность события Х1 + Х2 > 2; б) условную вероятность PX1 =1[(X 1 + X 2 ) > 2] .

3.60. Распределение дискретной случайной величины Х задано формулой p(X = k) = Ck2, где k = 1, 2, 3, 4, 5. Найти: а) константу С; б) вероятность события |Х – 2|  1. 3.61. Распределение дискретной случайной величины Х определяется формулой P(X = k) =C/2k,

k = 0, 1, 2, … .

Найти: а) константу С; б) вероятность P ( X  3) .

3.62. Случайная величина Х, сосредоточенная на интервале 1 1 [–1; 3], задана функцией распределения F(x) = х + . Найти ве4 4

роятность попадания случайной величины Х в интервал [0; 2]. Построить график функции F(x).

138

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

3.63. Случайная величина Х, сосредоточенная на интервале [2; 6], за1 2 дана функцией распределения F ( x) = ( x  4 x + 4). Найти вероят16

ность того, что случайная величина Х примет значения: а) меньше 4; б) меньше 6; в) не меньше 3; г) не меньше 6. 3.64. Случайная величина Х, сосредоточенная на интервале (1; 4), задана квадратичной функцией распределения F(x) = ах2 + bx + c, имеющей максимум при х = 4. Найти параметры а, b, с и вычислить вероятность попадания случайной величины Х в интервал [2; 3]. 3.65. Дана функция

( x) =

{

0  x < 0, Cxe x  x  0.

При каком значении параметра С эта функция является плотностью распределения некоторой непрерывной случайной величины X ? Найти математическое ожидание и дисперсию случайной величины X. 3.66. Случайная величина Х задана функцией распределения

0  x  0, F ( x ) =  x 2  0 < x  1, 1  x > 1. Найти: а) плотность вероятности  ( x ) ; б) математическое ожида-

ние М(X); в) дисперсию D(X); г) вероятности P(X = 0,5), P(X < 0,5), P(0,5  X  1); д) построить графики  ( x ) и F(x) и показать на них

математическое ожидание M(X) и вероятности, найденные в п. г). 3.67. По данным примера 3.66 найти: а) моду и медиану случайной величины Х; б) квантиль х0,4 и 20%-ную точку распределения Х. 3.68. По данным примера 3.66 найти коэффициент асимметрии и эксцесс случайной величины Х. 3.69. Случайная величина X распределена по закону Коши:

( x) =

A . Найти: а) коэффициент А; б) функцию распределения 1 + x2

F(x); в) вероятность P(–1  X  1). Существуют ли для случайной величины X математическое ожидание и дисперсия? 3.70. Случайная величина X распределена по закону Лапласа:

( x) = Ae

Љ x

. Найти: а) коэффициент А; б) функцию распределения F(x); в) математическое ожидание М(X) и дисперсию D(X). Построить графики (x) и F(x). 3.71. Случайная величина X распределена по закону «прямоугольного треугольника» в интервале (0; с) (рис. 3.21). Найти: а) выражение плотности вероятности (x) и функции распределения F(x);

139

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

б) математическое ожидание М(X), дисперсию D(X), центральный момент µ3(X); в) вероятность P (c/2  X  c) и показать ее на данном в условии графике (x) и построенном графике F(x). (x)

0

(x)

c

–3

x

Рис. 3.21

0

3 x

Рис. 3.22

3.72. Случайная величина X распределена по закону Симпсона (равнобедренного треугольника) на отрезке [–3; 3] (рис. 3.22). Найти: а) выражения плотности вероятности (x) и функции распределения F(x); б) числовые характеристики М(X), D(X), µ3(X); в) вероятность P(–3/2  X  3) и показать ее на данном в условии графике (x) и построенном графике F(x).

140

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

4

Основные законы распределения

В данной главе описаны основные законы распределения дискретных (§ 4.1—4.4) и непрерывных (§ 4.5—4.8) случайных величин, используемых для построения теоретико-вероятностных моделей реальных социально-экономических явлений. В § 4.9 рассматриваются распределения случайных величин, используемых в качестве вспомогательного технического средства при решении различных задач статистического анализа.

4.1. Биномиальный закон распределения О п р е д е л е н и е. Дискретная случайная величина Х имеет биномиальный закон распределения с параметрами n и p, если она принимает значения 0, 1, 2, …, m, …, n с вероятностями

P ( X = m ) = Cnm p m q n  m ,

(4.1)

где 0 < p < 1, q = 1 – p. Как видим, вероятности P(X = m) находятся по формуле Бернулли, полученной выше (гл. 2). Следовательно, биномиальный закон распределения представляет собой закон распределения числа X = m наступлений события А в n независимых испытаниях, в каждом из которых оно может произойти с одной и той же вероятностью р. Ряд распределения биномиального закона имеет вид: xi

0

pi

qn

1 1 n

C pq

2 n 1

2 n

2

C p q

… n2



m m n

m

C p q

nm



n



pn

Очевидно, что определение биномиального закона корректно, так как основное свойство ряда распределения

n

p i=0

ибо

n

p i =0

i

i

= 1 выполнено,

есть не что иное, как сумма всех членов разложения би-

нома Ньютона:

q n + Cn1 pq n 1 + Cn2 p 2 q

n2

+ … + Cnm p m q n  m + ... + p n = (q + p) n = 1n = 1

(отсюда и название закона — биномиальный).

141

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

На рис. 2.1 приведен многоугольник (полигон) распределения случайной величины Х, имеющей биномиальный закон распределения с параметрами n = 5, p = 0,2, а на переднем форзаце учебника — и при p = 0,3; 0,5; 0,7; 0,8. Теорема1. Математическое ожидание случайной величины X, распределенной по биномиальному закону, M(X) = np,

(4.2)

а ее дисперсия D(X) = npq. (4.3)  Случайную величину X — число m наступлений события А в n независимых испытаниях — можно представить в виде суммы n независимых случайных величин Х1 + Х2 + … + Хk + … + Xn, каждая из которых имеет один и тот же закон распределения, т.е. n

 =   k , где k =1

X k: (k = 1, 2, …, p)

xi

0

1

pi

q

p

(4.4)

Случайная величина Хk выражает число наступлений события А в k-м (единичном) испытании (k = 1, 2, …, n), т.е. при наступлении события А Хk = 1 с вероятностью р, при ненаступлении — Хk = 0 с вероятностью q. Случайную величину Хk называют альтернативной случайной величиной (или распределенной по закону Бернулли, или индикатором события А). Найдем числовые характеристики альтернативной случайной величины Хk по формулам (3.3) и (3.11): 2

ak = M ( X k ) =  xi pi = 0  q + 1  p = p, i =1

2

D ( X k ) =  ( xi  ak ) pi = ( 0  p ) q + (1  p ) p = 2

2

2

i =1

= p 2 q + q 2 p = pq ( p + q ) = pq, так как p + q = 1. Таким образом, математическое ожидание альтернативной случайной величины (4.4) равно вероятности p появления события А в единичном испытании, а ее дисперсия — произведению вероятности p появления события A на вероятность q его непоявления.

1

Заметим, что формулы (4.2), (4.3), представляющие заключение теоремы, были получены ранее в § 3.8 другим способом — с помощью производящей функции.

142

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Теперь математическое ожидание и дисперсия рассматриваемой случайной величины X: M(X) = M(X1 +…+ Xk +…+ Xn) = p + ... + p = np,

  n 

D(X) = D(X1 +…+ Xk +…+ Xn) = pq + ... + pq = npq

 n 

(при нахождении дисперсии суммы случайных величин учтена их независимость).  Следствие. Математическое ожидание частости

m события в n

n независимых испытаниях, в каждом из которых оно может наступить с одной и той же вероятностью р, равно р, т.е.

m M   = p, n

а ее дисперсия

(4.5)

 m  pq D  = . (4.6) n n m  m X есть , т.е.  Частость события = , где Х — случайная n n n n

величина, распределенная по биномиальному закону. Поэтому

1 m X 1    =    = M ( X ) =  np = p, n n n n 1 pq m X 1 D   = D   = 2 D( X ) = 2  npq = .  n n n  n n

З а м е ч а н и е. Теперь становится понятным смысл аргументов в функциях f(x) и (x) , содержащихся в локальной и интегральной теоремах Муавра—Лапласа (cм. § 2.3). Так, в функции f(x) аргумент x =

m  np npq

есть отклонение числа X = m появления

события А в n независимых испытаниях, распределенного по биномиальному закону, от его среднего значения M(X) = np, выраженное в

x=

стандартных

 n pq

=

 pq/n

отклонениях

 x = D ( X ) = npq .

Аргумент

в функции (x), рассматриваемой в следствии

интегральной теоремы Муавра—Лапласа, есть отклонение  час-

143

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

тости m/n события А в n независимых испытаниях от его вероятности p в отдельном испытании, выраженное в стандартных от-

m m = D  =  n n

клонениях  

pq . n

В гл. 2 установлено, что наивероятнейшее число наступлений события А в n повторных независимых испытаниях, в каждом из которых оно может наступить с одной и той же вероятностью р, удовлетворяет неравенству (2.4). Это означает, что мода случайной величины, распределенной по биномиальному закону, — число целое — находится из того же неравенства np – q  Mo ( X )  np + p.

(4.7)

Биномиальный закон распределения широко используется в теории и практике статистического контроля качества продукции, при описании функционирования систем массового обслуживания, при моделировании цен активов, в теории стрельбы и в других областях. Так, например, полученный в примере 3.18 закон распределения случайной величины X — числа мальчиков в семье из 4 детей — биномиальный с параметрами n = 4, р = 0,515.  Пример 4.1. В магазин поступила обувь с двух фабрик в соотношении 2:3. Куплено 4 пары обуви. Найти закон распределения числа купленных пар обуви, изготовленной первой фабрикой. Найти математическое ожидание и среднее квадратическое отклонение этой случайной величины. Р е ш е н и е. Вероятность того, что случайно выбранная пара обуви изготовлена первой фабрикой, равна p = 2/(2 + 3) = 0,4. Случайная величина X — число пар обуви среди четырех, изготовленных первой фабрикой, имеет биномиальный закон распределения с параметрами n = 4, р = 0,4. Ряд распределения Х имеет вид: xi

0

1

2

3

4

pi

0,1296

0,3456

0,3456

0,1536

0,0256

(Значения pi = P(X = m), (m = 0, 1, 2, 3, 4) вычислены по фор-

муле (4.1): P ( X = m ) = C4m  0, 4m  0,64  m. )

Найдем математическое ожидание и дисперсию случайной величины Х по формулам (4.2) и (4.3): M(X) = np = 4Ѓ0,4 = 1,6,

D(X) = npq = 4Ѓ0,4Ѓ0,6 = 0,96.

З а м е ч а н и е. Нетрудно заметить, что полученное распределение двумодальное (имеющее две моды): Mo(X)1 = 1 и Mo(X)2 = 2,

144

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

так как эти значения имеют наибольшие (и равные между собой) вероятности. Моду Мо(X) — число целое — можно найти из неравенства (4.7): 4Ѓ0,4 – 0,6  o (  )  4  0, 4 + 0, 4 или 1  o (  )  2 ,

т.е. Mo(X)1 = 1 и Mo(X)2 = 2.   Пример 4.2. По данным примера 4.1 найти математическое ожидание и дисперсию частости (доли) пар обуви, изготовленных первой фабрикой, среди 4 купленных. Р е ш е н и е. Имеем n = 4, р = 0,4. По формулам (4.5), (4,6):

m    = 0, 4, n

 m  0, 4  0,6 D  = = 0, 06.  4 n

4.2. Закон распределения Пуассона О п р е д е л е н и е. Дискретная случайная величина Х имеет закон распределения Пуассона с параметром  > 0, если она принимает значения 0, l, 2, ..., m,... (бесконечное, но счетное множество значений) с вероятностями

P ( X = m) =

 m eЉ = Pm () . m!

(4.8)

Ряд распределения закона Пуассона имеет вид: xi pi

0

1

e Љ

eЉ

2

m



2 Љ

e 2!



m Љ

 e m!





Очевидно, что определение закона Пуассона корректно, так как основное свойство ряда распределения



p i =1

i

= 1 выполнено, ибо

сумма ряда 

p i =1

i

= eЉ + eЉ +

 2 eЉ  m eЉ + ... + + ... = 2! m!

  2 m = eЉ 1 +  + + ... + + ...  = eЉ  e = 1 2! m!  (учтено, что в скобках записано разложение в ряд функции ех при x =  ).

145

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

На рис. 4.1 показан многоугольник (полигон) распределения случайной величины, распределенной по закону Пуассона P(X = m) = Pm (  ) с пара-

Pm( ) 0,5

=0,5 =1

0,3

=2 =3,5

0,1 0

1

2

3

4

5

6

7 m

Рис. 4.1

 = 0,5,  = 1, метрами  = 2,  = 3,5. Теорема. Математическое ожидание и дисперсия случайной величины, распределенной по закону Пуассона, совпадают и равны параметру  этого закона, т.е.

M(X)=  ,

(4.9)

D(X)=  .

(4.10)

 Найдем математическое ожидание случайной величины Х: 



i =1

m=0

a = M ( X ) =  xi pi =  m = e

  m eЉ  m eЉ = = m! m =1 ( m Љ 1) !

  2   e 1 =  +  + + ...  = e e = .   2! m =1 ( m Љ 1) !   m 1



Дисперсию случайной величины Х найдем по формуле (3.16), т.е. D(X) = M(X 2 ) – a2. Вначале получим формулу для 

( )



M X 2 =  xi2 pi =  m 2 i =1

m=0

  m eЉ  m eЉ = m = m! ( m Љ 1)! m =1

 ( m Љ 1) + 1    m2  m 1  + e  = = eЉ   =  2 e  ( m Љ 1)! m =1 m = 2 ( m Љ 2 )! m =1 ( m Љ 1) ! m

    2 2 =  2 eЉ 1 +  + + ...  + eЉ 1 +  + + ...  = 2! 2!     2 Љ  Љ  2 =  e e + e e =  + .

(

)

2 2 Теперь D ( X ) =  +  Љ  = . 

При достаточно больших n (вообще при n  ) и малых значениях p ( p  0) при условии, что произведение np — постоянная величина ( np   = const) , закон распределения Пуассона является

146

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

хорошим приближением биномиального закона, так как в этом случае функция вероятностей Пуассона (4.8) хорошо аппроксимирует функцию вероятностей (4.1), определяемую по формуле Бернулли (см. § 2.2). Иначе, при p  0 , n   , np   = const закон распределения Пуассона является п р е д е л ь н ы м случаем биномиального закона. Так как при этом вероятность p события A в каждом испытании мала, то закон распределения Пуассона называют часто законом редких явлений. Наряду с «предельным» случаем биномиального распределения закон Пуассона может возникнуть и в ряде других ситуаций. Так, в гл. 7 показано, что для простейшего потока событий число событий, попадающих на произвольный отрезок времени, есть случайная величина, имеющая пуассоновское распределение. По закону Пуассона распределены, например, число рождения четверней, число сбоев на автоматической линии, число отказов сложной системы в «нормальном режиме», число «требований на обслуживание», поступивших в единицу времени в системах массового обслуживания, и др. Отметим еще, что если случайная величина представляет собой сумму двух независимых случайных величин, распределенных каждая по закону Пуассона, то она также распределена по закону Пуассона.  Пример 4.3. Доказать, что сумма двух независимых случайных величин, распределенных по закону Пуассона с параметрами 1 и  2 , также распределена по закону Пуассона с параметром  = 1 +  2 . Р е ш е н и е. Пусть случайные величины X = m и Y = n имеют законы распределения Пуассона соответственно с параметрами 1 и

 2 . В силу независимости случайных величин Х и Y их сумма Z = X + Y принимает значение Z = s с вероятностью

P ( Z = s ) = P ( X = m )  P (Y = n ) =

= =e

1m eЉ1  n2 eЉ2 mn Љ  +  = e ( 1 2)  1 2 = m! n! m+n=s m + n = s m! n !



 ( 1 + 2 )

s

1s  n   n2

 ( s Љ n ) ! n! = n=0

e

Љ ( 1 +2 )

s!

s

s!

 ( s Љ n )! n ! 

Полагая, что 1 +  2 =  , и учитывая, что s

sЉn 1

n=0

s

147

s!

 ( s Љ n ) ! n!  n=0

=  Csn 1s  n  n2 = (1 +  2 ) s =  s , получим P(Z = s) = n=0

 2n . sn 1

 2n =

eЉ  s , т.е. слуs!

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

чайная величина Z = X + Y распределена по закону Пуассона с параметром  = 1 +  2 . 

4.3. Геометрическое распределение и его обобщения О п р е д е л е н и е. Дискретная случайная величина X = m имеет геометрическое распределение c параметром p, если она принимает значения 1, 2, ..., m… (бесконечное, но счетное множество значений) с вероятностями P(X = m) = pqm–1 ,

(4.11)

где 0 < p < 1, q = 1 – p. Ряд геометрического распределения случайной величины имеет вид: xi

1

2

3



m



pi

p

pq

pq2



pqm–1



Нетрудно видеть, что вероятности pi образуют геометрическую прогрессию c первым членом р и знаменателем q (отсюда название «геометрическое распределение»). Определение геометрического распределения корректно, так как сумма ряда 

p i =1

i

(

)

= p + pq + ... + pq m Љ1 + ... = p 1 + q + ... + q m Љ1 + ... = p

(так как

1 1 есть сумма геометрического ряда = 1 q p

1 p = =1 1 q p 

q

m Љ1

при

m =1

q < 1) . Случайная величина X = m, имеющая геометрическое распределение, представляет собой число m испытаний, проведенных по схеме Бернулли, с вероятностью р наступления события в каждом испытании до первого положительного исхода. Так, например, число вызовов радистом корреспондента до тех пор, пока вызов не будет принят, рассматриваемое в примере 3.19, б, есть случайная величина, имеющая геометрическое распределение с параметром р = 0,4. Теорема. Математическое ожидание случайной величины X, имеющей геометрическое распределение с параметром р, M(X) =

148

1 , p

(4.12)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

а ее дисперсия1 D(X)=

q , p2

(4.13)

где q = 1 – p.  Пример 4.4. Проводится проверка большой партии деталей до обнаружения бракованной (без ограничения числа проверенных деталей). Составить закон распределения числа проверенных деталей. Найти его математическое ожидание и дисперсию, если известно, что вероятность брака для каждой детали равна 0,1. Р е ш е н и е. Случайная величина Х — число проверенных деталей до обнаружения бракованной — имеет геометрическое распределение (4.11) с параметром р = 0,1. Поэтому ряд распределения имеет вид X = m:

xi

1

2

3

4



m



pi

0,1

0,09

0,081

0,0729



0,9mЃ0,1



По формулам (4.12) и (4.13) M(X) =

1 1 q 0,9 = = 10, D(X) = 2 = = 90.  p 0,1 p 0,12

Геометрическое распределение при k = 1 является частным случаем распределения Паскаля, для которого P ( X = m) = Cmk 11 p k q m  k , m = k , k + 1 ,… и числовые характеристики

M (X ) =

k kq , D( X ) = 2 . p p

Геометрическое распределение характеризует число m испытаний (проведенных по схеме Бернулли с вероятностью p наступления события в каждом испытании) до первого положительного исхода; распределение Паскаля — до k-го положительного исхода. В отличие от закона Паскаля отрицательное биномиальное распределение характеризует распределение числа m непоявлений события до k-го положительного исхода. Его функция вероятностей

P ( X = m) = Cmm+ k 1 p k q m , m = 0, 1,... kq kq и числовые характеристики M ( X ) = ; D( X ) = 2 . p p  Пример 4.4а. Решить задачу 4.4 при условии, что проверка партии проводится до обнаружения трех бракованных деталей. 1 Доказательство теоремы, связанное с суммированием членов бесконечного ряда, здесь не приводим. Это доказательство аналогично приведенному для частного случая в решении примера 3.19, б.

149

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Р е ш е н и е. Случайная величина Х — число проверенных деталей до обнаружения k = 3 бракованных — имеет закон распределения Паскаля с параметром p = 0,1, т.е. P ( X = m) = Cm2 1  0,13  0,9m  3 , или X = m:

xi pi

3

4

0,001 0,0027

M (X ) =

5



m



0,00486



0,13 Cm2 1  0,9m  3



k 3 kq 3  0,9 = = 30, D ( X ) = 2 = = 270.  p 0,1 p 0,12

4.4. Гипергеометрическое распределение О п р е д е л е н и е. Дискретная случайная величина Х имеет гипергеометрическое распределение с параметрами n, M, N, если она принимает значения1 0, 1, 2, m, ..., min (n, М) с вероятностями

P(X = m)=

CmM CNn mM , CNn

(4.14)

где M  N , n  N ; n, M , N — натуральные числа. Гипергеометрическое распределение имеет случайная величина X = m — число объектов, обладающих заданным свойством, среди n объектов, случайно извлеченных (без возврата) из совокупности N объектов, М из которых обладают этим свойством. Так, распределение случайной величины Х — числа неточных приборов среди взятых наудачу четырех, полученное в примере 3.20, есть гипергеометрическое распределение с параметрами n = 4, M = 3, N = 10. Теорема. Математическое ожидание случайной величины Х, имеющей гипергеометрическое распределение с параметрами n, М, N, есть M(X) = n

M , N

(4.15)

а ее дисперсия D(X) = n

n M  M 1Љ 1Љ  .    N 1  N  N

(4.16)

Случайную величину X = m, распределенную по биномиальному закону (4.1), можно интерпретировать как число m объектов, обладающих данным свойством, из общего числа n объектов, случайно 1

Точнее, возможные значения m заключены в границах от max (0, n + M – N) до m

min (n, M), при которых существуют C n

, C Nn mM

150

.

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

извлеченных из некоторой воображаемой б е с к о н е ч н о й совокупности, доля р объектов которой обладает этим свойством. Поэтому гипергеометрическое распределение можно рассматривать как модификацию биномиального распределения для случая к о н е ч н о й совокупности, состоящей из N объектов, М из которых обладают этим свойством. При N  , M   при условии, что M/N  p, функция вероятностей (4.14) гипергеометрического распределения стремится к соответствующей функции (4.1) биномиального закона.  Действительно, учитывая равенства (1.8), (1.9), формула (4.14) примет вид:

M ( M  1)...( M  m + 1) Ч m! ( N  M )( N  M  1)...( N  M  n + m  1) N ( N  1)...( N  n + 1) Ч : . n! (n  m)! P ( X = m) =

После деления делимого и делителя на Nn получим

M  M 1   M m 1        n! N N N N N  P ( X = m) =  Ч 1   n 1  m !(n  m)!  1  1   1   N   N   M   M 1   M n  m +1  Ч 1   1    ... 1   . N  N N  N N  

M  p, получаем N M формулу (4.1): P ( X = m) = Cnm p m q n  m , где q = 1  .  N Переходя к пределу при

N  , M  ,

Гипергеометрическое распределение широко используется в практике статистического приемочного контроля качества промышленной продукции, в задачах, связанных с организацией выборочных обследований, и других областях.

 Пример 4.5. В лотерее «Спортлото 6 из 45» денежные призы получают участники, угадавшие 3, 4, 5 и 6 видов спорта из отобранных случайно 6 видов из 45 (размер приза увеличивается с увеличением числа угаданных видов спорта). Найти закон распределения случайной величины Х — числа угаданных видов спорта среди случайно отобранных шести. Какова вероятность получения денежного приза? Найти математическое ожидание и дисперсию случайной величины X. Р е ш е н и е. Очевидно (см. гл. 1, пример 1.14), что число угаданных видов спорта в лотерее «6 из 45» есть случайная величина, имеющая гипергеометрическое распределение с параметрами n = 6, М = 6, N = 45. Ряд ее распределения, рассчитанный по формуле (4.14), имеет вид:

151

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

X: xi

0

1

2

3

4

5

6

pi 0,40056 0,42413 0,15147 0,02244 0,00137 0,00003 0,00000012 Вероятность получения денежного приза P(3  X  6)=

6

 P ( X = i) = i =3

= 0,02244 + 0,00137 + 0,00003 + 0,00000012 = 0,02384  0,024. По формулам (4.15) и (4.16)

M (X ) = 6 

6 39  39  6  = 0,8; D(X ) = 6  1 Љ 1 Љ  = 0, 6145. 45 44  45  45 

Таким образом, среднее число угаданных видов спорта из 6 всего 0,8, а вероятность выигрыша только 0,024. 

4.5. Равномерный закон распределения О п р е д е л е н и е. Непрерывная случайная величина Х имеет равномерный (прямоугольный) закон распределения на отрезке [а, b], если ее плотность вероятности ( x) постоянна на этом отрезке и равна нулю вне его, т.е.

 1  a  x  b,  ( x) =  b Љ a (4.17) 0  x < a , x > b .  Кривая распределения ( x) и график функции распределения F(x) случайной величины Х приведены на рис. 4.2, а, б. (x) a)

1 ba 0

a

b

x

F(x)

б)

1

0

a

b

x

Рис. 4.2 Теорема. Функция распределения случайной величины Х, распределенной по равномерному закону, есть

152

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 x  a, 0  F ( x ) = ( x Љ a ) / ( b Љ a )  a < x  b,   x > b, 1

ее математическое ожидание

a +b , 2

M(X) = а дисперсия D(X) =

(4.18)

(b  a )

(4.19) 2

.

12

(4.20)

 При x  a функция распределения F (x) = 0. При a < x  b по формуле (3.23)

F ( x) =



dx x x xa . = = ba a ba a ba x

При x > b очевидно, что



F ( x) =

b a

dx ba = = 1, ba ba

т.е. формула (4.18) доказана. Математическое ожидание случайной величины X c учетом его механической интерпретации как центра масс равно абсциссе сере-

a +b . 2

дины отрезка, т.е. M(X) =

Тот же результат получается по формуле (3.25):

M (X ) =



+ Љ

x  ( x ) dx =



По формуле (3.26):

D(X ) =

=



xdx 1  x2 b  b2 Љ a 2 a+b . = =  = a b Љ a  2  2 (b Љ a) 2 a bЉa b



+ Љ

2

 x Љ M ( X )   ( x ) dx =

2

a + b  dx 1 a+b   xЉ 2  bЉa = 3 bЉa xЉ 2  a ( )   b

3

b a

=

 ( b Љ a )3 ( a Љ b )3  ( b Љ a ) 2 1 .  = = Љ 3(b Љ a )  8 8  12   Равномерный закон распределения используется при анализе ошибок округления при проведении числовых расчетов (например, ошибка округления числа до целого распределена равномерно на отрезке [–0,5; +0,5]), в ряде задач массового обслуживания, при статистическом моделировании наблюдений, подчиненных задан-

153

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ному распределению. Так, случайная величина X, распределенная по равномерному закону на отрезке [0; 1], называемая «случайным числом от 0 до 1», служит исходным материалом для получения случайных величин с любым законом распределения.  Пример 4.6. Поезда метрополитена идут регулярно с интервалом 2 мин. Пассажир выходит на платформу в случайный момент времени. Какова вероятность того, что ждать пассажиру придется не больше полминуты. Найти математическое ожидание и среднее квадратическое отклонение случайной величины X — времени ожидания поезда. Р е ш е н и е. Случайная величина X — время ожидания поезда на временном (в минутах) отрезке [0;2] имеет равномерный закон распределения  ( x ) =

1 . 2

Поэтому вероятность того, что пассажиру придется ждать не более полминуты, равна 1/4 от равной единице площади прямоугольника (рис. 4.3), т.е.

Рис. 4.3

P(X  0,5) =



0,5 0

1 1 dx = x 2 2

0,5 0

1 = . 4

По формулам (4.19) и (4.20)

( 2  0) 1 0+2 M (X) = = 1 (.), D ( X ) = = , 12 3 2 2

 x = D(X ) =

1 3 =  0,58 (.).  3 3

4.6. оказательный (экспоненциальный) закон распределения О п р е д е л е н и е. Непрерывная случайная величина Х имеет показательный (экспоненциальный) закон распределения с параметром  > 0, если ее плотность вероятности имеет вид:

eЉx  x  0, ( x) =   x < 0. 0

154

(4.21)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Кривая распределения  ( x ) и график функции распределения

F (x) случайной величины Х приведены на рис. 4.4, а, б. Теорема. Функция распределения случайной величины X, распределенной по показательному (экспоненциальному) закону, есть

0 F ( x) =  Љx 1 Љ e

 x < 0,

ее математическое ожидание M(X) =

1 , 

(4.23)

D(X) =

1 . 2

(4.24)

а дисперсия

 При x < 0 функция распределения F(x) = 0. При x  a по формуле (3.23) x

x

0

0

F (x) =  eЉx dx = ЉeЉx = 1 Љ eЉx , т.е. формула (4.22) доказана. Найдем математическое ожидание случайной величины Х, используя при вычислении метод интегрирования по частям:

a = M (X) =  = lim

b 



b 0

+

Љ

x  ( x ) dx =

(

 (x)

 a)

0

x

0 F(x) 1 б)

)=

b

x eЉx dx = lim Љ  x deЉx b +

(4.22)

 x  0,

x

0 Рис. 4.4

b b 1    = lim  Љ xeЉx +  eЉx dx = lim  ЉbeЉb Љ eЉx  = 0 0 0 b +    b+   1 1 = 0  lim eЉb  1 = .  b+  b

(

)

Для нахождения дисперсии D(X) вначале найдем

( )

M X2 = 

(

+ Љ

x 2  ( x ) dx = lim

b +

)



b 0

x 2 eЉx dx =

b b b   = lim   x 2 deЉx = lim  Љ x 2 eЉx +  2 xeЉx dx  = 0 0 b + 0 b +  

155

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(

)

= lim Љb 2 eЉb + b +

b 2 2 1 2 lim  x  Љx dx = 0 +  = 2 , 0 b +    

c учетом того, что во втором слагаемом несобственный интеграл есть M(X) =

1 . Теперь 

( )

D ( X ) = M X 2  a2 =

2 1 1  2 = 2.  2   

Из доказанной теоремы следует, что для случайной величины, распределенной по показательному закону, математическое ожидание равно среднему квадратическому отклонению, т.е.

M ( X ) =  x = 1/. Показательный закон распределения играет большую роль в теории массового обслуживания и теории надежности. Так, например, интервал времени Т между двумя соседними событиями в простейшем потоке имеет показательное распределение с параметром  — интенсивностью потока (см. § 7.3). Показательный закон распределения (и только он в классе непрерывных случайных величин) обладает важным свойством, рассматриваемым ниже.  Пример 4.7. Доказать, что если промежуток времени Т, распределенный по показательному закону, уже длился некоторое время , то это никак не влияет на закон распределения оставшейся части Т1 =T –  промежутка, т.е. закон распределения T1 остается таким же, как и всего промежутка Т. Р е ш е н и е. Пусть функция распределения промежутка Т опреЉt деляется по формуле (4.22), т.е. F(t) = 1– e , а функция распределения оставшейся части Т1 = T –  при условии, что событие T >  произошло, есть условная вероятность события T1 < t относительно события T >  , т.е. F1 ( t ) = PT > (T1 < t ) . Так как условная вероятность любого события В относительно события А PA(B) = P(AB)/P(A), то, полагая A = (T >  ) , B = (T1 < t ) , получим

F1 ( t ) = PT > (T1 < t ) =

P (T >  )(T1 < t )  P (T >  )

.

(4.25)

Произведение событий (T >  ) и T1 = T –  < t равносильно со-

бытию  < T < t +  , вероятность которого

156

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

P (  < T < t + ) = F ( t + ) Љ F ( ) .

Так как P (T >  ) = 1 Љ P (T   ) = 1 Љ F (  ) , то выражение (4.25) можно представить в виде:

F1 ( t ) =

F ( t + ) Љ F ( ) 1 Љ F ( )

.

Учитывая формулу (4.22), получим

F1 ( t ) =

Љ ( t + )

eЉ  e eЉ

= 1  eЉt = F ( t ) . 

Доказанное в примере 4.7 свойство «отсутствия последействия» показательного распределения широко используется в марковских случайных процессах (см. гл. 7)1.  Пример 4.8. Установлено, что время ремонта телевизоров есть случайная величина X, распределенная по показательному закону. Определить вероятность того, что на ремонт телевизора потребуется не менее 20 дней, если среднее время ремонта телевизоров составляет 15 дней. Найти плотность вероятности, функцию распределения и среднее квадратическое отклонение случайной величины X. Р е ш е н и е. По условию математическое ожидание M ( X ) =

1 = 15, 

откуда параметр  = 1 15 и по формулам (4.21) и (4.22) плотность вероятности и функция распределения имеют вид: 1  x 1  151 x e ; F ( x ) = 1  e 15 ( x  0 ) . 15 Искомую вероятность P ( X  20 ) можно было найти по форму-

( x) =

ле (3.22), интегрируя плотность вероятности, т.е.

P ( X  20 ) = P ( 20  X < + ) =



1 Љ 151 x e dx, 15

+ 20

но проще это сделать, используя функцию распределения: 20

20

P ( X  20 ) = 1 – P(X < 20) = 1 – F(20) = 1 – (1 – e 15 ) = e 15 = 0,264. Осталось найти среднее квадратическое отклонение x = M (X ) = = 15 дней. 

1 В классе дискретных распределений тем же свойством обладает только геометрическое распределение.

157

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

4.7. Нормальный закон распределения Нормальный закон распределения наиболее часто встречается на практике. Главная особенность, выделяющая его среди других законов, состоит в том, что он является п р е д е л ь н ы м законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях (см. гл. 6). О п р е д е л е н и е. Непрерывная случайная величина Х имеет нормальный закон распределения (закон Гаусса) с параметрами а и 2 , если ее плотность вероятности имеет вид:

N ( x ) = (x)

 2

 2 e

а)

N (a ;  2 )

0 FN(x)

a a a+

x

a

x

1 б)

0,5 0

 2

e



( x  a )2 2 2

.

(4.26)

Термин «нормальный» не совсем удачный. Многие признаки подчиняются нормальному закону, например, рост человека, дальность полета снаряда и т.п. Но если какой-либо признак подчиняется другому, отличному от нормального, закону распределения, то это вовсе не говорит о «ненормальности» явления, связанного с этим признаком. Кривую нормального закона распределения называют нормальной, или гауссовой, кривой. На рис. 4.5, а, б приведены нормальная кривая  N ( x ) с параметрами а и 2 , т.е.

1

1

1

(

)

N a; 2 , и график функции рас-

Рис. 4.5

пределения случайной величины Х, имеющей нормальный закон. Обратим внимание на то, что нормальная кривая симметрична относительно прямой х = а, имеет максимум в точке х = а, равный

0,3989 , и две точки перегиба   2 1 0, 2420 x = a ±  с ординатой f  ( a ±  ) = .    2e

(

)

1  2 , т.е.

f max ( a ) =

1



Можно заметить, что в выражении плотности нормального закона 2 параметры обозначены буквами а и  , которыми мы обозначаем математическое ожидание М(Х) и дисперсию D(X). Такое совпадение неслучайно. Рассмотрим теорему, устанавливающую теоретиковероятностный смысл параметров нормального закона.

158

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Теорема. Математическое ожидание случайной величины X, распределенной по нормальному закону, равно параметру а этого закона, т.е. M(X) = a,

(4.27)

а ее дисперсия — параметру 2 , т.е. 2

D(X) =  .

(4.28)

 Математическое ожидание случайной величины Х:

M (X ) =



+ 

x  N ( x ) dx =



1

+ 

x

 2

e



( x  a )2 2 2

dx.

xa

Произведем замену переменной, положив t =

 2

.

Тогда x = a +  2 t и dx =  2 dt , пределы интегрирования не меняются и, следовательно,

M (X ) = =

 2





+ Љ



1

+ Љ



2

teЉ t dt +

(a +  2 t )e 2 

+

a

Љ

Љt 2

 2 dt = a

2

eЉ t dt = 0 +



  =a

(первый интеграл равен нулю как интеграл от нечетной функции по симметричному относительно начала координат промежутку, а второй интеграл



+ Љ

2

eЉ t dt =  — интеграл Эйлера—Пуассона).

Дисперсия случайной величины Х:

D(X ) =



+ 

( x Љ a)

2



 N ( x ) dx =

+ 

( x Љ a)

1

2

 2

e



( x  a )2 2 2

dx.

Сделаем ту же замену переменной x = a +  2 t , как и при вычислении предыдущего интеграла. Тогда

D (X ) =



+

1

Љ

 2

2 2 t 2

2

eЉ t  2 dt =

22 



+ Љ

2

t 2 eЉ t dt = Љ

2 



+ Љ

Применяя метод интегрирования по частям, получим

D( X ) = Љ

2 

teЉ t

2

+ Љ

+

2 



+ Љ

2

eЉ t dt = 0 +

159

2 

  = 2 . 

2

t deЉ t .

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Выясним, как будет меняться нормальная кривая при изменении параметров а и 2 (или ). Если  = const, и меняется параметр a (a1 < a2 < a3), т.е. центр симметрии распределения, то нормальная кривая будет смещаться вдоль оси абсцисс, не меняя формы (рис. 4.6).  = const

Рис. 4.6

1

a = const

2

1 < 2 < 3

3

Рис. 4.7

Если a = const и меняется параметр 2 (или  ), то меняется ордината максимума кривой fmax(a) =

1

 2

. При увеличении  орди-

ната максимума кривой уменьшается, но так как площадь под любой кривой распределения должна оставаться равной единице, то кривая становится более плоской, растягиваясь вдоль оси абсцисс; при уменьшении , напротив, нормальная кривая вытягивается вверх, одновременно сжимаясь с боков. На рис. 4.7 показаны нормальные кривые с параметрами 1 , 2 и 3 , где 1 < 2 < 3 . Таким образом, параметр а (он же математическое ожидание) характеризует п о л о ж е н и е ц е н т р а, а параметр 2 (он же дисперсия) — ф о р м у нормальной кривой. Нормальный закон распределения случайной величины X с параметрами a = 0, 2 = 1, т.е. X  N(0;1), называется стандартным или нормированным, а соответствующая нормальная кривая — стандартной или нормированной.

160

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Сложность непосредственного нахождения функции распределения случайной величины, распределенной по нормальному закону, по формуле (3.23) и вероятности ее попадания на некоторый промежуток по формуле (3.22) связана с тем, что интеграл от функции (4.26) является «неберущимся» в элементарных функциях. Поэтому их выражают через функцию

 ( x) =

2

 2

x 0

2

e t / 2 dt =

1

 2

x x

2

e t / 2 dt

(4.29)

— функцию (интеграл вероятностей) Лапласа, для которой составлены таблицы. Напомним, что функция Лапласа уже встречалась нам при рассмотрении интегральной теоремы Муавра—Лапласа (см. § 2.3). Там же были рассмотрены ее свойства. Геометрически функция Лапласа ( x) представляет собой площадь под стандартной нормальной кривой на отрезке [–x; x] (рис. 4.8)1.

1

 x Љ a  2   

1 2



( x )

x

x

Рис. 4.8

Рис. 4.9

Теорема. Функция распределения случайной величины X, распределенной по нормальному закону, выражается через функцию Лапласа ( x) по формуле:

FN ( x ) =

1 1  xa +  . 2 2   

(4.30)

1

         (4.29),        ( x) ,                

   : 1

 2

x 0

e

t 2 / 2

dt =

1 2

 ( x ),

1

 2

x 

e

t 2 / 2

dt =

1 2

+

1 2

( x ),

2

 

x 0

e

t 2

dt = ( x 2),

                  

   [0; x], (…; x], [  x 2; x 2 ] .

161

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 По формуле (3.23) функция распределения:



FN ( x ) =

x

 N ( x ) dx =





1

x

 2



e





FN ( x ) =

Первый интеграл



0 Љ

2

eЉ t / 2 dt =

1 2



+ Љ

 2



2

1



2

0

e

 t 2/ 2

dt = 1

2



et / 2 dt +

eЉ t / 2 dt =

1 2 2



Љ

e

2 0

Љ t/ 2

)

(



xa   t 2/ 2 

e

xa   t 2/ 2



2 +

1

2

dx .

(4.31)

xa , x = a + t , 

t  Љ , поэтому xa 

1

=

2 2

t=

Сделаем замену переменной, полагая dx = dt; при x  Љ

( x  a )2

e

dt =

dt .

 t  2 d  = = 2  2

 2

(в силу четности подынтегральной функции и того, что интеграл Эйлера—Пуассона равен

 ).

Второй интеграл c учетом формулы (4.29) составляет Итак, FN ( x ) =

1 2



1  xa .  2   

 1  xЉa 1 1  xЉa +  = +  .  2 2   2 2  

Геометрически функция распределения представляет собой площадь под нормальной кривой на интервале ( Љ, x ) (см.

рис. 4.9). Как видим, она состоит из двух частей: первой, на интервале ( Љ, a ) , равной 1/2, т.е. половине всей площади под нормальной кривой, и второй, на интервале (а, х), равной

1  xa  . 2   

Рассмотрим с в о й с т в а случайной величины, распределенной по нормальному закону. 1. Вероятность попадания случайной величины X, распределенной по нормальному закону, в интервал [х1, х2], равна

P ( x1  X  x2 ) = где

t1 =

x1  a , 

1  ( t2 ) Љ  ( t1 )  , 2 x a . t2 = 2 

162

(4.32) (4.33)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»



Учитывая, что согласно свойству (3.20) вероятность P ( x1  X  x2 ) есть приращение функции распределения на отрезке

[x1, x2], и формулу (4.30), получим

P ( x1  X  x2 ) = F ( x2 ) Љ F ( x1 ) =

 1 1  x Љ a    1 1  x1 Љ a   1 =  +  2

 Љ  + 

 =   ( t2 ) Љ  ( t1 )  , 2 2   2 2   2

где t1 и t2 определяются по формуле (4.33) (рис. 4.10).  2. Вероятность того, что отклонение случайной величины X, распределенной по нормальному закону, от математического ожидания а не превысит величину  > 0 (по абсолютной величине), равна

P ( X Љ a   ) =  (t ) ,

где

(4.34)

 . (4.35)   P ( X  a   ) = P ( a    X  a +  ) . Учитывая равенства (4.32) t=

и (4.33), а также свойство нечетности функции Лапласа, получим

P ( X Љ a  ) =

 ( a Љ  ) Љ a  1   (a + ) Љ a   Љ  =

2      

1     1         Љ  Љ =  +   =  =  ( t ) , 

2 

 2

       где t =  /  (рис. 4.11).  =

На рис. 4.10 и 4.11 приведена геометрическая интерпретация свойств нормального закона1.

( )

1 x a  1 2 

1 2



( ) x2  a 

  

 

N(a

2)

P( X  a  )



0 Рис. 4.10

a a



a+

x

Рис. 4.11

1 Стрелками на рис. 4.10—4.12 отмечены условно п л о щ а д и соответствующих фигур под нормальной кривой.

163

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

З а м е ч а н и е. Рассмотренная в гл. 2 приближенная интегральная формула Муавра—Лапласа (2.10) следует из свойства (4.32) нормально распределенной случайной величины при х1 = а, х2 = b, a = np и  x =

npq , так как биномиальный закон распределения слу-

чайной величины X = m с параметрами n и p, для которого получена эта формула, при n   стремится к нормальному закону (cм. гл. 6). Аналогично и следствия (2.13), (2.14) и (2.16) интегральной формулы Муавра—Лапласа для числа Х = m появления события в n независимых испытаниях и его частости m/n вытекают из свойств (4.32) и (4.34) нормального закона.

(

Вычислим по формуле (4.34) вероятности P X  a  

)

при раз-

личных значениях  (используем табл. II приложений). Получим при  = 

P ( X Љ a   ) =  (1) = 0,6827;

при  = 2

P ( X Љ a  2 ) =  ( 2 ) = 0,9545;

при  = 3

P ( X Љ a  3 ) =  ( 3) = 0,9973

(рис. 4.12). Отсюда вытекает «правило трех сигм». Если случайная величина Х имеет нормальный закон распределения с

(

)

параметрами a и 2 , т.е. N a; 2 , то практически достоверно, что ее значения заключены в интервале ( a Љ 3, a + 3 ) . P( X  173  3)

(

P 176  X  182

)

Рис. 4.13

Рис. 4.12

Нарушение «правила трех сигм», т.е. отклонение нормально распределенной случайной величины X больше, чем на 3 (по абсолютной величине), является событием практически невозможным, так как его вероятность весьма мала:

P ( X Љ a > 3 ) = 1 Љ P ( X Љ a  3 ) = 1 Љ 0,9973 = 0, 0027.

164

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(

)

Заметим, что отклонение   , при котором P X  a    = называется

1 , 2

вероятным отклонением. Для нормального закона    0, 675 , т.е. на интервал (a Љ 0, 675, a + 0, 675) приходится половина всей площади под нормальной кривой. Найдем коэффициент асимметрии и эксцесс случайной величины X, распределенной по нормальному закону. Очевидно, в силу симметрии нормальной кривой относительно вертикальной прямой х = а, проходящей через центр распределения a = M (X ), коэффициент асимметрии нормального распределения А = 0. Эксцесс нормально распределенной случайной величины Х найдем по формуле (3.37), т.е.

E=

µ4 3 4 Љ 3 = Љ 3 = 0, 4 4

где учли, что центральный момент 4-го порядка, найденный по формуле (3.30) с учетом определения (4.26), т.е.

µ4 =



+ 

( x Љ a)

1

4

 2

e



( x  a )2 2 2

dx = 34

(вычисление интеграла опускаем). Таким образом, эксцесс нормального распределения равен нулю, и крутость других распределений определяется по отношению к нормальному (об этом мы уже упоминали в § 3.7).  Пример 4.9. Полагая, что рост мужчин определенной возрастной группы есть нормально распределенная случайная величинах Х 2 с параметрами а = 173 и  = 36: 1) Найти: а) выражение плотности вероятности и функции распределения случайной величины X; б) доли костюмов 4-го роста (176— 182 см) и 3-го роста (170—176 см), которые нужно предусмотреть в общем объеме производства для данной возрастной группы; в) квантиль х0,7 и 10%-ную точку случайной величины X. 2) Сформулировать «правило трех сигм» для случайной величины X. Р е ш е н и е. 1, а) По формулам (4.26) и (4.30) запишем

N ( x ) =

FN ( x ) =

1 6

2 

x

e





1 6 2

( x 173)2 236

e



( x 173)2

dx =

165

236

;

1 1  x  173  . +  2 2  6 

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1, б) Доля костюмов 4-го роста (176—182 см) в общем объеме производства определится по формуле (4.32) как вероятность1

1 1  ( t2 ) Љ  ( t1 )  =  (1,50 ) Љ  ( 0,50 )  = 2 2 1 = ( 0,8664  0,3829 ) = 0, 2418 2

P (176  X  182 ) =

(рис. 4.13), так как по формулам (4.33)

t1 =

176  173 = 0,50, 6

t2 =

182  173 = 1,50. 6

Долю костюмов 3-го роста (170—176 см) можно было определить аналогично по формуле (4.32), но проще это сделать по формуле (4.34), если учесть, что данный интервал симметричен относительно математического ожидания а = М(Х) = 173, т.е. неравенство 170  X  176 равносильно неравенству X  173  3:

3 P (170  X  176 ) = P ( X Љ 173  3) =    =  ( 0,50 ) = 0,3829 6

(рис. 4.13). 1, в) Квантиль x0,7 (см. § 3.7) случайной величины Х найдем из уравнения (3.29) с учетом формулы (4.30):

F ( x0,7 ) = откуда

1 1  x0,7  173  +   = 0,7 , 2 2  6 

 x  173    0,7  =  ( t ) = 0, 4 . 6  

По табл. II приложений находим t = 0,524 и

x0,7 = 6t + 173 = 6Ѓ0,524 + 173  176 (см). Это означает, что 70% мужчин данной возрастной группы имеют рост до 176 см. 10%-ная точка — это квантиль х0,9 = 181 см (находится аналогично), т.е. 10% мужчин имеют рост не менее 181 см. 2) Практически достоверно, что рост мужчин данной возрастной группы заключен в границах от a Љ 3 = 173 Љ 3  6 = 155 до a + 3 = 173 + 3  6 = 191 (см), т.е. 155  X  191 (см).  В силу особенностей нормального закона распределения, отмеченных в начале параграфа (и в гл. 6), он занимает центральное место в теории и практике вероятностно-статистических методов. Большое теоретическое значение нормального закона состоит в том, что с его помощью получен ряд важных распределений, рассматриваемых ниже. 1

Значения функции Лапласа  ( х ) определяем по табл. II приложений.

166

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

4.8. Логарифмически-нормальное распределение О п р е д е л е н и е. Непрерывная случайная величина Х имеет логарифмически-нормальное (сокращенно логнормальное распределение), если ее логарифм подчинен нормальному закону. Так как при х > 0 неравенства X < x и ln X < ln x равносильны, то функция распределения логнормального распределения совпадает с функцией нормального распределения для случайной величины ln X, т.е. в соответствии с формулой (4.31)

F ( x ) = P ( X < x ) = P ( ln X < ln x ) =

1 

 2

ln x  

( t  lna )2

e

2 2

dt.

(4.36)

Дифференцируя (4.36) по х, получим выражение плотности вероятности для логнормального распределения

( x) =

1  2 x

e



( ln x  ln a )2 2 2

(4.37)

(рис. 4.14). Можно доказать, что числовые характеристики случайной величины Х, распределенной по логнормальному закону (4.37), имеют вид: ма2

2  тематическое ожидание М(Х) = ae / 2 , дисперсия D(X) = a e

2

(e

2

)

1 ,

Љ2

мода Mo( X ) = ae , медиана Me(X) = a. Очевидно, чем меньше , тем ближе друг к другу значения моды, медианы и математического ожидания, а кривая распределения — ближе к симметрии. Если в нормальном законе параметр а выступает в качестве с р е д н е г о значения случайной величины, то в логнормальном (4.37) — в качестве м е д и а н ы. Рис. 4.14 Логнормальное распределение используется для описания распределения доходов, банковских вкладов, цен активов, месячной заработной платы, посевных площадей под разные культуры, долговечности изделий в режиме износа и старения и др.  Пример 4.10. Проведенное исследование показало, что вклады населения в данном банке могут быть описаны случайной величиной X, распределенной по логнормальному закону (4.37) с парамет2 рами а = 530,  = 0,64.

167

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Найти: а) средний размер вклада; б) долю вкладчиков, размер вклада которых составляет не менее 1000 ден. ед.; в) моду и медиану случайной величины Х и пояснить их смысл. Р е ш е н и е. а) Найдем средний размер вклада, т.е.

M ( X ) = ae / 2 = 530e0,64/ 2 = 730 (ден. ед.). 2

б) Доля вкладчиков, размер вклада которых составляет не менее 1000 ден. ед., есть

P( X  1000) = 1 Љ P ( X < 1000 ) = 1 Љ F (1000 ) . При определении F(1000) воспользуемся тем, что функция логнормального распределения случайной величины Х совпадает с функцией нормального распределения случайной величины ln X, т.е. с учетом равенства (4.30) имеем:

F ( x) = F (1000 ) =

1 1  ln x  ln a  +   и 2 2  

1 1  ln 1000 Љ ln 530  1 1 +   = +  ( 0,79 ) = 2 2  0, 64  2 2

1 1 +  0,5705 = 0,785. 2 2 Теперь P ( X  1000) = 1 Љ 0, 785 = 0, 215 (рис. 4.15). =

Рис. 4.15

в) Вычислим моду случайной величины Х: 2

Mo( X ) = aeЉ = 530eЉ0,64  280 ,

т.е. наиболее часто встречающийся банковский вклад равен 280 ден. ед. (точнее, наиболее часто встречающийся элементарный интервал с центром 280 ден. ед., т.е. интервал ( 280  , 280 +  ) ден. ед.).

Если исходить из вероятностного смысла параметра а логнормального распределения, то медиана Me(X) = a = 530, т.е. половина вкладчиков имеют вклады до 530 ден. ед., а другая половина — сверх 530 ден. ед. 

168

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Наряду с рассмотренными в приложениях теории вероятностей в экономике применяются распределения Вейбулла, Эрланга, Лапласа, Парето, логистическое, альфа, бета и др. С ними можно ознакомиться, например, в [1], [25], [32].

4.9. Распределение некоторых случайных величин, представляющих функции нормальных величин Ниже рассматриваются несколько основных законов, составляющих необходимый аппарат для построения в дальнейшем статистических критериев и оценок, применяемых в математической статистике. 2-распределение. О п р е д е л е н и е . Распределением  2 (хи-квадрат) с k степенями свободы называется распределение суммы квадратов k независимых случайных величин, распределенных по стандартному нормальному закону, т.е. k

 2 =  Z i2 ,

(4.38)

i =1

где Zi (i = 1, 2, …, k) имеет нормальное распределение N(0;1). Плотность вероятности 2-распределения имеет вид:

где  ( y ) =



+ 0

k x 1   1 2 2 x e  k  k ( x) = 22 

2  0

 x  0, (4.38)

 x < 0,

eЉ t t y Љ1dt — гамма-функция Эйлера (для целых поло-

жительных значений  ( y ) = ( y Љ 1)!) .

Рис. 4.16

169

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Кривые 2-распределения для различных значений числа степеней свободы k приведены на рис. 4.16. Они показывают, что 2-распределение асимметрично, обладает положительной (правосторонней) асимметрией. При k > 30 распределение случайной величины Z =

2 2 Љ 2k Љ 1

близко к стандартному нормальному закону, т.е. N(0;1). Распределение Стьюдента1. О п р е д е л е н и е. Распределением Стьюдента (или пределением) называется распределение случайной величины

t=

Z 1 2  k

,

t-рас(4.39)

где Z — случайная величина, распределенная по стандартному нормальному закону, т.е. N(0;1);  2 — независимая от Z случайная величина, имеющая 2-распределение с k степенями свободы. Плотность вероятности распределения Стьюдента имеет вид:

 k +1  2  ( x) =  k    k 2

 x2  1 +  n  

0,4

Нормальная кривая N(0;1)

0,2 Кривая t-распределения

–2

–1

0

1

2

3

Рис. 4.17

1

k +1 2

где

(x)

–3



x

,

( y)

гамма-

функция Эйлера в точке y. На рис. 4.17 показана кривая распределения Стьюдента. Как и стандартная нормальная кривая, кривая t-распределения симметрична относительно оси ординат, но по сравнению с нормальной более пологая (ее эксцесс Е < 0). При k   t-распре-

Стьюдент — псевдоним английского статистика В. Госсета.

170



Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

деление приближается к нормальному. Практически уже при k > 30 можно считать t-распределение приближенно нормальным. Математическое ожидание случайной величины, имеющей t-распределение, в силу симметрии ее кривой распределения равно нулю, а ее дисперсия (как можно доказать) равна k/(k – 2), т.е. M(t) = 0,

D(t) =

k . k 2

Распределение Фишера—Снедекора. О п р е д е л е н и е. Распределением Фишера—Снедекора (или F-распределением) называется распределение случайной величины

1 2  ( k1 ) k , F= 1 1 2  ( k2 ) k2

(4.40)

2 2 где  ( k1 ) и  ( k2 ) — случайные величины, имеющие 2-распределение

соответственно с k1 и k2 степенями свободы. Плотность вероятности F-распределения имеет вид: k1

k2

k +k  2 2   1 2  k1 k2 k1 k +k 1  1 2 2  ( x) =  x 2 ( k1 x + k2 ) 2 , k  k   1  2  2  2 где  ( y ) — гамма-функ-

ция Эйлера в точке y. На рис. 4.18 показаны кривые F-распределения при некоторых значениях числа степеней свободы k1 и k2. При n   F-распределение приближается к нормальному закону.

Рис. 4.18

171

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Упражнения 4.11. Вероятность выигрыша по облигации займа за все время его действия равна 0,1. Составить закон распределения числа выигравших облигаций среди приобретенных 19. Найти математическое ожидание, дисперсию, среднее квадратическое отклонение и моду этой случайной величины. 4.12. По данным примера 4.11 найти математическое ожидание, дисперсию и среднее квадратическое отклонение доли (частости) выигравших облигаций среди приобретенных. 4.13. Составить функцию распределения случайной величины, имеющей биномиальный закон распределения с параметрами n и p. 4.14. Устройство состоит из 1000 элементов, работающих независимо один от другого. Вероятность отказа любого элемента в течение времени t равна 0,002. Необходимо: а) составить закон распределения отказавших за время t элементов; б) найти математическое ожидание и дисперсию этой случайной величины; в) определить вероятность того, что за время t откажет хотя бы один элемент. 4.15. Вероятность поражения цели равна 0,05. Производится стрельба по цели до первого попадания. Необходимо: а) составить закон распределения числа сделанных выстрелов; б) найти математическое ожидание и дисперсию этой случайной величины; в) определить вероятность того, что для поражения цели потребуется не менее 5 выстрелов. 4.15a. Решить пример 4.15 (п. а, б) при условии, что производится стрельба по цели до трех попаданий. 4.16. В магазине имеются 20 телевизоров, из них 7 имеют дефекты. Необходимо: а) составить закон распределения числа телевизоров с дефектами среди выбранных наудачу пяти; б) найти математическое ожидание и дисперсию этой случайной величины; в) определить вероятность того, что среди выбранных нет телевизоров с дефектами. 4.17. Цена деления шкалы измерительного прибора равна 0,2. Показания прибора округляют до ближайшего целого числа. Полагая, что при отсчете ошибка округления распределена по равномерному закону, найти: 1) математическое ожидание, дисперсию и среднее квадратическое отклонение этой случайной величины; 2) вероятность того, что ошибка округления: а) меньше 0,04; б) больше 0,05. 4.18. Среднее время безотказной работы прибора равно 80 ч. Полагая, что время безотказной работы прибора имеет показательный закон распределения, найти: а) выражение его плотности вероятности и функции распределения; б) вероятность того, что в течение 100 ч прибор не выйдет из строя. 4.19. Текущая цена акции может быть смоделирована с помощью нормального закона распределения с математическим ожида-

172

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

нием 15 ден. ед. и средним квадратическим отклонением 0,2 ден. ед. Необходимо: 1) найти вероятность того, что цена акции: а) не выше 15,3 ден. ед.; б) не ниже 15,4 ден. ед.; в) от 14,9 до 15,3 ден. ед.; 2) с помощью правила трех сигм найти границы, в которых будет находиться текущая цена акции. 4.20. Цена некой ценной бумаги нормально распределена. В течение последнего года 20% рабочих дней она была ниже 88 ден. ед., а 75% — выше 90 ден. ед. Найти: а) математическое ожидание и среднее квадратическое отклонение цены ценной бумаги; б) вероятность того, что в день покупки цена будет заключена в пределах от 83 до 96 ден. ед.; в) с надежностью 0,95 определить максимальное отклонение цены ценной бумаги от среднего (прогнозного) значения (по абсолютной величине). 4.21. Коробки с конфетами упаковываются автоматически. Их средняя масса равна 540 г. Известно, что масса коробок с конфетами имеет нормальное распределение, а 5% коробок имеют массу, меньшую 500 г. Каков процент коробок, масса которых: а) менее 470 г; б) от 500 до 550 г; в) более 550 г; г) отличается от средней не более чем на 30 г (по абсолютной величине)? 4.22. Случайная величина Х имеет нормальное распределение с математическим ожиданием а = 25. Вероятность попадания Х в интервал (10; 15) равна 0,09. Чему равна вероятность попадания Х в интервал: а) (35; 40); б) (30; 35)? 4.23. Нормально распределенная случайная величина имеет следующую функцию распределения: F(x)= 0,5 + 0,5  ( x Љ 1) . Из какого интервала (1; 2) или (2; 6) она примет значение с большей вероятностью? 4.24. Квантиль уровня 0,15 нормально распределенной случайной величины Х равен 12, а квантиль уровня 0,6 равен 16. Найти математическое ожидание и среднее квадратическое отклонение случайной величины. 4.25. 20%-ная точка нормально распределенной случайной величины равна 50, а 40%-ная точка равна 35. Найти вероятность того, что случайная величина примет значение в интервале (25; 45). 4.26. Месячный доход семей можно рассматривать как случайную величину, распределенную по логнормальному закону. Полагая, что математическое ожидание этой случайной величины равно 1000 ден. ед., а среднее квадратическое отклонение 800 ден. ед., найти долю семей, имеющих доход: а) не менее 1000 ден. ед.; б) менее 500 ден. ед. 4.27. Известно, что нормально распределенная случайная величина принимает значение: а) меньшее 248 с вероятностью 0,975; б) большее 279 с вероятностью 0,005. Найти функцию распределения случайной величины X.

173

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

4.28. Случайная величина X распределена по нормальному закону с нулевым математическим ожиданием. Вероятность попадания этой случайной величины на отрезок от –1 до +1 равна 0,5. Найти выражения плотности вероятности и функции распределения случайной величины X. 4.29. Имеется случайная величина X, распределенная по нормальному закону с математическим ожиданием a и дисперсией 2. Требуется приближенно заменить нормальный закон распределения равномерным законом в интервале (; ); границы ,  подобрать так, чтобы сохранить неизменными математическое ожидание и дисперсию случайной величины X. 4.30. Случайная величина X распределена по нормальному закону с математическим ожиданием a = 0. При каком значении среднего квадратического отклонения  вероятность попадания случайной величины X в интервал (1; 2) достигает максимума? 4.31. Время ремонта телевизора распределено по показательному закону с математическим ожиданием, равным 0,5 ч. Клиент сдает в ремонт два телевизора, которые одновременно начинают ремонтировать, и ждет, когда будет отремонтирован один из них. После этого с готовым телевизором он уходит. Найти закон распределения времени: а) потраченного клиентом; б) которое должен потратить клиент, если он хочет забрать сразу два телевизора.

174

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

5

Многомерные случайные величины

5.1. Понятие многомерной случайной величины и закон ее распределения Очень часто результат испытания характеризуется не одной случайной величиной, а некоторой системой случайных величин X1, X2, …, Xn, которую называют также многомерной (n-мерной) случайной величиной или случайным вектором X = (X1, X2, …, Xn). Приведем примеры многомерных случайных величин. 1. Успеваемость выпускника вуза характеризуется системой n случайных величин X1, X2, …, Xn — оценками по различным дисциплинам, проставленными в приложении к диплому. 2. Погода в данном месте в определенное время суток может быть охарактеризована системой случайных величин: Х1 — температура; Х2 — влажность; Х3 — давление; Х4 — скорость ветра и т.п. 3. Биржевые торги характеризуются системой двух случайных величин: X 1 – валютный курс, X 2 – объем продаж. В теоретико-множественной трактовке любая случайная величина Xi (i = 1, 2, …, n) есть функция элементарных событий , входящих в

пространство элементарных событий  (    ) . Поэтому и многомерная случайная величина есть функция элементарных событий :

( X1 , X 2 ,

..., X n ) = f (  ) ,

т.е. каждому элементарному событию  ставится в соответствие несколько действительных чисел x1, x2, …, xn, которые приняли случайные величины Х1, Х2, …, Xn в результате испытания. В этом случае вектор x = (x1, x2, …, xn) называется реализацией случайного вектора X = (X1, X2, …, Xn). Случайные величины X1, X2, …, Xn, входящие в систему, могут быть как дискретными (см. выше примеры 1, 3), так и непрерывными (пример 2).  Пример 5.1. Подбрасывают одновременно две игральные кости; случайная величина Х — сумма очков, полученных в результате испытания; случайная величина Y — их произведение. Показать, что двумерная случайная величина (X, Y) есть функция элементарных исходов (событий)  .

175

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Р е ш е н и е. Множество элементарных исходов (пространство элементарных событий) состоит из 36 элементарных исходов, т.е.

 = {1 , 2 , ..., 36 } =

= {1/1, 1/2, …, 1/6, 2/1, 2/2, …, 2/6, …, 6/1, 6/2, …, 6/6}, где элементарный исход, например 9 = 2/3, означает выпадение при подбрасывании первой игральной кости 2 очков и второй кости — 3 очков. Если результатом испытания является какой-нибудь элементарный исход (событие) i , то случайные величины X и Y получат определенные значения; например, при 9 = 2/3 X = 5, Y = 6. Совокупность этих значений (X, Y) представляет, таким образом, функцию элементарных исходов (событий) .  Геометрически двумерную (X, Y) и трехмерную (X, Y, Z) случайные величины можно изобразить случайной точкой или случайным вектором плоскости Oxy или трехмерного пространства Oxyz; при этом случайные величины X, Y или X, Y, Z являются составляющими этих векторов. В случае n-мерного пространства (n > 3) также говорят о случайной точке или случайном векторе этого пространства, хотя геометрическая интерпретация в этом случае теряет свою наглядность. Наиболее полным, исчерпывающим описанием многомерной случайной величины является закон ее распределения. При конечном множестве возможных значений многомерной случайной величины такой закон может быть задан в форме таблицы (матрицы), содержащей всевозможные сочетания значений каждой из одномерных случайных величин, входящих в систему, и соответствующие им вероятности. Так, если рассматривается двумерная дискретная случайная величина (X, Y), то ее двумерное распределение можно представить в виде таблицы (матрицы) распределения (табл. 5.1), в каждой клетке (i, j) которой располагаются вероятности произведения событий pij = P [(X = xi)(Y = yj)]. Таблица 5.1 yj хi

m



у1



уj



уm

x1

p11



p1j



p1m

p1.













… pi.

j =1

xi

pi1



pij



pim















xn

pn1



pnj



pnm

pn.

p.1



p.j



p.m

1

m

 i=1

176

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Так как события [(X = xi)(Y = yj)] (i = 1, 2, …, n; j = 1, 2, …, m), состоящие в том, что случайная величина X примет значение xi, а случайная величина Y — значение yj, несовместны и единственно возможны, т.е. образуют полную группу, то сумма их вероятностей равна единице, т.е. n

m

 p i =1 j =1

ij

= 1.

Итоговые столбец или строка таблицы распределения (X, Y) представляют соответственно распределения одномерных составляющих (xi, pi) или (yj, pj). Действительно, распределение одномерной случайной величины Х можно получить, вычислив вероятность события X = xi (i = 1, 2, …, n) как сумму вероятностей несовместных событий:

pi = P( X = xi ) = = P[( X = xi )(Y = y1 ) + ... + ( X = xi )(Y = y j ) + ... + ( X = xi )(Y = ym )] = m

= pi1 + ... + pij + .... + pim =  pij . j =1

Аналогично p j =

n

p i =1

ij

.

Таким образом, чтобы по таблице распределения (табл. 5.1) найти вероятность того, что одномерная случайная величина примет определенное значение, надо просуммировать вероятности p ij из соответствующей этому значению строки (столбца) данной таблицы. Если зафиксировать значение одного из аргументов, например, положить Y = yj, то полученное распределение случайной величины Х называется условным распределением Х при условии Y = yj. Вероятности pj (xi) этого распределения будут условными вероятностями события X = xi, найденными в предположении, что событие Y = yj произошло. Из определения условной вероятности1 (1.34)

p j ( xi ) =

P ( X = xi ) (Y = y j )  pij . = P (Y = y j ) pi j

(5.1)

Аналогично условное распределение случайной величины Y при условии X = xi задается с помощью условных вероятностей 1

Для условных вероятностей используются также обозначения P(xi | yj), P(yj | xi).

177

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

pi ( y j ) =

P ( X = xi ) (Y = y j )  pij = . P ( X = xi ) pi i

(5.2)

 Пример 5.2. Закон распределения дискретной двумерной случайной величины (X, Y) задан в табл. 5.2. Таблица 5.2 yj

–1

0

1

2

1

0,10

0,25

0,30

0,15

2

0,10

0,05

0,00

0,05

xi

Найти: а) законы распределения одномерных случайных величин Х и Y; б) условные законы распределения случайной величины Х при условии Y = 2 и случайной величины Y при условии Х = 1; в) вычислить P (Y < X). Р е ш е н и е. а) Случайная величина Х может принимать значения: Х = 1 с вероятностью p1 = 0,10 + 0,25 + 0,30 + 0,15 = 0,8; Х = 2 с вероятностью р2 = 0,10 + 0,05 + 0,00 + 0,05 = 0,2, т.е. ее закон распределения X:

xi

1

2

pi i

0,8

0,2

Аналогично закон распределения Y:

уj

–1

0

1

2

p.j

0,2

0,3

0,3

0,2

б) Условный закон распределения Х при условии, что Y = 2, получим, если вероятности pij, стоящие в последнем столбце табл. 5.2, разделим на их сумму, т.е. на p(Y = 2) = 0,2. Получим XY=2:

xi

1

2

pj(xi)

0,75

0,25

Аналогично для получения условного закона распределения Y при условии Х = 1 вероятности pij, стоящие в первой строке табл. 5.2, делим на их сумму, т.е. на p (X = 1) = 0,8. Получим

178

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

уj

–1

0

1

2

pi (уj)

0,125

0,3125

0,375

0,1875

YX=1:

в) Для нахождения вероятностей P(Y < X) складываем вероятности событий Рij из табл. 5.2, для которых yj < xi. Получим P (Y < X) = 0,10 + 0,25 + 0,10 + 0,05 + 0,00 = 0,5.  Закон распределения многомерной случайной величины может быть задан и аналитически. Так, дискретная случайная величина X = ( X 1 , X 2 , ..., X n ) имеет полиномиальный (мультиномиальный) закон распределения, если ее составляющие принимают неотрицательные xi = 0, 1, 2, ..., n P( X 1 = m1 , ..., значения с вероятностями k

X k = mk ), определяемыми по формуле (2.18) (см. гл. 2), где  mi = n, i =1

0 < pi < 1,

k

p i =1

i

= 1.

5.2. ункция распределения многомерной случайной величины О п р е д е л е н и е. Функцией распределения n-мерной случайной величины (X1, X2, …, Xn) называется функция F ( x1 , x2 , ..., xn )

выражающая вероятность совместного выполнения n неравенств1 X1 < x1, X2 < x2, …, Xn < xn, т.е.

F ( x1 , x2 , ..., xn ) = P ( X 1 < x1 , X 2 < x2 ,..., X n < xn ) .

(5.3)

В двумерном случае2 для случайной величины (X, Y) функция распределения F(x, y) определится равенством:

F ( x, y ) = P ( X < x, Y < y ) .

(5.4)

Геометрически функция распределения F(x, y) означает вероятность попадания случайной точки (X, Y) в заштрихованную область — 1

Функцию F(x1, x2, ..., xn) называют также совместной функцией распределения случайных величин X1, X2, ..., Xn. 2 В основном будем вести изложение для двумерной (n = 2) случайной величины; при этом практически все понятия и утверждения, сформулированные для n = 2, могут быть перенесены и на случай n > 2. Однако рассмотрение двумерной случайной величины позволяет сделать изложение наглядным и менее громоздким.

179

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

y

M(x, y)

Ѓ

x

0

бесконечный квадрант, лежащий левее и ниже точки М(х, у) (рис. 5.1). Правая и верхняя границы области в квадрант не включаются — это означает, что функция распределения непрерывна с л е в а по каждому из аргументов. В случае дискретной двумерной случайной величины ее функция распределения определяется по формуле:

Рис. 5.1

F ( x, y ) =  pij , i

(5.5)

j

где суммирование вероятностей распространяется на все i, для которых хi < x, и все j, для которых yj < y. Отметим с в о й с т в а функции распределения двумерной случайной величины, аналогичные свойствам функции распределения одномерной случайной величины. 1. Функция распределения F(x, y) есть неотрицательная функция, заключенная между нулем и единицей, т.е.

0  F ( x, y )  1.

(5.6)

 Утверждение следует из того, что F(x, y) есть вероятность.  2. Функция распределения F(x, y) есть неубывающая функция по каждому из аргументов, т.е. при x2 > x1 при y2 > y1

F(x2, y)  F ( x1 , y ) ,

F(x, y2)  F ( x, y1 ) .

(5.7)

 Так как при увеличении какого-либо аргумента заштрихованная область на рис. 5.1 увеличивается, то вероятность попадания в него случайной точки (X, Y), т.е. функция распределения F(x, y), уменьшиться не может.  3. Если хотя бы один из аргументов обращается в –, функция распределения F(x, y) равна нулю, т.е.

F ( x, Љ  ) = F ( Љ, y ) = F ( Љ, Љ  ) = 0 .

(5.8)

 Функция распределения F(x, y) в отмеченных случаях равна нулю, так как события X < Љ , Y < Љ  и их произведение представляют невозможные события. 

180

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

4. Если один из аргументов обращается в + , функция распределения F(x, y) становится равной функции распределения случайной величины, соответствующей другому аргументу:

F ( x, +  ) = F1 ( x ) ,

F ( +, y ) = F2 ( y ) ,

(5.9)

где F1(x) и F2(y) — функции распределения случайных величин Х и Y, т.е.

F1 ( x ) = P ( X < x ) ,

F2 ( y ) = P (Y < y ) .

 Произведение события (X < x) и достоверного события (Y < +  ) есть само событие (X < x), следовательно,

F ( x, +  ) = P ( X < x ) = F1 ( x ) .

Аналогично можно показать, что F ( + , y ) = F2 ( y ) . 

5. Если оба аргумента равны +  , то функция распределения равна единице:

F ( +, +  ) = 1.

 F ( +, +  ) = 1 следует из того, что совместное осуществление

достоверных событий ( X < +  ) , (Y < +  ) есть событие достоверное. 

Геометрически функция распределения есть некоторая п о в е р х н о с т ь, обладающая указанными свойствами. Для дискретной случайной двумерной величины (X, Y) ее функция распределения представляет собой некоторую с т у п е н ч а т у ю поверхность, ступени которой соответствуют скачкам функции Рис. 5.2 F(x, y). Зная функцию распределения F(x, y), можно найти вероятность попадания случайной точки (X, Y) в пределы прямоугольника АВСD (рис. 5.2), т.е. P ( x1  X < x2 )( y1  Y < y2 )  . Так как эта вероятность равна вероятности попадания в бесконечный квадрант с вершиной B(x2, y2) минус вероятности попадания в квадранты с вершинами соответственно в точках А ( x1 , y2 ) и С ( x2 , y1 ) плюс вероятность попадания в квадрант с вершиной в точке D ( x1 , y1 ) (ибо эта вероят-

ность вычиталась дважды), то

181

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

P ( x1  X < x2 )( y1  Y < y2 )  = = F ( x2 , y2 ) Љ F ( x1 , y2 ) Љ F ( x2 , y1 ) + F ( x1 , y1 ) .

(5.10)

5.3. Плотность вероятности двумерной случайной величины О п р е д е л е н и е. Двумерная случайная величина (X, Y) называется непрерывной, если ее функция распределения F(x, y) — непрерывная функция, дифференцируемая по каждому из аргументов, и существует вторая смешанная производная Fxy ( x, y ) . Аналогично одномерному случаю вероятность пары отдельно взятых значений двумерной непрерывной случайной величины равна нулю, т.е. P(X = x1, Y = y1) = 0. Это вытекает непосредственно из формулы (5.10) при x2  x1 , y2  y1 с учетом непрерывности функции распределения F (x, y). Для двумерной случайной величины, так же как и для одномерной, вводится понятие п л о т н о с т и в е р о я т н о с т и. Найдем вероятность попадания случайной точки (X, Y) в прямоугольник со сторонами x и y, т.е.

P

= P ( x  X < x + x )( y  Y < y + y )  .

Полагая в формуле (5.10) x1 = x, x2 = x + x, y1 = y, y2 = y + y , получим, что эта вероятность

P =  F ( x + x, y + y ) Љ F ( x, y + y )  Љ

(5.11)

Љ  F ( x + x, y ) Љ F ( x, y )  .

Средняя плотность вероятности в данном прямоугольнике равна отношению вероятности P к площади прямоугольника xy , т.е.

c =

P ( x  X < x + x )( y  Y < y + y )  x y

.

(5.12)

Будем неограниченно уменьшать стороны прямоугольника, т.е.

x  0, y  0. Тогда, учитывая (5.11), найдем lim c = lim y 0

x  0 y  0

1 y

 F ( x + x, y + y ) Љ F ( x, y + y ) Љ  lim x 0 x  Љ lim

x 0

F ( x + x ) Љ F ( x , y )  . x 

182

(5.13)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Так как функция F (x, y) непрерывна и дифференцируема по каждому аргументу, то выражение (5.13) примет вид:

 Fx ( x, y + y ) Љ Fx ( x, y )  lim c = lim  = y 0 x 0 y 



(5.14)

=  Fx ( x, y )   y = Fxy ( x, y ) . О п р е д е л е н и е. Плотностью вероятности (плотностью распределения или совместной плотностью) непрерывной двумерной случайной величины (X,Y) называется вторая смешанная частная производная ее функции распределения, т.е.

 ( x, y ) =

 2 F ( x, y ) x y

= Fxy ( x, y ) .

Геометрически плотность вероятности двумерной случайной величины (X,Y) представляет собой поверхность распределения в пространстве Oxyz (рис. 5.3). Плотность вероятности  ( x, y )

(5.15)

( x, y )

обладает с в о й с т в а м и, аналогичными свойствам плотности вероятности одномерной случайной величины. 1. Плотность вероятности двумерной случайной величины есть неотрицательная функция, т.е.

0

Рис. 5.3

 ( x, y )  0.  Свойство вытекает из определения плотности вероятности как предела отношения (5.13) двух неотрицательных величин, ибо функция распределения F(x, y) — неубывающая функция по каждому аргументу.  2. Вероятность попадания непрерывной двумерной величины (X,Y) в область D равна

P ( X , Y )  D  =   ( x, y ) dx dy.

(5.16)

D

 Поясним геометрически формулу (5.16). Подобно тому, как в гл. 4 для одномерной случайной величины Х введено понятие «элемент вероятности», равный ( x) dx, для двумерной случайной величины (X, Y) вводится также понятие «эле-

183

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

мент вероятности», равный ( x, y ) dx dy. Он представляет (с точностью до бесконечно малых более высоких порядков) вероятность попадания случайной точки (X,Y) в элементарный прямоугольник со сторонами dx и dy (рис. 5.4). Эта вероятность приближенно равна объему элементарного параллелепипеда с высотой  ( x, y ) ,

опи-

рающегося на элементарный прямоугольник со сторонами dx и dy. Если вероятность попадания одномерной случайной величины на отрезок [а, b] геометрически выражалась площадью фигуры, ограниченной сверху кривой распределения

Рис. 5.4

 ( x ) и опирающейся на отрезок

[а, b], и аналитически выражалась интегралом



b a

( x) dx, то вероят-

ность попадания двумерной случайной величины в область D на плоскости Oxy геометрически изображается объемом цилиндрического тела,

ограниченного сверху поверхностью распределения  ( x, y ) и опирающегося на область D, а аналитически — двойным интегралом (5.16).  3. Функция распределения непрерывной двумерной случайной величины может быть выражена через ее плотность вероятности  ( x, y ) по формуле:

F ( x, y ) = 

x Љ



y

 ( x, y ) dx dy .

Љ

(5.17)

 Функция распределения F (x, y) есть вероятность попадания в бесконечный квадрант D, который можно рассматривать как прямоугольник, ограниченный абсциссами – и x и ординатами – и y. Поэтому в соответствии с формулой (5.16)

F ( x, y ) =   ( x, y ) dx dy =  D

x Љ



y Љ

 ( x, y ) dx dy . 

4. Двойной несобственный интеграл в бесконечных пределах от плотности вероятности двумерной случайной величины равен единице: +

+

Љ

Љ

 

 ( x, y ) dx dy = 1 .

(5.18)

 Несобственный интеграл (5.18) есть вероятность попадания во всю плоскость Oxy, т.е. вероятность достоверного события, рав-

184

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ная 1. Это означает, что полный объем тела, ограниченного поверхностью распределения и плоскостью Oxy, равен 1.  Зная плотность вероятности двумерной случайной величины (X, Y), можно найти функции распределения и плотности вероятностей ее одномерных составляющих X и Y. Так как в соответствии с равенствами (5.9) F ( x, +  ) = F1 ( x ) и

F ( +, y ) = F2 ( y ) , то, взяв в формулах (5.17) соответственно y = +  и x = +  , получим функции распределения одномерных

случайных величин X и Y:

x

+

Љ +

Љ y

Љ

Љ

F1 ( x ) = 

 F ( y) =   2

 ( x, y ) dx dy , ( x, y ) dx dy.

(5.19)

Дифференцируя функции распределения F1(x) и F2(y) соответственно по аргументам х и y, получим плотности вероятности одномерных случайных величин Х и Y:

1 ( x ) = 

+

Љ

 ( x, y ) dy ,

2 ( y ) = 

+

Љ

 ( x, y ) dx ,

(5.20)

т.е. несобственный интеграл в бесконечных пределах от совместной плотности ( x, y ) двумерной случайной величины по аргументу х дает плотность вероятности 2 ( y ) , а по аргументу y — плотность вероятности 1 ( x) .

З а м е ч а н и е. Если имеется кривая распределения  ( x ) одномерной случайной величины X, то конкретное значение ее плотности вероятности в данной точке х определяется геометрически о р д и н а т о й кривой  ( x ) . Если имеется поверхность распределения

 ( x, y ) двумерной случайной величины (X, Y), то конкретное значение ее совместной плотности в данной точке (x, y) определяется геометрически а п п л и к а т о й поверхности  ( x, y ) . В этом случае

конкретное значение плотности вероятности 1 ( x) одномерной составляющей Х в данной точке x, в соответствии с формулой (5.20), определится геометрически п л о щ а д ь ю с е ч е н и я поверхности  ( x, y ) плоскостью Х = х, параллельной координатной плоскости Oyz и отсекающей на оси Ox отрезок х. Аналогично конкретное значение плотности 2 ( y ) одномерной составляющей Y в данной

точке у есть площадь сечения поверхности  ( x, y ) плоскостью Y = y, параллельной координатной плоскости Oxz и отсекающей на оси Oy отрезок y (см. рис. 5.9, на котором значение 2 ( y ) при данном y представляет площадь сечения, равную s).

185

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 5.3. Двумерная случайная величина распределена равномерно в круге радиуса R = 1 (рис. 5.5). Определить: а) выражение совместной плотности и функции распределения двумерной случайной величины (X, Y); б) плотности вероятности и функции распределения одномерных составляющих Х и Y; в) вероятность того, что расстояние от точки (X,Y) до начала координат будет меньше 1/3. y

–1

z

1

0

R=1

R=1

1 3

1 

x

1

0

y

x Рис. 5.6

Рис. 5.5

2 2 C  x + y  1, 2 2  0  x + y > 1.

Р е ш е н и е. а) По условию  ( x, y ) = 

Постоянную С можно найти из соотношения (5.18): +

+

Љ

Љ

 

 ( x, y ) dx dy = 

1 Љ1



1Љ x 2 Љ 1Љ x 2

C dx dy = 1.

Проще это сделать, исходя из геометрического смысла соотношения (5.18), означающего, что объем тела, ограниченного поверхностью распределения  ( x, y ) и плоскостью Oxy, равен 1. В данном случае, это объем цилиндра с площадью основания R 2 =   12 =  и высотой С (рис. 5.6), равный   C = 1 , откуда С = 1/. Следовательно,

1   ( x, y ) =   0

 

x 2 + y 2  1, x 2 + y 2 > 1.

Найдем функцию распределения F(x, y) по формуле (5.17):

F ( x, y ) = 

x Љ



y

 ( x, y ) dx dy =

Љ

1 x dx   Љ



y Љ

dy .

(5.21)

Очевидно, что этот интеграл с точностью до множителя 1  совпадает с площадью области D — области пересечения круга x 2 + y 2  1 с бесконечным квадрантом левее и ниже точки M(x, y) (рис. 5.7).

186

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

y

2 –1

0

1

x

Рис. 5.8

Рис. 5.7

Опустим расчеты интеграла (5.21) для различных х и y, предоставив их читателю, но отметим очевидное, что при x  Љ1, Љ  < y < +  или при –< x 1, y > 1 F (x, y) = 1, так как при этом область D полностью совпадает с кругом x 2 + y 2  1 , на котором совместная плотность  ( x, y ) отлична от нуля. б) Найдем функции распределения одномерных составляющих Х и Y. По формуле (5.19) при –1< x  1

F1 ( x ) =

x

  Љ

+ Љ

x

 

 ( x, y ) dx dy =

Љ1

1Љ x 2 Љ 1Љ x

2

1 dx dy = 

 1Љ x 2  1 1 x = dx = 2 1 Љ x 2 dx =  y   Љ1  Љ 1Љ x2   Љ1 1. x 1

1 1 = x 1 Љ x 2 + arcsin x = + x 1 Љ x 2 + arcsin x Љ1   2 



(

x



)

(

)

Итак,

0 при x  –1, 1 1  2 F1 ( x ) =  + (x 1 Љ x + arcsin x) при –1 < x  1, 2  при x > 1. 1 Аналогично

1

Можно показать, что для функции 2 1  x

+ arcsin x.

187

2

2

первообразная есть x 1  x +

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

0 при y  –1, 1 1  2 F2 ( y ) =  + (y 1 Љ y + arcsin y ) при –1 < y  1, 2  при y >1. 1 Найдем плотности вероятности одномерных составляющих Х и Y. По формуле (5.20)

1 ( x ) =



+ Љ

 ( x, y ) dy =



1Љ x 2

1 2 dy = 1 Љ x2  

Љ 1Љ x 2

( Љ1  x  1) .

График плотности 1 ( x ) показан на рис. 5.8. Аналогично

2 1 Љ y 2 ( Љ1  y  1) .  1 1   в) Искомую вероятность P  X 2 + Y 2 <  = P  X 2 + Y 2 <  , т.е. 3 9    2 ( y ) = 

+

Љ

 ( x, y ) dx =

вероятность того, что случайная точка (X,Y) будет находиться в круге радиуса R1 = 1/3 (см. рис. 5.5), можно было найти по формуле (5.16):

1  P X 2 + Y 2 <  = 9 

1 3

  

1 3

1 2 x 9



1 2 x 9

1 dx dy, 

но проще это сделать, используя понятие «геометрической вероятности», т.е.

1  1 P  X 2 + Y 2 <  = ( R12 ) / ( R 2 ) = R12 / R 2 =   9  3 

2

/1

2

=

1 .  9

5.4. Условные законы распределения. Числовые характеристики двумерной случайной величины. Регрессия О п р е д е л е н и е. Условным законом распределения одной из одномерных составляющих двумерной случайной величины (X, Y) называется ее закон распределения, вычисленный при условии, что другая составляющая приняла определенное значение (или попала в какой-то интервал). Выше (§ 5.1) рассмотрено нахождение условных распределений для д и с к р е т н ы х случайных величин. Там же приведены формулы (5.1) и (5.2) условных вероятностей:

p j ( xi ) =

(

)

P ( X = xi ) Y = yj   , p y i j P Y = yj

(

)

( )

188

=

(

)

P ( X = xi ) Y = yj   . P ( X = xi )

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

В случае н е п р е р ы в н ы х случайных величин необходимо определить плотности вероятности условных распределений  y ( x ) и  x ( y ) . С этой целью в приведенных формулах заменим вероятности событий их «элементами вероятности», т.е. P [( X = xi )(Y = yj )] на

(

)

 ( x, y ) dx dy, P(X = xi) на  ( x ) dx, P Y = y j на  ( y ) dy, Pj(xi) на  y ( x ) dx и Pi(yj) на  x ( y ) dy, после сокращения на dx и dy получим:  ( x, y )  ( x, y ) , x ( y ) = (5.22) y ( x) = , 2 ( y ) 1 ( x )

т.е. условная плотность вероятности1 одной из одномерных составляющих двумерной случайной величины равна отношению ее совместной плотности к плотности вероятности другой составляющей. Соотношения (5.22), записанные в виде  ( x, y ) = 1 ( x )  x ( y ) = 2 ( y )  y ( x ) , (5.23) называются теоремой (правилом) умножения плотностей распределений. Используя формулы (5.20), условные плотности вероятностей (5.22) можно выразить через совместную плотность следующим образом:

y ( x) =



+ Љ

 ( x, y )

 ( x, y ) dx

, x ( y ) =

Если, как отмечено выше, совместная плотность  ( x, y ) двумерной случайной величины представляет собой геометрически некоторую поверхность распределения, то, например, условная плотность  y ( x ) есть кривая распределе-



+ Љ

 ( x, y )

 ( x, y ) dy

.

(5.24)

ния, п о д о б н а я сечению этой поверхности плоскостью Y = y, параллельной координатной плоскости Oxz и отсекающей на оси Oy отрезок y (рис. 5.9), и в соответствии с Рис. 5.9 (5.24) и замечанием на c. 185 получается из нее делением всех ординат на площадь данного сечения s (т.е. сечение поверхности распределения есть кривая s  y ( x ) , где

0  s  1 ) (см. рис. 5.9).

Аналогично можно пояснить геометрически и смысл условной плотности  x ( y ) .

1

Для условных плотностей вероятности используются также обозначения (x | y), (y | x).

189

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Условные плотности  y ( x) и  x ( y ) обладают всеми свойствами «безусловной» плотности, рассмотренной в гл. 3. Числовые характеристики одномерных составляющих X и Y и их условных распределений — математические ожидания M ( X ), M (Y ) и дисперсии D ( X ), D (Y ), условные математические ожидания M y ( X ) и M x (Y ) и условные дисперсии Dy ( X ) и Dx (Y ) находятся по обычным формулам математического ожидания и дисперсии, в которых используются соответствующие вероятности или плотности вероятностей (см. табл. 5.3). Условное математическое ожидание случайной величины Y при условии Х = х, т.е. Мx(Y), есть функция от х, называемая функцией регрессии или просто регрессией Y по X; аналогично My(X) называется функцией регрессии или просто регрессией Х по Y. Графики этих функций называются соответственно линиями регрессии (или кривыми регрессии) Y по Х и Х по Y 1. Основные свойства условных математических ожиданий и дисперсий аналогичны свойствам их «безусловных» аналогов, отмеченных выше (см. § 3.3, 3.4); при этом надо учитывать, что проводимые в них операции понимаются теперь уже не как действия над числами, а как действия над функциями. Отметим здесь некоторые дополнительные с в о й с т в а условного математического ожидания. 1. Если Z = g(X), где g — некоторая неслучайная функция от X, то Mz(Mx(Y)) = Mz(Y).

В частности,

M(Mx(Y)) = M(Y)

(правило повторного ожидания). 2. Если Z = g(X), то Mx(ZY) = ZMx (Y). 3. Если случайные величины X и Y независимы, то Mx(Y) = M(Y).  Докажем в качестве примера (для непрерывной случайной величины) правило повторного ожидания M(Mx(Y)) = M(Y). Условное математическое ожидание Mx(Y) находится по условному распределению случайной величины Y (при условии, что X = x), задаваемому условной плотностью вероятности x(Y). По формуле (5.27) с учетом равенства (5.22) получим

M x (Y ) = 1



+

Љ

y  x ( y ) dy =

Говорят также: Y на X и X на Y.

190



+ Љ

y

( x, y ) dy. 1 ( x)

i

ii

n

m

i

ij

m

i =1 j =1

i =1

i =1 j =1

j =1

m

n

i

j =1

(y

m

i =1

n

 (x

j

i

ij

j

pi i ( y j )

( xi )

 M x (Y )) 2 pi i ( y j )

 M y ( X )) 2 pi j ( xi )

j =1

y

m

i =1

x p

n

 ( y j  a y )2 pi j =  ( yi  a y )2 pij

m

 ( xi  ax )2 pi i =  ( xi  ax )2 pij

m

i =1 j =1

n

pi j =  yi pij n

j

i =1 j =1

n

j =1

y

m

i =1

 x p =  x p

n

Дискретные случайные величины

+

+

Љ

+

Љ

Љ

+

y

 (y Љa )

Љ

x

2

2

+

+ Љ



Љ



+

Љ

+

y  x ( y )dy

y

x

2

( y Љ M x (Y )) 2  x ( y )dy

2

 ( y Љ a )  ( x, y ) dx dy

Љ

+

y  ( x, y ) dx dy

 ( x Љ a )  ( x, y ) dx dy

Љ

+

x  ( x, y ) dx dy

x  y ( x)dx

Љ

+

+ Љ

( x Љ M y ( X )) 2  y ( x) dx

Љ



+ Љ



2 ( y ) dy = 

Љ

+

Љ

+



 

1 ( x ) dx = 

y 2 ( y ) dy =

Љ

+

Непрерывные случайные величины

x 1 ( x ) dx = 

 (x Љ a )





Таблица 5.3

(5.28)

(5.28)

(5.27)

(5.27)

(5.26)

(5.26)

(5.25)

(5.25)

 (5.1), (5.2), (5.22).

 .     pi j ( xi ), pi i ( yi )     y ( x),  x ( y )          -

Dx (Y )

Dy ( X )

M x (Y )

M y (X )

D(Y )

D(X )

a y = M (Y )

ax = M (X )

Характеристики

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Теперь

M ( M x (Y )) =



+ Љ

M x (Y )1 ( x) dx = =

+

  Љ

+ Љ

+

  

  Љ

+ Љ

y

( x, y )  dy  1 ( x)dx = 1 ( x) 

y  ( x, y ) dx dy = M (Y )

(в соответствии с формулой (5.25)). 

5.5. Зависимые и независимые случайные величины Выше (§ 3.2) введено понятие независимости дискретных случайных величин Х и Y, основанное на независимости связанных с ними событий Х = xi и Y = yj при любых i и j. Теперь можно дать общее определение независимости случайных величин, основанное на независимости событий X < x и Y < y, т.е. функций распределений F1(x) и F2(y). О п р е д е л е н и е. Случайные величины Х и Y называются независимыми, если их совместная функция распределения F(x, y) представляется в виде произведения функций распределений F1(x) и F2(y) этих случайных величин, т.е.

F ( x, y ) = F1 ( x )  F2 ( y ) .

(5.29)

В противном случае, при невыполнении равенства (5.29), случайные величины Х и Y называются зависимыми. Дифференцируя дважды равенство (5.29) по аргументам х и y, получим

 ( x, y ) = 1 ( x )  2 ( y ) ,

(5.30)

т.е. для независимых непрерывных случайных величин Х и Y их совместная плотность  ( x, y ) равна произведению плотностей вероятности

1 ( x ) и 2 ( y ) этих случайных величин.

Сравнивая формулы (5.30) и (5.23), можно утверждать, что независимость двух случайных величин Х и Y означает, что условные плотности вероятности каждой из них совпадают с соответствующими «безусловными» плотностями, т.е.

 y ( x ) = 1 ( x ) и  x ( y ) = 2 ( y ) .

(5.31)

До сих пор мы сталкивались с понятием ф у н к ц и о н а л ьн о й зависимости между переменными Х и Y, когда каждому значению х одной переменной соответствовало строго определенное значение y другой. Например, зависимость между двумя случайными величинами — числом вышедших из строя единиц оборудования за определенный период времени и их стоимостью — функциональная.

192

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

В общем случае, при невыполнении условий (5.29)—(5.31), сталкиваются с зависимостью другого типа, менее жесткой, чем функциональная. О п р е д е л е н и е. Зависимость между двумя случайными величинами называется вероятностной (стохастической или статистической), если каждому значению одной из них соответствует определенное (условное) распределение другой. В случае вероятностной (стохастической) зависимости нельзя, зная значение одной из них, точно определить значение другой, а можно указать лишь распределение другой величины. Например, зависимости между числом отказов оборудования и затрат на его профилактический ремонт, весом и ростом человека, затратами времени школьника на просмотр телевизионных передач и чтение книг и т.п. являются вероятностными (стохастическими). На рис. 5.10 приведены примеры зависимых и независимых случайных величин Х и Y. На рис. 5.10, а зависимость между Х и Y проявляется в том, что с изменением х меняется как распределение Y, так и условное математическое ожидание Mx(Y) (с увеличением x Mx(Y) увеличивается). Там же показана зависимость Mx(Y) от х, т.е. линия регрессии Y по X.

Mx3 (Y )

 x3 ( y )

Mx2 (Y )  x2 ( y )

Mx ( Y )

Mx1(Y )

 x1 ( y )

a) y

Dx1 (Y )

Dx2 (Y )

Dx3 (Y ) Линия

регрессии Y по X

Mx ( Y ) = M ( Y )

0

x2

x1

б)

193

x3

x

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

x1 ( y ) = ( y )

y

x2 ( y ) = ( y )

x3 ( y ) = ( y )

Mx ( Y ) = M ( Y )

0

x2

x1

Линия регрессии Y по X

x3

x

в) Рис. 5.10

На рис. 5.10, б зависимость между случайными величинами проявляется в изменении условных дисперсий (с ростом х Dx(Y) увеличивается), при этом Mx(Y) = const, т.е. линия регрессии Y по Х параллельна оси Ox. На рис. 5.10, в случайные величины Y и Х независимы, так как с изменением x распределение случайной величины Y, а значит, условное математическое ожидание Mx(Y) и условная дисперсия Dx(Y) не меняются. Таким образом, обобщая, можно y утверждать, что если случайные величи y = 1 (x) 2 1 3 ны Y и Х независимы, то линии регрессии Y по Х и Х по Y параллельны координатным осям Ox и Oy.  3 2

0

3 2

x

 Пример 5.4. По данным примера 5.3 определить: а) условные плотности случайных величин Х и Y; б) зависимы или независимы случайРис. 5.11 ные величины Х и Y; в) условные математические ожидания и условные дисперсии. Р е ш е н и е. а) Найдем условную плотность  y ( x) по формуле (5.22), учитывая, что 2 ( y )  0 .

1   x < 1 Љ y 2 ,  2 y ( x) = = 2 1Љ y 2 ( y )   x > 1 Љ y 2 . 0 График  y ( x ) при y = 1/2 показан на рис. 5.11.  ( x, y )

Аналогично

x ( y ) =

 ( x, y ) 1 ( x )

1   2 = 2 1Љ x  0

194



y < 1 Љ x2 ,



y > 1 Љ x2 .

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

б)

Х

и

Y



 ( x, y )  1 ( x ) 2 ( y )

зависимые случайные величины, так как или  y ( x )  1 ( x ) ,  x ( y )  2 ( y ) (см. пример

5.3 и п. а)). в) Найдем условное математическое ожидание Mx(Y) по формуле (5.27), учитывая, что  x ( y ) = Mx(Y) =



+ Љ

2 1 Љ x2

y  x ( y ) dy = 1

= Аналогично My(X) =

1

2 1 Љ x2



+ Љ





y2 2

. 1Љ x 2

Љ 1Љ x 2 1 x2  1 x 2

1

y dy =

2 1 Љ x2 = 0.

x  y ( x ) dx = 0 . 2

2

Этот результат очевиден в силу того, что круг x + y  1 (рис. 5.5) симметричен относительно координатных осей. Таким образом, линия регрессии Y по Х совпадает с осью Ox (Mx(Y) = 0), а линия регрессии X по Y — с осью Oy (My(X) = 0). Найдем условную дисперсию Dx(Y) по формуле (5.28):

Dx (Y ) = =



+ Љ

y3 2 1  x2 3 1

2

 y Љ M x (Y )   x ( y ) dy = 1 x2

=

 1 x 2

1



1Љ x 2 Љ 1Љ x 2

1   2 1  x2 2 2 1 x 3

(

1

)

3

2 1Љ x =

2

y 2 dy =

1  x2 ( 0  x  1) . 3

(Тот же результат можно получить проще — по формуле дисперсии равномерного закона распределения (4.20):

Dx (Y ) =

(b Љ a ) 12

2

2

2 2    1 Љ x Љ ( Љ 1 Љ x )  1 Љ x2  = = ). 12 3

Аналогично

Dy ( X ) =

1  y2 ( 0  y  1) . 3

Таким образом, по мере удаления от начала координат дисперсия условных распределений уменьшается от 1/3 до 0. 

5.6. Ковариация и коэффициент корреляции Пусть имеется двумерная случайная величина (Х,Y), распределение которой известно, т.е. известна табл. 5.1 или совместная плот-

195

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ность вероятности  ( x, y ) . Тогда можно найти (см. § 5.4) математические ожидания M(X) = ax, M(Y) = ay и дисперсии D(X) =  2x и D(Y) = 2y одномерных составляющих Х и Y. Однако математические ожидания и дисперсии случайных величин Х и Y недостаточно полно характеризуют двумерную случайную величину (Х,Y), так как не выражают степени зависимости ее составляющих Х и Y. Эту роль выполняют ковариация и коэффициент корреляции. О п р е д е л е н и е. Ковариацией (или корреляционным моментом) Кху случайных величин Х и Y называется математическое ожидание произведения отклонений этих величин от своих математических ожиданий1, т.е.

K xy = M [( X  M ( X ))(Y  M (Y ))] ,

(5.32)

K xy = M [( X  ax )(Y  a y )] ,

или

где ax = M(X), ay = M(Y). Из определения следует, что Кху = Кух. Кроме того,

K xx = M [( X  ax )( X  ax )] = M ( X  ax ) 2 = D ( X ), т.е. ковариация случайной величины с самой собой есть ее дисперсия. Для дискретных случайных величин n

m

(

)

K xy =  ( xi  ax ) yj  a y pij . i =1 j =1

(5.33)

Для непрерывных случайных величин

K xy = 

+ Љ

 ( x Љ a ) ( y Љ a )  ( x, y ) dx dy. +

Љ

x

y

(5.34)

Ковариация двух случайных величин характеризует как с т е п е н ь з а в и с и м о с т и случайных величин, так и их р а с с е я н и е вокруг точки (ax, ay). Об этом, в частности, свидетельствуют с в о й с т в а ковариации случайных величин. 1. Ковариация двух независимых случайных величин равна нулю.  Для независимых случайных величин согласно равенству (5.30)  ( x, y ) = 1 ( x ) 2 ( y ) . Поэтому формула ковариации, например, (5.34) для непрерывных случайных величин примет вид:

K xy = 

+ Љ

( x Љ ax ) 1 ( x ) dx  Љ ( y Љ a y ) 2 ( y ) dy = 0, +

1 Ковариацию называют еще вторым смешанным центральным моментом случайных величин X и Y. Для ковариации X и Y используются также обозначения cov (X,Y), xy.

196

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

так как каждый из полученных интегралов есть центральный момент первого порядка, равный нулю.  2. Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий, т.е. Кху = М(XY) – M(X)ЃM(Y), или

(5.35)

Кху = М(XY) – axay.  По определению (5.32): Кху = М[(X – ax) (Y – ay)] = M(XY – axY – ayX + axay).

Учитывая, что математические ожидания М(Х) = ах и М(Y) = аy — неслучайные величины, получим Kxy = M(XY) – axM(Y) – ayM(X) + axay = = M(XY) – axay – ayax + axay = M(XY) – axay.  3. Ковариация двух случайных величин по абсолютной величине не превосходит произведения их средних квадратических отклонений, т.е.

K xy   x  y .

(5.36)

 Возьмем очевидное неравенство: 2

     

X  ax Y  ay  M ±  0  x  y      X Љ a  2  X Љa   Y Љ ay x x Y Љ ay     +  M

± 2   x x y   y   

=

     

2

 =  

1 2 1 2 M ( X Љ ax ) ± M ( X Љ ax ) Y Љ a y  + 2 M Y Љ a y 2x x y y

(

=

D( X ) 

2 x

±

2 K xy x y

+

D (Y ) 

2 y

)

=2±

(

2 K xy

0

x y

)

2

=

(5.37)

(учтено, что  x и  y — неслучайные величины и дисперсии

(

D(X ) = M ( X Љ ax ) = 2x , D(Y ) = M Y Љ a y 2

Неравенство

(5.37)

равносильно

)

2

= 2y ).

двойному

неравенству

Љ x  y  K xy   x  y , из которого следует доказываемое свойство (5.36). 

197

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Ковариация, как уже отмечено, характеризует не только степень зависимости двух случайных величин, но и их разброс, рассеяние. Кроме того, она — величина размерная, ее размерность определяется произведением размерностей случайных величин. Это затрудняет использование ковариации для оценки степени зависимости для различных случайных величин. Этих недостатков лишен коэффициент корреляции. О п р е д е л е н и е. Коэффициентом корреляции1 двух случайных величин называется отношение их ковариации к произведению средних квадратических отклонений этих величин:

 xy =

K xy

x y

.

(5.38)

Из определения следует, что  xy =  yx =  . Очевидно также, что коэффициент корреляции есть безразмерная величина. Если рассматривать случайные величины X и Y как случайные векторы, их ковариацию — как аналог скалярного произведения двух векторов, средние квадратические отклонения — как аналоги длин этих векторов, то коэффициент корреляции представляет аналог косинуса угла между векторами. Отметим с в о й с т в а коэффициента корреляции. 1. Коэффициент корреляции принимает значения на отрезке [–1; 1], т.е. Љ1    1. (5.39)  Из неравенства (5.37):



2 K xy

x y

= 2 ± 2  0 , откуда Љ1    1. 

2. Если случайные величины независимы, то их коэффициент корреляции равен нулю, т.е.  = 0.   = 0 , так как в этом случае Кху = 0.  Случайные величины называются некоррелированными, если их коэффициент корреляции равен нулю. Таким образом, из независимости случайных величин следует их некоррелированность. Обратное утверждение, вообще говоря, неверно: из некоррелированности двух случайных величин еще не следует их независимость (см. пример 5.6). 3. Если коэффициент корреляции двух случайных величин равен (по абсолютной величине) единице, то между этими случайными величинами существует линейная функциональная зависимость.

1 Для коэффициента корреляции случайных величин в литературе используется также обозначение сorr (X, Y).

198

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Выше было получено, что

 X Љ ax Y Љ a y M ±  x y 

2

 2 K xy = 2 ± 2.  =2±  x y  X Љ ax Y Љ ay ±  x y 

Если  = 1, то 2 ± 2 = 0 и M 

2

  = 0.  

Равенство математического ожидания неотрицательной случайной величины нулю означает, что сама случайная величина тождественно равна нулю.

Y  ay X  ax ± = 0 при  =  1 или x y Y = ay +

y x

( X Љ ax )

при  = 1 и Y = a y Љ

y x

( X Љ ax )

при  = Љ1, т.е. Х и Y связаны линейной функциональной зависимостью.  З а м е ч а н и е. В случае нелинейной функциональной зависимости  < 1; возможно даже, что  = 0. Так, например, коэффициент корреляции  между случайными величинами: X, равномерно

[ 1; 1]

распределенной на интервале

( x ) =

(с плотностью вероятности

1 и M ( X ) = 0), и Y = X 2 равен нулю, ибо по формуле 2

(5.35) с учетом равенства (3.25))

+1

1 K xy = M ( X  X 2 ) Љ M ( X )  M ( X 2 ) = M ( X 3 ) Љ 0 =  x3  dx = 0. 2 1  Пример 5.5. По данным примера 5.2 определить ковариацию и коэффициент корреляции случайных величин X и Y. Р е ш е н и е. В примере 5.2 были получены следующие законы распределения одномерных случайных величин: X:

xi

1

2

pi

0,8

0,2

и Y:

yj

–1

0

1

2

pj

0,2

0,3

0,3

0,2

Найдем математические ожидания и средние квадратические отклонения этих случайных величин:

199

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

2

ax = M ( X ) =  xi pi = 1  0,8 + 2  0, 2 = 1, 2; i =1

2

M ( X 2 ) =  xi2 pi = 12  0,8 + 22  0, 2 = 1, 6; i =1

2 2 2 D(X) = M ( X ) – ax = 1,6–1,2 = 0,16;

ay = M(Y) =

4

y j =1

 x = D( X ) = 0,16 = 0, 4;

p j = ( 1)  0, 2 + 0  0,3 + 1  0,3 + 2  0, 2 = 0,5;

j

4

M (Y 2) =  y 2j p j = ( 1)  0,2 + 02  0,3 + 12  0,3 + 22  0,2 = 1,3; 2

j =1

2 D(Y) = M(Y )– a y =1,3–0,5 = 1,05; 2

2

 y = D(Y ) = 1,05 = 1,025.

Для нахождения математического ожидания M(XY) произведения случайных величин X и Y можно было составить закон распределения произведения двух дискретных случайных величин (с вероятностями его значений из табл. 5.2)1, а затем по нему найти M(XY). Но делать это вовсе не обязательно. М(XY) можно найти непосредственно по табл. 5.2 распределения двумерной случайной величины (X,Y) по формуле: n

m

M ( XY ) =  xi yj pij , i =1 j =1

где двойная сумма

n

m



означает суммирование по всем nm клет-

i =1 j =1

кам таблицы (n — число строк, m — число столбцов): M (XY) = 1Ѓ(–1)Ѓ0,10 + (–1)Ѓ0Ѓ0,25 + 1Ѓ1Ѓ0,30 + 1Ѓ2Ѓ0,15 + +2Ѓ(–1)Ѓ0,10 + 2Ѓ0Ѓ0,05 + 2Ѓ1Ѓ0 + 2Ѓ2Ѓ0,05 = 0,5. Вычислим ковариацию Кху по формуле (5.35): Кху = М(XY) – axay = 0,5 – 1,2Ѓ0,5 = –0,1. Вычислим коэффициент корреляции  по формуле (5.38):

=

1

K xy x y

=

0,1 =  0, 244, 0, 4  1, 025

Закон распределения (XY) имеет вид:

( x y )k

–2

–1

0

1

2

4

p

0,1

0,1

0,3

0,3

0,15

0,05

k

200

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

т.е. между случайными величинами X и Y существует отрицательная линейная зависимость; следовательно, при увеличении (уменьшении) одной из случайных величин другая имеет некоторую тенденцию уменьшаться (увеличиваться).   Пример 5.6. По данным примера 5.3 определить: а) ковариацию и коэффициент корреляции случайных величин X и Y; б) коррелированы или некоррелированы эти случайные величины. Р е ш е н и е. а) Вначале по формулам (5.25), (5.26) найдем математические ожидания ах = М(Х) и ау = М(Y).

ax = 

+ Љ



+ Љ

x  ( x, y ) dx dy =

1Љ x 2 1 1 x dx  Љ 1Љ x2 dy = 0.   Љ1

Аналогично ay = 0 (то, что ax = ay = 0, очевидно из соображения симметрии распределения в круге, из которой следует, что центр его массы лежит в начале координат). По формуле (5.34) ковариация

K xy = 

+ Љ

 ( x Љ a ) ( y Љ a )  ( x, y ) dx dy = +

Љ

x

y

1 x 2 1 1 1 dx dy = x dx   1 x2 y dy = 1   1 x 2    1 1 1  y 2 1 x2  =  x  dx = 0.  1  2  1 x2  K xy = 0. Соответственно коэффициент корреляции  = x y

=

1

1 x

2

x—

б) Так как  = 0 , то случайные величины X и Y некоррелированы. В примере 5.4 установлено, что эти случайные величины зависимы; таким образом, наглядно убеждаемся в том, что из некоррелированности величин еще не вытекает их независимость.  С помощью ковариации можно дополнить и уточнить некоторые свойства математического ожидания и дисперсии (рассмотренные в гл. 3). 1. Математическое ожидание произведения двух случайных величин равно сумме произведения их математических ожиданий и ковариации этих случайных величин: M(XY) = M(X)ЃM(Y) + Kxy.

(5.40)

 Формула (5.40) следует непосредственно из формулы (5.35).  Если Kxy = 0, то M(XY) = M(X)M(Y),

201

(5.41)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

т.е. математическое ожидание произведения двух некоррелированных случайных величин равно произведению их математических ожиданий1. 2. Дисперсия суммы двух случайных величин равна сумме их дисперсий плюс удвоенная ковариация этих случайных величин: D(X +Y) =D(X) + D(Y) + 2Kxy .

(5.42)

 Пусть Z = X + Y. По свойству математического ожидания az = ax + ay. Поэтому Z – az = (X – ax) + (Y – ay). По определению дисперсии 2

2

D (X + Y) = D(Z) =M(Z – az) = M(X – ax) + 2M[(X – ax)(Y – ay)] + 2

+ M(Y – ay) = D(X) + 2Kxy + D(Y).  Формула (5.42) может быть обобщена на любое число слагаемых: n m  n  n D   X i  =  D(X i ) + 2 K ij , i =1 j =1  i =1  i =1

(5.43)

где Kij — ковариации случайных величин Xi и Xj. Для некоррелированных (и, разумеется, для независимых) случайных величин

 n  n D   X i  =  D (X i ),  i =1  i =1

(5.44)

т.е. дисперсия суммы некоррелированных случайных величин равна сумме их дисперсий.

5.7. Двумерный (n-мерный) нормальный закон распределения О п р е д е л е н и е. Случайная величина (Х,Y) называется распределенной по двумерному нормальному закону, если ее совместная плотность имеет вид:

 N ( x, y ) =

1 2 x  y 1 Љ 

2

e

 L( x, y )

,

(5.45)

где

L ( x, y ) =

(

1

2 1 Љ 2

)

 x Љ a  2 x Љ ax y Љ a y  y Љ a y x 

+

Љ 2

y  x  x y



 

2

  . (5.46)  

1 В § 3.3 свойство (5.41) сформулировано для н е з а в и с и м ы х случайных величин. Теперь выясняется, что в случае двух сомножителей достаточно менее жесткого требования н е к о р р е л и р о в а н н о с т и случайных величин. В случае произвольного числа сомножителей, как показывает анализ, требование независимости случайных величин должно быть сохранено.

202

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Из определения (5.45), (5.46) следует, что двумерный нормальзакон распределения определяется пятью параметрами: ax , a y , 2x , 2y ,  т.е. ( X , Y )  N (ax , a y , 2x , 2y , ).

ный

Для выяснения теоретико-вероятностного смысла этих параметров по формулам (5.25)—(5.28), (5.34) найдем математические ожидания случайных величин М(Х) и M(Y), их дисперсии D(X) и D(Y) и ковариацию Kxy. Получим после замены  N ( x, y ) ее выражением (5.45) с учетом равенства (5.46) и вычисления интегралов1:

M (X ) = 

и аналогично M(Y) = ay;

D(X ) = 

+

+ Љ

Љ



+

Љ

x  N ( x, y ) dx dy = ax

+

 (x Љ a )

Љ 2 y

Љ

и аналогично D(Y) =  ;

K xy = 

+

2

x

 N ( x, y ) dx dy = 2x

 ( x Љ a ) ( y Љ a )  ( x, y ) dx dy = +

x

Љ

y

N

 x y .

Таким образом, параметры ax и ay выражают математические ожидания случайных величин X и Y, параметры 2x и 2y — их дисперсии, а

K xy x y

=  — коэффициент корреляции между случайными

величинами Х и Y. Найдем плотности вероятности одномерных случайных величин Х и Y по формулам (5.20) с учетом равенств (5.45), (5.46):

1 (x) = 

+ 

N ( x, y ) dy =

и аналогично

2 (y ) =

1

1  x 2

e

 y 2





( y  ay )

e

( x  ax )2 2 2x

(5.47)

2

2 2y

.

(5.48)

Как и следовало ожидать, каждый из законов распределения одномерных случайных величин X и Y является нормальным с пара-

(

2 метрами соответственно ax ,  x

) и (a , ) . 2 y

y

Найдем условные плотности вероятности случайных величин Х и Y по формулам (5.22) с учетом равенств (5.45)—(5.48):

 y (x) =

1

 N ( x, y ) 2 ( y )

=

Љ

1 x 1 Љ 

2

2

e

(

1

2 1Љ

2

)

 x Љ ax y Љ ay  Љ  x y 

  

2

Вычисление соответствующих несобственных интегралов в § 5.7 опускаем.

203

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

и аналогично  x (y ) =

Љ

1 y 1 Љ 

2

e

2

1

(

2 1Љ

2

)

 yЉa x Љ ax y  Љ   x y 

  

2

.

Сравнивая полученные выражения условных плотностей  y ( x) и  x ( y ) с плотностями одномерных составляющих (5.47) и (5.48), убеждаемся в том, что каждый из условных законов распределения случайных величин Х и Y является нормальным с условным математическим ожиданием и условной дисперсией, определяемыми по формулам:

M y ( X ) = ax + 

x y Љ ay , y

(

)

Dy ( X ) = 2x 1 Љ 2  , M x (Y ) = a y + 

y x

(5.49) (5.50)

( x Љ ax ) ,

Dx (Y ) = 2y 1 Љ 2  .

(5.51) (5.52)

Из формул (5.49), (5.51) следует, что линии регрессии My (X) и Mx (Y) нормально распределенных случайных величин представляют собой прямые линии, т.е. нормальные регрессии Y по Х и Х по Y всегда линейны. Из формул (5.50) и (5.52) следует, что условные дисперсии Dy(X) и Dx(Y) (а значит, и условные стандартные отклонения  y ( X ) и  x (Y ) ) постоянны и не зависят от значений y или x. Это свойство называется гомоскедастичноcтью или равноизменчивостью условных нормальных распределений и имеет существенное значение в статистическом анализе. Теорема. Если две нормально распределенные случайные величины Х и Y некоррелированы, то они независимы.  По условию коэффициент корреляции  = 0. Найдем выражение совместной плотности. По формулам (5.45), (5.46) при  = 0 получим:

 N (x, y ) =

1  x 2



e

( x  ax ) 2 2x

2



1  y 2



e

( yay ) 2 2y

2

= 1 ( x ) 2 ( y ) , (5.53)

где 1 ( x ) и 2 ( y ) — плотности вероятностей одномерных случайных величин Х и Y.

204

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

В соответствии с условием (5.30) это означает независимость случайных величин X и Y.  Таким образом, для нормально распределенных случайных величин термины «некоррелированность» и «независимость» равносильны. Поверхность  N ( x, y ) нормального распределения представляет собой холмообразную поверхность, называемую иногда «палаткой Гаусса» (рис. 5.12). Сечения этой поверхности плоскостями x = a (перпендикулярно оси Ox) и y = b (перпендикулярно оси Oy) имеют форму нормальных кривых с центрами, лежащими на линии регрессии Y по Х (5.51) и Х по Y (5.53), и со средними квадратическими отклонениями, равными  x 1 Љ 2 и  y 1 Љ 2 . Сечение поверхности нормального распределения плоскостью z = c (где 0 < c <  N (ax , a y )) , параллельной плоскости Oxy, представляет эллипс, называемый эллипсом рассеяния (рис. 5.13):

( x  ax )  2

(

где a = Љ2 1 Љ 

2

2 x

2

 2

( x  ax ) ( y  a y ) ( y  a y ) +

x y

) ln (2 c   x

y



2

2 y

= a2 ,

2

1Љ  ) .

(В силу ограничения для c аргумент логарифма меньше 1, а само значение логарифма отрицательно.) Центр эллипса находится в точке (ax, ay), а его оси образуют с осью Ox углы  и /2 +  , где  определяется из условия

tg 2 =

2 x  y 2x Љ 2y

.

My(X) = ax + 

N (a x , a y ,  2x ,  2y , )

x (y – ay) y

Mx(Y)=ay + +



205

x

(x–ax)

/2+ Рис. 5.13

Рис. 5.12

y

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

В случае, если нормально распределенные величины X и Y независимы, т.е.  = 0, то tg 2 = 0, откуда  = 0 и оси симметрии эллипса параллельны осям координат. При этом если  x =  y = , то эллипс рассеивания превращается в круг, а полученное распределение с центром в точке (ax , a y ) называется круговым. Использование такого распределения облегчает решение многих прикладных задач, так как случайные величины X и Y остаются независимыми при любом повороте координатных осей. О п р е д е л е н и е. Случайная величина (X1, X2, ..., Xn) называется распределенной по n-мерному нормальному закону, если ее совместная плотность имеет вид:

 N ( x1 , x2 , ..., xn ) =

( (2)

1 n/2

Kij

)

e



1 n n ( 1) xi  ai   K 2 i =1 j =1 ij

(

)( x j  a j )

, (5.54)

где ai — математическое ожидание одномерной составляющей Xi (i = 1, 2, …, n);

( )

K ij — определитель ковариационной матрицы Kij величины (X1, X2, …, Xn):

 K 11  K ( Kij ) =  21  Љ K  n1

K 12 … K 1n   K 22  K 2 n  , Љ Љ Љ  K n 2  K nn 

случайной

(5.55)

K ij1 — элементы матрицы, обратной по отношению к ковариационной матрице ( K ij ) . Из определения (5.54), (5.55) следует, что нормальный закон распределения n-мерной случайной величины (n-мерного случайного вектора) X = (X1, X2, …, Xn) характеризуется (n + n (n + 1)/2) параметрами, задаваемыми вектором математических ожиданий a = (a1, a2, …, an) и симметрической ковариационной матрицей ( K ij ), где Kij = M[(Xi – – ai)(Xj –aj)] i, j = 1, 2, …, n. Ковариационная матрица и ее определитель K ij , называемый обобщенной дисперсией n-мерной случайной величины, являются аналогами дисперсии одномерной случайной величины и характеризуют степень случайного разброса отдельно по каждой одномерной составляющей и в целом по n-мерной величине.

206

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

В качестве характеристики степени рассеивания значений многомерной случайной величины используется также след ковариационной матрицы, т.е. сумма ее диагональных элементов — дисперсий одномерных составляющих: tr ( K ij ) =

n

K . i =1

ii

Можно показать, что при n = 2 совместная плотность (5.54) имеет вид (5.45), (5.46) — совместной плотности двумерного нормального распределения, а свойства n-мерного нормального закона аналогичны свойствам двумерного.

5.8. Функция случайных величин. Композиция законов распределения Одной из важных задач в теории вероятностей является определение закона распределения функции одной или нескольких случайных величин, если известны распределения одного или нескольких аргументов. Если дискретная случайная величина X имеет закон рас-

x = f (y1)  xi  пределения   , i = 1, 2, …, n, то Рис. 5.14  pi  функция Y = f ( X ) — также дискретная случайная величина — имеет

 f ( xi )  .  pi 

закон распределения 

При этом если среди значений f ( xi )

встречаются одинаковые, то соответствующие их вероятности надо сложить, приписав f ( xi ) суммарную вероятность. Так мы поступали ранее при построении законов распределения функций некоторых дискретных случайных величин

(Y = kX , Y = X

m

, Z = X + Y , Z = X  Y , Z = XY

)



см. § 3.2. Обратимся теперь к непрерывным случайным величинам. Пусть имеется непрерывная случайная величина Х с плотностью вероятности  ( x ) , а случайная величина Y есть функция от X, т.е.

Y = f ( X ) . Требуется найти закон распределения случайной величины Y.

Пусть функция f ( x ) — строго монотонна, непрерывна и диффе-

ренцируема на отрезке [a, b] всех возможных значений случайной величины X и f ( a ) = c, f ( b ) = d (рис. 5.14). Полагаем, что f  ( x ) > 0 . Тогда функция распределения G ( y ) случайной величины Y = f ( X ) :

207

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 0  y < c, G ( y ) = P (Y < y ) =  y   c g ( y ) dy  c  y  d , где g (y) — плотность вероятности случайной величины Y = f (X). Если c  y  d ,

G ( y ) = P (Y < y ) = P ( f ( X ) < y ) .

Неравенство f ( X ) < y равносильно неравенству X < f

f

–1(y)

–1(y),

где

— функция, обратная функции f(x) на отрезке [a, b]. Поэтому

G ( y ) = P  X < f 1 (y )  = 

f 1 ( y ) d

 ( x ) dx.

По теореме о производной интеграла по переменному верхнему пределу1:

g ( y ) = G  ( y ) =   f 1 ( y ) 

 f 1 ( y )   .

(5.56)

1 (Производную  f ( y )   берем по абсолютной величине, так как в

случае, если функция f(x) на отрезке [a, b] убывающая, то обратная ей функция f 1 ( y ) убывающая и производная  f 1 ( y )  < 0, а плотность вероятности g (y) отрицательной быть не может.) Если функция y = f ( x ) на отрезке [a, b] возможных значений случайной величины X немонотонна, то обратная функция x = f 1 ( y ) неоднозначна, и число ее значений зависит от того, какое значение y взято (рис. 5.15).

  

f11(y)

f 21 ( y )

f31 ( y ) f 41 ( y )

Рис. 5.15

1

Формула (5.56) остается в силе на бесконечном интервале

a = Љ , b = +  .

208

( Љ, +) , т.е. при

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

В этом случае нетрудно показать (см., например, [7]), что k

g ( y ) =    fi 1 ( y )   fi 1 ( y )  ,

(5.56)

i =1

где k — число значений обратной функции f 1 ( y ) , соответствующих данному y; f11 ( y ), f 21 ( y ), ...., f k1 ( y ) — значения обратной функции

x = f 1 ( y ) , соответствующие данному y.  Пример 5.6а. Найти плотность вероятности случайной величины X 2 , где случайная величина X распределена по стандартному нормальному закону N (0;1). Р е ш е н и е. Функция y = x 2 немонотонна (рис. 5.16). По формуле (5.56), учитывая, что

1

1

[ f ( y )] = ( y ) = g ( y ) = (Љ y )  Для

1 2 y

, получим

+ ( y ) 

стандартного

закона ( x) =

g ( y) =

2 y

1 2

1 2

e ( 

e x

y )2 / 2

2



1 2 y

.  y

нормального

/2

y

Рис. 5.16

и

1 2 y

+

1 2

e (

y )2 / 2



1 2 y

=

1 2y

e y / 2 ( y > 0),

т.е. представляет плотность вероятности 2-распределения (4.38) с

1 k = 1 степенью свободы, ибо    =  .  2 Можно показать, что для нахождения числовых характеристик случайной величины Y = f ( X ) не обязательно знать закон ее распределения, достаточно знать закон распределения аргумента:

a y = M (Y ) = M [ f (X )] =  +

или

+ Љ

f ( x )  ( x ) dx, 2

 f ( x ) Љ a y   ( x ) dx, D (Y ) = D  f ( X )  =  Љ 

D (Y ) = M (Y 2 ) Љ a 2y = 

+

Љ

209

f 2 ( x)  ( x) dx Љ a 2y .

(5.57) (5.58) (5.58)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 5.7. Найти плотность вероятности случайной величины Y = 1–X 3 , где случайная величина Х распределена по закону Коши с плотностью вероятности  ( x ) = Р е ш е н и е.

По

(

1

 1 + x2

)

.

y = f ( x ) = 1  x3 ,

условию

откуда

x = f 1 ( y ) = 3 1  y . Производная (по абсолютной величине)

 f 1 ( y )   =

1 3 3 (1 Љ y )

2

.

По формуле (5.56) плотность вероятности

g ( y)=

1

2 3 1 + 3 (1 Љ y )   

3

(1 Љ y )

2

.

 Пример 5.8. Найти математическое ожидание и дисперсию случайной величины Y = 2  3sin X , если плотность вероятности случайной величины Х есть  ( x ) =

1 cos x на отрезке [  2,  2] . 2

Р е ш е н и е. По формуле1 (5.57)

a y = M (Y ) = По



/2 Љ / 2

Љ / 2

( 2  3sin x )

1 cos x dx = 2. 2

( )

(5.58) дисперсия D (Y ) = M Y 2  a 2y .

формуле2

M (Y 2 ) =



/2

(2  3

sin x )

2

1 cos x dx = 7 и D (Y ) = 7  22 = 3.  2

Из множества задач на составление закона распределения функции нескольких случайных величин важное для практики значение имеет задача определения закона распределения с у м м ы двух случайных величин, т.е. закон распределения случайной величины Z = X + Y. В случае, если X и Y — независимые случайные величины, говорят о композиции (свертке) законов распределения. В гл. 4, в частности, установлено, что сумма двух (и более) альтернативных случайных величин распределена по биномиальному закону; сумма двух случайных величин, распределенных по закону Пуассона, также распределена по закону Пуассона. 1 2

Вычисление интегралов предлагаем провести читателю самостоятельно. В данном конкретном случае D(Y) проще найти по основной формуле (5.58):

D (Y ) =



/2 Љ / 2

(2  3sin x  2)

2

1 2

cos x dx =

210

9

2

/2 Љ / 2

2

sin x cos x dx = 3.

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Рассмотрим композицию законов распределения двух непрерывных случайных величин. Пусть плотности вероятностей случайных величин Х и Y равны соответственно 1 ( x ) и 2 ( y ) . Найдем сначала функцию распределения случайной величины Z:

F ( z ) = P ( Z < z ) = P ( X + Y < z ) =   ( x, y ) dx dy,

(5.58)

Dz

где Dz — множество всех точек плоскости Oxy, координаты которых удовлетворяют неравенству x + y < z (рис. 5.17),  ( x, y ) — совместная плотность двумерной случайной величины (Х,Y). Так как Х и Y — независимые случайные величины, то  ( x, y ) = 1 ( x ) 2 ( y ) и формула (5.58) примет вид:

F ( z) = 

=

+ Љ

+ Љ



zЉx Љ

1 ( x) 2 ( y ) dy =

1 ( x) dx 

zЉx Љ

2 ( y ) dy.

Найдем плотность вероятности  ( z ) : +

 ( z ) = F  ( z ) =  1 ( x ) dx Љ

Рис. 5.17

(

)

 2 ( y ) dy ,

zЉx Љ

+

 ( z ) =  1 ( x )  2 ( z Љ x ) dx. Љ

(5.59)

Формулу (5.59) называют формулой композиции двух распределений или формулой свертки, которая в краткой записи имеет вид:

 = 1  2 .  Пример 5.9. Найти закон распределения суммы двух случайных величин, распределенных равномерно на отрезке [0; 1]. Р е ш е н и е. Пусть Z = X +Y, где 1 ( x ) = 1 при 0  x  1 и

2 ( y ) = 1 при 0  y  1.

По формуле (5.49) плотность вероятности 1

1

0

0

 ( z ) =  1  2 ( z Љ x ) dx =  2 ( z Љ x ) dx. Если z < 0, то для 0  x  1 z – x < 0; если z > 2, то для 0  x  1 z – x >1, следовательно, в этих случаях 2 ( z Љ x) = 0 и (z) = 0.

211

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Пусть 0  z  2. Подынтегральная функция 2 ( z Љ x) будет отлична от нуля только для значений x, при которых 0  z Љ x  1 или, что то же самое, при z  1  x  z. Если 0  z  1 , то  ( z ) =



Если 1  z  2 , то  ( z ) =



z 0

1  dx = z.

1 z 1

1  dx = 2 Љ z.

Объединяя все случаи, получим:

0  ( z ) = z 2 Љ z 

 z < 0, z > 2,  0  z  1,

(5.60)

 1  z  2.

Закон распределения (5.60) называется законом распределения Симпсона или законом равнобедренного треугольника (рис. 5.18).

Вычисление  ( z ) можно было провести и иначе: вначале найти

функцию распределения F(z), а затем — ее производную, т.е. ( z ) = F ( z ) . Преимущество такого подхода состоит в возможности использования геометрической интерпретации функции F(z) как площади SD области D — части квадрата (со стороной, равной 1), лежащей левее и ниже прямой y = z – x (рис. 5.19). (z) 1 z

D

0 Рис. 5.18

y=z–x (1 z 2)

z

y=z–x (0 z ) 1

x

Рис. 5.19

Действительно (см. рис. 5.19), при 0  z  1 SD = z2/2 (площадь заштрихованного треугольника со стороной z), а при 1  z  2 SD = 1 – – (2 – z)2/2 (площадь квадрата без площади незаштрихованного треугольника, сторона которого, как нетрудно показать, равна (2 – z). Следовательно,

212

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 z < 0, 0  2  0  z  1, z / 2 F(z) =  2 1 Љ (2 Љ z ) / 2  1  z  2, 1  z > 2  и выражение (5.60) для ( z ) получается дифференцированием F( z ). 

Композиция нормальных законов распределения также имеет нормальное распределение. Так, если Х и Y — независимые нормально распре-

(

)

(

)

деленные случайные величины, т.е.  ~ N ax , 2x , Y ~ N a y , 2y , то случайная величина Z = X +Y также нормально распределена: Z ~ N (ax + a y , 2x +2y ) . Верно и обратное утверждение. Если сумма двух независимых случайных величин Z = X + Y распределена нормально, то каждая из величин X, Y сама распределена нормально. В случае, если нормально распределенные случайные величины X и Y зависимы (коэффициент корреляции   0), то случайная величина Z = X + Y по-прежнему нормально распределена с параметрами az = ax + ay,  2z = 2x +  2y + 2 x  y .

Упражнения 5.10. Закон распределения двумерной дискретной случайной величины (X,Y) задан в табл. 5.4. Таблица 5.4 yj xi –1 0 1

0

1

2

3

0,02 0,04 0,05

0,03 0,20 0,10

0,09 0,16 0,15

0,01 0,10 0,05

Найти: а) законы распределения одномерных случайных величин X и Y; б) условные законы распределения случайной величины Х при условии Y = 2 и случайной величины Y при условии Х = 1; в) вероятность P(Y > X). 5.11. Рассматривается двумерная случайная величина (X, Y), где Х — поставка сырья, Y — поступление требования на него. Известно, что поступление сырья и поступление требования на него могут произойти в любой день месяца (30 дней) с равной вероятностью.

213

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Определить: а) выражение совместной плотности и функции распределения двумерной случайной величины (X,Y); б) плотности вероятности и функции распределения одномерных составляющих X и Y; в) зависимы или независимы X и Y; г) вероятности того, что поставка сырья произойдет до и после поступления требования. 5.12. Двумерная случайная величина (X,Y) распределена равномерно внутри квадрата R с центром в начале координат. Стороны квадрата равны 2 и составляют углы 45° с осями координат. Определить: а) выражение совместной плотности двумерной случайной величины (Х,Y); б) плотности вероятности одномерных составляющих X и Y; в) их условные плотности; г) зависимы или независимы X и Y. 5.13. Даны плотности вероятности независимых составляющих двумерной случайной величины (X,Y):

 x < 0, 0 1 ( x ) =  –5 x  x > 0; 5e

 y < 0, 0 2 ( y ) =  –2 y  2e  y > 0.

Найти выражение совместной плотности и функции распределения двумерной случайной величины. В примерах 5.14—5.16 определить: а) ковариацию и коэффициент корреляции случайных величин Х и Y; б) коррелированы или некоррелированы эти случайные величины. 5.14. Использовать данные примера 5.10. 5.15. Использовать данные примера 5.11. 5.16. Использовать данные примера 5.12. 5.17. Случайная величина Х распределена на всей числовой оси с плотностью вероятности  ( x ) = 0,5e  x . Найти плотность вероят-

ности случайной величины Y = X 2 и ее математическое ожидание. 5.18. Найти закон распределения суммы двух независимых случайных величин, каждая из которых распределена по стандартному нормальному закону, т.е. N(0;1). 5.19. Двумерная случайная величина определяется следующим образом. Если при подбрасывании игральной кости выпадает четное число очков, то X = 1, в противном случае X = 0; Y = 1, когда число очков кратно трем, в противном случае Y = 0. Найти: а) законы распределения двумерной случайной величины (X, Y) и ее одномерных составляющих; б) условные законы распределения X и Y. 5.20. Двумерная случайная величина (X, Y) распределена с постоянной совместной плотностью внутри квадрата OABC, где О(0;0), А(0;1), В(1;1), С(1;0). Найти выражение совместной плотности и функции распределения двумерной случайной величины (X, Y). 5.21. Поверхность распределения двумерной случайной величины (X, Y) представляет прямой круговой конус, основанием которого служит круг с центром в начале координат и с радиусом 1. Вне

214

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

этого круга совместная плотность двумерной случайной величины (X, Y) равна нулю. Найти выражения совместной плотности (x, y), плотностей вероятностей одномерных составляющих 1(x), 2(y), условных плотностей x(y), y(x). Выяснить, являются ли случайные величины X и Y: зависимыми, коррелированными. 5.22. Двумерная случайная величина (X, Y) распределена по закону

( x, y ) =

A . 1 + x + x2 y 2 + y 2 2

Найти: а) коэффициент А; б) вероятность попадания случайной величины (X, Y) в пределы квадрата, центр которого совпадает с началом координат, а стороны параллельны осям координат и имеют длину 2. Установить, являются ли величины X и Y зависимыми; найти 1(x), 2(y). 5.23. Совместная плотность двумерной случайной величины (X, Y) имеет вид

C ( x 2 + xy + y 2 )  0  x  1, 0  y  1, ( x, y ) =       . 0

Найти: а) постоянную C; б) плотности вероятности одномерных составляющих; в) их условные плотности; г) числовые характеристики ax, ay, D(X), D(Y), . 5.24. Найти совместную плотность двумерной случайной величины (X, Y) и вероятность ее попадания в область D — прямоугольник, ограниченный прямыми x = 1, x = 2, y = 3, y = 5, если известна ее функция распределения (X, Y):

1 Љ 2 x Љ 2 y + 2 x  y  x  0, y  0, F ( x, y ) =   x < 0  y < 0. 0

5.25. Задана совместная плотность двумерной случайной вели20 . Найти функцию распречины (X, Y): ( x, y ) = 2  (16 + x 2 )(25 + y 2 )

деления F(x, y). 5.26. Имеются независимые случайные величины X, Y. Случайная величина X распределена по нормальному закону с параметрами 2 ax = 0,  x = 1/2. Случайная величина Y распределена равномерно на интервале (0;1). Найти выражения совместной плотности и функции распределения двумерной случайной величины (X, Y). 5.27. Совместная плотность двумерной случайной величины (X, Y) задана формулой 1

( x, y ) =

1  1,28[( x  2)2 1,2( x  2)( y + 3) + ( y + 3)2 ] e 1,6

2 Найти ax, ay,  x , 2y , .

215

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

5.28. Независимые случайные величины X, Y распределены по нормальным законам с параметрами ax = 2, ay = –3, 2x = 1 ,  2y = 4 . Найти вероятности событий: а) (X < ax) (Y < ay); б) Y < X – 5; в) (|X | < 1)(|Y | < 2). 5.29. Задана плотность вероятности (x) случайной величины X, принимающей только положительные значения. Найти плотность x вероятности случайной величины Y, если: а) Y = e ; б) Y = ln X; в) Y = X 3; г) Y = 1/X 2; д) Y = X . 5.30. Случайная величина X равномерно распределена в интервале ( Љ / 2 ; /2). Найти плотность вероятности случайной величины Y = sin X. 5.31. Случайная величина распределена по закону Релея с плотностью вероятности

 xe x / 2  x > 0, ( x) =   x < 0. 0 2

2

Найти закон распределения случайной величины Y = e  X . 5.32. Случайная величина X распределена по закону Коши с плотностью вероятности

( x) =

1 (1 + x 2 )

(Љ < x < +) .

Найти плотность вероятности обратной величины Y = 1/X. 5.33. Дискретная случайная величина X имеет ряд распределения xi

–1

0

1

2

pi

0,2

0,1

0,3

0,4

Найти математическое ожидание и дисперсию случайной величины Y = 2X. 5.34. Имеются две случайные величины X и Y, связанные соотношением Y = 2 – 3X. Числовые характеристики случайной величины X заданы ax = –1; D(X) = 4. Найти: а) математическое ожидание и дисперсию случайной величины Y; б) ковариацию и коэффициент корреляции случайных величин X и Y. 5.35. Случайная величина X задана плотностью вероятности ( x) = cos x в интервале (0, /2); вне этого интервала (x) = 0. Найти математическое ожидание случайной величины Y = X 2 . 5.36. Случайная величина X распределена с постоянной плотностью вероятности в интервале (1;2) и нулевой плотностью вне этого

216

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

интервала. Найти математическое ожидание и дисперсию случайной величины Y =

1 . X

5.37. Непрерывная случайная величина X распределена в интервале (0;1) по закону с плотностью вероятности

 2 x  x  [0;1], ( x) =  0  x  [0;1].

Найти математическое ожидание и дисперсию случайной величины Y = X 2 . 5.38. Непрерывная случайная величина распределена по показательному закону с параметром  = 2. Найти математическое ожидание и дисперсию случайной величины Y = е –X . 5.39. Случайная величина X распределена по нормальному закону с параметрами a = 0, 2 = 5. Найти математическое ожидание случайной величины Y = 1 – 3X 2 + 4X 3 . 5.40. Имеются две независимые случайные величины X и Y. Величина X распределена по нормальному закону с параметрами ax = 1,  2x = 4 . Величина Y распределена равномерно в интервале

(0;2). Найти: а) M(X – Y), D(X – Y); б) M(X 2), M(Y 2). 5.41. Даны плотности вероятности независимых равномерно распределенных случайных величин X и Y: 1(x) = 0,5 в интервале (0;2), вне этого интервала 1(x) = 0; 2(y) = 0,5 в интервале (0;2), вне этого интервала 2(y) = 0. Найти функцию распределения и плотность вероятности случайной величины Z = X + Y. 5.42. Независимые нормально распределенные случайные величины X и Y заданы плотностями вероятности 1(x) =

2(y) =

1 2

e



y2 2

1 2

e



x2 2

,

. Найти композицию этих законов, т.е. плотность

вероятности случайной величины Z = X + Y, и числовые характеристики az и 2z .

217

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

6

Закон больших чисел и предельные теоремы

Под законом больших чисел в ш и р о к о м смысле понимается общий принцип, согласно которому, по формулировке академика А.Н. Колмогорова, совокупное действие большого числа случайных факторов приводит (при некоторых весьма общих условиях) к результату, почти не зависящему от случая. Другими словами, при большом числе случайных величин их средний результат перестает быть случайным и может быть предсказан с большой степенью определенности. Под законом больших чисел в у з к о м смысле понимается ряд математических теорем, в каждой из которых для тех или иных условий устанавливается факт приближения средних характеристик большого числа испытаний к некоторым определенным постоянным. Прежде чем перейти к этим теоремам, рассмотрим неравенства Маркова и Чебышева.

6.1. Неравенство Маркова (лемма Чебышева) Теорема. Если случайная величина Х принимает только неотрицательные значения и имеет математическое ожидание, то для любого положительного числа А верно неравенство

P ( x > A) 

M (X ) A

.

(6.1)

 Доказательство проведем для дискретной случайной величины X. Расположим ее значения в порядке возрастания, из которых часть значений х1, х2, …, хk будут не более числа А, а другая часть — хk+1, …, xn будут больше А, т.е.

x1  A, x2  A, ..., xk  A; xk +1 > A, ..., xn > A (рис. 6.1).

x1

x2

...

xk

А

xk+1

...

xn

x

Рис. 6.1

Запишем выражение для математического ожидания M(X): x1p1 + x2p2 +…+ xkpk + xk+1pk+1 +…+ xnpn = M(X), где p1, p2, …, pn — вероятности того, что случайная величина Х примет значения соответственно х1, х2, …, хn.

218

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Отбрасывая первые k неотрицательных слагаемых (напомним, что все xi  0 ), получим (6.2) xk+1pk+1+…+xnpn  M(X). Заменяя в неравенстве (6.2) значения xk+1, …, xn м е н ь ш и м числом А, получим более сильное неравенство A(pk+1+…+pn)  M(X) или pk +1 + ... + pn 

M (X ) A

.

Сумма вероятностей в левой части полученного неравенства представляет собой сумму вероятностей событий X = xk+1, …, X = xn, т.е. вероятность события X > A. Поэтому P (X >A) 

M (X ) A

.

Так как события X > A и X  A противоположные, то, заменяя P(X >A) выражением 1–P ( X  A ) , придем к другой форме неравенства Маркова:

P ( X  A)  1 Љ

M (X ) A

.

(6.3)

Неравенство Маркова применимо к л ю б ы м н е о т р и ц а т е л ь н ы м случайным величинам.  Пример 6.1. Среднее количество вызовов, поступающих на коммутатор завода в течение часа, равно 300. Оценить вероятность того, что в течение следующего часа число вызовов на коммутатор: а) превысит 400; б) будет не более 500. Р е ш е н и е. а) По условию М(Х) = 300. По формуле (6.1)

P ( X > 400 ) 

300 , т.е. вероятность того, что число вызовов превы400

сит 400, будет н е

более

0,75.

б) По формуле (6.3) P ( X  500 )  1 Љ

300 = 0, 4, т.е. вероятность то500

го, что число вызовов не более 500, будет н е м е н е е 0,4.   Пример 6.2. Сумма всех вкладов в отделение банка составляет 2 млн руб., а вероятность того, что случайно взятый вклад не превысит 10 тыс. руб., равна 0,6. Что можно сказать о числе вкладчиков? Р е ш е н и е. Пусть X — размер случайно взятого вклада, а n — число всех вкладов. Тогда из условия задачи следует, что средний раз-

2000 (тыс. руб.). Согласно неравенству Маркова n M (X ) 2000 или P ( X  10 )  1 Љ . (6.3): P ( X  10 )  1 Љ 10 10n

мер вклада M(X)=

219

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Учитывая, что P ( X  10 ) = 0,6 , получим 1  n  500, т.е. число вкладчиков н е

более

200  0, 6 , откуда n

500. 

6.2. Неравенство Чебышева Теорема. Для любой случайной величины, имеющей математическое ожидание и дисперсию, справедливо неравенство Чебышева:

P( X Љ a >  ) 

D( X ) 2

,

(6.4)

где a = M(X),  > 0.  Применим неравенство Маркова в форме (6.1) к случайной величине X = (X – a)2, взяв в качестве положительного числа A = 2 . Получим 2 P ( X  a ) >  2    

Так

как

неравенство

M ( X  a)

2

.

2

2 (X – a)2 > 

равносильно

(6.5) неравенству

X Љ a >  , a M ( X  a ) есть дисперсия случайной величины X, то из 2

неравенства (6.5) получаем доказываемое неравенство (6.4).  Учитывая, что события X Љ a >  и X Љ a   противоположны, неравенство Чебышева можно записать и в другой форме:

P( X Љ a

 )  1 Љ

D( X ) 2

.

(6.6)

Неравенство Чебышева применимо для л ю б ы х случайных величин. В форме (6.4) оно устанавливает в е р х н ю ю границу, а в форме (6.6) — н и ж н ю ю границу вероятности рассматриваемого события. Запишем неравенство Чебышева в форме (6.6) для некоторых случайных величин: а) для случайной величины X = m, имеющей биномиальный закон распределения с математическим ожиданием a = M(X) = np и дисперсией D(X) = npq (см. § 4.1):

P ( m Љ np   )  1 Љ б) для частости

npq ; 2

(6.7)

m события в n независимых испытаниях, в кажn

дом из которых оно может произойти с одной и той же вероятно-

 m  pq m :  = p , и имеющей дисперсию D   = n n n

стью a = M 

220

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

m  pq P Љ p   1Љ 2 . n n

(6.8)

 Пример 6.3. Средний расход воды на животноводческой ферме составляет 1000 л в день, а среднее квадратичное отклонение этой случайной величины не превышает 200 л. Оценить вероятность того, что расход воды на ферме в любой выбранный день не превзойдет 2000 л, используя: а) неравенство Маркова; б) неравенство Чебышева. Р е ш е н и е. а) Пусть X — расход воды на животноводческой ферме (л). По условию М(Х) = 1000. Используя неравенство Маркова (6.3), получим P ( X  2000 )  1 Љ чем 0,5. б) Дисперсия

1000 = 0,5, т.е. н е 2000

менее

D ( X ) = 2  2002. Так как границы интервала

0  X  2000 симметричны относительно математического ожидания М(Х) = 1000, то для оценки вероятности искомого события можно применить неравенство Чебышева1 (6.6): P ( X  2000 ) = P ( 0  X  2000 ) = = P ( X  1000  1000 )  1 

2002 = 0,96, 10002

т.е. н е м е н е е чем 0,96. В данной задаче оценку вероятности события, найденную с помощью неравенства Маркова ( P  0,5 ) , удалось уточнить с помощью неравенства Чебышева ( P  0,96 ) .   Пример 6.4. Вероятность выхода с автомата стандартной детали равна 0,96. Оценить с помощью неравенства Чебышева вероятность того, что число бракованных среди 2000 деталей находится в границах от 60 до 100 (включительно). Уточнить вероятность того же события с помощью интегральной теоремы Муавра—Лапласа. Объяснить различие полученных результатов. Р е ш е н и е. По условию вероятность того, что деталь бракованная, равна p = 1 – 0,96 = 0,04. Число бракованных деталей Х = m имеет биномиальный закон распределения, а его границы 60 и 100 симметричны относительно математического ожидания a = M(X) = = np = 2000Ѓ0,04 = 80. Следовательно, оценку вероятности искомого события 1 Берем в качестве дисперсии D(X) ее максимальное значение, равное 2002, что позволяет найти оценку вероятности искомого события для любых значений D(X)  2002.

221

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

P ( 60  m  100 ) = P ( Љ20  m Љ 80  20 ) = P ( m Љ 80  20 ) можно найти по формуле (6.6):

P ( m Љ 80  20 )  1 Љ

2000  0,04  0,96 76,8 =1Љ = 0,808, 2 20 400

т.е. н е м е н е е чем 0,808. Применяя следствие (2.13) интегральной теоремы Муавра— Лапласа, получим

 20  P ( m Љ 80  20 )    =  ( 2, 28) = 0,979,  76,8 

т.е. вероятность искомого события приближенно р а в н а 0,979. Полученный результат P  0,979 не противоречит оценке, найденной с помощью неравенства Чебышева — P  0,808 . Различие результатов объясняется тем, что неравенство Чебышева дает лишь нижнюю границу оценки вероятности искомого события для л ю бой случайной величины, а интегральная теорема Муавра— Лапласа дает достаточно точное значение самой вероятности P (тем точнее, чем больше n), так как она применима лишь для случайной величины, имеющей о п р е д е л е н н ы й, а именно — биномиальный закон распределения.   Пример 6.5. Оценить вероятность того, что отклонение любой случайной величины от ее математического ожидания будет не более трех средних квадратических отклонений (по абсолютной величине) — (правило трех сигм). Р е ш е н и е. По формуле (6.6), учитывая, что D ( X ) = 2 , получим:

P ( X Љ a  3 )  1 Љ

2

( 3 )

2

=

8 = 0,889, 9

т.е. н е м е н е е чем 0,889. Напомним, что для нормального закона правило трех сигм выполняется с вероятностью P, равной 0,9973, т.е. P = 0,9973. Можно показать, что для равномерного закона распределения P = 1, для показательного — P = 0,9827 и т.д. Таким образом, правило трех сигм (с достаточно большой вероятностью его выполнения) применимо для большинства случайных величин, встречающихся на практике.   Пример 6.6. По данным примера 2.8 с помощью неравенства Чебышева оценить вероятность того, что из 1000 новорожденных доля

222

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

доживших до 50 лет будет отличаться от вероятности этого события не более чем на 0,04 (по абсолютной величине). Р е ш е н и е. Полагая n = 1000, р = 0,87, q = 0,13, по формуле (6.7)

 m  0,87  0,13 P Љ p  0, 04   1 Љ = 0,929, 1000  0,042 n

т.е. н е м е н е е, чем 0,929. (Напомним, что в примере 2.8, б было получено достаточно точное значение вероятности этого события при использовании следствия из интегральной теоремы Муавра— Лапласа, равное 0,9998; различие результатов объясняется так же, как и в примере 6.4.  З а м е ч а н и е. Если математическое ожидание М(Х) > А или дисперсия случайной величины D(Х) >  2 , то правые части неравенств Маркова и Чебышева в форме соответственно (6.3) и (6.6) будут отрицательными, а в форме (6.1) и (6.4) будут больше единицы. Это означает, что применение указанных неравенств в этих случаях приведет к тривиальному результату: вероятность события больше отрицательного числа либо меньше числа, превосходящего единицу. Но такой вывод очевиден и без использования данных неравенств. Естественно, это обстоятельство снижает значение неравенств Маркова и Чебышева при решении практических задач, однако не умаляет их теоретического значения.

6.3. Теорема Чебышева Теорема Чебышева. Если дисперсии n независимых случайных величин X1, X2, …, Xn ограничены одной и той же постоянной, то при неограниченном увеличении числа n средняя арифметическая случайных величин сходится по вероятности к средней арифметической их математических ожиданий a1, a2, …, an, т.е.

или

 X + X 2 + ... + X n a1 + a2 + ... + an  lim P  1 Љ   =1 n  n n

n

X i =1

n

(6.9)

n

i

P

 n 

a i =1

n

i

.

(6.10)

 Вначале докажем формулу (6.9), затем выясним смысл формулировки «сходимость по вероятности». По условию M(X1) = a1, M(X2) = a2, …, M(Xn) = an,

223

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

D( X 1 )  C , D( X 2 )  C , ..., D ( X n )  C , где С — постоянное число. Получим неравенство Чебышева в форме (6.6) для средней арифметической случайных величин, т.е. для

X=

X 1 + X 2 + ... + X n . n

Найдем математическое ожидание М(Х) и оценку дисперсии D(Х):

 X + X 2 + ... + X n  M (X ) = M  1 = n   a + a2 + ... + an 1 ; =  M ( X 1 ) + M ( X 2 ) + ... + M ( X n )  = 1 n n

 X + X 2 + ... + X n  D( X ) = D 1 = n   1 1 nC C = 2  D ( X 1 ) + D ( X 2 ) + ... + D ( X n )   2 C + C + ... + C = 2 = .  n n n n n 

(

)

(Здесь использованы свойства математического ожидания и дисперсии и, в частности, то, что случайные величины X1, X2, …, Xn независимы, а следовательно, дисперсия их суммы равна сумме дисперсий.) Запишем неравенство (6.6) для случайной величины X = (X1 + X2 + …+ Xn) / n:

D( X )  X + X 2 + ... + X n a1 + a2 + ... + an  P 1 Љ   1Љ  n n 2



(6.11)

C , то n D( X ) C n C 1 2 =1 2 , 1 2  n

Так как по доказанному D ( X ) 

и от неравенства (6.11) перейдем к более сильному неравенству:

 X + X 2 + ... + X n a1 + a2 + ... + an  C (6.12) P 1 Љ   1Љ 2  n n n

C стремится к нулю, и полуВ пределе при n   величина n2

чим доказываемую формулу (6.9). 

224

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Выясним теперь смысл формулировки «сходимость по вероятности» и записи ее содержания в виде (6.10). Понятие предела переменной величины

(

X lim X = a  X  a  n   n 

)

означает,

что начиная с некоторого момента ее изменения для любого (даже сколь угодно малого) числа  > 0 будет верно неравенство

X Љ a <  . В круглых скобках выражения (6.9) содержится аналогичное выражение1  n   n    X i  /n Љ   ai / n < ,  i =1   i =1 



  n   /n — случайная величина, а  i   ai  /n — постоянное  i =1   i =1 

где 

n

число. Однако из неравенства (6.9) вовсе не следует, что оно будет выполняться всегда, начиная с некоторого момента изменения

 n   n     i  /n . Так как    i  /n — случайная величина, то возмож i =1   i =1 

но, что в о т д е л ь н ы х случаях неравенство выполняться не будет. Однако с увеличением числа n вероятность неравенства n

 Xi i =1

n

n

Љ

a i =1

n

i

  стремится к 1, т.е. это неравенство будет выпол-

няться в подавляющем числе случаев. Другими словами, при достаточно больших n выполнение рассматриваемого неравенства является событием практически достоверным, а неравенства противоположного смысла — практически невозможным.



  n   /n к  i   ai  /n следует по i =1   i =1 

Таким образом, стремление 

n

нимать не как категорическое утверждение, а как утверждение, верность которого гарантируется с вероятностью, сколь угодно близкой к 1 при n   . Это обстоятельство и отражено в формулировке теоремы «сходится по вероятности» и в записи (6.10) обозначением

P  . n

Подчеркнем с м ы с л теоремы Чебышева. При большом числе n случайных величин X1, Х2, …, Xn практически достоверно, что 1

Записываем его кратко с помощью знаков суммирования.

225

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»



  /n — величина с л у ч а й н а я, как угодно i =1   n  мало отличается от н е с л у ч а й н о й величины   ai  /n, т.е.  i =1  n

 

их средняя X = 

i

практически перестает быть случайной. Следствие. Если независимые случайные величины X1, Х2, …, Xn имеют одинаковые математические ожидания, равные a, а их дисперсии ограничены одной и той же постоянной, то неравенство (6.12) и формулы (6.9), (6.10) примут вид:

или

 X + X 2 + ... + X n  C P 1 Љ a   1Љ 2 , n n

(6.13)

 X + X 2 + ... + X n  lim P  1 Љ a    = 1, n  n 

(6.14)

n

X i =1

n

i

P

 a. n 

(6.15)

 Формулы (6.13)—(6.15) следуют из формул (6.12), (6.9) и (6.10), так как

 X + X 2 + ... + X n  1 M (X ) = M  1  =  M ( X 1 ) + M ( X 2 ) + ... + M ( X n )  = n

n 1 na a  = a + + ... +a = = a.  n n n 

(

)

Теорема Чебышева и ее следствие имеют большое практическое значение. Например, страховой компании необходимо установить размер страхового взноса, который должен уплачивать страхователь; при этом страховая компания обязуется выплатить при наступлении страхового случая определенную страховую сумму. Рассматривая частоту/убытки страхователя при наступлении страхового случая как величину случайную и обладая известной статистикой таких случаев, можно определить среднее число/средние убытки при наступлении страховых случаев, которое на основании теоремы Чебышева с большой степенью уверенности можно считать величиной почти не случайной. Тогда на основании этих данных и предполагаемой страховой суммы определяется размер страхового взноса. Без учета действия закона больших чисел (теоремы Чебышева) возможны существенные убытки страховой компании (при занижении размера

226

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

страхового взноса) либо потеря привлекательности страховых услуг (при завышении размера взноса). Заметим, что разработкой математических методов и моделей, применяемых в страховании, занимается так называемая актуарная (страховая) математика. Другой пример. Если надо измерить некоторую величину, истинное значение которой равно a, проводят n независимых измерений этой величины. Пусть результат каждого измерения — случайная величина Xi (i = 1, 2, …, n). Если при измерениях отсутствуют систематические погрешности (искажающие результат измерения в одну и ту же сторону), то естественно предположить, что M(Xi) = a при любом i. Тогда на основании следствия из теоремы Чебышева сред-



n

 

няя арифметическая результатов n измерений 

i =1

i

  /n сходится по 

вероятности к истинному значению a. Этим обосновывается выбор средней арифметической в качестве меры истинного значения a. Если все измерения проводятся с одинаковой точностью, характеризуемой дисперсией D(Xi) = 2 , то дисперсия их средней

 n   Xi  D i =1  n  

  1  n  1  = 2 D   Xi  = 2  n  i =1  n  

n

1

 D ( X ) = n ( n ) = i =1

i

2

2

2 , n

(6.15)

а ее среднее квадратическое отклонение равно  n . Полученное отношение, известное под названием «правила корня из n», говорит о том, что средний ожидаемый разброс средней n измерений в n раз меньше разброса каждого измерения. Таким образом, увеличивая число измерений, можно как угодно уменьшать влияние случайных погрешностей (но не систематических), т.е. увеличивать точность определения истинного значения а. З а м е ч а н и е. Если измерительный прибор имеет точность  (например,  — половина ширины деления равномерной шкалы прибора, по которой производится отсчет), то указанным выше способом нельзя рассчитывать получить точность измерения величины а бо ґ льшую, чем . Каждое измерение дает результат с неопределенностью  и, очевидно, их средняя арифметическая будет обладать той же неопределенностью . Таким образом, стремиться посредством закона больших чисел получить значение а с большей степенью точности, чем позволяет прибор при отдельном измерении, является заблуждением. Точно так же, как увеличение числа независимых измерений неизвестной величины в соответствии с формулой (6.15) приводит к уменьшению получаемой ошибки, увеличение числа проводимых

227

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(не связанных друг с другом) финансовых операций на рынке при той же доходности приводит к снижению риска1. Это связано с тем, что убытки от одних операций более или менее покрываются прибылью от других операций. Отсюда следует один из принципов работы на финансовом рынке, известный как принцип диверсификации (разнообразия) и вполне согласующийся с народной мудростью: «не клади все яйца в одну корзину».  Пример 6.7. Для определения средней продолжительности горения электроламп в партии из 200 одинаковых ящиков было взято на выборку по одной лампе из каждого ящика. Оценить вероятность того, что средняя продолжительность горения отобранных 200 электроламп отличается от средней продолжительности горения ламп во всей партии не более чем на 5 ч (по абсолютной величине), если известно, что среднее квадратическое отклонение продолжительности горения ламп в каждом ящике меньше 7 ч. Р е ш е н и е. Пусть Xi — продолжительность горения электролампы, взятой из i-го ящика (ч). По условию дисперсия D ( X i ) < 72 = 49. Очевидно, что средняя продолжительность горения отобранных ламп равна (X1 + X2 +…+ X200)/200, а средняя продолжительность горения ламп во всей партии (M(X1) + M(X2) +…+M(X200))/200 = = (a1 + a2 + … + a200)/200. Тогда вероятность искомого события по формуле (6.12):

 X + X 2 + ... + X 200 a1 + a2 + ... + a200  49 P 1 Љ  5  1 Љ  0,9902, 200 200 200 52



т.е. н е

м е н е е чем 0,9902. 

 Пример 6.8. Сколько надо провести измерений данной величины, чтобы с вероятностью не менее 0,95 гарантировать отклонение средней арифметической этих измерений от истинного значения величины не более чем на 1 (по абсолютной величине), если среднее квадратическое отклонение каждого из измерений не превосходит 5? Р е ш е н и е. Пусть Xi — результат i-го измерения (i = 1, 2, …, n); а — истинное значение величины, т.е. M(Xi) = a при любом i. Необходимо найти n, при котором

 X + X 2 + ... + X n  P 1 Љ a  1  0,95. n  В соответствии с неравенством (6.12) данное неравенство будет выполняться, если

1 Напомним (см. § 3.4), что под риском данной финансовой операции здесь понимается дисперсия или среднее квадратическое отклонение ее доходности.

228

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1 и n

25 C 52 = 1   0,95, откуда  0,05 2 2 n n 1 n

25 = 500, т.е. потребуется н е м е н е е 500 измерений.  0,05

6.4. Теорема Бернулли Теорема Бернулли. Частость события в n повторных независимых испытаниях, в каждом из которых оно может произойти с одной и той же вероятностью p, при неограниченном увеличении числа n сходится по вероятности к вероятности p этого события в отдельном испытании:

или

m  lim P  Љ p    = 1 n   n m P   p. n n

(6.16) (6.17)

 Заключение теоремы (6.16) непосредственно вытекает из неравенства Чебышева для частости события (6.8) при n   .  С м ы с л теоремы Бернулли состоит в том, что при большом числе n повторных независимых испытаний практически достоверно, что частость (или статистическая вероятность) события m/n — величина с л у ч а й н а я, как угодно мало отличается от н е с л у ч а й н о й величины p — вероятности события, т.е. практически перестает быть случайной. З а м е ч а н и е. Теорема Бернулли является следствием теоремы Чебышева, ибо частость события можно представить как среднюю арифметическую n независимых альтернативных случайных величин, имеющих один и тот же закон распределения (4.4) (см. § 4.1). Доказательство теоремы (более громоздкое) возможно и без ссылки на теорему (неравенство) Чебышева. Исторически эта теорема была доказана намного раньше более общей теоремы Чебышева. Теорема Бернулли дает теоретическое обоснование замены неизвестной вероятности события его частостью, или статистической вероятностью (см. § 1.3), полученной в n повторных независимых испытаниях, проводимых при одном и том же комплексе условий. Так, например, если вероятность рождения мальчика нам не известна, то в качестве ее значения мы можем принять частость (статистическую вероятность) этого события, которая, как известно по многолетним статистическим данным, составляет приближенно 0,515. Теорема Бернулли является звеном, позволяющим связать формальное аксиоматическое определение вероятности (см. § 1.12) с эмпирическим (опытным) законом постоянства относительной частоты

229

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(см. § 1.3). Теорема дает возможность обосновать широкое применение на практике вероятностных методов исследования. Непосредственным обобщением теоремы Бернулли является теорема Пуассона, когда вероятности события в каждом испытании различны. Теорема Пуассона. Частость события в n повторных независимых испытаниях, в каждом из которых оно может произойти соответственно с вероятностями p1, p2, …, pn, при неограниченном увеличении числа n сходится по вероятности к средней арифметической вероятностей события в отдельных испытаниях, т.е.

или

 m p + p2 + ... + pn  lim P  Љ 1   =1 n  n  n

(6.18)

n

m P  n n

p i =1

i

n

.

(6.19)

 Теорема Пуассона непосредственно вытекает из теоремы Чебышева, если в качестве случайных величин X1, X2, …, Xn рассматривать альтернативные случайные величины, имеющие законы распределения вида (4.4) с параметрами p1, p2, …, pn. Так как математические ожидания случайных величин X1, X2, …, Xn равны соответственно p1, p2, …, pn, а их дисперсии p1q1, p2q2, …, pnqn (см. § 4.1) ограничены одним числом1, то формула (6.18) непосредственно вытекает из формулы (6.9).  Важная роль закона больших чисел в теоретическом обосновании методов математической статистики и ее приложений обусловила проведение ряда исследований, направленных на изучение о б щ и х у с л о в и й применимости этого закона к последовательности случайных величин. Так, в теореме Маркова доказана справедливость предельного равенства (6.15) для з а в и с и м ы х случайных величин Xi (i = 1, 2, …, n) при условии

1  n  D  Xi  = 0 . 2 n  n  i =1 

lim

Например, температура воздуха в некоторой местности Xi (i = 1, 2, …, 365) каждый день года — величины случайные, подверженные существенным колебаниям в течение года, причем зависимые, ибо на погоду каждого дня, очевидно, заметно влияет погода предыдущих

 365

X 

дней. Однако среднегодовая температура 

1

Легко показать, что для любого i имеем

i =1

i

  /365 почти не меня

pi qi = pi (1  pi ) =  pi2 + pi =  ( pi  0,5 ) + 0,25  0, 25. 2

230

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ется для данной местности в течение многих лет, являясь практически неслучайной, предопределенной. Нахождение общих условий, выполнение которых обязательно влечет за собой статистическую устойчивость средних, представляет непреходящую научную ценность исследований в области закона больших чисел. Помимо различных форм закона больших чисел в теории вероятностей имеются еще разные формы так называемого «усиленного закона больших чисел», где показывается не «сходимость по вероятности», а «сходимость с вероятностью 1» различных средних случайных величин к неслучайным средним. Однако этот усиленный закон представляет больше интерес в теоретических исследованиях и не столь важен для его приложений в экономике.

6.5. Центральная предельная теорема Рассмотренный выше закон больших чисел устанавливает факт приближения средней большого числа случайных величин к о п р е д е л е н н ы м п о с т о я н н ы м. Но этим не ограничиваются закономерности, возникающие в результате суммарного действия случайных величин. Оказывается, что при некоторых весьма общих условиях совокупное действие большого числа случайных величин приводит к о п р е д е л е н н о м у, а именно — к н о р м а л ь н о м у з а к о н у р а с п р е д е л е н и я. Центральная предельная теорема представляет собой группу теорем, посвященных установлению условий, при которых возникает нормальный закон распределения. Среди этих теорем важнейшее место принадлежит теореме Ляпунова. Теорема Ляпунова. Если Х1, Х2, …, Xn — независимые случайные величины, у каждой из которых существует математическое ожидание M(Xi) = a, дисперсия D(Xi) = 2 , абсолютный центральный момент третьего порядка M

( X a )=m 3

i

i

i

и

n

lim

n 

m i =1

i

 n 2   i   i =1 

3/ 2

= 0,

(6.20)

то закон распределения суммы Yn = X1 + X2 +…+Xn при n   неограниченно приближается к нормальному с математическим ожиданием

n

a i =1

i

и дисперсией

n

 i=1

2 i

.

Теорему принимаем без доказательства.

231

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Неограниченное приближение закона распределения суммы n

Yn =  X i к нормальному закону при n   в соответствии со i =1

свойствами нормального закона означает, что

  n  Yn Љ  ai  z 2 1 1 1   i =1 lim P   z = e t / 2 dt = +  ( z ) , n n  2 2 2    i 2    i =1  где  ( z ) — функция Лапласа (2.11).



(6.21)

Смысл условия (6.20) состоит в том, чтобы в сумме Yn =

n

X i =1

i

не было слагаемых, влияние которых на рассеяние Yn подавляюще велико по сравнению с влиянием всех остальных, а также не должно быть большого числа случайных слагаемых, влияние которых очень мало по сравнению с суммарным влиянием остальных. Таким образом, удельный вес каждого отдельного слагаемого должен стремиться к нулю при увеличении числа слагаемых. Так, например, потребление электроэнергии для бытовых нужд за месяц в каждой квартире многоквартирного дома можно представить в виде n различных случайных величин. Если потребление электроэнергии в каждой квартире по своему значению резко не выделяется среди остальных, то на основании теоремы Ляпунова можно считать, что потребление электроэнергии всего дома, т.е. сумма n независимых случайных величин будет случайной величиной, имеющей приближенно нормальный закон распределения. Если, например, в одном из помещений дома разместится вычислительный центр, у которого уровень потребления электроэнергии несравнимо выше, чем в каждой квартире для бытовых нужд, то вывод о приближенно нормальном распределении потребления электроэнергии всего дома будет неправомерен, так как нарушено условие (6.20), ибо потребление электроэнергии вычислительного центра будет играть превалирующую роль в образовании всей суммы потребления. Другой пример. При устойчивом и отлаженном режиме работы станков, однородности обрабатываемого материала и т.д. варьирование качества продукции принимает форму нормального закона распределения в силу того, что производственная погрешность представляет собой результат суммарного действия большого числа случайных величин: погрешности станка, инструмента, рабочего и т.д. Следствие. Если X1, X2, …, Xn — независимые случайные величины, у которых существуют равные математические ожидания M(Xi) = a,

232

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

дисперсии D(Xi) = 2 и абсолютные центральные моменты третьего порядка M

( X Љa )=m 3

i

i

i

(i = 1, 2, …, n), то закон распределения

суммы Yn = X1 + X2 +…+ Xn при n   неограниченно приближается к нормальному закону.  Доказательство сводится к проверке условия (6.20): n

lim

n 

n

m i =1

 2   i   i =1  n

3/ 2

=lim

n 

m i =1

 2    i =1  n

3/ 2

=lim

n 

mn

( n ) 2

3/ 2

=lim

n 

m 

3

n

= 0;

следовательно, имеет место и равенство (6.21).  В частности, если все случайные величины Xi одинаково распределены, то закон распределения их суммы неограниченно приближается к нормальному закону при n  . Проиллюстрируем это утверждение на примере суммирования независимых случайных величин, имеющих равномерное распределение на интервале (0, 1). Кривая распределения одной такой случайной величины показана на рис. 6.2, а. На рис. 6.2, б показана плотность вероятности суммы двух таких случайных величин (см. пример 5.9), а на рис. 6.2, в — плотность вероятности суммы трех таких случайных величин (ее график состоит из трех отрезков парабол на интервалах (0, 1), (1, 2) и (2, 3) и по виду уже напоминает нормальную кривую). Если сложить шесть таких случайных величин, то получится случайная величина с плотностью вероятности, практически не отличающейся от нормальной. Теперь у нас имеется возможность д о к а з а т ь локальную и интегральную теоремы Муавра—Лапласа (см. § 2.3). Рассмотрим случайную величину Z =

m  np npq

, где Х = m — чис-

ло появлений события в n независимых испытаниях, в каждом из которых оно может появиться с одной и той же вероятностью р, т.е. Х = m — случайная величина, имеющая биномиальный закон распределения, для которого математическое ожидание M(X) = np и дисперсия D(X) = npq. Случайная величина Z, так же как случайная величина X, вообще говоря, дискретна, но при большом числе n испытаний ее значения расположены на оси абсцисс так тесно, что ее можно рассматривать как непрерывную с плотностью вероятности  ( z ) .

233

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

( x) 1 a)

0

1

x

( x) 1 б)

0

1

2

x

( x) 3/4

0

в)

1

2

1,5

3

x

Рис. 6.2

Найдем числовые характеристики случайной величины Z, используя свойства математического ожидания и дисперсии:

a = M ( Z ) = ( M ( X )  np )

D ( Z ) = ( D ( X )  0)

npq = ( np  np )

(

npq

)

2

npq = 0,

= npq npq = 1.

В силу того, что случайная величина Х представляет собой сумму независимых альтернативных случайных величин (см. § 4.1), случайная величина Z представляет также сумму независимых, одинаково распределенных случайных величин и, следовательно, на основании центральной предельной теоремы при большом числе n имеет распределение, близкое к нормальному закону с параметрами a = 0, 2 = 1 . Используя свойство (4.32) нормального закона, с учетом равенств (4.33) получим

234

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1  ( z2 ) Љ  ( z1 )  . 2 b  np

P ( z1  Z  z2 )  Полагая z1 =

a  np npq

, z2 =

(6.22)

, с учетом того, что Z =

npq

m  np npq

,

получаем, что двойное неравенство в скобках равносильно неравенству a  m  b . В результате из формулы (6.22) получим интегральную формулу Муавра—Лапласа (2.10):

P ( a  m  b) 

1  ( z2 ) Љ  ( z1 )  . 2

(6.23)

Вероятность Pm,n того, что событие А произойдет m раз в n независимых испытаниях, можно приближенно записать в виде:

Pm, n  Pn ( m  X  m + m ) .

Чем меньше m, тем точнее приближенное равенство. Минимальное (целое) m = 1. Поэтому, учитывая формулы (6.23) и (6.22), можно записать:

1  ( z2 ) Љ  ( z1 )  = P ( z1  Z  z2 ) , 2 ( m + 1)  np . m  np где z1 = , z2 = npq npq При малых z имеем Pm, n 

(6.24)

P ( z + z )   ( z ) z ,

(6.25)

где (z) — плотность стандартной нормально распределенной случайной величины с параметрами a = 0, 2 = 1, т.е.

1

( z ) = Полагая

z1 = z,

e z / 2 . 2

2 ( m + 1)  np

z = z2  z1 =

npq

(6.26)



m  np npq

=

1 npq

,

из

формулы (6.25) c учетом равенства (6.24) получим локальную формулу Муавра—Лапласа (2.7):

Pm, n 

1

npq

( z ).

(6.27)

З а м е ч а н и е. Необходимо соблюдать известную осторожность, применяя центральную предельную теорему в статистических исследованиях. Так, если сумма

n

X t =1

235

i

при n   всегда имеет

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

нормальный закон распределения, то с к о р о с т ь сходимости к нему существенно зависит от типа распределения ее слагаемых. Так, например, как отмечено выше, при суммировании равномерно распределенных случайных величин уже при 6—10 слагаемых можно добиться достаточной близости к нормальному закону, в то время как для достижения той же близости при суммировании 2-распределенных случайных слагаемых понадобится более 100 слагаемых. Опираясь на центральную предельную теорему, можно утверждать, что рассмотренные в гл. 4 случайные величины, имеющие законы распределения — биномиальный, Пуассона, гипергеометрический,  2 («хи-квадрат»), t (Стьюдента), при n   распределены асимптотически нормально.

Упражнения 6.9. Среднее изменение курса акции компании в течение одних биржевых торгов составляет 0,3%. Оценить вероятность того, что на ближайших торгах курс изменится более чем на 3%. 6.10. Отделение банка обслуживает в среднем 100 клиентов в день. Оценить вероятность того, что сегодня в отделении банка будет обслужено: а) не более 200 клиентов; б) более 150 клиентов. 6.11. Электростанция обслуживает сеть на 1600 электроламп, вероятность включения каждой из которых вечером равна 0,9. Оценить с помощью неравенства Чебышева вероятность того, что число ламп, включенных в сеть вечером, отличается от своего математического ожидания не более чем на 100 (по абсолютной величине). Найти вероятность того же события, используя следствие из интегральной теоремы Муавра—Лапласа. 6.12. Вероятность того, что акции, переданные на депозит, будут востребованы, равна 0,08. Оценить с помощью неравенства Чебышева вероятность того, что среди 1000 клиентов от 70 до 90 востребуют свои акции. 6.13. Среднее значение длины детали 50 см, а дисперсия — 0,1. Используя неравенство Чебышева, оценить вероятность того, что случайно взятая деталь окажется по длине не менее 49,5 и не более 50,5 см. Уточнить вероятность того же события, если известно, что длина случайно взятой детали имеет нормальный закон распределения. 6.14. Оценить вероятность того, что отклонение любой случайной величины от ее математического ожидания будет не более двух средних квадратических отклонений (по абсолютной величине). 6.15. В течение времени t эксплуатируются 500 приборов. Каждый прибор имеет надежность 0,98 и выходит из строя независимо от других. Оценить с помощью неравенства Чебышева вероятность

236

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

того, что доля надежных приборов отличается от 0,98 не более чем на 0,1 (по абсолютной величине). 6.16. Вероятность сдачи в срок всех экзаменов студентом факультета равна 0,7. С помощью неравенства Чебышева оценить вероятность того, что доля сдавших в срок все экзамены из 2000 студентов заключена в границах от 0,66 до 0,74. 6.17. Бензоколонка N заправляет легковые и грузовые автомобили. Вероятность того, что проезжающий легковой автомобиль подъедет на заправку, равна 0,3. С помощью неравенства Чебышева найти границы, в которых с вероятностью, не меньшей 0,79, находится доля заправившихся в течение 2 ч легковых автомобилей, если за это время всего заправилось 100 автомобилей. 6.18. В среднем 10% работоспособного населения некоторого региона — безработные. Оценить с помощью неравенства Чебышева вероятность того, что уровень безработицы среди обследованных 10 000 работоспособных жителей города будет в пределах от 9 до 11% (включительно). 6.19. Выход цыплят в инкубаторе составляет в среднем 70% числа заложенных яиц. Сколько нужно заложить яиц, чтобы с вероятностью, не меньшей 0,95, ожидать, что отклонение числа вылупившихся цыплят от математического ожидания их не превышало 50 (по абсолютной величине)? Решить задачу с помощью: а) неравенства Чебышева; б) интегральной теоремы Муавра—Лапласа. 6.20. Опыт работы страховой компании показывает, что страховой случай приходится примерно на каждый пятый договор. Оценить с помощью неравенства Чебышева необходимое количество договоров, которые следует заключить, чтобы с вероятностью 0,9 можно было утверждать, что доля страховых случаев отклонится от 0,1 не более чем на 0,01 (по абсолютной величине). Уточнить ответ с помощью следствия из интегральной теоремы Муавра— Лапласа. 6.21. В целях контроля из партии в 100 ящиков взяли по одной детали из каждого ящика и измерили их длину. Требуется оценить вероятность того, что вычисленная по данным выборки средняя длина детали отличается от средней длины детали во всей партии не более чем на 0,3 мм, если известно, что среднее квадратическое отклонение не превышает 0,8 мм. 6.22. Сколько нужно произвести измерений, чтобы с вероятностью, равной 0,9973, утверждать, что погрешность средней арифметической результатов этих измерений не превысит 0,01, если измерение характеризуется средним квадратическим отклонением, равным 0,03?

237

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

7

Элементы теории случайных процессов и теории массового обслуживания

Теория случайных процессов (случайных функций) — это раздел математической науки, изучающий закономерности случайных явлений в д и н а м и к е их развития.

7.1. пределение случайного процесса и его характеристики Понятие случайного процесса является обобщением понятия случайной величины, рассмотренной в гл. 3. О п р е д е л е н и е. Случайным процессом Х(t) называется процесс, значение которого при любом значении аргумента t является случайной величиной. Другими словами, случайный процесс представляет собой функцию, которая в результате испытания может принять тот или иной конкретный вид, неизвестный заранее. При фиксированном t = t0 X(t0) представляет собой обычную случайную величину, т.е. с е ч е н и е случайного процесса в момент t0. Примеры случайных процессов: 1) численность населения региона с течением времени; 2) число заявок, поступающих в ремонтную службу фирмы, с течением времени. Аналогично тому, как в гл. 3 записана случайная величина в виде функции элементарного события , появляющегося в результате испытания, случайный процесс можно записать в виде функции двух переменных Х(t, ), где   , t  T, X(t, )   и  — элементарное событие,  — пространство элементарных событий, Т — множество значений аргумента t,  — множество возможных значений случайного процесса X(t, ). Реализацией случайного процесса X(t, ) называется неслучайная функция x(t), в которую превращается случайный процесс Х(t) в результате испытания (при фиксированном ), т.е. конкретный вид, принимаемый случайным процессом X(t), его траектория. Таким образом, случайный процесс X(t, ) совмещает в себе черты случайной величины и функции. Если зафиксировать значение аргумента t, случайный процесс превращается в обычную случайную величину, если зафиксировать , то в результате каждого испытания он превращается в обычную неслучайную функцию. В дальнейшем изложении опустим аргумент , но он будет подразумеваться по умолчанию.

238

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

На рис. 7.1 изображено несколько реализаций некоторого случайного процесса. Пусть сечение этого процесса при данном t является непрерывной случайной величиной. Тогда случайный процесс X(t) при данном t определяется плотностью вероятности (x, t). Очевидно, что плотX ность  (x, t) не является исчерпывающим описанием случайного процесса X(t), ибо она не выражает зависимости между его сечениями в разные моменты времени. Случайный процесс 0 t t X(t) представляет собой совокупность всех сечеРис. 7.1 ний при всевозможных значениях t, поэтому для его описания необходимо рассматривать многомерную случайную величину (X(t1), X(t2), …, X(tn)), состоящую из всех сечений этого процесса. В принципе таких сечений бесконечно много, но для описания случайного процесса удается часто обойтись относительно небольшим количеством сечений. Говорят, что случайный процесс имеет порядок n, если он полностью определяется плотностью совместного распределения  (x1, x2, …, xn; t1, t2, …, tn) n произвольных сечений процесса, т.е. плотностью n-мерной случайной величины (X(t1), X(t2), …, X(tn)), где X(ti) — сечение случайного процесса X(t) в момент времени ti, i = 1, 2, …, n. Как и случайная величина, случайный процесс может быть описан числовыми характеристиками. Если для случайной величины эти характеристики являются постоянными числами, то для случайного процесса — неслучайными функциями. Математическим ожиданием случайного процесса X(t) называется неслучайная функция ax(t), которая при любом значении переменной t равна математическому ожиданию соответствующего сечения случайного процесса X(t), т.е. ax(t) = M[X(t)]. Дисперсией случайного процесса X(t) называется неслучайная функция Dx(t), при любом значении переменной t равная дисперсии соответствующего сечения случайного процесса X(t), т.е. Dx(t) = D[X(t)]. Средним квадратическим отклонением x(t) случайного процесса X(t) называется арифметическое значение корня квадратного из его дисперсии, т.е. x (t) = Dx (t ). Математическое ожидание случайного процесса характеризует с р е д н ю ю траекторию всех возможных его реализаций, а его дисперсия или среднее квадратическое отклонение — р а з б р о с реализаций относительно средней траектории.

239

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Введенных выше характеристик случайного процесса оказывается недостаточно, так как они определяются только одномерным законом распределения. На рис. 7.2 и 7.3 изображены два случайных процесса X1(t) и X2(t) с примерно одинаковыми математическими ожиданиями и дисперсиями.

Рис. 7.2

Рис. 7.3

Если для случайного процесса X1(t) (см. рис. 7.2) характерно медленное изменение значений реализаций с изменением t, то для случайного процесса X2(t) (см. рис. 7.3) это изменение происходит значительно быстрее. Другими словами, для случайного процесса X1(t) характерна тесная вероятностная зависимость между двумя его сечениями X1(t1) и X1(t2), в то время как для случайного процесса X2(t) эта зависимость между сечениями X2(t1) и X2(t2) практически отсутствует. Указанная зависимость между сечениями характеризуется корреляционной функцией. О п р е д е л е н и е. Корреляционной функцией случайного процесса X(t) называется неслучайная функция Kx(t1, t2) = M[(X(t1) – ax(t1))(X(t2) – ax(t2))]

(7.1)

двух переменных t1 и t2, которая при каждой паре переменных t1 и t2 равна ковариации соответствующих сечений X(t1) и X(t2) случайного процесса. Очевидно, для случайного процесса X1(t) корреляционная функция

K x 1( t 1, t 2 ) убывает по мере увеличения разности t2 – t1 значительно мед-

леннее, чем K x 2( t 1, t 2 ) для случайного процесса X2(t). Корреляционная функция Kx (t1, t2) характеризует не только степень тесноты линейной зависимости между двумя сечениями, но и разброс этих сечений относительно математического ожидания ax(t). Поэтому рассматривается также нормированная корреляционная функция случайного процесса. Нормированной корреляционной функцией случайного процесса X(t)

240

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

называется функция

 x ( t1 , t2 ) =

K x ( t1 , t2 )

 x ( t1 )  x ( t2 )

.

(7.2)

 Пример 7.1. Случайный процесс определяется формулой X(t) = X cos t, где Х — случайная величина. Найти основные характеристики этого процесса, если M(X) = a, D(X) = 2. Р е ш е н и е. На основании свойств математического ожидания и дисперсии имеем:

ax ( t ) = M ( X cos t ) = cos t  M ( X ) = a cos t ,

Dx ( t ) = D ( X cos t ) = cos 2 t  D ( X ) = 2 cos 2 t.

Корреляционную функцию найдем по формуле (7.1):

K x ( t1 , t2 ) = M ( X cos t1 Љ a cos t1 )( X cos t2 Љ a cos t2 )  = = cos t1cos t2  M ( X Љ a )( X Љ a )  = cos t1cos t2  D ( X ) = = 2 cos t1cos t2 .

Нормированную корреляционную функцию найдем по формуле (7.2):

 x ( t1 , t2 ) =

2 cos t1 cos t2

(  cos t1 )(  cos t2 )

 1. 

Случайные процессы можно классифицировать в зависимости от того, плавно или скачкообразно меняются состояния системы, в которой они протекают, конечно (счетно) или бесконечно множество этих состояний и т.п. Среди случайных процессов особое место принадлежит марковскому случайному процессу.

7.2. Марковские случайные процессы с дискретными состояниями Случайный процесс, протекающий в некоторой системе S с возможными состояниями S1, S2, S3, …, называется марковским, или случайным процессом без последействия, если для любого момента времени t0 вероятностные характеристики процесса в будущем (при t > t0) зависят только от его состояния в данный момент t0 и не зависят от того, когда и как система пришла в это состояние; т.е. не зависят от ее поведения в прошлом (при t < t0). Пример марковского процесса: система S — счетчик в такси. Состояние системы в момент t характеризуется числом километров (десятых долей километров), пройденных автомобилем до данного момента. Пусть в момент t0 счетчик показывает S0. Вероятность того, что в момент t > t0 счетчик покажет то или иное число километров (точнее, соответствующее число рублей) S1, зависит от S0, но не

241

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

зависит от того, в какие моменты времени изменялись показания счетчика до момента t0. Многие процессы можно приближенно считать марковскими. Например, процесс игры в шахматы; система S — группа шахматных фигур. Состояние системы характеризуется числом фигур противника, сохранившихся на доске в момент t0. Вероятность того, что в момент t > t0 материальный перевес будет на стороне одного из противников, зависит в первую очередь от того, в каком состоянии находится система в данный момент t0, а не от того, когда и в какой последовательности исчезли фигуры с доски до момента t0. В ряде случаев предысторией рассматриваемых процессов можно просто пренебречь и применять для их изучения марковские модели. Марковским случайным процессом с дискретными состояниями и дискретным временем (или цепью Маркова) называется марковский процесс, в котором его возможные состояния S1 , S 2 , S3 ,... можно заранее перечислить, а переход из состояния в состояние происходит мгновенно (скачком), но только в определенные моменты времени t0 , t1 , t2 , ..., называемые шагами процесса. Обозначим

pij — вероятность перехода случайного процесса

(системы S) из состояния i в состояние j. Если эти вероятности не зависят от номера шага процесса, то такая цепь Маркова называется однородной. Пусть число состояний системы конечно и равно m. Тогда ее можно характеризовать матрицей перехода P1, которая содержит все вероятности перехода:

 p11 p12  P1 =  p21 p22  ... ...  p  m1 pm 2

... ...

p1m   p2 m  . ... ...   ... pmm 

Естественно, по каждой строке m

p

ij

= 1, i = 1, 2, ..., m.

j =1

Обозначим pij (n) — вероятность того, что в результате n шагов система перейдет из состояния i в состояние j. При этом при i = 1 имеем вероятности перехода, образующие матрицу P1, т.е. pij (1) = pij . Необходимо, зная вероятности перехода pij , найти pij (n) — вероятности перехода системы из состояния i в состояние j за n шагов. С этой целью будем рассматривать промежуточное (между i и j) со-

242

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

стояние r, т.е. будем считать, что из первоначального состояния i за k шагов система перейдет в промежуточное состояние r с вероятностью pir (k ), после чего за оставшиеся n  k шагов из промежуточного состояния r она перейдет в конечное состояние j prj (n  k ). Тогда по формуле полной вероятности

pij (n) =

с вероятностью

m

 p (k ) p (n  k ). ir

(7.3)

rj

r =1

Формула (7.3) называется равенством Маркова. Убедимся в том, что, зная все вероятности перехода pij = pij (1), т.е. матрицу P1 перехода из состояния в состояние за один шаг, можно найти вероятность pij (2), т.е. матрицу P2 перехода из состояния в состояние за два шага. А зная матрицу P2, — найти матрицу P3 перехода из состояния в состояние за три шага, и т.д. Действительно, полагая n = 2 в формуле (7.3), т.е. k = 1 (промежуточное между шагами состояние), получим

pij (2) =

m



pir (1) prj (2  1) =

r =1

m

p

ir

prj .

(7.4)

r =1

Полученное равенство (7.4) означает, что

P2 = P1 P1 = P12 . Полагая n = 3, k = 2, аналогично получим

P3 = P1 P2 = P1  P12 = P13 , а в общем случае

Pn = P1n .  Пример 7.1а. Совокупность семей некоторого региона можно разделить на три группы: 1) семьи, не имеющие автомобиля и не собирающиеся его покупать; 2) семьи, не имеющие автомобиля, но намеревающиеся его приобрести; 3) семьи, имеющие автомобиль. Проведенное статистическое обследование показало, что матрица перехода за интервал в один год имеет вид

 0,8 0,1 0,1    P1 =  0 0,7 0,3  .  0 0 1  

243

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(В матрице P1 элемент p31 = 1 означает вероятность того, что семья, имеющая автомобиль, также будет его иметь, а, например, элемент p23 = 0,3 — вероятность того, что семья, не имевшая автомобиля, но решившая его приобрести, осуществит свое намерение в следующем году, и т.д.). Найти вероятность того, что: а) семья, не имевшая автомобиля и не собиравшаяся его приобрести, будет находиться в такой же ситуации через два года; б) семья, не имевшая автомобиля, но намеревающаяся его приобрести, будет иметь автомобиль через два года. Р е ш е н и е. Найдем матрицу перехода P2 через два года:

 0,8 0,1 0,1  0,8 0,1 0,1   0,64 0,15 0, 21      P2 = P =  0 0, 7 0,3  0 0, 7 0,3  =  0 0, 49 0,51 ,  0 0 1  0 1   0 0 1    0 2 1

т.е. искомые в п. а) и б) вероятности равны соответственно p11 = 0,64, p23 = 0,51.  Далее мы будем рассматривать марковский случайный процесс с дискретными состояниями и непрерывным временем, в котором, в отличие от рассмотренной выше цепи Маркова, моменты возможных переходов системы из состояния не фиксированы заранее, а случайны. При анализе случайных процессов с дискретными состояниями удобно пользоваться геометрической схемой — так называемым графом состояний. Обычно состояния системы изображаются прямоугольниками (кружками), а возможные переходы из состояния в состояние — стрелками (ориентированными дугами), соединяющими состояния.  Пример 7.2. Построить граф состояний следующего случайного процесса: устройство S состоит из двух узлов, каждый из которых в случайный момент времени может выйти из строя, после чего мгновенно начинается ремонт узла, продолжающийся заранее неизвестное случайное время. Р е ш е н и е. Возможные состояния системы: S0 — оба узла исправны; S1 — первый узел ремонтируется, второй исправен; S2 — второй узел ремонтируется, первый исправен; S3 — оба узла ремонтируются. Граф системы приведен на рис. 7.4. Стрелка, направленная, например, из S0 в S1, означает переход системы в момент отказа первого узла, из S1 в S0 — переход в момент окончания ремонта этого узла.

244

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

S0

10

 20  02

 01

S1

S2

13  31

 23

S3

 32

Рис. 7.4

На графе отсутствуют стрелки из S0 в S3 и из S1 в S2. Это объясняется тем, что выходы узлов из строя предполагаются независимыми друг от друга и, например, вероятностями одновременного выхода из строя двух узлов (переход из S0 в S3) или одновременного окончания ремонтов двух узлов (переход из S3 в S0) можно пренебречь. 

7.3. Основные понятия теории массового обслуживания На практике часто приходится сталкиваться с системами, предназначенными для многоразового использования при решении однотипных задач. Возникающие при этом процессы получили название процессов обслуживания, а системы — систем массового обслуживания (СМО). Примерами таких систем являются телефонные системы, ремонтные мастерские, вычислительные комплексы, билетные кассы, магазины, парикмахерские и т.п. Каждая СМО состоит из определенного числа обслуживающих единиц (приборов, устройств, пунктов, станций), которые будем называть каналами обслуживания. Каналами могут быть линии связи, рабочие точки, вычислительные машины, продавцы и др. По числу каналов СМО подразделяют на одноканальные и многоканальные. Заявки поступают в СМО обычно не регулярно, а случайно, образуя так называемый случайный поток заявок (требований). Обслуживание заявок, вообще говоря, также продолжается какое-то случайное время. Случайный характер потока заявок и времени обслуживания приводит к тому, что СМО оказывается загруженной неравномерно: в какие-то периоды времени скапливается очень большое количество заявок (они либо становятся в очередь, либо покидают СМО необслуженными), в другие же периоды СМО работает с недогрузкой или простаивает. Предметом теории массового обслуживания является построение математических моделей, связывающих заданные условия работы

245

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

СМО (число каналов, их производительность, характер потока заявок и т.п.) с показателями эффективности СМО, описывающими ее способность справляться с потоками заявок. В качестве показателей эффективности СМО используются: среднее1 число заявок, обслуживаемых в единицу времени; среднее число заявок в очереди; среднее время ожидания обслуживания; вероятность отказа в обслуживании без ожидания; вероятность того, что число заявок в очереди превысит определенное значение, и т.п. СМО делят на два основных типа (класса): СМО с отказами и СМО с ожиданием (очередью). В СМО с отказами заявка, поступившая в момент, когда все каналы заняты, получает отказ, покидает СМО и в дальнейшем процессе обслуживания не участвует (например, заявка на телефонный разговор в момент, когда все каналы заняты, получает отказ и покидает СМО необслуженной). В СМО с ожиданием заявка, пришедшая в момент, когда все каналы заняты, не уходит, а становится в очередь на обслуживание. СМО с ожиданием подразделяются на разные виды в зависимости от того, как организована очередь: с ограниченной или неограниченной длиной очереди, с ограниченным временем ожидания и т.п. Процесс работы СМО представляет собой случайный процесс с дискретными состояниями и непрерывным временем. Математический анализ работы СМО существенно упрощается, если процесс этой работы — марковский (см. § 7.2). Для математического описания марковского случайного процесса с дискретными состояниями и непрерывным временем, протекающего в СМО, познакомимся с одним из важных понятий теории вероятностей — понятием потока событий.

7.4. Потоки событий Под потоком событий понимается последовательность однородных событий, следующих одно за другим в какие-то случайные моменты времени (например, поток вызовов на телефонной станции, поток отказов ЭВМ, поток покупателей и т.п.). Поток характеризуется интенсивностью  — частотой появления событий или средним числом событий, поступающих в СМО в единицу времени. Поток событий называется регулярным, если события следуют одно за другим через определенные равные промежутки времени. Например, поток изделий на конвейере сборочного цеха (с постоянной скоростью движения) является регулярным. Поток событий называется стационарным, если его вероятностные характеристики не зависят от времени. В частности, ин1 Здесь и в дальнейшем средние величины понимаются как математические ожидания соответствующих случайных величин.

246

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

тенсивность стационарного потока есть величина постоянная: (t) = . Например, поток автомобилей на городском проспекте не является стационарным в течение суток, но этот поток можно считать стационарным в определенное время суток, скажем, в часы пик. В этом случае фактическое число проходящих автомобилей в единицу времени (например, в каждую минуту) может заметно различаться, но среднее их число постоянно и не будет зависеть от времени. Поток событий называется потоком без последействия, если для любых двух непересекающихся участков времени 1 и 2 число событий, попадающих на один из них, не зависит от числа событий, попадающих на другие. Например, поток пассажиров, входящих в метро, практически не имеет последействия. А, скажем, поток покупателей, отходящих с покупками от прилавка, уже имеет последействие (хотя бы потому, что интервал времени между отдельными покупателями не может быть меньше, чем минимальное время обслуживания каждого из них). Поток событий называется ординарным, если вероятность попадания на малый (элементарный) участок времени t двух и более событий пренебрежимо мала по сравнению с вероятностью попадания одного события. Другими словами, поток событий ординарен, если события появляются в нем поодиночке, а не группами. Например, поток поездов, подходящих к станции, ординарен, а поток вагонов не ординарен. Поток событий называется простейшим (или стационарным пуассоновским), если он одновременно стационарен, ординарен и не имеет последействия. Название «простейший» объясняется тем, что СМО с простейшими потоками имеет наиболее простое математическое описание. Регулярный поток не является простейшим, так как обладает последействием: моменты появления событий в таком потоке жестко зафиксированы. Простейший поток в качестве предельного возникает в теории случайных процессов столь же естественно, как в теории вероятностей нормальное распределение получается в качестве предельного для суммы случайных величин: при наложении (суперпозиции) достаточно большого числа n независимых, стационарных и ординарных потоков (сравнимых между собой по интенсивностям i (i = 1, 2, …, n)) получается поток, близкий к простейшему с интенсивностью , равной сумме интенсивностей входящих потоков, т.е. n

=



i

.

i=1

Рассмотрим на оси времени Оt (рис. 7.5) простейший поток событий как неограниченную последовательность случайных точек.

247

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»



T 0

t Рис. 7.5

Пусть случайная величина Х выражает число событий (точек), попадающих на произвольный промежуток времени . Покажем, что случайная величина Х распределена по закону Пуассона.  Разобьем мысленно временной промежуток  на n равных элементарных отрезков t =  n . Математическое ожидание числа событий, попадающих на элементарный отрезок t , очевидно, равно t , где  — интенсивность потока. Согласно свойству ординарности потока можно пренебречь вероятностью попадания на элементарный отрезок двух и более событий. Будем считать элементарный отрезок t «занятым», если в нем появилось событие потока, и «свободным», если не появилось. Вероятность того, что отрезок t =  n окажется «занятым», равна

t   n ; вероятность того, что он окажется «пустым», равна 1 Љ  n (чем меньше t , тем точнее равенства). Число занятых элементарных отрезков, т.е. число Х событий на всем временном промежутке , можно рассматривать как случайную величину, имеющую биномиальный закон распределения, т.е. m

      P ( X = m ) = Cnm   1 Љ  n  n 

nm

с параметрами n и  =  n . (Необходимое для возникновения биномиального закона условие независимости испытаний, в данном случае — независимость n элементарных отрезков относительно события «отрезок занят», обеспечивается свойством отсутствия последействия потока.) При неограниченном увеличении числа элементарных отрезков

t , т.е. при n  , p =

  0 и постоянном значении произведеn

 = , как отмечено в § 4.2, биномиальное распределение n стремится к распределению Пуассона с параметром  : ()m Љ e , (7.5) P (X = m) = m! ния np = n

248

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

для которого математическое ожидание случайной величины равно ее дисперсии: a = 2 = . В частности, вероятность того, что за время  не произойдет ни одного события (m = 0), равна

P( X = 0) = eЉ . 

(7.6)

 Пример 7.3. На автоматическую телефонную станцию поступает простейший поток вызовов с интенсивностью  = 1,2 вызова в минуту. Найти вероятность того, что за две минуты: а) не придет ни одного вызова; б) придет ровно один вызов; в) придет хотя бы один вызов. Р е ш е н и е. а) Случайная величина Х — число вызовов за две минуты — распределена по закону Пуассона с параметром  = 1,2Ѓ2 = 2,4. Вероятность того, что вызовов не будет (m = 0), по формуле (7.5):

P( X = 0)  e2,4 = 0, 091 . б) Вероятность одного вызова (m = 1):

P ( X = 1)  2, 4  0,091 = 0, 218 . в) Вероятность хотя бы одного вызова:

P ( X  1) = 1 Љ P ( X = 0 ) = 1 Љ 0, 091 = 0,909. 

Найдем распределение интервала времени T между двумя произвольными соседними событиями простейшего потока. В соответствии с (7.6) вероятность того, что на участке времени длиной t не появится ни одного из последующих событий, равна

P (T  t ) = eЉt ,

(7.7)

а вероятность противоположного события, т.е. функция распределения случайной величины T, есть

F (t ) = P (T < t ) = 1  e Љt .

(7.8)

Плотность вероятности случайной величины есть производная ее функции распределения (рис. 7.6), т.е.

(t ) = F  (t ) = eЉt .

( t) 

(7.9)

Распределение, задаваемое плотно0 t стью вероятности (7.9) или функцией распределения (7.8), является показаРис. 7.6 тельным (экспоненциальным) (см. § 4.6). Таким образом, интервал времени между двумя соседними произвольны-

249

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ми событиями простейшего потока имеет показательное распределение, для которого математическое ожидание равно среднему квадратическому отклонению случайной величины:

a==

1 

(7.10)

и обратно по величине интенсивности потока . Важнейшее свойство показательного распределения (присущее только показательному распределению1) состоит в следующем: если промежуток времени, распределенный по показательному закону, уже длился некоторое время , то это никак не влияет на закон распределения оставшейся части промежутка (T – ): он будет таким же, как и закон распределения всего промежутка T (см. гл. 4, пример 4.7). Другими словами, для интервала времени T между двумя последовательными соседними событиями потока, имеющего показательное распределение, любые сведения о том, сколько времени протекал этот интервал, не влияют на закон распределения оставшейся части. Это свойство показательного закона представляет собой, в сущности, другую формулировку для «отсутствия последействия» — основного свойства простейшего потока. Для простейшего потока с интенсивностью  вероятность попадания на элементарный (малый) отрезок времени t хотя бы одного события потока равна, согласно формуле (7.8),

Pt = P (T < t ) = 1 Љ e Љt  t .

(7.11)

(Эта приближенная формула, получаемая заменой функции

eЉt лишь двумя первыми членами ее разложения в ряд по степе-

ням t, тем точнее, чем меньше t).

7.5. нения Колмогорова. Предельные вероятности состояний Рассмотрим математическое описание марковского случайного процесса с дискретными состояниями и непрерывным временем по данным примера 7.2. Соответствующий граф состояний процесса изображен на рис. 7.4. Будем полагать, что все переходы системы из состояния Si в Sj происходят под воздействием простейших потоков событий с интенсивностями ij (i, j = 0, 1, 2, 3); так, переход системы из состояния S0 в S1 будет происходить под воздействием потока отказов первого узла, а обратный переход из состояния S1 в S0 — под воздействием потока «окончаний ремонтов» первого узла и т.п. Граф состояний системы с проставленными у стрелок интенсивностями будем называть размеченным (см. рис. 7.4). Рассматриваемая система S имеет четыре возможных состояния: S0, S1, S2, S3. 1

В классе непрерывных случайных величин.

250

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Вероятностью i-го состояния называется вероятность pi(t) того, что в момент t система будет находиться в состоянии Si. Очевидно, что для любого момента t сумма вероятностей всех состояний равна единице: 3

 p (t ) = 1. i

(7.12)

i=0

Рассмотрим систему в момент t и, задав малый промежуток t, найдем вероятность p0(t + t) того, что система в момент t + t будет находиться в состоянии S0. Это достигается разными способами. 1. Система в момент t с вероятностью p0(t) находилась в состоянии S0, а за время t не вышла из него. Вывести систему из этого состояния (см. граф на рис. 7.4) можно суммарным простейшим потоком с интенсивностью (01 + 02), т.е. в соответствии с формулой (7.11), с вероятностью, приближенно равной (01 + 02)t. А вероятность того, что система не выйдет из состояния S0, равна [1 – (01 + 02) t]. Вероятность того, что система будет находиться в состоянии S0 и не выйдет из него за время t, равна по теореме умножения вероятностей:

p 0 ( t ) 1 Љ (  01 +  02 ) t  . 2. Система в момент t с вероятностями p1(t) (или p2(t)) находилась в состоянии S1 или S2 и за время t перешла в состояние S0. Потоком интенсивностью 10 (или 20) (см. рис. 7.4) система перейдет в состояние S0 с вероятностью, приближенно равной 10t (или 20t). Вероятность того, что система будет находиться в состоянии S0, по этому способу равна p1(t)10t (или p2(t)20t). Применяя теорему сложения вероятностей, получим:

p0 ( t + t ) = p1 ( t ) 10 t + p2 ( t )  20 t + p0 ( t ) 1 Љ (  01 +  02 ) t  , откуда

p 0 ( t + t ) Љ p 0 ( t ) t

= p1 ( t ) 10 + p 2 ( t )  20 Љ (  01 +  02 ) p 0 ( t ) .

Переходя к пределу при t  0 (приближенные равенства, связанные с применением формулы (7.11), перейдут в точные), получим в левой части уравнения производную p0 (t ) (обозначим ее для простоты p0 ):

p0 = 10 p1 +  20 p 2 Љ (  01 +  02 ) p 0 .

Получено дифференциальное уравнение первого порядка, т.е. уравнение, содержащее как саму неизвестную функцию, так и ее производную первого порядка.

251

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Рассуждая аналогично для других состояний системы S, можно получить систему дифференциальных уравнений Колмогорова для вероятностей состояний:

 p0 = 10 p1 +  20 p2 Љ ( 01 +  02 ) p0 ,  p  =  p +  p Љ ( +  ) p ,  1 01 0 31 3 10 13 1   =  +  Љ  +  p p p p ( ) 02 0 32 3 20 23 2,  2  p3 = 13 p1 +  23 p2 Љ ( 31 + 32 ) p3 .

(7.13)

Сформулируем п р а в и л о с о с т а в л е н и я у р а в н е н и й К о л м о г о р о в а. В левой части каждого из них стоит производная вероятности i-го состояния. В правой части — сумма произведений вероятностей всех состояний (из которых идут стрелки в данное состояние) на интенсивности соответствующих потоков событий минус суммарная интенсивность всех потоков, выводящих систему из данного состояния, умноженная на вероятность данного (i-го состояния) — см. рис. 7.4. В системе (7.13) независимых уравнений на единицу меньше общего числа уравнений. Поэтому для решения системы необходимо добавить уравнение (7.12). Особенность решения дифференциальных уравнений вообще состоит в том, что требуется задавать так называемые начальные условия, в данном случае — вероятности состояний системы в начальный момент t = 0. Так, например, систему уравнений (7.13) естественно решать при условии, что в начальный момент оба узла исправны и система находилась в состоянии S0, т.е. при начальных условиях p0(0) = 1, p1(0) = p2(0) = p3(0) = 0. Уравнения Колмогорова дают возможность найти все вероятности состояний как функции времени. Особый интерес представляют вероятности системы pi(t) в предельном стационарном режиме, т.е. при t  , которые называются предельными (финальными) вероятностями состояний. В теории случайных процессов доказывается, что если число состояний системы конечно и из каждого из них можно (за конечное число шагов) перейти в любое другое состояние, то предельные вероятности существуют. Предельная вероятность состояния Si имеет четкий смысл: она показывает среднее относительное время пребывания системы в этом состоянии. Например, если предельная вероятность состояния S0, т.е. p0 = 0,5, то это означает, что в среднем половину времени система находится в состоянии S0. Так как предельные вероятности постоянны, то, заменяя в уравнениях Колмогорова их производные нулевыми значениями, получим систему линейных алгебраических уравнений, описывающих

252

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

стационарный режим. Для системы S с графом состояний, изображенном на рис. 7.4, такая система уравнений имеет вид:

 (  01 +  02 ) p0 = 10 p1 +  20 p2 ,   ( 10 + 13 ) p1 =  01 p0 +  31 p3 ,  (  20 +  23 ) p2 =  02 p0 +  32 p3 ,  ( 31 +  32 ) p3 = 13 p1 +  23 p2 . 

(7.14)

Систему (7.14) можно составить непосредственно по размеченному графу состояний, если руководствоваться п р а в и л о м, согласно которому слева в уравнениях стоит предельная вероятность данного состояния pi, умноженная на суммарную интенсивность всех потоков, ведущих из данного состояния, а справа — сумма произведений интенсивностей всех потоков, входящих в i-е состояние, на вероятности тех состояний, из которых эти потоки исходят.  Пример 7.4. Найти предельные вероятности для системы S из примера 7.2, граф состояний которой приведен на рис. 7.4, при 01 = 1, 02 = 2, 10 = 2, 13 = 2, 20 = 3, 23 = 1, 31 = 3, 32 = 2. Р е ш е н и е. Система алгебраических уравнений, описывающих стационарный режим для данной системы, имеет вид (7.14) или

3 p0 = 2 p1 + 3 p2 , 4 p = p + 3 p ,  1 0 3  4 p 2 p 2 p3 , = + 0  2  p0 + p1 + p2 + p3 = 1.

(7.15)

(Здесь вместо одного «лишнего» уравнения системы (7.14) записали нормировочное условие (7.12).) Решив систему (7.15), получим p0 = 0,40, p1 = 0,20, p2 = 0,27, p3 = 0,13, т.е. в предельном стационарном режиме система S в среднем 40% времени будет находиться в состоянии S0 (оба узла исправны), 20% — в состоянии S1 (первый узел ремонтируется, второй работает), 27% — в состоянии S2 (второй узел ремонтируется, первый работает) и 13% времени — в состоянии S3 (оба узла ремонтируются).   Пример 7.5. Найти средний чистый доход от эксплуатации в стационарном режиме системы S в условиях примеров 7.2 и 7.4, если известно, что в единицу времени исправная работа первого и второго узлов приносит доход соответственно в 10 и 6 ден. ед., а их ремонт требует затрат соответственно в 4 и 2 ден. ед. Оценить экономическую эффективность имеющейся возможности уменьшения вдвое среднего

253

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

времени ремонта каждого из двух узлов, если при этом придется вдвое увеличить затраты на ремонт каждого узла (в единицу времени). Р е ш е н и е. Из примера 7.4 следует, что в среднем первый узел исправно работает долю времени, равную p0 + p2 = 0,40 + + 0,27 = 0,67, а второй узел — p0 + p1 = 0,40 + 0,20 = 0,60. В то же время первый узел находится в ремонте в среднем долю времени, равную p1 + p3 = 0,20 + 0,13 = 0,33, а второй узел — p2 + p3 = 0,27 + 0,13 = 0,40. Поэтому средний чистый доход в единицу времени от эксплуатации системы, т.е. разность между доходами и затратами, равен D = 0,67  10 + 0,60  6 – 0,33  4 – 0,40  2 = 8,18 ден. ед. Уменьшение вдвое среднего времени ремонта каждого из узлов в соответствии с формулой (7.10) будет означать увеличение вдвое интенсивностей потока «окончаний ремонтов» каждого узла, т.е. теперь 10 = 4, 20 = 6, 31 = 6, 32 = 4 и система линейных алгебраических уравнений (7.14), описывающая стационарный режим системы S, вместе с нормировочным условием (7.12) примет вид1:

3 p0 = 4 p1 + 6 p2 , 6 p = p + 6 p ,  1 0 3  7 p2 = 2 p0 + 4 p3 ,  p0 + p1 + p2 + p3 = 1. Решив систему, получим p0 = 0,60, p1 = 0,15, p2 = 0,20, p3 = 0,05. Учитывая, что p0 + p2 = 0,60 + 0,20 = 0,80, p0 + p1 = 0,60 + 0,15 = 0,75, p1 + p3 = 0,15 + 0,05 = 0,20, p2 + p3 = 0,20 + 0,05 = 0,25, а затраты на ремонт первого и второго узлов составляют теперь соответственно 8 и 4 ден. ед., вычислим средний чистый доход в единицу времени: D1 = 0,80  10 + 0,75  6 – 0,20  8 – 0,25  4 = 9,9 ден. ед. Так как D1 больше D (примерно на 20%), то экономическая целесообразность ускорения ремонтов узлов очевидна. 

7.6. Процессы гибели и размножения В теории массового обслуживания широко распространен специальный класс случайных процессов — так называемые процессы гибели и размножения. Название это связано с рядом биологических задач, где этот процесс служит математической моделью изменения численности биологических популяций. Граф состояний процесса гибели и размножения имеет вид, показанный на рис. 7.7. 1

При записи системы (7.14) одно «лишнее» уравнение исключили.

254

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 01

12

 23

 k 1, k

 k ,k +1

 n 1, n

10

 21

32

 k ,k 1

 k +1, k

 n,n 1

Рис. 7.7

Рассмотрим упорядоченное множество состояний системы S0, S1, S2, …, Sk. Переходы могут осуществляться из любого состояния только в состояния с соседними номерами, т.е. из состояния Sk возможны переходы либо в состояние Sk–1, либо в состояние Sk+11. Предположим, что все потоки событий, переводящие систему по стрелкам графа, простейшие с соответствующими интенсивностями k,k+1 или k+1,k. По графу, представленному на рис. 7.7, составим и решим алгебраические уравнения для предельных вероятностей состояний (их существование вытекает из возможности перехода из каждого состояния в каждое другое и конечности числа состояний). В соответствии с правилом составления таких уравнений (см. § 7.5) получим: для состояния S0

 01 p0 = 10 p1 , для состояния S1 –

(7.16)

(12 + 10)p1 = 01p0 + 21p2,

которое с учетом равенства (7.16) приводится к виду: 12p1 = 21p2.

(7.17)

Аналогично, записывая уравнения для предельных вероятностей других состояний, можно получить следующую систему уравнений:

  01 p0 = 10 p1 ,   p = p , 12 1 21 2   ..........................   k 1, k pk 1 =  k , k 1 pk ,  ..........................   n 1, n pn 1 =  n, n 1 pn ,

(7.18)

p0 + p1 + p2 + ... + pn = 1.

(7.19)

к которой добавляется нормировочное условие Решая систему (7.18) и (7.19), можно получить 1 При анализе численности популяций считают, что состояние S соответствует k численности популяции, равной k, и переход системы из состояния Sk в состояние Sk+1 происходит при рождении одного члена популяции, а переход в состояние Sk–1 — при гибели одного члена популяции.

255

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1

   n 1, n ...12  01    p0 = 1 + 01 + 12 01 + ... +  ,    2110  n, n 1... 2110  10   n 1, n ...12  01    p1 = 01 p0, p2 = 12 01 p0, …, pn = p0.  n, n 1 ... 2110 10  2110

(7.20) (7.21)

Легко заметить, что в формулах (7.21) для p1, p2, …, pn коэффициенты при p0 — это слагаемые, стоящие после единицы в формуле (7.20). Числители этих коэффициентов представляют собой произведения всех интенсивностей, стоящих у стрелок, ведущих слева направо от S0 до данного состояния Sk (k = 1, 2, …, n), а знаменатели — произведения всех интенсивностей, стоящих у стрелок, ведущих справа налево из состояния Sk до S0 (см. рис. 7.7).  Пример 7.6. Процесс гибели и размножения представлен графом (рис. 7.8). Найти предельные вероятности состояний. S0

1 4

2

S1

3

S2

Рис. 7.8

Р е ш е н и е.

По формуле (7.20) найдем 1

по формулам (7.21)

 1 2 1  p 0 = 1 + +  = 0,706 ,  4 3 4 

2 1 p1 = 1 0, 706 = 0,176, p2 = 0,706 = 0,118, 3 4

4

т.е. в установившемся стационарном режиме в среднем 70,6% времени система будет находиться в состоянии S0, 17,6% — в состоянии S1 и 11,8% — в состоянии S2. 

7.7. СМО с отказами В качестве показателей эффективности СМО с отказами будем рассматривать: A — абсолютную пропускную способность СМО, т.е. среднее число заявок, обслуживаемых в единицу времени; Q — относительную пропускную способность, т.е. среднюю долю пришедших заявок, обслуживаемых системой; Pотк — вероятность отказа — вероятность того, что заявка покинет СМО необслуженной; k — среднее число занятых каналов (для многоканальной системы).

256

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Одноканальная система с отказами. Рассмотрим задачу. Имеется один канал, на который поступает поток заявок с интенсивностью . Поток обслуживаний имеет интенсивность µ1. Найти предельные вероятности состояний системы и показатели ее эффективности. Система S (СМО) имеет два состояния: S0 — канал свободен, S1 — канал занят. Размеченный граф состояний представлен на рис. 7.9.



S0

µ

S1

Рис. 7.9

В предельном стационарном режиме система алгебраических уравнений для вероятностей состояний (7.14) имеет вид (см. правило составления таких уравнений на с. 253):

p0 = µp1 ,  µp1 = p0 ,

(7.22)

т.е. система вырождается в одно уравнение. Учитывая нормировочное условие p0 + p1 = 1, найдем из системы (7.22) предельные вероятности состояний p0 =

µ  , p1 = , +µ +µ

(7.23)

которые выражают среднее относительное время пребывания системы в состоянии S0 (когда канал свободен) и S1 (когда канал занят), т.е. определяют соответственно относительную пропускную способность Q системы и вероятность отказа Pотк:

µ , +µ  . Pотк = +µ Q=

(7.24) (7.25)

Абсолютную пропускную способность найдем, умножив относительную пропускную способность Q на интенсивность потока заявок : 1 Здесь и в дальнейшем предполагается, что все потоки событий, переводящие СМО из состояния в состояние, будут простейшими. К ним относится и поток обслуживаний — поток заявок, обслуживаемых одним непрерывно занятым каналом. Среднее время обслуживания t обратно по величине интенсивности µ,

т.е. t =1/µ.

257

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

A=

µ . +µ

(7.26)

 Пример 7.7. Известно, что заявки на телефонные переговоры в телевизионном ателье поступают с интенсивностью , равной 90 заявок в час, а средняя продолжительность разговора по телефону t = 2 мин. Определить показатели эффективности работы СМО (телефонной связи) при наличии одного телефонного номера. Р е ш е н и е. Имеем  = 90 (1/ч), t = 2 мин. Интенсивность потока обслуживаний µ = 1/ t = 1/2 = 0,5 (1/мин) = 30 (1/ч). По (7.24) относительная пропускная способность СМО Q = 30/(90 + 30) = 0,25, т.е. в среднем только 25% поступающих заявок осуществят переговоры по телефону. Соответственно вероятность отказа в обслуживании составит Pотк = 0,75 (см. (7.25)). Абсолютная пропускная способность СМО по формуле (7.26) A = 90Ѓ0,25 = 22,5, т.е. в среднем в час будут обслужены 22,5 заявки на переговоры. Очевидно, что при наличии только одного телефонного номера СМО будет плохо справляться с потоком заявок.  Многоканальная система с отказами. Рассмотрим классическую задачу Эрланга. Имеется n каналов, на которые поступает поток заявок с интенсивностью . Поток обслуживаний каждого канала имеет интенсивность µ. Найти предельные вероятности состояний системы и показатели ее эффективности. Система S (СМО) имеет следующие состояния (нумеруем их по числу заявок, находящихся в системе): S0, S1, S2, …, Sk, …, Sn, где Sk — состояние системы, когда в ней находится k заявок, т.е. занято k каналов. Граф состояний СМО соответствует процессу гибели и размножения (рис. 7.10).













µ







(k+1)µ



Рис. 7.10

Поток заявок последовательно переводит систему из любого левого состояния в соседнее правое с одной и той же интенсивностью . Интенсивность же потока обслуживаний, переводящих систему из любого правого состояния в соседнее левое, постоянно меняется в зависимости от состояния. Действительно, если СМО находится в состоянии S2 (два канала заняты), то она может перейти в состояние S1 (один канал занят), когда закончит обслуживание либо первый, либо второй канал, т.е. суммарная интенсивность их потоков обслуживаний будет 2µ. Аналогично суммарный поток обслуживаний, переводящий

258

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

СМО из состояния S3 (три канала заняты) в S2, будет иметь интенсивность 3µ, т.е. может освободиться любой из трех каналов, и т.д. В формуле (7.20) для схемы гибели и размножения получим для предельной вероятности состояния 1

  2 k n  p0 = 1 + + ... ... (7.27) + + + +  , 2 k!µ k n!µ n   µ 2!µ  2 n , , …, — коэффициенты при p0 в где члены разложения µ 2!µ 2 n !µ n выражениях для предельных вероятностей p1, p2, …, pk, …, pn. Величина =

 µ

(7.28)

называется приведенной интенсивностью потока заявок или интенсивностью нагрузки канала. Она выражает среднее число заявок, приходящих за среднее время обслуживания одной заявки. Теперь 1

 2 k n  p0 =  1 +  + + ... + + ... +  , k! n!  2!  2 k   n p0, …, pk = p0, …, pn = p0. p1 = p0, p2 = 2! k! n!

(7.29) (7.30)

Формулы (7.29) и (7.30) для предельных вероятностей получили названия формул Эрланга в честь основателя теории массового обслуживания. Вероятность отказа СМО есть предельная вероятность того, что все n каналов системы будут заняты, т.е. Pотк =

n p0. n!

(7.31)

Относительная пропускная способность — вероятность того, что заявка будет обслужена:

Q = 1 Љ P = 1 Љ

n p0 . n!

(7.32)

Абсолютная пропускная способность:

 n  A = Q =   1 Љ p0  . n! 

(7.33)

Среднее число занятых каналов, т.е. математическое ожидание числа занятых каналов:

k =

n

 kp , k

k =0

где pk — предельные вероятности состояний, определяемые по формулам (7.29), (7.30).

259

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Однако среднее число занятых каналов можно найти проще, если учесть, что абсолютная пропускная способность системы A есть не что иное, как интенсивность потока обслуженных системой заявок (в единицу времени). Так как каждый занятый канал обслуживает в среднем µ заявок (в единицу времени), то среднее число занятых каналов

k=

A µ

(7.34)

или, учитывая формулы (7.33), (7.28),

 n  k =  1 Љ p0  . n!  

(7.35)

 Пример 7.8. В условиях примера 7.7 определить оптимальное число телефонных номеров в телевизионном ателье, если условием оптимальности считать удовлетворение из каждых 100 заявок на переговоры в среднем не менее 90 заявок. Р е ш е н и е. Интенсивность нагрузки канала по формуле (7.28)  = 90/30 = 3, т.е. за время среднего (по продолжительности) телефонного разговора t = 2 мин поступает в среднем 3 заявки на переговоры. Будем постепенно увеличивать число каналов (телефонных номеров) n = 2, 3, 4,… и определим по формулам (7.29), (7.32), (7.33) для получаемой n-канальной СМО характеристики обслуживания. Например, при

(

)

n = 2 p0 = 1 + 3 + 32 2!

1

(

)

= 0,118  0,12; Q = 1 Љ 32 2!  0,118  0, 471 ;

A = 90Ѓ0,471 = 42,4. Значение характеристик СМО сведем в табл. 7.1. Таблица 7.1 Характеристика обслуживания Относительная пропускная способность Абсолютная пропускная способность

Обозначение

Число каналов (телефонных номеров) 1 2 3 4 5 6

Q

0,25

0,47

0,65

0,79

0,90

0,95

A

22,5

42,4

58,8

71,5

80,1

85,3

По условию оптимальности Q  0,9, следовательно, в телевизионном ателье необходимо установить 5 телефонных номеров (в этом случае Q = 0,90 — см. табл. 7.1). При этом в час будут обслуживаться в среднем 80 заявок (A = 80,1), а среднее число занятых телефонных номеров (каналов) по формуле (7.34) k = 80,1/30 = 2,67. 

260

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 7.9. В вычислительный центр коллективного пользования с тремя ЭВМ поступают заказы от предприятий на вычислительные работы. Если работают все три ЭВМ, то вновь поступающий заказ не принимается, и предприятие вынуждено обратиться в другой вычислительный центр. Среднее время работы с одним заказом составляет 3 ч. Интенсивность потока заявок 0,25 1/ч. Найти предельные вероятности состояний и показатели эффективности работы вычислительного центра. Р е ш е н и е. По условию n = 3,  = 0,25 1/ч, t = 3 ч. Интенсивность потока обслуживаний µ = 1/ t = 1/3 = 0,33. Интенсивность нагрузки ЭВМ по формуле (7.28)  = 0,25/0,33 = 0,75. Найдем предельные вероятности состояний: по формуле (7.29): p0 = (1 + 0,75 + 0,752/2! + 0,753/3!)–1 = 0,476; по формуле (7.30): p1 = 0,75Ѓ0,476 = 0,357; p2 = (0,752/2!)  0,476 = = 0,134; p3 = (0,753/3!)  0,476 = 0,033, т.е. в стационарном режиме работы вычислительного центра в среднем 47,6% времени нет ни одной заявки, 35,7% — имеется одна заявка (занята одна ЭВМ), 13,4% — две заявки (две ЭВМ), 3,3% времени — три заявки (заняты три ЭВМ). Вероятность отказа (когда заняты все три ЭВМ), таким образом, Pотк = p3 = 0,033. Согласно формуле (7.32) относительная пропускная способность центра Q = 1 – 0,033 = 0,967, т.е. в среднем из каждых 100 заявок вычислительный центр обслуживает 96,7 заявок. По формуле (7.33) абсолютная пропускная способность центра A = 0,25  0,967 = 0,242, т.е. в один час в среднем обслуживается 0,242 заявки. Согласно формуле (7.34) среднее число занятых ЭВМ k = = 0,242/0,33 = 0,725, т.е. каждая из трех ЭВМ будет занята обслуживанием заявок в среднем лишь на 72,5/3 = 24,2%. При оценке эффективности работы вычислительного центра необходимо сопоставить доходы от выполнения заявок с потерями от простоя дорогостоящих ЭВМ (с одной стороны, здесь высокая пропускная способность СМО, а с другой — значительный простой каналов обслуживания) и выбрать компромиссное решение. 

7.8.   методе статистических испытаний (методе Монте-Карло) Основное допущение, при котором анализировались рассмотренные выше СМО, состоит в том, что все потоки событий, переводящие их из состояния в состояние, были простейшими. При нарушении этого требования общих аналитических методов для таких

261

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

систем не существует. Имеются лишь отдельные результаты, позволяющие выразить в аналитическом виде характеристики СМО через параметры задачи. В случае, когда для анализа работы СМО аналитические методы неприменимы (или же требуется проверить их точность), используют универсальный метод статистических испытаний, или, как его называют, метод Монте-Карло. Название «метод Монте-Карло» связано с тем, что одним из возможных способов имитации случайных явлений является рулетка, игрой в которую знаменит город Монте-Карло. Для уяснения сути метода Монте-Карло рассмотрим задачу о вычислении определенного интеграла. 1

Пусть требуется вычислить определенный интеграл

 f ( x)dx,

где

0

f(x) — непрерывная на отрезке [0; 1] элементарная функция, причем 0  f(x)  1. Задача носит достаточно общий характер, так как к данному интегралу путем соответствующих линейных подстановок (замен) b

может быть сведен любой интеграл

 f ( x)dx. a

1

Геометрически интеграл

 f ( x)dx

представляет собой площадь

0

области S под кривой y = f(x) (рис. 7.11). Будем многократно повторять опыт, состоящий в бросании наудачу точки в единичный квадрат. Используя геометрическое определение y вероятности (§ 1.4), вероятность события А — 1 попадания брошенной случайной точки y = f(x) в область S — есть отношение площади области S к площади квадрата, т.е. S 0

Рис. 7.11

1

p( A) =

x

S = 12

1

 f ( x)dx . 0

В соответствии с теоремой Бернулли при достаточно большом числе опытов n в качестве оценки искомой вероятности p(A) следует взять частость m/n, которая и будет являться приближенным значением интеграла по результатам случайных испытаний. Отличительная особенность применения метода Монте-Карло состоит в том, что границы, в которых будет заключено истинное значение неизвестной величины (в данной задаче — вычисляемого

262

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

интеграла), мы можем указать не точно, а лишь с некоторой вероятностью, называемой доверительной (об этом речь пойдет в § 9.6). Конечно, при реализации метода Монте-Карло не требуется проведения реальных опытов по бросанию случайной точки в квадрат (или, например, в других задачах — по бросанию монеты, игральной кости и т.п.). Для этой цели служат специальные компьютерные программы или датчики случайных чисел (точнее «псевдослучайных» чисел, ибо последние не в полной мере удовлетворяют требованию случайности). Применение метода Монте-Карло в системах массового обслуживания состоит в том, что вместо аналитического описания СМО проводится «розыгрыш» случайного процесса, проходящего в СМО, с помощью специально организованной процедуры. В результате такого «розыгрыша» получается каждый раз новая, отличная от других реализация случайного процесса. (Реализации случайного процесса называются статистическими испытаниями — отсюда и второе название метода.) Это множество реализаций можно использовать как некий искусственно полученный статистический материал, который обрабатывается обычными методами математической статистики. После такой обработки могут быть получены приближенно любые характеристики обслуживания. При моделировании случайных явлений методом Монте-Карло мы пользуемся самой случайностью как аппаратом исследования. Для сложных систем обслуживания с немарковским случайным процессом метод статистических испытаний, как правило, оказывается проще аналитического, а часто и вовсе единственно возможным. В данной главе мы ограничились рассмотрением СМО с отказами. С другими системами массового обслуживания, например СМО с ожиданием (одноканальными и многоканальными, с ограниченным и неограниченным временем ожидания и др.), можно ознакомиться, например, в пособии [16].

Упражнения 7.10. Случайный процесс определяется формулой Х(t) = Xe–t (t > 0), где Х — случайная величина, распределенная по нормальному закону с параметрами а и 2. Найти математическое ожидание, дисперсию, корреляционную и нормированную корреляционную функции случайного процесса. 7.10а. В моменты времени t1 , t2 , t3 производится осмотр ЭВМ. Возможные состояния ЭВМ: S1 — полностью исправна; S2 — имеет незначительные неисправности; S3 — имеет существенные неисправности

и

может

решать

ограниченный

круг

задач;

полностью вышла из строя. Матрица перехода имеет вид

263

S4 —

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 0,3 0, 4 0,1 0, 2    0 0, 2 0,5 0,3  . P1 =   0 0 0, 4 0, 6    0 0 1   0

В начальный момент система исправна. Определить вероятности состояний ЭВМ после трех проверок. 7.11. Построить граф состояний следующего случайного процесса: система состоит из двух автоматов по продаже газированной воды, каждый из которых в случайный момент времени может быть либо занятым, либо свободным. 7.12. Построить граф состояний системы S, представляющей собой электрическую лампочку, которая в случайный момент времени может быть либо включена, либо выключена, либо выведена из строя. 7.13. Среднее число заказов на такси, поступающих на диспетчерский пункт в одну минуту, равно 3. Найти вероятность того, что за две минуты поступит: а) 4 вызова; б) хотя бы один; в) ни одного вызова. (Поток заявок простейший.) 7.14. Найти предельные вероятности для систем S, граф которых изображен на рис. 7.11 и 7.12. S0

2

3

S1 1

4 3

S0

S2 2

2 5

S1

3 4

S2

S3 Рис. 7.12

Рис. 7.11

7.15. Рассматривается круглосуточная работа пункта проведения профилактического осмотра автомашин с одним каналом (одной группой проведения осмотра). На осмотр и выявление дефектов каждой машины затрачивается в среднем 0,5 ч. На осмотр поступает в среднем 36 машин в сутки. Потоки заявок и обслуживаний — простейшие. Если машина, прибывшая в пункт осмотра, не застает ни одного канала свободным, она покидает пункт осмотра необслуженной. Определить предельные вероятности состояний и характеристики обслуживания профилактического пункта осмотра. 7.16. Решить пример 7.15 для случая n = 4 канала (групп проведения осмотра). Найти минимальное число каналов, при котором относительная пропускная способность пункта осмотра будет не менее 0,9.

264

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

7.17. Одноканальная СМО с отказами представляет собой одну телефонную линию, на вход которой поступает простейший поток вызовов с интенсивностью 0,4 вызовов/мин. Средняя продолжительность разговора 3 мин.; время разговора имеет показательное распределение. Найти предельные вероятности состояний и характеристики обслуживания СМО. Сравнить пропускную способность СМО с номинальной, которая была бы, если разговор длился в точности 3 мин., а заявки шли одна за другой регулярно, без перерывов. 7.18. Имеется двухканальная простейшая СМО с отказами. На ее вход поступает поток заявок с интенсивностью 4 заявки/ч. Среднее время обслуживания одной заявки 0,8 ч. Каждая обслуженная заявка приносит доход 4 ден. ед. Содержание каждого канала обходится 2 ден. ед./ч. Выяснить, выгодно или невыгодно в экономическом отношении увеличить число каналов до трех.

265

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Раздел

II

Математическая статистика

Глава 8. Вариационные ряды и их характеристики Глава 9. Основы математической теории выборочного метода Глава 10. Проверка статистических гипотез Глава 11. Дисперсионный анализ Глава 12. Корреляционный анализ Глава 13. Регрессионный анализ Глава 14. Введение в анализ временных рядов Глава 15. Линейные регрессионные модели финансового рынка

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

8

Вариационные ряды и их характеристики

8.1. Вариационные ряды и их графическое изображение Установление статистических закономерностей, присущих массовым случайным явлениям, основано на изучении статистических данных — сведений о том, какие значения принял в результате наблюдений интересующий нас признак (случайная величина X).  Пример 8.1. Необходимо изучить изменение выработки на одного рабочего механического цеха в отчетном году по сравнению с предыдущим. Получены следующие данные о распределении 100 рабочих цеха по выработке в отчетном году (в процентах к предыдущему году):

97,8; 97, 0; 101, 7; 132,5; ...; 142,3; 104, 2; 141,0; 122,1 .  100  Различные значения признака (случайной величины Х) называются вариантами (обозначаем их через х). Рассмотрение и осмысление этих данных (особенно при большом числе наблюдений n) затруднительно, и по ним практически нельзя представить характер распределения признака (случайной величины Х). Первый шаг к осмыслению имеющегося статистического материала — это его упорядочение, расположение вариантов в порядке возрастания (убывания), т.е. ранжирование вариантов ряда:

xmin = 94,0; 94,2; ...; 142,3; 141,0 = xmax .    n = 100 

В таком виде изучать выработку рабочих тоже не очень удобно из-за обилия числовых данных. Поэтому разобьем варианты на отдельные интервалы, т.е. проведем их группировку. Число интервалов m следует брать не очень большим, чтобы после группировки ряд не был громоздким, и не очень малым, чтобы не потерять особенности распределения признака. Согласно формуле Стерджеса рекомендуемое число интервалов m = 1 + 3,322 lg n, а величина интервала (интервальная разность, ширина интервала)

k=

xmax  xmin , 1 + 3,322 lg n

где хmax – xmin — разность между наибольшим и наименьшим значениями признака.

267

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

В примере 8.1 k = (141,0 – 97,0)/(1 + 3,322 lg100) = 5,76(%). Примем k = 6,0(%). За начало первого интервала рекомендуется брать величину хнач = хmin – k/2. В данном случае xнач = 97,0 – 6,0/2 = = 94,0(%). Сгруппированный ряд представим в виде таблицы (табл. 8.1). Таблица 8.1

i

1 2 3 4 5 6 7 8

Выработка в отчетном году в процентах к предыдущему х

Частота (количество рабочих) ni

Частость (доля рабочих)

94,0—100,0 100,0—106,0 106,0—112,0 112,0—118,0 118,0—124,0 124,0—130,0 130,0—136,0 136,0—142,0

3 7 11 20 28 19 10 2 100

0,03 0,07 0,11 0,20 0,28 0,19 0,10 0,02 1,00



wi =

ni n

Накопленная частота  i

n

3 10 21 41 69 88 98 100 –

Накопленная частость

wi =

ni n

0,03 0,10 0,21 0,41 0,69 0,88 0,98 1,00 –

Числа, показывающие, сколько раз встречаются варианты из данного интервала, называются частотами (обозначаем ni), а отношение их к общему числу наблюдений — частостями, или относительными частотами, т.е. wi = ni n . Частоты и частости называются весами. О п р е д е л е н и е. Вариационным рядом называется ранжированный в порядке возрастания (или убывания) ряд вариантов с соответствующими им весами (частотами или частостями)1. Если просмотр первичных, несгруппированных данных делал затруднительным представление об изменчивости значений признака, то полученный теперь вариационный ряд позволяет выявить закономерности распределения рабочих по интервалам выработки. Мы видим, например, что выработка колеблется от 94,0 до 142,0%, наибольшее число рабочих (28, или 0,28 от общего числа) увеличили выработку до 118,0—124,0%, уменьшили выработку (в пределах от 94,0 до 100%) трое рабочих и т.п. При изучении вариационных рядов наряду с понятием частоты используется понятие накопленной частоты (обозначаем ni ). Накопленная частота показывает, сколько наблюдалось вариантов со зна1 Если вариант x (i = 1, 2, …, n) вариационного ряда рассматривается как слуi чайная величина Xi, получаемая в результате многократного наблюдения интересующего нас признака X, то Xi называется порядковой статистикой.

268

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»



чением признака, меньшим х. Отношение накопленной частоты ni  i

к общему числу наблюдений n назовем накопленной частостью w . Накопленные частоты (частости) для каждого интервала находятся последовательным суммированием частот (частостей) всех предшествующих интервалов, включая данный (см. табл. 8.1). Например, для х = 124 накопленная частота ni = 3 + 7 + 11 + 20 + 28 = 69, т.е. 69 рабочих имели выработку, меньшую 124%. Для задания вариационного ряда достаточно указать варианты и соответствующие им частоты (частости) или накопленные частоты (частости) (в табл. 8.1 приведены и те и другие). Вариационный ряд называется дискретным, если любые его варианты отличаются на постоянную величину, и — непрерывным (интервальным), если варианты могут отличаться один от другого на сколь угодно малую величину. Так, вариационный ряд, представленный в табл. 8.1, — интервальный (проценты выработки условно округлены до десятых долей). Примером дискретного ряда является распределение 50 рабочих механического цеха по тарифному разряду (табл. 8.2). Таблица 8.2 Тарифный разряд xi

1

2

3

4

5

6



Частота (количество рабочих) ni

2

3

6

8

22

9

50

Для графического изображения вариационных рядов наиболее часто используются полигон, гистограмма, кумулятивная кривая. Полигон, как правило, служит для изображения дискретного вариационного ряда и представляет собой ломаную, в которой концы отрезков прямой имеют координаты (xi, ni), i = 1, 2, …, m. Гистограмма служит только для изображения интервальных вариационных рядов и представляет собой ступенчатую фигуру из прямоугольников с основаниями, равными интервалам значений признака ki = xi+1 – xi, i = 1, 2, …, m, и высотами, равными частотам (чacтocтям) ni (wi) интервалов. Если соединить середины верхних оснований прямоугольников отрезками прямой, то можно получить полигон того же распределения. Кумулятивная кривая (кумулята) — кривая накопленных частот (частостей). Для дискретного ряда кумулята представляет ломаную,   соединяющую точки (xi, ni ) или (xi, wi ), i = 1, 2, …, m. Для интервального вариационного ряда ломаная начинается с точки, абсцисса которой равна началу первого интервала, а ордината — накопленной частоте (частоcти), равной нулю. Другие точки этой ломаной соответствуют концам интервалов. Весьма важным является понятие эмпирической функции распределения.

269

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

О п р е д е л е н и е. Эмпирической функцией распределения Fn(x) называется относительная частота (частость) того, что признак (случайная величина Х ) примет значение, меньшее заданного х, т.е.  (8.1) Fn(x) = w ( X < x ) = wx .

Другими словами, для данного х эмпирическая функция распре деления представляет накопленную частость wx = nx n .  Пример 8.2. Построить полигон (гистограмму), кумуляту и эмпирическую функцию распределения рабочих: а) по тарифному разряду по данным табл. 8.2; б) по выработке по данным табл. 8.1. Р е ш е н и е. На рис. 8.1 и 8.2 изображены полигон (гистограмма), кумулята и эмпирическая функция распределения соответственно для дискретного (табл. 8.2) и интервального (табл. 8.1) вариационных рядов. Обращаем внимание на то, что для д и с к р е т н о г о вариационного ряда эмпирическая функция распределения представляет собой разрывную ступенчатую функцию по аналогии с функцией распределения для дискретной случайной величины (§ 3.5) с той лишь разницей, что теперь по оси ординат вместо вероятностей располагаются частости (см. рис 8.1). Число рабочих ni 30

0,6

20

0,4

10

0,2

)

0

ni

Доля (частость) wi

1

Полигон

2

3

4

5

6

wi

)

Fn ( x ) = w нак x

Рис. 8.1

270

Тарифный разряд xi

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Для и н т е р в а л ь н о г о вариационного ряда (см. табл. 8.1) имеем лишь значения функции распределения Fn(x) на концах интервала (см. последнюю графу табл. 8.1). Поэтому для графического изображения этой функции целесообразно ее доопределить, соединив точки графика, соответствующие концам интервалов, отрезками прямой. В результате полученная ломаная совпадет с кумулятой (см. рис. 8.2, б). 

)  ~ Mo = 120,8

Накопленная частота частость

ni

)

wi

100

1,0

80

0,8

60

0,6

40

0,4 wi = 0, 5

20

0,2

0

Кумулята

ni = 50

нак F n (x) = w x

~ Me  119,9 Ѓ

94 100 106 112 118 124 130 136 142

Выработка x, %

Рис. 8.2

Вариационный ряд является статистическим аналогом (реализацией) распределения признака (случайной величины Х). В этом смысле полигон (гистограмма) аналогичен кривой распределения, а эмпирическая функция распределения — функции распределения случайной величины Х. Вариационный ряд содержит достаточно полную информацию об изменчивости (вариации) признака. Однако обилие числовых данных, с помощью которых он задается, усложняет их использование. В то же время на практике часто оказывается достаточным

271

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

знание лишь сводных характеристик вариационных рядов: средних или характеристик центральной тенденции; характеристик изменчивости (вариации) и др. Расчет статистических характеристик представляет собой второй после группировки этап обработки данных наблюдений.

8.2. Средние величины Средние величины характеризуют значения признака, вокруг которого концентрируются наблюдения или, как говорят, центральную тенденцию распределения. Наиболее распространенной из средних величин является средняя арифметическая. О п р е д е л е н и е. Средней арифметической вариационного ряда называется сумма произведений всех вариантов на соответствующие частоты, деленная на сумму частот: m

x=

xn

i i

i =1

,

n

(8.2)

где xi — варианты дискретного ряда или середины интервалов интервального вариационного ряда; ni — соответствующие им частоты; m — число неповторяющихся вариантов или число интервалов; m

n =  ni . i =1

Очевидно, что m

x =  xi wi , i =1

где wi = ni/n — частости вариантов или интервалов.  Пример 8.3. Найти среднюю выработку рабочих по данным табл. 8.1. Р е ш е н и е. По формуле (8.2) для интервального вариационного ряда

x=

97  3 + 103  7 + ... + 133  10 + 139  2 = 119, 2 ( % ) , где числа 97, 100

103, …, 133, 139 — середины соответствующих интервалов. 

Для несгруппированного ряда все частоты ni = 1 (i = 1, 2, …, n), а n

x=

x i =1

i

n

есть «невзвешенная» средняя арифметическая.

272

(8.3)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Отметим основные свойства средней арифметической, аналогичные свойствам математического ожидания случайной величины. 1. Средняя арифметическая постоянной равна самой постоянной. 2. Если все варианты увеличить (уменьшить) в одно и то же число раз, то средняя арифметическая увеличится (уменьшится) во столько же раз: m

kx = kx или

 ( kxi ) ni i =1

n

m

xn

=k

i i

i =1

n

.

3. Если все варианты увеличить (уменьшить) на одно и то же число, то средняя арифметическая увеличится (уменьшится) на то же число: m

x + c = x + c или

(x

+ c ) ni

i

i =1

n

m

=

xn

i i

i =1

n

+ c.

4. Средняя арифметическая отклонений вариантов от средней арифметической равна нулю: m

( x

x  x = 0 или

i

i =1

 При c = x

 x ) ni = 0.

(8.4)

x  c = x  c = x  x = 0. 

5. Средняя арифметическая алгебраической суммы нескольких признаков равна такой же сумме средних арифметических этих признаков:

x + y = x + y. 6. Если ряд состоит из нескольких групп, общая средняя равна средней арифметической групповых средних, причем весами являются объемы групп: l

x=

xn

i i

i =1

n

,

(8.5)

где x — общая средняя (средняя арифметическая всего ряда); xi — групповая средняя i-й группы, объем которой равен ni;

l — число групп. При решении практических задач могут применяться и иные формы средней, которые можно получить из средней степенной k-го порядка1:

1

    Более корректна запись: xk =

m

 i =1

1

k xn   , так как корень k-й степени опредеn k i i

ляется только для натуральных k  2 .

273

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

m

xk =

k

x n

k i i

i =1

, где xi > 0.

n

Легко убедиться в том, что при k = 1 получаем формулу средней арифметической. При других значениях k получаем формулы:

k = –1

 m 1   x ni x1 =  i =1 n   

1

   =   

n — средней гармонической; ni  i =1 xi m

k = 0 (после раскрытия неопределенности при вычислении предела lim xk ) x0 = k 0

n

x1n1 x2n2 ...xmnm = m

k=2

x2 =

x n i =1

m

n

x i =1

ni i

— средней геометрической;

2 i i

n

— средней квадратической и т.д.

Можно показать, что с ростом порядка k степенная средняя возрастает, т.е. x1 < x0 < x1 < x2 < ... (свойство мажорантности средних). Кроме рассмотренных средних величин, называемых аналитическими, в статистическом анализе применяют структурные, или порядковые, средние. Из них наиболее широко применяются медиана и мода.  вариационного ряда называетО п р е д е л е н и е. Медианой Me ся значение признака, приходящееся на середину ранжированного ряда наблюдений. Для дискретного вариационного ряда с нечетным числом членов медиана равна серединному варианту, а для ряда с четным числом членов — полусумме двух серединных вариантов.  Пример 8.4. Найти медиану распределения рабочих по тарифному разряду по данным табл. 8.2. Р е ш е н и е. n = 50 — четное, следовательно, серединных вариантов  = (x25 + x26)/2 = (5 + 5)/2 = 5 (%).  два: х25 = 5 и х26 = 5. Поэтому Me Для интервального вариационного ряда находится медианный интервал, на который приходится середина ряда, а значение медианы на этом интервале находят с помощью линейного интерполирования. Не приводя соответствующей формулы, отметим, что медиана может быть приближенно найдена с помощью кумуляты как зна  чение признака, для которого nx = n 2 или wx = 1 2. Достоинство медианы как меры центральной тенденции заключается в том, что на нее не влияет изменение крайних членов вариаци-

274

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

онного ряда, если любой из них, меньший медианы, остается меньше ее, а любой, больший медианы, продолжает быть больше ее. Медиана предпочтительнее средней арифметической для ряда, у которого крайние варианты по сравнению с остальными оказались чрезмерно большими или малыми.  вариационного ряда называется О п р е д е л е н и е. Модой Mo вариант, которому соответствует наибольшая частота.  = 5, так как Например, для вариационного ряда табл. 8.2 мода Mo этому варианту соответствует наибольшая частота ni = 22. Для интервального ряда находится модальный интервал, имеющий наибольшую частоту, а значение моды на этом интервале определяют с помощью линейного интерполирования. Однако проще моду можно найти графическим путем с помощью гистограммы. Особенность моды как меры центральной тенденции заключается в том, что она не изменяется при изменении крайних членов ряда, т.е. обладает определенной устойчивостью к вариации признака.  Пример 8.5. Найти медиану и моду распределения рабочих по выработке по данным табл. 8.1. Р е ш е н и е. На рис. 8.2, б проведем горизонтальную прямую y = 0,5 (или y = 50), соответствующую накопленной частости wx = Fn ( x ) = 0,5 (или накопленной частоте nx = 50), до пересечения с графиком эмпирической функции распределения (или кумулятой). Абсцисса точки пересечения и будет медианой вариацион =119,9(%). ного ряда: Me На гистограмме распределения (см. рис. 8.2, а) находим прямоугольник с наибольшей частотой (частостью). Соединяя отрезками прямых вершины этого прямоугольника с соответствующими вершинами двух соседних прямоугольников (см. рис. 8.2, а), получим точку пересечения этих отрезков (диагоналей), абсцисса которой и  =120,8(%).  будет модой вариационного ряда: Mo

8.3. Показатели вариации Средние величины, рассмотренные выше, не отражают изменчивости (вариации) значений признака. Простейшим (и весьма приближенным) показателем вариации является вариационный размах R, равный разности между наибольшим и наименьшим вариантами ряда: R = xmax  xmin . Наибольший интерес представляют меры вариации (рассеяния) наблюдений вокруг средних величин, в частности, вокруг средней арифметической.

275

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Средним линейным отклонением вариационного ряда называется средняя арифметическая абсолютных величин отклонений вариантов от их средней арифметической: m

d=



xi  x ni

i =1

.

n

(8.6)

(Заметим, что «простая» сумма отклонений

m

( x i =1

i

 x ) ni не мо-

жет характеризовать вариацию признака, ибо согласно свойству 4 средней арифметической эта сумма равна нулю для любого вариационного ряда.) О п р е д е л е н и е. Дисперсией s2 вариационного ряда называется средняя арифметическая квадратов отклонений вариантов от их средней арифметической: m

( x

s2 =

i =1

 x ) ni 2

i

n

.

(8.7)

Формулу для дисперсии вариационного ряда можно записать в виде: m

s 2 =  ( xi  x ) wi , 2

i =1

где wi = ni n . Для несгруппированного ряда (ni = 1) по формуле (8.7) имеем: n

s2 =

(x

i

i =1

 x)

2

.

n

Дисперсию s2 часто называют эмпирической или выборочной, под2 черкивая, что она (в отличие от дисперсии случайной величины  ) находится по опытным или статистическим данным. Желательно в качестве меры вариации (рассеяния) иметь характеристику, выраженную в тех же единицах, что и значения признака. Такой характеристикой является среднее квадратическое отклонение s — арифметическое значение корня квадратного из дисперсии — m

s=

(x i =1

i

 x ) ni 2

n

.

(8.8)

Рассматривается также безразмерная характеристика — коэффициент вариации, равный процентному отношению среднего квадратического отклонения к средней арифметической:

v =

s  100% x

276

( x  0) .

(8.9)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Если коэффициент вариации признака, принимающего только положительные значения, высок (например, более 100%), то, как правило, это свидетельствует о неоднородности значений признака. Отметим основные свойства дисперсии, аналогичные свойствам дисперсии случайной величины. 1. Дисперсия постоянной равна нулю. 2. Если все варианты увеличить (уменьшить) в одно и то же число k раз, то дисперсия увеличится (уменьшится) в k2 раз: m

skx2 = k 2 sx2 или

 ( x k  xk )

2

i

i =1

ni

n

m

= k2

(x

 x ) ni 2

i

i =1

.

n

3. Если все варианты увеличить (уменьшить) на одно и то же число, то дисперсия не изменится: m

sx2+ c = sx2 = s 2 или

m

2

 ( xi + c ) Љ ( x + c ) ni

=

i =1

n

(x i =1

Љ x ) ni 2

i

n

.

4. Дисперсия равна разности между средней арифметической квадратов вариантов и квадратом средней арифметической:

s2 = x2  x 2 , m

x n

2

x =

где m

 s2 =

( x i =1

i

 x ) ni n

=

2 i i

i =1

n

m

2

.

(8.11) m

x n i =1

(8.10)

2 i i

 2x

n

m

xn

i i

i =1

+ x2

n

= x 2 Љ 2 x  x + x 2 = x 2 Љ x 2 , 

m

n i =1

i

n i =1

n

i

=

= n. 

5. Если ряд состоит из нескольких групп наблюдений, то общая дисперсия равна сумме средней арифметической групповых дисперсий и межгрупповой дисперсии:

s 2 = si2 + 2 , где

s2

(8.12)

— общая дисперсия (дисперсия всего ряда); l

2 i

s =

s n

2 i i

i =1

(8.13)

n

— средняя арифметическая групповых дисперсий; m

2 i

s =

(x j =1

j

 xi ni

277

)

2

nj ;

(8.14)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

l

2 =

(x i =1

i

 x ) ni 2

(8.15)

n

— межгрупповая дисперсия. Формула (8.12), известная в статистике как «правило сложения дисперсий», имеет важное значение в статистическом анализе.  Пример 8.6. Вычислить дисперсию, среднее квадратическое отклонение и коэффициент вариации распределения рабочих по выработке по данным табл. 8.1. Р е ш е н и е. В примере 8.3 было получено x = 119, 2(%) . По определению (8.5) дисперсия

( 97 Љ119,2)  3 + (103 Љ119,2)  7 + ... + (133 Љ119,2) 10 + (139 Љ119,2)  2 2

2

s =

2

2

2

100

= 87,48.

=

Среднее квадратическое отклонение s = 87, 48 = 9,35(%); коэффициент вариации по формуле (8.9) v = ( 9,35 119, 2 )100 = 7,8(%). Следует отметить, что вычисление дисперсии (особенно в случае, когда отклонения от средней

( xi  x )

2

выражаются нецелыми

числами), а сами xi — целые, удобнее проводить по формуле (8.10). Например, в данном примере вначале по формуле (8.11) найдем

x2 =

97 2  3 + 1032  7 + ... + 1332  10 + 1392  2 = 14 296,12 . 100

Теперь по формуле (8.10)

s 2 = x 2  x 2 = 14 296,12  119, 22 = 87, 48 .   Пример 8.7. Имеются следующие данные о средних и дисперсиях заработной платы двух групп рабочих (табл. 8.3). Таблица 8.3 Группа рабочих Работающие на одном станке Работающие на двух станках

Число рабочих

Средняя заработная Дисперсия заплата одного рабочего в работной плагруппе (ден. ед.) ты

40

2400

180 000

60

3200

200 000

278

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Найти общую дисперсию распределения рабочих по заработной плате и его коэффициент вариации. Р е ш е н и е. Найдем общую среднюю по формуле (8.5):

x=

2400  40 + 3200  60 = 2880 (ден. ед.). 100

Найдем среднюю групповых дисперсий по формуле (8.13):

si2 =

180 000  40 + 200 000  60 = 192 000 . 100

Найдем межгрупповую дисперсию по формуле (8.15):

2 =

( 2400 Љ 2880 )

2

 40 + ( 3200 Љ 2880 )  60 2

100

= 153 600 .

Используя правило сложения дисперсий (8.12), найдем общую дисперсию заработной платы и ее среднее квадратическое отклонение: s 2 = 192 000 + 153 600 = 345 600; s = 345 600 = 588 (ден. ед.). По формуле (8.9) коэффициент вариации

v =

588 Ѓ100 = 20,4(%).  2880

8.4. Упрощенный способ расчета средней арифметической и дисперсии Вычисление средней арифметической x и дисперсии s 2 вариационного ряда можно упростить, если использовать не первоначальные варианты xi (i = 1, 2, …, m), а новые варианты

ui =

xi  c , k

(8.16)

где с и k — специально подобранные постоянные. Согласно свойствам 2 и 3 средней арифметической и дисперсии

 xЉc x Љc , u = =  k  k   s2 s2 su2 = s 2x  c = x 2c = x2 , k k k

(8.17)

откуда

x = uk + c

279

(8.18)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

sx2 = k 2 su2 .

и

(8.19)

Учитывая формулу (8.10), а затем равенство (8.17), получим

(

2

)

2  x c sx2 = k 2 u 2  u 2 = k 2 u 2  k 2u 2 = k 2 u 2  k 2  = k 2 u2  ( x  c) .   k 

Теперь, заменяя в равенствах (8.18) и (8.19) u и u 2 их выражениями (8.2) и (8.11) через варианты иi, получим m

x= m

2 x

s =

u n

u n

2 i i

i =1

n

i i

i =1

n

k +c ,

(8.20)

 k 2 Љ ( x Љ c) , 2

(8.21)

где иi определяются по формуле (8.16). Формулы (8.20) и (8.21) дадут заметное упрощение расчетов, если в качестве постоянной k взять величину (ширину) интервала по х, а в качестве с — середину серединного интервала. Если серединных интервалов два (при четном числе интервалов), то в качестве с рекомендуется взять середину одного из этих интервалов, например, имеющего бульшую частоту. З а м е ч а н и е. Формулы (8.20) и (8.21) для x и s2 носят технический, вспомогательный характер и позволяют рассчитать характеристики ряда по новым, условным вариантам. Основными же формулами, вытекающими из определения средней арифметической и дисперсии вариационного ряда и отражающими их сущность, остаются соответственно формулы (8.3) и (8.7).  Пример 8.8. Вычислить упрощенным способом среднюю арифметическую и дисперсию распределения рабочих по выработке по данным табл. 8.1. Р е ш е н и е . Возьмем постоянную k, равную величине интервала, т.е. k = 6, и постоянную с, равную середине пятого (одного из двух серединных) интервала, т.е. с = 121. По (8.16) новые варианты иi = (xi –121)/6. Благодаря такому переходу получим вместо вариантов xi = 97, 103, 109, 115, 121, 127, 133 «простые» варианты иi = –4, –3,–2,–1, 0, 1, 2, 3. Теперь для расчета x и s x2 по формулам (8.20) и (8.21) необходимо найти суммы

m

 ui ni и i =1

m

 u n . Их вычисление представим в табл. 8.4. i =1

2 i i

280

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Таблица 8.4 i

1 2 3 4 5 6 7 8

xi  119 Интервалы х Середи- ui = 10 на интервала xi 94,0–100,0 97 –4 100,0–106,0 103 –3 106,0–112,0 109 –2 112,0–118,0 115 –1 118,0–124,0 121 0 124,0–130,0 127 1 130,0–136,0 133 2 136,0–142,0 139 3 — 

ni

3 7 11 20 28 19 10 2 100

В итоговой строке табл. 8.4 находим

8

u n i =1

i i

2

иini

ui ni

иi+1

–12 –21 –22 –20 0 19 20 6 –30

48 63 44 20 0 19 40 18 252

–3 –2 –1 0 1 2 3 4 –

=  30 ,

8

u n i =1

2 i i

( ui + 1)

2

27 28 11 0 28 76 90 32 292

= 252 .

Последний столбец — контрольный. Если таблица составлена верно, то m

 (u i =1

i

m

m

m

i =1

i =1

i =1

+ 1) ni =  ui2 ni + 2 ui ni + n (где n =  ni ).

В данном случае

2

8

 (u i =1

i

+ 1) ni = 292 = 252 + 2 ( 30 ) + 100, т.е. рас-

четы проведены верно. Теперь по формуле (8.20) x = 2 ле (8.21) s = =

30  6 + 121 = 119, 2 ( % ) , по форму100

252 2 2  6 Љ (119, 2  121) = 87, 48.  100

8.5. Начальные и центральные моменты вариационного ряда Средняя арифметическая и дисперсия вариационного ряда являются частными случаями более общего понятия — моментов вариационного ряда. Начальный момент vk k-го порядка вариационного ряда1 определяется по формуле: m

vk = 1

x n i =1

k i i

n

См. сноску на с. 283.

281

.

(8.22)

ni

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Очевидно, что v1 = x , т.е. средняя арифметическая является начальным моментом первого порядка вариационного ряда. Центральный момент µ k k-го порядка вариационного ряда определяется по формуле: m

µ k =

(x i =1

 x ) ni k

i

.

n

(8.23)

С помощью моментов распределения можно описать не только среднюю тенденцию, рассеяние, но и другие особенности вариации признака. Очевидно, в силу свойства (8.4), что µ 1 = 0 , а µ 2 = s 2 , т.е. центральный момент первого порядка для любого распределения равен нулю, а — второго порядка является дисперсией вариационного ряда. Коэффициентом асимметрии вариационного ряда называется число m

µ A = 33 = s

( x i =1

 x ) ni 3

i

ns 3

.

(8.24)

Если A = 0, то распределение имеет симметричную форму, т.е. варианты, равноудаленные от x , имеют одинаковую частоту. При

A > 0

( A < 0)

говорят о положительной (правосторонней) или от-

рицательной (левосторонней) асимметрии. Эксцессом (или коэффициентом эксцесса) вариационного ряда называется число m

µ E = 44  3 = s

( x i =1

 x ) ni 4

i

ns 4

 3.

(8.25)

Эксцесс является показателем «крутости» вариационного ряда по сравнению с нормальным распределением. Как отмечено выше (§ 4.7), эксцесс нормально распределенной случайной величины равен нулю.

(

)

Если E > 0 E < 0 , то полигон вариационного ряда имеет более

крутую (пологую) вершину по сравнению с нормальной кривой.  Пример 8.9. Вычислить коэффициент асимметрии и эксцесс распределения рабочих по выработке по данным табл. 8.1. Р е ш е н и е. Коэффициент асимметрии и эксцесс вариационного ряда, приведенного в табл. 8.1, найдем по формулам (8.24) и (8.25):

( 97 Љ 119, 2 )  3 + (103 Љ 119, 2 )  7 + ... + (139 Љ 119, 2 )  2 = Љ 0,302; A = 100  9,353 3

3

282

3

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

( 97 Љ 119, 2)  3 + (103 Љ 119, 2)  7 + ... + (139 Љ 119, 2 )  2 Љ 3 = Љ 0,286. E = 100  9,354 В силу того, что коэффициент асимметрии  отрицателен и 4

4

4

близок нулю, распределение рабочих по выработке обладает незначительной левосторонней асимметрией, а поскольку эксцесс E близок нулю, рассматриваемое распределение по крутости приближается к нормальной кривой.  Средняя арифметическая x , дисперсия s2 и другие характеристики вариационного ряда являются статистическими аналогами мате2 матического ожидания M(X), дисперсии  и соответствующих характеристик случайной величины Х. В табл. 8.5 приведено соответствие терминов (обозначений, формул) вариационного ряда и случайной величины. Подчеркнем, что вариационный ряд рассматривается в дальнейшем как одна из реализаций распределения признака (случайной величины)1 Х. Таблица 8.5 Вариационный ряд Обозначения, формулы 1 —

Термин 2 Дискретный ряд

Случайная величина Обозначения, формулы 3 —

Термин 4 Дискретная случайная величина



Интервальный ряд



Непрерывная случайная величина

xi

Вариант

xi, x

Значение случайной величины

wi, w

Частость

pi, p, P

Вероятность



Полигон, гистограмма



Полигон (многоугольник) распределения вероятностей, кривая распределения

1 Если для характеристик вариационного ряда используются те же буквенные выражения, что и для случайной величины, то обозначения этих характеристик дополняются знаком ~ («тильда»).

283

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Окончание табл. 8.5

1 2 Fn(x) = w(X < x) Эмпирическая функция распределения m

x =  xi wi i =1

s = (x  x) = 2

2

m

a = M (X ) =  xi pi

Математическое ожидание*

Дисперсия

 = M [ X Љ M (X )] =

Дисперсия*

m

m

i =1

A = µ 3 s 3

E = µ 4 s 4  3

2

2

i =1

Среднее квадратическое отклонение

 = D (X ) =  2

Среднее квадратическое отклонение

Мода Медиана

Mo(X) Me(X)

Мода Медиана

n Начальный Начальный моv = xik pi момент k-го мент k-го поk i =1 порядка рядка* Центральный Центральный n k момент k-го µ k = xi  M (X ) pi момент k-го поi =1 порядка рядка*



i =1

µ k =  ( xi  x )

i =1

2

=  ( xi Љ a ) pi

i =1

vk =  xik wi

n

n

2

 Mo  Me

4 Функция распределения

Средняя арифметическая

=  ( xi  x ) wi s = s2

3 F(x) = P (X < x)

k

[

Коэффициент асимметрии Эксцесс

]

A = µ 3 3

E = µ 4 4 Љ 3

Коэффициент асимметрии Эксцесс

* Формула приведена для дискретной случайной величины.

Упражнения В примерах 8.10—8.12 дано распределение признака Х (случайной величины Х), полученной по n наблюдениям. Необходимо1: 1) построить полигон (гистограмму), кумуляту и эмпирическую функцию распределения Х; 2) найти: а) среднюю арифметическую x ; б) медиану Ме и моду Мо; в) дисперсию s2, среднее квадратическое отклонение s и коэффициент вариации v ; г) начальные vk и 1 При наличии открытых интервалов значений Х типа «менее x » или «свыше 1 xn» для проведения расчетов их условно заменяют интервалами той же ширины k, т.е. ( x1  k , x1 ) или (xn, xn+k).

284

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

центральные µ k моменты k-го порядка (k = 1, 2, 3, 4); д) коэффициент асимметрии  и эксцесс E .

8.10. X — число сделок на фондовой бирже за квартал; n = 400 (инвесторов). xi

0

1

2

3

4

5

6

7

8

9

10

ni

146

97

73

34

23

10

6

3

4

2

2

8.11. Х — месячный доход жителя региона (в руб.); n = 1000 (жителей). xi ni

Менее 500—1000 500 58

1000— 1500

96

1500—2000 2000—2500 Свыше 2500

239

328

147

132

8.12. Х — удой коров на молочной ферме за лактационный период (в ц); n = 100 (коров). xi ni

4—6 6—8 8—10 1

3

6

10— 12— 14— 16— 18— 20— 22— 24— 12 14 16 18 20 22 24 26 11

15

20

14

12

10

6

2

8.13. В таблице приведено распределение 50 рабочих по производительности труда Х (единиц за смену), разделенных на две группы: 30 и 20 человек. Прошедшие техническое обучение Не прошедшие техническое обу(группа 1) чение (группа 2) xi

85

34

96

102

103

63

69

83

89

106

ni

2

5

11

8

4

2

6

8

3

1

Вычислить общие и групповые средние и дисперсии и убедиться в справедливости правила сложения дисперсий.

285

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

9

Основы математической теории выборочного метода

9.1. Общие сведения о выборочном методе В практике статистических наблюдений различают два вида наблюдений: сплошное, когда изучаются все объекты (элементы, единицы) совокупности, и несплошное, выборочное, когда изучается часть объектов. Примером сплошного наблюдения является перепись населения, охватывающая все население страны. Выборочными наблюдениями являются, например, проводимые социологические исследования, охватывающие часть населения страны, области, района и т.д. Вся подлежащая изучению совокупность объектов (наблюдений) называется генеральной совокупностью. В математической статистике понятие генеральной совокупности трактуется как совокупность всех мыслимых наблюдений, которые могли бы быть произведены при данном реальном комплексе условий, и в этом смысле его не следует смешивать с реальными совокупностями, подлежащими статистическому изучению. Так, обследовав даже все предприятия подотрасли по определенным техникоэкономическим показателям, мы можем рассматривать обследованную совокупность лишь как представителя гипотетически возможной более широкой совокупности предприятий, которые могли бы функционировать в рамках того же реального комплекса условий. Понятие генеральной совокупности в определенном смысле аналогично понятию случайной величины (закону распределения вероятностей, вероятностному пространству), так как полностью обусловлено определенным комплексом условий. Та часть объектов, которая отобрана для непосредственного изучения из генеральной совокупности, называется выборочной совокупностью, или выборкой. Числа объектов (наблюдений) в генеральной или выборочной совокупности называются их объемами. Генеральная совокупность может иметь как конечный, так и бесконечный объем. Выборку можно рассматривать как некий эмпирический аналог генеральной совокупности. Сущность выборочного метода состоит в том, чтобы по некоторой части генеральной совокупности (по выборке) выносить суждение о ее свойствах в целом. Концепция выборки лежит в основе методологии математической статистики. Отметим преимущества выборочного метода наблюдения по сравнению со сплошным: Ѓ позволяет существенно экономить затраты ресурсов (материальных, трудовых, временны ґ х);

286

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Ѓ

является единственно возможным в случае бесконечной генеральной совокупности или в случае, когда исследование связано с уничтожением наблюдаемых объектов (например, исследование долговечности электрических лампочек, предельных режимов работы приборов и т.п.); Ѓ позволяет снизить ошибки регистрации, т.е. расхождения между истинным и зарегистрированным значениями признака. Основной недостаток выборочного метода — ошибки исследования, называемые ошибками репрезентативности (представительства), о которых речь пойдет ниже. Однако неизбежные ошибки, возникающие при выборочном методе исследования в связи с изучением только части объектов, могут быть заранее оценены и посредством правильной организации выборки сведены к практически незначимым величинам. Между тем использование сплошного наблюдения даже там, где это принципиально возможно, не говоря уже о росте трудоемкости, стоимости и увеличении необходимого времени, часто приводит к тому, что каждое отдельное наблюдение поневоле проводится с меньшей точностью. А это уже сопряжено с неустранимыми ошибками и в конечном счете может привести к снижению точности сплошного наблюдения по сравнению с выборочным. Чтобы по данным выборки иметь возможность судить о генеральной совокупности, она должна быть отобрана случайно. Случайность отбора элементов в выборку достигается соблюдением принципа равной возможности всем элементам генеральной совокупности быть отобранными в выборку. На практике это достигается тем, что извлечение элементов в выборку проводится путем жеребьевки (лотереи) или с помощью случайных чисел, имеющихся в специальных таблицах или вырабатываемых ЭВМ с помощью датчика случайных чисел. Выборка называется репрезентативной (представительной), если она достаточно хорошо воспроизводит генеральную совокупность. Различают следующие в и д ы выборок: Ѓ собственно-случайная выборка, образованная случайным выбором элементов без расчленения на части или группы; Ѓ механическая выборка, в которую элементы из генеральной совокупности отбираются через определенный интервал. Например, если объем выборки должен составлять 10% (10%-ная выборка), то отбирается каждый 10-й ее элемент и т.д.; Ѓ типическая (стратифицированная) выборка, в которую случайным образом отбираются элементы из типических групп, на которые по некоторому признаку разбивается генеральная совокупность; Ѓ серийная (гнездовая) выборка, в которую случайным образом отбираются не элементы, а целые группы совокупности (серии), а сами серии подвергаются сплошному наблюдению.

287

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Используют д в а с п о с о б а образования выборки: Ѓ повторный отбор (по схеме возвращенного шара), когда каждый элемент, случайно отобранный и обследованный, возвращается в общую совокупность и может быть повторно отобран; Ѓ бесповторный отбор (по схеме невозвращенного шара), когда отобранный элемент не возвращается в общую совокупность. Математическая теория выборочного метода основывается на анализе собственно-случайной выборки. Рассмотрением этой выборки мы и ограничимся. Обозначим: xi — значения признака (случайной величины Х); N и n — объемы генеральной и выборочной совокупностей; Ni и ni — число элементов генеральной и выборочной совокупностей со значением признака xi; M и m — число элементов генеральной и выборочной совокупностей, обладающих данным признаком. Средние арифметические распределений признака в генеральной и выборочной совокупностях называются соответственно генеральной и выборочной средними, а дисперсии этих распределений — генеральной и выборочной дисперсиями. Отношение числа элементов генеральной и выборочной совокупностей, обладающих некоторым признаком А, к их объемам, называются соответственно генеральной и выборочной долями. Все формулы сведем в таблицу (табл. 9.1). Таблица 9.1 Наименование характеристики

Генеральная совокупность

Выборка

m

Средняя

m

 xi N i i =1

x0 =

m

Дисперсия

2 =

Доля

p =

(9.1)

N

 (xi  x0 ) i =1

M N

2

i =1

m

Ni

N

x=

 xi ni

(9.2)

n

(xi  x ) ni

(9.3)

s2 = i =1

(9.5)

w =

m n

2

n

(9.4) (9.6)

З а м е ч а н и е. В случае бесконечной генеральной совокупности ( N =  ) под генеральными средней и дисперсией понимается соответственно математическое ожидание a = x0 и дисперсия 2

288

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

распределения признака Х (генеральной совокупности), а под генеральной долей р — вероятность данного события. Важнейшей задачей выборочного метода является оценка параметров (характеристик) генеральной совокупности по данным выборки. Теоретическую основу применимости выборочного метода составляет закон больших чисел, согласно которому при неограниченном увеличении объема выборки практически достоверно, что случайные выборочные характеристики как угодно близко приближаются (сходятся по вероятности) к определенным параметрам генеральной совокупности.

9.2. Понятие оценки параметров Сформулируем задачу оценки параметров в общем виде. Пусть распределение признака Х — генеральной совокупности — задается функцией вероятностей  ( xi ,  ) = P ( X = xi ) (для дискретной слу-

чайной величины X) или плотностью вероятности  ( x,  ) (для не-

прерывной случайной величины Х), которая содержит неизвестный параметр . Например, это параметр  в распределении Пуассона или параметры a и 2 для нормального закона распределения и т.д. Для вычисления параметра  исследовать все элементы генеральной совокупности не представляется возможным. Поэтому о параметре  пытаются судить по выборке, состоящей из значений (вариантов) x1, x2, …, xn. Эти значения можно рассматривать как частные значения (реализации) n независимых случайных величин Х1, Х2, …, Хn, каждая из которых имеет тот же закон распределения, что и сама случайная величина Х.

~

О п р е д е л е н и е. Оценкой n параметра  называют всякую функцию результатов наблюдений над случайной величиной Х (иначе — статистику), с помощью которой судят о значении параметра :

 n =  n ( X 1 , X 2 , ..., X n ) .

Поскольку Х1, Х2, …, Хn — случайные величины, то и оценка  n

(в отличие от оцениваемого параметра  — величины неслучайной, детерминированной) является случайной величиной, зависящей от закона распределения случайной величины Х и числа n. Всегда существует множество функций oт результатов наблюдений Х1, Х2, …, Хn (от n «экземпляров» («копий») случайной величины Х), которые можно предложить в качестве оценки параметра . Например, если параметр  является математическим ожиданием случайной величины Х, т.е. генеральной средней x0 , то в качестве

289

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

его оценки  n по выборке можно взять: среднюю арифметическую

 , мерезультатов наблюдений — выборочную среднюю x , моду o

 , полусумму наименьшего и наибольшего значений по выдиану e борке, т.е. (xmin + xmax)/2 и т.д. Какими свойствами должна обладать оценка  n , чтобы в каком-то смысле быть «доброкачественной» оценкой? Назвать «наилучшей» оценкой такую, которая наиболее близка к истинному значению оцениваемого параметра, невозможно, так как выше отмечено, что  n — случайная величина, поэтому невозможно предсказать индивидуальное значение оценки в данном частном случае. Так что о качестве оценки следует судить не по индивидуальным ее значениям, а лишь по распределению ее значений в большой сети испытаний, т.е. по выборочному распределению оценки. Если значения оценки  n концентрируются около истинного значения параметра , т.е. основная часть массы выборочного распределения оценки сосредоточена в малой окрестности оцениваемого параметра , то с большой вероятностью можно считать, что оценка  n отличается от параметра  лишь на малую величину. Поэтому, чтобы значение  n было близко к , надо, очевидно, потребовать, чтобы

рассеяние случайной величины  n относительно , выражаемое, например, математическим ожиданием квадрата отклонения оценки

(

)

2

от оцениваемого параметра M  n Љ  , было по возможности меньшим. Таково о с н о в н о е у с л о в и е, которому должна удовлетворять «наилучшая» оценка. Рассмотрим наиболее важные свойства оценок. О п р е д е л е н и е. Оценка  n параметра  называется несмещенной, если ее математическое ожидание равно оцениваемому параметру, т.е.

( )

M  n =  . В противном случае оценка называется смещенной. Если это равенство не выполняется, то оценка  n , полученная по разным выборкам, будет в среднем либо завышать значение  (если

M ( n ) > ), либо занижать его (если M ( n ) < ).

Таким образом, требование несмещенности гарантирует отсутствие систематических ошибок при оценивании.

290

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

З а м е ч а н и е. На первый взгляд, приведенное выше определение любой оценки, как всякой функции результатов наблюдений, было бы более естественным и не таким расплывчатым, если бы в нем содержалось условие M ( n ) = . К сожалению, этого сделать нельзя, так как практически важные оценки оказываются смещенными, хотя и слабо. Если при конечном объеме выборки n M ( n )  , т.е. смещение оценки b( n ) = M ( n ) Љ   0 , но lim b(n ) = 0 , то такая оценка  n n 

называется асимптотически несмещенной. О п р е д е л е н и е. Оценка  n параметра  называется состоятельной, если она удовлетворяет закону больших чисел, т.е. сходится по вероятности к оцениваемому параметру:

limP n 

(

)

 n Љ  <  = 1,

(9.7)

P  n   .

или

n

В случае использования состоятельных оценок оправдывается увеличение объема выборки, так как при этом становятся маловероятными значительные ошибки при оценивании. Поэтому практический смысл имеют только состоятельные оценки. Если оценка состоятельна, то практически достоверно, что при достаточно большом n  n   .

Если оценка  n параметра  является несмещенной, а ее дисперсия

2  0 при n  , то оценка  n является и состоятельной. Это неn

посредственно вытекает из неравенства Чебышева:

(

)

P  n Љ  <   1 Љ

2

n

.

2 Так, например, выборочная средняя x является несмещенной и состоятельной оценкой генеральной средней x0 (дисперсия 2x  0 при n   , см. § 9.4), а отдельное выборочное наблюдение  k ( k = 1, 2, ..., n ) — несмещенной ( M ( X k ) = M ( X ) = x0 ) , но не

состоятельной оценкой генеральной средней, так как ее дисперсия 2 ( X i ) = 2 ( X ) = 2 постоянна и не уменьшается с ростом n.

О п р е д е л е н и е. Несмещенная оценка  n параметра  называется эффективной, если она имеет наименьшую дисперсию среди всех возможных несмещенных оценок параметра , вычисленных по выборкам одного и того же объема n.

291

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(

Так как для несмещенной оценки1 M  n Љ 

)

2

есть ее дисперсия

 2~ , то эффективность является р е ш а ю щ и м n

свойст-

в о м, определяющим качество оценки.

~

Эффективность оценки n определяют отношением:

e= где

 2~  n

и

 2~ n

 2~   2~

n

,

(9.8)

n

— соответственно дисперсии эффективной и данной

оценок. Чем ближе е к 1, тем эффективнее оценка. Если е  1 при n   , то такая оценка называется асимптотически эффективной. На практике в целях упрощения расчетов используются оценки, не обладающие высокой эффективностью. Так, например, генеральную

~

среднюю x0 часто оценивают медианой Me выборки, в то время как эффективной оценкой x0 является выборочная средняя x (§ 9.5). При нормальном распределении признака в генеральной совокупности можно показать, что асимптотическая эффективность этой оценки,  ) = 2  = 0, 64 при n   . Это означает, что для получения т.е. e( Me той же точности и надежности оценки генеральной средней по выборочной средней нужно использовать лишь 64% объема выборки, взятого при оценке по медиане. Если при тех же условиях для оценки генеральной средней

x0 использовать статистику  n = ( xmin + xmax ) / 2, то (см., например, 24ln n [23]) ее эффективность e( n )  с ростом n стремится к нулю, и 2 n относительно приемлемый результат оценивания (по сравнению с эффективной оценкой x ) возможен при малом объеме выборки. Другой пример. В практике статистического контроля качества продукции для оценки генерального среднего квадратического отклонения  широко используют оценку sR = R d n , где

R = xmax  xmin — вариационный размах, dn — коэффициент, зависящий от объема выборки n. При малых n эффективность оценки sR достаточно высока, но с увеличением n быстро падает. Поэтому 1

2 2 2 Для смещенной оценки, как нетрудно показать, M ( n Љ ) =  + b ( n ) , где n

b( n ) — смещение оценки.

292

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

удовлетворительная оценка  с помощью sR может быть достигнута лишь при n < 10. В качестве статистических оценок параметров генеральной совокупности желательно использовать оценки, удовлетворяющие одновременно требованиям несмещенности, состоятельности и эффективности. Однако достичь этого удается не всегда. Может оказаться, что для простоты расчетов целесообразно использовать незначительно смещенные оценки или оценки, обладающие большей дисперсией по сравнению с эффективными оценками, и т.п.

9.3. Методы нахождения оценок Рассмотрим основные методы нахождения оценок. Согласно методу моментов, предложенному К. Пирсоном, определенное количество выборочных моментов (начальных ~ k или центральных

µ k , или тех и других) приравнивается к соответствующим теоретическим моментам распределения

( k

или µ k ) случайной величины Х. На-

~ определяются по формуk и µ помним, что выборочные моменты ~ k лам (8.22) и (8.23), а соответствующие им теоретические моменты — по формулам (3.32)—(3.35): n

n

i =1

i =1

 k =  xik pi , µ k =  ( xi Љ a ) k pi (для дискретной случайной величины с функцией вероятностей pi = ( xi , ) ),

k = 

+ Љ

x k  ( x,  ) dx, µ k = 

+ Љ

( x Љ a )  ( x,  ) dx k

(для непрерывной случайной величины с плотностью вероятностей ( x, )) , где a = M(X) — см. § 3.7.  Пример 9.1. Найти оценку метода моментов для параметра  закона Пуассона. Р е ш е н и е. В данном случае для нахождения единственного параметра  достаточно приравнять теоретический  1 и эмпирический  1 начальные моменты первого порядка. 1 — математическое ожидание случайной величины Х. В § 4.2 установлено, что для случайной величины, распределенной по закону Пуассона, M ( X ) =  . Момент  1, согласно формуле (8.22), равен x . Следовательно, оценка метода моментов параметра  закона Пуассона есть выборочная средняя x . 

293

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Следует отметить, что если при использовании данного метода некоторые моменты равны нулю или не зависят от нужных параметров, то приходится «пропускать» такие моменты и переходить к следующим по порядковому номеру. Например, если оценивается один параметр 2 нормального закона N (0;  2 ) , нужно взять второй момент, а не первый. Оценки метода моментов обычно состоятельны, однако по эффективности они не являются «наилучшими», их эффективности e( n ) часто значительно меньше единицы. Тем не менее метод моментов часто используется на практике, так как приводит к сравнительно простым вычислениям. Основным методом получения оценок параметров генеральной совокупности по данным выборки является метод максимального (наибольшего) правдоподобия, предложенный Р. Фишером. Основу метода составляет функция правдоподобия, выражающая плотность вероятности (вероятность) совместного появления результатов выборки x1, x2, …, xn:

L ( x1 , x2 , ..., xi , ..., xn ; ) =  ( x1 ,  )   ( x2 ,  ) ... ( xi ,  ) ... ( xn ,  ) ,

или

n

L ( x1 , x2 , ..., xi , ..., xn ; ) =   ( xi ,  ) . i =1

Согласно методу максимального правдоподобия в качестве оценки неизвестного параметра  принимается такое значение  n , которое максимизирует функцию L. Естественность подобного подхода к определению статистических оценок вытекает из смысла функции правдоподобия, которая при каждом фиксированном значении параметра  является м е р о й п р а в д о п о д о б н о с т и полу-

чения наблюдений x1, x2, …, xn. И оценка  n такова, что имеющие-

ся у нас наблюдения x1, x2, …, xn являются наиболее правдоподобными. Нахождение оценки  n упрощается, если максимизировать не саму функцию L, а ln L, поскольку максимум обеих функций достигается при одном и том же значении . Поэтому для отыскания оценки параметра  (одного или нескольких) надо решить уравнение (систему уравнений) правдоподобия, получаемое приравниванием производной (частных производных) нулю по параметру (параметрам) :

d ln L =0 d

или

1 dL =0, L d

(9.9)

а затем отобрать то решение, которое обращает функцию ln L в максимум.

294

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 9.2. Найти оценку метода максимального правдоподобия для вероятности p наступления некоторого события А по данному числу m появления этого события в n независимых испытаниях. Р е ш е н и е. Составим функцию правдоподобия:

L = ( x1 , x2 , ..., xn ; p ) = pp... p (1  p )(1  p ) ... (1  p ) ,     m

nm

L = p (1  p ) m

или

nm

.

Тогда ln L = m ln p + ( n  m ) ln (1  p ) и согласно уравнению (9.9)

d ln L m n  m m , откуда p = (можно показать, что при p = m n =  n dp p 1 p выполняется достаточное условие экстремума функции L). Таким образом, оценкой метода максимального правдоподобия веро-

m этого события.  n

ятности p события А будет частость w =

 Пример 9.3. Найти оценки метода максимального правдоподобия для параметров a и 2 нормального закона распределения по данным выборки. Р е ш е н и е. Плотность вероятности нормально распределенной случайной величины

(

 N x; a, 

2

)= 

( x  a )

1 2

e

2

2

2

.

Тогда функция правдоподобия имеет вид:

(

)

n

L x1 , x2 , ..., xn ; a, 2 =  i =1

1  2

 ( xi  a ) 2 2

e

n

2

  ( xi  a )

1

=

 ( 2 ) n

n 2

e

i =1

2 2

2

.

Логарифмируя, получим:

ln L = Љ

n 1 ln 2 + ln ( 2 ) Љ 2 2 2

(

)

n

(x i =1

i

Љ a) . 2

2

Для нахождения параметров a и  надо приравнять нулю част2

ные производные по параметрам a и  , т.е. решить систему уравнений правдоподобия:

  ln L 1 n  a =  2  ( xi Љ a ) = 0, i =1   ln L n 1 n 2  = 4  (xi Љ a ) Љ 2 = 0, 2    2 i=1 2

295

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

откуда оценки максимального правдоподобия равны: n

a~ =

 xi i =1

n

n

=x,

~2 = 

 (xi  x ) i =1

2

n

= s2.

Таким образом, оценками метода максимального правдоподобия математического ожидания a и дисперсии 2 нормально распределенной случайной величины являются соответственно выборочная средняя x и выборочная дисперсия s 2 .  Важность метода максимального правдоподобия связана с его оптимальными свойствами. Так, если для параметра  существует эффективная оценка  n , то оценка максимального правдоподобия единст-

венная и равна  n . Кроме того, при достаточно общих условиях оценки максимального правдоподобия являются состоятельными, асимптотически несмещенными, асимптотически эффективными и имеют асимптотически нормальное распределение. Основной недостаток метода максимального правдоподобия — трудность вычисления оценок, связанных с решением уравнений правдоподобия, чаще всего нелинейных. Существенно также и то, что для построения оценок максимального правдоподобия и обеспечения их «хороших» свойств необходимо точное знание типа анализируемого закона распределения  ( x,  ) , что во многих случаях оказывается практически нереальным. Метод наименьших квадратов — один из наиболее простых приемов построения оценок. Суть его заключается в том, что оценка определяется из условия минимизации суммы квадратов отклонений выборочных данных от определяемой оценки.  Пример 9.4. Найти оценку метода наименьших квадратов  n для генеральной средней  = x0 . Р е ш е н и е. Согласно методу наименьших квадратов найдем оценку  n из условия минимизации суммы: n

u =  ( xi Љ  )  min . 2

i =1

Используя необходимое условие экстремума, приравняем нулю производную n du = Љ2 ( xi Љ  ) = 0, откуда d i =1

n

x i =1

i

Љ n = 0

n

и  n =

x i =1

n

i

= x , т.е. оценка метода наименьших квадратов генераль-

ной средней x0 есть выборочная средняя x . 

296

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Заметим, что полученная в примере 9.4 оценка метода наименьших квадратов x для генеральной средней x0 совпала с оценкой метода максимального правдоподобия для математического ожидания a = x0 для нормально распределенной случайной величины (см. пример 9.3). И это не случайно, так как функция правдоподобия L( x1 , ..., xn ; ; 2 ) для нормального закона распределения имеет максимум тогда, когда сумма

n

 (x i =1

i

Љ )2 минимальна.

Метод наименьших квадратов получил самое широкое распространение в практике статистических исследований, так как, вопервых, не требует знания закона распределения выборочных данных; во-вторых, достаточно хорошо разработан в плане вычислительной реализации. Применение метода наименьших квадратов в задачах корреляционного и регрессионного анализа рассмотрено в гл. 12 и 13.

9.4.      льной совокупности по собственно-случайной выборке Оценка генеральной доли. Пусть генеральная совокупность содержит N элементов, из которых M обладает некоторым признаком А. Следует найти «наилучшую» оценку генеральной доли p =

M . N

Рассмотрим в качестве такой возможной оценки параметра p его статистический аналог — выборочную долю w =

m . n

а) Выборка повторная Выборочную долю можно представить как среднюю арифметическую n альтернативных случайных величин1 X1, X2, …, Xk, …, Xn, т.е. n

w=

 Xk

k =1

n

, где каждая случайная величина Xk (k = 1, 2, …, n) вы-

1 В учебнике случайные величины, как правило, обозначаются прописными буквами, а их значения — строчными. Выборочные среднюю и долю везде обозначаем для простоты строчными буквами, соответственно x и w. При этом следует понимать, что до проведения наблюдений, когда заранее неизвестно, какими они будут, x и w рассматриваем как с л у ч а й н ы е величины; после проведения наблюдений, когда получены их конкретные значения, — как н ес л у ч а й н ы е величины.

297

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ражает число появлений признака в k-м элементе выборки (т.е. при наличии признака Xk = 1, при его отсутствии Xk = 0) и имеет один и тот же закон распределения: xi

0

1

pi

N M N

M N

(9.10)

Действительно, вероятность того, что 1-й отобранный в выборку элемент обладает признаком А, согласно классическому определению вероятности равна p(X1 = 1) =

M , так как из общего числа N N

элементов генеральной совокупности M элементов обладают признаком А. Аналогично вероятность того, что 1-й элемент не обладает признаком А, равна p(X1 = 0) =

N M . Так как выборка повторN

ная, и каждый отобранный и обследованный элемент вновь возвращается в исходную совокупность, восстанавливая всякий раз ее первоначальные состав и объем, то вероятности p(Xk = 0) и p(Xk = 1) остаются теми же для любого элемента выборки, и закон распределения Xk (k = 1, 2, …, n) один и тот же — (9.10). Случайные величины Х1, Х2, …, Хk, …, Xn независимы, так как независимы любые события Xk = 0, Xk = 1 (k = 1, 2, …, n) и их комбинации. Например, независимы события X1 = 1 и X2 = 1, так как

p X1 =1 (X2 = 1) = p(X2 = 1) =

M , т.е. вероятность того, что 2-й отоN

бранный в выборку элемент обладает признаком А, не меняется в зависимости от того, обладал признаком А 1-й элемент или нет, и т.д.

m повторной выборки есть несмеn M , причем ее щенная и состоятельная оценка генеральной доли p = N Теорема. Выборочная доля w =

дисперсия

2w = где q = 1 – p.

pq , n

(9.11)

 Докажем вначале н е с м е щ е н н о с т ь оценки w. Математическое ожидание и дисперсия частости события в n независимых испытаниях, в каждом из которых оно может наступить с одной и той же вероятностью p, равны соответственно

298

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

M ( w ) = p, D ( w ) = 2w = где q = 1–p (см. § 4.1).

pq , n

Так как вероятность того, что любой отобранный в выборку элемент обладает признаком А, есть генеральная доля p, то из первого равенства вытекает, что частость, или выборочная доля, w есть несмещенная оценка генеральной доли p. Осталось доказать

состоятельность

оценки w =

которая следует непосредственно из теоремы Бернулли (§ 6.4):

m , n

 m  lim P  Љ p    = 1, n  n 



P

w  p.  n 

б) Выборка бесповторная В случае бесповторной выборки случайные величины X1, X2, …, Xn будут зависимыми. Рассмотрим, например, события X1 = 1 и X2 = 1. Теперь вероятность p X1 =1 ( X 2 = 1) =

M 1 , так как отобранN 1

ный элемент (в случае бесповторной выборки) в исходную совокупность не возвращается, то в ней остается всего N – 1 элементов, из которых обладающих признаком А M – 1. Эта вероятность

p X1 =1 ( X 2 = 1) не равна p ( X 2 = 1) =

M , т.е. события X1 = 1 и X2 = 1 — N

зависимые. Аналогично будут зависимы любые события Xk = 1, Xk = 0 (k = 1, 2, …, n), а значит, зависимы случайные величины Х1, Х2, …, Xk, …, Xn. Однако и для бесповторной выборки выборочная доля является «хорошей» оценкой. Об этом свидетельствует следующая теорема.

m бесповторной выборки есть неn M , причем смещенная и состоятельная оценка генеральной доли p = N Теорема. Выборочная доля w =

ее дисперсия

w2 =

pq  N  n  pq  n 1     n N 1 n N

где q = 1 – p.

299

 ,

(9.12)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Очевидно, что и для бесповторной выборки M ( w ) = p, т.е. w — несмещенная оценка для генеральной доли p = M/N. Это связано с тем, что математическое ожидание суммы любых случайных величин равно сумме их математических ожиданий (в том числе суммы зависимых случайных величин, каковой является выборочная доля w бесповторной выборки). Найдем дисперсию выборочной доли для бесповторной выборки:

1  M  M  n  m 1 w2 = 2 = 2 2 ( m ) = 2  n 1Љ 1 Љ =



n  N Љ1 N N  n n 1 M  M  N  n pq N  n , = 1 = n N  N  N  1 n N 1 где p = M N, q = 1– M N, т.е. верна формула (9.12) (при выводе формулы для w2 использовали то, что случайная величина X = m в случае бесповторной выборки имеет гипергеометрическое распределение (см. § 4.4), и ее дисперсия определяется по формуле (4.16)).  Для того чтобы легче было понять формулу (9.12), рассмотрим ее частные случаи и убедимся в справедливости этой формулы. 1. При n 0 (по абсолютной величине), равна:

P ( x Љ x0   ) =  ( t ) = , где t =

P ( w Љ p   ) =  ( t ) = ,

(9.23)

 , x

где t =

(9.24)

 , w

(t ) — функция (интеграл вероятностей) Лапласа.  Выше (§ 9.4) показано, что выборочная средняя x и выборочная доля w повторной выборки представляют сумму n незавиn

симых случайных величин

X k =1

n

k

n

= k =1

Xk , где Хk (k = 1, 2, …, n) n

имеет один и тот же закон распределения — соответственно (9.13) и (9.10) с конечными математическим ожиданием и дисперсией. Следовательно, на основании теоремы Ляпунова (см. § 6.5) при n   распределения x и w неограниченно приближаются к нормальным (практически при n > 30—40 распределения x и w можно считать приближенно нормальными). Для бесповторной выборки x и w представляют сумму зависимых случайных величин (см. § 9.4), к которым, вообще говоря, теорема Ляпунова неприменима. Однако можно показать, что и в этом случае при достаточно больших значениях n и N – n распределения x и w приближенно нормальны.

310

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Формулы (9.23) и (9.24) следуют непосредственно из свойства 2 нормального закона (см. § 4.7, формулы (4.34), (4.35)).  Формулы (9.23) и (9.24) получили название формул доверительной вероятности для средней и доли. О п р е д е л е н и е. Среднее квадратическое отклонение выборочной средней  x и выборочной доли  w собственно-случайной выборки называется средней квадратической (стандартной) ошибкой выборки. (Для бесповторной выборки обозначаем соответственно x и w ). Из рассмотренной теоремы вытекают следующие следствия. Следствие 1. При заданной доверительной вероятности  предельная ошибка выборки равна t-кратной величине средней квадратической ошибки, где  ( t ) = , т.е.1

 = t x ,

(9.25)

 = t w .

(9.26)

Следствие 2. Интервальные оценки (доверительные интервалы) для генеральной средней и генеральной доли могут быть найдены по формулам:

x    x0  x + , w Љ   p  w + .

(9.27) (9.28)

Формулы средних квадратических ошибок выборки  x , x ,  w , w могут быть легко получены из формул (9.16), (9.17), (9.11), (9.12) соответствующих дисперсий 2x , x2 ,  2w , w2 . Поместим их в таблицу (табл. 9.2). Таблица 9.2 Оцениваемый параметр

Формулы средних квадратических ошибок выборки повторная выборка

Средняя

x =

2  n

s2 n

Доля

w =

pq  n

w (1  w ) n

бесповторная выборка

(9.29) x 

s2 n

(9.31) w 

w (1  w )  n 1   (9.32)  n N



n  1 Љ N 

(9.30)

Так как генеральные доля р и дисперсия1 2 неизвестны, то в формулах табл. 9.2 заменяем их состоятельными оценками по выборке — 1

Для бесповторной выборки в формулах (9.25) и (9.26) вместо  x и  w берем

соответственно x и w .

311

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

соответственно w и s2, ибо при достаточно большом объеме выборки n практически достоверно, что w  p, s 2  2 . При определении средней квадратической ошибки выборки для доли, если даже w неизвестна, в качестве pq можно взять его максимально возможное значение

( pq) max =  p (1 Љ p )  max = 0,5  0,5 = 0, 25

(так как

(

)

pq = p (1  p ) =  p 2  p = 0, 25  ( p  0,5 ) , то pq макси2

мально при p = 0,5).  Пример 9.10. При обследовании выработки 1000 рабочих цеха в отчетном году по сравнению с предыдущим по схеме собственнослучайной выборки было отобрано 100 рабочих. Получены следующие данные (см. первые две графы табл. 8.1). Необходимо определить: а) вероятность того, что средняя выработка рабочих цеха отличается от средней выборочной не более чем на 1% (по абсолютной величине); б) границы, в которых с вероятностью 0,9545 заключена средняя выработка рабочих цеха. Рассмотреть случаи повторной и бесповторной выборки. Р е ш е н и е. а) Имеем N = 1000, n = 100. Ранее в примере 8.8 были вычислены x = 119,2(%), s 2 = 87,48. Найдем среднюю квадратическую ошибку выборки для средней: для повторной выборки

для бесповторной выборки

По формуле (9.29)

По формуле (9.30)

x =

87, 48 = 0,935(%) . 100

x =

87, 48  100  1Љ = 0,887(%).  100  1000 

Теперь искомую доверительную вероятность находим по формуле (9.23):

(

)

P x  x0  1 =

P ( x  x0  1) =

 1  =   =  (1, 07 ) = 0, 715 .  0,935 

 1  =   =  (1,13) = 0,741.  0,887 

(Значения  ( t ) находим по табл. II приложений.) 1 Заметим, что в формуле (9.29) 2 представляет дисперсию количественного признака Х (генеральной совокупности), а в формуле (9.31) величина рq = р (1 – р) — дисперсию альтернативного признака Х.

312

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Итак, вероятность того, что выборочная средняя отличается от генеральной средней не более чем на 1% (по абсолютной величине), равна 0,715 — для повторной и 0,741 — для бесповторной выборки. б) Найдем предельные ошибки повторной и бесповторной выборок по формуле (9.25), в которой t = 2,00 (находим по табл. II приложений при данной в условии доверительной вероятности из соотношения  =  ( t ) = 0,9545).

 = 2,00  0,887 = 1, 774(%) .

 = 2,00  0,935 = 1,870(%) .

Теперь искомый доверительный интервал определяем по (9.27):

119, 2  1,870  x0  119, 2 + 1,870 ,

119, 2  1,774  x0  119, 2 + 1,774 ,

или 117,33  x0  121, 07(%) .

или 117, 43  x0  120,97(%) .

Таким образом, с надежностью 0,9545 средняя выработка рабочих цеха заключена в границах от 117,33 до 121,07%, если выборка повторная, и от 117,43 до 120,97%, если выборка бесповторная.   Пример 9.11. Из партии, содержащей 2000 деталей, для проверки по схеме собственно-случайной бесповторной выборки было отобрано 200 деталей, среди которых оказалось 184 стандартных. Найти: а) вероятность того, что доля нестандартных деталей во всей партии отличается от полученной доли в выборке не более чем на 0,02 (по абсолютной величине); б) границы, в которых с надежностью 0,95 заключена доля нестандартных деталей во всей партии. Р е ш е н и е. Имеем N = 2000, n = 200, m = 200 – 184 = 16 нестандартных деталей. Выборочная доля нестандартных деталей

w=

m 16 = = 0,08. n 200

а) По формуле (9.32) найдем среднюю квадратическую ошибку бесповторной выборки для доли:

w =

0, 08  0,92  200  1Љ   = 0,0182. 200 2000

Теперь искомую доверительную вероятность находим по формуле (9.24):

 0,02  P ( w Љ p  0, 02 ) =   =  0, 0182

=  (1,10 ) = 0, 729 (по табл. II приложений),

313

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

т.е. вероятность того, что выборочная доля нестандартных деталей будет отличаться от генеральной доли не более чем на 0,02 (по абсолютной величине), равна 0,729. б) Учитывая, что  =  ( t ) = 0,95 и (по таблице) t = 1,96, найдем предельную ошибку выборки для доли по формуле (9.26):  = 1,96  0,0182 = 0, 0357 . Теперь искомый доверительный интервал определяем по формуле (9.28): 0,08 – 0,0357    0, 08 + 0,0357 , или 0,044    0,116. Итак, с надежностью 0,95 доля нестандартных деталей во всей партии заключена от 0,044 до 0,116.  Объем выборки. Для проведения выборочного наблюдения весьма важно правильно установить объем выборки n, который в значительной степени определяет необходимые при этом временны ґ е, трудовые и стоимостные затраты. Для определения n необходимо задать надежность (доверительную вероятность) оценки  и точность (предельную ошибку выборки) . Объем выборки находится из формулы, выражающей предельную ошибку выборки через дисперсию признака. Например, для повторной выборки при оценке генеральной средней с надежностью  с учетом формул (9.25) и (9.29) эта формула имеет вид:

=t

2 t 2 2 , откуда n = 2 , где  ( t ) =  . Аналогично могут быть  n

получены и другие формулы объема выборки, которые сведем в таблицу (табл. 9.3). Таблица 9.3 Оцениваемый параметр

Повторная выборка 2

t  Генеральная средn= 2 няя  Генеральная доля n =

Бесповторная выборка

2

t 2 pq 2

(9.33) (9.35)

Nt 2 2 t 2 2 + N  2 Nt 2 pq n = 2 t pq + N  2 n =

(9.34) (9.36)

Если найден объем повторной выборки n, то объем соответствующей бесповторной выборки n можно определить по формуле:

n =

nN . n+N

(9.37)

N < 1 , то при одних и тех же точности и надежноn+N сти оценок объем бесповторной выборки n всегда меньше объема поТак как

314

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

вторной выборки n. Этим и объясняется тот факт, что на практике в основном используется бесповторная выборка. Как видно из формул (9.33)—(9.36), для определения объема выборки необходимо знать характеристики генеральной совокупно2 сти  или р, которые неизвестны и для определения которых предполагается провести выборочное наблюдение. В качестве этих характеристик обычно используют выборочные данные s 2 или w предшествующего исследования в аналогичных условиях, т.е. полага2 2 ют   s 2 (или s€ ) или   w . 2 Если никаких сведений о значениях  или р нет, то организуют специальную п р о б н у ю выборку небольшого объема, находят оцен2 2 2 ку s€ (более точную, чем s 2 для малой выборки) или w и, полагая   s€ или p  w, находят объем «о с н о в н о й» выборки. При оценке генеральной доли (если о ней ничего неизвестно) вместо проведения пробной выборки можно в формулах (9.35), (9.36) в качестве pq = p(1 – p) взять его максимально возможное значение, равное 0,25, но при этом надо учитывать, что найденное значение объема выборки будет больше (иногда существенно больше) минимально необходимого для заданных точности и надежности оценок.  Пример 9.12. По условию примера 9.10 определить объем выборки, при котором с вероятностью 0,9973 отклонение средней выработки рабочих в выборке от средней выработки всех рабочих цеха не превзойдет 1% (по абсолютной величине). 2 Р е ш е н и е. В качестве неизвестного значения  для определения объема выборки берем его состоятельную оценку s 2 = 87,48, найденную ранее в примере 9.10. Учитывая, что  =  ( t ) = 0,9973 и (по табл. II приложений)

t = 3,00, найдем объем повторной выборки по формуле (9.33), т.е. n = 32Ѓ87,48/1 = 787. Объем бесповторной выборки по формуле (9.34):

1000  32  87, 48 = 440,5  441. 32  87, 48 + 1000  1 Объем бесповторной выборки n мог быть вычислен и по форn =

муле (9.37), так как уже известен объем повторной выборки n, т.е.

n =

787  1000  441. 787 + 1000

Как видим, при одной и той же точности  = 1(%) и надежности  = 0,9973 оценки объем бесповторной выборки существенно меньше, чем повторной. 

315

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 9.13. По условию примера 9.11 определить число деталей, которые надо отобрать в выборку, чтобы с вероятностью 0,95 доля нестандартных деталей в выборке отличалась от генеральной доли не более чем на 0,04 (по абсолютной величине). Найти то же число, если о доле нестандартных деталей, даже приблизительно, ничего неизвестно. Р е ш е н и е. В качестве неизвестного значения генеральной доли р возьмем ее состоятельную оценку w = 0,08, найденную ранее в примере 9.11. Учитывая, что  =  ( t ) = 0,95 и (по таблице) t = 1,96, найдем объем бесповторной выборки по формуле (9.36), т.е.

2000  1,962  0, 08  0,92 = 162. 1,962  0, 08  0,92 + 2000  0,042 Объем бесповторной выборки n мог быть вычислен и по форn =

муле (9.37), если предварительно был найден объем повторной выборки n по формуле (9.35):

n=

1,962  0, 08  0,92 177  2000  162.  177 и n = 2 177 + 2000 0, 04

Если о доле р ничего, даже приблизительно, неизвестно, в формуле (9.36) полагаем pq = ( pq )max = 0, 25. Тогда

n =

2000  1,962  0, 25 = 462 , 1,962  0, 25 + 2000  0, 042

т.е. полученное возможное значение объема выборки оказалось существенно выше необходимого.  З а м е ч а н и е. Если генеральная совокупность бесконечна ( N =  ) либо объем бесповторной выборки значительно меньше объема генеральной совокупности

( n 2 ;k =  . В практике выборочного наблюдения математическое ожидание x0 , как правило, неизвестно, и приходится иметь дело не с s2 , а с 2

s или s€ 2 . Если X1, X2, …, Xn — повторная выборка из нормально распределенной генеральной совокупности, то, как уже отмечено

( n Љ 1) s€2  ns 2  выше, случайная величина    имеет распределе2  2  ние  2 c k = n – 1 степенями свободы. Поэтому для заданной доверительной вероятности  можно записать:

  ns 2 P  12 < 2 <  22  =  

(9.46)

(графически это площадь под кривой распределения между 12 и

 22 , см. рис. 9.4).

Рис. 9.4

324

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Очевидно, что значения  21 и  22 определяются неоднозначно при одном и том же значении заштрихованной площади1, равной . 2 2 Обычно  1 и  2 выбирают таким образом, чтобы вероятности событий  2 <  21 и  2 >  22 были одинаковы, т.е.

1Љ  . 2 ns 2 2 2 Преобразовав двойное неравенство 1 < 2 <  2 в равенстве  ns 2 ns 2 (9.46) к равносильному виду 2 < 2 < 2 , получим формулы дове2 1 P (  2 < 12 ) = P (  2 >  22 ) =

рительной вероятности: для генеральной дисперсии

 ns 2 ns 2  P  2 < 2 < 2  =  , 1

2

(9.47)

и для среднего квадратического отклонения

 ns ns  (9.48) P  2 ;k ) =  ,

необходимо

P (  2 < 12 ) = 1  P (  2 > 12 ) , поэтому условие

(

)

равносильно условию P  2 > 12 = 1 Љ

учесть,

что

P (  2 < 12 ) =

1Љ  2

1Љ  1+  = . Таким образом, 2 2

значения 12 и  22 находим по табл. V приложений из равенств:

1+  , 2 1Љ  P (  2 >  22 ) = , 2 12 = (12 +  ) / 2;n Љ1 ,  22 = (12 Љ ) / 2;n Љ1 . P ( 2 > 12 ) =

т.е. при k = n – 1 1

(9.49) (9.50)

При построении доверительных интервалов для x0 и р мы эту неоднозначность

обходили тем, что брали доверительный интервал, симметричный относительно несмещенной точечной оценки. Здесь это смысла не имеет, так как в отличие от выборочных распределений x и w распределение

325

 2 не обладает симметрией.

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 9.17. На основании выборочных наблюдений производительности труда 20 работниц было установлено, что среднее квадратическое отклонение суточной выработки составляет 15 м ткани в час. Предполагая, что производительность труда работницы имеет нормальное распределение, найти границы, в которых с надежностью 0,9 заключены генеральные дисперсия и среднее квадратическое отклонение суточной выработки работниц. Р е ш е н и е. Имеем  = 0,9; (1 Љ  ) 2 = 0,05; (1 +  ) 2 = 0,95. При числе степеней свободы k = n – 1 = 20 – 1 = 19 в соответ2 2 ствии с равенствами (9.49) и (9.50) определим 1 и  2 по табл. V 2 2 приложений: 12 =  0,95;19 =10,1 и  22 = 0,05;19 =30,1. Тогда доверитель-

ный интервал для 2 по формуле (9.47) можно записать в виде:

20 20  152 < 2 <  152 , или 149,5 < 2 < 445,6, и для  по форму30,1 10,1

ле (9.48): 149,5 <  < 445,6, или 12,2 <  < 21,1 (м/ч). Итак, с надежностью 0,9 дисперсия суточной выработки работниц заключена в границах от 149,5 до 445,6, а ее среднее квадратическое отклонение — от 12,2 до 21,1 метров ткани в час.  2 З а м е ч а н и е. Таблица значений   ;k (прил. V) составлена при числе степеней свободы k от 1 до 30. При k > 30 можно считать (см.

2 2 Љ 2k Љ 1 имеет стандартное

§ 4.9), что случайная величина

нормальное распределение N(0;1). Поэтому для определения 12 и

 22 следует записать, что

P –t
 , то гипотеза Н0 отвергается, в то время как появление значения  n   считается совместимым с гипотезой Н0, которая тогда принимается (точнее, не отвергается). Правило, по которому гипотеза Н0 отвергается или принимается, называется статистическим критерием или статистическим тестом. Таким образом, множество возможных значений статистики критерия (критической статистики)  n разбивается на два непересекающихся подмножества: критическую область (область отклонения гипотезы) W и область допустимых значений (область принятия гипотезы)

W . Если фактически наблюдаемое значение статистики критерия  n

попадает в критическую область W, то гипотезу Н0 отвергают. При этом возможны четыре случая (табл. 10.1). Таблица 10.1 Гипотеза Н0

Принимается

Отвергается

Верна

Правильное решение

Ошибка 1-го рода

Неверна

Ошибка 2-го рода

Правильное решение

О п р е д е л е н и е. Вероятность  допустить ошибку 1-го рода, т.е. отвергнуть гипотезу Н0, когда она верна, называется уровнем значимости, или размером, критерия. Вероятность допустить ошибку 2-го рода, т.е. принять гипотезу Н0, когда она неверна, обычно обозначают  . О п р е д е л е н и е. Вероятность (1–  ) не допустить ошибку 2-го рода, т.е. отвергнуть гипотезу Н0, когда она неверна, называется мощностью критерия1. Пользуясь терминологией статистического контроля качества продукции, можно сказать, что вероятность  представляет «риск поставщика», связанный с забраковкой по результатам выборочного кон1

В отличие от простых, при проверке сложных гипотез вероятности ошибок 

и  являются функциями неизвестного параметра; например, () и () — функции параметра , если нулевая и альтернативная гипотезы предполагают принадлежность параметра  к двум непересекающимся областям значений. В этом случае вероятность 1 Љ () принять гипотезу H 0 , когда она верна, называют оперативной характеристикой критерия, а вероятность 1 Љ () отвергнуть гипотезу H 0 , когда она неверна, — функцией мощности критерия.

332

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

троля изделий всей партии, удовлетворяющей стандарту, а вероятность  — «риск потребителя», связанный с принятием по анализу выборки партии, не удовлетворяющей стандарту. Применяя юридическую терминологию,  — вероятность вынесения судом обвинительного приговора, когда на самом деле обвиняемый невиновен,  — вероятность вынесения судом оправдательного приговора, когда на самом деле обвиняемый виновен в совершении преступления. В ряде прикладных исследований ошибка первого рода  означает вероятность того, что предназначавшийся наблюдателю сигнал не будет им принят, а ошибка второго рода  — вероятность того, что наблюдатель примет ложный сигнал. Возможностью двойной ошибки (1-го и 2-го рода) проверка гипотез отличается от рассматриваемого выше интервального оценивания параметров, в котором имелась лишь одна возможность ошибки: получение доверительного интервала, который на самом деле не содержит оцениваемого параметра. Вероятности ошибок 1-го и 2-го рода ( и ) однозначно определяются выбором критической области. Очевидно, желательно сделать как угодно малыми  и . Однако это противоречивые требования: при фиксированном объеме выборки можно сделать как угодно малой лишь одну из величин —  или , что сопряжено с неизбежным увеличением другой. Лишь при увеличении объема выборки возможно о д н о в р е м е н н о е уменьшение вероятностей  и  (см. пример 10.0). Какими принципами следует руководствоваться при построении критической области W? Предположим, что используемая для проверки (тестирования) нулевой гипотезы Н0 статистика критерия  n имеет нормальный

закон распределения N(a0;  2 ). В качестве критической области, отвечающей уровню значимости  = 0,05, можно взять множество областей — таких, что площадь соответствующих им криволинейных трапеций под кривой распределения составляет 5/100 от общей площади под кривой распределения. Например (рис. 10.1): [I] — область больших положительных отклонений (при  n > .1 ); [II] —

область больших отрицательных отклонений (при  n < .2 ); [III] — область

больших

по

абсолютной

величине

отклонений

(при

 n < .3 ,  n >  .3 ); [IV] — область малых по абсолютной величине

отклонений (при .4 <  n < .4 ) и т.д.

333

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

N (a 0 ;  2)

1 2

[III]

 кр.3

0 ( n )

 кр.1

 кр.2  кр.4

[II]

[IV]

 n

 кр.3

 кр.4

[I]

1 2

[III]

a0

Рис. 10.1 N (a 0 ;  2)

N (a1 ;  2) 1 ( n )

0 ( n )

PII

1 2

[III]

PIII

PI

 кр.3 [II]

 кр.2

 кр.4 [IV]

 кр.1

кр.4

 кр.3 [I]

~ n 1 2

[III]

a0 a1

Рис. 10.2

Какую из этих областей предпочесть в качестве критической? Пусть с проверяемой гипотезой Н0 конкурирует другая, альтернативная, гипотеза Н1, при которой распределение статистики крите2 рия  n нормально: N(a1;  ), где a1 > a0 (рис. 10.2). Очевидно, следует предпочесть ту критическую область, при которой мощность критерия будет наибольшей. Если, например, критическая область типа [I], то в случае  n < .1 гипотеза Н0 принимается. Но в этом случае может быть верна конкурирующая гипотеза Н1 с вероятностью ошибки второго рода . Вероятность  интерпретируется пло-

( )

щадью под кривой распределения 1  n

левее .1 1, а мощность

критерия (1 – ) — площадью РI правее .1 (см. рис. 10.2). Аналогично РII, РIII, РIV интерпретируют мощность критерия при крити1

Здесь отчетливо видно, что если увеличить

 кр.1 ,

то ошибка  1-го рода

уменьшится (станет меньше чем 0,05), но увеличится ошибка 2-го рода , и наоборот; одновременно же уменьшить и , и  невозможно.

334

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ческих областях соответственно II, III и IV типов (на рис. 10.2 площади РI—РIV заштрихованы)1. Очевидно, что в данном случае целесообразно выбрать в качестве критической область [I], т.е. правостороннюю критическую область, так как такой выбор гарантирует максимальную мощность критерия. Требования к критической области аналитически можно записать так:

( P ( 

) H ) = max,

P  n  W H 0 = , n

W

(10.1)

1

т.е. критическую область W следует выбирать так, чтобы вероятность попадания в нее статистики критерия  n была минимальной и равной , если верна нулевая гипотеза Н0, и максимальной в противоположном случае. Другими словами, критическая область должна быть такой, чтобы при заданном уровне значимости  мощность критерия 1 –  была максимальной. Задача построения такой критической области W (или, как говорят, построения наиболее мощного критерия) для простых гипотез решается с помощью следующей теоремы. Теорема (лемма) Неймона—Пирсона. Среди всех критериев заданного уровня значимости , проверяющих простую гипотезу Н0 против альтернативной гипотезы Н1, критерий отношения правдоподобия является наиболее мощным. Поясним смысл этой теоремы, полагая случайную величину X непрерывной. Если верна простая гипотеза Н0, то плотность вероятности (x) определяется однозначно, и функция правдоподобия L0(x), выражающая плотность вероятности совместного появления результатов выборки (x1, x2, …, xn), имеет вид (см. § 9.3):

L0 ( x1 , ..., xn ) = 0 ( x1 )0 ( x2 )...0 ( xn ) . Напомним, что функция L0 ( x1 , ..., xn ) есть мера правдоподобности получения выборочных наблюдений x1, x2,…, xn. Аналогично, если верна простая гипотеза Н1, то функция правдоподобия L1 ( x1 , ..., xn ) = 1 ( x1 )1 ( x2 ) ... 1 ( xn ) . В теореме Неймана—Пирсона рассматривается отношение правдоподобия L1/L0 (при L0  0); чем правдоподобнее выборка в условиях гипотезы Н1, тем больше отношение L1/L0 или его логарифм ln (L1/L0). А крите-

1

PIII частично перекрывается с PI и PII.

335

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

рий этого отношения, по заключению теоремы, и является наиболее мощным среди других возможных критериев. Используя данный критерий, можно найти такую постоянную С (или ln C = c), что

 L ( x , ..., xn )   L ( x , ..., xn )  > C  = P  ln 1 1 > c =  . P 1 1  L0 ( x1 , ..., xn )   L0 ( x1 , ..., xn ) 

С помощью полученной постоянной С (или с) определяется критическая область W критерия и его мощность.  Пример 10.0. Случайная величина X имеет нормальный закон распределения N(a; 2), где a = M(X) не известно, а 2 = D(X) известно. Построить наиболее мощный критерий проверки гипотезы H0: a = a0 против альтернативной H1: a = a1 > a0. Найти: а) мощность критерия; б) минимальный объем выборки, обеспечивающий заданные уровень значимости  и мощность критерия 1 – . Р е ш е н и е. Если верна гипотеза Н0, т.е. X  N(a0; 2), то функция правдоподобия (см. § 9.3) имеет вид: n

1  L0 ( x1 , ..., xn ) = n e n/2  (2)

 ( xi  a0 )

i =1

2

.

2 2

Аналогично, если верна гипотеза Н1, т.е. X  N(a1; 2), то n

 ( xi  a1 )

1  i =1 L1 ( x1 , ..., xn ) = n e n/2  (2)

2

2

2

.

Согласно теореме Неймана—Пирсона наиболее мощный критерий основан на отношении правдоподобия L1/L0. Найдем его логарифм; получим n

ln (L1/L0) = 

 (x

i

 a1 ) 2

n

 (x

i

 a0 )2

+ = 22 22 n 1 n 1 = 2  [2 xi (a1  a0 )  (a12  a02 )] = 2 (a1  a0 ) (2 xi  a1  a0 ) = 2 i =1 2 i =1 n 1 = 2 (a1  a0 )(2 x  a1  a0 )n , ибо x =  xi / n . 2 i =1 i =1

i =1

Для построения критерия найдем такую постоянную С (или ln C = с), что

L   L  P  1 > C  = P  ln 1 > c  =  .  L0   L0 

Полученное выражение для уровня значимости  можно заменить ему равносильным (учитывая монотонность функции ln (L1/L0) относительно x ): P( x > c) =  .

336

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Для определения с следует учесть, что если случайная величина X распределена нормально, т.е. X  N(a0, 2), то ее средняя x также распределена нормально с параметрами а0 и 2/n (см. § 6.3, 9.3), т.е.

x  N(a0, 2/ n ).

Используя выражение функции распределения нормального закона через функцию Лапласа (4.30), получим

 1 1  c Љ a0  P( x > c) = 1 Љ P( x  c) = 1 Љ + n =  2 2   1 1  c Љ a0  = Љ  n  = , 2 2 c Љ a0  c Љ a0  откуда   n  = 1 Љ 2 или n = t1Љ 2 и определяющее 

 . границу критической области W значение c = a0 + t1Љ 2  n Следовательно, наиболее мощным критерием проверки гипотезы Н0: а = а0 против альтернативной Н1: а = а1 > a0 является следующий: гипотеза Н0 отвергается, если x > a0 + t1Љ 2 вергается, если x  a0 + t1Љ 2 

 n



n

; Н0 не от-

.

а) Для нахождения мощности критерия определим вначале вероятность  допустить ошибку 2-го рода — принять гипотезу Н0, когда она не верна, а верна альтернативная гипотеза Н1, т.е. X   N(a1, 2) или x  N(a1, 2/ n ):

    1 1  a0 + t1Љ 2  / n Љ a1  = P x  a0 + t1Љ 2 n =

= +

 n 2 2     1 1  ( a Љ a0 ) n = Љ  1 Љ t1Љ 2  .   2 2 

Следовательно, мощность критерия есть

1Љ  =

 1 1  ( a1 Љ a0 ) n +  Љ t1Љ 2  .  2 2  

Рассматривая полученные выражения, еще раз (теперь уже аналитически) убеждаемся в том, что уменьшение уровня значимости  при неизменном объеме выборки n ведет к увеличению вероятности  и соответственно к снижению мощности критерия 1 – . И толь-

337

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ко при увеличении объема выборки n возможно, уменьшая вероятность , одновременно уменьшать вероятность  (увеличивать мощность критерия 1 – ). б) При заданных вероятностях ошибок 1-го и 2-го рода  и  из выражения для  нетрудно найти соответствующий объем выборки по формуле:

n=

(t1Љ 2 + t1Љ 2 )2 2 (a1 Љ a0 ) 2

. 

(10.1)

В зависимости от вида конкурирующей гипотезы Н1 выбирают правостороннюю, левостороннюю или двустороннюю критическую область. Так, в рассмотренном примере мы убедились, что при конкурирующей гипотезе Н1: а1 > а0 следовало использовать правостороннюю критическую область [I] (см. рис. 10.1, 10.2). Аналогично можно показать, что в случае Н1: а1 < а0 следовало использовать левостороннюю критическую область [II], а при гипотезе Н1: а1  a0 — двустороннюю критическую область [III]. Границы критических областей  при заданном уровне значимости  определяются соответственно из соотношений: для правосторонней критической области

(

)

P  n >  =  ,

(10.2)

для левосторонней критической области

(

)

P  n <  =  ,

(10.3)

для двусторонней критической области

 P  n < .1 = P  n > .2 = . 2

(

)

(

)

(10.4)

Соответствующий равенствам (10.2) или (10.3) критерий называется односторонним, а равенству (10.4) — двусторонним. Следует отметить, что в компьютерных статистических пакетах обычно не находятся границы критической области кр, необходимые для сравнения их с фактически наблюдаемыми значениями выбороч-

ных характеристик  . и принятия решения о справедливости гипотезы Н0. А рассчитывается точное значение уровня значимости (p-valio) исходя из соотношения Р (  n >  . ) = р. Если р очень мало, то гипотезу Н0 отвергают, в противном случае Н0 принимают (точнее, не отвергают; при этом рассчитанное на компьютере значение р может быть удвоено при выборе двусторонней критической области). Принцип проверки статистической гипотезы не дает логического доказательства ее верности или неверности. Принятие гипотезы Н0 в сравнении с альтернативной Н1 не означает, что мы уверены в абсо-

338

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

лютной правильности Н0 или что высказанное в гипотезе Н0 утверждение является наилучшим, единственно подходящим; просто гипотеза Н0 не противоречит имеющимся у нас выборочным данным, таким же свойством наряду с Н0 могут обладать и другие гипотезы. Более того, возможно, что при увеличении объема выборки n либо при испытании Н0 против другой альтернативной гипотезы Н2 гипотеза Н0 будет отвергнута. Так что принятие гипотезы Н0 следует расценивать не как раз и навсегда установленный, абсолютно верный содержащийся в ней факт, а лишь как достаточно правдоподобное, не противоречащее опыту утверждение. В описанной выше схеме проверка гипотез основывается на предположении об известном законе распределения генеральной совокупности, из которого следует определенное распределение критерия. Критерии проверки таких гипотез называются параметрическими. Если закон распределения генеральной совокупности неизвестен, то соответствующие критерии получили название непараметрических1. Естественно, что непараметрические критерии обладают значительно меньшей мощностью, чем параметрические. Это означает, что для сохранения той же мощности при использовании непараметрического критерия по сравнению с параметрическим нужно иметь значительно больший объем наблюдений. По своему прикладному содержанию статистические гипотезы можно подразделить на несколько основных типов: Ѓ о равенстве числовых характеристик генеральных совокупностей; Ѓ о числовых значениях параметров; Ѓ о законе распределения; Ѓ об однородности выборок (т.е. принадлежности их одной и той же генеральной совокупности); Ѓ о стохастической независимости элементов выборки.

10.3.              Сравнение средних двух совокупностей имеет важное практическое значение. На практике часто встречается случай, когда средний результат одной серии экспериментов отличается от среднего результата другой серии. При этом возникает вопрос, можно ли объяснять обнаруженное расхождение средних неизбежными случайными ошибками эксперимента или оно вызвано некоторыми закономерностями2. В промышленности задача сравнения средних часто 1

В литературе такие критерии называются также свободными от распределения. Поэтому проверку гипотез такого типа называют проверкой (оценкой) значимости (существенности) различия выборочных средних или других характеристик.

2

339

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

возникает при выборочном контроле качества изделий, изготовленных на разных установках или при различных технологических режимах, в финансовом анализе — при сопоставлении уровня доходности различных активов и т.д. Сформулируем задачу. Пусть имеются две совокупности, характеризуемые генеральными средними x0 и y0 и известными диспер2

сиями  x и 2y . Необходимо проверить гипотезу Н0 о равенстве генеральных средних, т.е. Н0: x0 = y0 . Для проверки гипотезы Н0 из этих совокупностей взяты две независимые выборки объемов n1 и n2, по которым найдены средние арифметические x и y и выбо2 рочные дисперсии s x и s y2 .

При достаточно больших объемах выборки, как отмечено в § 9.6, выборочные средние x и y имеют приближенно нормальный закон

(

)

(

)

2 2 распределения, соответственно N x0 ,  x и N y0 ,  y .

В случае справедливости гипотезы Н0 разность x – y имеет нормальный закон распределения с математическим ожиданием M ( x  y ) = M ( x)  M ( y) = x0  y0 = 0 и дисперсией 2x  y = 2x + 2y =

=

2 2x  y + (напомним, что дисперсия разности независимых слуn1 n2

чайных величин равна сумме их дисперсий, а дисперсия средней n независимых слагаемых в n раз меньше дисперсии каждого). Поэтому при выполнении гипотезы H0 статистика

t=

(x  y)  M (x  y) = x  y

xy

(10.5)

2 2x  y + n1 n2

имеет стандартное нормальное распределение N(0;1).

Рис. 10.3

Рис. 10.4

340

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Согласно равенствам (10.2)—(10.4) в случае конкурирующей гипотезы Н1: x0 > y0 (или H1: x0 < y0 ) выбирают одностороннюю критическую область и критическое значение статистики находят из условия (рис. 10.3)

( )

 t =  ( t1Љ 2 ) = 1 Љ 2 ,

(10.6)

а при конкурирующей гипотезе H 2 : x0  y0 выбирают двустороннюю критическую область и критическое значение статистики находят из условия (рис. 10.4)

( )

 t

=  ( t1Љ ) = 1 Љ  .

(10.7)

Если фактически наблюдаемое значение статистики t больше критического tкр, определенного на уровне значимости  (по абсолютной величине), т.е. t > t , то гипотеза Н0 отвергается. Если t  t , то делается вывод, что нулевая гипотеза Н0 не противоречит имеющимся наблюдениям.  Пример 10.1. Для проверки эффективности новой технологии отобраны две группы рабочих: в первой группе численностью n1 = 50 чел., где применялась новая технология, выборочная средняя выработка составила x = 85 (изделий), во второй группе численностью n2 = 70 чел. выборочная средняя — y = 78 (изделий). Предварительно установлено, что дисперсии выработки в группах равны соответственно 2x = 100 и 2y = 74 . На уровне значимости  = 0,05 выяснить влияние новой технологии на среднюю производительность. Р е ш е н и е. Проверяемая гипотеза H 0: x0 = y0 , т.е. средние выработки рабочих одинаковы по новой и старой технологиям. В качестве конкурирующей гипотезы можно взять Н1: x0 > y0 или Н2 : x0  y0 (в данной задаче более естественна гипотеза Н1, так как ее справедливость означает эффективность применения новой технологии). По формуле (10.5) фактическое значение статистики критерия

t=

85  78 100 74 + 50 70

= 4, 00 .

При конкурирующей гипотезе Н1 критическое значение статистики

( )

находится из условия (10.6), т.е.  t = 1 Љ 2  0, 05 = 0,9, откуда по табл. II приложений tкр = t0,9 = 1,64, а при конкурирующей гипотезе Н2 —

( )

из условия (10.7), т.е.  t = 1 Љ 0,05 = 0,95, откуда по таблице tкр = t0,95 = 1,96.

341

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Так как фактически наблюдаемое значение t = 4,00 больше критического значения tкр (при любой из взятых конкурирующих гипотез), то гипотеза Н0 отвергается, т.е. на 5%-ном уровне значимости можно сделать вывод, что новая технология позволяет повысить среднюю выработку рабочих.  Будем теперь предполагать, что распределение признака (случайной величины) X и Y в каждой совокупности имеет нормальный закон. В этом случае, если дисперсии  2x и 2y известны, то проверка гипотезы проводится так же, как описано выше, не только для больших, но и для малых по объему выборок. Если же дисперсии 2x и 2y неизвестны, но равны, т.е.

2x = 2y = 2 , то в качестве неизвестной величины 2 можно взять ее оценку — «исправленную» выборочную дисперсию

s€x2 =

1 n 1 n ( xi  x ) 2 или s€y2 =   ( yi  y ) 2 . n1  1 i =1 n2  1 i =1

2 Однако «лучшей» оценкой для  будет дисперсия «смешанной» совокупности объема n1 + n2, т.е. n

s€2 =

(x i =1

i

n

 x ) 2 +  ( yi  y ) 2 i =1

n1 + n2  2

=

( n1  1) s€x2 + ( n2  1) s€y2 n1 + n2  2

=

n1sx2 + n2 s y2 n1 + n2  2

,

а оценкой дисперсии разности независимых выборочных средних 2x  y —

s€x2 y =

n1sx2 + n2 s 2y  1 1   +  n1 + n2 Љ 2  n1 n2 

(обращаем внимание на то, что число степеней свободы k = n1 + n2 – 2 на 2 меньше общего числа наблюдений n1 + n2, так как две степени свободы «теряются» при определении по выборочным данным средних x и y ). Доказано, что в случае справедливости гипотезы Н0 статистика

t=

xy 2 1 x

n s + n2 s y2  1 1   +  n1 + n2  2  n1 n2 

(10.8)

имеет t-распределение Стьюдента с k = n1 + n2 – 2 степенями свободы. Поэтому критическое значение статистики t находится по тем же формулам (10.6) или (10.7) в зависимости от типа критической об-

342

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ласти, в которых вместо функции Лапласа  ( t ) берется функция

 ( t , k ) для распределения Стьюдента при числе степеней свободы

k = n1 + n2 – 2, т.е.  ( t , k ) = 1 Љ 2 или  ( t , k ) = 1 Љ  .

При этом сохраняется то же правило опровержения (принятия) гипотезы: гипотеза Н0 отвергается на уровне значимости , если t > t1Љ 2 ;k (в случае односторонней критической области), либо если

t > t1Љ;k (в случае двусторонней критической области); в противном случае гипотеза Н0 не отвергается (принимается). 2 З а м е ч а н и е. Если дисперсии  x и 2y неизвестны и не предполагается, что они равны, то статистика t = ( x  y ) / s€x  y также имеет t-распределение Стьюдента, однако соответствующее ему число степеней свободы определяется приближенно и более сложным образом.  Пример 10.2. Произведены две выборки урожая пшеницы: при своевременной уборке урожая и уборке с некоторым опозданием. В первом случае при наблюдении 8 участков выборочная средняя урожайность составила 16,2 ц/га, а среднее квадратическое отклонение — 3,2 ц/га; во втором случае при наблюдении 9 участков те же характеристики равнялись соответственно 13,9 ц/га и 2,1 ц/га. На уровне значимоcти  = 0,05 выяснить влияние своевременности уборки урожая на среднее значение урожайности. Р е ш е н и е. Проверяемая гипотеза Н0: x0 = y0 , т.е. средние значения урожайности при своевременной уборке урожая и с некоторым опозданием равны. В качестве альтернативной гипотезы берем гипотезу Н1: x0 > y0 , принятие которой означает существенное влияние на урожайность сроков уборки. Фактически наблюдаемое значение статистики критерия по формуле (10.8)

t=

16, 2  13,9 9  3, 22 + 8  2,12  1 1  8 + 9 8+92  

= 1,62 .

Критическое значение статистики для односторонней области определяется при числе степеней свободы k = n1+ n2 – 2 = 9 + 8 – 2 = 15 из

условия  ( t , k ) = 1 Љ 2  0,05 = 0,9 , откуда по табл. IV приложений t0,9;15 = 1,75. Так как t = 1,62 < t0,9;15 = 1,75, то гипотеза Н0 принима-

343

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ется. Это означает, что имеющиеся выборочные данные на 5%-ном уровне значимости не позволяют считать, что некоторое запаздывание в сроках уборки оказывает существенное влияние на величину урожая. Еще раз подчеркнем, что это не означает безоговорочную верность гипотезы Н0. Вполне возможно, что только незначительный объем выборки позволил принять эту гипотезу, а при увеличении объемов выборки (числа отобранных участков) гипотеза Н0 будет отвергнута.  Сравнение средних нескольких совокупностей. Эта задача рассматривается в гл. 11 «Дисперсионный анализ». Исключение грубых ошибок наблюдений. Рассмотренный критерий можно применять для исключения грубых ошибок наблюдений. Грубые ошибки могут возникнуть из-за ошибок показаний измерительных приборов, ошибок регистрации, случайного сдвига запятой в десятичной записи числа и т.д. Пусть, например, x , x1 , x2 , ..., xn — совокупность имеющихся  наблюдений, причем x резко выделяется. Необходимо решить вопрос о принадлежности резко выделяющегося значения к остальным наблюдениям. Для ряда наблюдений x1 , x2 , ..., xn рассчитывают среднюю ариф-

метическую x и «исправленное» среднее квадратическое отклоне-

 ние s€. При справедливости гипотезы Н0: x0 = x о принадлежности

x  x (получаемая как чаs€ стный случай из формулы (10.8) при y = x , n2 = 1) имеет t-распре-

x к остальным наблюдениям статистика t =

деление Стьюдента с k = n – 1 степенями свободы. Конкурирующая гипотеза Н1 имеет вид: x0 > x или x0 < x — в зависимости от того, является ли резко выделяющееся значение больше или меньше остальных наблюдений. Гипотеза Н0 отвергается, если t > t , и принимается, если t  t .  Пример 10.3. Имеются следующие данные об урожайности пшеницы на 8 опытных участках одинакового размера (ц/га): 26,5; 26,2; 35,9; 30,1; 32,3; 29,3; 26,1; 25,0. Есть основание предполагать,  что значение урожайности третьего участка x = 35,9 зарегистрировано неверно. Является ли это значение аномальным (резко выделяющимся) на 5%-ном уровне значимости? Р е ш е н и е. Исключив значение x = 35,9, найдем для оставшихся наблюдений x =27,93 (ц/га) и s = 2,67 (ц/га). Фактически

344

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

наблюдаемое значение t =

35,9 Љ 27,93 = 2,98 больше табличного tкр = 2,67

= t1–2;n–1 = t0,9;6 = 1,94, следовательно, значение x = 35,9 является аномальным, и его следует отбросить. 

10.4. Проверка гипотез о равенстве долей признака в двух и более совокупностях Сравнение долей признака в двух совокупностях — достаточно часто встречающаяся на практике задача. Например, если выборочная доля признака в одной совокупности отличается от такой же доли в другой совокупности, то указывает ли это на то, что наличие признака в одной совокупности действительно вероятнее, или полученное расхождение долей является случайным? Сформулируем задачу. Имеются две совокупности, генеральные доли признака в которых равны соответственно p1 и p2. Необходимо проверить нулевую гипотезу о равенстве генеральных долей, т.е. Н0: р1=р2. Для проверки гипотезы Н0 из этих совокупностей взяты две независимые выборки достаточно большого объема1 n1 и n2. Выборочные доли признака равны соответственно w1 =

m1 и n1

w2 =

m2 , n2

где m1 и m2 — соответственно число элементов первой и второй выборок, обладающих данным признаком. При достаточно больших n1 и n2, как отмечено в § 9.5, выборочные доли w1 и w2 имеют приближенно нормальный закон распределения с математическими ожиданиями р1 и р2 и дисперсиями

1 (1  1 ) n1

и

2 (1  2 ) n2

, т.е. соответственно

 p (1 Љ p1 )  N  p1 ; 1  и n1  

 p (1 Љ p2 )  N  p2 ; 2  . При справедливости гипотезы Н0: p1 = p2 = p n2   разность w1 – w2 имеет нормальный закон распределения с математическим ожиданием M( w1 – w2 ) = p – p = 0 и дисперсией  2w1  w2 =

1 1  = 2w1 + 2w2 = p (1 Љ p )  +  . Поэтому статистика  n1 n2 

1

Здесь ограничиваемся рассмотрением случая больших по объему выборок.

345

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

t=

w1  w2 =  w1  w2

w1  w2

(10.9)

1 1 p€ (1  p€ )  +   n1 n2 

имеет стандартное нормальное распределение N(0;1). В качестве неизвестного значения р, входящего в выражение статистики t, берут ее наилучшую оценку € , равную выборочной доле признака, если две выборки смешать в одну, т.е.

p€ =

m1 + m2 . n1 + n2

(10.10)

Выбор типа критической области и проверка гипотезы Н0 осуществляются так же, как и выше, при проверке гипотезы о равенстве средних.  Пример 10.4. Контрольную работу по высшей математике по индивидуальным вариантам выполняли студенты двух групп первого курса. В первой группе было предложено 105 задач, из которых верно решено 60, во второй группе из 140 предложенных задач верно решено 69. На уровне значимости 0,02 проверить гипотезу об отсутствии существенных различий в усвоении учебного материала студентами обеих групп. Р е ш е н и е. Имеем гипотезу Н0: р1 = р2 = р, т.е. доли решенных задач студентами первой и второй групп равны. В качестве альтернативной возьмем гипотезу H1: p1  p2 . При справедливости гипотезы Н0 наилучшей оценкой р будет в соответствии с равенством (10.10) p€ = рочные

доли

решенных

60 + 69 129 = = 0,527. Выбо105 + 140 245

задач

для

каждой

группы

m m 60 69 w1 = 1 = = 0,571 и w2 = 2 = = 0, 493 . Статистика критерия n1 105 n2 140

по формуле (10.9)

t=

0,571  0, 493 1   1 + 0,527 (1  0,527 )    105 140 

= 1, 21.

При конкурирующей гипотезе Н1 выбираем критическую двустороннюю область, границы которой определяем из условия (10.7):  t = 1 Љ 0,02 = 0,98, откуда по табл. II приложений

( )

tкр = t0,98 = 2,33. Фактическое значение критерия меньше критического, т.е. t < t0,98 , следовательно, гипотеза Н0 принимается, т.е.

346

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

полученные данные не противоречат гипотезе об одинаковом уровне усвоения учебного материала студентами обеих групп.  Сравнение долей признака в нескольких совокупностях. Пусть имеется l совокупностей, генеральные доли которых равны соответственно p1, p2, ..., pl. Необходимо проверить нулевую гипотезу о равенстве генеральных долей, т.е. Н0: p1 = p2 = ... = pn = p или Н0: pi = p (i = 1, 2, ..., l). Для проверки гипотезы Н0 из этих совокупностей отобраны l независимых выборок достаточно больших объемов n1, n2, ..., nl. Выборочные доли признака равны соответственно w1 = m1 n1 , w2 = m2 n2 , …, wl = ml nl , где mi — число элементов i-й выборки (i = 1, 2, ..., l ), обладающих данным признаком. Можно показать, что при справедливости гипотезы Н0 и при n   статистика

2 =

l 1 2 ni ( wi Љ p€ )  p€ (1 Љ p€ ) i =1

(10.11)

имеет 2-распределение с l – 1 степенями свободы. В качестве неизвестного значения p€ , входящего в выражение (10.11), берут наилучшую оценку для p, равную выборочной доле признака, если все l выборок смешать в одну, т.е. l

p€ =

m i =1 l

i

n i =1

.

(10.12)

i

Для проверки гипотезы Н0 обычно берут правостороннюю кри2 2 тическую область. Гипотеза Н0 отвергается, если  >  ;l Љ1 , где

2 ;l Љ1 — критическое значение критерия  2 , определяемое на уровне значимости  при числе степеней свободы l – 1.  Пример 10.5. По условию примера 10.4 на уровне значимости

 = 0,05 выяснить, можно ли считать, что различия в усвоении

учебного материала студентами четырех групп первого курса существенны. Дополнительные условия: для третьей группы m3 = 63, n3 = 125, для четвертой группы m4 = 105, n4 = 160. Р е ш е н и е. Выдвигаем гипотезу H0: p1 = p2 = p3 = p4 = p или pi = p (i = 1, 2, 3, 4), т.е. доли решенных задач всех групп равны. Вычислим по формуле (10.12) оценку p€ :

p€ =

60 + 65 + 63 + 105 = 0,553 . 105 + 140 + 125 + 160

347

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Выборочные доли решенных задач для каждой группы: w1 = 0,571,

w2 = 0, 499 (см. пример 10.4), w3 = 63 125 = 0,504, w4 = 105 160 = 0,656 . Статистика критерия по формуле (10.11)

2 =

1 105 ( 0,571 Љ 0,553)2 + 140 ( 0, 499 Љ 0,553)2 + 0,553 (1 Љ 0,553)  2 2 +125 ( 0,504 Љ 0,553) + 160 ( 0,656 Љ 0,553)  = 9,87 . 

По табл. V приложений

( 9,87 > 7,82 ) ,

2 0,05;3 = 7,82 . Так как

2  2 > 0,05;3

то гипотеза Н0 отвергается, т.е. различие в усвоении учебного материала студентами четырех групп значимо или существенно на уровне  = 0,05. 

10.5. Проверка гипотез о равенстве дисперсий двух и более совокупностей Сравнение дисперсий двух совокупностей. Гипотезы о дисперсиях возникают довольно часто, так как дисперсия характеризует такие исключительно важные показатели, как точность машин, приборов, технологических процессов, степень однородности совокупностей, риск, связанный с отклонением доходности активов от ожидаемого уровня, и т.д. Сформулируем задачу. Пусть имеются две нормально распределенные совокупности, дисперсии которых равны 12 и 22 . Необходимо проверить нулевую гипотезу о равенстве дисперсий, т.е. относительно конкурирующей H1: 12 > 22 или H1: 12   22 . Для проверки гипотезы Н0 из этих совокупностей взяты две независимые выборки объемом n1 и n2. Для оценки дисперсий 12 и  22 используются «исправленные» выборочные дисперсии s€12 и s€22 . Следовательно, задача проверки гипотезы сводится к сравнению 2 2 дисперсий s€1 и s€2 .

H 0 : 12 = 22 =  2 в качестве оценки 2 можно взять те же дисперсии s€12 и s€22 , рассчитанные по При справедливости гипотезы

элементам первой и второй выборок.

Напомним (см. § 9.7), что выборочные характеристики и

( n2  1) s€22 2

( n1  1) s€12 2

имеют распределение  2 соответственно с k1 = n1 – 1 и

348

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1 2  ( k1 ) k1 имеет 1 2  ( k2 ) k2

k2 = n2 – 1 степенями свободы, а их отношение

F-распределение Фишера—Снедекора с k1 и k2 степенями свободы (см. § 4.9). Следовательно, случайная величина F, определяемая отношением:

1 ( n1 Љ 1) s€12 2  n1 Љ 1  s€ 2 = 12 , F= 1 ( n2 Љ 1) s€22 2  s€2 n2 Љ 1 

(10.13)

т.е. отношением «исправленных» выборочных дисперсий, имеет F-распределение Фишера–Снедекора c k1 = n1 – 1 и k2 = n2 – 1 степенями свободы. Вид некоторых кривых F-распределения показан на рис. 4.18, а также на рис. 10.5. При формировании критерия отклонения (принятия) гипотезы Н0 следует учесть, что распределение статистики F (в отличие от нормального или распределения Стьюдента) является несимметричным. Поэтому гипотеза Н0 отвергается, если F > F ; k1 ; k2 (в случае правосторонней критической области — рис. 10.5, а), либо если F < F1Љ ;k1 ;k2 (в случае левосторонней — рис. 10.5, б), либо если

F < F1Љ / 2;k1 ;k2 или F > F / 2;k1 ;k2 (в случае двусторонней критической области — рис. 10.5, в). В противном случае гипотеза Н0 не отвергается (принимается). ( x )

( x )

1

 2





F; k

( x )

; k2

а)

F1 ; k

; 1 k2

 2 F

F

 2 ; k1;k 2

1   2 ; k1;k 2

б) Рис. 10.5

В приложении VI приведены таблицы значений

в)

F;k1 ;k2

для

 = 0, 05 и  = 0,01 .  Пример 10.6. На двух токарных станках обрабатываются втулки. Отобраны две пробы: из втулок, сделанных на первом станке,

349

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

n1 = 15 шт., на втором станке — n2 = 18 шт. По данным этих выборок 2 рассчитаны выборочные дисперсии s1 = 8,5 (для первого станка) и

s22 = 6,3 (для второго станка). Полагая, что размеры втулок подчиняются нормальному закону распределения, на уровне значимости  = 0, 05 выяснить, можно ли считать, что станки обладают различной точностью. Р е ш е н и е. Имеем нулевую гипотезу H 0 : 12 = 22 , т.е. дисперсии размера втулок, обрабатываемых на каждом станке, равны. 2 2 Возьмем в качестве конкурирующей гипотезу H1: 1 > 2 (дисперсия больше для первого станка). Статистика критерия по формуле 2 (10.13) (в качестве дисперсии s1 , стоящей в числителе, берут большую из двух дисперсий — это дает возможность, учитывая свойства F-распределения, в два раза сократить объем его табличных значений):

n1 2 s1 (15 14 )  8,5 s€ n1 Љ 1 F= = = = 1,37 . n2 2 (18 17 )  6,3 s€ s2 n2 Љ 1 2 1 2 2

По табл. VI приложений критическое значение F-критерия на уровне значимости  = 0,05 при числе степеней свободы k1 = n1 – 1 = 14 и k2 = n2 – 1 = 17, т.е. F0,05;14;17 = 2,33. Так как F < F0,05;14;17 , то гипотеза Н0 не отвергается, т.е. имеющиеся данные не позволяют считать, что станки обладают различной точностью. З а м е ч а н и е. Если в качестве конкурирующей гипотезы в данной задаче взять гипотезу H1: 12   22 , то, как уже отмечено выше (см. рис. 10.5, в), следовало взять двустороннюю критическую область и найти F1Љ / 2; k1 ; k2 и F / 2; k1 ; k2 соответственно из условий

(

  и P F > F / 2; k1 ; k2 = . При этом гипотеза Н0 2 2 если полученное значение F < F1Љ / 2;k1 ;k2 или

)

(

P F < F1Љ / 2;k1 ;k2 = отвергается,

)

F > F / 2;k1 ;k2 .

Однако непосредственно по таблицам F-критерия можно найти лишь правую границу F / 2;k1 ; k2 (бульшую единицы), левую же границу F1Љ / 2;k1 ; k2 (меньшую единицы) находят из соотношения, доказанного для F-критерия:

F1Љ / 2;k1 ;k2 =

1 F / 2;k2 ;k 1

.

В данном случае при  = 0,05 в задаче следовало найти

F0,025;14;17 и F0,975;14;17 =

350

1 . F0,025;17;14

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

На практике обычно используется таблица значений F-критерия (см. табл. VI приложений), в которой приведены значения F0,05; k1 ; k2 и F0,01; k1 ;k2 . Это позволяет осуществлять проверку гипотезы H0 на 5%ном и 1%-ном уровнях значимости при использовании односторонней критической области, и на 10%-ном и 2%-ном уровнях значимости при двусторонней критической области. Сравнение дисперсий нескольких совокупностей. Пусть имеется l нормально распределенных совокупностей, дисперсии которых рав2 2 2 ны соответственно 1 , 2 , ..., l , и l независимых выборок из каждой совокупности объемов n1, n2, …, nl. Необходимо проверить ну2 2 2 2 левую гипотезу о равенстве дисперсий, т.е. H 0 : 1 = 2 = ... = l =  или H 0 : i2 =  2

( i = 1, 2, ..., l ) .

Для проверки гипотезы Н0 может быть использован критерий Бартлетта. Доказано, что при справедливости гипотезы Н0 и при условии, что ni  3 ( i = 1, 2, ..., l ) статистика l

2 = (в которой

(n i =1

i

(

 1) ln s 2 s€ 2

)

 1  l 1 1  1+   3 ( l  1)  i =1 ni  1 n1 + ... + nl  l 

s€2 =

ni si2 ni  1

(10.13)

(10.14)

— исправленная выборочная дисперсия i-й выборки,

s2 =

l 1 ni si2  n1 + ... + nl  l i =1

(10.15)

2 — оценка средней арифметической дисперсий) имеет  - распределение с l – 1 степенями свободы. Поэтому гипотеза Н0 отвергается, если 2 2 2 фактически наблюдаемое значение  >   ,l Љ1 , где   ,l Љ1 — крити2 ческое значение критерия  , найденное на уровне значимости  при числе степеней свободы l – 1.  Пример 10.7. По условию примера 10.5 на уровне значимости  = 0, 05 выяснить, можно ли считать, что станки обладают различной точностью, если имеются 4 токарных станка и отобраны соответственно четыре пробы объемов: n1 = 15; n2 = 18; n3 = 25; n4 = 32, а выборочные дисперсии размеров втулок равны соответственно:

s12 = 8,5; s22 = 6,3; s32 = 9,3; s42 = 5,8.

351

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

2 2 2 2 2 Р е ш е н и е. Имеем нулевую гипотезу Н0: 1 =  2 = 3 =  4 = 

или i =  ( i = 1, 2, 3, 4 ) . По формуле (10.14) найдем исправленные выборочные дисперсии размеров втулок: 2

2

15  8,5 = 9,11; 14 25 s€32 =  9,3 = 9,69; 24 s€12 =

18  6,3 = 6, 67; 17 32 s€42 =  5,8 = 5,99, 31

s€22 =

а по формуле (10.15) — оценку средней арифметической дисперсий

s2 =

15  8,5 + 18  6,3 + 25  9,3 + 32  5,8 659 = = 7,66. 15 + 18 + 25 + 32 Љ 4 86

Статистика критерия по формуле (10.13) равна:

 7, 66   7,66   7, 66   7, 66  14 ln  + 17 ln  + 24 ln  + 31 ln       9,11   6, 67   9,69   5,99  = 1,87. 2 = 1  1 1 1 1 1  1+ + + + Љ 3 3  14 17 24 31 76  2 По табл. V приложений  0,05;3 = 7,82.

2 Так как  2 <  0,05;3 (1,87 < 7,82 ) , то гипотеза Н0 не отвергается,

т.е. имеющиеся данные не позволяют считать, что рассматриваемые станки обладают различной точностью. 

10.6. Проверка гипотез о числовых значениях параметров Гипотезы о числовых значениях встречаются в различных задачах. Пусть xi (i = 1, 2, …, n) — значения некоторого параметра изделий, производящихся станком автоматической линии, и пусть а — заданное номинальное значение этого параметра. Каждое отдельное значение xi может, естественно, как-то отклоняться от заданного номинала. Очевидно, для того, чтобы проверить правильность настройки этого станка, надо убедиться в том, что среднее значение параметра у производимых на нем изделий будет соответствовать номиналу, т.е. проверить гипотезу Н0: x0 = a против альтернативной Н1: x0  a , или H 2 : x0 < a, или H 2 : x0 > a. При произвольной настройке станка может возникнуть необходимость проверки гипотезы о том, что точность изготовления изделий по данному параметру, задаваемая дисперсий 2 , равна задан-

2 2 2 ной величине 0 , т.е. Н0:  = 0 или, например, того, что доля бракованных изделий, производимых станком, равна заданной величине p0, т.е. Н0: p = p0 и т.д.

352

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Аналогичные задачи могут возникнуть, например, в финансовом анализе, когда по данным выборки надо установить, можно ли считать доходность актива определенного вида или портфеля ценных бумаг, либо ее риск равным заданному числу; или по результатам выборочной аудиторской проверки однотипных документов нужно убедиться, можно ли считать процент допущенных ошибок равным номиналу, и т.п. В общем случае гипотезы подобного типа имеют вид H0:  =  0 , где  — некоторый параметр исследуемого распределения, а  0 — область его конкретных значений, состоящая в частном случае из одного значения. При проверке гипотезы указанного типа можно использовать тот же подход, что и в § 10.2 (см., например, проверку гипотезы Н0: а = а0 против альтернативной Н1: а = а1>а0 при известной дисперсии 2 в примере 10.0). Соответствующие критерии проверки гипотез о числовых значениях параметров нормального закона приведены в табл. 10.2. Таблица 10.2 Нулевая Предпо- Статистика гипотеза ложения критерия

2

a = a0

известна

2

неизвестна

2 = 02

a неизвестно

t=

t=

x  a0 

n

x  a0 s

n 1

ns 2  = 2 0 2

Альтернативная Критерий отклонегипотеза ния гипотезы

a = a1 > a0   a = a1 < a0  a = a1  a0 a = a1 > a0   a = a1 < a0  a = a1  a0

Достаточно большие n

t=

w  p0 p0 q0 n

t > t1Љ

t > t1Љ 2 ,n Љ1

t > t1Љ ,n Љ1

 2 = 12 > 02

 2 > 2 ;n Љ1

2 = 12 < 02

 2 < 12Љ ;n Љ1 либо

2 = 12  02

p = p0

t > t1Љ 2

p = p1 > p0   p = p1 < p0  p = p1  p0

353

 2 > 2 / 2;n Љ1  2 2  < 1Љ / 2;n Љ1 t > t1Љ 2 t > t1Љ

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

П р и м е ч а н и е. Критические значения статистик на уровне значимости  определяют по соответствующим таблицам приложений исходя из соотношений:

P ( t < t1Љ ) =  ( t1Љ ) = 1 Љ ; P ( t < t1Љ , n Љ1 ) =  ( t1Љ , n Љ1 ) = 1 Љ ,

(

)

P  2 > 2 , n Љ1 =  .  Пример 10.8. На основании сделанного прогноза средняя дебиторская задолженность однотипных предприятий региона должна составить a0 = 120 ден. ед. Выборочная проверка 10 предприятий дала среднюю задолженность x = 135 ден. ед., а среднее квадратическое отклонение задолженности s = 20 ден. ед. На уровне значимости 0,05: а) выяснить, можно ли принять данный прогноз; б) найти мощность критерия, использованного в п. а); в) определить минимальное число предприятий, которое следует проверить, чтобы обеспечить мощность критерия 0,975. Р е ш е н и е. а) Проверяемая гипотеза Н0: x0 = a0 = 120. В качестве альтернативной возьмем гипотезу H1: x0 = a1 = 135. Так как генеральная дисперсия 2 неизвестна, то используем t-критерий Стьюдента. Статистика критерия в соответствии с табл. 10.2 равна

t=

x  a0

s

n 1

=

135  120

20 10  1

= 2, 25 . Критическое значение статистики

t1–2Ѓ0,05;10–1 = t0,9;9 = 1,83. Так как t > t0,9;9 ( 2, 25 > 1,83) , то гипотеза Н0 отвергается, т.е. на 5%-ном уровне значимости сделанный прогноз должен быть отвергнут. б) Так как a1 = 135 > a0 = 120, то критическая область правосторонняя и критическое значение выборочной средней

x = x0 + t1Љ 2 , n Љ1

s

= a + t0,9;9

s

= n Љ1 n Љ1 20 = 120 + 1,83 = 132, 2 (ден. ед.), 10  1 т.е. критическая область значений для x есть интервал (132,2;+).

Мощность критерия (см. § 10.2) равна вероятности P отвергнуть гипотезу Н0, когда верна гипотеза Н1, т.е.

P = P (132, 2 < x < + ) =

1 1 Љ  ( t , n Љ 1) , 2 2

где  (t, n – 1) — функция, выражающая вероятность попадания случайной величины, имеющей t-распределение Стъюдента, на от-

354

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

резок (–t, t) (аналогична функции Лапласа для нормального распределения (см. § 9.7);

t=

x  a1 s

n 1

=

132, 2  135 20 10  1

= 0, 42 .

По табл. IV приложений1  ( Љ0, 42; 9 ) = Љ (0, 42; 9)  Љ0,31 . Итак, P =

1 1 1 Љ  ( Љ0, 42; 9 )  (1 + 0,31)  0,66 . 2 2 2

в) Воспользуемся решением примера 10.0, б), в котором формула (10.1) объема выборки была получена для случая нормального закона распределения x , когда известна генеральная дисперсия 2. Так как у нас 2 не известна, а известна лишь ее выборочная оценка s2, то статистика критерия

t=

x  a0

s / n 1

имеет t-распределение

Стьюдента (см. табл. 10.2), и соответствующая скорректированная формула для n примет вид:

(t n=

1Љ 2  ; n Љ1

)

+ t1Љ 2; n Љ1 2 s 2

(a1  a0 )

2

.

При  = 0,05,  = 0,025 (ибо по условию мощность критерия 1 –  = 0,975), а0 = 120, а1 = 135, s = 20 получим:

n=

16 (t0,9; n 1 + t0,95; n 1 )2 . 9

(*)

Так как правая часть равенства сама зависит от неизвестного значения n, то n находится приближенно подбором. Так, при n = 20, n = 30, равенство (*) не выполняется (например, при n = 20

16 16 (t0,9;19 + t0,95;19 )2 = (1, 73 + 2,09) 2 = 24, 7) , 9 9 16 16 25  (t0,9;24 + t0,95;24 )2 = (1, 71 + 2,06) 2 = 25,3 . 9 9 20 

а

при

n = 25

Следовательно, необходимо проверить 25 предприятий.  Аналогично проверяются и другие гипотезы о числовых значениях параметров в соответствии с критериями проверки, приведенными в табл. 10.2.

1 Так как непосредственно значений (t, n) в данной таблице нет, «внутри» ее в строке k = 9 находим близкие к 0,42 значения 0,40 и 0,54, соответствующие вероятностям  = 0,3 и  = 0,4, т.е. (0,40; 9) = 0,3, и (0,54; 9) = 0,4, а искомое значение (0,42; 9)  0,31 находим интерполированием.

355

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

При проверке статистических гипотез есть и д р у г о й

под-

х о д, основанный на том, что выше (в § 9.3) для параметров x0 , p, 2 были построены д о в е р и т е л ь н ы е

и н т е р в а л ы. И если

параметр x0 (или р, или 2 ) не попадает в доверительный интервал с надежностью  = 1 Љ , т.е. попадает в критическую область, то гипотеза Н0 отвергается; в противном случае полагают, что имеющиеся данные не противоречат гипотезе Н0. Достоинством такого подхода, основанного на построении доверительного интервала для параметра, является то, что кроме проверки гипотезы Н0 получается дополнительная информация о возможных истинных значениях параметра. Однако этот подход применим, если в качестве конкурирующих выступают гипотезы типа

x0  a, p  p0 , 2  02 , предполагающие выбор двусторонней критической области.  Пример 10.9. По данным примера 9.10 на уровне значимости

  0, 05 проверить гипотезу о том, что средняя выработка рабочих всего цеха равна 121%. Р е ш е н и е. Проверяемая гипотеза H 0 :

x0 = 121(%) . Конку-

рирующая гипотеза H1: x0  121 . В примере 9.10 с надежностью

  1 Љ 0, 05 = 0,95

построен

доверительный

интервал

для

x0 : 117,33  x0  121, 07. Так как значение а = 121 принадлежит этому интервалу, то гипотеза Н0 не отвергается, т.е. имеющиеся данные не противоречат предположению о том, что средняя выработка рабочих равна 121%.   Пример 10.10. По данным примера 9.11 на уровне значимости  = 0,05 проверить гипотезу о том, что доля нестандартных деталей во всей партии равна 12%. Р е ш е н и е. Проверяемая гипотеза Н0: р = 0,12 (или 12%). Конкурирующая гипотеза H1: p  0,12. В примере 9.11 с надежностью   1 Љ 0, 05 = 0,95 построен доверительный интервал для p: 0,044  p  0,116. Так как значение p0 = 0,12 не принадлежит этому интервалу, то на уровне значимости  = 0,05 гипотеза Н0 отвергается, т.е. имеющиеся данные не позволяют считать, что в партии находится 12% нестандартных деталей.   Пример 10.11. По данным примера 9.17 на уровне значимости  = 0,1 проверить гипотезу о том, что среднее квадратическое отклонение суточной выработки работниц равно 20 м/ч.

356

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Р е ш е н и е. Проверяемая гипотеза H 0 :  2 = 20 2 = 400. Конкурирующая гипотеза

H1: 2  400. В примере 9.17 с надежностью

 = 1 Љ 0,1 = 0,9 получен доверительный интервал для 2: 157,3  2  468,9 . 2

Так как значение 0 = 400 принадлежит этому интервалу, то на уровне значимости  = 0,1 гипотеза Н0 не отвергается, т.е. имеющиеся данные не противоречат предположению о том, что среднее квадратическое отклонение суточной выработки работниц равно 20 м/ч. 

10.7. Построение теоретического закона распределения по опытным данным. Проверка гипотез о законе распределения Одной из важнейших задач математической статистики является установление теоретического закона распределения случайной величины, характеризующей изучаемый признак по опытному (эмпирическому) распределению, представляющему вариационный ряд. Для решения этой задачи необходимо определить вид и параметры закона распределения. Предположение о виде закона распределения может быть выдвинуто исходя из теоретических предпосылок (например, выполнение условий центральной предельной теоремы может свидетельствовать о нормальном законе распределения случайной величины), опыта аналогичных предшествующих исследований и, наконец, на основании графического изображения эмпирического распределения. Параметры распределения, как правило, неизвестны, поэтому их заменяют наилучшими оценками по выборке, полученными в гл. 9. Как бы хорошо ни был подобран теоретический закон распределения, между эмпирическим и теоретическим распределениями неизбежны расхождения. Естественно, возникает вопрос: объясняются ли эти расхождения только случайными обстоятельствами, связанными с ограниченным числом наблюдений, или они являются существенными и связаны с тем, что теоретический закон распределения подобран неудачно. Для ответа на этот вопрос и служат критерии согласия. Пусть необходимо проверить нулевую гипотезу Н0 о том, что исследуемая случайная величина Х подчиняется определенному закону распределения. Для проверки гипотезы Н0 выбирают некоторую случайную величину U, характеризующую степень расхождения теоретического и эмпирического распределений, закон распределения которой при достаточно больших n известен и практически не зависит от закона распределения случайной величины Х.

357

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Зная закон распределения U, можно найти такое критическое значение u, что если гипотеза Н0 верна, то вероятность того, что U приняла значение больше чем u, т.е. P(U > u ) =  — мала, где  —

(u )

P (U > u ) = 

уровень значимости критерия. Если фактически наблюдаемое в Рис. 10.6 опыте значение U = u окажется больше критического: U = u > u (т.е. попадет в критическую область (рис. 10.6)), то в соответствии с принципом практической уверенности это означает, что такие большие значения U практически невозможны и противоречат гипотезе Н0. В этом случае гипотезу Н0 отвергают. Если же U = u  u , то расхождение между эмпириче-

u

0

u

ским и теоретическим распределениями несущественно и гипотезу Н0 можно считать правдоподобной или по крайней мере не противоречащей опытным данным. 2-критерий Пирсона. В наиболее часто используемом на практике критерии 2-Пирсона в качестве меры расхождения U берется величина 2, равная сумме квадратов отклонений частостей (статистических вероятностей) wi от гипотетических pi, рассчитанных по предполагаемому распределению, взятых с некоторыми весами ci: m

U =  2 =  ci ( wi Љ pi ) 2. i =1

Веса ci вводятся таким образом, чтобы при одних и тех же отклонениях

( wi  pi )

2

больший вес имели отклонения, при которых pi

мала, и меньший вес — при которых pi велика. Очевидно, этого удается достичь, если взять сi обратно пропорциональными вероятностям pi. Взяв в качестве весов ci =

n   статистика m

U = 2 =  i =1

или

n ( wi Љ pi )2 , pi

m

( ni  npi )

i =1

npi

U = = 2

n , можно доказать, что при pi

2

(10.16)

2 имеет  - распределение с k = m – r – 1 степенями свободы, где m — число интервалов эмпирического распределения (вариационного ряда); r — число параметров теоретического распределения, вычисленных по экспериментальным данным.

358

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Числа ni = nwi и npi называются соответственно эмпирическими и теоретическими частотами. 2 Схема применения критерия  для проверки гипотезы Н0 сводится к следующему. 1. Определяется мера расхождения эмпирических и теоретических частот  2 по формуле (10.16). 2. Для выбранного уровня значимости  по таблице  2- рас2 пределения находят критическое значение   ;k при числе степеней свободы k = m – r – 1.

3. Если фактически наблюдаемое значение  2 больше критическо-

2 2 2 2 го, т.е.  >   ;k , то гипотеза Н0 отвергается; если     ;k , гипотеза Н0 не противоречит опытным данным. З а м е ч а н и е. Как уже отмечено, статистика

m

( ni  npi )

i =1

npi

 = 2

2

2

имеет  - распределение лишь при n   , поэтому необходимо, чтобы в каждом интервале было достаточное количество наблюдений, по крайней мере 5 наблюдений. Если в каком-нибудь интервале число наблюдений ni < 5, имеет смысл объединить соседние интервалы1, чтобы в объединенных интервалах ni было не меньше 5.  Пример 10.12. Для эмпирического распределения рабочих цеха по выработке по данным первых двух граф табл. 8.1 подобрать соответствующее теоретическое распределение и на уровне значимости  = 0,05 проверить гипотезу о согласованности двух распре-



2 делений с помощью критерия  . Р е ш е н и е. По виду гистограммы распределения рабочих по выработке (рис. 10.7) можно предположить нормальный закон распределения признака. Параметры нормального закона а и 2 , являющиеся соответственно математическим ожидани-

x

Рис. 10.7

1 Поэтому при вычислении числа степеней свободы в качестве величины m берется соответственно уменьшенное число интервалов.

359

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ем и дисперсией случайной величины Х, неизвестны, поэтому заменяем их «наилучшими» оценками по выборке — несмещенными и состоятельными оценками соответственно выборочной средней x и «исправленной» выборочной дисперсией s€ 2 . Так как число наблюдений n = 100 достаточно велико, то вместо «исправленной» s€ 2 можно взять «обычную» выборочную дисперсию s 2 . В примере 8.8 вычислены x = 119, 2(%) , s 2 = 87,48, s = 9,35(%). Итак, выдвигаемая гипотеза Н0: случайная величина X — выработка рабочих цеха — распределена нормально с параметрами а = = 119,2; 2 = 87,48, т.е. X  N(119,2; 87,48). Для расчета вероятностей pi попадания случайной величины Х в интервал [ xi , xi +1 ] используем функцию Лапласа в соответствии со свойством нормального распределения:

pi ( xi  X  xi +1 ) = 

1   xi +1 Љ a   x Љ a  Љ  i   2    

1   xi +1 Љ 119, 2   xi Љ 119, 2   

Љ 

. 2 9,35

9,35 

Например, p1(94  X  100)=

=

 94 Љ 119, 2   1   100 Љ 119, 2  

Љ 

 = 2 9,35 9,35 

1 1  ( Љ2,05 ) Љ  ( Љ2,69 )  = ( Љ0,9596 + 0,9928 ) = 0, 0166 и соответ2 2

ствующая первому интервалу теоретическая частота np1= =100Ѓ0,0166  1,7 и т.д. Для определения статистики  2 удобно составить таблицу (табл. 10.3). Таблица 10.3 Интервал

Эмпирические частоты ni

1

94–100

2

100—106

3

3 4 5 6 7

106—112 112—118 118—124 124—130 130—136

11 20 28 19

10

0,141 0,228 0,247 0,182 0,087

8

136—142

2 

0,029

i

[ xi , xi +1 ]



10 7

12

100

Вероятности pi 0,017

2 Теорети( ni  npi ) ческие час(ni – npi)2 тоты npi npi

1, 7 

 7, 6

0,059

5, 9 14,1 22,8 24,7 18,2

8, 7 

11, 6

2, 9

0,990

99,0

360

5,76

0,758

9,61 7,84 10,89 0,64

0,682 0,344 0,441 0,035

0,16

0,014



 2 = 2, 27

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Учитывая, что в рассматриваемом эмпирическом распределении частоты первого и последнего интервалов (n1 = 3, n8 = 2) меньше 5, при использовании критерия 2-Пирсона в соответствии с замечанием на с. 359 целесообразно объединить указанные интервалы с соседними (см. табл. 10.3). Итак, фактически наблюдаемое значение статистики  2 = 2,27. Так как новое число интервалов (с учетом объединения крайних) m = 6, а нормальный закон распределения определяется r = 2 параметрами, то число степеней свободы k=m–r–1= = 6  2  1 = 3 . Соответствующее критическое значение статистики 2 2 2 2 по табл. V приложений  0,05;3. = 7,82 . Так как  < 0,05;3 , то гипотеза о

выбранном теоретическом нормальном законе N(119,2; 87,48) согласуется с опытными данными.  З а м е ч а н и е. Для графического изображения эмпирического и выравнивающего его теоретического нормального распределений необходимо использовать одинаковый для двух распределений масштаб по оси ординат. Так, если при построении гистограммы эмпирического распределения по оси ординат откладывать плотность частости

ni (где nx

ni — частота i-го интервала (i = 1, 2, ..., m), х — величина интервала, m — число интервалов, n — число наблюдений, объем выборки), то выравнивать такую гистограмму будет теоретическая нормальная кривая с плотностью  N ( x ) =

1

 2

e

2

Љ ( x Љ ) / 2 2

, где в качестве параметров

a и 2 используются их состоятельные и несмещенные выборочные оценки: соответственно средняя x и дисперсия s€ 2 (либо s2  s€ 2 при больших n). Для построения кривой  N ( x ) можно использовать таблицу плотности вероятности стандартного нормального распределения (табл. I приложений) в соответствии с формулой

N ( x ) =

xa xx 1 1 t 2 / 2 f ( t ) , где f ( t ) = .  e и t=   s 2

При равенстве величин всех интервалов (как в примере 10.12) часто бывает удобнее при построении гистограммы эмпирического распределения по оси ординат откладывать частости wi =

ni (см. рис. 10.7) n

или частоты ni. В этом случае выравнивающей гистограмму кривой будет растянутая (сжатая) вдоль оси ординат в х (или nx) раз нор-

361

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

мальная

кривая,

т.е.

1 ( x ) =  N ( x ) x

кривая

2 ( x ) =  N ( x ) nx).

(или

кривая

Точное построение выравнивающей кривой 1 ( x) (или 2 ( x)) связано с проведением дополнительных расчетов. Их можно избежать, используя п р и б л и ж е н н ы й способ построения (см. рис. 10.7). В процессе применения 2-критерия Пирсона были вычислены вероятности pi и теоретические частоты npi интервалов распределения. Учитывая, что в соответствии со свойствами плотности распределения

 N ( xi ) xi  pi (или nN ( xi ) xi  npi ), выравнивающую теоретиче-

скую кривую 1 ( x ) (или 2 ( x )) можно построить приближенно по

точкам (xi, pi) (или (xi, npi)), где в качестве значений xi (i = 1, 2, ..., m) целесообразно взять середины интервалов (см. рис. 10.6). При этом следует иметь в виду, что максимум выравнивающей кривой 1 ( x ) (или 2 ( x )) будет в точке x = a  x и равен

x x nx nx f ( 0 )  0,3989 (или f ( 0 )  0,3989 ). s s    Пример 10.12а. Имеются следующие статистические данные о числе вызовов специализированных бригад скорой помощи в час в некотором населенном пункте в течение 300 ч: Число вызовов в час xi

0

Частота ni

15 71 75 68 39 17 10 4 1 300

1

2

3

4

5

6 7 8



Подобрать соответствующее теоретические распределение и на уровне значимости  = 0,05 поверить гипотезу о согласованности двух распределений с помощью критерия 2. Р е ш е н и е. Вычислим выборочные среднюю и дисперсию: m

x= m

2

2

2

s =x Љx =

xn

i i

i =1

n

x n i =1

2 i i

n

=

0  15 + ... + 8  1 = 2,54; 300

Љ x2 =

02  15 + ... + 82  1 Љ 2,542  2,39. 300

362

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Выдвигаем гипотезу Н0: случайная величина X — число вызовов скорой помощи в час — распределена по закону Пуассона с параметром  = 2,54. В пользу этой гипотезы свидетельствует следующее: — вызов скорой помощи для каждого жителя — событие в целом достаточно редкое; — полигон частостей (частот) дискретной случайной величины X (рис. 10.8) по своему виду напоминает полигон пуассоновского распределения Рис. 10.8 вероятностей при небольших значениях  (см. передний форзац учебника); — оценки математического ожидания M(X) и дисперсии D(X) — выборочная средняя и выборочная дисперсия приближенно равны, т.е. x  s 2 (а равенство M(X) = D(X), или а = 2, характерно именно для распределения Пуассона — см. § 4.2). В качестве неизвестного параметра , являющегося математическим ожиданием случайной величины, распределенной по закону Пуассона (см. § 4.2), берем его несмещенную и состоятельную оценку по выборке — выборочную среднюю, т.е.   x = 2,54. Вероятности значений случайной величины X найдем по формуле (4.8):

pi = P( X = xi = m) =

2,54m e2,54 . m!

Для определения статистики 2 составим таблицу (табл. 10.3а). Таблица 10.3 i

xi = m

1 2 3 4 5 6 7 8

0 1 2 3 4 5 6 7

9

8



ni

pi

npi

(ni – npi)2

(ni  npi ) 2 npi

15 71 75 68 39 17 10 4

0,0789 0,2003 0,2544 0,2154 0,1368 0,0695 0,0294 0,0107

23,7 60,1 76,3 64,6 41,0 20,9 8,8 3,2

75,69 98,01 1,69 11,56 3,61 14,44 1,44

3,194 1,631 0,022 0,179 0,088 0,694 0,164

0,64

0,152

300

0,0034 0,9988

299,6



 5 1 

  4, 2 1,0 

363

2 = 6,12

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

При расчете 2 объединяем последние два интервала, так как их частоты (n8 = 4, n9 = 1) меньше 5. Так как новое число интервалов (с учетом объединения двух последних) m = 8, а закон Пуассона определяется r = 1 параметром, то число степеней свободы k = m – r – 1 = 8 – 1 – 1 = 6. По 2 2 2 табл. V приложений  0,05;6 = 12,59 . Так как  <  0,05;6 (6,12 < 12,59) , то гипотеза Н0 согласуется с опытными данными.  2 Критерий Колмогорова. На практике кроме критерия  часто используется критерий Колмогорова, в котором в качестве меры расхождения между теоретическим и эмпирическим распределениями рассматривают максимальное значение абсолютной величины разности между эмпирической функцией распределения Fn(x) и соответствующей теоретической функцией распределения

D = max Fn ( x )  F ( x ) ,

(10.17)

называемое статистикой критерия Колмогорова. Доказано, что какова бы ни была функция распределения F(x) непрерывной случайной величины Х, при неограниченном увеличении числа наблюдений ( n   ) вероятность неравенства

(

)

P D n   стремится к пределу

P () = 1 Љ

+

 ( Љ1) e

k Љ2 k 2  2

.

(10.18)

k =Љ

Задавая уровень значимости , из соотношения

P (  ) =  можно

найти

соответствующее

(10.19)

критическое

значение

 . В

табл. 10.4 приводятся критические значения   критерия Колмого-

рова для некоторых  .

Таблица 10.4 Уровень значимости  0,40 0,30 0,20 0,10 0,05 0,025 0,01 0,005 0,001 0,0005 Критическое значение  

0,89 0,97 1,07 1,22 1,36

1,48

1,63

1,73

1,95

2,03

Схема применения критерия Колмогорова следующая. 1. Строятся эмпирическая функция распределения Fn ( x )

предполагаемая теоретическая функция распределения F ( x ) .

364

и

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

2. Определяется мера расхождения между теоретическим и эмпирическим распределениями D по формуле (10.17) и вычисляется величина

=D n. (10.20) 3. Если вычисленное значение  окажется больше критического   , определенного на уровне значимости  , то нулевая гипотеза

Н0 о том, что случайная величина Х имеет заданный закон распределения, отвергается. Если     , то считают, что гипотеза Н0 не противоречит опытным данным.

 Пример 10.13. По данным примера 10.12 и табл. 8.1 с помощью критерия Колмогорова на уровне значимости  = 0,05 проверить гипотезу Н0 о том, что случайная величина Х — выработка рабочих предприятия — имеет нормальный закон распределения с параметрами a = 119,2;  2 = 87, 48, т.е. N(119,2; 87,48). Значения эмпирической функции распределения Fn ( x) , или накопленной частости, вычислены выше в табл. 8.1, а ее график приведен на рис. 8.2, б — эти значения и график воспроизводятся соответственно в табл. 10.5 и на рис. 10.9. Для построения теоретической функции распределения для нормального закона воспользуемся ее выражением (4.30) через функцию Лапласа:

F ( x) =

1 1  x  119, 2  +  . 2 2  9,35 

1 1  94  119, 2  1 1 +   = +  ( 2,69 ) = 0,5  2 2  9,35  2 2 Љ 0,5  0,9928 = 0, 0036  0,004 и т.д. Результаты вычислений сведем Например,

F ( 94 ) =

в табл. 10.5, а график F ( x ) представим на рис. 10.9. Таблица 10.5 x

94

100

106

112

118

124

130

136

142

Fn(x)

0,010

0,030

0,100

0,210

0,410

0,690

0,880

0,980

1,000

F(x)

0,004

0,021

0,080

0,221

0,449

0,695

0,878

0,964

0,993

F (x ) 1,0 0,8 0,6 0,4 0,2

0

Fn ( x )

F (x )

D = max Fn ( x )  F ( x )

94 100 106 112 118 124 130 136 142 148 Рис. 10.9

365

x, %

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Из рис. 10.9 следует, что D = Fn (118 )  F (118 ) = 0, 410  0, 449 = 0,039 . По формуле (10.20) величина  = D n = 0, 039 100 = 0,39 . Критическое значение критерия Колмогорова по табл. 10.4 равно  0,05 = 1,36 . Так как  <  0,05 ( 0,39 < 1,36 ) , то гипотеза Н0 согласуется с опытными данными.  Критерий Колмогорова достаточно часто применяется на практике благодаря своей простоте. Однако в принципе его применение возможно лишь тогда, когда теоретическая функция распределения F ( x ) задана полностью. Но такой случай на практике встречается весьма редко. Обычно из теоретических соображений известен лишь вид функции распределения, а ее параметры определяются по эмпирическим данным. При применении критерия  2 это обстоятельство учитывается соответствующим уменьшением числа степеней свободы. Такого рода поправок в критерии Колмогорова не предусмотрено. Поэтому, если при неизвестных значениях параметров применить критерий Колмогорова, взяв за значения параметров их оценки, то получим завышенное значение вероятности P (  ) , а значит, бульшее критическое значение   . В результате есть риск в ряде случаев принять нулевую гипотезу Н0 о законе распределения случайной величины как правдоподобную, в то время как на самом деле она противоречит опытным данным.

10.8. Проверка гипотез об однородности выборок Гипотезы об однородности выборок — это гипотезы о том, что рассматриваемые выборки извлечены из одной и той же генеральной совокупности. Пусть имеются две независимые выборки, произведенные из генеральных совокупностей с неизвестными теоретическими функциями распределения F1 ( x ) и F2 ( x ) . Проверяемая нулевая гипотеза имеет вид H 0 : F1 ( x ) = F2 ( x ) против конкурирующей H1: F1 ( x )  F2 ( x ) . Бу-

дем предполагать, что функции F1 ( x ) и F2 ( x ) непрерывны.

Критерий Колмогорова—Смирнова использует ту же самую идею, что и критерий Колмогорова, но только в критерии Колмогорова сравнивается эмпирическая функция распределения с теоретической, а в критерии Колмогорова—Смирнова сравниваются две эмпирические функции распределения.

366

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Статистика критерия Колмогорова—Смирнова имеет вид:

 =

n1n2  max Fn 1 ( x )  Fn 2 ( x ) , n1 + n2

(10.21)

где Fn1 ( x ) и Fn2 ( x ) — эмпирические функции распределения, построенные по двум выборкам объемов n1 и n2. Гипотеза Н0 отвергается, если фактически наблюдаемое значение статистики  больше критического   , т.е.  >  , и принимается в противном случае. При малых объемах выборок ( n1 , n2  20 ) критические значения   для заданных уровней значимости критерия можно найти в специальных таблицах. При n1 , n2   (а практически при n1  50 , n2  50 ) распределение статистики   сходится к распределению Колмогорова для статистики  . Поэтому гипотеза Н0 отвергается на уровне значимости  , если фактически наблюдаемое значение   больше критического   , т.е.  >   , и принимается в противном случае.  Пример 10.13а. В течение месяца выборочно осуществлялась проверка торговых точек города по продаже овощей. Результаты двух проверок по недовесам покупателям одного вида овощей приведены в табл. 10.6. Таблица 10.6

Номер интервала

Интервалы недовесов, г

1 2 3 4 5 6 7 8 9

Частоты

ni1 для выборки 1

ni2 для выборки 2

3 10 15 20 12 5 25 15 5

5 12 8 25 10 8 20 7 5

n1 = 110

n2 = 100

0—10 10—20 20—30 30—40 40—50 50—60 60—70 70—80 80—90



Можно ли считать, что на уровне значимости  = 0,05 по результатам двух проверок (случайных выборок) недовесы овощей описываются одной и той же функцией распределения?

367

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Р е ш е н и е. Обозначим: ni и ni — накопленные частоты со1 2 ответственно выборок 1 и 2; Fn1 ( xi ) = ni n1 , Fn2 ( xi ) = ni n2 — зна1 2 чения их эмпирических функций распределения. Результаты вычислений сведем в табл. 10.7. Таблица 10.7

ni2

Fn1 ( xi )

Fn2 ( xi )

Fn1 ( xi )  Fn2 ( xi )

5 17 25 50 60 68 88 95 100

0,027 0,118 0,254 0,436 0,545 0,591 0,818 0,955 1,000

0,050 0,170 0,250 0,500 0,600 0,680 0,880 0,950 1,000

0,023 0,052 0,004 0,064 0,055 0,089 0,072 0,005 0,000





xi

ni1

10 20 30 40 50 60 70 80 90

3 13 28 48 60 65 90 105 110

Из последнего столбца видно, что max Fn1 ( xi )  Fn2 ( xi ) = 0, 089 . По формуле (10.21) наблюдаемое значение статистики при n1 = 110, n2 = 100   =

110  100  0, 089 = 0,644 . По табл. 10.4 при 110 + 100

 = 0,05  0,05 = 1,36 . Так как   <  0,05 ( 0, 644 < 1,36 ) , то нулевая гипотеза Н0 не отвергается, следовательно, недовесы покупателям описываются одной и той же функцией распределения, т.е. они являются устойчивым и закономерным процессом при продаже овощей в данном городе.  Если данные сгруппированы, то для проверки однородности двух или нескольких выборок можно использовать критерий 2. Пусть имеется l независимых выборок объемом ni (i = 1, 2, …, l) и данные выборки сгруппированы в m интервалов (групп), а nij — число элементов j-й выборки, попавшей в i-й интервал. Проверяется гипотеза Н0 о том, что все l выборок извлечены из одной и той же генеральной совокупности. В качестве статистики критерия используется величина m

l

 = n 2

i =1 j =1

(nij Љ ni* n* j / n)2 ni* n* j

 m l nij2  = n   Љ 1 ,  i =1 j =1 ni* n* j   

368

(10.22)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

l

n ,

где ni* =

j =1

ij

n*j =

m

n , i =1

ij

n=

m

n i =1

i*

l

=  n* j . j =1

В случае справедливости гипотезы Н0 статистика (10.22) имеет распределение 2 с (m – 1)(l – 1) степенями свободы.  Пример 10.14. По данным примера 10.13а на уровне значимости  = 0,05 проверить гипотезу Н0 об однородности двух выборок (результатов двух проверок торговых точек города). Р е ш е н и е. Необходимые для расчета статистики 2 величины представлены в табл. 10.8. Таблица 10.8 n*j = 9 10— 20— 30— 40— 50— 60— 70— 80— Интервалы 0—10 nij 20 30 40 50 60 70 80 90 =

 i =1

Часто- ni1 ты ni2 ni* =

3

10

15

20

12

5

25

15

5

110

5

12

8

25

10

8

20

7

5

100

8

22

23

45

22

13

45

22

10

n = 210

2

n i =1

ij

По формуле (10.22) статистика критерия

 32 102 52 52  2 = 210  + + ... + + + 10  110 8  100  8  110 22  110  122 52 + + ... + Љ 1 = 7, 25. 22  100 10  100

По таблице V приложений при числе степеней свободы 2 2 2 (l – 1)(m – 1) = (9 – 1)(2 – 1) = 8  0,05;8 = 15,5 . Так как  <  0,05;8 ,

то гипотеза Н0 об однородности двух выборок не отвергается.  Наряду с рассмотренными, в математической статистике используются также ранговые критерии однородности. Ранговые критерии однородности k выборок объемов ni основаны не на значениях признака, полученных в выборке, а на порядковых номерах (рангах)1 этих значений, расположенных в порядке

1

Подробнее о рангах см. § 12.8.

369

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

возрастания (убывания) и полученных после упорядочивания объединенной выборки объемом n =

k

n . i

i =1

В критерии Вилкоксона—Манна—Уитни для проверки нулевой гипотезы однородности двух выборок H 0: F1 ( x) = F2 ( x) против альтернативной H1 : F1 ( x)  F2 ( x) используется статистика

U = S1 

1 1 n1 (n1 + 1) или U = S2  n2 (n2 + 1) , 2 2

(10.23)

где S1 ( S2 ) — сумма рангов наблюдений первой (второй) выборки, причем общая сумма рангов

1 (n1 + n2 )(n1 + n2 + 1). (10.24) 2 Доказано, что если гипотеза H 0 верна, то при n1  , n2   S = S1 + S2 =

и n1 / n2   <  статистика

t=

U

1 n1n2 2

(10.25)

1 (n1 + n2 )n1n2 12 имеет стандартный нормальный закон N (0;1). Поэтому гипотеза

H 0 отвергается на уровне значимости  (при n1  8, n2  8 ), если t > t1Љ , где t1Љ определяется по табл. II приложений.  Пример10.14а [30]. Две группы выпускников двух высших учебных заведений (1 и 2) по 10 человек в каждой получили оценки своих административных способностей (в баллах), приведенные в табл. 10.9. Таблица 10.9

xi1

26

22

19

21

14

18

29

17

11

34

xi 2

16

10

8

13

19

11

7

13

9

21

Можно ли утверждать на уровне значимости  = 0,05, что не существуют различия в уровне подготовки выпускников двух вузов? Р е ш е н и е. 1. Составим упорядоченную объединенную выборку объема n = n1 + n2 = 10 + 10 = 20 и определим ранги оценок выпускников (табл. 10.10).

370

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Таблица 10.10 Оценка Номер вуза Ранг Оценка Номер вуза Ранг

7

8

9

10

11

11

13

13

14

16

2 1 17

2 2 18

2 3 19

2 4 19

1 5,5 21

2 5,5 21

2 7,5 22

2 7,5 26

1 9 29

2 10 34

1 11

1 12

1 13,5

2 13,5

2 15,5

1 15,5

1 17

1 18

1 19

1 20

2. Находим суммы рангов оценок для первой и второй выборок:

S1 = 5,5 + 9 + 11 + 12 + 13,5 + 15,5 + 17 + 18 + 19 + 20 = 140,5;

S2 = 1 + 2 + 3 + 4 + 5,5 + 7,5 + 7,5 + 10 + 13,5 + 15,5 = 69,5. Проверяем выполнение равенства (10.24):

S=

1 (10 + 10)(10 + 10 + 1) = 210, и действительно, 2 S = S1 + S2 = 140,5 + 69,5 = 210.

3. Находим значения статистик1 U и t по формулам (10.23) и (10.25):

1 U = 140,5 Љ 10  11 = 85,5; 2 1 85,5 Љ  10  10 2 t= = 2,75. 1 (10 + 10)10  10 12 4. По таблице II приложении при  = 0,05 t1Љ = t0,95 = 1,96. Так

как t > t1Љ (2,75 > 1,96), то нулевая гипотеза отвергается, т.е. уровни подготовки выпускников двух вузов существенно отличаются (в первом вузе он существенно выше, так как S1 > S2 ). Полученный вывод интуитивно ясен, так как в объединенной выборке низкие ранги (низкие оценки) получили преимущественно выпускники второго вуза, а высокие ранги (высокие оценки) — первого вуза.  Тот же принцип, что и в рассмотренном критерии, используется в других ранговых критериях однородности выборок (критерии Фишера— Йэтса, Крускала—Уоллиса и др. (см., например, [1]). 1

       (10.23)      

U  U = 69, 5 Љ

1 2

 10  11 = 14, 5,     (10.25)   t = 2, 75.

371

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

К ранговым относятся также ряд критериев проверки гипотез о стохастической независимости элементов выборки, таких как: критерий серий, основанный на медиане выборки; критерий «восходящих» и «нисходящих» серий; критерий Аббе (см. [1]). Рассмотрение вышеназванных критериев выходит за рамки данной книги. В заключение отметим, что при проверке ряда гипотез, например, гипотез о законе распределения на заданном уровне значимости, контролируется лишь ошибка первого рода, но нельзя сделать вывод о степени риска, связанного с принятием неверной альтернативной гипотезы, т.е. с возможностью совершения ошибки второго рода.

10.9. Понятие о проверке гипотез методом последовательного анализа Выше (см. § 10.2) было показано, что, используя наиболее мощный критерий отношения правдоподобия для проверки простой гипотезы H 0 против альтернативной H1 при заданных уровне значимости  и мощности критерия 1 Љ , можно найти обеспечивающий их минимальный объем выборки n (см. формулу (10.1)). Снизить это значение n при ф и к с и р о в а н н о м объеме выборки невозможно. Рассматриваемый ниже метод последовательного анализа в принципе делает возможным при тех же значениях  и 1 –  заметное (в среднем) уменьшение n, что особенно актуально, если каждое наблюдение является дорогостоящим или труднодоступным. Этот метод принципиально отличается от классического тем, что при его использовании заранее не устанавливается объем выборки n. Испытания проводятся так, что после каждого из них принимается одно из трех решений: — нулевую гипотезу H 0 принять (H1 отклонить); — альтернативную гипотезу H1 принять (H 0 отклонить); — провести еще одно испытание в случае неопределенности в принятии гипотезы H 0 или H1 . Следовательно, до проведения испытаний заранее неизвестно, на каком шаге испытаний N будет принято решение о принятии гипотезы H 0 или H1 , т.е. N — случайная величина с возможными значениями n. В качестве критериев принятия гипотезы H 0 или H1 берутся такие, которые при заданных вероятностях ошибок первого рода  и второго рода  обеспечивают минимум математического ожидания M(N).

372

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Наилучшим среди таких критериев является последовательный критерий отношений правдоподобия (критерий Вальда)

=

L1 ( x1 , x2 , ..., xn ) , L0 ( x1 , x2 , ..., xn )

(10.26)

где L0 ( x1 , x2 , ..., xn ) и L1 ( x1 , x2 , ..., xn ) — функции правдоподобия при условии справедливости гипотезы H 0 или H1 (см. § 10.2). Значение критерия  определяется после каждого испытания. Испытания после n-го шага заканчиваются: принятием проверяемой гипотезы H 0 , если



 ; 1Љ 

(10.27)

принятием альтернативной гипотезы H1 , если



1Љ  ; 

(10.28)

проведением еще одного испытания, если

 1Љ  p2.

10.20. В результате выборочной проверки качества однотипных изделий оказалось, что из 300 изделий фирмы А бракованных 30, из 400 фирмы В — 52, из 250 фирмы С — 21 и из 500 изделий фирмы D бракованных 74 изделия. На уровне значимости 0,05 выяснить, можно ли считать, что различия в качестве изделий различных фирм существенны. 10.21. По данным примера 10.16 выяснить, являются ли существенными различия между дисперсиями расхода сырья на единицу продукции при использовании старой и новой технологий: а) на уровне значимости 0,05 при конкурирующей гипотезе 2x > 2y ; б) на уровне значимости 0,02 при конкурирующей гипотезе  2x   2y .

10.22. Сравниваются четыре способа обработки изделий. Лучшим считается тот из способов, при котором дисперсия контролируемого параметра меньше. Первым способом обработано 15 изделий, вторым — 20, третьим — 20, четвертым способом — 14 изделий. Выборочные дисперсии контролируемого параметра при разных способах обработки соответственно равны 26, 39, 48, 31 единиц. На уровне значимости 0,05 выяснить, можно ли считать, что способы обработки деталей обладают существенно различными дисперсиями. Можно ли признать первый способ «лучшим»? Предполагается, что контролируемый параметр распределен нормально. 10.23. Установлено, что средний вес таблетки лекарства сильного действия (номинал) должен быть равен 0,5 мг. Выборочная проверка n = 100 таблеток показала, что средний вес таблетки x = 0,53 мг. На основе проведенных исследований можно считать, что вес таблетки есть нормально распределенная случайная величина со средним квадратическим отклонением  x = 0,11 мг. На уровне значимости 0,05: а) выяснить, можно ли считать полученное в выборке отклонение от номинала случайным; б) найти мощность критерия, использованного в п. а). 10.24. Решить пример 10.23 при условии, что n = 20, x = 0,53 мг, а выборочное среднее квадратическое отклонение sx = 0,11 мг. 10.25. Компания не осуществляет инвестиционных вложений в ценные бумаги с дисперсией годовой доходности более чем 0,04. Выборка из 52 наблюдений по активу А показала, что выборочная

376

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

дисперсия ее доходности равна 0,045. Выяснить, допустимы ли для данной компании инвестиционные вложения в актив А на уровне значимости: а) 0,05; б) 0,01. 10.26. Фирма рассылает рекламные каталоги возможным заказчикам. Как показал опыт, вероятность того, что организация, получившая каталог, закажет рекламируемое изделие, равна 0,08. Фирма разослала 1000 каталогов новой, улучшенной формы и получила 100 заказов. На уровне значимости 0,05 выяснить, можно ли считать, что новая форма рекламы существенно лучше прежней. 10.27. В соответствии со стандартом содержание активного вещества в продукции должно составлять 10%. Выборочная контрольная проверка 100 проб показала содержание активного вещества 15%. На уровне значимости 0,05 выяснить, должна ли продукция быть забракована. Рассмотреть два случая: а) конкурирующая гипотеза р1  0,1; б) конкурирующая гипотеза р1 > 0,1. В примерах 10.28—10.30 на уровне значимости 0,05 проверить гипотезу о нормальном законе распределения признака (случайной величины) Х, используя критерий согласия: а) 2-Пирсона; б) Колмогорова: 10.28. По данным примера 8.11. 10.29. По данным примера 8.12. 10.30. По данным примера 9.30. 10.31. По данным примера 9.34 на уровне значимости 0,05 проверить гипотезу о показательном законе распределения признака (случайной величины) Х, используя критерий: а) 2-Пирсона; б) Колмогорова. 10.32. Имеются две выборки значений (в усл. ед.) объемов 125 и 80 показателя качества однотипной продукции, изготовленной двумя фирмами: xi

14

17

20

23

26

29

32

35

38

41

ni

2

4

10

15

20

27

18

16

8

5

уj

16

20

24

28

32

36

40

44

nj

3

9

12

17

16

13

7

3

Выяснить, можно ли на уровне значимости 0,05 считать, что рассматриваемый показатель качества продукции двух фирм описывается одной и той же функцией распределения (т.е. выборки извлечены из одной генеральной совокупности). Решить задачу, используя критерии: а) Колмогорова—Смирнова; б) однородности 2; в) Вилкоксона—Манна—Уитни.

377

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

10.33. Имеются следующие данные о числе сданных экзаменов в сессию студентами-заочниками: Число сданных экзаменов xi

0

1

2

3

4



Число студентов ni

1

1

1

3

35

60

На уровне значимости  = 0,05 проверить гипотезу о том, что случайная величина X — число сданных студентами экзаменов — распределена по биномиальному закону, используя критерий: а) 2-Пирсона; б) Колмогорова. 10.34. Имеются следующие данные о засоренности партии семян клевера семенами сорняков: Число семян в одной пробе xi Число проб ni

0

1

2

3

4

5

6



405

366

175

40

8

4

2

1000

На уровне значимости  = 0,05 проверить гипотезу о том, что случайная величина X — число семян сорняков — распределена по закону Пуассона, используя критерий: а) 2-Пирсона; б) Колмогорова. 10.35. Фирма-производитель утверждает, что среднее время безотказной работы производимых ею электробытовых приборов составляет по меньшей мере 800 ч со средним квадратическим отклонением  = 120 ч. Для случайно отобранных n = 50 приборов выборочное среднее время безотказной работы приборов оказалось равным 750 ч. На уровне значимости  = 0,05: а) выяснить, удовлетворяет ли гарантии вся партия электробытовых приборов; б) найти мощность критерия, использованного в п. а); в) определить минимальное число приборов, которое следует проверить, чтобы обеспечить мощность критерия, равную 0,98. 10.36. Решить пример 10.35 при n = 15, если  неизвестно, а s = 110 получено по данным выборки.

378

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

11

Дисперсионный анализ

Выше рассмотрена проверка значимости (существенности, достоверности) различия выборочных средних двух совокупностей. На практике часто возникает необходимость обобщения задачи, т.е. проверки существенности различия выборочных средних m совокупностей (m > 2). Например, требуется оценить влияние различных плавок на механические свойства металла, свойств сырья на показатели качества продукции, количества вносимых удобрений на урожайность и т.п. Для эффективного решения такой задачи нужен новый подход, который и реализуется в дисперсионном анализе. В настоящее время дисперсионный анализ определяется как статистический метод, предназначенный для оценки влияния различных факторов на результат эксперимента, а также для последующего планирования аналогичных экспериментов. Первоначально (1918 г.) дисперсионный анализ был разработан английским математиком — статистиком Р.А. Фишером для обработки результатов агрономических опытов по выявлению условий получения максимального урожая различных сортов сельскохозяйственных культур. Сам термин «дисперсионный анализ» Фишер употребил позднее. По числу факторов, влияние которых исследуется, различают однофакторный и многофакторный дисперсионный анализ.

11.1. Однофакторный дисперсионный анализ Однофакторная дисперсионная модель имеет вид:

xij = µ + Fi + ij , где xij

(11.1)

— значение исследуемой переменной, полученной на i-м уровне

фактора (i = 1, 2, …, m) с j-м порядковым номером (j = 1, 2, …, n); Fi — эффект, обусловленный влиянием i-го уровня фактора; ij — случайная компонента, или возмущение, вызванное влиянием неконтролируемых факторов, т.е. вариацией переменной внутри отдельного уровня. Под уровнем фактора понимается некоторая его мера или состояние, например, количество вносимых удобрений, вид плавки металла или номер партии деталей и т.п.

379

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Основные предпосылки дисперсионного анализа: 1. Математическое ожидание возмущения ij равно нулю для любых i, т.е.

( )

M ij = 0 .

(11.2)

2. Возмущения ij взаимно независимы. 3. Дисперсия возмущения ij (или переменной xij) постоянна для любых i, j, т.е.

( )

D ij = 2 .

(11.3)

4. Возмущение ij (или переменная xij) имеет нормальный закон

(

)

распределения N 0; 2 . Влияние уровней фактора может быть как фиксированным, или систематическим (модель I), так и случайным (модель II). Пусть, например, необходимо выяснить, имеются ли существенные различия между партиями изделий по некоторому показателю качества, т.е. проверить влияние на качество одного фактора — партии изделий. Если включить в исследование все партии сырья, то влияние уровня такого фактора систематическое (модель I), а полученные выводы применимы только к тем отдельным партиям, которые привлекались при исследовании; если же включить только отобранную случайно часть партий, то влияние фактора случайное (модель II). В многофакторных комплексах возможна смешанная модель III, в которой одни факторы имеют случайные уровни, а другие — фиксированные. Рассмотрим эту задачу подробнее. Пусть имеется m партий изделий. Из каждой партии отобрано соответственно n1, n2, …, nm изделий (для простоты полагаем, что n1 = n2 =…= nm= n). Значения показателя качества этих изделий представим в виде матрицы наблюдений

 x11 x12 ... x1n     x21 x22 ... x2 n  = ( x ) , ( i = 1, 2, ..., m; j = 1, 2, ..., n ) . ij  .......................     xm1 xm 2 ... xmn Необходимо проверить существенность влияния партий изделий на их качество. Если полагать, что элементы строк матрицы наблюдений — это численные значения (реализации) случайных величин Х1, Х2, …, Xm,

380

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

выражающих качество изделий и имеющих нормальный закон распределения с математическими ожиданиями соответственно 2 a1, a2, …, am и одинаковыми дисперсиями  , то данная задача сводится к проверке нулевой гипотезы H 0 : a1 = a2 = ... = am , осуществляемой в дисперсионном анализе. Обозначим усреднение по какому-либо индексу звездочкой (или точкой) вместо индекса, тогда средний показатель качества изделий i-й партии, или групповая средняя для i-го уровня фактора, примет вид: n

xi =

x

ij

j =1

,

n

(11.4)

а общая средняя — m

n

m

 x

ij

i =1 j =1

x =

=

mn

x

i

i =1

.

m

(11.5)

xij от

Рассмотрим сумму квадратов отклонений наблюдений общей средней x : m

n

 ( x

ij

i =1 j =1

 x

m

n

) = ( x 2

i*

i =1 j =1

m

n

2

n

i =1 j =1

(

+2 xij  x i =1 j =1

m

(

 x ) +  xij  xi

)( x

i

 x**

)

2

*

)

2

+

,

(11.6)

или Q = Q1 + Q2 + Q3. Последнее слагаемое m

n

(

Q3 = 2 xij  xi i =1 j =1

*

)( x

i*

m

n

(

 x ) = 2 ( xi  x ) xij  xi i =1

*

j =1

*

) = 0,

так как сумма отклонений значений переменной от ее средней, т.е. n

( x j =1

ij

 xi

*

)

равна нулю.

Первое слагаемое можно записать в виде: m

n

m

Q1 =  ( xi  x ) = n ( xi  x ) 2. i =1 j =1

2

*

i =1

*

(11.7)

В результате получим следующее тождество: Q = Q1 + Q2,

381

(11.8)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

где Q =

m

n

 ( x

ij

i =1 j =1

 x

)

2

— общая, или полная, сумма квадратов от-

клонений; m

Q1 = n ( xi*  x ) 2 — сумма квадратов отклонений групповых i =1

средних от общей средней, или межгрупповая (факторная) сумма квадратов отклонений; m

n

(

Q2 =  xij  xi* i =1 j =1

)

2

— сумма квадратов отклонений наблюдений

от групповых средних, или внутригрупповая (остаточная) сумма квадратов отклонений. В разложении (11.8) заключена о с н о в н а я и д е я дисперсионного анализа. Если поделить обе части равенства (11.8) на число наблюдений, то получим рассмотренное выше правило сложения дисперсий (8.12). Применительно к рассматриваемой задаче равенство (11.8) показывает, что общая вариация показателя качества, измеренная суммой Q, складывается из двух компонент — Q1 и Q2, характеризующих изменчивость этого показателя между партиями (Q1) и изменчивость «внутри» партий (Q2), характеризующих одинаковую (по условию) для всех партий вариацию под воздействием неучтенных факторов. В дисперсионном анализе анализируются не сами суммы квадратов отклонений, а так называемые с р е д н и е к в а д р а т ы, являющиеся несмещенными оценками соответствующих дисперсий, которые получаются делением сумм квадратов отклонений на соответствующее число степеней свободы. Напомним, что число степеней свободы определяется как общее число наблюдений минус число связывающих их уравнений. 2 Поэтому для среднего квадрата s1 , являющегося несмещенной оценкой k1 = m – средних, среднего

межгрупповой дисперсии, число степеней свободы 1, так как при его расчете используются m групповых связанных между собой одним уравнением (11.5). А для 2 квадрата s2 , являющегося несмещенной оценкой внут-

ригрупповой дисперсии, число степеней свободы k2 = mn – m, ибо при ее расчете используются все mn наблюдений, связанных 2 между собой m уравнениями (11.4). Таким образом, s1 = Q1/(m – 1);

s22 = Q2/(mn – m). 2 Найдем математические ожидания средних квадратов s1 и

s22 ,

подставив в их формулы выражение хij (11.1) через параметры модели.

382

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

n  m 2 M   ( µ + Fi + i* Љ µ Љ F Љ  )  = m Љ 1  i =1  m m 2

n n 2

= M  ( ( Fi Љ F ) + ( i* Љ  ) ) = M  ( Fi Љ F ) + 1 m Љ 1 i =1 m Љ 

i =1  m

m n n 2

+ M 2 ( Fi Љ F )( i* Љ  ) + M  ( i* Љ  ) = m Љ 1 i =1  m Љ 1 i =1  n m 2

(11.9) = M  ( Fi Љ F ) + 2 m Љ 1 i =1 

( )

M s12 =



m





i =1



(  M  2 ( Fi Љ F )( i* Љ  ) = 0 го ожидания, a

с учетом свойств математическо-

 m 2    ( i Љ  )  2ij   n 2 2 i =1  = n = n M  ( i Љ  )  = n  M  = 2 ). i* m Љ 1  i =1  m Љ1 n  

 

m n 2  1 M ( s22 ) = M   ( µ + Fi + ij Љ µ Љ Fi Љ i )  = m ( n Љ 1)  i =1 j =1  m

 m n 1   ij Љ  = M i =1 j =1 m  n Љ1 

(

)

 m 1 m 1 = 1 2ij =  2 =  m2 =  2 . (11.10)   m i =1 m i =1 m



2

Схему дисперсионного анализа представим в виде таблицы (табл. 11.1). Компоненты дисперсии

Таблиц 11.1 Число Средний степе- квадрат ней свободы

Сумма квадратов

Межгрупповая

Q1 = n ( xi*  x )

Внутригрупповая

Q2 = ( xij  xi* )

m

2

i =1

m

n

i =1 j =1

m

n

Общая Q =  ( xij  x )

2

2

Математическое ожидание среднего квадрата

 n m 2  m Љ1 ( Fi Љ F ) + Q1 i =1  m – 1 s12 = M ( s12 ) =  2 + m 1 (  I) ,  n2 + 2 (  II)  F Q 2 2 mn – m s2 = mn  m M ( s22 ) =  2 mn – 1

i =1 j =1

383

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Для модели I с ф и к с и р о в а н н ы м и уровнями фактора Fi (i = 1, 2, …, m) — величины неслучайные, поэтому n

( )

M s12 = n ( Fi Љ F ) i =1

2

( m Љ 1) + 2 .

Гипотеза Н0 примет вид Fi = F ( i = 1, 2, ..., m ) , т.е. влияние всех уровней фактора одно и то же. В случае справедливости этой гипотезы M s12 = M s22 = 2 . Для с л у ч а й н о й модели II слагаемое Fi в выражении (11.1) — величина случайная. Обозначая ее дисперсию

( )

( )

m  2 2F = M   ( Fi Љ F ) ( m Љ 1)  , получим из (11.9)  i =1  2 M s1 = nF2 + 2 , и, как и в модели I,

( ) M (s ) =  2 2

2

(11.11)

. В случае справедливости нулевой

гипотезы Н0, которая для модели II принимает вид  2F = 0, имеем:

M ( s12 ) = M ( s22 ) = 2 .

Итак, в случае однофакторного комплекса как для модели I, так и модели II средние квадраты s12 и s22 являются несмещенными и, как можно

показать, независимыми оценками одной и той же дисперсии 2 . Следовательно, проверка нулевой гипотезы Н0 свелась к провер2 ке существенности различия несмещенных выборочных оценок s1

2 2 и s2 дисперсии  , рассмотренной в § 10.5. Гипотеза Н0 отвергается, если фактически вычисленное значе-

s12 больше критического F ; k1 ; k2 , определенного s22 на уровне значимости  при числе степеней свободы k2 = mn – m, и принимается, если F  F ; k1 ;k2 .

ние статистики F =

Применительно к данной задаче опровержение гипотезы Н0 означает наличие существенных различий в качестве изделий различных партий на рассматриваемом уровне значимости. З а м е ч а н и е. Для вычисления сумм квадратов Q1, Q2, Q часто бывает удобно использовать следующие формулы: 2

2

 n   m n    xij    xij   i =1 j =1  Љ  i =1 j =1  , Q1 =  n mn 2 m  n    xij   m n i =1  j =1  , 2 Q2 =  xij Љ n i =1 j =1 m

384

(11.12)

(11.13)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

2

 m n    xij  m n i =1 j =1  , Q =  xij2 Љ  mn i =1 j =1

(11.14)

т.е. сами средние, вообще говоря, находить не обязательно.  Пример 11.1. Имеются четыре партии сырья для текстильной промышленности. Из каждой партии отобрано по пять образцов и проведены испытания на определение величины разрывной нагрузки. Результаты испытаний приведены в табл. 11.2. Таблица 11.2 Номер партии 1 2 3 4

Разрывная 140 150 190 170

200 190 230 150

нагрузка (кг/см2) 170 145 210 150 200 190 150 170

165 150 200 180

Необходимо выяснить, существенно ли влияние различных партий сырья на величину разрывной нагрузки. Принять  = 0,05. Р е ш е н и е. Имеем m = 4, n = 5. Найдем средние значения разрывной нагрузки для каждой партии по формуле (11.4):

x1* =(200 + 140 + 170 + 145 + 165) / 5 = 164 (кг/см2) и аналогично

x2* = 170, x3* =202 и x4* = 164 (кг/см2). Среднее значение разрывной нагрузки всех отобранных образцов по формуле (11.5): x = (200 + 140 + ... + 170 + 180) 20 = 175 (кг/см2) (или, иначе, через групповые средние,

x = (164 + 170 + 202 + 164) / 4 = 175 (кг/см2)).

Вычислим суммы квадратов отклонений по формулам (11.6), (11.7): 4

(

Q1 = 5 xi Љ x i =1

*

)

2

= 5 (164 Љ 175 ) + (170 Љ 175 ) + ( 202 Љ 175 ) +  2

2

2

2 + (164 Љ 175 )  = 5  996 = 4980;  4

5

(

Q2 =  xij  xi* i =1 j =1

)

2

= ( 200  164 ) + ... + (165  164 ) + 2

2

+ (190  170 ) + ... + (150  170 ) + ( 230  202 ) + ... + ( 200  202 ) + 2

2

2

+ (150  164 ) + ... + (180  164 ) = 7270; 2

2

385

2

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

4

5

(

Q =  xij  x i =1 j =1

) = ( 200  175) + (140  175) 2

2

2

+ ... + (170  175 ) + 2

+ (180  175 ) = 12 250. 2

Соответствующее число степеней свободы для этих сумм m – 1 = 3; mn – m = 5Ѓ4 – 4 = 16; mn – 1 = 5Ѓ4 – 1 = 19. Результаты расчета сведем в табл. 11.3. Таблица 11.3 Компоненты дисперсии Межгрупповая Внутригрупповая Общая

Суммы квадратов 4 980 7 270 12 250

Число степеней свободы 3 16 19

Фактически наблюдаемое значение статистики

Средние квадраты 1660,0 454,4

F=

s12 1660 = = s22 454, 4

=3,65. По табл. VI приложений критическое значение F-критерия Фишера—Снедекора на уровне значимости  = 0,05 при k1 = 3 и k2 = 16 степенях свободы F0,05;3;16 = 3,24. Так как F > F0,05;3;16, то нулевая гипотеза отвергается, т.е. на уровне значимости  = 0, 05 (с надежностью 0,95) различие между партиями сырья оказывает существенное влияние на величину разрывной нагрузки. З а м е ч а н и е. С точки зрения техники вычислений сумм Q1, Q2, Q проще воспользоваться формулами (11.12)—(11.14), не требующими вычисления средних. Так, вычислив 4

5

 x i =1 j =1

4

5

 x i =1 j =1

2 ij

ij

= 200 + 140 + ... + 170 + 180 = 3500,

= 2002 + 1402 + ... + 1702 + 1802 = 624 750,

 5 2 2 2   xij  = ( 200 + ... + 165 ) + (190 + ... + 150 ) +  i =1  j =1  4

+ ( 230 + ... + 200 ) + (150 + ... + 180 ) = 3 087 400, 2

2

найдем по формулам (11.12), (11.13) и (11.14) Q1 = 3 087 400 / 5 – 35002/20 = 4980, Q2 = 624 750 – 3 087 400 / 5 = 7270 и

Q = 624 750 – 35002/20 = 12 250. 

386

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

11.2. Понятие о двухфакторном дисперсионном анализе Предположим, что в рассматриваемой в § 11.1 задаче о качестве различных (m) партий изделия изготавливались на разных (l) станках и требуется выяснить, имеются ли существенные различия в качестве изделий по каждому фактору: А — партия изделий, В — станок. В результате мы приходим к задаче двухфакторного дисперсионного анализа. Все имеющиеся данные представим в виде табл. 11.4, в которой по строкам — уровни Ai фактора А, по столбцам — уровни Bj фактора В, а в соответствующих клетках, или ячейках, таблицы находятся значения показателя качества изделий xijk (i = 1, 2, …, m; j = 1, 2, …, l; k = 1, 2, …, n). Таблица 11.4 В A А1 А2



Ai



Am

В1

В2



Вj



Вl

x111,…,x11k x211,…,x21k … xi11,…,xi1k … xm11,…,xm1k

x121,…,x12k x221,…,x22k … xi21,…,xi2k … xm21,…,xm2k

… … … … … …

x1j1,…,x1jk x2j1,…,x2jk … xij1,…,xijk … xmj1,…,xmjk

… … … … … …

х1l1,…,x1lk х2l1,…,x2lk … xil1,…,xilk … xml1,…,xmlk

Двухфакторная дисперсионная модель имеет вид: xijk = µ + Fi + Gj + Iij + ijk,

(11.15)

где xijk — значение наблюдения в ячейке ij с номером k; µ — общая средняя; Fi — эффект, обусловленный влиянием i-го уровня фактора А; Gj — эффект, обусловленный влиянием j-го уровня фактора B; Iij — эффект, обусловленный взаимодействием двух факторов, т.е. отклонение от средней по наблюдениям в ячейке ij от суммы первых трех слагаемых в модели (11.15); ijk — возмущение, обусловленное вариацией переменной внутри отдельной ячейки. Полагаем, что ijk имеет нормальный закон распределения N ( 0; 2 ) , а все математические ожидания F , G , I i  , I  j равны нулю.

387

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Групповые средние находятся по формулам: в ячейке — n

x

xij* =

ijk

k =1

n

по строке —

,

(11.16)

,

(11.17)

l

x j =1

xi** =

ij *

l

по столбцу — m

x

 j

x

ij *

i =1

=

.

m

Общая средняя

m

l

 x i =1 j =1

x =

(11.18)

ij *

ml

.

(11.19)

Таблица дисперсионного анализа имеет вид (табл. 11.5). Таблица 11.5 Компоненты дисперсии

Число степеней свободы

Сумма квадратов

Межгрупповая (фактор А)

Q1 = ln  xi   x

Межгрупповая (фактор B)

Q2 = mn x j   x

Взаимодействие (АВ)

m

i =1

l

j =1

(

2

)

2

m

l

(

= n xij  xi  x j + x m

l

n

(

Q4 =  xijk  xij  i =1 j =1 k =1

Общая

)

m–1

s12 =

Q1 m 1

l–1

s22 =

Q2 l 1

Q3 = i =1 j =1

Остаточная

(

Средние квадраты

m

l

n

(

Q =  xijk  x i =1 j =1 k =1

)

)

2

2

388

)

2

(m – 1)(l – 1) s32 =

mln – ml mln – 1

s42 =

Q3 m  1 ( )( l  1) Q4 mln  ml

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Можно показать, что проверка нулевых гипотез НА, НВ, НАВ об отсутствии влияния на рассматриваемую переменную факторов А, В и их взаимодействия АВ осуществляется сравнением отношений s12 s42 , s22 s42 , s32 s42 (для модели I с фиксированными уровнями факто2

2

2

2

2

2

ров) или отношений s1 s3 , s2 s3 , s3 s4 (для случайной модели II) с соответствующими табличными значениями F-критерия Фишера— Снедекора. Для смешанной модели III проверка гипотез относительно факторов с фиксированными уровнями проводится так, как в модели II, а факторов со случайными уровнями — как в модели I. Если n = 1, т.е. при одном наблюдении в ячейке, то не все нулевые гипотезы могут быть проверены, так как выпадает компонента Q3 из общей суммы квадратов отклонений, а с ней и средний квадрат s32 , ибо в этом случае не может быть речи о взаимодействии факторов.  Пример 11.2. В табл. 11.6 приведены суточные привесы (г) отобранных для исследования 18 поросят в зависимости от метода содержания поросят (фактор А) и качества их кормления (фактор В). Таблица 11.6 Количество голов

Содержание протеина в корме, г (фактор В)

в группе (фактор А) А1 = 30 A2 = 100 A3 = 300

В1 = 80

В2 = 100

530, 540, 550 490, 510, 520 430, 420, 450

600, 620, 580 550, 540, 560 470, 460, 430

Необходимо на уровне значимости  = 0,05 оценить существенность (достоверность) влияния каждого фактора и их взаимодействия на суточный привес поросят. Р е ш е н и е. Имеем m = 3, l = 2, n = 3. Определим (в г) средние значения привеса: в ячейках — по формуле (11.16):

530 + 540 + 550 = 540 и аналогично x12 = 600; 3 = 506,7; x22 = 550; x31 = 433,3; x = 453,3;

x11 = x21







по строкам — по формуле (11.17):

x1** =

32

540 + 600 = 570 и аналогично x2 = 528, 4 ; x3 = 443, 2; 2

по столбцам — по формуле (11.18):

x1 =  

540 + 506, 7 + 433,3 = 493,3 и аналогично x 2 = 534, 4 .   3

389

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Общий средний привес — по формуле (11.19):

x =

540 + 600 + 506,7 + 550 + 433,3 + 453,3 = 513,9 (г). 6

Все средние значения привеса (г) поместим в табл. 11.7. Таблица 11.7 Количество голов в группе (фактор А)

Содержание протеина в корме, г (фактор В)

xi

В1 = 80

В2 = 100

А1 = 30

x11 = 540,0

x12 = 600, 0

x1** = 570, 0

A2 = 100

x21 = 506,7

x22 = 550,0

x2 = 528, 4

A3 = 300

x31 = 433,3

x32 = 453,3

x3 = 443,3

x j 

x1 = 493,3

x2 = 534, 4

x = 513,9

Из табл. 11.7 следует, что с увеличением количества голов в группе средний суточный привес поросят в среднем уменьшается, а при увеличении содержания протеина в корме — в среднем увеличивается. Но является ли эта тенденция достоверной или объясняется случайными причинами? Для ответа на этот вопрос по формулам табл. 11.5 вычислим необходимые суммы квадратов отклонений: Q1 = 2Ѓ3[(570 – 513,9)2 + (528,4 – 513,9)2 + (443,2 – 513,9)2] = 50 011,1; Q2 = 3Ѓ3 [(493,3 – 513,9)2 + (534,4 – 513,9)2] = 7605,6; Q3 = 3[(540 – 570 – 493,3 + 513,9)2 + … + + (453,3 – 443,3 – 534,4 + 513,9)2] = 1211,1; Q4 = (530 – 540)2 + … + (550 – 540)2 + (600 – 600)2 + … + + (580 – 600)2 + … + (470 – 453,3)2 + … + (430 – 453,3)2 = 3000,0; Q = (530 – 513,9)2 + (540 – 513,9)2 + … + (430 – 513,9)2 = 61 827,8. Средние квадраты находим делением полученных сумм на соответствующее им число степеней свободы m – 1 = 2, l – 1 = 1; (m – 1)(l – 1) = 2; mln – ml = 18 – 6 = 12; mln – 1 = 18 – 1 = 17. Результаты расчета сведем в табл. 11.8.

390

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Таблица 11.8 Компонента дисперсии

Суммы квадратов

Число степеней свободы

Средние квадраты

Межгрупповая (фактор А) Межгрупповая (фактор В) Взаимодействие (АВ)

Q1 = 50 011,1

2

s12 = 25 005,5

Q2 = 7605,6

1

s22 = 7605,6

Q3 = 1211,1

2

s32 = 605,6

Остаточная

Q4 = 3000,0

12

s42 = 250,0

Общая

Q = 61 827,8

17

Очевидно, данные факторы имеют фиксированные уровни, т.е. мы находимся в рамках модели I. Поэтому для проверки существенности влияния факторов А, В и их взаимодействия АВ необходимо найти отношения:

FA = FAB =

s12 25 005,5 s22 7605,6 = = F = = = 30, 4; 100,0; B s42 s42 250, 0 250,0

s32 605,6 = = 2, 42 и сравнить их с табличными значениями (см. s42 250,0

табл. VI приложений) соответственно F0,05;2;12 = 3,88; F0,05;1;12 = 4,75; F0,05;2;12 = 3,88. Так как FA > F0,05;2;12 и FB > F0,05;1;12 , то влияние метода содержания поросят (фактора А) и качества их кормления (фактора В) является существенным. В силу того что FAB < F0,05;2;12 , взаимодействие указанных факторов незначимо (на 5%-ном уровне).  З а м е ч а н и е. С точки зрения техники вычислений для нахождения сумм квадратов Q1, Q2, Q3, Q4, Q целесообразнее использовать формулы: 2

2

 l n   m l n    xijk    xijk   i =1 j =1 k =1  Љ  i =1 j =1 k =1  , Q1 =  ln mln m

2

2  m l n   m n  x   xijk     ijk  j =1 i =1 k =1  Љ  i =1 j =1 k =1  , Q2 =  mn mln l

l

n

2 Q4 =  xijk i =1 j =1 k =1

l

391

(11.21)

2

 n     xijk  i =1 j =1  k =1  , Љ n m

m

(11.20)

(11.22)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

2

 m l n    xijk  m l n i =1 j =1 k =1  , 2 Q =  xijk Љ  mln i =1 j =1 k =1 Q3 = Q – Q1 – Q2 – Q4.

(11.23) (11.24)

Так, в рассматриваемом примере 11.2: 3

2

3

 x i =1 j =1 k =1

3

2

3

 x i =1 j =1 k =1

2 ijk

ijk

= 530 + 540 + … + 460 + 430 = 9250,

= 5302 + 5402 + … + 4602 + 4302 = 4 815 300, 2

 2 3    xijk  = (530 + 540 + … + 620 + 580)2 + … +  i =1  j =1 k =1  3

+ (430 + 420 + … + 460 + 430)2 = 28 820 900, 2

 3 3  2    xijk  = (530 + 540 + … + 420 + 450) + … + j =1  i =1 k =1  2

+ (600 + 620 + … + 460 + 430)2 = 42 849 700, 2

 3  2 2    xijk  = (530 + 540 + 550) + (600 + 620 + 580) + … + i =1 j =1  k =1  3

2

+ (470 + 460 + 430)2 = 14 436 900,

и по формулам (11.20)—(11.24):

28 820 900 92502  = 50 011,1 ; 23 3 2 3 42 849 700 92502 Q2 =  = 7605, 6 ; 33 3 2 3 14 436 900 92502 = 61 827,8 ; = 3000 ; Q = 4 815 300 – Q4 = 4 815 300 – 3 2 3 3 Q1 =

Q3 = 61 827,8 – 50 011,1 – 7605,6 – 3000 = 1211,1. 

В заключение отметим, что при решении реальных задач методом дисперсионного анализа используются статистические программные пакеты (см., например, [34]). Отклонение от основных предпосылок дисперсионного анализа — нормальности распределения исследуемой переменной и равенства дисперсий в ячейках (если оно не чрезмерное) — не сказывается существенно на результатах дисперсионного анализа при равном числе наблюдений в ячейках, но может быть очень чувствительно

392

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

при неравном их числе. Кроме того, при неравном числе наблюдений в ячейках резко возрастает сложность аппарата дисперсионного анализа. Поэтому рекомендуется планировать схему с равным числом наблюдений в ячейках, а если встречаются недостающие данные, то возмещать их средними значениями других наблюдений в ячейках. При этом, однако, искусственно введенные недостающие данные не следует учитывать при подсчете числа степеней свободы.

Упражнения 11.3. В течение шести лет использовались пять различных технологий по выращиванию сельскохозяйственной культуры. Данные по эксперименту (в ц/га) приведены в таблице: Номер наблюдения (год)

А1

Технология (фактор А) А2 А3 А4

А5

1 2 3 4 5 6

1,2 1,1 1,0 1,3 1,1 0,8

0,6 1,1 0,8 0,7 0,7 0,9

0,9 0,6 0,8 1,0 1,0 1,1

1,7 1,4 1,3 1,5 1,2 1,3

1,0 1,4 1,1 0,9 1,2 1,5

6,5

4,8

5,4

8,4

7,1

Итого

Необходимо на уровне значимости  = 0,05 установить влияние различных технологий на урожайность культуры. 11.4. На заводе установлено четыре линии по выпуску облицовочной плитки. С каждой линии случайным образом в течение смены отобрано по 10 плиток и сделаны замеры их толщины (мм). Отклонения от номинального размера приведены в таблице: Линия по выпуску плиток

1

2

3

4

5

6

7

8

9

10

1

0,6

0,2

0,4

0,5

0,8

0,2

0,1

0,6

0,8

0,8

2

0,2

0,2

0,4

0,3

0,3

0,6

0,8

0,2

0,5

0,5

3

0,8

0,6

0,2

0,4

0,9

1,1

0,8

0,2

0,4

0,8

4

0,7

0,7

0,3

0,3

0,2

0,8

0,6

0,4

0,2

0,6

Номер испытания

393

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Требуется на уровне значимости  = 0,05 установить зависимость выпуска качественных плиток от линии выпуска (фактора А). 11.5. Имеются следующие данные об урожайности четырех сортов пшеницы на выделенных пяти участках земли (блоках): Сорт

Урожайность по блокам, ц/га 1

2

3

4

5

1

2,87

2,67

2,16

2,50

2,82

2

2,45

2,85

2,77

2,87

3,25

3

2,32

2,47

2,00

2,40

2,40

4

2,90

2,87

2,25

2,80

2,70

Требуется на уровне значимости  = 0,05 установить влияние на урожайность сорта пшеницы (фактора А) и участков земли — блоков (фактора В). 11.6. На четырех предприятиях В1, В2, В3, В4 проверялись три технологии производства А1, А2, А3 однотипных изделий. Данные о производительности труда в условных единицах приведены в таблице: A

А1

А2

А3

1

2

3

1

2

3

1

2

3

B1

50

54

58

62

60

58

65

71

65

B2

54

46

50

64

59

60

59

54

61

B3

52

48

50

70

62

60

59

66

64

B4

60

55

56

58

54

50

71

74

62

B

Требуется на уровне значимости  = 0,05 установить влияние на производительность труда технологий (фактора А) и предприятий (фактора В).

394

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

12

Корреляционный анализ

Диалектический подход к изучению природы и общества требует рассмотрения явлений в их взаимосвязи и непрестанном изменении. Понятия корреляции и регрессии появились в середине XIX в. благодаря работам английских статистиков Ф. Гальтона и К. Пирсона. Первый термин произошел от латинского «correlatio» — соотношение, взаимосвязь. Второй термин (от лат. «regressio» — движение назад) введен Ф. Гальтоном, который, изучая зависимость между ростом родителей и их детей, обнаружил явление «регрессии к среднему» — у детей, родившихся у очень высоких родителей, рост имел тенденцию быть ближе к средней величине.

12.1. Функциональная, статистическая и корреляционная зависимости В естественных науках часто речь идет о функциональной зависимости (связи), когда каждому значению одной переменной соответствует вполне определенное значение другой. Функциональная зависимость может иметь место как между детерминированными (неслучайными) переменными (например, зависимость скорости падения в вакууме от времени и т.п.), так и между случайными величинами (например, зависимость стоимости проданных изделий от их числа и т.п.). В экономике в большинстве случаев между переменными величинами существуют зависимости, когда каждому значению одной переменной соответствует не какое-то определенное, а м н о ж е с т в о возможных значений другой переменной. Иначе говоря, каждому значению одной переменной соответствует определенное (условное) распределение другой переменной. Такая зависимость (связь) получила название статистической (или стохастической, вероятностной). (О ней уже шла речь в § 5.5.) Возникновение понятия статистической связи обусловливается тем, что зависимая переменная подвержена влиянию ряда неконтролируемых или неучтенных факторов, а также тем, что измерение значений переменных неизбежно сопровождается некоторыми случайными ошибками. Примером статистической связи является зависимость урожайности от количества внесенных удобрений, производительности труда на предприятии от его энерговооруженности и т.п. В силу неоднозначности статистической зависимости между Y и Х для исследователя, в частности, представляет интерес у с р е д н е н н а я по х схема зависимости, т.е. закономерность в измене-

395

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

нии среднего значения — условного математического ожидания1 Мx(Y) (математического ожидания случайной переменной Y, найденного при условии, что переменная Х приняла значение х) в зависимости от х. О п р е д е л е н и е. Статистическая зависимость между двумя переменными, при которой каждому значению одной переменной соответствует определенное среднее значение, т.е. условное математическое ожидание другой, называется корреляционной. Иначе, корреляционной зависимостью между двумя переменными величинами называется функциональная зависимость между значениями одной из них и условным математическим ожиданием другой. Корреляционная зависимость может быть представлена в виде: M x (Y ) = (x) (12.1) или M (X ) =  (y ) . (12.2) y

Предполагается, что  ( x )  const и  ( y )  const , т.е. если при изменении x или y условные математические ожидания M x (Y ) и

M y (X ) не изменяются, то говорят, что корреляционная зависимость между переменными X и Y отсутствует. Сравнивая различные виды зависимости между X и Y, можно сказать, что с изменением значений переменной X при ф у н к ц и о н а л ь н о й зависимости однозначно изменяется определенное значение переменной Y, при к о р р е л я ц и о н н о й — определенное среднее значение (условное математическое ожидание) Y, а при с т а т и с т и ч е с к о й — определенное (условное) распределение переменной Y (рис. 12.1). Таким образом, из рассмотренных зависимостей наиболее общей выступает статистическая зависимость2. Каждая корреляционная зависимость является статистической, но не каждая статистическая зависимость является корреляционной. Функциональная зависимость представляет частный случай корреляционной (об этом речь еще пойдет ниже, в § 12.3). 1 Для условного математического ожидания в литературе используется также обозначение M(Y | X = x). 2 Хотя статистическая зависимость и является наиболее общей из рассмотренных, она не отражает любую возможную зависимость между переменными в условиях неопределенности. Например, можно предполагать, что существует некоторая зависимость между числом (продолжительностью) военных конфликтов и числом изобретений за определенный период времени. Эта зависимость хотя и сводится к зависимости между событиями с неопределенным исходом (могут произойти или не произойти), но не является статистической, ибо каждому значению одной переменной нельзя поставить в соответствие распределение другой, так как к таким единичным и неповторяемым в одинаковых условиях событиям, какими являются соответственно военные конфликты и изобретения, неприменимо само понятие вероятности (см. § 1.3).

396

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Рис. 12.1

Уравнения (12.1) и (12.2) называются модельными уравнениями регрессии (или просто уравнениями регрессии) соответственно Y по X и X по Y 1, функции  ( x ) и  ( y ) — модельными функциями регрессии (или функциями регрессии), а их графики — модельными линиями регрессии (или линиями регрессии). Для отыскания модельных уравнений регрессии, вообще говоря, необходимо знать закон распределения двумерной случайной величины (X, Y). На практике исследователь, как правило, располагает лишь выборкой пар значений ( xi , yi ) ограниченного объема. В этом случае речь может идти об оценке (приближенном выражении) по выборке функции регрессии. Такой наилучшей (в смысле метода наименьших квадратов) оценкой является выборочная линия (кривая) регрессии Y по X

yx = € ( x, b0 , b1 , ..., bp ) ,

(12.3)

где y x — условная (групповая) средняя переменной Y при фиксированном значении переменной Х = x; b0, b1, …, bp — параметры кривой. Аналогично определяется выборочная линия (кривая) регрессии X по Y:

(

)

x y = € y, c0 , c1 , ..., c p ,

(12.4)

где ху — условная (групповая) средняя переменной Х при фиксированном значении переменной Y = у; c0, c1, …, cp — параметры кривой. Уравнения (12.3), (12.4) называют также выборочными уравнениями регрессии соответственно Y по X и X по Y 2. 1

Или Y на X и X на Y. В дальнейшем для краткости там, где это очевидно по смыслу, мы часто и выборочные уравнения (линии) регрессии будем называть просто уравнениями (линиями) регрессии. 2

397

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(

При правильно определенных аппроксимирующих функциях

€ x, b0 , b1 , ..., bp

)

(

€ y, c0 , c1 , ..., c p и 

) с увеличением объема выбор-

ки (n  ) они будут сходиться по вероятности соответственно к функциям регрессии (x) и (y). Статистические связи между переменными можно изучать методами корреляционного и регрессионного анализа. Основной задачей р е г р е с с и о н н о г о анализа является установление формы и изучение зависимости между переменными. Основной задачей к о р р е л я ц и о н н о г о анализа — выявление связи между случайными переменными и оценка ее тесноты. Вначале (§ 12.2, 12.3) познакомимся с основными понятиями корреляционного и регрессионного анализа, а затем (§ 12.4–12.7, 13.1–13.8) перейдем к более детальному изучению этих методов.

12.2. Линейная парная регрессия Данные о статистической зависимости удобно задавать в виде корреляционной таблицы. Рассмотрим в качестве примера зависимость между суточной выработкой продукции Y (т) и величиной основных производственных фондов X (млн руб.) для совокупности 50 однотипных предприятий (табл. 12.1). Таблица 12.1

Вели- СередиВсего Группочина ны ин- Суточная выработка продукции, т (Y) ni вая средняя ОПФ, термлн. валов y 7–11 11–15 15–19 19–23 23–27 i, т руб. (X) yj 9 13 17 21 25 xi 20–25 25–30 30–35 35–40 40–45 Всего nj

22,5 27,5 32,5 37,5 42,5

2 3 – – –

1 6 3 1 —

– 4 11 2 –

– – 7 6 1

– – – 2 1

3 13 21 11 2

10,3 13,3 17,8 20,3 23,0

5

11

17

14

3

50



29,3

31,9

35,4

39,2





Групповая сред25,5 няя xj , млн руб.

(В таблице через xi и yj обозначены середины соответствующих интервалов, а через ni и nj — соответственно их частоты.) Изобразим полученную зависимость графически точками координатной плоскости (рис. 12.2). Такое изображение статистической зависимости называется полем корреляции.

398

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

y 27

Суточная выработка, т

y x = 0, 6762 x  4, 79

                                  

23 19 15

y = 16,92

11 7 3 0

Эмпирическая линия регрессии, Y по X

x = 32,1

5

10

15

20

25

30

35

40

Рис. 12.2

x 45

Величина ОПФ, млн руб.

Для каждого значения xi (i = 1, 2, …, l), т.е. для каждой строки корреляционной таблицы вычислим групповые средние m

yi =

yn

j ij

j =1

,

ni

где nij — частоты пар (xi, yj) и ni =

m

n ; i =1

ij

(12.5) m — число интервалов по

переменной Y. Вычисленные групповые средние yi поместим в последнем столбце корреляционной таблицы и изобразим графически в виде ломаной, называемой эмпирической линией регрессии Y по X (см. рис. 12.2). Аналогично для каждого значения yj (j = 1, 2, …, m) по формуле l

xj =

xn

i ij

i =1

nj

(12.6)

вычислим групповые средние x j (см. нижнюю строку корреляционной таблицы)1, где nj =

l

n i =1

ij

, l — число интервалов по переменной X.

По виду ломаной можно предположить наличие л и н е й н о й корреляционной зависимости Y по X между двумя рассматриваемы1 Чтобы не загромождать чертеж, эмпирическая линия регрессии X по Y на рис. 12.2 не показана.

399

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ми переменными, которая графически выражается тем точнее, чем больше объем выборки (число рассматриваемых предприятий) n: l

m

i =1

j =1

l

m

n =  ni =  n j =  nij .

(12.7)

i =1 j =1

Поэтому уравнение регрессии (12.3) будем искать в виде: yx = b0 + b1 x . (12.8) Отвлечемся на время от рассматриваемого примера и найдем формулы расчета неизвестных параметров уравнения линейной регрессии. С этой целью применим метод наименьших квадратов, согласно которому неизвестные параметры b0 и b1 выбираются таким образом, чтобы сумма квадратов отклонений эмпирических групповых средних yi , вычисленных по формуле (12.5), от значений y xi , найденных по уравнению регрессии (12.8), была минимальной: S=

l

( y i =1

xi

)

2

l

Љ yi ni =  ( b0 + b1 xi Љ yi ) ni  min . 2

(12.9)

i =1

На основании необходимого условия экстремума функции двух переменных S = S(b0, b1) приравниваем к нулю ее частные производные, т.е. l  dS  db = 2 ( b0 + b1 xi Љ yi ) ni = 0, i =1  0  l dS  = 2 ( b0 + b1 xi Љ yi ) xi ni = 0,  db1 i =1

откуда после преобразований получим систему нормальных уравнений для определения параметров линейной регрессии: l l  l b0  ni + b1  xi ni =  yi ni ,  i =1 i =1 i =1  l l l 2 b x n b x n xi yi ni . + =  1 i i i i  0  i =1 i =1 i =1

(12.10)

Учитывая (12.5), преобразуем выражения:

 m yn l l   j ij = 1 j yi ni =    ni i =1 i =1   

  l m m l m  n =  y n =  y  n =  y n , i j ij j ij j j  i =1 j =1 j =1 i =1 j =1  

400

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 m   yj nij l l j =1 xi yi ni =  xi    ni i =1 i =1  

  l m  n =  x y n . i i j ij  i =1 j =1  

Теперь с учетом (12.7), разделив обе части уравнений (12.10) на n, получим систему нормальных уравнений в виде:

 b0 + b1 x = y ,  2 b0 x + b1 x = xy,

(12.11)

где соответствующие средние определяются по формулам: m

l

x=

 xi ni

,

i =1

n

y=

l

xy =

j

j =1

j

n

,

(12.12)

m

 x y n i

i =1 j =1

j ij

,

n l

2

x = Подставляя значение

yn

x n i =1

2 i i

n

.

b0 = y  b1 x

(12.13)

(12.14) (12.14)

из первого уравнения системы (12.11) в уравнение регрессии (12.8), получим y x = y  b1 x + b1 x , или

yx  y = b1 ( x  x ) .

(12.15)

Коэффициент b1 в уравнении регрессии, называемый выборочным коэффициентом регрессии (или просто коэффициентом регрессии) Y по X, будем обозначать символом byx. Теперь уравнение регрессии Y по X запишется так:

yx  y = byx ( x  x ) .

(12.16)

Коэффициент регрессии Y по X показывает, на сколько единиц в с р е д н е м изменяется переменная Y при увеличении переменной X на одну единицу. Решая систему (12.11), найдем

byx = b1 =

xy  x y 2

x x

2

=

xy  x y µ = 2, sx2 sx

401

(12.17)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

2

где s x — выборочная дисперсия переменной Х (см. формулу (8.10)): l

2 x

2

x n

2

s =x x =

2 i i

i =1

n

µ

 (x) ; 2

(12.18)

— выборочный корреляционный момент или выборочная ковариация1: l

µ = xy  x y =

m

 x y n i

i =1 j =1

j ij

n

 x y.

(12.19)

Рассуждая аналогично и полагая уравнение регрессии (12.4) линейным, можно привести его к виду:

x y  x = bxy ( y  y ) , bxy =

где

xy  x y y2  y

xy  x y µ = 2 s 2y sy

=

2

(12.20) (12.21)

— выборочный коэффициент регрессии (или просто коэффициент регрессии) X по Y, показывающий, на сколько единиц в с р е д н е м изменяется переменная Х при увеличении переменной Y на одну единицу; m

2

s y2 = y 2  y =

y n 2 j

j =1

n

j

( y)

2

(12.22)

—выборочная дисперсия переменной Y. Так как числители в формулах (12.17) и (12.21) для byx и bxy совпадают, а знаменатели — положительные величины, то коэффициенты регрессии byx и bxy имеют одинаковые знаки, определяемые знаком µ . Из уравнений регрессии (12.16) и (12.20) следует, что коэффициенты byx и 1/bxy определяют угловые коэффициенты (тангенсы углов наклона) к оси Ох соответствующих линий регрессии, пересекающихся в точке ( x , y ) (см. рис. 12.4).  Пример 12.1. По данным табл. 12.1 найти уравнения регрессии Y по X и X по Y и пояснить их смысл. Р е ш е н и е. Вычислим все необходимые суммы: 1

Для выборочной ковариации переменных X и Y используется также обозначе-

€ ( X , Y ), s ние cov

2

xy

.

402

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

l

xn i =1

l

= 22,5Ѓ3 + 27,5Ѓ13 + 32,5Ѓ21 + 37,5Ѓ11 + 42,5Ѓ2 = 1605;

i i

x n i =1

2 i i

= 22,52Ѓ3 + 27,52Ѓ13 + 32,52Ѓ21 + 37,52Ѓ11 + 42,52Ѓ2 = = 52 612,5;

m

y n j =1 m

j

y n j =1 l

2 j

= 9Ѓ5 + 13Ѓ11 + 17Ѓ17 + 21Ѓ14 + 25Ѓ3 = 846;

j

j

= 92Ѓ5 + 132Ѓ11 + 172Ѓ17 + 212Ѓ14 + 252Ѓ3 = 15 226;

m

 x y n i =1 j =1

i

j ij

= 22,5Ѓ9Ѓ2 + 22,5Ѓ1Ѓ13 + … + 42,5Ѓ1Ѓ21 + 42,5Ѓ1Ѓ25 =

= 27 895 (обходим все заполненные клетки корреляционной таблицы). Затем по формулам (12.12)–(12.22) находим выборочные характеристики и параметры уравнений регрессии:

x = 1605/50 = 32,1 (млн руб.); y = 846/50 = 16,92 (т); sx2 = 52 612,5/50 – 32,12 = 21,84; s y2 = 15 226/50 – 16,922 = 18,2336;

µ = 27 895/50 – 32,1Ѓ16,92 = 14,768; byx = 14,768/21,84 = 0,6762; bxy = 14,768/18,2336 = 0,8099. Итак, уравнения регрессии ух – 16,92 = 0,6762 (х – 32,1) или ух = 0,6762х – 4,79, xy – 32,1 = 0,8099 (y – 16,92) или xy = 0,8099y + 18,40. Из первого уравнения регрессии Y по Х (его график показан на рис. 12.1) следует, что при увеличении основных производственных фондов (ОПФ) X на 1 млн руб. суточная выработка продукции Y предприятия увеличивается в среднем на 0,6762 т. Второе уравнение регрессии X пo Y показывает, что для увеличения суточной выработки продукции Y на 1 т необходимо в среднем увеличить ОПФ X на 0,8099 млн руб. (отметим, что свободные члены в уравнениях регрессии не имеют реального смысла).  Параметры уравнений регрессии (12.8) могут быть вычислены упрощенным способом (аналогично тому, как вычислялись числовые характеристики вариационного ряда в § 8.4). С этой целью от зна-

403

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

чений переменных xi и yj переходят к новым значениям иi = vj =

y j Љ c k

xi  c и k

, где k  k — величины интервалов, а c   — середины

серединных интервалов соответственно по переменной X или Y. Тогда в соответствии c формулами (8.20) и (8.21) l

x=

u n

i i

i =1

n

k +c ,

(12.23)

 k  + c ,

(12.24)

m

v n j

j =1

y=

n l

2 x

s =

u n

2 i i

i =1

n m

s y2 =

j

v n 2 j

j =1

j

n

 k 2 Љ ( x Љ c) ,

(12.25)

 k 2 Љ ( y Љ c  ) .

(12.26)

2

2

Покажем, что в этом случае формула для ковариации µ (12.19) примет вид:

l

µ=

m

 u v n i =1 j =1

i

j ij

n

 k  k  Љ ( x Љ c )( y Љ c ) .

(12.27)

 Представим правую часть равенства (12.27) в виде: l

uvkk  Љ ( x Љ c )( y Љ c ) , где uv =

 u v n i =1 j =1

тическая произведений вариантов

ui v j =

m

i

j ij

n

— средняя арифме-

xi Љ c y j Љ c xi y j Љ cxi Љ cy j + cc .  = k k kk 

Учитывая свойства средней,

uv =

1 xy Љ c x Љ cy + cc , откуда kk 

(

)

uvkk  Љ ( x Љ c )( y Љ c ) = xy Љ c x Љ cy + cc Љ ( x Љ c )( y Љ c ) = = xy  x y = µ (по определению (12.13)). 

404

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 12.2. По данным табл. 12.1 найти упрощенным способом уравнения регрессии Y по X и Х пo Y и пояснить их смысл. Р е ш е н и е. Возьмем постоянную k равной величине интервала по переменной Х, т.е. k = 5, а постоянную с — равной середине серединного, третьего, интервала, т.е. с = 32,5. Аналогично по переменной Y k  = 4, c = 17. Итак, иi = (xi – 32,5)/5; vj = (yj – 17)/4. Представим корреляционную табл. 12.1 в виде табл. 12.2. Таблица 12.2 yj

5

xi vj

ui

9

13

17

21

25

–2

–1

0

1

2

ni

uini

u n

u v n

()

2 i i

i

j =1

22,5

–2

24

12







3

–6

12

10

27,5

–1

32

61

40





13

–13

13

12

32,5

0



30

110

70



21

0

0

0

37,5

1



1–1

20

61

22

11

11

11

9

42,5

2







12

14

2

4

8

6

5

11

17

14

3

50

–4

44



vjnj

–10

–11

0

14

6

–1







2 vjnj

20

11

0

14

12

57







 ui v j nij

14

7

0

8

8







37

nj

( )

5

i =1

j ij

Вычислим необходимые суммы: 5

u n i =1 5

= (–2)Ѓ3 + (–1)Ѓ13 + 0Ѓ21 + 1Ѓ11 + 2Ѓ2 = –4;

i i

u n i =1

2 i i

5

v n j =1 5

j

v n j =1

2 j

= (–2)2Ѓ3 + (–1)2Ѓ13 + 02Ѓ21 + 12Ѓ11 + 22Ѓ2 = 44;

j

= (–2)Ѓ5 + (–1)Ѓ11 + 0Ѓ17 + 1Ѓ14 + 2Ѓ3 = –1;

j

= (–2)2Ѓ5 + (–1)2Ѓ11 + 02Ѓ17 + 12Ѓ14 + 22Ѓ3 = 57.

Для упрощения вычислений расчеты указанных сумм целесообразно проводить непосредственно в таблице (см. соответственно два

405

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

предпоследних столбца и две предпоследние строки со значениями необходимых сумм в итоговых строке и столбце). Для удобства вычисления суммы

5

5

 u v n i =1 j =1

i

j ij

вначале рассчиты-

ваем иivj и проставляем эти значения под соответствующими частотами, а затем находим произведения (иivj)nij, которые суммируем по строке и столбцу, и записываем полученные числа соответственно в последнем столбце и последней строке табл. 12.2. Например, на пересечении первой строки и первого столбца табл. 12.2 получим 2 4 , т.е. частота n11 = 2, u1v1 = ( 2)(2) = 4, а ( u1v1 ) n11 = 4  2 = 8 и т.д. Итак, суммируя произведения ui v j nij в последнем столбце или в последней строке, получим в правом нижнем углу табл. 12.2 5

5

 u v n i =1 j =1

i

j ij

= 37 .

Теперь по формулам (12.23)—(12.27) имеем:

4  5 + 32,5 = 32,1 (млн руб.); 50 1 y=  4 + 17 = 16,92 (т); 50 44 2 sx2 =  5 Љ ( 32,1 Љ 32,5 ) = 21,84; 50 57 2 s y2 =  4 Љ (16,92 Љ 17 ) = 18, 2336; 50 37 µ=  5  4 Љ ( 32,1 Љ 32,5 )(16,92 Љ 17 ) = 14,768. 50 x=

Далее уравнения регрессии находятся и интерпретируются так же, как в примере 12.1. 

12.3. Коэффициент корреляции Перейдем к о ц е н к е т е с н о т ы корреляционной зависимости. Рассмотрим наиболее важный для практики и теории случай линейной зависимости вида (12.16). На первый взгляд подходящим измерителем тесноты связи Y от X является коэффициент регрессии byх, ибо, как уже отмечено, он показывает, на сколько единиц в среднем изменяется Y, когда X увеличивается на одну единицу. Однако byх зависит от единиц измерения переменных. Например, в полученной ранее зависимости он увеличится в 1000 раз, если величину основных производственных фондов X выразить не в млн руб., а в тыс. руб.

406

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Очевидно, что для «исправления» byх как показателя тесноты связи нужна такая стандартная система единиц измерения, в которой данные по различным характеристикам оказались бы сравнимы между собой. Статистика знает такую систему единиц. Эта система использует в качестве единицы измерения переменной ее среднее квадратическое отклонение s. Представим уравнение (12.16) в эквивалентном виде:

yx Љ y  sx  x Љ x =  byx  .  s y  sx sy  

(12.28)

В этой системе величина

r = byx

sx sy

(12.29)

показывает, на сколько величин sy изменится в с р е д н е м Y, когда X увеличится на одно sx. Величина r является показателем тесноты линейной связи и называется выборочным коэффициентом корреляции (или просто коэффициентом корреляции). На рис. 12.3 приведены две корреляционные зависимости переменной Y по X. Очевидно, что в случае а) зависимость между переменными менее тесная и коэффициент корреляции должен быть меньше, чем в случае б), так как точки корреляционного поля а) дальше отстоят от линии регрессии, чем точки поля б). y

                  

                    x

а)

б)

Рис. 12.3 Нетрудно видеть, что r совпадает по знаку с byx (а значит, и с bху). Если r > 0 (byx > 0, bxy > 0), то корреляционная связь между переменными называется прямой, если r < 0 (byx < 0, bxy < 0) — обратной. При прямой (обратной) связи увеличение одной из переменных

407

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ведет к увеличению (уменьшению) условной (групповой) средней другой. Учитывая равенство (12.17), формулу для r представим в виде:

r=

xy  x y . sx s y

(12.30)

Отсюда видно, что формула для r симметрична относительно двух переменных, т.е. переменные X и Y можно менять местами. Тогда аналогично формуле (12.29) можно записать: r = bху

sy sx

.

(12.31)

Найдя произведение обеих частей равенств (12.29) и (12.31), получим r 2 = bухbху или

r = ± byx bxy ,

(12.32) (12.33)

т.е. коэффициент корреляции r переменных X и Y есть средняя геометрическая коэффициентов регрессии, имеющая их знак.  Пример 12.3. Вычислить коэффициент корреляции между величиной основных производственных фондов Х и суточной выработкой продукции Y (по данным табл. 12.1). Р е ш е н и е. Выше (см. примеры 12.1, 12.2) получили byx = 0,6762 и bxy = 0,8099. По формуле (12.33) r = + 0,6762  0,8099 = 0, 740 (берем радикал со знаком «+», так как коэффициенты byx и bxy положительны). Итак, связь между рассматриваемыми переменными прямая и достаточно тесная (ибо r близок к 1)1.   Пример 12.4. При исследовании корреляционной зависимости между объемом валовой продукции Y (млн руб.) и среднесуточной численностью работающих Х (тыс. чел.) для ряда предприятий отрасли получено следующее уравнение регрессии Х по Y: ху = 0,2y – – 2,5. Коэффициент корреляции между этими признаками оказался равным 0,8, а средний объем валовой продукции предприятий составил 40 млн руб. Найти: а) среднее значение среднесуточной численности работающих на предприятиях; б) уравнение регрессии Y по X; в) средний объем валовой продукции на предприятиях со среднесуточной численностью работающих 4 тыс. чел.

1

См. ниже свойство 1 коэффициента корреляции.

408

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Р е ш е н и е. а) Обе линии регрессии Y по Х и Х по Y пересекаются в точке ( x , y ), поэтому x найдем по заданному уравнению регрессии при y = y = 40, т.е. x = 0,2Ѓ40 – 2,5 = 5,5 (тыс. чел.). б) Учитывая соотношение (12.32), вычислим коэффициент регрессии byx: byx =

r 2 0,82 = = 3, 2. Теперь по формуле (12.16) получим bxy 0, 2

уравнение регрессии Y по X: yx – 40 = 3,2(x – 5,5) или yx = 3,2x + 22,4. в) yx=4 найдем по полученному уравнению регрессии Y по X: yx=4 = 3,2Ѓ4 + 22,4 = 35,2 (млн руб.).  Отметим другие модификации формулы r, полученные из равенства (12.30) с помощью формул (12.12)—(12.14), (12.8), (12.22): l

r=

r=

m

 ( x

i

i =1 j =1

(

)

 x ) y j  y nij nsx s y

;

(12.34)

l m   l  m n xi y j nij Љ   xi ni    y j n j  i =1 j =1  i =1   j =1  2

 m 2   n xi2 ni Љ   xi ni   n y 2j n j Љ   y j n j  i =1 j =1  i =1   j =1  l

l

.

(12.35)

m

Для практических расчетов наиболее удобна формула (12.35), так как по ней r находится непосредственно из данных наблюдений и на величине r не скажутся округления данных, связанные с расчетом средних и отклонений от них. Если данные не сгруппированы в виде корреляционной таблицы и представляют n пар чисел (xi, yi), то для вычисления коэффициентов регрессии и корреляции в соответствующих формулах следует взять nij = ni = nj = 1, j = i, а

l

m



заменить на

i =1 j =1

n

. i=1

 Пример 12.5. Найти коэффициент корреляции между производительностью труда Y (тыс. руб.) и энерговооруженностью труда X (кВт) (в расчете на одного работающего) для 14 предприятий региона по следующим данным (табл. 12.3). Таблица 12.3 xi

2,8 2,2 3,0 3,5 3,2 3,7 4,0 4,8

yi

6,7 6,9 7,2 7,3 8,4 8,8 9,1 9,8 10,6 10,7 11,1 11,8 12,1 12,4

409

6,0

5,4

5,2

5,4

6,0

9,0

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Р е ш е н и е. Вычислим необходимые суммы: 14

x i =1 14

= 2,8 + 2, 2 + ... + 6,0 + 9,0 = 64, 2;

i

x i =1

2 i

14

y i =1 14

i

= 2,82 + 2, 22 + ... + 6, 02 + 9,02 = 335, 26;

= 6,7 + 6,9 + ... + 12,1 + 12, 4 = 132,9;

y i =1

2 i

= 6,7 2 + 6,92 + ... + 12,12 + 12, 42 = 1313,95;

14

x y i =1

l

i

i

= 2,8  6, 7 + 2, 2  6,9 + ... + 6,0  12,1 + 9, 0  12, 4 = 650,99.

По формуле (12.35), полагая nij = ni = nj = 1, j = i и заменяя m

 i =1 j =1

на

n

,

получим

i=1

r=

n  n  n  n xi yi Љ   xi   yi  i =1  i =1  i =1 

= n 2   n xi2 Љ  xi  n yi2 Љ   yi  i =1 i =1  i =1  14  650,99 Љ 64, 2  132,9 = = 0,898, 14  335, 26 Љ 64, 22 14  1313,95 Љ 132, 42 n

(

)

2

n

(12.35)

что говорит о тесной связи между переменными1.  Отметим основные свойства коэффициента корреляции (при достаточно большом объеме выборки n), аналогичные свойствам коэффициента корреляции двух случайных величин (§ 5.6). 1. Коэффициент корреляции принимает значения на отрезке [–1;1], т.е. –1  r  1. В зависимости от того, насколько

r

(12.36) приближается к 1, разли-

чают связь слабую, умеренную, заметную, достаточно тесную, тесную и весьма тесную, т.е. чем ближе r к 1, тем теснее связь. 2. Если все значения переменных увеличить (уменьшить) на одно и то же число или в одно и то же число раз, то величина коэффициента корреляции не изменится. 1

См. ниже свойство 1 коэффициента корреляции.

410

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

3. При r = ± 1 корреляционная связь представляет линейную функциональную зависимость. При этом линии регрессии Y по X и X по Y совпадают и все наблюдаемые значения располагаются на общей прямой.  Найдем tg  между двумя пря-

x y x = bxy (y  y )

                                  y x  y = bxy ( x  x )      

y

мыми регрессии (рис. 12.4) с угловыми коэффициентами k1 = byx и k2 =

1 , используя соответствуюbxy

x

Рис. 12.4

щую формулу аналитической геометрии:

tg  =

k2  k1 1  byx bxy , = 1 + k2 k1 bxy + byx

откуда с учетом соотношений (12.29) и (12.31)

tg  =

1  r 2 sx s y .  2 r sx + s 2y

(12.37)

Из полученной формулы видно, что чем теснее связь и чем ближе r  1, тем меньше угол  между прямыми регрессии (эже образуемые ими «ножницы»), а при r = ±1 tg  =  = 0 и линии регрессии сливаются (рис. 12.5, а и б).

y

y

           r  1   x

0



  

  

  r  Љ1   

0

а)

x б)

Рис. 12.5

4. При r = 0 л и н е й н а я корреляционная связь отсутствует. При этом групповые средние переменных совпадают с их общими средними, а линии регрессии Y по X и X по Y параллельны осям координат.

411

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Если r = 0, то коэффициент byx = bxy = 0, и линии регрессии (12.16) и (12.20) имеют вид: ух = y и ху = x (рис. 12.6).  Равенство r = 0 говорит лишь об отсутствии л и н е й н о й корреляционной зависимости (некоррелированности переменных), но не вообще об отсутствии корреляционной, а тем y более статистической зависимости. Так, например, для зависимостей, представленных на рис. 12.7, 0 x x а и б, r = 0 и линии регрессии Y по Х параллельны оси абсцисс. Рис. 12.6 Однако по расположению точек корреляционного поля отчетливо просматривается взаимосвязь между переменными, отличная от линейной корреляционной. Так, в случае а — это нелинейная корреляционная (почти функциональная) зависимость; в случае б — статистическая зависимость, проявляющаяся в данном случае в том, что с изменением х групповые средние ух не меняются, а меняется лишь рассеяние точек поля относительно линии регрессии.

x =x

y

y                r =0     y = y      x              

y

y

 y = y     x             

     



y

y

       



x

0

  

  

    

      

yx = y

x

0

а)

                

б) Рис. 12.7

Выборочный коэффициент корреляции r является оценкой генерального коэффициента корреляции  (о котором речь пойдет дальше), тем более точной, чем больше объем выборки п. И указанные выше свойства, строго говоря, справедливы для . Однако при достаточно большом п их можно распространить и на r.

12.4. Основные положения корреляционного анализа. Двумерная модель Корреляционный анализ (корреляционная модель) — метод, применяемый тогда, когда данные наблюдений или эксперимента можно

412

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

считать случайными и выбранными из совокупности, распределенной по многомерному нормальному закону. Основная задача корреляционного анализа, как отмечено выше, состоит в выявлении связи между случайными переменными путем точечной и интервальной оценок различных (парных, множественных, частных) коэффициентов корреляции. Дополнительная задача корреляционного анализа (являющаяся основной в регрессионном анализе) заключается в оценке уравнений регрессии одной переменной по другой. Рассмотрим простейшую модель корреляционного анализа — двумерную. Плотность совместного нормального распределения двух переменных X и Y имеет вид (см. § 5.7):

 N ( x, y ) =

1 2  x  y 1 Љ 

2

e

 L( x, y )

,

 x Љ a  2 x Љ ax y Љ a y  y Љ a y 1 x 

где L ( x, y ) = Љ +

Љ 2 2

y x y 2(1 Љ  )  x 

 ax, ay

2x , 2y

(12.38)

 

2

 ;  

— математические ожидания переменных X и Y; — дисперсии переменных X и Y;

 — коэффициент корреляции между переменными X и Y, определяемый через корреляционный момент (ковариацию) Кху по формуле (5.38):

=

K xy x y

=

M [( X  ax )(Y  a y )] x y

,

(12.39)

или с учетом свойства (5.40)

=

M ( XY )  ax a y x y

.

(12.40)

Величина  характеризует тесноту связи между случайными переменными Х и Y. Указанные пять параметров ax, ay,  2 , 2 ,  дают x y исчерпывающие сведения о корреляционной зависимости между переменными. В § 5.7 показано, что при совместном нормальном законе распределения случайных величин Х и Y (12.38) выражения для условных математических ожиданий, т.е. модельные уравнения регрессии (12.1) и (12.2), выражаются линейными функциями:

413

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

M x (Y ) = a y + 

y x

M y ( X ) = ax + 

( x Љ ax ) ,

(12.41)

x ( y Љ ay ) . y

(12.42)

Из свойств коэффициента корреляции (§ 5.6) следует, что  является показателем тесноты связи лишь в случае линейной зависимости (линейной регрессии) между двумя переменными, получаемой, в частности, в соответствии с равенствами (12.41), (12.42) при их совместном нормальном распределении. Из § 5.6 также следует (см. формулы (5.50), (5.52)), что условные дисперсии равны:

2x (Y ) = 2y (1 Љ 2 ) ,

2y ( X ) = 2x (1 Љ 2 ) ,

т.е. степень рассеяния значений Y (или Х) относительно линии регрессии Y по X (или Х по Y) определяется двумя факторами: дисперсией  2y 2x переменной Y (Х) и коэффициентом корреляции  и не

( )

зависит от значений независимой переменной x (y). По мере приблик единице условная дисперсия  2x (Y )

жения 

(  ( X ) )  0, 2 y

и зна-

чения переменных все менее рассеяны относительно соответствующих линий регрессии, т.е. очевиден смысл коэффициента корреляции как показателя тесноты линейной корреляционной зависимости. Генеральная совокупность в определенном смысле аналогична понятию случайной величины и ее закону распределения (см. § 9.1), поэтому для вышеназванных параметров используется и другая тер2 минология: ax, ay (или x0 , y0 ) — генеральные средние;  x , 2y — генеральные дисперсии; Kxy и  — генеральные ковариация и коэффициент корреляции. Для оценки генерального коэффициента корреляции  и модельных уравнений регрессии по выборке в формулах (12.40)— 2 2 (12.42) необходимо заменить параметры ах, ау,  x ,  y , K xy их состоятельными выборочными оценками — соответственно (12.12), s

2 x

(12.18), s

2 y

x, y

(12.22), µ (12.19). В этом случае получим

знакомые нам формулы для определения выборочного коэффициента корреляции r (12.30) и выборочных уравнений регрессии (12.16), (12.20). Выше (§ 12.2 и 12.3) те же формулы получены иначе — на основе применения метода наименьших квадратов. Совпа-

414

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

дение результатов объясняется некоторыми ценными свойствами оценок метода наименьших квадратов. В § 12.3 мы ввели выборочный коэффициент корреляции r и рассмотрели его свойства, исходя из оценки близости точек корреляционного поля к прямой регрессии без учета предпосылок корреляционного анализа. Однако если эти предпосылки нарушаются (совместный закон распределения переменных не является нормальным, одна из исследуемых переменных не является случайной и т.п.), то r не следует рассматривать как строгую меру взаимосвязи переменных.

12.5. Проверка значимости и интервальная оценка параметров связи В практических исследованиях о тесноте корреляционной зависимости между рассматриваемыми переменными судят фактически не по величине генерального коэффициента корреляции  (который обычно неизвестен), а по величине его выборочного аналога r. Так как r вычисляется по значениям переменных, случайно попавшим в выборку из генеральной совокупности, то в отличие от параметра  оценка r — величина случайная. Пусть вычисленное значение r  0. Возникает вопрос, объясняется ли это действительно существующей линейной корреляционной связью между переменными X и Y в генеральной совокупности или является следствием случайности отбора переменных в выборку (т.е. при другом отборе возможно, например, r = 0 или изменение знака r ). Обычно в этих случаях проверяется гипотеза Н0 об отсутствии линейной корреляционной связи между переменными в генеральной совокупности, т.е. Н0:  = 0 против альтернативной гипотезы

H1 :   0. При справедливости этой гипотезы статистика t=

r n2

(12.43)

1 r2

имеет t-распределение Стьюдента с k = n – 2 степенями свободы. Поэтому гипотеза Н0 отвергается, т.е. выборочный коэффициент корреляции r значимо (существенно) отличается от нуля, если1

t =

r

n2 1 r2

> t1Љ  ; k ,

(12.44)

где t1Љ  ; k — табличное значение t-критерия Стьюдента, определенное на уровне значимости  при числе степеней свободы

k = n – 2.

1 При использовании одностороннего критерия (в случае альтернативной гипотезы H1:  > 0 или H1:  < 0 ) r значим, если t > t1Љ 2  ; n Љ 2 .

415

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 12.6. Проверить на уровне  = 0,05 значимость коэффициента корреляции между переменными X и Y по данным табл. 12.1. Р е ш е н и е. В примере 12.3 вычислен r = 0,740. Статистика критерия по формуле (12.43):

t=

0,740 50  2 1  0, 7402

= 7,62 .

Для уровня значимости  = 0,05 и числа степеней свободы k = 50 – 2 = = 48 находим критическое значение статистики t0,95;48 = 2,01 (см. табл. IV приложений). Поскольку t > t0,95;48, коэффициент корреляции между суточной выработкой продукции Y и величиной основных производственных фондов Х значимо отличается от нуля.  Для значимого коэффициента корреляции r целесообразно найти доверительный интервал (интервальную оценку), который с заданной надежностью  = 1 Љ  содержит (точнее, «накрывает») неизвестный генеральный коэффициент корреляции  . Для построения такого интервала необходимо знать выборочное распределение коэффициента корреляции r, которое при   0 несимметрично и очень медленно (с ростом n) сходится к нормальному распределению. Поэтому прибегают к специально подобранным функциям от r, которые сходятся к хорошо изученным распределениям. Чаще всего для подбора функции применяют z-преобразование Фишера:

1 1+ r z = ln . 2 1 r

(12.45)

Распределение z уже при небольших n является приближенно нормальным с математическим ожиданием

M ( z) =

1 1+   ln + 2 1 Љ  2 ( n Љ 1)

и дисперсией

2z =

(12.46)

1 . nЉ3

(12.47)

Поэтому вначале строят доверительный интервал для M(z):

z Љ t1Љ

1 nЉ3

 M ( z )  z + t1Љ

1 nЉ3

,

(12.48)

где t1–  — нормированное отклонение z, определяемое с помощью функции Лапласа:

416

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 ( t1Љ ) =  = 1 Љ  .

(12.49)

При определении границ доверительного интервала для  , т.е. для перехода от z к , существует специальная таблица. При ее отсутствии переход может быть осуществлен по формуле:

r = th z =

e z  e z , e z + e z

(12.50)

где th z — гиперболический тангенс z . Если коэффициент корреляции значим, то коэффициенты регрессии byx и bxy также значимо отличаются от нуля, а интервальные оценки для соответствующих генеральных коэффициентов регрессии yx и xy могут быть получены по формулам, основанным на том, что статистики (byx Љ  yx ) / sbyx , (bxy Љ  xy ) / sbxy имеют t-распределение Стьюдента с (n – 2) степенями свободы:

byx Љ t1Љ ;n Љ 2

bxy  t1Љ;n Љ 2

sy 1 Љ r 2 sx n Љ 2

sx 1  r 2 sy n  2

  yx  byx + t1Љ;n Љ 2 

  xy  bxy + t1Љ;n Љ 2 

sy 1 Љ r 2 sx n Љ 2

sx 1  r 2 sy n  2

;

(12.51)

.

(12.51)

Z-преобразование Фишера может быть применено при проверке различных гипотез относительно коэффициента корреляции. Например, если по данным выборки объема n вычислен коэффициент корреляции r, то для проверки нулевой гипотезы Н0 о том, что генеральный коэффициент корреляции  равен значению 0, т.е. Н0:  = 0, используется статистика

t=

z (r ) Љ z (0 ) 1 nЉ3

.

(12.52)

А для проверки существенности (значимости) различия двух коэффициентов корреляции r1 и r2, полученных по выборкам объемов n1 и n2, т.е. для проверки гипотезы Н0: 1 = 2, применяется статистика

t=

z (r1 )  z (r2 )

1 1 + n1  3 n2  3

.

(12.52)

При достаточных объемах выборки (бо ґ льших 10) можно считать, что при выполнении соответствующих нулевых гипотез статистики

417

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(12.52) и (12.52) имеют приближенно нормальный закон распределения. Поэтому (см. § 10.6) гипотеза Н0 отвергается на уровне значимости , если t > t1Љ (при использовании двустороннего критерия) или t > t1Љ 2  при использовании одностороннего критерия).  Пример 12.7. По данным табл. 12.1 найти с надежностью 0,95 интервальные оценки (доверительные интервалы) параметров связи между суточной выработкой продукции Y и величиной основных производственных фондов Х. Р е ш е н и е. Так как коэффициент корреляции X и Y значим (см. пример 12.5), то построим доверительный интервал для генерального коэффициента корреляции  , применяя z-преобразование Фишера. По формуле (12.45)

1 1 + 0,740 z = ln = 0,9505. 2 1 Љ 0,740 По формуле (12.49) из условия  ( t1Љ ) = 0,95 по таблице функ-

ции Лапласа находим t0,95 = 1,96. По формуле (12.48) построим доверительный интервал для M(z):

0,9505 Љ 1,96

1

 M ( z )  0,9505 + 1,96

1

50 Љ 3 50 Љ 3 или 0,6646  M ( z )  1, 2364. Находим границы доверительного интервала для , используя специальную таблицу или формулу (12.50): th 0,6646 <  < th 1,2364 или 0,581    0,844 . В указанных границах на уровне значимости 0,05 (с надежностью 0,95) заключен генеральный коэффициент корреляции  . Теперь построим доверительные интервалы для генеральных коэффициентов регрессии  yx и  xy . Вначале определим средние квадратические отклонения переменных:

sx = sx2 = 21,84 = 4,673;

s y = s 2y = 18, 2336 = 4, 270;

Теперь по формуле (12.51):

0, 6762 Љ 2, 01 

4, 270  1 Љ 0, 7402 4,673  50 Љ 2

  yx  0, 6762 + 2,01 

4, 270  1 Љ 0, 7402 4,673  50 Љ 2

или 0,4979   yx  0,8545. Аналогично по формуле (12.51):

0,5963   xy  1,0235 . 

418

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

При содержательной интерпретации параметров ,  yx и  xy следует считаться в первую очередь с их интервальными (а не только точечными) оценками.  Пример 12.7а. При исследовании связи между производительностью труда и уровнем механизации работ на предприятиях одной отрасли промышленности, расположенных в двух различных районах страны, вычислены коэффициенты корреляции r1 = 0,95 и r2 = 0,88 по выборкам объемов соответственно n1 = 14 и n2 = 20. Выяснить, имеются ли на уровне  = 0,05 существенные различия в тесноте связи между рассматриваемыми переменными на предприятиях отрасли в этих районах. Р е ш е н и е. Проверяемая гипотеза Н0: 1 = 2. В качестве альтернативной возьмем гипотезу Н0: 1  2, т.е. применяем двусторонний критерий. По формуле (12.51) с учетом соотношения (12.45) статистика

t=

z (0,95)  z (0,88) 1 1 + 14  3 20  3

=

1,832  1,376 0,150

= 1,18 .

Так как t < t0,95 = 1,96, то гипотеза Н0 не отвергается, т.е. нет оснований считать существенным различие показателей связи между рассматриваемыми переменными на предприятиях двух районов страны. 

12.6. Корреляционное отношение и индекс корреляции Введенный выше коэффициент корреляции, как уже отмечено, является полноценным показателем тесноты связи лишь в случае линейной зависимости между переменными. Однако часто возникает необходимость в достоверном показателе интенсивности связи при л ю б о й ф о р м е зависимости. Для получения такого показателя вспомним правило сложения дисперсий (8.12):

s y2 = siy2 + iy2 ,

(12.53)

где s y2 — общая дисперсия переменной m

2 y

s =

( y j =1

j

y n

)

2

ni ,

(12.54)

siy2 — средняя групповых дисперсий siy2 , или остаточная дисперсия —

419

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

l

s

siy2 =

2 iy

i =1

ni ,

n m

siy2 =

( y j =1

 yi

j

(12.55)

)

2

,

n

(12.56)

iy2 — межгрупповая дисперсия l

iy2 =

( y i =1

i

Љ y ) ni 2

n

.

(12.57)

Остаточной дисперсией измеряют ту часть колеблемости Y, которая возникает из-за изменчивости неучтенных факторов, не зависящих от Х. Межгрупповая дисперсия выражает ту часть вариации Y, которая обусловлена изменчивостью Х. Величина

 yx =

iy2 s y2

(12.58)

получила название эмпирического корреляционного отношения Y по X. Чем теснее связь, тем большее влияние на вариацию переменной Y оказывает изменчивость Х по сравнению с неучтенными факторами, тем выше  yx . Величина 2yx , называемая эмпирическим коэффициентом детерминации, показывает, какая часть общей вариации Y обусловлена вариацией Х. Аналогично вводится эмпирическое корреляционное отношение Х по Y:

 yx =

ix2 . sx2

(12.59)

Отметим основные свойства корреляционных отношений1 (при достаточно большом объеме выборки n). 1. Корреляционное отношение есть неотрицательная величина, не превосходящая единицу: 0    1. 2. Если  = 0 , то корреляционная связь отсутствует. 3. Если  = 1, то между переменными существует функциональная зависимость.

1 Эти свойства справедливы как для эмпирических корреляционных отношений , так и для теоретических — R (см. ниже).

420

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

4.  yx  xy , т.е. в отличие от коэффициента корреляции r (для которого ryx = rxy = r ) при вычислении корреляционного отношения существенно, какую переменную считать независимой, а какую — зависимой. Эмпирическое корреляционное отношение  yx является показателем рассеяния точек корреляционного поля относительно эмпирической линии регрессии, выражаемой ломаной, соединяющей значения yi . Однако в связи с тем, что закономерное изменение yi нарушается случайными зигзагами ломаной, возникающими вследствие остаточного действия неучтенных факторов,  yx преувеличивает тесноту связи. Поэтому наряду с  yx рассматривается показатель тесноты связи Ryx, характеризующий рассеяние точек корреляционного поля относительно линии регрессии ух (12.3). Показатель Ryx получил название теоретического корреляционного отношения или индекса корреляции Y по X:

Ryx =

 2y s y2

= 1Љ

s y2 s 2y

,

(12.60)

где дисперсии  2y и sy2 определяются по формулам (12.54)—(12.56), в которых групповые средние yi заменены условными средними

yxi , вычисленными по уравнению регрессии (12.16). Подобно Ryx вводится и индекс корреляции Х по Y:

Rxy =

s 2  2x = 1 Љ x2 . 2 sx sx

(12.61)

Достоинством рассмотренных показателей  и R является то, что они могут быть вычислены при любой форме связи между переменными. Хотя  и завышает тесноту связи по сравнению с R, но для его вычисления не нужно знать уравнение регрессии. Корреляционные отношения  и R связаны с коэффициентом корреляции r следующим образом:

0  r  R    1.

(12.62)

Покажем, что в случае л и н е й н о й модели (12.3), т.е. зависимости y x  y = byx ( x  x ) , индекс корреляции Ryx равен коэффициенту корреляции r (по абсолютной величине): Ryx = r (или Rxy = r ).  Полагаем для простоты ni = 1 (i = 1, 2, ..., l). По формуле (12.60)

421

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

n

Ryx =

 s

2 y 2 y

=

( y i =1

xi

n

( y i =1

i

y

)

 y)

n

2

=

2

b (x i =1

2 yx

i

n

( y i =1

i

 x)

 y)

2

n

2

= byx

(x

i

 x) n

( y

 y) n

i =1 n

i =1

i

2

2

(так как из уравнения регрессии y xi – y = byx ( xi  x ) ). Теперь, учитывая формулы дисперсии, коэффициентов регрессии (12.17) и корреляции (12.30), получим:

Ryx =

xy  x y sx2

xy  x y sx2 = = r .  2 sy sx s y

Коэффициент детерминации R 2 , равный квадрату индекса корреляции (для парной линейной модели — r 2 ), показывает долю общей вариации зависимой переменной, обусловленной регрессией или изменчивостью объясняющей переменной. Чем ближе R2 к единице, тем лучше регрессия аппроксимирует эмпирические данные, тем теснее наблюдения примыкают к линии регрессии. Если R2 = 1, то эмпирические точки (x, y) лежат на линии регрессии (см. рис. 12.4) и между переменными Y и X существует линейная функциональная зависимость. Если R2 = 0, то вариация зависимой переменной полностью обусловлена воздействием неучтенных в модели переменных, и линия регрессии параллельна оси абсцисс (рис. 12.5). Расхождение между 2 и R 2 (или r 2 ) может быть использовано для проверки л и н е й н о с т и корреляционной зависимости (см. ниже пример 12.10). Проверка значимости корреляционного отношения  основана на том, что статистика

F=

2 ( n Љ m )

(1 Љ  ) ( m Љ 1) 2

(12.63)

(где m — число интервалов по группировочному признаку) имеет F-распределение Фишера—Снедекора с k1 = m – 1 и k2 = n – m степенями свободы. Поэтому  значимо отличается от нуля, если F > > F , k1 , k2 , где F , k1 , k2 — табличное значение F-критерия на уровне значимости  при числе степеней свободы k1 = m – 1 и k2 = n – m. Индекс корреляции R двух переменных значим, если значение статистики

422

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

F=

R2 ( n  2)

(12.64)

1  R2

больше табличного F , k1 , k2 , где k1 = 1 и k2 = n – 2.  Пример 12.8. По данным табл. 12.1 вычислить корреляционное отношение  yx и индекс корреляции Ryx и проверить их значимость на уровне  = 0,05. Р е ш е н и е. Вначале определим  yx . Ранее вычислены: общая средняя y = 16,92, дисперсия s y2  18, 23 (пример 12.2), групповые средние yi (табл. 12.1). Частоты интервалов ni указаны в предпоследней графе той же таблицы. Для удобства расчеты представим в табл. 12.4. Таблица 12.4 xi

ni

yi

( yi  y ) 2 ni

yxi

( y xi  y ) 2 ni

22,5 27,5 32,5 37,5 42,5

3 13 21 11 2 

10,3 13,3 17,8 20,3 23,0

131,5 170,4 16,3 125,7 73,9 517,8

10,4 13,8 17,2 20,6 23,9 —

127,5 126,5 1,6 149,0 97,4 502,0

Теперь по формуле (12.57) iy2 = 517,8 50 = 10,36 и по формуле (12.58)  yx =

10,36 = 0,568 = 0, 754 . Значение  yx близко к вели18, 23

чине r = 0,740 (полученной ранее в примере 12.3). Поэтому оправдано сделанное выше на основании графического изображения эмпирической линии (ломаной) регрессии предположение о линейной корреляционной зависимости между переменными. Для расчета Rуx по уравнению регрессии yx = 0,6762x – 4,79 (см. пример 12.1) находим значения y xi , представленные в предпоследней графе

Ryx =

табл.

12.4.

Затем

аналогично

 2— = 502, 0 50 = 10,04

и

10, 04 = 0,551 = 0, 742 . Как и следовало ожидать, Rуx ока18, 23

зался равным r (небольшое расхождение объясняется округлением промежуточных результатов при вычислении Rуx). Поэтому в случае линейной связи нет смысла вычислять Rуx, а достаточно ограни-

423

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

читься вычислением r. Величина коэффициента детерминации Ryx2 = 0,551 показывает, что вариация зависимой переменной Y (суточной выработки продукции) на 55,1% объясняется вариацией независимой переменной X (величиной основных производственных фондов). Для проверки значимости  yx , учитывая, что количество интервалов по группировочному признаку m = 5, по формуле (12.63) найдем

F=

0, 7542 ( 50  5 )

(1  0,754)2 (5  1)

=14,82.

Табличное значение F0,05;4;45=2,57. Так как F > F0,05;4;45, то  yx значимо отличается от нуля. Аналогично проверяется значимость Rуx. По формуле (12.64) F =

0,7422 (50  2) = 58,8. Так как F > F0,05;1;48 = 4,04, (1  0, 7422 )

то индекс корреляции Rуx значим. 

12.7. Понятие о многомерном корреляционном анализе. Множественный и частный коэффициенты корреляции Экономические явления чаще всего адекватно описываются многофакторными моделями. Поэтому возникает необходимость обобщить рассмотренную выше двумерную корреляционную модель на случай нескольких переменных. Пусть имеется совокупность случайных переменных X1, X2, …, Хi, ..., Xj, ..., Xp, имеющих совместное нормальное распределение. В этом случае матрицу

 1 12  1 21 Qp =   ... ...   p1  p 2

... 1 p  ... 2 p  , ... ...   ... 1 

(12.65)

составленную из парных коэффициентов корреляции рij (i, j = 1, 2, ..., р), определяемых по формуле (9.2), будем называть корреляционной. Основная задача многомерного корреляционного анализа состоит в оценке корреляционной матрицы Qp по выборке. Эта задача решается определением матрицы выборочных коэффициентов корреляции:

424

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1 r 21 qp =   ...   rp1

r12 1 ... rp 2

... r1 p  ... r2 p  , ... ...   ... 1 

(12.66)

где rij (i, j = 1, 2, …, p) определяется по формуле (12.30) или ее модификациям. В многомерном корреляционном анализе рассматривают две типовые задачи: а) определение тесноты связи одной из переменных с совокупностью остальных (р – 1) переменных, включенных в анализ; б) определение тесноты связи между переменными при фиксировании или исключении влияния остальных q переменных, где

q  ( p Љ 2).

Эти задачи решаются с помощью множественных и частных коэффициентов корреляции. Множественный коэффициент корреляции. Теснота линейной взаимосвязи одной переменной Хi с совокупностью других (p – 1) переменных Xj, рассматриваемой в целом, измеряется с помощью множественного (или совокупного) коэффициента корреляции i ,12... p , который является обобщением парного коэффициента корреляции ij . Выборочный множественный, или совокупный, коэффициент кор-

реляции Ri ,12... p , являющийся оценкой Ri ,12... p , может быть вычислен по формуле:

Ri.12... p = 1  где q

qp qii

,

(12.67)

— определитель матрицы qp;

qii — алгебраическое дополнение элемента rii той же матрицы (равного 1). В частности, в случае трех переменных (p = 3) из формулы (12.67) следует, что

Ri. jk =

rij2 + rik2 Љ 2rij  rik  rjk 1 Љ rjk2

.

(12.68)

Множественный коэффициент корреляции заключен в пределах

0  R  1. Он не меньше, чем абсолютная величина любого парного

425

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

или частного коэффициента корреляции с таким же первичным индексом. С помощью множественного коэффициента корреляции (по мере приближения R к 1) делается вывод о тесноте взаимосвязи, но не о ее направлении. Величина R 2 , называемая выборочным множественным (или совокупным) коэффициентом детерминации, показывает, какую долю вариации исследуемой переменной объясняет вариация остальных переменных. Можно показать, что множественный коэффициент корреляции значимо отличается от нуля, если значение статистики

F=

R2 ( n  p )

(1  R ) ( p  1) 2

> F ;k1 , k2 ,

(12.69)

где F , k1 , k2 — табличное значение F-критерия на уровне значимости

 при числе степеней свободы k1 = p – 1 и k2 = n – p.

Частный коэффициент корреляции. Если переменные коррелируют друг с другом, то на величине парного коэффициента корреляции частично сказывается влияние других переменных. В связи с этим часто возникает необходимость исследовать частную корреляцию между переменными при исключении (элиминировании) влияния одной или нескольких других переменных. Выборочным частным коэффициентом корреляции между переменными Хi и Xj при фиксированных значениях остальных (р – 2) переменных называется выражение

rij .12... p =

 qij qii q jj

,

(12.70)

где qij и qjj — алгебраические дополнения элементов rij и rjj матрицы qp. В частности, в случае трех переменных (p = 3) из формулы (12.70) следует, что

rij .k =

rij Љ rik  rjk

(1 Љ r )(1 Љ r ) 2 ik

2 jk

.

(12.71)

Частный коэффициент корреляции rij.12…p, как и парный коэффициент корреляции r, может принимать значения от –1 до 1. Кроме того, rij.12…p, вычисленный на основе выборки объема n, имеет такое же распределение, что и r, вычисленный по (п – р + 2) наблюдениям. Поэтому значимость частного коэффициента корреляции rij.12…p оценивают так же, как и коэффициента корреляции r (см. § 12.5), но при этом полагают n = п – р + 2.

426

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 12.9. Для исследования зависимости между производительностью труда (X1), возрастом (Х2) и производственным стажем (Х3) была произведена выборка из 100 рабочих одной и той же специальности. Вычисленные парные коэффициенты корреляции оказались значимыми и составили: r12 = 0,20; r13 = 0,41; r23 = 0,82. Вычислить множественный коэффициент корреляции R1.23, частные коэффициенты корреляции и оценить их значимость на уровне  = 0,05. Р е ш е н и е. По формуле (12.68) вычислим множественный коэффициент корреляции:

R1.23 =

0, 202 + 0, 412 Љ 2  0, 20  0, 41  0,82 = 0, 225 = 0, 47, 1 Љ 0,822

т.e. между производительностью труда, с одной стороны, и возрастом и производственным стажем рабочих — с другой, существует заметная связь. Множественный коэффициент детерминации 2 R1.23 = 0, 225 показывает, что вариация производительности труда рабочих на 22,5% объясняется вариацией их возраста и производственного стажа. Для оценки значимости R1.23 по формуле (12.69) вычислим

F=

0, 47 2  (100 Љ 3) = 14,1 (1 Љ 0, 47 2 )  (3 Љ 1)

и по таблицам F-распределения найдем F0,05;2;97 = 3,09. Так как F > F0,05;2;97, то R1.23 значимо отличается от нуля. По формуле (12.71) вычислим частные коэффициенты корреляции:

r12.3 =

0, 202 Љ 0, 41  0,82

(1 Љ 0, 41 ) (1 Љ 0,82 ) 2

2

= Љ 0, 26

и аналогично r13.2 = 0,44; r23.1 = 0,83. Оценим значимость r12..3. Полагаем условно n~ = n – p + 2 = 100 – 3 + 2 = = 99. Статистика критерия по формуле (12.43):

t=

Љ0, 26  99 Љ 2 1 Љ 0, 262

= Љ 2, 65.

По таблице t-распределения Стьюдента находим t0,05;97 = 1,99. Так как t > t0,95;97 , то частный коэффициент корреляции r12.3 зна-

427

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

чим. Тем более будут значимы бо ґ льшие коэффициенты r13.2 и r23.1 (в этом можно убедиться таким же образом).  Сравнивая частные коэффициенты корреляции rij.k с соответствующими парными коэффициентами rij, видим, что за счет «очищения связи» наибольшему изменению подвергся коэффициент корреляции между производительностью труда (X1) и возрастом (Х2) рабочих (изменилась не только его величина, но даже и знак: r12 = 0,20; r12.3 = – 0,26, причем оба эти коэффициента значимы). Итак, между производительностью труда (X1) и возрастом (Х2) рабочих существует прямая корреляционная связь (r12 = 0,20). Если же устранить (элиминировать) влияние переменной «производственный стаж» (Х3), то в чистом виде производительность труда (X1) находится в обратной по направлению (и опять же слабой по тесноте) связи с возрастом рабочих (Х2) (r12.3 = –0,26). Это вполне объяснимо, если рассматривать возраст только как показатель работоспособности организма на определенном этапе его жизнедеятельности. Подобным образом могут быть интерпретированы и другие частные коэффициенты корреляции. Заканчивая краткое изложение корреляционного анализа количественных признаков, остановимся на двух моментах. 1. Задача научного исследования состоит в отыскании причинных зависимостей. Только знание истинных причин явлений позволяет правильно истолковывать наблюдаемые закономерности. Однако корреляция как формальное статистическое понятие сама по себе не вскрывает причинного характера связи. С помощью корреляционного анализа нельзя указать, какую переменную принимать в качестве причины, а какую — в качестве следствия. Например, рассматривая корреляционную связь между суточной выработкой продукции и величиной основных производственных фондов (см. пример 12.1), изменение последней можно считать одной из причин изменения суточной выработки. Но, с другой стороны, необходимость повышения суточной выработки продукции может повлечь за собой увеличение размера основных производственных фондов. Между урожайностью сельскохозяйственных культур и погодными условиями (температурой, количеством осадков и т.п.) существует корреляционная связь. Но здесь не возникает сомнений, какая переменная является следствием, а какая — причиной. Иногда при наличии корреляционной связи ни одна из переменных не может рассматриваться причиной другой (например, зависимость между весом и ростом человека). Наконец, возможна ложная корреляция (нонсенс-корреляция), т.е. чисто формальная связь между переменными, не находящая никакого объяснения и основанная лишь на количественном соотношении между ними (таких примеров в статистической литературе приводится немало). Поэтому при логических переходах от корреляционной связи между переменными к

428

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

их причинной взаимообусловленности необходимо глубокое проникновение в сущность анализируемых явлений. 2. Не существует общеупотребительного критерия проверки определяющего требования корреляционного анализа — нормальности многомерного распределения переменных. Учитывая свойства теоретической модели, обычно полагают, что отнесение к совместному нормальному закону возможно, если частные одномерные распределения переменных не противоречат нормальным распределениям (в этом можно убедиться, например, с помощью критериев согласия); если совокупность точек корреляционного поля частных двумерных распределений имеет вид более или менее вытянутого «облака» с выраженной линейной тенденцией. Для проверки линейности связи пары признаков можно использовать расхождение между квадратами эмпирического корреляционного отношения 2 и коэффициента корреляции r 2 , учитывая, что статистика

(

) ( m Љ 2 ) (1 Љ  ) 2

F=

Љ r 2 (n Љ m) 2

(12.72)

(n — число наблюдений, m — число группировочных интервалов) имеет F-распределение с k1 = m – 2 и k2 = n – m степенями свободы.  Пример 12.10. По данным табл. 12.1 на уровне значимости 0,05 проверить гипотезу о линейности корреляционной зависимости между переменными Y и Х. Р е ш е н и е. Имеем n = 50, m = 5. В примере 12.3 было получено r = 0,740, а в примере 12.7 —  = 0,754. По формуле (12.72)

F=

(0,7542  0, 7402 )(50  5) = 0, 727 . (5  2)(1  0, 7542 )

Так как F < F0,05;3;45 = 2,82 (см. табл. VI приложений), то гипотеза о линейности корреляционной зависимости между Y и X не отвергается.  Многомерный корреляционный анализ позволяет с помощью корреляционной матрицы (12.66) получить оценку модельного уравнения регрессии — линейного уравнения множественной регрессии. Однако это проще сделать с помощью регрессионного анализа (см. гл. 13).

12.8. Ранговая корреляция До сих пор мы анализировали зависимости между количественными переменными, измеренными в так называемых количественных шкалах, т.е. в шкалах с непрерывным множеством значений, позволяющих выявить, н а с к о л ь к о (или в о с к о л ь к о раз) проявление признака у одного объекта больше (меньше), чем у дру-

429

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

гого (например, производительность труда, себестоимость продукции и т.п.). Вместе с тем на практике часто встречаются с необходимостью изучения связи между ординальными (порядковыми) переменными, измеренными в так называемой порядковой шкале. В этой шкале можно установить лишь п о р я д о к, в котором объекты выстраиваются по степени проявления признака (например, качество жилищных условий, тестовые баллы, экзаменационные оценки и т.п.). Если, скажем, по некоторой дисциплине два студента имеют оценки «отлично» и «удовлетворительно», то можно лишь утверждать, что уровень подготовки по этой дисциплине первого студента выше (больше), чем второго, но нельзя сказать, на сколько или во сколько раз больше. Оказывается, что в таких случаях проблема оценки тесноты связи разрешима, если упорядочить, или ранжировать, объекты анализа по степени выраженности измеряемых признаков. При этом каждому объекту присваивается определенный номер, называемый рангом. Например, объекту с наименьшим проявлением (значением) признака присваивается ранг 1, следующему за ним — ранг 2 и т.д. Объекты можно располагать и в порядке убывания проявления (значений) признака. Если объекты ранжированы по двум признакам, то имеется возможность оценить тесноту связи между признаками, основываясь на рангах, т.е. тесноту ранговой корреляции. Коэффициент ранговой корреляции Спирмена находится по формуле: n

 =1

6 ( ri  si ) i =1

n3  n

2

,

(12.73)

где ri и si — ранги i-го объекта по переменным Х и Y, n — число пар наблюдений. Если ранги всех объектов равны (ri = si, i = 1, 2, …., n), то  = 1, т.е. при полной прямой связи  = 1. При полной обратной связи, когда ранги объектов по двум переменным расположены в обратном порядке, можно показать, что

n

 (r  s ) = (n i =1

2

i

i

3

)

 n 3 и по формуле

(12.72)  = Љ1 . Во всех остальных случаях  < 1. При ранжировании иногда сталкиваются со случаями, когда невозможно найти существенные различия между объектами по величине проявления рассматриваемого признака. Объекты, как говорят, оказываются связанными. Связанным объектам приписывают одинаковые средние ранги, такие, чтобы сумма всех рангов оставалась такой же, как и при отсутствии связанных рангов. Например, если четыре объекта оказались равнозначными в отношении рассматриваемого признака и невозможно определить, какие из четы-

430

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

рех рангов (4, 5, 6, 7) приписать этим объектам, то каждому объекту приписывается средний ранг, равный (4 + 5 + 6 + 7) / 4 = 5,5. При наличии связанных рангов ранговый коэффициент корреляции Спирмена вычисляется по формуле: n

 =1

где Tr =

1 mr 3  t r  tr ; 12 i =1

(

)

(r  s ) i =1

i

2

i

1 3 n  n  (Tr + Ts ) 6 1 ms Ts =  ts3  ts ; 12 i =1

(

)

(

,

(12.74)

)

(12.75)

mr , ms — число групп неразличимых рангов у переменных Х и Y; tr, ts — число рангов, входящих в группу неразличимых рангов переменных Х и Y. При проверке значимости  исходят из того, что в случае справедливости нулевой гипотезы об отсутствии корреляционной связи между переменными при n > 10 статистика

t=

 nЉ2

(12.76)

1 Љ 2

имеет t-распределение Стьюдента с k = n – 2 степенями свободы. Поэтому  значим на уровне , если фактически наблюдаемое значение t будет больше критического (по абсолютной величине), т.е. t > t1Љ , n Љ 2 , где t1Љ , n Љ 2 — табличное значение t-критерия Стьюдента, определенное на уровне значимости  при числе степеней свободы k = n – 2.  Пример 12.11. По результатам тестирования 10 студентов по двум дисциплинам А и В на основе набранных баллов получены следующие ранги (табл. 12.5). Вычислить ранговый коэффициент корреляции Спирмена и проверить его значимость на уровне  = 0,05. Р е ш е н и е. Разности рангов и их квадраты поместим в последних двух строках табл. 12.5. Таблица 12.5 Ранги по дисциплинам А

ri

B

si

ri – si (ri –

si)2

1 2

2 4

3 5

2,5

6

4

1

2,5

7

–0,5

–2

1

0

5

0,5

4

1

0

25

0,25

0,25

4 1

Студент, i 5 6 7 7,5 7,5 7,5

431

8 –0,5 0,25

Всего 8 7,5 9,5

9 10 3 10

55

5

9,5

55

–2

–2

0,5



4

4

0,25

39

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

По формуле (12.73)  = 1 Љ

6  39 = 0, 763. Однако формула 103 Љ 10

(12.73) не учитывает наличия связанных рангов. По дисциплине А имеем mr = 1 — одну группу неразличимых рангов с tr = 4 рангами; по дисциплине В – ms = 2 — две группы неразличимых рангов по ts = 2 ранга. Поэтому по формуле (12.75)

Tr =

1 3 1 4  4 = 5, Ts =  23 Љ 2 + 23 Љ 2  = 1 .  12 12 

(

)

(

) (

)

Находим по формуле (12.74)

 =1Љ

39 = 0,755. 1 3 10 Љ 10 Љ ( 5 + 1) 6

(

)

Для проверки значимости  по формуле (12.76)1 вычислим

t = 0, 755

10  2 1  0,7552

= 3, 26 и найдем по табл. IV приложений t0,95;8=

= 2,31. Так как t > t0,95;8, то ранговый коэффициент корреляции  значим на 5%-ном уровне. Связь между оценками двух дисциплин достаточно тесная.  Коэффициент ранговой корреляции Кендалла находится по формуле:

 =1Љ

4K , n ( n Љ 1)

(12.77)

где К — статистика Кендалла2. Для определения К необходимо ранжировать объекты по одной переменной в порядке возрастания рангов (1, 2, ..., n) и определить соответствующие их ранги (r1, r2, …, rn) по другой переменной. Статистика K равна общему числу инверсий (нарушений порядка, когда большее число стоит слева от меньшего) в ранговой последовательности (ранжировке) r1, r2, …, rn. При полном совпадении двух ранжировок имеем K = 0 и  = 1; при полной противоположности можно показать, что К = n(n – 1)/2 и  = Љ1 . Во всех остальных случаях  < 1 . При проверке значимости  исходят из того, что в случае справедливости нулевой гипотезы об отсутствии корреляционной связи между переменными (при n > 10)  имеет приближенно нормальный закон распределения с математическим ожиданием, равным

1 В примерах 12.11 и 12.12 использованы приближенно при n = 10 критерии проверки значимости соответственно  и , справедливые, вообще говоря, при n > 10. 2 Формула для расчета  при наличии связанных рангов здесь не приводится.

432

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

нулю, и средним квадратическим отклонением s =

2 ( 2n + 5 ) 9n ( n  1)

. По-

этому  значим на уровне , если значение статистики

t=

9n ( n  1) 0 = s 2 ( 2n + 5 )

(12.78)

по абсолютной величине больше критического t1Љ , где  ( t1Љ ) = 1 Љ . Поясним вычисление Кендалла на примере.

рангового

коэффициента

корреляции

 Пример 12.12. В результате анкетного обследования для 10 важнейших видов оборудования, используемого судоводителями во время вахты, получены следующие ранги по важности оборудования Х и по частоте его использования Y (табл. 12.6). Вычислить ранговый коэффициент Кендалла и оценить его значимость на уровне  = 0,05. Р е ш е н и е. В последней строке табл. 12.6 представлены значения числа инверсий в ранжировках по переменной Y для различных рангов по переменной X. Таблица 12.6 Ранг Важность оборудования X, n Частота использования Y, ri Число инверсий

Тип оборудования

Всего

А

Б

В

Г

Д

E

Ж

З

И

К

1

2

3

4

5

6

7

8

9

10



1

4

2

6

3

9

10

8

7

5



0

2

0

2

0

3

3

2

1

0

K = 13

Найдем, например, число инверсий при ранге n = 6 по переменной Х. Тогда соответствующий ранг по переменной Y r6 = 9 и с учетом последующих рангов (см. табл. 12.6) имеем ранжировку по Y (9, 10, 8, 7, 5). Из пар чисел (перестановок) (9, 10), (9, 8), (9, 7), (9, 5) инверсии (нарушения порядка, когда большее число стоит слева от меньшего) имеются у трех последних пар, т.е. число инверсий равно 3. Аналогично определяются и другие значения числа инверсий и находится их сумма К = 13. Теперь по формуле (12.77)

 =1Љ

4  13 = 0, 422. 10  9

433

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Оценим значимость . Вычислим по формуле (12.78) значение статистики t = 0, 422

9  10 (10 Љ 1) 2 ( 2  10 + 5 )

= 8, 49, по табл. IV приложений

t0,95 = 1,96. Так как t > t0,95, то ранговый коэффициент корреляции Кендалла значим на 5%-ном уровне. Связь между рассматриваемыми переменными умеренная.  Сравнивая коэффициенты ранговой корреляции  (Спирмена) и  (Кендалла), можно отметить, что хотя вычисление  более трудоемко, коэффициент  обладает некоторыми преимуществами перед  при исследовании его статистических свойств (например, возможностью приближенного построения доверительного интервала для  ) и боґльшим удобством его пересчета при добавлении к n статистически обследованным объектам новых, т.е. при удлинении анализируемых ранжировок. Значения коэффициентов  и  тесно связаны между собой. При умеренно больших значениях n (n > 10) и при условии, что абсолютные величины значений этих коэффициентов не слишком близки к единице, их связывает простое приближенное соотношение   1,5 . Ранговые коэффициенты корреляции  и  могут быть использованы и для оценки тесноты связи между обычными количественными переменными, измеряемыми в интервальных шкалах. Достоинство  и  здесь заключается в том, что нахождение этих коэффициентов не требует нормального распределения переменных, линейной связи между ними (хотя и предполагает монотонность функции регрессии, отражающей эту связь). Однако необходимо учитывать, что при переходе от первоначальных значений переменных к их рангам происходит определенная потеря информации. Чем теснее связь, чем меньше корреляционная зависимость между переменными отличается от линейной, тем ближе коэффициент Спирмена  к коэффициенту парной корреляции r. В практике статистических исследований встречаются случаи, когда совокупность объектов характеризуется не двумя, а несколькими последовательностями рангов (ранжировками) и необходимо установить статистическую связь между несколькими переменными. Такие задачи возникают, например, при анализе экспертных оценок, когда необходимо установить меру их согласованности. В качестве такого измерителя используют коэффициент конкордации (согласованности) рангов Кендалла W, определяемый по формуле1: n

W=

12 D 2 i =1

m 2 ( n3  n)

,

(12.79)

где n — число объектов; m — число анализируемых порядковых переменных; 1

Формула для расчета W при наличии связанных рангов здесь не приводится.

434

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

m

m ( n + 1)

j =1

2

D =  rij Љ

(12.80)

— отклонение суммы рангов объекта от средней их суммы для всех объектов, равной m(n + 1)/2. Можно доказать, что значения коэффициента W заключены на отрезке [0; 1], т.е. 0  W  1 , причем W = 1 при совпадении всех ранжировок. Проверка значимости коэффициента конкордации W основана на том, что в случае справедливости нулевой гипотезы об отсутствии корреляционной связи при n > 7 статистика m(n – 1)W имеет приближенно 2-распределение с k = n – 1 степенями свободы. Поэтому W значим на уровне , если

m ( n Љ 1)W > 2 , n Љ1 .

(12.81)

 Пример 12.13. Группа из 5 экспертов оценивает качество изделий, изготовленных на 7 предприятиях. Их предпочтения представлены в табл. 12.7. Вычислить коэффициент конкордации рангов и оценить его значимость на уровне  = 0,05. Р е ш е н и е. В итоговой строке табл. 12.7 приведены суммы рангов изделий по каждому из 7 предприятий, полученных от 5 экспертов. Общая сумма рангов равна 140. Средняя сумма рангов равна m(n + 1)/2 = 5(7+1)/2 = 20 или, иначе, 140/7 = 20. Таблица 12.7 Предприятие, i

Эксперт, j 1 2 3 4 5

Итого

1 1 1 2 1 3

2 3 2 1 2 1

3 4 5 7 4 5

4 2 3 5 6 4

5 6 6 6 3 2

6 7 4 4 5 6

7 5 7 3 7 7

8

9

25

20

23

26

29

140

–12 144

–11 121

5 25

0 0

3 9

6 36

9 81

– 416

5

Сумма рангов

r j =1

D D2

ij

В предпоследней строке табл. 12.7 помещены разности D =

5

r j =1

а в последней строке — их квадраты D 2 .

435

ij

 20,

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Коэффициент

W=

12  416

(

52 7 3 Љ 7

)

конкордации

пo

формуле

(12.79)

= 0,594. Оценим значимость W 1. Вычислим m (n – 1) 2

W = 5Ѓ6Ѓ0,594 = 17,83; по табл. V приложений  0,05;6 = 12,59 . Так 2 как m (n – 1)W >  0,05;6 , то коэффициент конкордации W значим на

5%-ном уровне. Таким образом, существует достаточно тесная согласованность мнений экспертов.  Корреляционный анализ может быть использован и при оценке взаимосвязи качественных (категоризованных) признаков (переменных), представленных в так называемой номинальной шкале, в которой возможно лишь различение объектов по возможным состояниям, градациям (например, пол, социальное положение, профессия и т.п.). Здесь в качестве соответствующих показателей могут быть использованы коэффициенты ассоциации, контингенции (сопряженности), бисериальной корреляции. Эти вопросы рассмотрены, например, в [2], [25], [37].

Упражнения 12.14. Распределение 60 предприятий химической промышленности по энерговооруженности труда Y (кВтЃч) и фондовооруженности X (млн руб.) дано в таблице: x y 0—1,4 1,4—2,8 2,8—4,2 4,2—5,6 5,6—7,0 7,0—8,4 Итого

0—4,5

4,5—9,0

4 4 2 — — — 10

1 2 8 1 — — 12

9,0—13,5 13,5—18,0 18,0—22,5 — — 1 20 3 — 24

— — — 4 3 1 8

— — — — 3 3 6

Итого 5 6 11 25 9 4 60

Необходимо: а) найти групповые средние x j и yi и построить эмпирические линии регрессии; б) оценить тесноту и направление связи между переменными с помощью коэффициента корреляции; проверить значимость коэффициента корреляции и построить для него 95%-ный доверительный интервал; в) вычислить эмпирические корреляционные отношения и оценить их значимость на 5%-ном уровне; г) на уровне значимости 0,05 проверить гипотезу о линейной 1 Используем приближенно при n = 7 критерий проверки значимости W, справедливый, вообще говоря, при n > 7.

436

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

корреляционной зависимости между переменными Y и X; д) найти уравнения прямых регрессии, построить их графики и найти 95%-ные доверительные интервалы для коэффициентов регрессии. 12.15. Имеются следующие данные об уровне механизации работ X (%) и производительности труда Y (т/ч) для 14 однотипных предприятий: xi

32

30

36

40

41

47

56

54

60

55

61

67

69

76

yi

20

24

28

30

31

33

34

37

38

40

41

43

45

48

Необходимо: а) оценить тесноту и направление связи между переменными с помощью коэффициента корреляции; проверить значимость коэффициента корреляции и построить для него 95%-ный доверительный интервал; б) найти уравнения прямых регрессии. 12.16. При исследовании корреляционной зависимости по данным 20 предприятий между капиталовложениями Х (млн руб.) и выпуском продукции Y (млн руб.) получены следующие уравнения регрессии: y = 1,2x + 2 и x = 0,7y + 2. Найти: а) коэффициент корреляции между рассматриваемыми признаками и оценить его значимость на 5%-ном уровне; б) средние значения капиталовложений и выпуска продукции. Согласуется ли полученный в п. а) результат с утверждением о том, что генеральный коэффициент корреляции между X и Y равен 0,95? 12.17. При исследовании корреляционной зависимости между ценой на нефть X и индексом нефтяных компаний Y получены следующие данные: x = 16, 2 (ден. ед.), y = 4000 (усл. ед.), sx2 = 4, s y2 = 500, µ = 40. Необходимо: а) составить уравнения регрессии Y по X и X по Y; б) используя соответствующее уравнение регрессии, найти среднюю величину индекса при цене на нефть 16,5 ден. ед. 12.18. При исследовании корреляционной зависимости между объемом продукции Х (единиц) и ее себестоимости Y (тыс. руб.) получено следующее уравнение регрессии Y по X: yx =  0,0004 x + 4, 22. Составить уравнение регрессии X по Y, если коэффициент корреляции между этими признаками оказался равным –0,8, а средний объем продукции x = 3000 единиц. 12.19. С целью исследования влияния факторов Х1 — среднемесячного количества профилактических наладок автоматической линии и Х2 — среднемесячного числа обрывов нити на показатель Y — среднемесячную характеристику качества ткани (в баллах) по данным 37 предприятий легкой промышленности были вычислены парные коэффициенты корреляции: ry1 = 0,105 , ry2 = 0, 024 и r12 = 0,996. Оп-

437

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ределить: а) частные коэффициенты корреляции ry1.2 и ry 2.1 и оценить их значимость на 5%-ном уровне; б) множественный коэффициент корреляции Ry.12 и оценить его значимость на уровне  = 0,05; в) множественный коэффициент детерминации. Пояснить смысл полученных коэффициентов. 12.20. При приеме на работу семи кандидатам на вакантные должности было предложено два теста. Результаты тестирования (в баллах) приведены в таблице: Тест 1 2

Кандидат 1

2

3

4

5

6

7

31 21

82 55

25 8

26 27

53 32

30 42

29 26

Вычислить ранговые коэффициенты корреляции Спирмена и Кендалла между результатами тестирования по двум тестам и на уровне  = 0,05 оценить их значимость. 12.21. На соревнованиях по фигурному катанию девять судей выставили следующие балльные оценки 10 фигуристам: Фигурист 1 2 3 4 5 6 7 8 9 10

Судья 1 6,0 5,4 5,2 5,9 5,0 5,6 4,8 5,4 5,8 5,3

2 5,8 5,3 5,0 5,9 4,9 5,5 4,7 5,6 5,7 5,2

3 5,7 5,2 4,9 5,8 4,9 5,4 4,6 5,4 5,6 5,1

4 5,8 5,3 5,1 5,7 4,9 5,4 4,6 5,5 5,7 5,4

5 6,0 5,4 5,2 5,9 5,1 5,5 4,8 5,6 5,8 5,5

6 5,9 5,5 5,0 5,8 5,0 5,5 4,9 5,7 5,9 5,4

7 5,9 5,6 4,8 6,0 5,0 5,7 5,0 5,4 5,6 5,2

8 5,9 5,3 5,3 5,8 4,8 5,6 4,6 5,3 5,7 5,3

9 5,8 5,1 4,9 5,7 4,7 5,5 4,5 5,2 5,8 5,2

Вычислить коэффициент конкордации рангов и оценить его значимость на уровне  = 0,05.

438

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

13

Регрессионный анализ

В практике экономических исследований очень часто имеющиеся данные нельзя считать выборкой из многомерной нормальной совокупности, например, когда одна из рассматриваемых переменных не является случайной или когда линия регрессии явно не прямая и т.п. В этих случаях пытаются определить кривую (поверхность), которая дает наилучшее (в смысле метода наименьших квадратов) приближение к исходным данным. Соответствующие методы приближения получили название регрессионного анализа. Задачами регрессионного анализа являются установление формы зависимости между переменными, оценка функции регрессии, оценка неизвестных значений (прогноз значений) зависимой переменной.

13.1. Основные положения регрессионного анализа. Парная регрессионная модель В регрессионном анализе рассматривается односторонняя зависимость случайной зависимой переменной Y от одной (или нескольких) неслучайной независимой переменной X, называемой часто объясняющей переменной1. Такая зависимость может возникнуть, например, в случае, когда при каждом фиксированном значении X соответствующие значения Y подвержены случайному разбросу за счет действия неконтролируемых факторов. Указанная зависимость Y от X (иногда ее называют регрессионной) может быть представлена также в виде модельного уравнения регрессии (12.1). В силу воздействия неучтенных случайных факторов и причин отдельные наблюдения y будут в большей или меньшей мере отклоняться от функции регрессии (x). В этом случае уравнение взаимосвязи двух переменных (парная регрессионная модель) может быть представлено в виде: Y =  (X) + , где  — случайная переменная, характеризующая отклонение от функции регрессии. Эту переменную будем называть возмущающей или просто возмущением2. Таким образом, в регрессионной модели зависимая переменная Y есть некоторая функция (Х) с точностью до случайного возмущения .

1 В литературе Y называют также функцией отклика, объясняемой, выходной, результирующей, эндогенной переменной, результативным признаком, а Х — входной, предсказывающей, предикторной, экзогенной переменной; фактором; регрессором, факторным признаком. 2 Переменную  называют также остаточной, или остатком, либо ошибкой.

439

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Рассмотрим линейный регрессионный анализ, для которого функция (Х) л и н е й н а относительно оцениваемых параметров: (13.1) Mx (Y) = 0 + 1x. Предположим, что для оценки параметров линейной функции регрессии (13.1) взята выборка, содержащая n пар значений переменных (xi, yi), где i = 1, 2, …, n. В этом случае линейная парная регрессионная модель имеет вид: (13.2) yi = 0 + 1xi + i. Отметим основные предпосылки регрессионного анализа. 1. В модели (13.2) возмущение1 i (или зависимая переменная yi) есть величина случайная, а объясняющая переменная xi — величина неслучайная2. 2. Математическое ожидание возмущения i равно нулю: M(i) = 0.

(13.3)

(или математическое ожидание зависимой переменной yi равно линейной функции регрессии: M(yi) = 0 + 1xi). 3. Дисперсия возмущения i (или зависимой переменной yi) постоянна для любого i: D(i) = 2

(13.4)

2

— условие гомоскедастичности или равноизменчиво(или D(yi) = сти возмущения (зависимой переменной)). 4. Возмущения i и j (или переменные yi и yj) не коррелированы3: M(i j) = 0

(i j).

(13.5)

5. Возмущение i (или зависимая переменная yi) есть нормально распределенная случайная величина. Для получения уравнения регрессии достаточно первых четырех предпосылок. Требование выполнения пятой предпосылки (т.е. рассмотрение «нормальной регрессии») необходимо для оценки т о ч н о с т и уравнения регрессии и его параметров. Оценкой модели (13.2) по выборке является уравнение регрессии yx = b0 + b1x (12.8). Параметры этого уравнения b0 и 1

Во всех предпосылках i = 1, 2, ..., n. При этом предполагается, что среди значений xi (i = 1, 2, ..., n), по крайней мере, не все одинаковые, так что имеет смысл формула (12.17) для коэффициента регрессии. 3 Требование некоррелированности K  i  j = 0 c учетом (5.32) и (13.3) приводит 2

к условию (13.5):

K  i  j = M [( i Љ 0)( j Љ 0)] = M ( i  j ) = 0 .

При выполнении

предпосылки 5 это требование равносильно независимости переменных.

440

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

b1 определяются на основе метода наименьших квадратов. Об их нахождении подробно см. в § 12.2. Теорема Гаусса—Маркова. Если регрессионая модель удовлетворяет предпосылкам 1—4, то оценки b0 (12.14) и b1 (12.17) имеют наименьшую дисперсию в классе всех линейных несмещенных оценок, т.е. являются эффективными оценками параметров 0 и 1. Воздействие неучтенных случайных факторов и ошибок наблюдений в модели (13.2) определяется с помощью дисперсии возмущений (ошибок) или остаточной дисперсии 2. Несмещенной оценкой этой дисперсии является выборочная остаточная дисперсия n

s2 =

 (y i =1

xi

 yi )2

n2

n

=

e i =1

2 i

n2

,

(13.6)

где y xi — групповая средняя, найденная по уравнению регрессии;

ei = y xi  yi — выборочная оценка возмущения i или остаток регрессии1. В знаменателе выражения (13.6) стоит число степеней свободы n – 2, а не n, так как две степени свободы теряются при определении двух параметров прямой b0 и b1.

13.2. Интервальная оценка функции регрессии Построим доверительный интервал для функции регрессии, т.е. для условного математического ожидания Mx(Y), который с заданной надежностью (доверительной вероятностью)  = 1 –  накрывает неизвестное значение Mx(Y). Найдем дисперсию групповой средней yx, представляющей выборочную оценку Mx(Y). С этой целью уравнение регрессии (12.15) представим в виде: yx = y + b1 (x  x ). (13.7) На рис. 13.1 линия регрессии (13.7) изображена графически. Для произвольного наблюдаемого значения yi выделены его составляющие: средняя y , приращение b1 (xi  x ) , образующие расчетное значение y xi , и возмущение ei. Дисперсия групповой средней равна сумме дисперсий двух н е з а в и с и м ы х2 слагаемых выражения (13.7):

2yx = 2y + b21 (x Љ x ) 2 . 1 2

ei называют также невязкой. Доказательство этого факта здесь не приводится.

441

(13.8)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

( xi , yi )

b1 ( x i  x )

(x, y)

y

yx

xi  x



i

x

Рис. 13.1

(Здесь учтено, что (x  x ) — неслучайная величина, при вынесении которой за знак дисперсии ее необходимо возвести в квадрат.) Дисперсия выборочной средней y согласно формуле (9.16)

2y =

2 . n

(13.9)

Для нахождения дисперсии b21 представим коэффициент регрессии в виде1: n

 (x

b1 =

i

i =1

 x )(yi  y )

n

 (xi  x )2

.

(13.10)

i =1

Тогда n

2 b1

 =

 (x i =1

i

Љ x )2 2

2  n 2   (xi Љ x )   i =1 

=

2 n

 (x i =1

i

Љ x)

.

(13.11)

2

Найдем оценку дисперсии групповых средних (13.8), учитывая формулы (13.9) и (13.11) и заменяя 2 ее оценкой s 2 :

 1 s y2x = s 2  + n  

  . n 2  (xi Љ x )   i =1  (x Љ x ) 2

1

(13.12)

Раскрыв скобки и разделив числитель и знаменатель выражения (13.10) на n, нетрудно получить уже знакомое выражение (12.17).

442

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Исходя из того, что статистика

t=

yx  M x (Y ) s yx

имеет t-рас-

пределение Стьюдента с k = n – 2 степенями свободы, можно (аналогично тому, как это сделано в § 9.7) построить доверительный интервал для условного математического ожидания

yx Љ t1Љ;k  s yx  M x (Y )  yx + t1Љ ;k  s yx , где s yx =

(13.13)

s y2x — стандартная ошибка групповой средней yx.

Из формул (13.12) и (13.13) видно, что величина доверительноy0* го интервала зависит от значения объяснщей переменной x: при x = x она минимальна, а по мере удаления х от x величина довериy тельного интервала увеличивается (рис. 13.2). Таким образом, прогноз значений (определение неизвестных значений) зависимой переменной y x по уравнению регрессии оправдан, Рис. 13.2 если значение объясняющей переменной не выходит за диапазон ее значений по выборке (причем тем более точный, чем ближе x к x ). Другими словами, экстраполяция кривой регрессии, т.е. ее использование вне пределов обследованного диапазона значений объясняющей переменной (даже если она оправдана для рассматриваемой переменной исходя из смысла решаемой задачи) может привести к значительным погрешностям. Построенная доверительная область для Mx (Y) (см. рис. 13.2) определяет местоположение модельной линии регрессии (т.е. условного математического ожидания), но не отдельных возможных значений зависимой переменной, которые отклонтся от средней. Поэтому при определении доверительного интервала для индивидуальных значений y0 зависимой переменной необходимо учитывать еще один источник вариации — рассеяние вокруг линии регрессии, т.е. в оценку суммарной дисперсии s y2x следует включить величину s2. В результате оценка дисперсии индивидуальных значений y0 при x = x0 равна

 1 (x0 Љ x ) 2  1 + + , n s y20 = s 2  n  (xi Љ x )2   i =1  

443

(13.14)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

а соответствующий доверительный интервал для прогнозов индиви дуальных значений y0 будет определяться по формуле:

yx0  t1Љ , n Љ 2 s y0  y0  yx0 + t1Љ , n Љ 2 s y0 .

(13.15)

 Пример 13.1. Имеются следующие данные (условные) о сменной добыче угля на одного рабочего Y (т) и мощности пласта Х (м), характеризующие процесс добычи угля в 10 шахтах (табл. 13.1). Таблица 13.1 i

1

2

3

4

5

6

7

8

9

10

xi

8

11

12

9

8

8

9

9

8

12

yi

5

10

10

7

5

6

6

5

6

8

Оценить сменную среднюю добычу угля на одного рабочего для шахт с мощностью пласта 8 м. Найти 95%-ные доверительные интервалы для индивидуального и среднего значений сменной добычи угля на 1 рабочего для таких же шахт. Р е ш е н и е. Вначале аналогично тому, как это сделано в примере 12.1, составим уравнение регрессии1. Получим (рекомендуем читателю получить самостоятельно)

10

10

 xi = 94,

 xi2 = 908,

i =1

10

y i =1

2 i

= 496,

10

x y i =1

i

i

i =1

10

y i =1

i

= 68,

= 664 и уравнение регрессии yx = –2,75 + 1,016х,

т.е. при увеличении мощности пласта X на 1 м добыча угля на одного рабочего Y увеличивается в среднем на 1,016 т (в усл. ед.). Надо оценить условное математическое ожидание Mx=8(Y). Выборочной оценкой Mx=8(Y) является групповая средняя yx=8, которую найдем по уравнению регрессии: yx=8 = –2,75 + 1,016Ѓ8 = 5,38 (т). Для построения доверительного интервала для Mx=8(Y) необходимо знать дисперсию его оценки, т.е. s 2yx=8 . Составим вспомогательную таблицу (табл. 13.2) с учетом того, что x = 9,4 (м), а значения y xi определяются по полученному уравнению регрессии.

1

В расчетах полагаем nij = ni = nj = 1, j = i, а

ходные данные не сгруппированы.

444

l

m

 i =1 j =1

заменяем

n

,  i=1

так как ис-

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Таблица 13.2 xi

8

(xi –

y xi = –2,75 + + 1,016xi 2 i

11

12

9

8

8

9

9

8

12



1,96 2,56 6,76 0,16 1,96 1,96 0,16 0,16 1,96 6,76 24,40

x) 2

e = (yxi  yi )

2

5,38 8,43 9,44 6,39 5,38 5,38 6,39 6,39 5,38 9,44



0,14 2,48 0,31 0,37 0,14 0,39 0,15 1,94 0,39 2,08 8,39

Теперь имеем по формуле (13.6): s2 = ле (13.12):

8,39 = 1,049, по форму10  2

 1 (8 Љ 9, 4) 2  s y2x=8 = 1,049  +  = 0,189 24, 4  10 и

s yx=8 = 0,189 = 0, 435 (т).

По табл. IV приложений t0,95;8 = 2,31. Теперь по формуле (13.13) искомый доверительный интервал: 5,38 – 2,31Ѓ0,435  Mx=8(Y)  5,38 + 2,31Ѓ0,435 или

4,38  Mx=8(Y)  6,38 (т).

Итак, средняя сменная добыча угля на одного рабочего для шахт с мощностью пласта 8 м с надежностью 0,95 находится в пределах от 4,38 до 6,38 т. Чтобы построить доверительный интервал для индивидуального значения y x0 =8 , найдем дисперсию его оценки по формуле (13.14):

 1 (8 Љ 9, 4) 2  s y2x =8 = 1,049 1 + +  = 1, 238 0 24, 4   10 и

s yx =8 = 1, 238 = 1,113 (т). 0

Далее искомый доверительный интервал получим по формуле (13.15):  5,38 – 2,31Ѓ1,113  y x0 =8  5,38 + 2,31Ѓ1,113

или

2,81  y x0 =8  7,95.

Таким образом, индивидуальная сменная добыча угля на одного рабочего для шахт с мощностью пласта 8 м с надежностью 0,95 находится в пределах от 2,81 до 7,95 т. 

445

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

13.3. Проверка значимости уравнения регрессии. Интервальная оценка параметров парной модели Проверить значимость уравнения регрессии — значит установить, соответствует ли математическая модель, выражающая зависимость между переменными, экспериментальным данным и достаточно ли включенных в уравнение объясноЈв№ п µѓ еременных (одной или нескольких) для описания зависимой переменной. Проверка значимости уравнения регрессии производится на основе дисперсионного анализа. В гл. 11 дисперсионный анализ рассмотрен как самостоятельный инструмент (метод) статистического анализа. Здесь же он применяется как вспомогательное средство для изучения качества регрессионной модели. Согласно основной идее дисперсионного анализа (см. гл. 11) n

 (y

i

i =1

n

n

i =1

i =1

 y )2 =  (yxi  y )2 +  (yi  yxi ) 2

(13.16)

Q = QR +Qe,

или

(13.17)

где Q — общая сумма квадратов отклонений зависимой переменной от средней, а QR и Qe — соответственно сумма квадратов, обусловленная регрессией, и остаточная сумма квадратов, характеризующая влияние неучтенных факторов. Убедимся в том, что пропущенное в равенстве (13.17) третье слагаемое Q3 = 2

n

(y i =1

xi

 y )( yi  yxi ) равно нулю. Учитывая уравне-

ние (13.7) и первое уравнение системы (12.11), имеем:

yxi  y = b1 ( xi  x ); yi  y xi = yi  b0  b1 xi = yi  ( y  b1 x )  b1 xi = ( yi  y )  b1 ( xi  x ). Теперь n

n

n

i =1

i =1

i =1

Q3 = 2 ( yxi  y )( yi  yxi ) = 2b1  ( xi  x )( yi  y )  2b12  ( xi  x ) 2 = 0 (с учетом соотношения (13.10)). Схема дисперсионного анализа имеет вид, представленный в табл. 13.3.

446

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Таблица 13.3 Компоненты дисперсии

Сумма квадратов n

Число степеней свободы

Регрессия

QR =

 (y x

Остаточная

Qe =

 ( yi  y x ) 2

Общая

Q=

 y)

i

i =1 n

2

i

i =1 n

 (yi  y )

2

Средние квадраты 2

m–1

sR =

n–m

s =

2

QR m 1 Qe nm

n–1

i =1

Средние квадраты sk2 и s 2 (см. табл. 13.3) представляют собой несмещенные оценки дисперсий зависимой переменной, обусловленной соответственно регрессией или объясняющей(ими) переменной(ыми) X и воздействием неучтенных случайных факторов и ошибок; m — число оцениваемых параметров уравнения регрессии; n — число наблюдений. З а м е ч а н и е. При расчете общей суммы квадратов полезно иметь в виду, что

 n    yi  n 2 Q =  yi Љ  i =1  n i =1

2

(13.17)

(формула (13.17) следует из разложения

2

 n    yi  n n n n 2 2 2 2 Q =  ( yi Љ y ) =  yi Љ 2 y  yi + ny =  yi Љ  i =1  , n i =1 i =1 i =1 i =1 n

учитывая, что y =

y i =1

n

i

).

При отсутствии линейной зависимости между зависимой и объясняющей(ими) переменной(ыми) случайные величины sR2 = QR /( m  1) и

s 2 = Qe /(n  m) имеют 2-распределение соответственно с m – 1 и n – m

степенями свободы, а их отношение — F-распределение с теми же степенями свободы (см. § 4.9). Поэтому уравнение регрессии значимо на уровне , если фактически наблюдаемое значение статистики

F=

QR (n  m) sR2 = > F ;k1 ;k2 , Qe (m  1) s 2

(13.18)

где F ; k1 ; k2 — табличное значение F-критерия Фишера—Снедекора, определенное на уровне значимости  при k1 = m – 1 и k2 = n – m степенях свободы.

447

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Учитывая смысл величин sR2 и s2, можно сказать, что значение F показывает, в какой мере регрессия лучше оценивает значение зависимой переменной по сравнению с ее средней. В случае линейной парной регрессии m = 2 и уравнение регрессии значимо на уровне , если

F=

QR (n  2) > F;1;n Љ 2 . Qe

(13.18)

Выше (§ 12.6) введен индекс корреляции R (для парной линейной модели — коэффициент корреляции r), выраженный через дисперсии (см. формулу (12.60)). Тот же коэффициент в терминах «сумм квадратов» примет вид:

R=

Q QR = 1 e . Q Q

(13.19)

Следует отметить, что значимость уравнения парной линейной регрессии может быть проверена и другим способом, если оценить значимость коэффициента регрессии b1, что означает проверку нулевой гипотезы о равенстве параметра 1 парной модели (13.2) нулю, т.е. H 0 : 1 = 0 против альтернативной гипотезы1 H1 : 1  0 . Можно показать, что при выполнении предпосылки 5 регрессионного анализа (с. 440) статистика t =

b1 Љ 1 имеет стандартный b1

нормальный закон распределения N(0;1), а если в выражении (13.11) для b1 заменить параметр 2 его оценкой s2, то статистика

t=

b1 Љ 1 s

n

 (x i =1

i

Љ x )2

(13.19)

имеет t-распределение с k = n – 2 степенями свободы. Поэтому коэффициент регрессии b1 значим на уровне  (гипотеза H0 отвергается), если

t =

для 1 имеет вид:

b1 Љ t1Љ ;n Љ 2

s

n

 (x i =1

s

n

 (x i =1

1

b1

i

i

 x ) 2 > t1Љ ;n Љ 2 , а доверительный интервал

 1  b1 + t1Љ ;n Љ 2 Љ x)

2

s n

 (x i =1

i

.

Љ x)

2

Здесь и далее используем двусторонние критерии проверки гипотез.

448

(13.19)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Для парной регрессионной модели оценка значимости уравнения регрессии по F-критерию равносильна оценке значимости коэффициента регрессии b1 либо коэффициента корреляции r по t-критерию (см. § 12.5), ибо эти критерии связаны соотношением F = t2. А интервальные оценки для параметра 1 (13.19) — при нормальном законе распределения зависимой переменной и yx = 1 (12.51) cовпадают. При построении доверительного интервала для дисперсии возмущений 2 исходят из того, что статистика

ns 2 имеет 2-распределение с 2

k = n – 2 степенями свободы. Поэтому интервальная оценка для 2 на уровне значимости  имеет вид (см. формулу (9.47)):

ns 2

2 / 2;n Љ 2

 2 

ns 2

12Љ / 2;n Љ 2

.

(13.20)

 Пример 13.2. По данным табл. 13.1 оценить на уровне  = 0,05 значимость уравнения регрессии Y по Х. Найти интервальную оценку для параметров 1 и 2. Р е ш е н и е. 1-й способ. Выше, в примере 13.1, были найдены 10

 yi = 68, i =1

10

y i =1

i

2

= 496 .

Вычислим необходимые суммы квадратов по формулам (13.16), (13.17): 2

 10    yi  10 10 682 2 2 = 33,6; Q =  ( yi Љ y ) = yi Љ  i =1  = 496 Љ 10 10 i =1 i =1 10

10

i =1

i =1

Qe =  ( yx i  y )2 = ei 2 = 8,39 (см. табл. 13.2);

QR = Q  Qe = 33,6  8,39 = 25, 21. 25, 21(10  2) = 24,04 . По формуле (13.18) F = 8,39 По таблице F-распределения (табл. VI приложений) F0,05;1;8 = 4,20. Так как F > F0,05;1;8, то уравнение регрессии значимо. 2-й

способ.

Учитывая,

что

b1 = 1,016,

10

 (x i =1

i

 x ) 2 = 24, 40,

s2 = 1,049 (см. пример 13.1, табл. 13.2), по формуле (13.19)

t=

1, 016

1,049

24, 40 = 4,90.

449

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

По таблице t-распределения (табл. IV приложений) t0,95;8 = = 2,31. Так как t > t0,95;8, то коэффициент регрессии, а значит, и уравнение парной линейной регрессии Y по X значимы. Оба способа оценки значимости уравнения парной регрессии равносильны, ибо F = t 2 (24,40 = 4,902). Найдем 100 (1 – ) = 95%-ный доверительный интервал для параметра 1. По формуле (13.19) 1,016 – 2,31

1, 049 1, 049  1  1,016 + 2,31 24, 40 24, 40

или 0,537  1  1,495, т.е. с надежностью 0,95 при изменении мощности пласта X на 1 м суточная выработка Y будет изменяться на величину, заключенную в интервале от 0,537 до 1,495 (т). Найдем 95%-ный интервал для параметра 2. Учитывая, что  = 1 – 0,95 = 0,05, найдем по табл. V приложений 2 2 2 / 2;n Љ 2 = 0,025;8 = 17,53; 12Љ / 2; n Љ 2 =  0,975;8 = 2,18. По формуле (13.20)

10  1, 049 10  1,049 или 0,599   2  4,81 и 0,774    2,19.  2  17,5 2,18 Таким образом, с надежностью 0,95 дисперсия возмущений заключена в пределах от 0,599 до 4,81, а их стандартное отклонение — от 0,774 до 2,19 (т). 

13.4. Нелинейная регрессия Соотношения между социально-экономическими явлениями и процессами далеко не всегда можно выразить линейными функциями, так как при этом могут возникать неоправданно большие ошибки. В таких случаях используют нелинейную (по объясняющей переменной) регрессию. Выбор вида уравнения регрессии (8.3) (этот важный этап анализа называется спецификацией или этапом параметризации модели) производится на основании опыта предыдущих исследований, литературных источников, других соображений профессионально-теоретического характера, а также визуального наблюдения расположения точек корреляционного поля. Наиболее часто встречаются следующие виды уравнений нелинейной регрессии: полиномиальное yx = b0 + b1x + ... + b

b

+ bkxk, гиперболическое yx = b0 + b1/x, степенное y x = b0  x11  ...  x pp . Например, если исследуемый экономический показатель y при росте объема производства х состоит из двух частей — постоянной (не зависящей от х) и переменной (уменьшающейся с ростом х), то зависимость y от х можно представить в виде гиперболы yx = b0 + b1/x. Если же показатель y отражает экономический процесс, который под влиянием фактора х происходит с постоянным ускорением или замедлением, то применяются полиномы. В ряде случаев для описания эко-

450

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

номических процессов используются более сложные функции. Например, если процесс вначале ускоренно развивается, а затем, после достижения некоторого уровня, затухает и приближается к некоторому пределу, то могут оказаться полезными логистические функции типа y = b0 (1 + b1b2f (x ) ) . При исследовании степенного уравнения регрессии следует иметь в виду, что оно нелинейно относительно параметров bj, однако путем логарифмирования может быть преобразовано в линейное: ln yx = ln b0 + b1 ln x1 + ... + bp ln xp. Для определения неизвестных параметров b0, b1, ..., bp, как и ранее, используется метод наименьших квадратов.  Пример 13.3. По данным табл. 13.4 исследовать зависимость урожайности зерновых культур Y (ц/га) от количества осадков Х (см), выпавших в вегетационный период1. Таблица 13.4 1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

Количество осадков 25 xi (см)

№ п/п

27

30

35

36

38

39

41

42

45

46

47

50

52

53

Урожайность yi (ц/га) 23

24

27

27

32

31

33

35

34

32

29

28

25

24

25

Р е ш е н и е. Из качественных соображений можно предположить, что увеличение количества выпавших осадков приводит к увеличению урожайности до некоторого предела, после чего урожайность будет снижаться. Учитывая, кроме того, расположение точек корреляционного поля (см. рис. 13.3), можно предположить, 1

   









   

Рис. 13.3

То есть в период роста, развития растений.

451

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

что наиболее подходящим уравнением регрессии будет уравнение параболы yx = b0 + b1x + b2x2. Его параметры b0, b1, b2 находим, применяя метод наименьших квадратов: n

n

i =1

i =1

S =  ( y xi Љ yi ) 2 =  (b0 + b1 xi + b2 xi2 Љ y i ) 2  min .

s s s , и к нулю, поb0 b1 b2

Приравняв частные производные

лучим после преобразований систему нормальных уравнений: n n n  + b1  xi + b2  xi2 = yi , b0 n i =1 i =1 i =1  n n n  n 2 3 b0  xi + b1  xi + b2  xi =  yi xi , i =1 i =1 i =1  i =1 n n n  n 2 3 4 2 b0  xi + b1  xi + b2  xi =  yi xi . i =1 i =1 i =1  i =1

(13.21)

Для расчета необходимых сумм составим вспомогательную таблицу (табл. 13.5). Таблица 13.5 i

xi

yi

xi2

xi3

xi4

yi xi

yi xi2

y xi

yi2

(y

xi

 yi )

1

25

23

625

15 625

390 625

575 14 375

529 21,7

1,69

2

27

24

729

19 683

531 441

648 17 496

576 24,3

0,11

...

...

...

...

...

...

14

52

24 2704

15

53

25 2809

...

...

...

...

...

140 608 7 311 616 1248 64 896

576 24,7

0,46

148 877 7 890 481 1325 70 225

625 23,4

2,44

 606 42925 548 1 115 80850 158 20017 371730 12312 493

Теперь система (13.21) примет вид:

452



45,94

2

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

15 b0    606 b0 25 548 b 0 

+ 606 b1 + 25 548 b1 + 1 115 808 b1

+ + +

25 548 b2 1 115 808 b2 50 158 200 b2

= 429, = 17 371, = 730 123.

Решая эту систему, например, методом Гаусса, получим b0 = –43,93; b1 = 3,8342; b2 = –0,048361, т.е. уравнение регрессии имеет вид: yx = –43,93 + 3,8342x – 0,048361x2. Оценим значимость полученной зависимости. С этой целью по формуле (13.16) найдем суммы (см. итоговую строку табл. 13.5): n

Qe =  (y xi  yi ) 2 = 45,94; i =1

2

 n    yi  n n 4292 2 2 Q =  (yi Љ y ) =  yi Љ  i =1  = 12 493 Љ = 223,6; n 15 i =1 i =1 QR = Q – Qe = 223,6 – 45,94 = 177,66. По формуле (13.18): F =

177,66  (15 Љ 3) 45,94  (3 Љ 1)

= 23,2. Табличное зна-

чение F0,05;2;12 = 3,88. Так как F > F0,05;2;12, то уравнение регрессии значимо. Для оценки тесноты связи вычислим индекс корреляции по формуле (13.19):

Ryx = 1 

Qe 45,94 = 1 = 0, 795 = 0,891, 223,6 Q

т.е. полученная зависимость весьма тесная. Коэффициент детерми2 нации Ryx = 0, 795 показывает, что вариация урожайности зерновых культур на 79,5% обусловлена регрессией, или изменчивостью количества выпавших в вегетационный период осадков.  В некоторых случаях нелинейность связей является следствием качественной неоднородности совокупности, к которой примен регрессионный анализ. Например, объединение в одной совокупности предприятий различной специализации или предприятий, существенно различающихся по природным условиям, и т.д. В этих случаях нелинейность может являться следствием механического объединения разнородных единиц. Регрессионный анализ таких совокупностей не может быть эффективным. Поэтому любая нелинейность связей должна критически анализироваться.

453

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

По расположению точек корреляционного поля далеко не всегда можно принять окончательное решение о виде уравнения регрессии. Если теоретические соображения или опыт предыдущих исследований не могут подсказать точного решения, то необходимо сделать расчеты по двум или нескольким уравнениям. Предпочтение отдается уравнению, для которого меньше величина остаточной дисперсии. Однако при незначительных расхождениях в остаточных дисперсиях следует всегда останавливаться на б о л е е п р о с т о м уравнении, интерпретация показателей которого не представляется сложной. Весьма заманчивым представляется увеличение порядка выравнивающей параболической кривой, ибо известно, что всякую функцию на любом интервале можно как угодно точно приблизить полиномом y = b0 + b1x + b2x2 +...+ bkxk. Так, можно подобрать такой показатель k, что соответствующий полином пройдет через все вершины эмпирической линии регрессии. Однако повышение порядка гипотетической параболической кривой может привести к неоправданному усложнению вида искомой функции регрессии, когда случайные отклонения осредненных точек неправильно истолковываются как определенные закономерности в поведении кривой регрессии. Кроме того, за счет увеличения числа параметров снижается точность кривой регрессии (особенно в случае малой по объему выборки) и увеличивается объем вычислительных работ. В связи с этим в практике регрессионного анализа для выравнивания крайне редко используются полиномы выше третьей степени.

13.5. Множественный регрессионный анализ Экономические явления, как правило, определяются большим числом одновременно и совокупно действующих факторов. В связи с этим часто возникает задача исследования зависимости одной зависимой переменной Y от нескольких объясняющих переменных X1, X2, ..., Xn. Эта задача решается с помощью множественного регрессионного анализа. Обозначим i-е наблюдение переменной yi, а объясноЈ№вѓµпеременных — xi1, xi2, ..., xip. Тогда модель множественной линейной регрессии можно представить в виде:

yi = 0 + 1 xi1 + 2 xi 2 + ... + p xip + i ,

(13.22)

где i = 1, 2, ..., n, а i удовлетворяет приведенным выше предпосылкам (13.3)—(13.5). Включение в регрессионную модель новых объясноЈв № о µѓ —Їо—° менных усложняет получаемые формулы и вычисления. Это приводит

454

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

к целесообразности использования матричных обозначений. Матричное описание регрессии облегчает как теоретические концепции анализа, так и необходимые расчетные процедуры. Введем обозначения: Y = (y1 y2 ... yn) — матрица-столбец, или вектор, значений зависимой переменной размера n1;

1 x11 x12 ... x1 p    1 x21 x22 ... x2 p  X = .............................    1 xn1 xn 2 ... xnp    — матрица значений объясняющих переменных, или матрица плана размера n Ч (p + 1) (обращаем внимание на то, что в матрицу Х дополнительно введен столбец, все элементы которого равны 1, т.е. условно полагается, что в модели (13.22) свободный член 0 умножается на фиктивную переменную хi0, принимающую значение 1 для всех i: xi0  1 (i = 1, 2, ..., n);  = (0 1 ... p) — матрица-столбец, или вектор, параметров размера (p + 1);  = (1 2 ... n) — матрица-столбец, или вектор, возмущений (случайных ошибок, остатков) размера n. Тогда в м а т р и ч н о й ф о р м е модель (13.22) примет вид: Y = X  + .

(13.23)

Оценкой этой модели по выборке является уравнение Y = Xb + e, где b = (b0 b1 ... bp), e = (e1 e2 ... en). Для оценки вектора неизвестных параметров  применим метод наименьших квадратов. Так как произведение транспонированной матрицы e на саму матрицу e

 e1    n e ee = (e1 e2 ... en )  2  = e12 + e22 + ... + en2 =  ei2 ,  ...  i =1    en 

1

Знаком  обозначается операция транспонирования матриц.

455

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

то условие минимизации остаточной суммы квадратов запишется в виде: n

n

i =1

i =1

S =  (yxi Љ yi )2 =  ei2 = ee = (Y Љ Xb)(Y Љ Xb)  min.

(13.24)

Учитывая, что при транспонировании произведения матриц получается произведение транспонированных матриц, взятых в обратном порядке, т.е. (Xb) = bX , получим после раскрытия скобок:

S = Y Y Љ bX Y Љ Y Xb + bX Xb. Произведение Y Xb есть матрица размера (l Ѕ n)[n Ѕ (p + 1)Ѕ Ѕ[(p + 1)Ѕ1] = (1Ѕ 1), т.е. величина скалярная, следовательно, оно не меняется при транспонировании: Y Xb = (YXb) = bX Y . Поэтому условие минимизации (13.24) примет вид:

S = Y Y Љ 2bX Y + bX Xb  min.

(13.24)

На основании необходимого условия экстремума функции нескольких переменных S(b0, b1, ..., bp), представляющей (13.24), необходимо приравнять к нулю частные производные по этим переменным или в матричной форме — вектор частных производных

S  S S S = ...  b  b0 b1 bp

 .  

Для вектора частных производных доказаны следующие формулы1:

 (bc) = c, b

 (bAb) = 2 Ab, b

где b и c — вектор-столбцы, а A — симметрическая матрица, в которой элементы, расположенные симметрично относительно главной диагонали, равны.

1

Справедливость приведенных формул проиллюстрируем на примере.

 b1   3  2 3  3 , c =  , A =  . Так как b c = (b1 b2 )  = 3b1 + 4b2 и  4 b 4 3 5      2

Пусть b = 

 2 3  b1   3     = 2b12 + 6b1b2 + 5b22 , то (b c ) = (3b1 + 4b2 ) =  = c и bAb = (b1b2 ) b b  4  3 5  b2   4b + 6b2   2 3  b1     = 2   = 2 Ab. (b Ab) = (2b12 + 6b1b2 + 5b22 ) =  1 6 b + 10 b b b 2  3 5  b2   1

456

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Поэтому, полагая c = X Y, а матрицу A = X X (она является симметрической — см. (13.26)), найдем

S = Љ2 X Y  + 2 X Xb = 0, b

откуда получаем систему нормальных уравнений в матричной форме для определения вектора b: (13.25) X Xb = X Y . 1 Найдем матрицы, входящие в это уравнение . Матрица X X представляет матрицу сумм первых степеней, квадратов и попарных произведений n наблюдений объясняющих переменных:

 1  x11 X X =   ...   x1 p

1 x21 ... x2 p

 n   xi1 =  ...    xip 

... 1  1 x11  ... xn1  1 x21 ... ...  ... ...  ... xnp   1 xn1

x x

... ... ... ...

i1 2 i1

...  xi1 xip

... x1 p   ... x2 p  = ... ...   ... xnp   xip   xi1 xip  .  ...  2  xip 

(13.26)

Матрица X Y есть вектор произведений n наблюдений объясняющих и зависимой переменных:

 1  x11 X Y =   ...   x1 p

1 x21 ... x2 p

... 1   y1    yi     ... xn1   y2    yi xi1  = . ... ...   ...   ...     ... xnp   yn    yi xip 

(13.27)

В частном случае из рассматриваемого матричного уравнения (13.25) с учетом соотношений (13.26) и (13.27) для одной объясняющей переменной (p = 1) нетрудно получить уже рассматриваемую систему нормальных уравнений (12.10) для несгруппированных данных. Действительно, в этом случае матричное уравнение (13.25) принимает вид2:

1

Здесь под знаком

 подразумевается

n

. i =1

2

В случае одной объясняющей переменной отпадает необходимость в записи под символом x второго индекса, указывающего номер переменной.

457

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 n    xi

x x

i 2 i

  b0      =    b1  

 y  ,  y x  i

i i

откуда непосредственно следует система нормальных уравнений (12.10) для несгруппированных данных. Для решения матричного уравнения (13.25) относительно вектора оценок параметров b необходимо ввести еще одну предпосылку 6 для множественного регрессионного анализа: матрица X X является неособенной, т.е. ее определитель не равен нулю. Следовательно, ранг матрицы X X равен ее порядку, т.е. r (X X ) = p + 1. Из матричной алгебры известно (см., например, [9]), что r (X X ) = r (X), значит, r (X) = p + 1, т.е. ранг матрицы плана X равен числу ее столбцов. Это позволяет сформулировать предпосылку 6 множественного регрессионного анализа в следующем виде: 6. Векторы значений объясноЈ№ переменных , или столбцы матрицы плана X, должны быть линейно независимыми, т.е. ранг матрицы X — максимальный (r (X) = p + 1). Кроме того, полагают, что число имеющихся наблюдений (значений) каждой из объясноЈ№ переменных превосходит ранг матрицы X, т.е. n > r (X) или n > p + 1, ибо в противном случае в принципе невозможно получение сколько-нибудь надежных статистических выводов. Решением уравнения (13.25) является вектор

b = (X  X )1 X Y ,

(13.28)

где (X X ) 1 — матрица, обратная матрице коэффициентов системы (13.25), а X Y — матрица-столбец, или вектор, ее свободных членов. Теорема Гаусса—Маркова, рассмотренная выше для парной регрессионной модели, остается верной и в общем виде для модели (13.23) множественной регрессии: оценка b = ( X X ) 1 X Y обладает наименьшей дисперсией в классе линейных несмещенных оценок, т.е. является эффектной оценкой параметра . Зная вектор b, выборочное уравнение множественной регрессии представим в виде: yx0 = X 0b, (13.29) где yx0 — групповая (условная) средняя переменной Y при заданном векторе значений объясняющей переменной X 0 = (1 x10

458

x20

... x p 0 ).

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 Пример 13.4. Имеются следующие данные1 (условные) о сменной добыче угля на одного рабочего Y (т), мощности пласта X1 (м) и уровне механизации работ X2 (%), характеризующие процесс добычи угля в 10 шахтах (табл. 13.6). Таблица 13.6

i 1 2 3 4 5

xi1 8 11 12 9 8

xi2 5 8 8 5 7

yi 5 10 10 7 5

i 6 7 8 9 10

xi1 8 9 9 8 12

xi2 8 6 4 5 7

yi 6 6 5 6 8

Предполагая, что между переменными Y, X1 и X2 существует линейная корреляционная зависимость, найти ее аналитическое выражение (уравнение регрессии Y по X1 и X2). Р е ш е н и е. Обозначим

5   10 Y =  ,  ...    8

1 8 5   1 11 8  X =  ... ... ...     1 12 7 

(напоминаем, что в матрицу плана X вводится дополнительный столбец чисел, состоящий из единиц). Для удобства вычислений составляем вспомогательную таблицу (табл. 13.7). Таблица 13.7

i

xi1

xi2

yi

2

xi1

2

xi 2

2

yi

2

xi1xi2

yixi1

yixi2

yx

i

ei =

= (y x  yi )

2

i

1 2 3 4 5 6 7 8 9 10

8 11 12 9 8 8 9 9 8 12

5 8 8 5 7 8 6 4 5 7

5 10 10 7 5 6 6 5 6 8

64 121 144 81 64 64 81 81 64 144

25 64 64 25 49 64 36 16 25 49

25 100 100 49 25 36 36 25 36 64

40 88 96 45 56 64 54 36 40 84

40 110 120 63 40 48 54 45 48 96

25 80 80 35 35 48 36 20 30 56

5,13 8,79 9,64 5,98 5,86 6,23 6,35 5,61 5,13 9,28

0,016 1,464 1,127 1,038 0,741 0,052 0,121 0,377 0,762 1,631



94

63

68

908 417 496

603

664

445



6,329

1 В этом примере использованы данные примера 13.1 с добавлением результатов наблюдений над новой объясно—№вѓ©о—Їо—°о—¬нной X2, при этом старую переменную Х из примера 13.1 обозначаем теперь Х1.

459

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Теперь

1 8  1 1 ... 1     1 11 X X =  8 11 ... 12     5 8 ... 7   ... ...   1 12 

5   10 94 63  8   =  94 908 603   ...   63 603 417  7 

(см. суммы в итоговой строке табл. 13.7);

5  1 1 ... 1     68    10   X Y =  8 11 ... 12    =  664  .  ...   5 8 ... 7     445    8     Матрицу

A1 = ( X X )1 определим по формуле A1 =

1 A , где A

|A| — определитель матрицы X X , A — матрица, присоединенная к матрице X X . Получим (рекомендуем читателю убедиться в этом самостоятельно)

15 027 1209 522  1   A = 1209 201 108  . 3738    522 108 244  1

Теперь в соответствии с формулой (13.28), умножая эту матрицу на вектор

 68   13 230   3,5393  1       X Y =  664  , получим b =  3192  =  0,8539  . 3738  445   1372   0,3670        С учетом равенства (13.29) уравнение множественной регрессии имеет вид: yx = –3,54 + 0,854x1 + 0,367x2. Оно показывает, что при увеличении только мощности пласта X1 (при неизменном X2) на 1 м, добыча угля на одного рабочего Y увеличивается в среднем на 0,854 т, а при увеличении только уровня механизации работ X2 (при неизменной X1) — в среднем на 0,367 т. Добавление в регрессионную модель новой объясняющей переменной X2 изменило коэффициент регрессии b1 (Y по Х1) с 1,016 для парной регрессии (см. пример 13.1) до 0,854 — для множественной регрессии. В этом никакого противоречия нет, так как во втором случае коэффициент регрессии позволяет оценить прирост

460

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

зависимой переменной Y при изменении на единицу объясняющей переменной X1 в чистом виде, независимо от X2. В случае парной регрессии b1 учитывает воздействие на Y не только переменной Х1, но и косвенно корреляционно связанной с ней переменной X2.  На практике часто бывает необходимо сравнение влияния на зависимую переменную различных объясних переменных, когда последние выражаются разными единицами измерения. В этом случае используют стандартизованные коэффициенты регрессии bj и коэффициенты эластичности Ej (j = 1, 2, ..., p):

bj = b j E j = bj

sx j sy

xj y

;

(13.30)

.

(13.31)

Стандартизованный коэффициент регрессии bj

показывает, на

сколько величин sy изменится в среднем зависимая переменная Y при sx j , а коэффициент увеличении только j-й объясней переменной на эластичности Ej — на сколько процентов (от средней) изменится в среднем Y при увеличении только Xj на 1%.  Пример 13.5. По данным примера 13.4 сравнить раздельное влияние на сменную добычу угля двух факторов — мощности пласта и уровня механизации работ. Р е ш е н и е. Для сравнения влияния каждой из объяснщих переменных по формуле (13.30) вычислим стандартизованные коэффициенты регрессии:

b1 = 0,8539 

1,56 = 0,728; 1,83

b2 = 0,3670 

1, 42 = 0, 285, 1,83

а по формуле (13.31) — коэффициенты эластичности:

E1 = 0,8539 

9, 4 = 1,180; 6,8

E2 = 0,3670 

6,3 = 0,340. 6,8

(Здесь мы опустили расчет необходимых характеристик переменных: x1 = 9, 4; x2 = 6,3; y = 6,8; sx1 = 1,56; sx2 = 1, 42; s y = 1,83 .) Таким образом, увеличение мощности пласта и уровня механизации работ только на одно sx1 или на одно sx2 увеличивает в среднем сменную добычу угля на одного рабочего соответственно на 0,728sy или на 0,285sy, а увеличение этих переменных на 1% (от своих средних значений) приводит в среднем к росту добычи угля соответственно на 1,18% и 0,34%. Итак, по обоим показателям на сменную

461

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

добычу угля большее влияние оказывает фактор «мощность пласта» по сравнению с фактором «уровень механизации работ».  Преобразуем вектор оценок (13.28) с учетом формулы (13.23):

b = (X  X ) 1 X (X  + ) = (X  X )1 (X  X ) + (X  X )1 X  = = E + (X  X )1 X  или

b =  + ( X  X ) 1 X ,

(13.32)

т.е. оценки параметров (13.28), найденные по выборке, будут содержать случайные ошибки.

13.6. Ковариационная матрица и ее выборочная оценка Вариации оценок параметров будут в конечном счете определять точность уравнения множественной регрессии. Для их измерения в многомерном регрессионном анализе рассматривают так называемую ковариационную матрицу К, являющуюся матричным аналогом дисперсии одной переменной:

 K 00 K 01   K10 K11 K = .... ...   K p 0 K p1 

... K 0 p   ... K1 p  , ... ...  ... K pp 

где элементы Kij — ковариации (или корреляционные моменты) оценок параметров i и  j (i, j = 0, 1, …, p). Ковариация двух переменных определяется как математическое ожидание произведения отклонений этих переменных от их математических ожиданий (см. § 5.6). Поэтому

Kij = M [(bi  M (bi ))(b j  M (b j ))] .

(13.33)

Ковариация характеризует как степень рассеяния значений двух переменных относительно их математических ожиданий, так и взаимосвязь этих переменных. В силу того, что оценки bj, полученные методом наименьших квадратов, являются несмещенными оценками параметров  j , т.е.

( )

M b j =  j , выражение (13.33) примет вид: Kij = M [(bi Љ i )(b j Љ  j )] .

462

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Рассматривая ковариационную матрицу К, легко заметить, что на ее главной диагонали находятся дисперсии оценок параметров регрессии, ибо

K jj = M [(b j Љ  j ) (b j Љ  j )] = M (b j Љ  j ) 2 = b2j .

(13.34)

В сокращенном виде ковариационная матрица K имеет вид:

K = M [(b Љ ) (b Љ ) ] (в этом легко убедиться, перемножив векторы (b Љ ) и (b Љ ) . Учитывая (13.32), преобразуем это выражение:

K = M { [( X X )1 X ] [( X X ) 1 X ] } = = M [( X X ) 1 X X ( X X ) 1 ] = ( X X )1 X M (  ) X ( X X )1 ,

(13.35)

ибо элементы матрицы X — неслучайные величины. Матрица М() представляет собой ковариационную матрицу вектора возмущений :

 M ( 12 ) M ( 1 2 ) ... M ( 1 n )     M (  2 1 ) M (  22 ) ... M (  2  n )  M (  ) =  ,  ... ... ... ... ... ... ... ... ...   2    M (  n 1 ) M (  n  2 ) ... M ( n )

в которой все элементы, не лежащие на главной диагонали, равны нулю в силу предпосылки 4 о некоррелированности возмущений i и  j между собой (см. (13.5)), а все элементы, лежащие на главной диагонали, в силу предпосылок 2 и 3 регрессионного анализа (см. (13.3) и (13.4)) равны одной и той же дисперсии  2:

M (i2 ) = M (i Љ 0)2 = D(i2 ) = 2 . Поэтому матрица M (  ) =  2 E , где Е — единичная матрица n-го порядка. Следовательно, в силу соотношения (13.35) ковариационная матрица вектора b оценок параметров:

K = [( X X ) 1 X (2 E )] X ( X X )1 = 2 ( X X ) 1 ( X EX )( X X ) 1 , или

K = 2 ( X X ) . 1

463

(13.36)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Итак, с помощью обратной матрицы

( X X )

1

определяется не

только сам вектор b оценок параметров (13.28), но и дисперсии и ковариации его компонент. Входящая в выражение (13.36) дисперсия возмущений неизвестна. Заменив ее выборочной остаточной дисперсией n

2

s =

e i =1

2 i

n Љ ( p + 1)

=

ee , n Љ p Љ1

(13.37)

по формуле (13.36) получаем выборочную оценку ковариационной матрицы К. (В знаменателе выражения (13.37) стоит n – (p + 1), а не n – 2, как это было выше в формуле (13.6). Это связано с тем, что теперь p + 1 степеней свободы (а не две) теряются при определении неизвестных параметров, число которых вместе со свободным членом b0 равно р + 1.)

13.7. Определение доверительных интервалов для коэффициентов и функции регрессии Перейдем теперь к оценке значимости коэффициентов регрессии bj и построению доверительного интервала для параметров регрессионной модели  j (j = 1, 2, …, p). В силу соотношений (13.34), (13.36) и изложенного выше оценка дисперсии коэффициента регрессии bj определится по формуле:

sbj2 = s 2 [( X X )1 ] jj , где s2 — несмещенная оценка параметра 2;

[( X X ) 1 ] jj — диагональный элемент матрицы (   ) . 1

Cреднее квадратическое отклонение (стандартная ошибка) коэффициента регрессии bj примет вид:

sb j = s [( X X ) ] jj . 1

(13.38)

Оценка значимости коэффициента регрессии b j означает проверку нулевой гипотезы о равенстве параметра j множественной модели (13.22) нулю, т.е. H 0 :  j = 0 против альтернативной гипотезы H1:  j  0.

(

Эта проверка основана на том, что статистика b j Љ  j

)

sb j име-

ет t-распределение Стьюдента с k = n – p – 1 степенями свободы. Поэтому bj значимо отличается от нуля на уровне значимости 

464

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(гипотеза H0 отвергается), если

t =

bj Sb j

> t1Љ ; n Љ p Љ1 , где t1Љ; n Љ p Љ1 —

табличное значение t — критерия Стьюдента, определенное на уровне значимости  при числе степеней свободы k = n  p  1. В общей постановке гипотеза H 0 о равенстве параметра j заданному числу j0, т.е. H 0 :  j =  j 0 против альтернативной гипотезы H1 :  j   j 0 отвергается, если

bj Љ  j0

t =

Sb j

> t1Љ; n Љ p Љ1.

 = (1 – )%-ный доверительный интервал для параметра  j есть

b j Љ t1Љ;n Љ p Љ1sb j   j  b j + t1Љ ;n Љ p Љ1sb j .

(13.39)

Наряду с интервальным оцениванием коэффициентов регрессии по формуле (13.39) весьма важным для оценки точности определения зависимой переменной (прогноза) является построение доверительного интервала для функции регрессии или для условного математического ожидания зависимой переменной Mx0 (Y ) , найденного в пред-

положении, что объяснщие переменные

(

X1, X2, …, Xp приняли значе-

)

ния, задаваемые вектором X 0 = 1 x10 x20 ... x p 0 . Выше такой интервал получен для уравнения парной регрессии (см. (13.13) и (13.12)). Обобщая соответствующие выражения на случай множественной регрессии, можно получить доверительный интервал для Mx0 (Y ) :

yx0  t1Љ ;n Љ p Љ1sy x  M x 0 (Y )  yx 0 + t1Љ ;n Љ p Љ1sy x , 0

0

(13.40)

где y x0 — групповая средняя, определяемая по уравнению регрессии,

s y x = s X 0 ( X X ) X 0 1

0

(13.41)

— ее стандартная ошибка. При обобщении формул (13.15) и (13.14) аналогичный доверительный интервал для индивидуальных значений зависимой перемен ной y0 примет вид:

yx0  t1Љ ;n Љ p Љ1s y0  y0  yx0 + t1Љ;n Љ p Љ1s y0 ;

(13.42)

где

s y0 = s 1 + X 0 ( X X ) X 0 . 1

465

(13.43)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Доверительный интервал для дисперсии возмущений 2 в множественной регрессии с надежностью  = 1 –  строится аналогично парной модели по формуле (13.20) с соответствующим изменением числа степеней свободы критерия 2:

ns 2 2

 2 

 / 2; n Љ p Љ1

ns 2 2

(13.43)

1Љ / 2; n Љ p Љ1

 Пример 13.6. По данным примера 13.4 оценить сменную добычу угля на одного рабочего для шахт с мощностью пласта 8 м и уровнем механизации работ 6%; найти 95%-ные доверительные интервалы для индивидуального и среднего значений сменной добычи угля на 1 рабочего для таких же шахт. Проверить значимость коэффициентов регрессии и построить для них 95%-ные доверительные интервалы. Найти с надежностью 0,95 интервальную оценку для дисперсии возмущений 2. Р е ш е н и е. В примере 13.4 уравнение регрессии получено в виде: ух = –3,54 + 0,854х1 + 0,367х2. По условию надо оценить Mx0 (Y ) , где X 0 = (1 8 6). Выборочной оценкой Mx0 (Y ) является групповая средняя, которую найдем по уравнению регрессии: y x0 = = –3,54 + 0,854Ѓ8 + 0,367Ѓ6 = 5,49 (т). Для построения доверительного интервала для Mx0 (Y ) необходимо знать дисперсию его оценки — s y2x . Для ее вычисления обратимся к табл. 13.7 (точнее, к 0

ее двум последним столбцам, при составлении которых учтено, что групповые средние определяются по полученному уравнению регрессии). 2 Теперь по формуле (13.37): s =

= 0,951 (т).

6,329 = 0,904 и s = 0,904 = 10  2  1

Определяем стандартную ошибку групповой средней

y x0 по

формуле (13.41). Вначале найдем

 15 027  1209 522  1  1    X 0 ( X X ) X 0 = (1 8 6)  1209 201 108   8  =  3738   108 244   6    522 1  1 1 = ( 2223 Љ 249 78)  8  = ( 699 ) = 0,1870. 3738  6  3738   1

Теперь s yx = 0,951 0,1870 = 0, 411 (т). 0

466

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

По табл. IV приложений при числе степеней свободы k = 10 – – 2 – 1 = 7 находим t0,95;7 = 2,36. По формуле (13.40) доверительный интервал для Mx0 (Y ) равен 5,49 – 2,36Ѓ0,411  Mx0 (Y )  5,49 + 2,36Ѓ0,411

или 4,52  Mx0 (Y )  6,46 (т). Итак, с надежностью 0,95 средняя сменная добыча угля на одного рабочего для шахт с мощностью пласта 8 м и уровнем механизации работ 6% находится в пределах от 4,52 до 6,46 т. Сравнивая новый доверительный интервал для функции регрессии Mx0 (Y ) , полученный с учетом двух объясноЈ№вѓµеременных,

с аналогичным интервалом с учетом одной объясней переменной (см. пример 13.1), можно заметить уменьшение его величины. Это связано с тем, что включение в модель новой объясняющей переменной позволяет несколько повысить точность модели за счет увеличения взаимосвязи зависимой и объясняющей переменных (см. ниже). Найдем доверительный интервал для индивидуального значения

y0 при X 0 = (1 8 6 ) :

по формуле (13.43): s y0 = 0,951 1 + 0,1870 = 1,036 (т) и по формуле (13.42): 5,49 – 2,36Ѓ1,036  y0  5,49 + 2,36Ѓ1,036, т.е. 3,05  y0  7,93 (т). Итак, с надежностью 0,95 индивидуальное значение сменной добычи угля в шахтах с мощностью пласта 8 м и уровнем механизации работ 6% находится в пределах от 3,05 до 7,93 (т). Проверим значимость коэффициентов регрессии b1 и b2. В примере 13.4 получены b1 = 0,854 и b2 = 0,367. Стандартная ошибка sb1 в

соответствии

sb1 = 0,951

формулой

(13.38)

равна:

1 0,854  201 = 0,221. Так как t = = 3,81 > t0,95;7 = 2,36 , то 3738 0,221

коэффициент

sb2 = 0,951

с

b1

значим.

Аналогично

вычисляем

1 0,367  244 = 0,243 и t = =1,51 < t0,95;7 = 2,36 , т.е. коэф3738 0,243

фициент b2 незначим на 5%-ном уровне. Доверительный интервал имеет смысл построить только для значимого коэффициента регрессии b1: по (13.39) 0,854 – – 2,36Ѓ0,221  1  0,854 + 2,36Ѓ0,221 или 0,332  1  1,376. Итак, с надежностью 0,95 за счет изменения на 1 м мощности пласта Х1 (при неизменном Х2) сменная добыча угля на одного рабочего Y будет изменяться в пределах от 0,332 до 1,376 т.

467

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Найдем 95%-ный доверительный интервал для параметра 2. Учитывая, что  = 1 – 0,95 = 0,05, /2 = 0,025, 1 – /2 = 0,975, найдем по табл. V приложений при n –p –1 = n – 3 степенях сво2 2 боды  0,025;7 = 16,0;  0,975;7 = 1,69 и по формуле (13.43)

10  0,904 10  0,904 или 0,565   2  5,35  2  16, 0 1,69 и 0,751  2  2,31. Таким образом, с надежностью 0,95 дисперсия возмущений заключена в пределах от 0,565 до 5,35, а их стандартное отклонение — от 0,751 до 2,31 (т).  Формально переменные, имеющие незначимые коэффициенты регрессии, могут быть исключены из рассмотрения. В экономических исследованиях исключению переменных из регрессии должен предшествовать тщательный качественный анализ. Поэтому может оказаться целесообразным все же оставить в регрессионной модели одну или несколько объясноЈ№вѓµеременных, не оказывающих существенного (значимого) влияния на зависимую переменную.

13.8. Оценка взаимосвязи переменных. Проверка значимости уравнения множественной регрессии Для оценки взаимосвязи между зависимой переменной и совокупностью объясняющих переменных используется множественный (совокупный) коэффициент (индекс) корреляции (см. § 12.6), который может быть выражен через суммы квадратов отклонений по формуле (13.19):

R=

Q QR = 1 e , Q Q

где Q, QR и Qe вычисляются по формулам (13.16), (13.17). Получим более удобную формулу для R, не требующую вычисления остатков ei и остаточной суммы квадратов Qe =  В соответствии с равенством (13.16) n

n

n

n

i =1

i =1

i =1

Q =  ( yi  y ) =  yi2  2 y  yi +  y 2 = 2

i =1

n

=  yi2 Љ 2 y ( ny ) + ny 2 = Y Y Љ ny 2 i =1

468

n

e . i =1

2 i

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

(ибо

n

y i =1

2 i

= y12 + y22 + ... + yn2 = ( y1 y2 ... yn )

С учетом условия (13.24) имеем n

(

Qe =  yi Љ yxi i =1

)

2

 y1     y2  = Y Y ).  ...     yn 

= Y Y Љ 2bX Y + bX Xb = Y Y Љ bX Y

(ибо в силу равенства (13.25) bX Xb = bX Y ) . Наконец,

QR = Q Љ Qe = Y Y Љ ny 2 Љ (Y Y Љ bX Y ) = bX Y Љ ny 2 .

Таким образом,

R=

QR bX Y Љ ny 2 = . Q Y Y Љ ny 2

(13.44)

Коэффициент R является обобщением коэффициента корреляции в множественной модели. В зависимости от тесноты связи R может принимать значения от 0 до 1. Величина R 2 , называемая множественным коэффициентом детерминации, показывает долю вариации зависимой переменной, обусловленную регрессией или изменчивостью объяснщих переменных. Таким образом, множественный коэффициент детерминации R 2 можно рассматривать как меру качества уравнения регрессии, характеристику прогностической силы анализируемой регрессионной модели: чем ближе R 2 к единице, тем лучше регрессия описывает зависимость между объясняющими и зависимой переменными. Недостатком коэффициента детерминации R 2 является то, что он, вообще говоря, увеличивается при добавлении новых объясняющих переменных, хотя это и не обязательно означает улучшение качества регрессионной модели. В этом смысле предпочтительнее использовать скорректированный (адаптированный, поправленный) коэффициент детерминации R€ 2 , определяемый по формуле

R€ 2 = 1 

n 1 1  R2 . n  p 1

(

)

(13.44)

Из формулы (13.44) следует, что чем больше число объясн-

2 щих переменных р, тем меньше R€ по сравнению с R 2 . В отличие

от R 2 скорректированный коэффициент R€ 2 может уменьшаться при введении в модель новых объясноЈ№ переменных, не оказывающих существенного влияния на зависимую переменную. Однако

469

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

даже увеличение скорректированного коэффициента детерминации

R€ 2 при введении в модель новой объясно—№вѓ©переменной не все-

гда означает, что ее коэффициент регрессии значим (это происходит, как можно показать, только в случае, если соответствующее значение t-статистики больше единицы (по абсолютной величине),

т.е. | t |>1). Другими словами, увеличение R€ 2 еще не означает улучшение качества регрессионной модели. Оценка значимости уравнения множественной регрессии означает проверку нулевой гипотезы о равенстве нулю p параметров множественной модели (13.22), т.е. H 0 : 1 = 2 = ... =  p = 0 против альтернативной гипотезы H1: хотя бы одно  j  0, j = 1, ..., p.

Критерий значимости любого уравнения регрессии был получен ранее в § 13.3. Если известен коэффициент детерминации R 2 , то критерий значимости (13.18) уравнения регрессии может быть записан в виде:

F=

R 2 ( n  p  1)

(1  R ) p 2

> F ;k1 ;k2 ,

(13.45)

где k1 = p, k2 = n – p – 1, ибо в уравнении множественной регрессии вместе со свободным членом оценивается m = р + 1 параметров.  Пример 13.7. По данным примера 13.4 определить множественный коэффициент (индекс) корреляции и проверить на уровне  = 0,05 значимость полученного уравнения регрессии Y по X1 и X2. Р е ш е н и е. Вычислим произведения векторов (см. пример 13.4):

 68    bX Y = ( Љ3,54 0,854 0,367 )  664  =  445    = Љ3,54  68 + 0,854  664 + 0,367  445 = 489,65 и Y Y =

10

y i =1

2 i

ходим также

= 496 (см. итоговую строку табл. 13.7). Из табл. 13.7 на10

y i =1

i

n

= 68 , откуда y =  yi n = 68 10 = 6,8 (т). i =1

Теперь по формуле (13.44) множественный коэффициент (индекс) корреляции

R=

489, 65 Љ 10  6,82 = 0,811 = 0,900 . 496 Љ 10  6,82

470

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Значение R = 0,900, близкое к 1, указывает на тесную взаимосвязь зависимой переменной Y — сменной добычи угля на одного рабочего и объяснщих переменных — мощности пласта X1 и уровня механизации работ X 2 . Коэффициент детерминации R 2 = 0,811 свидетельствует о том, что вариация исследуемой зависимой переменной на 81,1% объясняется изменчивостью включенных в модель объясних переменных. Проделав аналогичные расчеты по данным примера 13.1 для одной объясняющей переменной X1, можно было получить R = 0,866 и R2 = 0,751 (заметим, что в случае одной объясно—№й переменной множественный коэффициент корреляции R равен парному коэффициенту корреляции r). Сравнивая значения R 2 и R2 , можно сказать, что добавление второй объяснщей переменной X2 незначительно увеличило коэффициент детерминации, определоЈ№й качество модели. И это понятно, так как выше, в примере 13.6, мы убедились в незначимости коэффициента регрессии b2 при переменной X2. По формуле (13.44) вычислим скорректированный коэффициент детерминации: при р = 1 при р = 2

€ 2 = 1 Љ 9 (1 Љ 0,751) = 0,720; R 8 € 2 = 1 Љ 9 (1 Љ 0,811) = 0, 757. R 7

Видим, что хотя скорректированный коэффициент детерминации и увеличился при добавлении объясней переменной X2, но это еще не говорит о значимости коэффициента регрессии b2 (значение t-статистики, равное 1,51 (см. § 13.6), хотя и больше единицы, но недостаточно для соответствующего вывода на приемлемом уровне значимости). Зная R2 = 0,811, проверим значимость уравнения регрессии. Фактическое значение критерия по формуле (13.45)

F=

0,811(10  2  1) = 15, 0 (1  0,811)  2

больше табличного F0,05;2;7 = 4,74, определенного на уровне значимости  = 0,05 при k1 = 2 и k2 = 10 – 2 – 1 = 7 степенях свободы (см. табл. VI приложений), т.е. уравнение регрессии значимо, следовательно, исследуемая зависимая переменная Y достаточно хорошо описывается включенными в регрессионную модель переменными X1 и X2.  Следует подчеркнуть, что включенные в регрессионную модель объяснщие переменные не должны противоречить теоретическим

471

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

положениям соответствующей предметной области моделируемого объекта (например, экономической теории). Меняя состав переменных, получаются новые уравнения регрессии. При этом в пользу добавления в модель (исключения из модели) каждой переменной могут свидетельствовать: значимость (незначимость) ее коэффициента регрессии; возрастание скорректированного коэффици-

ента детерминации R€ ; значительное (незначительное) изменение других коэффициентов регрессии. Переменная, имеющая веские теоретические основания для включения, должна быть добавлена в модель (или оставлена в ней), даже если это противоречит приведенным выше формальным соображениям. (Об этом уже упоминалось в § 13.7.) 2

13.9. Мультиколлинеарность Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных. Мультиколлинеарность может проявляться в функциональной (явной) и стохастической (скрытой) формах. При функциональной форме мультиколлинеарности по крайней мере одна из парных связей между объяснщими переменными является линейной функциональной зависимостью. В этом случае матрица X X особенная, так как содержит линейно зависимые векторы-столбцы и ее определитель равен нулю, т.е. нарушается предпосылка 6 регрессионного анализа. Это приводит к невозможности решения соответствующей системы нормальных уравнений и получения оценок параметров регрессионной модели. Однако в экономических исследованиях мультиколлинеарность чаще проявляется в стохастической форме, когда между хотя бы двумя объясними переменными существует тесная корреляционная связь. Матрица X X в этом случае является неособенной, но ее определитель очень мал. В то же время вектор оценок b и его ковариационная матрица K в соответствии с формулами (13.28) и (13.36) пропорциональны обратной матрице ( X X )–1, а значит, их элементы обратно пропорциональны величине определителя X X . В результате получаются значительные средние квадратические отклонения (стандартные ошибки) коэффициентов регрессии b0, b1, …, bp и оценка их значимости по t-критерию не имеет смысла, хотя в целом регрессионная модель может оказаться значимой по F-критерию. Оценки bi становятся очень чувствительными к незначительному изменению результатов наблюдений и объема выборки. Уравнения регрессии в этом случае, как правило, не имеют реального

472

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

смысла, так как некоторые из его коэффициентов могут иметь неправильные с точки зрения экономической теории знаки и неоправданно большие значения. Один из методов выявления мультиколлинеарности заключается в анализе корреляционной матрицы между объяснщими переменными X1, X2, ..., Хр и выявлении пар переменных, имеющих высокие коэффициенты корреляции (обычно больше 0,8). Если такие переменные существуют, то говорят о мультиколлинеарности между ними. Полезно также находить множественные коэффициенты корреляции между одной из объясних переменных и некоторой группой из них. Наличие высокого множественного коэффициента корреляции (обычно принимают больше 0,8) свидетельствует о мультиколлинеарности. Другой подход состоит в исследовании матрицы X X . Если определитель матрицы X X близок к нулю (например, одного порядка с накапливающимися ошибками вычислений), то это говорит о наличии мультиколлинеарности. Для устранения или уменьшения мультиколлинеарности используется ряд методов. Один из них заключается в том, что из двух объясноЈ№вѓµпеременных, имеющих высокий коэффициент корреляции (больше 0,8), одну переменную исключают из рассмотрения. При этом, какую переменную оставить, а какую удалить из анализа, решают в первую очередь на основании экономических соображений. Если с экономической точки зрения ни одной из переменных нельзя отдать предпочтение, то оставляют ту из двух переменных, которая имеет больший коэффициент корреляции с зависимой переменной. Другим из возможных методов устранения или уменьшения мультиколлинеарности является использование пошаговых процедур отбора наиболее информативных переменных. Например, вначале рассматривается линейная регрессия зависимой переменной Y от объясно—№вѓ©еременной, имеющей с ней наиболее высокий коэффициент корреляции (или индекс корреляции при нелинейной форме связи). На втором шаге включается в рассмотрение та объясняющая переменная, которая имеет наиболее высокий частный коэффициент корреляции с Y и вычисляется множественный коэффициент (индекс) корреляции. На третьем шаге вводится новая объясняющая переменная, которая имеет наибольший частный коэффициент корреляции с Y, и вновь вычисляется множественный коэффициент корреляции и т.д. Процедура введения новых переменных продолжается до тех пор, пока добавление следующей объясняющей переменной существенно не увеличивает множественный коэффициент корреляции.

473

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

13.10. Понятие о других методах многомерного статистического анализа Многомерный статистический анализ определяется1 как раздел математической статистики, посвященный математическим методам построения оптимальных планов сбора, систематизации и обработки многомерных статистических данных, направленных на выявление характера и структуры взаимосвязей между компонентами исследуемого признака и предназначенных для получения научных и практических выводов. Многомерные статистические методы среди множества возможных вероятностно-статистических моделей позволяют обоснованно выбрать ту, которая наилучшим образом соответствует исходным статистическим данным, характеризующим реальное поведение исследуемой совокупности объектов, оценить надежность и точность выводов, сделанных на основании ограниченного статистического материала. С некоторыми разделами многомерного статистического анализа, такими, как многомерный корреляционный анализ, множественная регрессия, многомерный дисперсионный анализ (на примере двухфакторного анализа) мы уже сталкивались в гл. 11—13. Приведем теперь краткий обзор ряда других методов многомерного статистического анализа, которые уже нашли отражение в статистических пакетах прикладных программ. В первую очередь следует выделить методы, позволяющие выявить общие (скрытые или латентные) факторы, определяющие вариацию первоначальных факторов. К ним относятся факторный анализ и метод главных компонент. Факторный анализ. Основной задачей факторного анализа является переход от первоначальной системы большого числа взаимосвязанных факторов Х1, Х2, …, Xm к относительно малому числу скрытых (латентных) факторов F1, F2, …, Fk, k < m. Скажем, производительность труда на предприятиях зависит от множества факторов (образовательного уровня сотрудников, коэффициента сменности оборудования, электровооруженности труда, возраста оборудования, количества мест в столовых и т.п.), из которых многие факторы связаны между собой. Используя факторный анализ, можно установить влияние на рост производительности труда лишь нескольких обобщенных факторов (например, размера предприятия, уровня организации труда, характера продукции), непосредственно не наблюдавшихся. Модель факторного анализа записывается в виде: k

X i = ai +  aij Fj + v j  j , i = 1, 2, …, m, k < m,

(13.46)

j =1

где ai = M(Xi) — математическое ожидание первоначального фактора Xi; 1

См.: Математическая энциклопедия. Т. 3. — М.: Советская энциклопедия, 1982.

474

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Fj — общие (скрытые или латентные) факторы (j = 1, 2, …, k); aij — нагрузки первоначальных факторов на общие факторы; i — характерные факторы (i = 1, 2, …, m); vj — нагрузки первоначальных факторов на характерные факторы. Первое слагаемое в модели (13.46) — неслучайная составляющая, другие два слагаемых — случайные составляющие. Особенностью факторного анализа является неоднозначность определения общих факторов. Метод главных компонент (компонентный анализ). В отличие от рассматриваемых в факторном анализе общих факторов, которые обусловливают большую (но не всю) часть вариации первоначальных факторов, главные компоненты объяснт всю вариацию и определп‡Ія однозначно. Модель главных компонент имеет вид: m

X i = ai +  aij Fj ,

i = 1, 2, …, m .

(13.47)

j =1

Как видим, в модели (13.47) отсутствуют характерные факторы, так как главные компоненты Fj полностью обусловливают всю вариацию первоначальных факторов. Для углубления анализа изучаемого явления после выявления главных компонент рассматривают регрессию на главных компонентах, в которых последние выступают в качестве обобщенных объяснщих переменных. Среди других методов многомерного статистического анализа отметим методы, позволоЈ№е осуществить классификацию экономических объектов, т.е. отнесение их к определенным классам. Это методы дискриминантного и кластерного анализа. Дискриминантный анализ позволяет отнести объект, характеризующийся значениями m признаков, к одной из l совокупностей (классов, групп), заданных своими распределениями. Предполагается, что l совокупностей заданы выборками (называемыми обучаемыми), которые содержат информацию о статистических распределениях совокупностей в m-мерном пространстве признаков. При отсутствии обучающих выборок могут быть использованы методы кластерного анализа, позволяющие разбить исследуемую совокупность объектов на группы «схожих» объектов, называемых кластерами, таким образом, чтобы объекты одного класса находились на «близких» расстояниях между собой, а объекты разных классов — на относительно «отдаленных» расстояниях друг от друга. При этом каждый объект Xj (j = 1, 2, …, m) рассматривается как точка в m-мерном пространстве, и выбор способа вычисления расстояний или близости между объектами и признаками является узловым моментом исследования, от которого в основном зависит окончательный вариант разбиения объектов на классы.

475

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

В завершение краткого обзора отметим, что применение методов многомерного статистического анализа невозможно без использования пакетов прикладных программ (см., например, [34]). Подробное изложение многомерных статистических методов приведено, в частности, в учебнике [14].

Упражнения 13.8. По данным примера 12.14: а) найти уравнение регрессии Y по X; б) оценить среднюю энерговооруженность труда на предприятиях, фондовооруженность которых равна 10 млн руб., и построить для нее 95%-ный доверительный интервал; в) найти коэффициент детерминации R2 и пояснить его смысл; г) проверить значимость уравнения регрессии на 5%-ном уровне по F-критерию. 13.9. По данным примера 12.15: а) найти уравнение регрессии Y по Х; б) найти коэффициент детерминации r 2 и пoяcнитъ его смысл; в) проверить значимость уравнения регрессии на 5%-ном уровне по F-критерию; г) оценить среднюю производительность труда на предприятиях с уровнем механизации работ 60% и построить для нее 95%-ный доверительный интервал; аналогичный доверительный интервал найти для индивидуальных значений производительности труда на тех же предприятиях. 13.10. По данным 30 нефтяных компаний получено следующее уравнение регрессии между оценкой Y (ден. ед.) и фактической стоимостью X (ден. ед.) этих компаний: ух = 0,8750х + 295. Найти: 95%-ные доверительные интервалы для среднего и индивидуального значений оценки предприятий, фактическая стоимость которых составила 1300 ден. ед., если коэффициент корреляции между переменными равен 0,76, среднее значение переменной X равно 1430 ден. ед., а ее среднее квадратическое отклонение равно 270 ден. ед. 13.11. Ha 10 опытных участках одинакового размера получены следующие данные об урожайности Х (т) и содержании белка Y (%) для некоторой культуры: Урожайность, т Содержание белка, %

9,9 10,2 11,0 11,6

11,8 12,5 12,8 13,5 14,3 14,4

10,7 10,8 12,1 12,5

12,8 12,8 12,4 11,8 10,8 10,6

Необходимо: а) выровнять зависимость Y от X по параболе второго порядка и проверить значимость полученного уравнения регрессии; б) оценить тесноту связи между переменными с помощью 2 индекса корреляции Ryx и коэффициента детерминации Ryx ; в) определить, при каком значении урожайности средний процент содержания белка будет максимальным; найти этот процент.

476

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

13.12. Распределение 50 гастрономических магазинов области по уровню издержек обращения Х (%) и годовому объему товарооборота Y (млн руб.) представлено в таблице: y

0,5—2,0

2,0—3,5

3,5—5,0

5,0—6,5

6,5—8,0

Итого

4—6 6—8 8—10 10—12 12—14

— — 2 3 1

— 4 5 1 —

— 8 5 5 —

3 8 2 — —

2 1 — — —

5 21 14 9 1

Итого

6

10

18

13

3

50

x

Необходимо: а) построить эмпирическую линию регрессии Y по X; б) выровнять полученную зависимость по прямой и гиперболе и вычислить остаточную дисперсию для каждого случая; в) оценить тесноту связи между переменными с помощью эмпирического корреляционного отношения  yx , коэффициента корреляции r и индекса корреляции Ryx; проверить значимость  yx и Ryx и сравнить их по величине; г) на основании результатов, полученных в п. a), б), в), определить, какое из двух полученных уравнений регрессии целесообразнее использовать для исследования заданной зависимости. 13.13. Имеются следующие данные о выработке литья на одного работающего Х1 (т), браке литья Х2 (%) и себестоимости одной тонны литья Y (руб.) по 25 литейным цехам заводов: i

x1i

x2i

yi

i

x1i

x2i

yi

i

x1i

x2i

yi

1

14,6

4,2

239

10

25,3

0,9

198

19

17,0

9,3

282

2

13,5

6,7

254

11

56,0

1,3

170

20

33,1

3,3

196

3

21,5

5,5

262

12

40,2

1,8

173

21

30,1

3,5

186

4

17,4

7,7

251

13

40,6

3,3

197

22

65,2

1,0

176

5

44,8

1,2

158

14

75,8

3,4

172

23

22,6

5,2

238

6

111,9

2,2

101

15

27,6

1,1

201

24

33,4

2,3

204

7

20,1

8,4

259

16

88,4

0,1

130

25

19,7

2,7

205

8

28,1

1,4

186

17

16,6

4,1

251

9

22,3

4,2

204

18

33,4

2,3

195

477

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Необходимо: а) найти парные, частные и множественный Ry.12 коэффициенты корреляции между переменными и оценить их значимость на уровне  = 0,05; б) найти уравнение множественной регрессии Y по Х1 и Х2, оценить значимость этого уравнения и его коэффициентов на уровне  = 0,05; в) сравнить раздельное влияние на зависимую переменную каждой из объясняющих переменных, используя стандартизованные коэффициенты регрессии и коэффициенты эластичности; г) найти 95%-ные доверительные интервалы для коэффициентов регрессии, а также для среднего и индивидуальных значений себестоимости одной тонны литья в цехах, в которых выработка литья на одного работающего составляет 40 т, а брак литья — 5%. 13.14. Имеются следующие данные о годовых ставках месячных доходов по трем акциям за шестимесячный период: Акция

Доходы по месяцам, %

А B С

5,4 5,3 4,9 4,9 5,4 6,0 6,3 6,2 6,1 5,8 5,7 5,7 9,2 9,2 9,1 9,0 8,7 8,6

Есть основания предполагать, что доходы Y по акции С зависят от доходов Х1 и Х2 по акциям А и В. Необходимо: а) составить уравнение регрессии Y по X1 и Х2; б) найти множественный коэффициент корреляции R и коэффициент детерминации R2 и пояснить их смысл; в) проверить на уровне  = 0,05 значимость полученного уравнения регрессии; г) оценить средний доход по акции С, если доходы по акциям А и В составили соответственно 5,5 и 6,0%.

478

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Глава

14

Введение в анализ временных рядов

14.1. Общие сведения о временных рядах и задачах их анализа Анализ временных рядов представляет собой самостоятельную, весьма обширную и одну из наиболее интенсивно развивающихся областей математической статистики. Под временным рядом (динамическим рядом, или рядом динамики) в экономике подразумевается последовательность наблюдений некоторого признака (случайной величины) Х в последовательные равноотстоящие моменты времени. Отдельные наблюдения называются уровнями ряда, которые будем обозначать xt ( t = 1, 2, ..., n ) , где n — число уровней. В табл. 14.1 приведены данные, отражающие цену и спрос на некоторый товар за восьмилетний период (усл. ед.), т.е. два временных ряда — цены товара xt и спроса yt на него. Таблица 14.1 1

2

3

4

5

6

7

8

Цена, xt

492

462

350

317

340

351

368

381

Спрос, yt

213

171

291

309

317

362

351

361

Год, t

В качестве примера на рис. 14.1 временной ряд yt изображен графически. В общем виде при исследовании экономического временного ряда xt выделяются несколько составляющих:

xt = ut + vt + ct + t

(t = 1, 2, …, n),

где ut — тренд, плавно меняющаяся компонента, описывающая чистое влияние долговременных факторов, т.е. длительную («вековую») тенденцию изменения признака (например, рост населения, экономическое развитие, изменение структуры потребления и т.п.); vt — сезонная компонента, отражающая повторяемость экономических процессов в течение не очень длительного периода (года, иногда месяца, недели и т.д., например, объем продаж товаров или перевозок пассажиров в различные времена года); сt — циклическая компонента, отражающая повторяемость экономических процессов в течение длительных периодов (например,

479

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

влияние волн экономической активности Кондратьева, демографических «ям», циклов солнечной активности и т.п.); t — случайная компонента, отражающая влияние не поддающихся учету и регистрации случайных факторов.

y t

~ y t = 181,32 + 25,679t

Рис. 14.1

Следует обратить внимание на то, что в отличие от t первые три составляющие (компоненты) ut, vt, сt являются закономерными, неслучайными. Важнейшей классической задачей при исследовании экономических временных рядов является выявление и статистическая оценка основной тенденции развития изучаемого процесса и отклонений от нее. Отметим основные э т а п ы анализа временных рядов: Ѓ графическое представление и описание поведения временного ряда; Ѓ выделение и удаление закономерных (неслучайных) составляющих временного ряда (тренда, сезонных и циклических составляющих); Ѓ сглаживание и фильтрация (удаление низко- или высокочастотных составляющих временного ряда); Ѓ исследование случайной составляющей временного ряда, построение и проверка адекватности математической модели для ее описания; Ѓ прогнозирование развития изучаемого процесса на основе имеющегося временного ряда; Ѓ исследование взаимосвязи между различными временными рядами. Среди наиболее распространенных методов анализа временных рядов выделим корреляционный и спектральный анализ, модели авторегрессии и скользящей средней. О некоторых из них речь пойдет ниже.

480

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Так же, как ранее вариационный ряд x1, x2, …, xi, …, xn рассматривался как одна из реализаций случайной величины Х, временной ряд x1, x2, …, xi, …, xn рассматривается как одна из реализаций (траекторий) случайного процесса X(t) (см. § 7.1). Вместе с тем следует иметь в виду принципиальные отличия временного ряда xt (t = 1, 2, …, n) от последовательности наблюдений x1, x2, …, xn, образующих случайную выборку. Во первых, в отличие от элементов выборки члены временного ряда, как правило, не являются статистически независимыми. Во-вторых, члены временного ряда не являются одинаково распределенными.

14.2. Стационарные временные ряды и их характеристики. Автокорреляционная функция Важное значение в анализе временных рядов имеют с т а ц и о н а р н ы е временные ряды, вероятностные свойства которых не изменяются во времени. Стационарные временные ряды применяются, в частности, при описании случайных составляющих анализируемых рядов. Временной ряд xt (t = 1, 2, …, n) называется строго стационарным (или стационарным в узком смысле), если совместное распределение вероятностей n наблюдений x1, x2, …, xn такое же, как и n наблюдений x1+, x2+, …, xn+ при любых n, t и . Другими словами, свойства строго стационарных рядов xt не зависят от момента t, т.е. закон распределения и его числовые характеристики не зависят от t. Следовательно, математическое ожидание ax(t) = a, среднее квадратическое отклонение  x ( t ) =  (см. § 7.1) могут быть оценены по наблюдениям xt (t = 1, 2, …, n) по формулам: n

xt =

x n

n

st2 =

(x t =1

t

t =1

t

,

 xt )

n

(14.1) 2

.

(14.2)

Степень тесноты связи между последовательностями наблюдений временного ряда x1, x2, …, xn и x1+, х2+, …, xn+ (сдвинутых относительно друг друга на  единиц, или, как говорят, с лагом ) может быть определена с помощью коэффициента корреляции

 ( ) =

M ( xt Љ a )( xt +  Љ a )  x (t ) x (t + )

=

M ( xt Љ a )( xt +  Љ a ) 

481

2

,

(14.3)

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

ибо M ( xt ) = M ( xt +  ) = a,

 x ( t ) = x ( t + ) =  .

Так как коэффициент () измеряет корреляцию между членами одного и того же ряда, его называют коэффициентом автокорреляции, а зависимость () — автокорреляционной функцией. В силу стационарности временного ряда xt (t = 1, 2, …, n) автокорреляционная функция () зависит только от лага , причем  ( Љ ) =  (  ) , т.е.

при изучении () можно ограничиться рассмотрением только положительных значений . Статистической оценкой () является выборочный коэффициент автокорреляции r, определяемый по формуле коэффициента корреляции (12.35'), в которой xi = xt, yi = xt+, a n заменяется на n – : nЉ

r =

nЉ

n Љ

t =1

t =1

( n Љ  )  xt xt +  Љ  xt  xt +  t =1

nЉ



nЉ 



t =1

 t =1



2

n Љ



n Љ



t =1

 t =1



( n Љ  )  xt2 Љ   xt  ( n Љ  )  xt2+  Љ   xt +  

2

.

(14.4)

Функцию r называют выборочной автокорреляционной функцией, а ее график — коррелограммой. При расчете r следует помнить, что с увеличением  число n –  пар наблюдений xt, xt+ уменьшается, поэтому лаг  должен быть таким, чтобы число n –  было достаточным для определения r. Обычно ориентируются на соотношение   n/4. Для с т а ц и о н а р н о г о временного ряда с увеличением лага  взаимосвязь членов временного ряда xt и xt+ ослабевает и автокорреляционная функция () должна убывать (по абсолютной величине). В то же время для ее выборочного (эмпирического) аналога r, особенно при небольшом числе пар наблюдений n – , свойство монотонного убывания (по абсолютной величине) при возрастании  может нарушаться.  Пример 14.1. По данным табл. 14.1 для временного ряда yt найти среднее значение, среднее квадратическое отклонение и коэффициенты автокорреляции (для лагов  = 1; 2). Р е ш е н и е. Среднее значение временного ряда находим по формуле (14.1):

yt =

213 + 171 + ... + 361 = 296,88 ( .) . 8

Дисперсию и среднее квадратическое отклонение можно вычислить по формуле (14.2), но в данном случае проще использовать соотношение

482

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

st2 = yt2  yt2 = 92 478,38  296,882 = 4343,61; st = 4343, 61 = 65,31 ( .) , n

где

y

2 t

y =

2 t

t =1

n

=

2132 + 1712 + ... + 3612 = 92 478,38 . 8

Найдем коэффициент автокорреляции r временного ряда (для лага  = 1), т.е. коэффициент корреляции между последовательностями семи пар наблюдений yt и yt+1 (t = 1, 2, …, 7): yt

213

171

291

309

317

362

351

yt+

171

291

309

317

362

351

361

Вычисляем необходимые суммы: 7

y t =1 7

t

y t =1

2 t

= 213 + 171 + … + 351 = 2014; = 2132 + 1712 + … + 3512 = 609 506;

7

y t =1 7

t +

y t =1

2 t +

= 171 + 291 + … + 361 = 2162; = 1712 + 2912 + … + 3612 = 694 458;

7

y y t =1

t

t +

= 213Ѓ171 + 171Ѓ291 + … + 351Ѓ361 = 642 583.

Теперь по формуле (14.4) коэффициент автокорреляции r1 =

7  642 583 Љ 2014  2162 7  609 506 Љ 20142 7  694 458 Љ 21622

= 0,725.

Вычисление коэффициента автокорреляции r2 временного ряда y(t) для лага  = 2, т.е. коэффициента корреляции между последовательностями шести пар наблюдений yt и yt+2 предлагаем провести читателю самостоятельно.  Знание автокорреляционной функции r может оказать существенную помощь при подборе модели анализируемого временного ряда и статистической оценке ее параметров.

483

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

14.3. Аналитическое выравнивание (сглаживание) временного ряда (выделение неслучайной компоненты) Как уже отмечено выше, одной из важнейших задач исследования экономического временного ряда является выявление основной тенденции изучаемого процесса, выраженной неслучайной составляющей f(t) (тренда либо тренда с циклической или (и) сезонной компонентой). Для решения этой задачи вначале необходимо выбрать в и д функции f(t). Наиболее часто используются следующие функции: линейная — f(t) = b0 + b1t; полиномиальная — f(t) = b0 + b1t + b2t 2 +…+ bnt n ; экспоненциальная

— f (t ) = e 0

логистическая

— f (t ) =

Гомперца

b + b1t

;

a ; 1 + be ct — log c f ( t ) = a  br t , где 0< r