Probabilidade: Aplicações à Estatística
 8521602944, 9788521602941

Table of contents :
Início
Sumário
Capítulo 1. Introdução à Probabilidade
Capítulo 2. Espaços Amostrais Finitos
Capítulo 3. Probabilidade Condicionada e Independência
Capítulo 4. Variáveis Aleatórias Unidimensionais
Capítulo 5. Funções de Variáveis Aleatórias
Capítulo 6. Variáveis Aleatórias de Duas ou Mais Dimensões
Capítulo 7. Caracterização Adicional das Variáveis Aleatórias
Capítulo 8. Variáveis Aleatórias Discretas: A de Poisson e Outras
Capítulo 9. Algumas Variáveis Aleatórias Continuas Importantes
Capítulo 10. A Função Geratriz de Momentos
Capítulo 11. Aplicações à Teoria da Confiabilidade
Capítulo 12. Somas de Variáveis Aleatórias
Capítulo 13. Amostras e Distribuições Amostrais
Capítulo 14. Estimação de Parâmetros
Capítulo 15. Testes de Hipóteses
Capítulo 1 - Introdução à Probabilidade
1.1 Modelos Matemáticos
1.2. Introdução aos Conjuntos
Exemplo 1.1
Exemplo 1.2
Definição: Produto Cartesiano
Exemplo 1.3
1.3. Exemplos de Experimentos Não-Determinísticos
1.4. O Espaço Amostral
1.5 Eventos
Definição: Eventos mutuamente excludente
Exemplo 1.4
1.6 Freqüência Relativa
Definição: Freqüência relativa
Exemplo 1.5
1.7. Noções Fundamentais de Probabilidade
Definição: Probabilidade
Teorema 1.1
Teorema 1.2
Teorema 1.3
Teorema 1.4
Teorema 1.5
1.8. Algumas Observações
Problemas
Capítulo 2 - Espaços Amostrais Finitos
2.1. Espaço Amostral Finito
Exemplo 2.1
2.2. Resultados Igualmente Verossímeis
Exemplo 2.2
Exemplo 2.3
2.3. Métodos de Enumeração
Exemplo 2.4
A. Regra da Multiplicação
Exemplo 2.5
B. Regra da Adição
Exemplo 2.6
C. Permutações e Arranjos
D. Combinações
Exemplo 2.7
Exemplo 2.8
Exemplo 2.9
E. Permutações com Alguns Elementos Repetidos
Problemas
Capítulo 3 - Probabilidade Condicionada e Independência
3.1. Probabilidade Condicionada
Exemplo 3.1
Definição: Probabilidade condicionada
Equação 3.1
Exemplo 3.2
Exemplo 3.3
Definição: Partição do espaço amostral
Exemplo 3.4
Exemplo 3.5
3.2. Teorema de Bayes
3.3. Eventos Independentes
Exemplo
3.6
Definição: Eventos independentes
Exemplo 3.7
Exemplo 3.8
Exemplo 3.9
Exemplo 3.10
Definição: 3
eventos mutuamente independentes
Definição: n eventos mutuamente independentes
Exemplo 3.11
Exemplo 3.12
Exemplo 3.13
3.4. Considerações Esquemáticas; Probabilidade Condicionada e Independência
Problemas
Capítulo 4 - Variáveis Aleatórias Unidimensionais
4.1. Noção Geral de Variável Aleatória
Definição: Variável aleatória
Exemplo 4.1
Exemplo 4.2
Definição: Evento
Exemplo 4.3
Definição: Probabilidade
Exemplo 4.4
4.2.
Variáveis Aleatórias Discretas
Definição: Variável aleatória discreta
Exemplo 4.5
Definição: Função de probabilidade
Exemplo 4.6
4.3. A Distribuição Binomial
Exemplo 4.7
Definição: Variável aleatória binomial
Teorema 4.1
Exemplo 4.8
Exemplo 4.9
Exemplo 4.10
4.4. Variáveis Aleatórias Contínuas
Definição: Variável aleatória contínua
Exemplo 4.11
Exemplo 4.12
Exemplo 4.13
4.5. Função de Distribuição Acumulada
Teorema 4.2
Exemplo 4.14
Exemplo 4.15
Teorema 4.3
Teorema 4.4
Exemplo 4.16
4.6. Distribuições Mistas
4.7. Variáveis Aleatórias Uniformemente Distribuídas
Definição: VA uniformemente distribuída
Exemplo 4.17
Exemplo 4.18
Exemplo 4.19
4.8 Uma Observação
Problemas
Capítulo 5 - Funções de Variáveis Aleatórios
5.1. Um Exemplo
5.2. Eventos Equivalentes
Definição: Eventos equivalentes
Equação 5.1
Exemplo 5.1
Definição: Probabilidade eventos equivalentes
Equação 5.2
Exemplo 5.2
5.3. Variáveis Aleatórias Discretas
Exemplo
5.3
Exemplo 5.4
Exemplo 5.5
5.4. Variáveis Aleatórias Contínuas
Exemplo 5.6
Exemplo 5.7
Teorema 5.1
Equação 5.3
Exemplo 5.8
Exemplo 5.9
Teorema 5.2
Problemas
Capítulo 6 - Variáveis Aleatórias de Duas Ou Mais Dimensões
6.1. Variáveis Aleatórias Bidimensionais
Definição: Variável aleatória bidimensional
Definição: Variável aleatória bidimensional discreta
Definição: Função de probabilidade
conjunta
Equação 6.1
Equação 6.2
Equação 6.3
Equação 6.4
Exemplo 6.1
Exemplo 6.2
Exemplo 6.3
Definição: Função de distribuição acumulada
6.2. Distribuições de Probabilidade Marginal e Condicionada
Exemplo 6.4
Exemplo 6.5
Definição: Variável aleatória contínua bidimensional e uniformemente distribuída
Exemplo 6.6
Exemplo 6.7
Definição: Fdp condicionada
Exemplo 6.8
6.3. Variáveis Aleatórias Independentes
Exemplo 6.9
Definição: Variáveis aleatórias independentes
Teorema 6.1
Exemplo 6.10
Exemplo 6.11
Exemplo 6.12
Teorema 6.2
6.4. Funções de Variável Aleatória
Teorema 6.3
Exemplo 6.13
6.5. Distribuição do Produto e do Quociente de Variáveis Aleatórias Independentes
Teorema 6.4
Exemplo 6.14
Teorema 6.5
Exemplo 6.15
6.6. Variáveis Aleatórias n-Dimensionais
Problemas
Capítulo 7 - Caracterização Adicional de Variáveis Aleatórias
7.1. O Valor Esperado de uma Variável Aleatória
Exemplo 7.1
Exemplo 7.2
Exemplo 7.3
Definição: Esperança matemática
Equação 7.1
Exemplo 7.4
Teorema 7.1
Exemplo 7.5
Equação 7.2
Exemplo 7.6
Exemplo 7.7
Teorema 7.2
Equação 7.3
7.2. Expectância de uma Função de uma Variável Aleatória
Equação 7.4
Equação 7.5
Teorema 7.3
Equação 7.6
Equação 7.7
Exemplo 7.8
7.3. Variáveis Aleatórias Bidimensionais
Equação 7.8
Equação 7.9
Equação 7.10
Equação 7.11
Exemplo 7.11
7.4. Propriedades de Valor Esperado
Propriedade 7.1
Propriedade 7.2
Propriedade 7.3
Propriedade 7.4
Propriedade 7.5
Propriedade 7.6
Exemplo 7.12
Exemplo 7.13
Exemplo 7.14
7.5. A Variância de uma Variável Aleatória
Definição: Variância
Equação 7.12
Teorema 7.5
Exemplo 7.15
Exemplo 7.16
7.6.
Propriedades da Variância de uma Variável Aleatória
Propriedade 7.7
Equação 7.13
Propriedade 7.8
Equação 7.14
Propriedade 7.9
Equação 7.15
Propriedade 7.10
Equação 7.16
Propriedade 7.11
Equação 7.17
Exemplo 7.17
Exemplo 7.18
7.7. Expressões Aproximadas da Expectância e da Variância
Teorema 7.6
Equação 7.18
Equação 7.19
Exemplo 7.19
Teorema 7.7
Exemplo 7.20
7.8. A Desigualdade de Tchebycheff
Equação 7.20
Equação 7.20a
Equação 7.20b
Equação 7.21
Teorema 7.8
7.9. O Coeficiente de Correlação
Definição: Coeficiente de correlação
Teorema 7.9
Teorema 7.10
Teorema 7.11
Teorema 7.12
Teorema 7.13
Exemplo 7.21
Teorema 7.14
7.10. Valor Esperado Condicionado
Definição: Valor esperado condicionado
Equação 7.23
Equação 7.24
Teorema 7.15
Equação 7.25
Equação 7.26
Exemplo 7.22
Teorema 7.16
Exemplo 7.23
7.11. Regressão da Média
Exemplo 7.24
Exemplo 7.25
Teorema 7.17
Equação 7.27
Equação 7.28
Teorema 7.18
Problemas
Capítulo 8 - Variáveis Aleatórias Discretas: A de Poisson e Outras
8.1. A Distribuição de Poisson
Definição: distribuição de Poisson
Equação 8.1
Teorema 8.1
8.2. A Distribuição de Poisson Como Aproximação da Distribuição Binomial
Exemplo 8.1
Exemplo 8.2
Exemplo 8.3
Exemplo 8.4
8.3. O Processo de Poisson
Equação 8.2
Equação 8.3
Equação 8.4
Exemplo 8.5
8.4. A Distribuição Geométrica
Equação 8.5
Teorema 8.3
Exemplo 8.7
Exemplo 8.8
Exemplo 8.9
Teorema 8.4
Equação 8.6
Exemplo 8.10
8.5. A Distribuição de Pascal
Equação 8.7
Teorema 8.5
Equação 8.8
Exemplo 8.11
8.6. Relação entre as Distribuições Binomial e de Pascal
8.7. A Distribuição Hipergeométrica
Equação 8.9
Exemplo 8.12
Teorema 8.6
8.8. A Distribuição Multinomial
Teorema 8.7
Teorema 8.8
Exemplo 8.13
Problemas
Capítulo 9 - Algumas Variáveis Aleatórias Contínuas Importantes
9.1. Introdução
9.2. A Distribuição Normal
Definição: distribuição normal
Equação 9.1
9.3. Propriedades da Distribuição Normal
Equação 9.2
Teorema 9.1
9.4. Tabulação da Distribuição Normal
Equação 9.3
Equação 9.4
Equação 9.5
Equação 9.6
Exemplo 9.1
Exemplo 9.2
Exemplo 9.3
Exemplo 9.4
9.5. A Distribuição Exponencial
Definição:
distribuição exponencial
Equação 9.7
9.6. Propriedades da Distribuição Exponencial
Equação 9.8
Equação 9.9
Equação 9.10
Equação 9.11
Exemplo 9.5
Exemplo 9.6
Exemplo 9.7
Exemplo 9.8
9.7. A Distribuição Gama
Definição: função gama
Equação 9.12
Equação 9.13
Equação 9.14
Equação 9.15
Definição: distribuição gama
Equação 9.16
9.8. Propriedades da Distribuição Gama
Equação 9.17
Equação 9.18
9.9. A Distribuição de Qui-Quadrado
Equação 9.19
Equação 9.20
Exemplo 9.9
Teorema 9.2
9.10. Comparações entre Diversas Distribuições
9.11. A Distribuição Normal Bidimensional
Definição: distribuição normal bidimensional
Equação 9.21
Teorema 9.3
Teorema 9.4
9.12. Distribuições Truncadas
Exemplo 9.10
Equação 9.22
Definição: distribuição normal truncada
Equação 9.23
Equação 9.24
Equação 9.25
Exemplo 9.11
Exemplo 9.12
Exemplo 9.13
Problemas
Capítulo 10 - A Função Geratriz de Momentos
10.1. Introdução
10.2. A Função Geratriz de Momentos
Definição: função geratriz de momentos
Equação 10.1
Equação 10.2
Equação 10.3
10.3. Exemplos de Funções Geratrizes de Momentos
Equação 10.4
Exemplo 10.2
Equação 10.5
Exemplo 10.3
Equação 10.6
Exemplo 10.4
Equação 10.7
Exemplo 10.5
Equação 10.8
Exemplo 10.6
Equação 10.9
Equação
10.10
10.4. Propriedades da Função Geratriz de Momentos
Teorema 10.1
Equação 10.11
Exemplo 10.7
Exemplo 10.8
Exemplo 10.9
Teorema 10.2
Equação 10.12
Teorema 10.3
Exemplo 10.10
Teorema 10.4
Equação 10.13
Equação 10.14
10.5. Propriedades Reprodutivas
Exemplo 10.11
Exemplo 10.12
Teorema 10.5
Teorema 10.6
Exemplo 10.13
Teorema 10.7
Teorema 10.8
Exemplo 10.14
Teorema 10.9
10.6. Seqüências dle Variáveis Aleatórias
Teorema 10.10
10.7. Observação Final
Problemas
Capítulo 11 - Aplicações à Teoria da Confiabilidade
11.1. Conceitos Fundamentais
Definição: Função de confiabilidade R(t)
Definição: Taxa de falhas (instantânea) Z(t)
Equação 11.1
Teorema 11.1
Equação 11.2
Teorema 11.2
Equação 11.3
11.2. A Lei de Falhas Normal
Exemplo 11.1
11.3. A Lei de Falhas Exponencial
Teorema 11.3
Exemplo 11.2
Exemplo 11.3
Exemplo 11.4
11.4. A Lei de Falhas Exponencial e a Distribuição de Poisson
11.5. A Lei de Falhas de Weibull
Equação 11.4
Equação 11.5
Teorema 11.4
Equação 11
.6
Equação 11.7
11.6. Confiabilidade de Sistemas
Teorema 11.5
Equação 11.8
Teorema 11.6
Exemplo 11.5
Teorema 11.7
Equação 11.9
Equação 11.10
Exemplo 11.6
Problemas
Capítulo 12 - Somas de Variáveis Aleatórias
12.1. Introdução
12.2. A Lei dos Grandes Números
Equação 12.1
Exemplo 12.1
Exemplo 12.2
Equação 12.2
Exemplo 12.3
12.3. Aproximação Normal da Distribuição Binomial
Equação 12.3
Equação 12.4
Equação 12.5
Exemplo 12.4
12.4. O Teorema do Limite Central
Teorema 12.1
Exemplo 12.5
Exemplo 12.6
12.5 Outras Distribuições Aproximadas pela Distribuição Normal: a de Poisson, a de Pascal e a Gama
Exemplo 12.7
Exemplo 12.8
12.6. A Distribuição da Soma de um Número Finito de Variáveis Aleatórias
Teorema 12.2
Equação 12.6
Exemplo 12.9
Exemplo 12.10
Exemplo 12.11
Teorema 12.3
Exemplo 12.12
Problemas
Capítulo 13 - Amostras e Distribuições Amostrais
13.1. Introdução
13.2. Amostras Aleatórias
Definição: Amostra Aleatória
13.3 Estatísticas
Definição: Estatística
13.4. Algumas Estatísticas Importantes
Definição: Estatísticas de interesse
Teorema 13.1
Teorema 13.2
Exemplo 13.1
Teorema 13.3
Teorema 13.4
Teorema 13.5
Exemplo 13.2
13.5. A Transformação Integral
Teorema 13.6
Exemplo 13.3
Exemplo 13.4
Exemplo 13.5
Problemas
Capítulo 14 - Estimação de Parâmetros
14.1. Introdução
14.2. Critérios Para Estimativas
Definição: Estimador/Estimativa
Definição: Estimador não-tendencioso
Definição: Variâcia mínima
Definição: Estimativa coerente
Teorema 14.1
Definição: Melhor estivativa não-tendenciosa linear
14.3. Alguns Exemplos
Exemplo 14.1
Teorema 14.2
Exemplo 14.2
Exemplo 14.3
Exemplo 14.4
Exemplo 14.5
Exemplo 14.6
14.4.
Estimativas de Máxima Verossimilhança
Equação 14.1
Definição: Máxima verossimilhança
Equação 14.2
Equação 14.3
Propriedades das estimativas de máxima verossimilhança
Exemplo 14.7
Exemplo 14.8
Exemplo 14.9
Exemplo 14.10
Exemplo 14.11
Exemplo 14.12
Exemplo 14.13
Propriedades assintótica das estimativas de máxima verossimilhança
Equação 14.4
Exemplo 14.14
14.5. O Método dos Mínimos Quadrados
Exemplo 14.15
Definição: Estimativas de mínimos quadrados
Equação 14.5
Equação 14.6
Equação 14.7
Equação 14.8
Equação 14.9
Exemplo 14.16
14.6.
O Coeficiente de Correlação
Exemplo 14.17
14.7. Intervalos de Confiança
14.8. A Distribuição de t de Student
Equação 14.10
Teorema 14.3
Equação 14.11
Exemplo 14.18
14.9. Mais Sobre Intervalos de Confiança
Exemplo 14.19
Exemplo 14.20
Exemplo 14.21
Equação 14.12
Exemplo 14.22
Exemplo 14.23
Problemas
Capítulo 15 - Testes de Hipóteses
15.1. Introdução
Exemplo 15.1
Definição: Tipo de Erro
Definição: Função CO
15.2. Formulação Geral: Distribuição Normal com Variância Conhecida
Equação 15.1
15.3. Exemplos Adicionais
Exemplo 15.2
Exemplo 15.3
Equação 15.2
Equação 15.3
15.4. Testes de Aderência
Exemplo 15.5
Exemplo 15.6
Exemplo 15.7
Equação 15.4
Teorema 15.1
Exemplo 15.9
Exemplo 15.10
Problemas
Apêndice
Tab. 1. Valores da Função de Distribuição Normal Reduzida
Tab. 2. Função de Distribuição Binomial
Tab. 3. Função de Distribuição de Poisson
Tab. 4. Valores Críticos da Distribuição de t de Student
Tab. 5. Valores Críticos da Distribuição de Qui-Quadrado
Tab. 6. Números Aleatórios
Tab. 7. Desvios Normais Reduzidos Aleatórios
Respostas a Problemas Selecionados
Capítulo 1
Capítulo 2
Capítulo 3
Capítulo 4
Capítulo 5
Capítulo 6
Capítulo 7
Capítulo 8
Capítulo 9
Capítulo 10
Capítulo 11
Capítulo 12
Capítulo 13
Capítulo 14
Capítulo 15
Indicações Bibliográficas
Índice Alfabético
End

Citation preview

XIV ' I PREFÁCIO DA PRIMEiRA EDIÇÃO

jeto; pani com a .Sr!! Carol Sloan, por ser uma datilógrafa eficiente e atenta; para com D. Van Nostrand, Inc., The Free Press, Inc: e Mac~ millan Publishing .Cqmpany, por sua permissã'o para reproduzir as. Tábuas 3, 6 e 1, respectivamente; para com McGraw~Hill Book Co., Inc., Oxford University Press Inc., Pergamon Press, Ltda. e P&ntice" Hall, Inc., por suas permissões para citar · determinados exemplos ·no texto, e, finalmente para com minha esposa, não somente por me amparar no esforço, como também por "deixar-me" e levar nossos :doi.s filhos com ela a visitarem os avós, por dois .cruciais meses de verão, durante os quais fui capaz de transformar.nossa casa em uma desordenada, porém tranqhila oficina, da qual surgiu, miraculosamente, a última versão final deste livro. P.L.M. Pullman, Washirigton Abril, 1965

, .·.

SUMÁRIO

Introdução à 1Probabilic1~de

Caprtuio 11 .

Modelos Matemáticos Introdução aos Conjuntos Exemplos de Experimentos Não-Determinísticos· O ~spaço Amostral Eventos Freqüência Relativa Noções Fundamentais de Probabilidade Duas Observações

1.1 1.2

1.3

1.4 1.5

1.6 1.7 1.8

Cápftulo~

\

3.1 3.2 3.3

Capftuio~ 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8

Caprtuil>~ 5.1 5.2 5.3 5.4

4 8 11

13 15 17 21

.; Espaços Amostrais Finitos ...

2.1 . Espaço Amostral Finito 2.2 Resultados Igualmente Verqssímeis 2.3 Métodos de Enumeração

-Ca~rtulo\\~

1

26 27 29

Probabilidade Condfcionada e Independência Probabilidade .Condicionada Teorema de Bayes Eventos Independentes

42 49 52

Variãveis Aleatórias Unidimensionais Noção Geral de Variável Aleatória Variáveis Aleatórias Discretas A Distribuição Binomial Variáveis Aleatórias Contínuas Função de Distribuição Acumulada Distribuições Mistas Variáveis Aleatórias Uniformemente Distribuídas Uma Observação

66 72

75 80 85 89 89 91

funções de Variáveis Ale~tórias Um Exemplo Everitos Equivalentes ·Variáveis .Aleatórias Discretas Variáveis Aieatórias Contínuas

97 97 ., 100 i 101 ! . I ;

·1

-t~;;~~-~;:·:-':'·

r

-:"·.. '

_

XVI I SUMÁRIO

~

Caprtulo 6.

~

6.1

~:~

r lj

604 6.5

i'

r~ i'

6 .6

I

If l' r

Capítulo 1.

tI

701 702 703 . 704 705 7.6 707 708 709 7010 7011

Capftulo 8. 801 802 8.3 8.4 805 8o6 807 808

Capftulo 9.

'.

901 902 903 9.4 905 906 907 9.8

Variáveis Aleatórias de Duas 0111 Mais Dimensões Variáv~is Aleatórias Bidimensionais Distribuições de Probabilidade Marginal e Condicionáda Variáveis Aleatórias Independentes · · ' ·. Funções de Variável Aleatória Distribuição do Produto e do Quociente de Variáveis · Aleatórias Independentes Variáveis Aleatórias n-Dimensionais l. o

110 116 121 124 128 131 '

Caracterização Adlicio1111al das . · Variáveis Aleatórias O Valor Esperado de Uma Variável AleatóriiJ. Expectância de uma Função de uma Variável Aleatória Variáveis Aleatórias Bidimensionais Prupriedades do Valor Esperado A Variância de uma Variável Aleat6ria Propriedades da Variância de uma Variável Aleatória Expressões Aproximadas da Expectância e da Variância A Desigualdade 'de Tchebycheff O Coeficiente de Correlação Valor Esperado Condicionado Regressão da Média

137 144 149 150

ú6

159 162 165 167 172 175

Variáveis Aleatórias Discretas: A de Poisson e Outras A Distribuição de .Poisson A Distribuição de Poisson como Aproximação da Distribuição Binomial O Processo de Poisson·. A Distribuição Geométrica A Distribuição de Pascal Relação entre as Distribuições Binomial e de Pascal A Distribuição Hipergeométrica A Distribuição Multinomial

187 194 . 200 . 203 205 206 208

Algumas Variáveis Aleatórias Continuas !mpoll'ital!'ites Introdução A Distribuição Normal ~ Propriedades da Distribuição Normal Tabulação da Distribuição Nonrtal A Distribuição Exponencial Propriedades da Distribuição Exponencial A Distribuição Gama Propriedades da Distribuição Gama o

214 214 215 219 223 223 227 228

I I

SUfViÃRIO I XVII

9.9 A Distribuição de" Qu~-quadrado 9.10 Comparações entre Diversas Distribuições 1 9.11 A Distribuição Normp Bidimensional 9.12 Distribuições Truncadas I

230 233 234

236

I

Caprtulo 10.

A f11..mção Geratrõzi de Momentos

! 10 .1 10.2 10.3 10.4 ~0.5 10.6 10.7

'

Introdução 1 A Função Geratriz de Momentos Exemplos de Funções Geratrizes de Momentos Propriedades da FunÇão Geratriz de Momentos Propriedades Reprod~tivas Seqüências de Variáveis Aleatórias Observação ·Final '

e

~

i

'' ,-

247 250 255 259 260

! ~

·.

Cap ótu !o 11.

Aplicações à Teori~ da Confiabi!idade

Conceitos Fundamenfis . 11.2 A Lei de Falhas Normal 11.3 A Lei de Falhas Expdnencial 11.4 A Lei de Falhas Exponencial e a Distribuição de Poisson J 11.5 A Lei de Falhas de Weibull 11.6 Confiabilidade de Sistemas 11.1

Capftulo 12.

~

lv(l/12 .1 f:Y J? ' 12_2 ., - () 12.3 "ÇJ 'y• 12.4 ÔJ~· 12.5

\f d C c\

l\ fv '\

,'JJ

Capftulo

12.6

~

f.

~

263 267 268

'

I·, _ L

,.,. 271 273 274

I.

I

,Somas de Variáveis Aleatórias

I

~u,-J~~ - G (Neste livro não cuidaremos de espaços amostrais di :•cdfnpl~xi'dade . encontrada em 81a- Ko entanto, tais espaços ariÍ6slrais'''p8dem ' súi:~ gir, mas exigem para seu estudo mais ~Íatemática âvànÇ~dâ> do qúe estamos admitindo aqui.)

.e~~;.!~ii:f7~~]~~9r~~x;:~;;:mE:::;s;g;[email protected]?::;;~. · estamos '' ·. · .·.··: .: d@ii::•"'"" Por isso, de ;,~;.·;'~~~~~;~ amostral associado a um experimerito, e P:ão de "o" espaço' amostraL A esse respeito, note-se a dif~re~ça· entre 82 e 8a. Saliente~se, 'tambein~ 'qu~ o r~sul t-~do de 'urri'. ê},~·~~Q}~rho não é necessariamente, um número. Por exemplo, em E i, cada resultado é uma seqüência de caras (H) e coroas (T). Em É9 e E.1 o cada resultado e formado por um vetor, enquanto em E; 3 , e~d~ resultado constitui uma função .

lativamente aos exemplos acima, observamos que 8], 82;. 8a, 84, 8s, .• 81 e 812 são finitos, 8s é infinito numerável, e 8s, 89, 810r 8u, 813 e 814 são infinitos não-numeráveis.

:~~=::~~~;:;!~·:::,~~~~~t·

:rimento ·Ê 6 e seu e~paço amostral associado 81. É eVidente que, quando estivermos realmente registrando o tempo . tot~l t, •durante o qual uma lâmpada funcione, seremos "Vitimas" da precis[b de nosso instrumento de medir. Suponha-se que temos um instruínerrto que seja capaz de registrar o tempo com duas casas decir11ais, por exem.: . pio, 16,43 horas. Com esta restrição imposta, nosso esjlàço amost ral se tomará infinito numerdvel: {0,00, 0,01, 0,02; •: : : }. Além disso, é bastante próximo da realidade admitir quenenhíun8,Jâinpada possa durar 'mais do que H horas, onde H pode ser uín fiúinero muito grande. ConseqÜentemente, parece que se f()i:inos ·completamente realistas na descrição deste espaço amostral, estaremos realmente tratando com um espaço amostral finito: {0,00, 0,01, 0,02, .. . , H}. O número total . de resultados seria (H/0,01) + 1, que poderá ser um número muito grande; mesmo que H seja moderadamente grande,

iNTRODUÇÃO À PROBABiii..IDADE I 13

por exemplo se H = 100. Torna-se bem mail:l simples e, matematicamente, conveniente, admitir que todos os valores de t ~ O sejam .resultados possíveis e, portanto, tratar o espaço amostral Ss tal como foi originalmente definido . . Diante desses comentários, alguns dos espaços amostrais descritos são idealizados. Em todas as situações subseqüentes, oespaço amostral ·considerado será aquele que for matematicamente mais conveniente. Na maioria dos problemas, pouca dúvida ~.urge quanto à escolha adeQuada ·d9 :êsPáçO·· amosti-al. :; ·.-. ·. :. :..,.., ··.. .· . :... ·,.:: ·.. ·.- ... -:

· .:;.: :~:-

Eventos

1._5.

Outra noção fundamental é o conceito de evento. 150}.

1

A U B = (tlt ~ 200}; A jn B = {t J50 ~ t < 100}; BUC=(tJt2::50}; BnC={tJ150 150 J; ~ = {tI t ;::: 100 J; = (tI t ~ 150 J. I

c

Uma das características fundamentais do conceito de "experimento", como foi apresentado n~ seção anterior, é que nÓs 11~0 sabemos qual resultado particular Ócorrerá quando o experimento· for . . I realizado. Por ~;mtras palavras, Sf A for um 'evento associado a um experimento, então, não poderembs afirmar com certeza que A irá ocorrer ou não. Por isso, torna-s,e muito importante tentar associar um número ao· evento A, o qual medirá de alguma maneira quão verossírnil é que o evento A venll.a a ocorrer; Essa tarefa nos leva à teoria da prob.abilidade. I

i

1.~~efliii&lê~~~a;tiva-),

I

A fim de ·motivar a o seguinte procedimento:

I

Definição. ]A =· nA/n é denominada freqüência relativa do evento A nas n repetições de 8. A f;eqü~ncia relativa f A ap.rese~ta as seguintes propriedades, de fácil verificaÇão: . (1)

o ~ fA ~

1.

.

.

(2) j A = 1 se, e somente se,

I

h. OCOrrer em todas aS n repetições. . .,, :

16

I IP'ROISAIS8UDAiiJIE

(3)

!A. :=O se, esomente se, A

nunca ocorrer nas;nrepetiçpes.

(4) Se A e B forem eventos mutuamerité' ex2ludé#tes;e~sef~ u B · for a freqüênci!l relativa associada ao ~vento~ ~y ,s, :~B.tio-;]~ •li. fi ·= . = fA + fB. . ... . ···:. , _ ,; _,_ .. ·. .. (5) fA, .com base em n repétiçõe"s dó ex.periment() 'e' :66nsideiada como uma função de "converge" em ceitó "senfído ''prohábilísti_ço paraP (A), quando n -7 oo . · .· · · · ' ' ' • · ·

n;

Conientárw: A Propriedade (5) está evidentemente expressada um tanto vagamente, nesta seção. Somente mais tarde (Seç.l2.2), estaremos aptos a tornar esta idéia mais precisa. Por enquanto, podemos a~enas afirmar q_{iê ;a-Propriedade (5) envolve a nÕção nitidamente intuitiva de que a freq üêricia ·relativa, ba5eada em um número crescente de observações, tende a se "estabilizar" próximo . de algum valor definido . Este não é o mesmo conceito usual de convergência encontrado em alguma parte da Matemática. De fato, tal co.inó af'rrmamos aqui, esta riãó é, de modo algum, uma conclusão matemática, mas apenas um fato e~pírico.

A maioria de nós está intuitivamente a par deste fenômeno de estabilização, muito embora nunca o tenhamos verificado. Fazê-lo exige considerável porção de tempo e de paciência, porque inclui um grande número de repetições de um experimento. Contudo, algumas vezes, poderemos ser ingênuos observadores deste fenômenô, como ilustra o seguinte exemplo: Exemplo 1.5. Admitamos que estejamos postados na calçada e fixemos nossa atenção em dois blocos de meio-fio adjacentes. Suponha-se · que comece a chover de tal maneira que sejamos realmente capazes de distinguir pingos isolados de chuvà e registrar se esses pingos caem num . meio-fio ou noutro. Ficamos a observar os pingos anotar seu ponto de impacto. Denotando o i-ésimo pingo por Xi, onde Xi = 1 se o pingo cair no primeiro meio-fio, e igual a O se . cair no outro, poderemos observar uma seqüência como, por exemp1o, 1, 1, O, 1, O; 0,0, 1, O, O, 1. É evidente que não seremos capazes de prever onde um particular pingo irá cair. (Nosso experimento consta de alguma espécie de situação meteorológica que causa a queda dos pingos de chuva.) Se calcularmos a freqüência relativa do evento A ·= { ci pingo cai no meio-fio 1}, então, a seqüência de resultados acima dará origem às Seguintes freqüências relativas (baseadas na observação de 1, 2, 3, ... pingos): 1, 1; 2/3, 3/4, 3/5, 3/6, 3/7, 4/8, 4/9, 4/ 10, 5/11, ... Esses números e..videnciam um elevado grau de variação, especialmente no início. É intuitivamente evidente que, se o experimento acima continuasse indefmidamente, essas freqüências relativas iriam se estabilizar próximas do valor 1/2. Canse. _qüentemente, teríamos toda razão em acreditar que, depois de algum tempo decorrido, os dois meios-fios estariam igualmente molhados.

ea

•;

~'

.·,

·i

Oi\!TRODUÇÃO À IP'IROBABIUDADE I H

Esta propriedade de estabilidade da. freqüência relaJ;j.va é, por enquanto, uma noção inteiramente intuitiva, porém mais tarde estaremos aptos a torná-la matematicamente precisa. -~êl:lêí:ã ~§ÍI!i"1fpropriedabàseado em experiência anterior de uma situação similar! A IreqJ.iêl1ciâ relativa fA pode desempenhar um importante papel em nossa 'deliberação sobre a atribuição numérica de P(A). Contudo,~ imponànte' '·'coriÍ~ieender que qualquer suposição que façamos sobre P(A) deve '''s~r'fajY:qú'~ " ~êjam satisfeitos os axiomas básicos desde (1) até (4)daDefuiiç'ãô·{1.3): · · · (d) No curso do desenvolvimento da5 idéias bâsicãs datêoria 'da probabilidade, faremos algumas referências a det~rriúnadas. analogias mecânicas. A primeira delas pode ser apropriada a.qili. Etii M~tânica, atribuímos a cada corpo B sua massa, digamos m(.B)~ ''Effi .§~guút"a'~ faremos diversos cálculos e obteremos várias condüsÕÚ sobre comportamento de B e suas relações com outros coipos, iÍxirita(P,as -qliais envolvem sua massa m (B). O fato de que · nós podere·fu.os' ter que recorrer a alguma aproximação para obter reâlméntt m(B) uin . corpo especificado não diminui a utilidade do coritéitó ' de hiassa~ Semelhantemente, estipularemos para cada evento A assocüid.() aoespaÇo amostral de um experimento um número P(A ), denominado 'probabilidade de A, e satisfazendo nossos axiomas básicos. Ao calci.ílar reallliente P (A) para um evento específico, nós teremos que fazer hipÓteses adicionais ou que obter uma aproximação base ada em evidência. empírica.

o

pâra

(e") . 1!; muíto importante compreender que nós tenhamos postulado a existência do número P(A), e que tenhamos postulado de-

terminadas propriedades que esse número possui. A validade das várias conseqüências {teoremàs), decorrentes desses postulados, 'de modo algum depende da maneira pela qual iremos obter um valor numérico para P(A). 1!; essencial que este ponto fique claro. Por exemplo, admitimos que P(A U B) = P(A) + P(B). A fim de empregar esta relação para a avaliação concreta de P(A U B), deveiemo~ conhecer os valores de ·P(A) e de· P(B). Explicaremos, i-esuffiidamente, que sob certas circunstâncias, nós poderemos fazer suposiçõês adicionais que conduzam a um método de avaliação dessas probabilidades. Se essas (ou outras) suposições não forem fundamentadas, poderemos ter de recorrer à experi~entação a fim de alcançar o valor de P(A) a partir de dados reais. A freqüência relativa fA desempe~ nhará nisso um importante papel e será, de fato, utilizada para aproximar P(A). Contudo, é importante saber que j A ,o P(A) ní'ío slto o. rncHllll\ coisn.; que nó11 ~~ponaH ni.iliznrom01-1 j A Jl l~l'l~ t\proJ :A

n B.

1.3. Quais das seguintes relações si\.o verdadeiras? I

n

n

(c)

(A U B) (A U C) = A U (~ C). A C\ B = A U B. (d) (A Li B)

(e)

(A

(a)

= (A

n c-= A n B n C.

I

n B) n (B n C) = e.

(b) (A U B)

n B) U B.

i

1.4. Suponha que o conjunto fund~ental seja. formado por todos os pontos (x, y) de coordenadas ambas inteiras, e que estejam dentro ou sobre a fronteira do quadrado limitado pelas retas x = O, jy = O, x = 6 'e y = 6. Eriuroere .os elemento,s dos seguintes conjuntoo: !

A= ((x,y)jx2

(a)

(c) C

=

+y

2

I

~ 6).

{(x, y)jx ~ y2 }.

(~) B = ((x,y)Jy~ x~l. _

(d) B

q1 C.

(e) (B U A)

n Ç·

! 1.5. Empregue diagramas de Vem\. para estabelecer as seguintes relly;õoa: (a) A C B e B C C implica quk A C C. " (b) A C B implica q\10 A - A n B. (c) A c B I implica que- ·:B c A. (d) A c B ilnpliCII

quo A 1 ,0, '"' 11 o

l1rl•t

I'OI)I

IJ

u c.

l11 III 11 1

(lll A n B I.; 0 e c c A

'IIli\ HIU\111 rlr t 1\IHII lill (ll\

r(tl(ll 1,11111111 (N),

l(llllilo 111

Ih

u cc

lj\11

~~~ I)IIIJifl\

ll

dr

IIM~II

I

,

111(1111'

I

I

1(111•

'""' ""'" '''

(/J)

1111" ~J;h(b)

Enumere todos os elemtmtos dos ey~entos\ ~

v

Exemplo 2.3. Uma moeda equilibrada é · at_irada . çluas vezes. Seja A. o evento: {aparece uma cara). Na avaliação _de P(A), a ~ ~ análise do. .problema poderia ser a seguinte: O espaço amostral é -~ S ={O, 1, 2} onde cada resultado representa o número _de ~aras ~ que ocorre. Portanto, seria encontrada P(A) ;, 1/3! Esta análise ~ é obviamente incorreta, porque no espaço amostral.cónsiderado aci~a; ' todos os resultados não são igualmente verossímeis. A fim de aplicar · !f os . métodos expostos, deveremos considerar. em s .e ú lugar o espaÇo amostral '= IHH, HT, TH, TT}, onde H ·i:épresenta cara, e ·T - . oroa. Neste espaço amostral todos os resultados são _igualJ!lente verossimeis e, . por isso, obteremos como soluçãó cbrreta de · nosso problema: P(A) = 2/4 = 1/2. Poderíamos empregar corretamente o· · espaço S da seguinte maneira: Os resultados O e 2 ·são igualmente verossímeis, enquanto o resultado 1 é du~s vezes mais provável que qualquer um · dos outros. Portanto, P(A) =: 1/2, o que concorda com a resposta anterior.

f_ W

3

=r

t

Este exemplo ilustra dois aspectos. Primeiro, deveremos estar bastante I SegUrOS de que tod~S OS resultados pOSSam SUpOr-Se igual.:_ mente verossíme\s, .antes de empregar o procedimento 'acima. Segundo, poderemos freqüentemente, por uma escolha apropriada do espaço· amostral, reduzir o problema a outro, em que todos os resultados seja,;_ igualmente verossímeis. Se~pre 'qne possível, isto deve .ser feito porque g~ralmente· , torna o cálculo . máis si.rhples. Este aspectQ. será-de novo mencionado em exemplos subseqüentes. r

Muito freqüentemente, a maneira pela qual o experimento -é executado determina se os result!tdos possíveis são igualmente verossímeis ou iíão. Por exémplo, suponha-se que retiremos um parafuso de uma caixa /que ·coiitenh~ tr~s parafusos de tamanhos dife~n­ tes. Se simplesmente escolhermos o parafuso este:rrdendo a mão dentro da caixa e apanhando aquele que tocarmos primeiro, é óbvio que o parafuso maior terá maior probabilidade de ser escolhido que os outros dois. No entanto, etiquetando cuidadosamente cada para.:. fuso com um número, escrevendo o número em um ·cartão, é esco-

~

. IESI?AÇOS AMOSTIRA~S .fiNDTOS

I 29

lhendo um cartão, tentaremos garantir que cada parafuso tenha de fato a mesma probabilidade de ser escolhido. Assim, poderemos nos meter em enorme trabalho a fim de assegurarmos que a suposição matemática de resultados igualmente verossímeis seja de fato apropriada. '

Nos exemplos já vistos e em muitos que se seguirão, trataremos d:a escolha ao aeliso de um ou mais objetos de uma dada coleção de

~:.~;~::::::;~~,::=:!::!~~:~~~~::foe';:/:ion'hamQ~. (a) Escolher ao acaso.um obJeto, dentre N objetos, significa qiUle cada objeto tem ã mesrn.a: Pl)Obabilidade ser esc,o!hido, isto é, ·

·

-b ~ ). Pro (escolher a;= lN,

r

de

· =. 1, ~2, ... ,N."·o

t

~..11"1 í((j

de·:;,

~

,.~~·), l'!.'J.,ensado éo~o ovr6prio resultado do experimento e Rx se toma o .espli,ÇO amost~al do ·. . ·· -' experimento.

A diferença entre as interpretações (a) e (b) é percebida com · dific1,1ldade; é relativamente secundária, mas me1;ecedora de, atl~nção. Em (a), o experimento essencialmente. termina com a obs~rvação de s. · · A avaliação de X(s) é considerada alguma coisa qile é feita poste- .· 'riormente, e que não é influenciada pela aleatoriedade de 8. Em · (b), o experimento não é considerado concluídO ·até que o ni1mero X (s) tenha sido realmente calculado, desse modo se originando o e.Spaço amostral Rx. l\iuito embora a primeir~ interpretação, (a), seja aquela ·geralmente pretendida, a segunda interpreta'ção, (b), poderá ser muito útil e o leitor deverá lembrar-se dela. Aquilo que estamos dizendo, e isso ficará cada vez inais claro nas seções posteriores, é que no estudo das variáveis. _aleatórias estaremos mais interessados nos valores que X toma do qlle em sua forma funcional. Conseqüentemente, em muitos casos, ignoramos completamente o espaço amostral subjacente no qual X pode ser definido. Exemplo 4.1. Suponha-se que uma lâmpada tenha sido posta em um soquete. O experiment,o será. considerado terminado quando a lâmpada se queimar. Qual será um possível resultado, s? Uma das maneiras de descrever s seria apenas registrar o di'a e a ho_ra em que ' a lâmpada se queimou, por exemplo: 19 de maio, 16 h e 32 min. Em conseqüência, o - espaço am~stral poderia ser rep~e~entado por S = {(d, t) Id = dia, t = momento do dia). Presu~iyelmente, a variável alpat6ria que interessa é X, a duração até queimar. Ob~er­ ve-se que, uma vez que s = (d, t) tenha sido observado, o cálculo · de X(s) não inçlui qualquer aleatoriedade. Quando s é especificado, X (s) fica completamente determinado. As du~. interpretações explicadas acima -podem ser aplicadas a este exemplo, como se segue. Em -(a), consideramos o experimento terminado Cdm a observação S = (d, t), O dia e a hora. 0 cálculo de X(s) é realizado -depois, abrangendo um& operação aritmética simples. Em (b),_ consideramos que o experimento somente estará terminado depois que X(s) tenha sido calculado · e um,... número; por exemplo, X(s) = 107 horas seja então considerado o resultado do exi>erimento. Pode-se salientar . que análise semelhante se aplicaria a qualquer outra variável que interessMSe, por exemplo, Y(s), a temperatura da sala no momento em que a lâmpada se tenh& queimado.

VARiÁVIEUS ALEATó,~ IAS UNiDRMENSiONAiS I 69 ( '

Exemplo 4.2.

Três moedas são atiradas sobre a mesa. Tão ·iogo as moedas repousem, !!), !fase / 1aleat6ria" do experimento tenni_lllOU. Um resultado simplea 8 poderia consistir ~a descrição deta: lhada de como e onde as moedas pousaram. · Presumivelmente, estaremos oomente intereesados em certas características numéricas. · •ciadas a este experimente. Por exemplo, poden2.mos avaliu: X(s)

Y(s) Z(s)

número de caras que apareceram, distância máxima entre duas moedas quaisquer, distância mínima das moedas a um bordo qualquer da mesa.

Se for a variável X que interesse, poderemos, como se explicou no exemplo anterior, Íncluir a avaliação de X(s) na descrição de nosso experimento ·e, depois, simplesmente afirmar que o espaço amostral associado· ao experimento é {0, 1, 2, 3), correspondendo aos valores de X. Conquanto muito freqüentemente venhamos. a adotar esta interpretação, é importante compreender que a contagem do número de caras é feita depois que os aspectos aleat6rios do experimento tenham terminado. · Comentário: Referindo-nos a variáveis aleatórias, empregamos quase sem exceção ~etras maiúsculas, como X, Y, Z etc. Contudo, quando falamos do valor que essas variáveis. aleatórias tomam, usaremos, em geral, letras minúsculas, como x, y, z etc. Esta é uma distinção muito importante a ser feita e o estudante pode bem parar para considerá-la. Por ·exemplo, quando nós falamos em escolher uma pessoa ao acaso, de alguma população designada, e medimos sua altura (em centímetros, por exemplo), poderemos nos referir aos resultados possíveis como uma variável aleatória X. Poderemos então formular várias questões sobre X, como indagar se P (X;;, 60). No entanto, uma vez que tenhamos escolhido uma pessoa e medido sua altura, obteremos um valor específico de X, digamos x. Por isso, não teria sentido indagar se P (x;;, 60), uma vez que x é ou não é ;;, 60 . Esta distinção entre uma variável aleatória e seu valor é importante e nós voltaremos a fazer referência a ela.

Quando estivermos interessados nos eventos associados a um espaço amostral S, verificaremos a necessidade de examin~r os eventos relativamente à variável aleatória X, isto é, subespaços do contradomínio Rx. Bastante freqüentemente, certos . eventos associados a S são "relacionados" (em um sentido a ser explicado) a eventos associados com Rx, na seguinte forma: I

Sejam um experimento 8 e seu espaço amostral S. Seja X uma variável aleat6ria definida em Se seja Rx seu contradomínio. Seja Bum evento definido em relação a Rx, isto é, B C Rx. Definição.

70 I PROBABILIDADE

Então, A será definido assim: (4.1)

A= {8 E SjX(s) E B) .

Explicando: A será constituído por todos os resultados em S, para os quais X(s) E B (veia Fig. 4.2). NesÍe c~o, direnios que A e B são event08 ~qu.ivalenle8.

Fig. 4.2

Coment6,rios: (a) Dizendo a mesma coisll, com :inenos rigor: A Ei B serão equivalentes sempre que ocorram juntos. Isto é, quando A ocorre, B ocorre; é inversamente. Porque se A tiver ocorrido, então um resultado 8 :terá ocorrido, para o qual X(li) E B ~~ portanto, B ocorreu. Reciprocamente, se B ocorreu, um valor X(s) terA sido observa-. Por·t anto, Rx = {O, 1, 2}. Seja B = {1}. Já que X'(IIT) = X('I'Il) =··.11 se, e somente se, X(s) = 1; temos que A= IIIT, THj é·equiva:lenteaB. Agora, daremos a seguinte importante definição. Definição. Seja B 1im evento no ·contra:dO'l'IlÍnio Rx. caso, definimos P(B) da seguinte maneira P(B)

A C

= P(A), onde A= Is

E SJX(s) EB}.

Nesse (4;2)

Explicando: Definimos P(B) igtl.al à pro·babilida:de do evento S, ;o q\~al é equivalente a B, no sentido ·da Eq. (4.1).

Ccnnentár (qs : (a) Estamos ·admitindo que probabilidaacs possam ser associadas a. eventos ·em S. Portanto, a. definição acima. torna possível atribuir .probabilidades a ev-entos associados a Rx em termos·de probabilidades·definidas sobreS. (b) É realmente possível demonstrar ·que P(B) deve ser definida tal como . e fizemos. Contudo, isto envolveria algumas dificuldades teóricas que desejamos evitar e, por isso, procedemos ·como acima. (c) Desde que na formulação ·da Eq. (4.2) .os eventos A e B se referem a. espaços amostrais diferentes, deveríamos realmente empregar notaÇão diferente ·qJ:ando. nos ·referíssemos a probabilidades definidas sobre S ·e àquelas ·aefinidaa .s 9bie Rx, digamos alguma. coisa tal como P(A) e Px(B). No entanto, .não .fare-

VARIÁVEiS ALEATÓRIAS UNDIOIMENSIONABS I 71

I

mos isso, mas continuaremos simplesmeJep•escrever .P(A.) e P(B). ·o contexto em que tais expressões apar"'çam tornará lcÍara a interpretação. · (d) As probabilidades associadas a eventos ~o .espaço amostrai (original) S são, de 'certo modo, determinadas por "{orças .fora de nosso controle", ou como às vezes se diz :•pela. Natureza". A comppsição de uma fonte radio~iiva •que erniW. partfculas, a dmpos1ção de um grande numero de pessoas ·que façam éhamaàa!l ·origem a 'Um fluxo telefónicas durante certa hora, e a agit~ção térmica que ·ou as condições atmosféricas que dêein ofigem a urna tempe5tade, ilustram esse aspecto. Quando introduzimos. uma variável aleatólia X e seu··contradomfnio Rx estl!,rnos induzindo probabilidades nos ev~ntos associados a ·'Rx, as quais serão estritamente determinadas se as probabiliclades associadas a ·e~entos em S forem especificadas.



I

'

I

Exemplo 4.4. Se as moedas consideradas 'llQ Ex. . 4:3 -forem "equilibradas", teremos P(HT) = P(TH) = 1/4. Poft;a'Il'OO, P(HI', TH) = 1/4 + 1/4 = 1/2. (Os cálculos acima são m:ria. lt!onsequência direta de nossa suposição fundaxrlental referente à :propriedade ·de equilíbrio ou simetria das moedas. Visto que ·o evento ·I X = 1}' é equivalente ao evento {HT, TH}, empregando Eq. (4.1); teremos. que P(X = 1) == P(HT, .TH) = l/2JI [Na. realida:de não 'e:lciste escolha para o valor de P(X = 1) .. coeren~e com a Eq.. (4.2), uma ·vez que P(HT~ ·Til) tenha sido determinada. 1l': neste sentido que probabi.!idades associadas a eventos de Rxj são induzida.'l.l

ii

a

1

Comentário: Agora qúe jil. -esta:belecebos a existência de ·uma funl,li!.o ·de probabilidade indozida. sobre o contradomiJio de X- Eqs. (4.1 ·e, 4.2)achamos . . I . .. conveniente .l!Jlprimir a natureza. 'funcional de X. Por isso, escreverein!ls ·(como fizemos no ·e~plo ·acima) P(X = 1) = 142. O que se quer dizer é que, um certo evento no ·espsço amostral S, a saber ·(HT, THI = (s}!X(s) = 11 •ocbrre com probabilidade 1/2. Da.! atribuirmos ·essa m~sma probabilidade, ao ·evento (X = 11 no contradom!U:ió. · Continuaremos a escr~ver expressões sernelha.n~s a P(X = 1), . I . P(X ~ 5) etc. t muitc imporlánle para o I,eitor compreender o que essas expressões reslm:ente representam. I . I

I

Uma v.ez que as probabilidad~s associadas aos vááos resultadoe (ou eventos) :no contradomin:io R~ tenham sido determinadas (mais precisamente, induzida.S), ignor.arbmos freqüentemente o espaço amostral original S, que deu orige~ a 'essas probabilidades. Assim, bo exemplo anterior, ·• simplesmepte estaremos inter~ssados em Rx = ' {O, 1, 2} e as probabilidaqes assCJciad'as (1/4, 1/'i, 1/4). O fato, de que ·essas probabilidades s~jam determinadas por uma função . de probabilidade definida ~obre o! espaço amostral original s, não nos interessa, quando estamos ap:enas interessados em estudar os valores da v~riável aleatória X. I Ao apresentar, em minúcias, lrmito~ dos importantes con:tieitos ·referentes a variáveis aleatórias, J julgamos conveniente distinguir 1

72 I I'ROBAB!UDADE

dois casos importantes: as variáveis aleatórias discretas e as variáveis aleatórias contínuas.

'De}z"-nição. Seja X uma variável aleatória. Se o número de val ores possíveis de X (isto é, Rx, o. contrado:riúnio) for finito ou infinito n umerável, denolninaremos X de variável aleat6rja discreta. Isto é, os valores possíveis· de X, podem ser postos em lista como x 11 ·x2, . ... , Xn. No caso finito, a lista acaba, e no caso infinito ntiínerável, a lista continua indefinidamente. Exemplo 4.5.

Uma fonte radioativa está eMitindo partículas a.

A. emissão dessa.s partículas é observada em um dispositivo contador, durante um período de tempo especificado. A variável aleatória seguinte é a que intere3sa: X = número de partículas

observada{~.

Quais são os valores possíveis de X? Admitiremos que esses valores são todos os inteiros não negativos, isto é, R.Tt: = (O, 1, 2 . .. , ·n, . .. }. Uma obje~ão com que j ~ nos defrontamos uma vez pode, novamente, ser levantada neste ponto. Pode-se argumentar que durante um es- , pecificado intervalo (finito) de tempo, é impossível observai· mais. :. do que, digamos N partículas, onde N pode ser um inteiro positivo muito grand~. Conseqüentemente, os valores possíveis para X realmente seriam: O, 1, 2, . .. , N. Contudo, torna-:se matematicamente ·mais simples considerar a descriÇãO idealizada feita .acima. De fato, sempre que adniitirmos que os valores possíveis de unta variável aleatória X sejam infinito numerável, estaremos realmente considerando uma: representação idealizada de X. À yista de nossas explicações anteriores da descrição prob~bi­ lística de eventos com um ,número finito ou infinito numerável de elementos, a descrição prol?abilística d~; uma variável aleatória discreta não apresentà.rá quakruer dificuldade. Procederemos da seguinte maneira:

Definição. Seja X uma, variável aleatória discreta. "Portando, Rz, o contradomínio de X, será formado no máximo por Um número infinito numerável de valores x1, x 2 ,. • • A calla poss[vel resultado x' associaremos um número p(xi) = P (X = x;), denominado probabilidade de . x;. ·Os .números p(x;), .i = 1, 2, . . . devem satisfazer às

.

VAR!ÃVIEOS ALIEAlJ"Ó~QAS UI\IIDiilfiiEI\ISOONA!S I 73

seguintes condições: (a) p(x;) ~ O para todo i,

(b)

L"'

p(x;) = 1.

(4.3)

oi=l

A função p, definida acima, é denominadajun;ão de probabilidade (ou função de probabilidade no ponto) dá.' V!i.riável aleatória X. A coleção de pares [.r;, p(.ri)], i= 1, 2, ... , é. algumas vezes denominada distribuição de probabilidade de X. Comentários: (a) A escolha. particular dos números p(x;) é presum!Velmentedeterminn.da a partir. do. função de probabilidade associada. aos eventos no espaço

Fig. 4.3 amostral S, no qual X. seja definida. Isto é, p(x;) = P[s IX(s) = :r;]. [Veja as Eqs. (4.1 e 4.2).] Contudo, já que es tamos interessados apenas nos valores de X, isto é, Rx, e as probabilidades IISSociadas a. . estes valores, estaremoS novamente suprimir,c:lo _a. natnre~a fun.cional de X. ·. .(Veja a Fig. 4.3.) Muito embora, tia. maioria dos casos, os números sejam de fato determinados a partir da distribuição de probabilidiules em algum espaço amostral subjacente s, qualquer conjunto de números p(:í:i), que satisfaçam às Eqs. (4.3), pode servir comi:> descrição proba.billstica apropriada de uma variável aleatória discreta. (b) Se X tomà.r apenas um número finito de : valores, digamos XlJ ••. ,xN, então p(x;) = O para i > N, e1 portanto, a série infinita na Eq. (4.3) se transforma em uma soma finita. (c) Podemos salientar, novamente, uma análogia com a Mecânica, ao considerarmos a massa total de uma. unidade distribuída sobre a reta real, com a massa total concentrada nos pontos x 11 X2, . . . Os ·números p(x;) representam a quantidade de massa localizada. no ponto x;.

(d) A interpretação geométrica (Fig. 4.4) de uma. distribuição de probabilidade é freqüeritemente útil.

p(x)

111

I ii Fig. 4.oll

J

~x

74 I PROBABIUDADIE

Seja Bum evento associado i variável aleatória X; isto é, B C Rx (Fig. 4.5). Suponha-se, especificamente, que B = I x,;1, x;w .. }. Daf, P(B)

= ..f'[s!X(s) E B] (porque esses eventos são equivalentes) :::, P[s!X(s) = x;i'j = 1, 2, ... ] .

=

.

f:p(r; ).

i=l ....1

(4. 4)

Explicando: A probabilidade de um evento B é igual à iíoma das probabilidades dos resultados individuais aSsociados com . B. Comentários: (a) Suponhamos qué a variável aleatpria disereta X possa tomar somente um número finito de vàlores, X 1 , ... : ; Xfif. Se os resultados forem igualmente prováveis, então teremos obviamente p(x,) == ... = p(xN) = 1/N.

(b) Se X tomar um número infinito numerável de vàlores, então é impossível ter todos os valores igualmente prováveis; porque · não poderemos satisfazer à condição . :E oo p (xi) = 1, se tivermos p (xi) = c para todo i. z= 1 , (c) Em todo intervalo finito, existirá no máxi:Íno um número finito de valores possíveis de X. Se algum desses intervalos não contiver qualquer desses valores possíveis, nós atribuiremos a ele probabilidade zero. Assim, se Rx = = [x,, x2 , ••• , Xnl e se nenhum xiE [a, b],entãoP [a"" X"" b] =O.

ExemjJlo 4.6. Suponhamos que urna vái~Ià' eletrônica . seja posta em um saquete e ensaiada. Admitiunos que a ·p:robabilidàde de que o teste seja positivo seja 3/4; daí, á p~ob~bilid~e _dé que s~2 ja negativo é igual a 1/4. Admitamos também que estej~os ensai:. ando uma partida grande dessas válvulas. ensaios : ~ontinuam até que a primeira vál~la positiva apareça. Definàmqs a variável aleatória, assim: X é o n,úmero de testes · neÚss.ârios para con- . cluil' o experimento. O espaço amostral associado ·a este experimento é:

Os

s ==: I+, - +, - - +, -

+, ... }.

Para determinarmos a dist~il:>uição. de probabilidáde de X, racioClp.aremos da seguinte forma: os valores possíveisde X são 1, 2, . .. n, •..• (estamos, obviamente, tratando com um espaço amostral idealizado). E será X = n se, e somente se, as pri:!neiras (n - l), válvulas forem negatjvas e a. '(.1.-ésima válvula for positiva. Se aceitarmos que a condição ·de 1Uill1 váLvula não influencie a condição de 'outra, poderemos escrever p(n)

==

P(X

=

n)

( 1)n-l.(43) ,

= 4

n = 1, 2, .. •;

VARIÁVEIS ALEATÓRIAS UNIDIMENSIONABS 1 75.

II

--

Para verificarmos que esses valores de p(n) satisfazem à Eq. (4.3) observaremos que \ ' ·

L..

n=l

p(n) = -3 ( \1

+ -41 + -161: + · · ·)

4

1

3

i1

=-~ --

=

.

1. ,

4 1\-_!_ .

4

I.

-I '

Comenl.árw:

I

Estamos empregand6 aqui o resultado de que a. série gpomélrica 1 +r+ r+ ... çonv~rge para _1.'(1 ~) sempre q~e· \r I < 1. ~ste é lUD resultado que será menciOnado mu1las vezes. Suponha-se que ,deseJemos calcular · P(A), onde A 6 defini.d.o como: 10 exphimento termina. depois 'd e um nú!l;leco paJ: de repetições.! Empregando n. Eq. (414); teremos~

t-

P(A) =

.. I L p(2ni = 71=1 i

I1

3

=

.2_ + 2_ 16

256

1

+ · ··

' 3

I

1

-:16 (1 +: ~ + .. ·) = 16 --~- = 5 . 1 - 16

i

I 4.3. A Distribuição Bi.nomial\ Nos prmamos capítulos, estJdaremos pormenorizadamente algumas variáveis discretas importantk Agora estudaremos apenas uma delas e, em seguida, a empregar~mos para ilustrar alguns conceitos importantes. \ . !

~eças

,~e

l~nha

Exemplo 4.7. Suponha que saiam uma de produção e sejam classificadas como defe~tuosas (D) ou como não-defeituosa~ (N), isto é, perfeitas. Admita que três dessas peças, da produção de um dia, sejam escolliidas ao acaso e Classificadas de acordo com esse esquema. O espaço amostral para es~se experimento, S, pode ser assim, apresentado: iI .

I

.

•I

S = {DDD, DDN,DND,NDD,NND,NDN,DNN,NNNJ. .

I

I

.

.

(Outra maneira de descrever s ,é como s = s 1 X Sz X s3' o produto cartesiano de St, S 2 e S3, onde c~daSi = {D,N}.) Suponhamos que seja 0,2 a probabilidade de uma peça sér, defeituosa e 0,8 a de ser não-defeituosa. A4rnitamos q~e essas probabilidades '

76

i

PROBABUUDADIE

sejam as mesmas para cada peça, ao menos enquanto durar o nosso estudo. Firialmente, admita-se que a classificação . de qualquer peça em particular, seja independente da classificação de qualquer outra peça . . Empregando essas suposições, segue-se q~e as probabilidades associadas aos vários resultados do espaço ariwstral S, como se explicou acima, são:

(0,2) 3 ' (0,8)(0,2) 2 ' (0,8)(0,2) 2 ' (0,8)(0,2) 2 ' (0,2)(0,8) 2 ; (0,2)(0,8) 2 ; (0,2)(0,8) 2 , (0,8) 3 . Geralmente, nosso interesse não está. dirigido para os resultados .individuais de S. Ao contrário, desejamos tão-somente cànhécer qiuzntas peças defeituosas seriam encontradas . (não interessà:ndo . a ordem em que tenh'am ocorrido). Isto é~ desejamos estudar a variáv~l aleirtóriaX, a qual atribui a cada resultado s e S o número de peças defeituosas encontradas em s. Conseqüentemente, o conjunto dos valores possíveis de X é {0, 1, 2, 3}. Poderemos obter a distribuição de probabilidade de X, p(xi) = = P(X = xi), .da seguinte maneira:

X = O se, e somente se, ocorrer NNN; X = 1 se, e somente se, ocorrer DNN, NDN, ou·NND; X= 2 se, e somente se, ocorrer DDN, DND, ouf!DD; X = 3 se, e somente se, ocorrer DDD. (Note-se que {NNN} é equivalente a {X= O} etc.) Ent'ão,

p(O) = P(X =O)= (0,8) 3

p(l) = P(X = 1) = -~ (0,2)(0,8) 2 ,

p(2) = P(X = 2) = 3(0,2)2 (0,8), p(3) =P(X = 3) = (0,2) 3 • Observe que a soma dessas probabilidades é igual a 1, porque .a soma pode ser escrita como igual a (0,8 + 0,2) 3 • Comentdrio: A explicação dada ilustra como as probabilidades em um contradomínio Rx (neste caso {0, 1, 2, 3}) são induzidas pelas probabilidades defmidas sobre o espaço amostral S. Porque a hipGtese de que os oito Í esultados de S = {DDD, DDN, DND,NDD,NND,NDN, DNN, iiNN} tenham as probabilidades daçlas no Ex. 4.7, determinou o valor de p(x) para todo x e Rx.

VARIÁVEiS AlEATÓROAS UI\!DD!MIENSOONAHS I 77

Vamos agora generalizar as noções introduzidas no ex. anterior. Definição: Consideremos um experimento E e seja A algum '"evento associado a E. Admita-se que P(A) = p e conseqüentemente P(A) = 1 - p. Considerem-se n repetições de E. Daí, o espaço amostral será formado por todis as seqüências passiveis I a1, á2, . . . , an I, onde cada a; é ou A ou A, dependendo de que tenha ocorrido A ou A na i-ésima repetição de E. (Existem 2n dessas seqüências.) Além disso, suponha-se que P(A) = p permaneça a mesma para todas as repetições. A variável aleatOria X será assim definida: X = número de vezes que o· e-vento A tenha ocorrido. Denominaremos X de va- · riável aleatória binomial, com parâmetros n e p. Seus valores possíveis são evidentemente O, 1, 2, ... , n. (De maneira equivalente, diremos que X tem uma. distribuição bmoinial.)

As repetições individuais de E serão denominadas Provas de

Bernouilli.

Teorema 4.1. Seja X uma variável binomial, baseada em n repetições. Então, P(X = k) = (

~) p '(1- Pt-lc, 1

k =O, 1, ... , n.

(4.5)

Demonstração: Considere-se um particular elemento do espaço amostral de S satisfazendo à condição X = k. Um resultado como esse poderia surgir, por exemplo, se nas primeiras k repetições de E ocorresse A , enquanto nas últimas n- k r~petições ocorresse A, · isto é,

AAA· · · AÃAA· ··A. k

n-· k

Como todas as repetições são independentes, a probabilidade desta seqüência particular seria plc(l - p)n-k, mas exatamente essa mesma probabilidade seria associada a qualquer outro resultado para o qual X = k. O número total de tais resultados é igual a {~), porque deveremos escolher exatamente k posições (dentre n) para o evento A. Ora, isso dá o resultado acima, porque esses (~) resultados são todos mutuamente excludentes.

·........ ·

78 I PROBABILIDADE

Comentários: (a) Para verificaJ' nO!lflO resultado, . ~bªervemos que empre. >· gando o teorem,a binomial temos . .. ·

I:~~o P(X = k) =

Lk=O

m

pk(l ~ p)n~~

=;

[p

+ (1 '- p)]n = "1" =

1,

como era de se esperar. · Como as probabilidÍld~ '(k) pk(f:...:. p)ii-k obtid&S . pelo desenvolvimento da expressão binomial[p (i C:: p)];.;/eí'a+ecelle a deri'omi~ nação de distribuição binomial. . ' · .

São

+

(b) Sempre que realizarmos repetiÇões indep.eridentes_' de uni:experiinento e estivermos interessados somente em uma dicotOmia- defeituoso ou nãc:i-def.eic tuoso (perfeito).; dureza acima ou abaixo de certO padrão;, nível.,de ruído em um sistema de comwúcações acima ou abaixo de ~~ limiar ,pr~estab~lecido ~ estaremos virtualmente tratando com um espaço amostrai nÕ qual podemos definir uma. variável aleatória binomial. ·Enquanto as con:diçÕes da experimentação permaneçam suficientemente · estáveis, · .de· modo que a probabilidade de . algum atributo, digamos A, permaneça constante, poderemos empregar modelo aciina.

o

(c)

Se n for pequeno, os termos individuais da distribuição binomial serão r~:lativamente fáceis de calcular. Contudo, se n for relativamente grande, os cálculos se tornam bastante incómodos. Felizmente, foram preparadas tábuas. de probabilidades bin01piais; existem várias dessas tábuas. (Veja o . Apêndice.)

Exemplo 4.8. Sup@ha-se que uma válvula eletrônica, instalada em determinado circuito, tenha probabilidade 0,2 de funcionar mais do que 500 horas. Se ensaiarmos 20 válvulas, qual será a probabilidade de que· delas, exatamente k, funcionem mais que 500 horas, k = o, 1, 2, ... ' 20? P(x)

I

'I

L-~0-+1~2~3~4~5~~6-!7~8~9~1~0~1~1~1~2~13~14~15~16~1=7~1~8-x I

Fig. 4.6

Se X for o número de válvulas que funcionem mais de 500 horas, admitiremos que X tenha uma distribuição binomial. Então, P(X = k) = CZ2) (0,2)!

a ou

T~ (~1) p~(l- PI)nl-'r(k ~r) p;-r(l-' P2)"2-k+r (4.6)

P or exemplo, se P1 = 0,2, P2 = 0,1, n1 = n2 = 10 e k bilidade acima fica, depois de um cálculo direto:

Comentário:

Sup.onha-ose que p 1

= P2·

= 2, a proba-

Neste . caso, ii; Eq. (4.6) se reduz a

p~ (1 - pi)n-k, porque agora a .variável aleatória X tem . uma dist~ibuição binomiaL Para verificar que é a.Ssim, note-se que poderemos escrever, (desde

· (k)

que n1

+ 112 =

n): P(X

= k) =· p~(l-

p 1)n-k

~ (~1 ) (k~ ,.)

Para verificar que a SQ~~ acima é igual a (~), bast& comparar os coeficien~ d as potências de xl,; .ehi ambos os membros da idéntidade (l +. x)n 1 (1 + x)" 2 ~

= (1. + x)nl+n2. ··4.4.

Variáveis Aleatórias Conttífl'lluas

Suponha-se que o · contradonúnio de X seja formado por um número finito muito grande de val~res, digamos todos OS . valores X no intervàio O ::::; x i, da forma: O; 0,01;. 0,02; ... ; 0,98; 0,99; 1,00: A cada um · desses valores .está associado um número não-negativo p(x.) ;, P(X =:= Xi), i.= 1,· 2,·: .. , cuja soma é igual a 1. Esta operação está represen~ada geometricamente na !"ig. 4. 7. . -

s

VA.RO Á VEUS A. LEA.TÕR8A.S UN8Dii\liEN SDONA.iS

I 81

J á. salientamos anteriormente que poderia ser matematicamente ma.iB fácil idealizar a apresentação probabilística de X, pela suposição de que X pudesse tomar P!ll) tO para todo x, ·

(b) I+ ~ f(x ){lx = 1, -

00

.

(4.7)

.

(c) p~a quaisquer a, b, com -

oo

O e b > O, que se pode dizer do maior valor que b pode tomar?' (Veja a Fig. 4.16.) .

Fig. 4.16

4~

( A percentagem de álcool (100 X) em certo composto pode ser considerada ú'ma variável aleatóri~,_Jmde X, 1f < X < 1, tem a seguinte'fdp: j(x)

= 20x3(1 -

x),_

O < x < 1.

(a) E>tabeleça a expressão da fd F e esboce seu

~áfico.

(b) Calcul~ P(X ~ 2/S). (c) .Supollha qu_!l o preço de venda desse composto dependa do conteúdo ·de álcool. Especificamente, se 1/3 < X < 2/3, o composto se vende por C1 dólares/galão; caso contrário, ·ele se vende por C2 dólaresjgalão. Se . o custo for c; dólares/galão, calcule a distribuição de probabilidade do lucro líquido por galão.

r:Q 4.15. Seja X uma variável aleatória contín]ia, com fdp dada por

J

f(x)

ax,

a,

O.:'S.x.:'S.l, 1.:'S.x .:'S. 2,.

+

-ax 3a, 2.:'S. x .:'S.3, O, para quaisquer outros valores.

I·.

(a) Determi.ne a cot;l,l:Jtll.nte a. (b) Determine a fd F e esboce. o seu gráfico. (c) Se X 1, X2 e X a forem til\8 observações independentes de X, qual será a proba~ bilidade de, exatameilte, um desses três ·números ser maior do que 1,5?

~

elétric~

·~ariável aleatória

O diâmetro X de um cabo supõe-se ser uma contmuJ X, com fdp f(x) = 6x(l - x), O ~ x ::::_ 1. " ·

(a) Verifíque que essa expressão é uma fdp e ·esboce o seu gráfico. (b)

Obtenha uma expressão para a fd de X -e esboce o seu gráfico.

(c) Determine um número b tal _que P(X (d) Calcule P(X .:'S.l/211/3 < k< 2/,3).

< b)

= 2P(X

> b).

VARDÃVEDS

A~EATÕRIAS UNIDIMENSIONAIS I 95 I

4.17. Cada uma das seguintes funç~es representa a. fd de mna. va.riá.vel alea.tória continua. Em cada caso, F(x) = O pa.ra x < a. e F(r) = 1 pa.ra x > b, onde [a, b] é o interva.lo indicado. Em ca.da. c+o,

6).

I

+

4.20. Suponha que X seja uniforlnemente distribulda sol;lre l-a, a], onde a > O. Quando posslvel, determin~ a de modo que as seguintes relações sejam satisfeitas: (a) P(X

>

1) =

..!_ •

(d) P(X


100, ·e zero para quaisquer outros valores de x. (a) .Qual ~erá a probabilidade de que uma válvuia dure menos de 200 horas, se soubermos que ela ainda está funcionando após 150 horas de serviço? (b) Se tr~ dessas válvulas forem instaladas em um conjunto, qual será a probabilidade de que exatamente uma delas tenha de ser substituída após 150 horas de serviço?

(c) Qual será -o número máximo de válvulas que poderá ser colocado em um conjunto, de modo que exista uma probabilidade de 0,5 de que após 150 horas de serviço to~as elas ainda estejam funcionando? 4.26. Um experimento consiste em n tentativas independentes. Deve-se admitir que por catÍsa da "aprendizagem~', a probabilidade de :...o bter um resultado favorável cresça com o número de tentativas realizadas. Especlficamente, sliponha que P (sucesso na i-ésima repetição) = (i + 1)/(i + 2), i = 1, 2, . . . , n. (a} · Qual será. a probabilidade de ter ao menos 3 resultados favoráveis, em 8 repetições? '(b) Qual será a probabilidade de que o primeiro resultado favorável ocorra na oitava repetição? 4.27.

Com referência ao Ex. 4.10:

(a} Calcule P(X = 2), se n = 4. (b) Para n arbitrário, verifique que P(X = n- 1) = P (exatamente uma

tentativa mal sucedida) é igual a [1/(n

+ 1)] L?= 1 (1/i).

4;28. Se a variá.vel aleatória K fór uniformemente distribuída sobre (O, 5), · qual será. a probabilidade de que as raízes da equação 4x2 + ·4xK + K + 2 = O' sejam reais? · 4.29. Suponha que a variável aleatória X tenha valores possíveis, 1, 2, 3, ... e que P(X =r)= k(1- (3}r- 1, O < (3 < 1.

(a) Determine a constante k. (b) Ache a moda desta distribuição (isto é, o valor de r que tome P(X =r) a maior de todas).

4.30. Uma variável aleatória X pode tomar quatro valores, com probabilidades (1 3x)/4, (1 - x)/4, (1 2x)/4 e ·(1 - 4x)/4. Para que valores de x é esta uma distribuição de probabilidade?

+

+

ij .!

·I

;(., •t -!

-;

>i

,,

-; !

·. ~

Fun_ções de Variáveis _Aleatórias -Í

Capítulo 5

Suponhamos que o raio do orifício de um tubo calibrado com precisão X seja conside~ado uma variável aleatória contínua com fdp j. Seja A = 1r X 2 a área da secção transversal do orifício. É intuitivamente evidente que, uma vez que o valor de X é o resultado de um experimento aleatório, o valor de A também o é. Quer dizer, A é uma variável aleatória (contínua) e desejamos obter sua fdp, que denotaremos g. Esperamos, Úma vez que A é função de X, que a fdp g seja de algum modo deduzivel do cànhecimento da fdp j. N;t:Ste capítulo, tr11taremos de' problemas desse tipo geral. Antes porém de nos familiarizarmos com algumas das técnicas específicas necessárias, vamos exprimir os conceitos acima mais rigoro!lalllente.

Seja E um experimento · e ~ja S um espaço amostral associado

a S. Seja X uma variável aleatória definida em S. Suponha-se que y

= H (x)

seja uma função real de x.

Então, Y

=

H(X) é uma

Fig. 5.1

variável aleatória, porque para todo s E S, um valor de terminado, a saber y= H [X(s)l. Esquematicam~nte, . Fig. 5.1. -

98 I PROBABILIDADE

Como anteriormente, denominaremo~ Rx o contradomínio de X, o conjunto de todos os valorc;; possíveis da função X . Semelhantemente, definiremos R y como o contradomínio (la variável aleatória Y, o conjunto de todos os valores possíveis de Y. Anteriormente, já definimos [Eq. (4.1)] a noção de eventos equivalentes em S e em Rx. Agora, estenderemos esse conceito na seguinte forma natural. Definição. Seja C um evento (subconjunto) associado ao contradomínio RY, de Y, como se explicou acima. Seja B C Rx definido assim: B

= {-;?:E

Rx: H(x)

E C}.

(5.1)

Em palavras: B é o conjunto de todos os valores de X, tais que H(x) E C. Se B e C forem relacionados desse modo, os denominaremos eventos equivalentes. Comentários: (a) Como anteriormente, a interpretação não formal disso é que B e C serão eventos equivalentes se, e somente se, B e C ocorrerem conjuntameu te. Isto é, quando B ocorrer, C ocorrerá, e inversamente. (b) Suponha-se que A seja um evento ·ai;sociado a S, o qual é equivalente a. um evento B associado a Rx. Então, se C for um evento ru,sociado a Ry o qual é equivalente a B, teremos que A será equivalente a C.

(c) B também importante compreender que quando falamos de eve~tos equivalentes (no sentido acima), esses eventos são associados a diferentes espaços , amostrais.

Exemplo 5.1. Suponha-se que H(x) = 1rx 2 , tal como na Seç. 5.1. Então, . os eventos B: {X > 2} e C: { Y > 47r l são equivalentes. Porque, se. Y = 7r X 2 , então {X > 2} ocorrerá se, e somente se, { Y > 47r l ocorrer, desde que X não pode tom.ar valores negativos no caso presente: (Veja a Fig. 5.2.) y

Fig. 5.2 i:

i

L J

c

Cvmenlário: B também importante salientar que uma notação abreviada está sendo empregada quando escrevemos expressões tais como !X > 2} e I Y > 471"}. Aquilo a que nos estaremos referindo, naturalmente,· são os valores d, X • oo

volo•~ do Y,

llilo '•

[•[XI•: >

2[ • [•[Y(•)

> 4,L '

FUl\IÇÕ"ESj DE VARI'Á VEIS ALEAJÓRIAS / -99_:.

Tal cqmo fizemos no Cap. definição.

I

4,1[Eq.

(4,2!], dar~~~s- ~ j~~~7

i

.

. ......

:·..;:,..:; .. .

...

Definição: Seja uma variável! al~atória X defiil:id~ n~ , e~~~~­ amostral S. Seja Rx o contradomínio de X. ' Seja 1/ rumaruriÇã:~' real e considere-se a variável aleat6Ha y = H(X) com contrii.dólníill~ . I . . . . R,y. Para qualquer evento C C RIY, definiremos P(C) ~ssim: : . ··,,_~:: P(C)

=

P[ {x E Rx: H(x) E C)].

(5,2)

.

Em linguagem corrente: A p~obabilidade de um ~vento associado ao contradomínio de . Y é d~finida como a probabilidade do evento equivalente (em termos de X), como indicado pela Eq. (5.2).

.

!

-

Comerúár.ios: ' (a) A definição acima jtorna possível calc~_ar probahilidades que envolvam eventos associados a Y, se ·conhecermos ·a distribuição .de probabilidade de X e se pudermos determinar o erento equivalente em apre_ço~ (b) .Uma vez que explicamos anterioxhente [Eq. (4.1 e 4.2)] como relacionar probabilidades associadas a Rx com prob:abilidades associadas a S, podemos rei escrever a Eq. (5.2) assim: I

.

P(C) = P[(x E Rx: H(x) E ClJ = P l (s E S: H[X(s)] E C}]. .

I Exemplo 5.2.

contínua

v ·

(Uma . J;~. e-

I

~oro

fdp

·I j(x)

= e-,

in~egração I

dx = I

;'

x

simples

> O. confirma que

1.)

Suponha-se que. H(x) = 2x + 1. Em conseqüênbia, I;lx = { x Ix > O), enquanto RY = {y Iy > 1). Suponha-se, que. o evento C seja definido deste modo: C= { Y;::: 5). I --,4 ---J O para

.

.

.

Comentário: O evento A, :rereri~o acima, equivalente ao evento {Y ~ y I é apenas {X ~(y- 1)/3}.

i

·

. Existe uma outra maneid, ligeiramente diferente, de obter o mesmo resultado, a qual será ,de utilidade mais tarde. Consideremos novamente ·j · . . . . G(y)

= P(Y ::5

onde F é a fd de X;

y)

=P

i~to

(X:::; y ;l) = F(y; 1),

é,

F(x)

~ P(X_~:::; x):

A fim de calcular a derivada de G, G'(y), ·empregaremos a regra • I . . . de denvação de função, coino segUe: . . . 1

dG(y) == dG(y) . du , . onde dy du dy . I. · . . Portanto, .

u

= Y- 1.. 3

1

·

G'(y) = F'(u) · _!_ = f(u) · _!_ = 2 ( Y 3 . 3 . . 3

1

·I

~

) . , . . 3

como .anteriormente. A fdp de Y teip. 9 gráfico apresentado. na Fig. 5.6. (Para verificar o cálculo, ob4 serve que j; g(y)dy = L) I ')' y= I y=4 Exemplo 5.7. Suponhamos que Fig; 5.6 uma variável aleatória contínua tem I •• a fdp . como foi dada no Ex. 5.6. ·.·· SeI ·. '· ja H(x) = e-. Para achar a fdp de Y = H(X), · procederemos como se mdica a segwr (veja a /Fig. 5.7):

T~l) .

I

y) = P(e-x ::5 y)' P(X ~ ~Iny) = ~ · i · 2xdx

G(y) . = P(Y

1--:

::5

1

(-~ I

·

y)2.

-ln11

.

l'

104

I PROBABIUOADE

O pára O y < L ..[Observe q~e algébricó para g(y) está C:orreto, pois que ln y< Opii,ra l/e < O gráfico de g(y) está esboçado na Fig. 5.K. . . Daí, g(y)

= G'(y) = -

~ricontramos que g(y)

::> Q pari!, l/e


xo. y

Fng. s.12 Comentário: A distribuição de probabilidade de Y constitui um exemplo de uma distribuição mista. Y toma o valor zero com probabilidade não-nula 0 também toma todos os valores em certos, intervalos. (Veja a Seç. 4.6.)

[ f Ui\l ÇÕIES DIE VA!RiÃVIEiS A L IEATÓ!RiAS I 109

( "

I

5. 11 . A energia radiante (em Btu/hora/pé 2 ) é dada p.ela seguinte função da

f

t emperatura T (em escala Fahrenheit): E = 0,173 (T/100) 4 • Suponha que a temperatura T seja considerada uma variável aleatória contínua como fdp

r

·1

I

J.(l)

O,

pl!.i'e.

outros quawquer vll!lorea.

Estabeleça a fdp da energia radiante·E.

t\~ Para medir velocidades do ar, utiliza-se um tubo (conhecido como tubo estático de Pitot), o qual permite que se meça a pressão diferencial. Esta pressão diferencial é dada por P = (1/2) dV 2 , onde d é a densidade do ar e V é a velocidade do vento (mph) . Achar a fdp deP, quando V for uma variável aleatória uniform~mente distribuída sobre (10, 20) . ·

~W~\Suponha que P(X .;; 0,29) = 0,75, onde X é uma variável aleatória contín\1-'lJ?lcom alguma distribuição definida sobre (0, 1) . Quando Y = 1 - X, determinar k de modo queP(Y .;; k) = 0,25 .

.,

I I

____)

..·

I

Variáveis Aleatórias de Duas ou Mais Dimensões · Capítulo 6 6.1.

Variáveis Aleatórias Bidimensionais

Até aqui, em nosso estudo de variáveis aleatórias, consideramos apenas o caso unidimensional. .Jsto é, o resultado do experimento seria registrado como um único número x.

· -·,:.;1;~~~~=~;~z~;;:r~:B~·* ·

-;(~fiít1rceã;:;:.~a~:!~::"!-~:~

a dureza H e a tensão de -;~ptu;~· T de uma peça manufaturada de aço poderão interessar, e nós consideraríamos (h, t) como um único resultado experimental. Poderíamos estudar a estatura H e o peso w ·'. de alguma pessoa escolhida, o que forneceria o resultado (h, w). Finalmente poderíamos observar a altura total da chuva R e a temperatura T em uma certa localidade, durante um mês especificado, dando origem ao resultado (r, t). Faremos a seguinte definição formal. Definição. Sejam & um experimento e S um espaço amostral

s X y

Fig. 6.1

associado a &. Sejam X = X(s) e Y = Y(s) duas funções, cada uma associando um l!Úmero real a cada resultado s E S (Fig. 6.1). ~~

-

VAR IA VEIS ACE"ATOR I AS

I

-

DU~S OUIVIA1S IJIMENSOES

I 111

como no caso não estaremos interessados na natureza funcional de X(s) e Y(s), nos valores que X e Y tomam. Também falaremos do contradomínio de Y), a .saber Rxx y, como o conjúnto de todos os valores possíveis de (X, Y). caso bidimensional, por exemplo, o con(X, Y) será um subconjunto do plano euclidiano. C.ada resultado tradomínio de . I . X(s) , Y(s) pod,erá ~er represent~do conto u~ po!lto (~, y) no plano. Tam~ém supriremos a natureza funcional de X Y, ao escrevermos, por exemplo, P [X 2 a, y b] em lugar de P[X(s) a, Y(s) b]. · . . T al como . no caso unidimensional, distinguiremos dois tipos básicos de variáveis aleatórias: as variáveis aleatórirul discretas e as contínuas.

2

2

e

21

. I I . Definição. ·ex, Y) será uma !variável aleatória discreta bidimensional se os valores possíveis de (X, Y) forem finitos ou infinitos numeráveis. Isto é, os valqres pos~íveis de (X, Y) poséam ser repre~entados por (x;, Yi), i~\1,2, -[- .,n, .. .; J= 1,2, , .. ,m .. . , (X, Y) será .uma variável aleatória contínua bidimensional se (X, Y) puder tomar .todos os vai6res em algum conjuhto não-numerável do plano euclidiano. [Por rxemplo, se (X, Y) t~m-ar todos os valores no retângulo {(x; y) I a ~ x ~ b, c ~ y :s; d} ou todos os valores no círculo {(x, y) Ix 2 + y 2 1 ~ 1), poderemos diier que (X, Y) é un:;a variável aleatórià bidimen~ional contí~uaJ

Comentários: (a) Falando não ri~orosainente, (X, Y) . será uma variável aleatória bidimensional se ela representat o resultado de um experimento aleatório no qual tenhamos medido os dois caracteh sticos numéricos X e Y .. (b) Pode acontecer que um dos 9omponentes_ de (X, Y), por exemplo X, seja discreto, enquanto o outro seja conrínuq. No entanto, em muitas aplicações trataremos somente com os casos apresFntadcis acima, · nos quais ·ambos os componentes serão discretos ou ambos serão contínuos. · (c) Em muitas situações as duas v~riáveis X e Y, quando considera.das conjuntamente, constituirão de maneira m~ito natural o· resultado de um único experimento, como se · ilustrou nos exem~los acima. Por. exemplo, X e Y podem representar a estatura e o peso do mesbo indivíduo etc. Contudo, esta espécÍe de conexão não existe necessariamente.! Por exemplo, X poderá ser a corrente que passe em um circuito em dado moxfento, enquanto Y poderá spr a temperatura da sala naquele momento, 1e podetemos considerar, então, a variável ale.a'tó-.. ria bidimensional (X, Y). Em quase to'das as aplicações existe Ullia razão bastante. definida para .considerar X e Y cdnjuntamente. ·

Procederemos de modo análo,go ao 1caso ção de probabilidade de (X, Y). ' 1

unidimei,~Sional ao expor

a distribui-

112 I PROBABILIDADE .

.

(a) Seja (X, Y) uma variável alea:tória discreta bi'dimensional. A cada resultado possível (x.;, y;) aSsociaremos um número p(x;1 y;) representando P(X = x;, Y = y;) , e satiSfazendo às seguintes condições: _ · . . _ ,...;-)~ Definição.

(1) (2)

p(x;, y;)

~O

para todo (x, y), .

L., L.,

p(x;, Yi)

.o. \ = 1. . . ~C-D )

i=l i=l

·

~

.í~ ~

..

u \...-- \ - ~""jj(90~ir

(6.1)/l \ !'i, ' o c:L.(

{JtAO..:;-

· A função p definida para todo (x;, yj) ·no coutradominio de (X, Y) é denominada a junçãÓ de probabilidade de (X, Y), · O ' conjunto dos ternos [x;, y;, p(x;, Yi)], i, j = 1, 2, ... é, algumas vezes; denominado distribuição de probabilidade de (X, Y). (b) Seja (X, Y) uma variável aleatória contíJ:lua tomando todos os valores em alguma região R do plan~ . e\:iclidiano. A junção densidade de probabilidade con}unta j é ui:na função que satisfaz às seguintes condições: · . ~

(3) j(x, y) (4)

~

O para todo (x, y) E R

jjJ(x, y) dx dy =

l.

cfÚ

p

.___--

(6.2)

R

Comentários: (a) A analogia .com a distribuição de massa é também . aqui evidente. l'emos uma massa unitária distribuída sobre uma região no plano. No caso discreto, toda a massa estil. concentrada em um. número finito ou infinitQ · munerável de lugares 6om mruisa p(x;, Yi) situada em (~, y;). No caso. ccintíiluo, a massa é encontrada em todos ·os pontos de algum conjunto não-Jiuinerável; no · · . plano. (b) A condição (4) afirma que o volume total sob a superfície dada pela equação z = j(x, y) é igual a 1. (c) Como no caso unidimensional, j(x, y) não representa a probábilidade de. coisa alguma. Contudo, para Ax positivo e Ay _suficienteinente pequeno, j(x, y) Ax Ay é aproriroadamente igual a P(x :S. X_::: x Ax; y :S. Y :S. y Ay).

+

+

(d) Como no caso unidimensional, adotaremos a convenção de que j (x, y) = O se (x, y) EE R. Por isso, poderemos considerar j definida para todo (x, y) no plano e a condição (4) acima se torna f_+.,"' J_+.,"' j(x, y) dx dy = 1. (e) Também suprimiremos a naturtf;a funcional da variável aleatória bidimensional (X, Y). Nós deveríamos sempre escrever ·expressões da forma P (X(s) = =· x;, Y(s) = Yil etc. No entanto, se nossa notação abJ:eviada for compreendida, nenhuma dificuldade deve~á ~urgir.

W Também, como no caso unidimensional, a. distribuição de probabilidade de (X, Y) é realmente induzida pela. probabilidade dos eventos associados ao ~ .paço amostral original S. Contudo, estaremos interesSados principalmente nos valores de (X, Y) e, por isso, trataremos diretamenre com o coritradomínio de (X, Y). Não obstante, o leitor não deverá p.erder de vista o fato de que se P(A)

.

I

VARIÁVEiS ALEATÓRiAS DE DUAS OU MAOS DIMENSÕES I 113

~

for especificado para todos os eventos A C S, então a probabilidade associada aos eventos no contradomínio de (X, Y) ficará determinada. Isto é, se B estiver no contradomínio de (X, Y), teremos P(B)

r

= P{[X(s),

Y(s)] E B}

= P{si[X(s),

Y(s)] E B}.

Esta última probabilidade se refere a um evento em S e, conseqüentemente, determina a probab.ilidade de B. De acordo com nossa terminologia anterior, B e (si(X(s), Y(s)] E Bl são eventos equivalentes (Fig. 6.2). .

I

!

I

,. ! . I Fig. 6.2

1 i

Se B estiver no contradomínio de (X, Y), teremos

1

P(B) =

i

I

LL p(x;, Yj),

(8.3)

B

"!

~ (X, Y) for discreta, na qual a soma é feita para todos os índices (1:, })' para os quais (x;, y;) E B. E P(B) =

v

I

Jf

j(x, y) dr dy,

(6.4)

B

i

s.e (X, Y) for contínua.

J

EXim!plo 6.1. Duas linhas de produÇão fabricam um certo tipo de peça. Suponha que .a capacidade (em qualquer dia) seja 5 peças nà. linha I e 3 peças .n a linha II. Admita que o número de peças realmente produzidas em qualquer lill;ha seja uma variável aleatória, e que (X, Y) represente a variável aleatória bidimensional quê fornece o número de peças produzidas Pela. linha I e a linha II, respectivamente. A Tab. 6.1 dá a distribuição de probabilidade êonjunta de (X, Y). Cada casa representa

'l

.I

'I

I

i :1

.I I

I

j

= P(X = x;, Y = y;). = 2, Y = 3) = 0,04 etc.

p(x;1 y;)

Assim, p(2, 3) definido' como

= P(X

Port:J.nto, se B for

B = { l\fais peças são produzidas pela linha I que pela linha II l. encontraremos q)le P(B)

= 0,01

+ 0,03 + 0,05 + 0,07 + 0,09 + 0,04 + 0,05 + 0,06 + 0,08 + 0,05 + 0,05 + 0,06 + 0,06 +0,05 = 0,75.

114 I .P.ROBABI,LID.ADE

o o

o

1

0,01 0,01 0,01

~

1

3

0,01 0,02. 0,03 0,02

0,03 0,04 (o05

I

0,05 0,05 0,05 0,00

~

4

5

0,07 0,06 0,05 0,()6

0,09 0,08 0,06 0,05

. ,. Exemplo 6.2. Suponha que um fabricante de lâmpadM esteja interessado no número de lâmpadas encome~dadas a ele durante os meses de janeiro e fevereiro . . Sejam X e Y, respectiv!i.mente, o número de lâmpadM encomendadas durante esses dois meses. Admitiremos que (X, Y) seja uma variável . aleatória contínua bidimensional, com a seguinte fdp conjunta (veja Fig. 6.3): '

.-.'::.

'

'

.-'--

.

.

)

.

j(x, y) ~-~-\se 5.000 ::; x ::; 10.000 e .4.000 ::; = O · )para quaisquer outros valores.

.

y::; 9.000,

y

-r------+-------~-----x

x=5000

X=

10.000

!Fig. 6.3

Para determinar c, levaremos em conta o fato de que

J

+~ f+~

_..

_..

j(x, y) dx dy = 1.

....

Por conseguinte,

f_

+ a> ; · +., ..

- .,

j(x, y) dx dy =

19,000 110.000 f(x, y) dx, dy ·

4.1100

5.00ll

·.

I

= é[5.000]!.

I ·r

·l I

V~I'!I~VEIS ALEATÓRIAS,, DE DUAS' OU MAIS Dli\I!ENSÕ~7,_1 'l~:::~nal?/, .. ,.? ,, __,, - - I m · dependen· t es. nao !I .

Comentário: Da definição de distribuição de probabilidade margiri.al (quer no. caso discreto, quer no caso contínJo) torna-se evidente que a distribuição de I probabilidade conjunta determina, uniyocamente, a distribuição de probabilidade Úlarginat Isto é, do conhecimento df fdp conjuntá j, poderemos obter as fdp marginais g e h. No entanto, 1J. rec!ptoca nAo é verdadeira! De fato, em geral, o conhecimento das fdp marginais g e não determina fdp conjunta j. Somente ·qUji.Ildo X e Y forem independentes issô será verdadeiro, porque nesse caso teremos . I f(x, y) = g(x)h(y).

'hl

a

i ·

··

.

O teorema séguinte mostra que nossa definição de variáveis aleat6ri8.'3 independentes é coerente cbm nossa d~fi~ção anterior de even1 . tos independentes. !

·,

Teorema 6.2. Seja (X, Y) Jma variável aleatória bidimensional. Sej.am A e B eventos cuja ocorrência (ou não ocorrência) dependa de X e Y, respectivamente. (Isto é, A é um -subconjunto---de apenas . ! .. . Rx, :o contradomínio d~__X; enq~anto B--é um subconjunto de RY, o contradomínio de Y.) ;ElJ.tão, sf X e Y forem variáveis aleatórias independentes, teremos · P(A "() B) ._= P(A)P(B). .. ... ·.

'

'-...

Demonstração (apen8.'3 para

.

::·.

)

P(A

n B) =

ff 4nB

~

o c8.'3o t· ··- - ..

I

contínuo):

- .

j(x,_y)! dx dy = :

}!

g(x)h(y) dx dy

A..nB~

I

=

f

}A

g(x) dx_r h(y) dy = P(A)P(B) . .

'JB

I

IIi

i'',!1 '•I

124 I PROBAB8LIDADE

il' 6,4,. Funções de Variável Aleatória

i I

I I

r:

1: j; I

·I

Ao definir uma variável aleatória X, salientamos bastante que X é uma junção definida a partir do espaço amostral S para os números reais. Ao definir uma variável aleatória bidimensional (X, Y) estaremos interessados em um par de funções; X = X(s)) Y = Y(s), cada uma das quais é definida no espaço amosÚal de algum experimento e associa um número real a todo s ·E S, desse modo fornecendo·. o vetar bidimensional [X(s), Y(s).J. ' .. Vamos agora considerar Z = H 1 (X, Y), uma função de duas variáveis aleatórias X e Y . Fica evidente que Z = Z(s) é também uma variável aleatória. Consideremos. a: seguinte seqüência de etapaS:· (a) Executar o experimento 8 e obter o resultado s. (b) Calcular os números X(s) e Y(s).

(c) Calcular o número Z

=

H 1 [X(s), Y(s)] .

O valor de Z depende evidentemente de s, o resultado original do experimento. Ou seja, Z = Z(s) é . uma função que associa um número real Z(s) a todo resultado s E S . Conseqüentemente, Z é · uma variável aleatória. Algumas das importantes variáveis .àle·a t6rias, nas quais estaremos interessados, são: X+ Y, XY, X/Y, mín (X, Y), máx (X, Y) etc. O problema que resolvemos no capitulo ant~rior, para a variáve,l aleatória unidimênsional, surge novamente: dada .a distribuição de probabilidade conjunta de (X, Y), qual é a distribuição de probabilidade de Z = H 1(X, Y)? (Deve ter ficado evidente, das muitas explanações ante~iores sobre este assunto, que .uma distribuição de probabilidade é induzida em Rz, o espaço amostral de Z.) Se (X, Y) for uma variável aleatória discreta, este problema estará resolvido bastante facilmente. . Suponha-se que (X, Y) tenha a distribuição dada nos Exs. 6.1 e 6.4. As seguintes variáveis aleatórias (unidimensionais) poderão interessar à questão : U

= mín (X,

Y)

= menor número de peças produzidas ·pel~

duas linhas; V = máx (X, Y) = maior número de peças produzidas pelas . duas linhas; W = X Y = número total de peças produzidas pelas· duas linhas.

+

I r

I'I

Para obter a distribuição de ·probabilidade de U, procederelflOS como se segue. Os válores possíveis de U são: O, 1, 2 .e 3. Para ·

I I

I~ ---~-- · - -~-

----------~------~--------------~----------~-----

VARIÁVEIS ALIEATÓRDAS DE DUAS OU MAIS iJIUMIENSÕES I 125

calcular P(U = O), raciocinaremos que U = O se, e somente se, um, dos seguirites ocorrer: X= O, Y =O ou X= O.Y = 1 ou X= O, Y = 2 ou X = O, Y = 3 ou X = 1, Y = O ou X = 2, Y = O ou X = 3, Y = O ou X = ( Y = O ou X= 5, Y = O. Portanto, P(U = O) = = 0,28. As outras probabilidades associadas a U podem ser obtidas de modo semelhante. · Daí, a distribuição de probabilidade de U poder ser assim resumida: u: O, 1, 2, 3; P(U = u)-: 0,28, 0,30, 0,25, 0,17. A distribuição de probabilidade das variáveis aleatórias V e W, .como definidas acima, pode ser ·obtida de maneira semelhante. (Veja Probl. 6.9.) Se (X; Y) .for uma variável aleatória bidimensional contínua e se Z = H 1 (X, Y) for uma função contínua de (X, Y), então Z ser~ uma variável aleatória contínua (unidimensionai) e o problema de achar sua-fdp é um pouco m3i;··c~mpllcado. A fim de resolver este problema, precisaremos de um teorema que enunciaremos e explicaremos a seguir. Antés de fazê-lo, vamos esboçar resumidamente · a idéia fundamental. Para procurar a fdp de Z = H 1(X, Y) é freqüentemÉmte mais simples introduzir uma segunda variável .. aleatória, por exemplo W = H 2 (X, Y), e primeiro obter a fdp conjunta de Z e W, digamos k(z, w). Com o conhecimento de k(z, w), poderemos então obter a fdp de Z desejada, isto é, g(z), pela simples integração de k(z, w) com relação a w, ou seja, g(z)

=

J

+

-m

.

k(z, w) dw.

Os problemas restantes .são: (1} como encontrar a fdp conjunta de Z e W, e (2) como escolher a variável aleatória apropriada W = = H2(X, Y). Para resolver o último problema, devemos dizer que geralmente se faz a mais simples escolha possível para W. Nesta passagem, W possu! apenas papel intermediário, e não estamos realmente interessá:dos nela em si mesma. A fim de encontrar a fdp conjunta de Z e W, temos necessidade do Teor. 6.3. Teorema 6.3. Suponhamos.que (X, Y) seja umay.ariável :iJeatória contínua bidimensional com fdp conjunta j. Seffm Z = H 1(X, Y) e W = H2(X, Y), e admitamos que as funções H 1 e H 2 satisfaça~ às seguintes condições: ( '

(a) As equações z = HI(x, y) e w = H2(x, y) podem ser univocamente resolvidas para x e y, em termos de z e w, isto é, x == Gi(z, w) · e y = G2(z, w).

126 l PROBABILIDADE

(b) As derivadas pareiais éJxfàz, éJxféJU?, ÕyféJz e Õy/Õt~ existem e são continua.s.

Nessa.s circunstâncias, a fdp conjunta de (Z, W), isto é, k(i; tiJ) · é dada pela seguinte expressão: k(z, w) = j[G 1(z, w), G2(z; te)] I J(z, w) I; onde J(z, w) é o seguinte determinante 2 X 2: .

ax J(z,

ax ·aw

i)z

w)

éJy

éJy

é)z

aw

Este detenninan te é denominado o Jacobiano da transformação (x, y)--> (z, w) e, ~gumas vezes, é denotado por éJ(x, y)/éJ(z, w) . . Salientamos que k(z, w) será. não-nula para aqueles valores de (z, w) correspondentes a valores de (x, y) para os quais j(x, y) não seja nula. y

z

(a}

(b)

Fig. 6.8

·, (a) Muito embora não demonstremos este teorema, indic&remos ao menos o que se deseja e onde residem as dificuldades. Consideremos a fd conjunta da variável aleatória bidimensional (Z, W), isto é, . ) ComentárÍO$:

.

K(z, w) = P(Z ~ z,

..! ']

j'" j'

_ ~ . _ ~ k(s, I) ds dt,

na. qual k é a fdp procurada. Como se supõe que a transformação (x, y) _, (z, w) seja .biunívoca [veja a hipótese (a), acima], poderemos achar o evento, equivalente a {Z 5. z, W ~ wl , em ·termos de X e Y. Suponhamos que este evento seja de.n otado por C. (Veja. a Fig. 6.8.) Sendo assim, {(X, Y) E C} se, e somente se, .IZ ~· z, W ~ w} • Conseqüentemente,

f ,. f' co

l;Ii

W ~ w) =

-co

k(s, t) ds dt =

{

}c·

1•

j(x,

y} dx dy ...

Como se admite j conhecida, a integral do segundo membro pode ser calculada. O cálculo de suas derivadas em relação a z e w fornecerá a. fdp pedida. Na maior pe.rte dos manuais de Cálculo avançado, mostra-se que essas· ~nicas conduzem resultado, tal como foi enunciado no .teorema. acima..

oo

I

I

. VAR1ÃVEIS ALEATORIASIDE DUAS

ou MAIS DIME~SÕIES I

121

(b) Observe-se a acentuada semelhança entre o resultado acima e o res)lltado obtido no caso unidimensiop.al, l explicado no· capítulo anterior.. (Veja o Teor: 5.1.) A .exigência de monotonicidade para a função y = H(x) é substituída pela suposição de que a co~respondênciJ entre (x, y) e (z, w) seja biuruvoca. A condiçã~ .de de~va.bilidade é s~b~tit~ída po~ algumas hipótese~ sobre as der~vadas parmrus consideradas. A soluçao f10al jobt1da é, também, mm to semelhante aqqela . o:btids. no csso unidimensional: as var,iáveis x e y são simplesmente substituíd:JS por ·suas expressões equivalentes em termos de z e ·W, e o valor absoluto de dxfdy é substituído pelo .valor· absoluto do J ~cobiano. ' J

· y

Elemplo 6.13. Suponha-se que estejamos f~zendo mira em um alvo circular, de raio ~tário, que 'tenha sitio colocado de modo ~ue sim ce~tro se situe na origem . de um Isistema de coordenadas retangulares (Fig. 6l9). Admita-se que as coordenadas (X, Y) Ido ponto de impacto estejam unifor~ ni.eme,te distribuídas sobre o círculo. Isto é, J(l' y) = 1/';r, se (x, y) estiver dentro (ou . nai circunferência) do ~írculo, · . j(l , y) =O, se ,em qualquer outra parte.

Fig. 6.9

Suponha-se que estejamos inte~ados na variável aleatória R, que representa a distância da origem. (Veja : a Fig. · 6.10.) Então, R':' V X 2 + Y 2• Encontraremys a. fdp de R, digamos .g, assim: SeJa = tg:-1 (Y/X). Portanto, X= H 1(R; ) e Y = H 2(R, ), I ' onde x = H 1(r, cp) = r cos cp e y = H2(r, cp) = r sen cp. (Estdios I apenas introduzindo coordenadas polares.)

i

r

1--·- - - , - - - - - - - - - .·(27r, 1}

1"···· Fig. 6.10

I.



Fig. 6.11

O jacobiano é

ax

J=

cos 1> - r sen

acp

;! .

cp

T

I I

sencp

= r cos 2 cp +r seri2 cp = r.

r cos 4>

J

I

. I Pelá transformação acima, o círc~o unitário no plano xy fica transformado no retângulo no plano cfJ,r, na Fig. 6.11. Em conseqüência,

I'·

I

128 I PROBAB!IUDADE

a fdp conjunta de (, R) será dada por g(cp, r)

=

r 11"'

O::::; r::::; 1,

Portanto, a fdp de R, pedida, e que vamos denÓtar por h; é dada por h(r) =

{2"' }o g(cp, r) dcp

O::::; r::::;

= 2r,

1.

Comentário: Este exemplo salienta a importância de obter-se uma representação precisa da região dos valores possíveis para as novas variáveis · aleatórias introduzidas. ·

6.5. rDistribu içãío do !Produto e do Quociente de Variávais Aleatórias: _Independentes_ ___ Dentre as mais importantes funções de X e Y que desejamos examinar; estão a soma S = X + Y, o produto W = XY e o quociente Z = X/Y. Poderemos empregar o método apresentado nesta seção para obter a fdp de cada uma dessas variáv~is aleatópas, sob condições bastante gerais. No Cap. 11, estudaremos a soma de variáveis aleatórias m'l'it'o minuciosamente.- Por isso, adiaremos para aquela ocasião o estudo da distribuição de probabilidade de X + Y. Consideraremos, entretanto, o produto e o quocl.ente nos dois teoremas seguintes. Teorema 6.4. Seja (X, Y) · uma variável aleatória contínua bidimensional e admita-se que X e Y sejam independentes; Conseqüentemente, afdp jpodeser escritacomoj(x, y) = g(x)h(y) . Façamos W ~ XY.

Nesse caso, a fdp de W, digamos p, é dada por p(w)

y

=

1:= g(u)h{:) I ~ I

Demonstração: Sejam w O jacobiano é

du.

=

xy e u

= x.

= wfu.

o 1 u

1

u

(6.9)

Portanto, x = u e

VAFIDÃVIEiS ALEATÓRiAS DE DUAS OU MADS DDMIIEI\!SÕIES I 12!!J

Dai, a fdp conjunta de W = XY e U = X é s(w, u)

=

g(u)h ( : )

l~ I

A fdp marginal de W será obtida pela integração de s(w, u) em relação a u, fornec~ndo o resultado procurado. Os valores de w, para os quais p(w} > O, dependerão dos valores de (x, y) para os quais j(x, y) >O.

·

Comentário: Para calcular a integral acima, poderemos nos basear no fato de ·que ~

Exemplo 6.14. Suponhamos que temos um circuito no qual tanto â corrente I como a resistência R variem de algum modo aleatório. Particularmente, suponhamos que I e R sejam variáveis aleatórias continuas independentes com as seguintes fdp:

I: R:

= 2i, O .:::; i .:::; 1 e O fora desse intervalo, h(r) = r 2/9, O .:::; r .:::; 3 e O fora desse intervalo;

g(i) .

A variável aleatória que -interessa é E = IR' (a tensão no circuito) . Seja p a fdp de E. Pelo Teor. 6.4, teremos ('

Algum cuidado se deve tomar -ao calcular-se esta integral. Primeiro, observe-se ·que a variável de int~gr~ção não pode tomar valores negativos. Segundo, observe-se que a fim de que o integrando seja posi~ · tivo, ambas as fdp que aparecem no integrando devem ser positivas .. Atentando,para os valores para os quais g e h não sejam iguais a zero, verificaremos que as seguintes condições devem ser satisfeitas:

e

O .:::; e/i .:::; 3~

Essas duas desigualdades são, por sua vez, equivalentes a e/3 .:::; i .:::; 1. Por isso, a integral acima se torna igual a

. ... u

t

rnUI:SAMILIDADE.

=

2

g-e(3- e),

Um cálculo fácil mostra que ./o p(e) .de = 1. (Veja a Fig. 6.12.)

e=~

3

(3, O)

Fig. 6.12

Teorema 6.5. Seja (X, Y) UII).a variável .aleatória bidimensional · contínua e suponhamos que X e Y sejam independentes. [Portanto, a fdp de (X, Y) pode ser escrita como j(x, y) ~ · g(x)h(y).] ·Seja Z = X/Y. Deste modo, a fdp de Z, digamos q, será dada por

1"'"'

. q(z)

y

=

=

+

. Demonstração: Seja!Il z = ·xfy e v = y. v. O jacobiano é

J

=I~

(6.l0)

g(vz)h(v)lvldv.

.z

Portanto, x = vz e

I

1 = .v.

Daí a fdp conjuntâ de Z = X/Y e V = Y ser igual a t(z, v) = g(vz)h(v) Ivi. Integrando esta fdp conjunta em relação a v obtém-se a fdp marginal de Z procurada. ·

j..J

Exemplo 6.15. Admita-se que X e Y representem a duração da vida de duas lâmpadas fabricadas por processos diferentés. Suponha-se que X e Y sejam variáveis aleatórias independentes, com fdp respectivamente f e g, onde f(x) g(y)

= e..:r:, : = 2e-2v,

x y

2:: O, e O para outros .quaisquer valores; 2:: O, e O para outros valores.

Poderia · nos interessar a variável aleatória X/Y, que· 1representa o quociente das duas durações de vida. Seja q a fdp deZ. . r+ Pelo Teor. 6.5 temos que q(z) = J-.,"' g(vz)h(v) fv Idv. Porque X e Y podem tomar somente valores não-negativos, a integração a.cima precisa ser feita apenas sobre os valores positivos da variável

VARIÁVEIS ALIEATÓFUAS IDE DUAS OU MAiS DIMENSÕES I 1J1

int~grando

de integração. Além disso, o será positivo somente quando ambas as fdp que aparecem sejam positivas. Isto significa que deveremos ter v ;;;. O e vz ;;;. O. Visto :que z >O, e~sas desigualdades determinam que v ;;;. O. Portanto a exprpssão acima se torna

Iq(z) =

q(z)

1m

I

1 I

i

= 2

e-··

2e-2 ~ v dv =

m

ve -• dv.

Uma integração por partes, fácil, fornece 2

Fig. 6.13

I

(Veja a Fig. 6.13.) Constitui que fo m q(z) dz = 1.

q(z) = (z

no~amente· um

+ 2)2

'

z 2':

o.

exercício fácil verificar

1

I 6.6. Variáveis Aleatórias! n-Dimensionais

I.

Até aqui, nossa exposição seI restringiu . completamente a variá. . . veis aleatórias bidimensionais .. !No entanto, como apontamos no iníCio deste capitulo, poderemos ter de tratar com três .ou mais características numéricas simultâneas. I ' Faremos apenas uma brevfu,sima expos1çao de variáveis aleatórias n-dimensionais. A maio~ parte dos conceitos introduzidos acima para o caso bidimensional ~ode ser estendida para o caso n-dimensional. Nos restringiremos ad, caso conthluo. (Veja o Comentário no fim deste capitulo.) Suponhamos, a seguir, que ~X1, ... , Xn) possa tomar todos os valores em alguma região de espaço n-dimensional. Isto é, esse valor é um vetor n-dimensional.l

uni I

[XI(s),. !.. , Xn(s)].

Caracterizaremos a distribuição: de probabilidade de (X 11 • •• ,X!') . I da seguinte maneira: . 1 ·Existe uma função densidaqe de probabilidade conjunta f qu,e satisfaz às seguintes condiÇõ~: : (a) j(x 1, . .. , Xn) 2': O, para tddo (x1, ... , Xn). +m J_+m I ) _ (b) f_- m • • • -a; j(x1, ... , Xn dx1 .. . dXn- 1. I

132 I II"ROiflAIBBUDADIE

Com o auxílio desta fdp definimos P[(Xh- . . , Xn)

E C]= ( . · ·_ff(xl,·· . . , Xn) dx1 .. . dxn; c .

onde C é um subconjunto do contradomínio d~ (X 1,. ; . ,X;.). A cada uma das variáveis · aleatórias n-dimensionais, poderemos associar algumas variáveis aleatórias de dimensão mais baixa. Por exemplo, se n = 3, . então.

onde g é a fdp marginal da variável aleatória l]nidimensional X3, enquanto

onde h representa a fdp conjunta da variável aleatória bidimensional (X1, X~) etc. O conceito de variáveis aleatórias independentes será tàmbém estendido de maneira natural. Diremos que (X 1, . . . ,Xn) serão variáveis aleatórias independentes se, e somente se, sua fdp conjunta j(x 1, . •• , Xn) puder ser fatorada na. forma

Existem muitas situações nas quais desejaremos considerar variáyeis aleatórias n-dimensionais. :barerrí~s al!Slills ex.:e~plos. (a) Suponha-se que estejamos a estudar o padrão de precipitação decorrente· de um particulàr sistema de tempestades. · Se tivermos uma rede de, digamos, 5 estações de observação e se admitirmos que x, é a precipitação na· estação' i, devida a um particular sistema de·fre~tes de chuva, desejaremos considerar. a variável aieatória a 5-dimensões (X1, X2, x3, x4, X6)(b) Uma das mais importantes aplicações de variáveis aleatórias n-dimensionais ocorre quando tivermos de tratar com mensurações repetidas de algwria variável aleatória· X. Supnha-se que se deseje informação sobre a duração· da vida, X, de uma :válvula eletrônica. Um grande número dessas válvulas é produzido por determinado fabricante, e ensaiamos n dessas válvulas. Seja x, a duração da vida da i-ésima válvula, i= l, ... , n·. Portanto, (Xr, .. . , Xn) é uma variável aleàtória n-diinensional. Se admitirmos que cada. X; tenha a mesma distribuição de prohabilidade (porque todas as

VARIÁVEIS ALEATÓRIAS DE DUAS OU MA8S DIMENSÕES I 133

válvulas são produzidas da mesma maneira), e se admitirmos que as X; sejam todas variáveis aleatór~as independentes (porque, presume-se, a fabricação de uma válvula não influencia a fabricação das outras válvulas), poderemos supor que a variável aleatória n-dimensional (X 1, ••• , Xn) seja .composta pelos componentes independentes, de idêntica distribuição de probabilidade X h . . . , Xn. (É óbvio que, muito embora xl e x2 tenham a mesma distribuição, eles não precisam tomar o mesmo .valor.) (c) Outra maneira, pela qual surgem variáveis aleatórias n-dimensionais, é a seguinte: admita-se que X(t) represente a potência exigida por uma certa empresa industrial, na época t. Para t fixado, X(t) será uma variável aleatória unidimensional, Contudo, podtJremos estar illteressados em descrever a potência exigida em n determinadas -épocas especificadas, digamos t 1 < t2 < ... < tn.: Portanto, desejamos estudar a variável aleatória n-dimensional

Problemas deste tipo são estudados em nível mais adiantado. (Uma . referência excelente para este assunto é "Stochastic Processes", por Emanuel Par2;en, Holden-:bay, São Fr~ncisco, 1962.) . I Comentário: Em vários pontos de nossa exposição, mencionamos o conceito de "espaço n-dimensional". Vamos resumir alguma· coisa das idéias fundamentais a respeito. ·

.A cada número realx, podemos associar um ponto na reta dos números reais, e reCiprocamente.· Semelhantemente, a· cada pa•r de números. reais (x1 , x2), podemos associar um ponto no plano de coordenadas retangulares, e reei procamente. Finalmente, a cada conjunto de três números reais (xt, x2, x 3), podemos associar um ponto no espaço de coordenw:las retangulares tridimensional, e reciprocamente. Em muitos dos problemas que nos interessam, tratamos corri um conjunto de n números reais, (xt, x2, ... , Xn), também denominado. uma ênupla. Muito · embo~a não possamos desenhar ql)alquer esboço se n > 3, podemos continuar a l;l.dotar a .terminologia geométrica, como sugerido pelos casos de menor número de dimensões mencionados acima. Deste modo, falaremos de um "ponto" no espaço n-dimensional determinado pela ênupla. (Xt, ... , x,) . Definimos como espaço n (algumas vezes denominado espaço n euclidiano). o conjunto de todo {x1, . . . , Xn), onde x; pode ser qualquer número real. . Conquanto não necessitemos realmente de calcular integrais n-dimensionais, verificamos que . esse é um conceito muito útil e, ocasionalmente, precisaremos exprimir uma quantidade por uina integral múltipla. Se nos lembrarmos da definição de

J J j(x, y) dx dy, A

~;

.... 134 I PROBABIUDADE na qual A é uma região no plano (x, y), então a extensão deste conceito a

f · · ·f J(xl, ... , x,.)dx1 . .• dxn, R

na qual R é uma região .no espaço n, ficará evidente. Se j representar a fdp conjunta da variável aleatória bidimensional (X, Y), teremos que

f f f(x, y) dx dy

.A

representará a probabilidade P[(X, Y) E A]. a fdp conjunta de (X 1, ... , Xn), então

f · · ·f

Semelhnntcmente, se j representar

j(x1, . .• , Xn)dXl' · ·dr.,.

R

representará . P[(XJ, ... , Xn) E R].

Problemas 6.1. Suponha que a tabela seguinte represente a distribuição de probabilidadE; conjunta da variável aleatória discreta (X, Y). Calcule todas as distribuições marginais e as condicionadas.

~ -

1

2

3

1

-121

1

o

2

o

1 9

1

-1

-

-

""

IS

6 -

1 5

2 15

~

6.2. Suponha que a variável aleatória 'bidimensional (X, Y) tenha a fdp conjunta .f(r, y) k:r(x - y), O < x < 2, - x < ~ < :r:A O, para outros quaisquer valores. (a) Calcule a constante k : (b) _!\çh~ ; _fdp marginal de X.

E~~-- -~~~~-~- idP ~~gmãf~

6.3: -··supmlmí que a ídp conjunta da variável aleatória bidimensional (X, Y) seja dada por f(:r, y)

x2

+

x: ,

O< x

< 1,

O< y

O, para quaisquer outros valores.

< 2,

VARIÁVEiS ALEATÓRIAS DIE DUAS

ou MAUS DIMENSÕES I

135

Calcule o seguinte: P(X):>

(a)

:.····

!).

.

(b) P(Y

< 'f.l·

l.(HX bre a região O < x

-(Xi;Y)

é' a fdp conjunta de ·

!

6.6. Suponha que a variável aleatória bidimensional . contínua (X, Y) seja uniformemente distribuida sobre o quadra4o cujos vértic~s são ( 1, 0), (0, 1),.(- 1, 0) e (0, - 1). Ache as fdp marginais de X e de Y. .

J

6.7. Suponha que as dimensões, X Y, de uma chapa retangular de metal, · possam ser consideradas variáveis alcatória!f contínuas independentes; com as s·egtÚntes fdp: I X: g(x),., x- 1, 'j 1 ÚOO,

= O, para Iquaisquer outros valores. Sejam X 1 e X 2 dua.S 1, desde que k = 1 conduz aE(X) =N + p • n, o que obviamente é falso!) Uma questão de interesse é a escolha de k para o qual aE(X) s~ja a menor possível. Isto poderá ser trátado facilmente por algum procedimento numérico. (Veja o Problema 7.11.a.) Finalmente, note-se que, para o "teste em grupo" ser preferível ao teste individual, deveremos ter E(X) < N, isto é, 1 - (1- p )k + k- 1 < 1, o que é equivalente a k- 1 < p )k. Isto não pode ocorrer, se (1 ~ p) < 1/2, porque, nesse caso, (1'- p)k < 1/2k < 1/k, a última ·desigualdade decorrendo do fato de que 2k > k. Daqui, obteremos a seguinte conclusão interessante: Se p, a probabilidade de um teste positivo em qualquer dado individual; for maior do que 1/2, então nunca será preferfvel grupai amostras antes de testar. (Veja o Problema 7.11.b.)

(1: -

Exemplo 7.13. Vamos aplicar algumas das propriedades acima pára deduzir (de novo) a expectância de uma variáy;,l aleatória distribuída binomialmente. O método empregado poderá ser aplicado vantajosamente em muitas situações similares, Consideremos n repetições d~ um experimento e seja X o nú. mero de vezes que algum evento, digamos A, ocorra. Seja p = P(A) e

11~11 1~\

:

CARACTERIZAÇÃO AD8C.IONAL pAS VAR~ÁVEIS ALEATÓRIAS I 155 .

i

admitamos que _este número seja\ constante em tod~Mj as repetições OOWJJidemd&a. · Defmmmoa aa v~iáveia ~uxiliarea Y1 , ••• , Y,., asaim: Yfã

i

= .li.

ae o ewnto A ooorjrer nm i-ésima repetição,

=

illiiiSO

@

oontxiírio.

+

i

. .

+... + Y,.; e aplicando a Proprie--

Em oonseqüência, X = Y 1 Y2 d!M!e 7.5, obteremos· . . !

E~X) = E(Yl) l+ ... + E(Y,.).

t!ontudo, ·

I

.. . ..AssJm, E(X)

.

E(Yo) = l(p)

= np,

..

o que

+ 0(11I -

·;· ···· --) verific~ I

p)

= p, para todo i.

.

.

o resultado antenor.

Comentd.rio: V~m~.os relliterpretar ~w importante resultado. Consideremo5l ~ v~iáwl aleatória X/n~ Isto repreeenJ a freqUência relativa do evooto A, dêritre 'J!B n repetições de&. Empregando a·Pro~riedade 7.2, teremos E(X/n) = (np)fn = p.

Isto é, intUitivamente, CQmo seria d N, N((C1 I I

+ Ca)

\ se D ::_:; N.

.

156 I PROBABIUDAOE

Por isst>, o lucro esperado é obtido assim.

E(T)

N(C2- Ct)P(D - N(Ct

> N)

N

+ (C2 + Ca) n·=o L np(n)

+ Ca)P(D ~ N)

N

m

N(C2- Ct)

L p(n)· + (C2 + C3) n-0 Lnp(n) n=N+l N

- N(Ct

+ Ca) n=O L p(n) N

N(C2- Ct)

+ (C2 + Ca) n=O L p(n)(n -

N).

Suponhamos que se. saiba que a seguinte distribuição de probabilidade seja apropriada para D: P(D = n) = 1/5, n = 1, 2, 3, 4, 5. Daí,

E(T) = N(C2- C1)

+

(C 2 ~ C3) [N(N 1.

N(C2 - C1)

+ (C2 + Ca) 5

+ 1)/2 .~ N se

N

2]

>

(15 ~ 5N) se N

Suponhamos que C 2 = $9, C 1 = $3 e C3 = $1.

~

5,

-

N2]

5.

Logo,

E(T)

E(T) =6N + 2 [ N(N

+ 1)

2

se N

6N L-----~------~--~N

+ 2(15 -

5N) se N

~

5,

> 5,

7N- N 2

se N

30-4N

se N > 5.

~

5,.

Portanto, o máximo ocorre para N = 3,5. (Veja Fig. ·7.5.) Para N = 3 ou 4, teremos E(T) = 12, que é o máximo atingível, porque N é um inteiro.

7.5.

A Variãncõat de uma Variável Aleatória

Suponhamos que, para uma variável aleat6ria X, verificamos que E(X) = 2. Qual é o significado disto ? É importante que ·não atribUamos a essa informação mais significado do que é autori~ado ..

CARACTERIZAÇÃO ADDCIOI\IAL D"AS.VARIÁVE.ISAlEATÔRIAS I 15.7

Ela simplesmente signific& que se considerarmos um grande número de determinações de X, digamos x ••... . , Xn e calcularmos SI média desses valores de X, esta média estaria' próxima de 2, se n fosse grande. No entanto, é verdadeiramente crucial não atribu~r demasiado significado a um valor esperado. Por exemplo, suponhamos que X represente a durnção da vida de lâmpadas que estejam sendo recebidas de um fabricante; e que E(X) = 1.000 horas. Isto poderia significar uma dentre muitas coisas. Poderia significar que a maioria das lâmpadas deveria durar um periodo compreendido entre 900 horas e.l.lOO horas. Poderia, também, significar que as lâmpadas fornecidas são formadas de dois tipos de lâmpadas, l.nteiramente diferentes:eerca de metade são de muito boa qualidade e du~arão aproximadamente 1.300 horas, enquanto a outra metade são de muito má qualidade -e durarão aproximadamente 700 horas. Existe uma necessidade óbvia de introduzir uma medida quantitativa que venha a distinguir entre essas duas situações. Vária.S medidas são por si mesmas muito sugestivas, mas a seguinte é a quan~ tidade mais comumente empregada. Definição. Seja X uma variável aleatória. Definimos a variância de X, denotada por V(X) ou ~Yx 2 , da maneira seguinte: V(X)

= E [X - E(X)] 2 •

(7.12)

A raiz quadrada positiva de V(X) é denofuinada o desvio-padrão de X, e é denotado por ~Yx. Comentários: (a) O número V(X) é expresso por unidades quaAS VARIÁVEIS ALEATÓRIAS I 163

I

porque E(X - p.) = O. A fim d'e e.Stabelecer a Eq. (7.19), desenvolveremos H em série de Taylor laté u~ ~ermo, p~ra x = p.. Nesse caso, Y = H(p.) (X-11-)H'(p.) +.R2. Se· abandonarmos o resto R 2 e tomarmos a variância de ambos os membros, teremos

+

Exemplo 7.19. Sob certas condições, a tensão superficial de um líquido (dina/centimetro) será dad~ pela fórmula S = 2(1- 0,005 T) 1•2 , na qual T é a temperatura do líq(Iido (em graus centígrados).

Suponhamos que T seja lima i variável aleatória continua com a 1 seguinte fdp

Daí,

J(t)

= 3.ooot-\ t ;:::: H),

.

=

O, para quaisqJr outros valores.

E(T)

~

],

V(T)

=

E(T 2)

r~

I 3.ooor• dt

e

=

l

.

o

.:_ .

~ 15

(gm"' rentigrndo,),

I i

(15)2

I

~ 3.000t- 2 dt

.L 225 I

= 75 (graus centígrados)2.

Para calcularmos E(S) e V(S), i teremos que calcular as seguintes integrais: I

J.

m

(I - 0,005t)1. 2 e- 1 dt

eI

10

r~ (1 -

J1o

1

0,005t)Mt- 4 dt. ,

i . Em vez de calcular estas expressões,· obteremos aproximações de E(S) e V(S) com o emprego d~ Eqs. (7.18) e (7.19). A fim de titilizar essas fórmulas, teremos dJ calcular H'(l5) e• H"(15), onde H(t) = 2(1 - 0,005t) 1• 2 • Teremos

I

H'(t)

= 2,4(1- 0,005t)o.2(- 0,005) = - 0,012(1..,..

0,005t)Oo2.

I

Portanto H(l5)

= 1,8~:, H'(15) = 0,01. Semelhantemente,

H"(t) = - 0,002 4(1 -- 0,005t)-M (

jl

O.po5) = 0,000 012(1- 0,005t)-0· 6:

Logo, .·

. I

H"(l5) = Portanto teremos E(S)

'o;ooo 012 0 8 (o,925) I •

=

o+.

i

C:!.

H(l5)

+ 75If'{l5) =

V(S) ~ 75[H'(l5)]:a

:i.

1,82 (d/em) 0,87 (d/cm) 2 •

164 I PROBABDUDADE

Se Z for uma função de duas variáveis, por exemplo Z um resultado análogo será viável.

=. H(X, Y),

Teorema 7.7. Seja (X, Y) uma variável aleatória bidimensional. Suponha-se que E(X) = !J.x, E(Y) = FJ.v; V(X) = O"x~ e V(Y) = O"y"'!.. SejaZ = H(X, Y). [Deve-se admitir que as várias derivadas de H existam para (Jlx, Jly ).] Então, se X e Y forem independentes, ter-se-á

onde todas as derivadas parciais são calculadas para (;.;.:r, FJ.y). Demonstração: A demonstração envolve o desenvolvimento de H em série de Taylor, no ponto (;.;.:r, FJ.v), para um e dois termos, o abandono do resto, e, a seguir, o cálculo da expectância e da variância de ambos os membros, tal como foi feito na demonstração do Teor. 7.6. Deixamos os detalhes a cargo do leitor. (Se X e Y não forem independentes, uma fórmula um pouco mais complicada poderá ser deduzida.)

Comentário: O resultado acima pode ser estendido a uma função de n v&iâveis aleatórias independentes H(X, ... , Xn). Se E(Xi) = 1-Li, V(Xz) =a{, teremos as seguintes aproximações, admitindo-se que todas as derivadas existam:

z·=

onde todas as derivadas parciais são calculadas no ponto Ú!11 • • • , lf.n).

Exemplo 7.20. Admita-se que ~mos um circuito simples, para o qual a tensão M seja expressa pela Lei de Ohm como,M = IR, onde I e R são, respectivamente, a· corrente e a resistência do circuito. Se I e R forem variáveis aleatórias independentes, então M será uma variável aleatória, e empregando o Teor. 7.7, poderemos escrever

E[M] ~ E{I)E(R),

V[M]

C!l:!

[E(R)] 2 V(I) + [E(I)] 2 V(R).

CARACTER~ZAÇÃO ADiCiONAl DAS VARIÁVEIS ALEATÓRIAS

I 165

Existe uma bem conhecida desigualdade, devida ao matemático russo Tchebycheff, que desempenhará um importante papel em nosso trabalho subseqüente. Além disso, ela nos fornece meios de compreender precisamente como a variância mede a variabilidade em relação ao valor esperado· de uma variável aleatória. Se conhecermos a distribuição de probabilidade de uma varlá:vel aleatória X (quer a fdp no caso contínuo, quer as probabilidades punctuais no caso discreto), poderemos nesse caso calcular E(X) e V(X), se existirem. Contudo, a recíproca não é verdadeira. Isto é, do . conhecimento de E(X) e V(X) não poderemos reconstruir a distribuição de probabilidade de X e, conseqüentemente, calcular quantidades tais como P[ IX - E(X) I~ C]. Não obstante, veri.., fica-se que muito embora não possamos calcular tais probabilidades [a partir do conhecimento de E(X) e V(X)], poderemos estabelecer um limite superior (ou inferior) muito útil para essas probabilidades. Este resultado está contido no que é conhecido como desigualdade de Tchebycheff.

Desigualdade de Tchebycheff. Seja X uma variável aleatória, com = f.l, e seja c um número real qualquer. Entã~, seE(X- c? for fmita e e for qualquer número positivo, teremos

E(X)

1 P[ IX- c !;;. e]< --E(X- c) 2 • €2

(7.20)

As seguintes formas, equivalentes a (7.20), são imediatas:

(a) Se considerarmos o evento complementar, obteremos (. 1 P[IX-c l O, obteremos P[ IX- f.l i ;;;;.ka] O, p = + 1; se A < Ó, p = -1. Demonstração:

Visto

1que

Y = AX

+ B,.

teremos

E(Y)

= AE(X) + B e V(Y) = A 2 V(X). Também, E(XY) = E[X(AX + B)] = AE(X2 ) + BE(X). Portanto,

11~\ ~

=

+

CARACTERIZAÇÃO

AOICIOi\!~l

DAS VAR IÁVEIS ALEATÓRIAS I 171

i

[E(XY)- E(X)!E(Y)]2 V(X)V(Y)!

I + BE~X)E(X)[AE(X) + B]

IAE(X 2)

2

}2

l{(X)A 2 V(X)

i

.

I

IAE(X 2) + BE(iX) - A[E(X))2.j1 2 [V(X))2 . A 2 1E(X 2)

-

[E(.~)]2 rz .

.

.

BE(X)I2

1.

A 2 [V(X)F [ .

.I

(A segunda. parte do teo~ema resulta. da observação de que Cmnentário: Os Teors.

i

7. 1~

. .

~-

vA

2

=IA I.)

'

e 7.13 estabelecem. a seguinte importal).te característica do coeficiente de correlação: O coeficiente de correlação é ~ma medida do grau de linearidade entre X e Y. V~l entre O e 2 volts.

i

' :'1 nj

1

'I .!1

! I I

~11 t{~:ii!l[

(a) Determine a tensão esperada do sinal. levando em conta o ruído. .;; !:)!· ~

t~:iil

':]!

'l~l'·~r~~ll' ll~

i!l!

·;li

):i· '•t·:!,11'l1'1;11 • ·lt ill;

;

~ l"'!:Jt,l'!'' 'ni'·

'/

W do

); !"~!i .

" ·····

fi

ji~~; :!, 1,

~~~-'1~ li,,

1\;.

ffi ,,liI'

'iii. ":!lii

'

1

1 ~ 1 ' 11

I!;[

_il!biI ,.r,

tm~ 1 1 :111

. ~,~ -- i[;!

1\ír!l·!ii '111'··! I':..

""i['l

(b) Determine a potência esperada quando o sinal perturbado for aplicado a um resistor de 2 ohms.

7.26. Suponha que X seja uniformemente distribuída sobre [ -: a, 3a]. termine a variância de X.

De-

7.27. Um alvo é constituído de três círculos concêntricos de raios 1/v3; 1, e V3. Tiros dentro do ~lrculo interior valem 4 pontos, dentro do anel seguinte valem 3 pontos, e dentro do anel exterior valem 2 pontos. Tiros fora do alvo valem zero. S0ja R a variável-aleatória que representa a distância do ponto de impacto ao centro do alvo. Suponha que a fdp de R seja j(r) = 2{-rr(l + r'Z), r > O. Calcule o valor esperado do escore depois de 5 tiros. 7.28.

Suponha que a variável contínua X tenha a fdp j(x) =

2xe-r,

X~

0.

Seja Y =X'-. Calcule E(Y): (a) Diretamente, sem primeiro obter a fdp de Y. (b) Primeirame!_lte, obtendo a fdp de Y. 7.29. Suponha que a vaxjável aleatória bidimensional (_X, Y) seja uniformemente distribuída sobre o triângulo da Fig. 7.15. Calcule V(X) e _V(Y).

( 1,,.,

'I'!' I' j'i:l

'1,[':I ,; 'iii

y

ld:r '11;

'ir'

(2, 4)

ii. ·:

!I ~: lJi~!l·!( ···ii-:1

I'

~' i'!!jJ [ ,_,,,,,, : J~l,l'

~

~

I

11~1- ,

;;l,l l',;

~

"j

'i'''':[ Uj·i

i:i}tji I

If"r'H

Fig. 7.15

l l!t:ii fi' ii:·:!

!i!lj:f '

!liJfii

I

t'!

;n~. ! lr1 l~·i'I ~)f.:ii.!il

Fig. 7.16

7.30. Suponha que (X, Y) seja unüonnemente distribuída sobre o triângulo da Fig. 7.16. (a) Estabeleça a fdp marginal de X e 111 de Y. (b) Calcule V(X) e V(Y),

!

CARACTERI2AÇÃO ADJCIONAL -Dl SVARIÃVEIS AlEATÓfliAS l 183

7.31. Suponh& que X e Y sejjI · variáveis mleatórioo para oo quais . .E(X) = p.,., E(Y) =lly, V(X) =· ~r,}, e V{IY) = O. Para verificar que a expressão. acima representa uma legítima distribuição de probabilidade, basta observar q~e

L;;=oP(X =

k) =

L,;;=o (e--aakfk!) =

e,_,.e" = 1.

VARIÁVEiS ALEATÓRiAS DISCRIE~AS: A DE POISSON E' OUTRAS I 187

I

i Já que estamos definindo a variável aleatória diretamente em

Comentário: termcs de seu contradomínio e distribbição de probabilidade, sem referência a qualquer espaço amostral subjacente poderemos snpor que o espaço amostral S tenha sido identificado coin Rx e qt.Íe X(s) = s. Isto é, os resultados do experimento são apenas os números O, 1, 2j .. . e as probabilidades ·associadas a cada um desses resultados são dadas pela. Eq.!I (8.1).

s,l

Teorema 8.1. Se X tiver ~istribuição de Poissón ·com parâmetro a, .então E(X) ;, a e V(X) I= a.

i

Demonstração: E(X)

Fazendo-se s

=

E(X)

.

=.L

k~O

:t ~-e-«_a_k-.-: (k - 1)!

~~ ,t~;

k=1

·"'

L s~o

~~

e-"a'~ l=aLj "' e-"a' =a. 8! I s~O 8! 1



!i

~

I

= L .k "'

k~O

2 --a

~

J

j

f~ r;,

e a ' k!

•I

~f

Fazendo, novamente, 8 = k-- 1,!obteremos I e-a.as+ 1 e--aa' 2 E(X ) = L (s + 1) = a s:[: 8 --+ a o~O s! ~o s! 1 Ol

(I)

I

:j'

co

e-aas

~

=

E(X 2 )

I

-

[E(X))Z

l?i

L-= a +a s!

:i

2

s=O

(porque o primeiro somatório rewesenta E(X), enquanto o segundo é igual a um]. Portanto, · V(X)

jf,

1; verificamos que a expressão se torna

k -

Semelhan temente, E(XZ)

I

k!

= a 2 + a - a 2 = a.

Comentário: NotEHJe a. interessante / propriedade que uma 1variável aleatória de Poisson apresenta.: seu valor esperadt é igual a sua variância.

,.1

~



~~:

lif~f'

t~ '~

1i'

f

i:

8.2. A DistriblUiição de Poisson! Como AproJtimação : da Distrib111ição Binomial 1

A distribuição de Poi~son reJresenta U:m papel muito importante, por si mesma; como um modelo probabilístico adequado para um grande número de fenômenos 'aleató~os. Explanaremos isso na próxima seção. Aqui, trataremos da impo~tância dessa dist'ribuição como uma aproximação das probabilidades bihomiais. I . Exemplo 8.1. Suponhamos que chamadas telefônicas -'(1\t)"/n!,'

n =· O, 1, 2, . . .

Lembrando a (8.4)

Mostramos, portanto, que o número de partfcúlas emitidas durante o intervalo de tempo [0, t) por uma fonte radioativa, sujeita ~ hipóteses feitas acima, é uma variável aleatória, com distribuição de Poisson, com parâmetro (Àt). Comenúirios: (a) 11: importante compreender que a distrib,lição de Poisson surgiu como wna conseqüência de alguma.s hipótE'.ses que fizemos. Isto significa que ·~empre que essas hipóteses sejani válida.s (ou ao menos aproximadamente válida.s), a. distribuição de Poisson po.de ser empregada como um modelo adequado. Verifica-se que existe uma grande classe de fenômenos para os quais o modelo de Po.isson é adequado. (i) Admita-se que Xt represente o número de chamados que chegam a uma central telefónica, durante um período de tempo de comprimento t. As hlpóteses acima são aproximadamente satisfeitas, particularmente durahte o "p~ rlodo movimentado" do dia. Conseqüentemente, Xt tem urna distribuição de Poisson. (ií) Adm.ita-tle que Xt represente o número de elétrons lil:.>ertados pelo catodo de uma válvula eletrônica. Tambéin as hipóteses acima.são adequadss e, portanto, Xt tem uma distribuição de Poisson. (iii) o seguinte exemplo (da Astronomia) revela que o racioc(nio ACima pode ser aplicado não ,somente ao número de ocorrências de algum evento, durante um período de tempo fixado, mas também ao número de ocorrências de um evento dentro das fronteiras de uma área ou volume fixados. Suponha-se que um astrônomo investigue uma parte de. via-Láctea, .a admita que na parte considerada, a densidade das estrelas X seja constante. [Isto. significa que em um volume V (unidades cúbicas), podem-se encontrar, em média, ÀV estrelas.) Seja X v o número de estrelas encontradaS em uma parte da Via-Láctea que tenha o volume V. Se as hipóteses acima forem sat~feítas (com "volume" substituindo "tempo"), ent!l:o P[X v = n) = (X V)n e-À Vjn!. (As hipóteses, intsrpreta.das neste contexto, afirmariam essencialmente que o número de estrelas que aparecem em P.artes não-sobrepostas do céu, representam variáveis aleatórias independentes, e que e. probabilidade de mais do que uma estrehl. &parecer em uma parte bastante pequena do ·céu é zeto.) (iv) Outra aplicação, no campo da Biologia, é lembrada se fizermos XA ser o número de glóbulos sangüíneos visíveis ao microscópio, a área de superfície visível no campo do microscópio sendo de.da por A unide.des quadradas. (b) A constante ]\. originalmente surgiu como uma constante de proporcionalidade Dili hipótese Aa. As seguintes interpretações de ]\. sl!,o dignas de nOta : Se Xt representar o número de ocorrências de algum evento, durante um intervalC> de tempo de comprimento t, então E(Xt) = Àt, e portanto X = [E(Xt)lft repre-

I

VARiÁVEiS AliEATÕRDAS DISCRIEf AS: A DE POISSON E OUTRAS

I 1S!ll

segun~o

115nt& a. taxa (freqüência} esperada a qual as partículas sil.o emitidms. Se X v representar o número de ocorrênci4.. de algu~ evento dentro de um vol~e especificado V, então E(Xv) = XV, e portanto X= [E(Xy)]/V representa adefl.. sidade esperada, segundo a qual as estn\las ap&recem. I (c) É import&nte co~preender qu~ nossa exposição na. Seç. 8.3 nll.o tratou exatamente de uma v.a riivel ale&tóri& X 1possuindo uma distribuição de Poiss O, encontramos que Xt possuíaluma distribuição de Poisson com um parâmetro dependehte de t. Tal coleção (infinita) de variáveis aleatórias é também conhecida conio Pr, cesso de Poiss~n.

(Equivalentemente, um Processo de Poisson é gerado sempre que um evento ocorra em algum interv~lo de tempo:para o qual as hipótéses A 1 áté A 5 sejam satisfeitas.) De maheira análoga, poderemos.défmir um Processo de Bemouilli: se X 1 ,X2 , 1• • • , Xn, ... forem os números de ocorrências de sucessos em 1, 2, . j ., n, . .. provas de Bemouilli, então I . a coleção de variáveis aleatórias xn' ... é denominada um

Xi\1' ... '

Processo de Bernouilli.

·

.

Exemplo 8.5. Uma corriplic~da peça de maquinaria, quando funciona adequadamente, dá um l~cro de C dóla~s por hora ·(C > 2) , I a urna firma. Contudo, esta máquina tende a falhaJ;" em momentos in~sperados e imprevisíveis. Su~onha-se que o núm~ro de falhas, dura~te qualquer perlodo de duraJão t horas, seja urna variável alea-. tória com uma distribUição de Poisson com parâmetro t. Se a má·: quina falhar x vezes durante as t horas, o prejuízo sofrido (parada da máquina mais reparação) é igual ~ (~ 2 x) dólares. Assim, o lucro total P, durante qualquer períodb de t horas, é igual a P = Ct - (X 2. + X), onde X é a variável Ialeatória que repres~nta o número de falhas da máquina. Logo, P é uma variável aleatória, e poderá interessar escolher-se t (o qual es,t á à nossa disposição) de .tal ma. neira que o lucro esperado se tome máximo. Teremos

+

E(P)

= Ct

~ E(X 2 + X).

Do Teor. 8.1, encontraremos !I que E(X) =. t e E(X 2) = t + (t)a. Segue-se então que E(P) = Ct - ~ 2t- t2 • Para achar o valor de t para o qual E(P) se torna má.xirila, derivaremos E(P) e faremos a ~xpr~ssão resultante igual a zero. j . Obteremos C - 2 - 2t = O, qu~ fornece t = 1/2 (C - 2) horas. ! · I . I

.

Exemplo 8.6.

Seja Xt o número de partículas emitidas por un:i.a fonte radioativa, durante um intenralo.d.e tempo de duração t. Admita-se que X, possua distribuição d~ Poisson com parâmetro at. ,, Um dispositivo contador é colocado ~ara registrar Q número de p'a rtí.culas emitidas. Suponha-se que exista urna probabilidade consÚmte p

I !

..

.,

200

I PROBABIUDADE

de que qualquer partícula emitida não seja contada. Se Rt for o número de partículas contadas durante o intervalo especificado, qual sem a distribuição de probabilidade de Rt? Para um dadO X. = x, a variável aleatória Rc possui uma distribuição binomial, baseada em x repetições; com pacl~etro (1 - p). Isto é,

Empregando a fórmula da probabilidade total [Eq. (3.4)], teremos ., P(Rc

=

k)

= 8-k "L, P(R, =

klXt

=

x)P(Xc

=

x) .

1-p .)I& e- " 1 , ( .- .p - -k, L (X - k)i• (pat). · . a-k 1

=

Façamos i = x - k.

Porlanto,

P(R, = k) = (

1

"' )"'

- " p

e-mi

"'

k!

i-O

l~~t)i+k i!

~L -"'\}J'-"~-

= ( 1 .,.- p )"' e-«' (patY'eP"'t = p k!

e-CI--Pll(I -

p)at]"'

k!

Deste modo verificamos que Rt também possui distribuição de Poisson, com parâmetro (1 - p)at.

8,4, A Distribuiçâlo Geométrica Suponha-se que realizemos um experimento· S e que estejamos interessados apenas·· na ocorrência ou. não-ocorrência de algum evento A. Admita~se; tal como na explicação da distribuição binomial, que realizemos S repetidamente, que as ,.repetições sejam independentes, e que em cada repetição P(A) = p e P(A) = 1 - p .= q permaneçam os mesmos. Suponha-se que repetimos o experimento até que A ocorra pela primeira vez. (Aqui nos afastamos das hipóteseS que levaram à distribuição. binomial. Lá, o número de repetições era predeterminado, enquanto aqui é uma variável aleatória.)

VARIÁVIEIS AllEATÓRIAS DISCRETAS: ADIE I?OiSSOI\I E OUTRAS I 201

Defina-se a variável aleatória X como o número de repetições necessárias para obter a primeira ocorrência de A, nele se incluindo essa última. Assim, X toma os valores possiveis 1, 2, ... Como X:= k se, e somen.te se, as primeiras (k- 1) repetições de 8 derem o resultado A, enquanto a k-ésima repetição dê o resultado A, teremos k

= 1, 2, ...

(8.5)

Uma variável aleatória· com a distribuição de probabilidade da Eq. (8.5) recebe ~ denominação de distribuição geométrica. Um cálculo fácil mostra que a Eq. (8.5) define uma distribuição de probabilidade legítima. Temos, obviamente, que P(X = k) 2:: O, e

L"'

k~l

-

.

'

P(X = k) = p(l .

+ q + q + ·-· .) = p [ - 1-1· q- ] 2

= 1.

-

, Poderemos obter o vàlor esperado de X, da seguinte maneira: E(X)

"'

= Lkprf- 1 =p k=l

"' d :Eq"' = dq

k=l

d"'2.::: t = = p---:dqk=l

d[ -º-] = -. 1

P-

qq

1-q

p

(A permuta da derivação e do somatório é válida aqui, porque a série converge quando Iq I < 1.) Um cálculo semelhante mostra que V(X) = q(p 2. (Obteremos de novo, ambos os resultados no Cap. 10, seguindo um caminho diferente.) Resumindo o que está acima, enunciamos o seguinte teorema: Teorema 8.3. Se X tiver uma distribuição geométrica, como dada pela Eq. (8.5), E(X)

= 1/p e V(X) = q(p2.

Conie.nt 8) =

Vej~ o Probl. 8.18.

P(X

> t).

(8.6)

ê. e

?

:1.

-

-

I

,

VARIA VEIS A L EATORBAS DISCRETAS: A DE P-OISSON E OUTRAS I 203

I

.

I Comentários: (a) O teorem& adima afirma que a distribuição geométrica. "não possui memória", no oontido · ~eguinte: Suponha-se que o evento A nao tenha ocorrido durante !l8 primeiras ~ repetições de E. Então, a probabilidade de que ele não ocorre, durante as próximas t repetições será a .mesma probabilidade de que não tivesse oeot"rido durante ~s primeiras t repetições. Em outras palavras, a informação de nenhum sucessJ é "esquecida", no que inte~~essa aos cálculos I subseqÜentes. (b) A recíproca do teorema. acima é também verdadeira: Se a Eq. (8.6) valer para uma variável aleatória, qde .tome somente valores inteiros positivos, então essa variável aleatória deve te~ uma distribuição geométrica. (Não ~ deJ;Ilonstraremos aqui. Uma exposição pode ser encontrada no livro de Feller, An [ntrodudion to Probability Theory a~ Its Applications, John Wiley and Sons, Inc., 2.• Edição, New York, 1957, lág. 304.) (c) Observaremos no próximo ~apítulo que existe urna variável aleatória contínua, com urna distribuição que possui propriedade análoga à da Eq. (8.6), a saber, a_ çlistribuição exponencial.

Exemplo 8.10. Suponha-se que uma peça seja inspecionada ao fim de cada dia, para verificar ke ela ainda funciona, adequadamente. Seja p = P [de falhar duranJ qualquer dia especificado]. Conse.qüentemente, se X for o núme~o de inspeções necessárias.·para veri.ficar a primeira falha, · X ter~ disti.-ibuição geométrica." e teremos P(X = n) = (1- p)n- 1p. Ou de modo equivalente, (1- p)n-ip = P [a peça falhar na n-ésima insJeção e não ' ter falhado na (n- 1)]. I ·o valor máximo desta probabilidade é obtido pela resolução de

.

I

d

r

dp

.

·

r: 10)

= P(X

< 3)

=

t

(~) (0:2)k

(0,8) 10 -k = 0,678

(da tábua no

k=O

Apêndice).

'

.

(b) Vamos rapidamente comparar as distribuições Binomial e de Pascal. Nos dois casos, estaremos tratando com provas repetidas de Bernouilli. A distribuição binomial surge quando lidamos com número fixado (digamos n) dessas provas e estaremos interessados no número de sucessos que venha a ocorrer. A distribuição de Pascal é encontrada quando nós pré-fixamos o número de sucessos a ser obtido e então registramos o número de provas de Bernouilli necessárias. Isto será particularmente importante em um problema estatístico que iremos explicar mais tarde (veja o Ex. 14.1).

8.7. . A

Distribuiçã~

Hipergeométrica

Suponha-se que tenhamos um lote de N peças, r das quais sejam defeituqsas e (N - r) das quais sejam não~defeituosas. Suponha-se que escolhamos, ao acaso, n peças desse lote (n ~ N), sem reposição. Seja X o número de peças defeituosas encontradas. · Desde que X = k se, e somente se, obtivermos exatamente k peças defeituosas (dentre as r defei~uosas do lote) e exatamente (n - k) não-defeituosas (dentre as (N - r) não-defeituosas do lote], teremos P(X = k) =

(Ío)(;:'.:ik) (~)

, k =O, 1, 2, . . .

(8.9)

Diz-se que uma variável aleatória, que tenha a,.. distribuição de. probabilidade da Eq. (8.9), tem distribuição hipergeométrica. CQmentário: Visto que (6) = O sem~re que b > a, se a e .b forem inteiros nã.o-negativos, poderemos definir iiB probabilidades acima para todo k = O, 1, 2, •.. Não poderemos, obviamente, obter mais do que r peças defeituosas, unicamente probabilidade zero será· associada 11. esse evento, pel11. Eq. (8.9). , )

VARiÁVEIS AlEATÓRIAS DISCRET ~S: A DE POISSOi\1 E OUTRAS I 207 I

Exemplo 8.12. Pequenos motores elétricos são expedidos em lotes de 50 unidades. Antes que ba remessa seja aprovada, um inspetor escolhe 5 desses motores ~ os inspeciona. Se ,n enhum dos motores inspecionados for defeituosp, o lote é aprov~.do~ Se um ou mais f~rem verificados defeituos~s, ~todos os motores da remessa s~o inspecwnados. Suponha que eXIst,m, de fato, três motores defeituosos no lote. Qual é a probabil~dade de que a inspeção 100 por I I cento seja necessária?

Se fizermos igual a X o núme~o de motores defeitÚosos encontrado, a inspeção 100 por cento será hecessária se, e somente se, X~ 1.

I

Logo,

·

I

P(X .

2 1) = 1 -

I

P(X

= O)' = 1 I

~

Teorema 8.6. Admita-se que métrica, como indicada pela Eq. (8.9). Nesse caso, teremos

(~)(~) (~)

=

0,28.

tenha distribuição hipergeoFaçamos p = r/N, q = 1 - p.

I

(a) E(X) = np;

(b) V(X)

(c) P(X

= npq NN-n _ . 1 = k) ~

(~) p" (1 -

i p~,._,.,

•4

~~

I

para N grande.

I

-~

Demonstração: Deixaremos ao leitor os detalhes da demonstra1

ção.

(Veja o Probl. 8.19.)

I

Comentário: A propriedade (c) do T~or. 8.6 afirma que se o tamanho do lote N for suficientemente grande, a distribuição de X poderá. ser aproximada pela distribuição binomial. Isto é intuitiv~mente aceitável, porque a distribuição binomial é aplicável quando fazemos amostragem com reposição (visto que, nesse caso, a probabilidade de obter uma peça defeituosa permanece constante), enquanto a distribuição hipergeométrica é .aplicável1 quando fazemos amostragem sem reposição. Se o tam!!-nho do lote. for grande1 não fará grande diferença se fazemos ou não retornar ao lote wna peça determinada, antes que a próxima seja escolhida. A propriedade (c) do Teor. 8.6 constitui apenas uma afirinação matemática desse fato. Observe-se, também, que o vaf.or esJierado de uma variável aleatória hipergeométrica X é o mesmo que o da corresdondente variável aleatória com distribuição binomial, en~uan~ a variância de X léum tanto menor do que a. co~es~,p­ dente no caso da bmmrual. O "fator de correção" (N - n){(N - 1) é, aproximadamente igual a 1, para N grande. I · .



i

I

li

~

208 I PROIBAB8UDA.DE

;.

i·: '•' •i

I'"

. :·1

Podemos ilustrar o sentido da propriedade (c), com o seguinte 4:lxemplo simples. Suponha-se que desejemos calcular P(X = 0). Para n = 1, obteremos para a distribuição hipergeométrica, P(X = O) = (N - r)/N = 1 - rfN = q. Para a distribuição bfuomial, obteremos diretamente P(X = O) = q. Portanto, essas respostas são iguais, quando se trata de n = L Para n=2, obteremos para a distribuição hipe.rgeométrica P(X

=

O)

=

N - r N ·

N - r - 1 N-1

=(1

-

_!_) (1 N

r

N-1

) .

Para a distribuição binomial, obteremos P(X = O) == q2 • Deve"se observar que (1 - r/N) = q, enquanto [1 - rf(N - 1)] é quase igual a q. Em geral, a aproximação da distribuição hipergeométrica pela 0,1. distribuição binomial é bastante boa, se n f N

s

8.8.

A Distribuição Multinomial

Finalmente, vamos examinar uma importante variável aleatória· discreta de maior número de dimensões, a qual pode ser considerada como uma generalização da distribuição binomial. Considere-se um experimento &, seu espaço amostral S, e a partição de S em k even- · tos mutuamente excludentes A 1, • . • , A~&. (Isto é, quando & fo.r realizado, um, e somente um, dos eventos A; ocorterá.) Comüderem-se repetições de S. Seja p; = P(A;) e suponha-se que .Pi permimeça constante durante todas as repetições. Evidentemente, teremos "'I' .L.i=lPõ = l. Definam-se as variáveis aleatórias X 1 , . . . , X~& como segue:

n

X; é o número de vezes que A; ooorre nas .~

nrepetições

de &,

= ll, ... , k.

Os X; não são variáveis .aleatórias independentes, porque n. Em conseqüência, logo que os valores de quaisquer (k - 1) dessas variáveis aleatórias sejam conhecidos, o valor da outra ficará. determinado. Chegamos ao seguinte resultado:

'I:f-1 X; =

Teorema 8.7. Se X;, i = 1, 2, ... , k, forj)m definidas como teremos

acima,

VARDÃVIEUS AlEATÓRiAS DiSCRETAS: A IDE IPODSSON 1E OUTRAS I 209

Demonstração: O raciocínio é idêntico àquele empregado para. estabelecer a distribuição de probabilidade binomial. Devemos simplesmente observar que o número de maneiras de arranjar n objetos, n 1 dos quais são de uma espécie, n2 dos quais são de uma segunda espécie, ... , nk dos quais são de uma k-ésima espécie, é dado por

n!

Comenlárws: (a) Se k = 2, o que está acii;n& se reduz & disiriliuiçil.o binomial. Nesse Ca.'lO, denominaremos os dois eventos possíveis "suresso" e "insucesso''. (b) A distribuiç1o da Eq. (8.10) é conhecida como a dÜltribuiçao de probabilidade multinomial (ou polinomilll). Vamos recordar que os termos da distribuição binomial são possíveis de se obter de um desenvolvimento da expressão binomial [p

+ (1- p)]"

= L~=O(k)pk(l-p)~. De maneira análoga, as probabilidades

acima se podem opter do desenvolvimento da expressão multinomial (PI

+ P2 +

+··· + Pk)n. Teorema 8.8. Suponha-s~ que (X1, , ...• Xk) tenha uma distribuição multinomial, dada pela Eq. (8.10). Nesse caso, E(X;) = np; e V(X;) = np; (1-p;),

i= 1, 2, ... , k.

Demondtração: Isto é uma ~onseqüência imediata da observação de que cada X;, como foi definida acima, tem uma distribuição binomial, com a probabilidade de sucesso (isto é, a ocorrência de A;) igual a p;. Exemplo 8.13. Uma barra de comprimento especificado é fabricada. Admita-se que o comprimento real X (polegadas) seja uma variável aleatória uniformemente distribuída sobre [10, 12]. Suponha-se que somente interesse saber se um dos três eventos seguintes terá ocorrido:

A1 = {X< 10,5}, A2 = {10,5 ~X~ 11,81 .e Aa = [X> 11,81. E sejam as probabilidades PI

=

P(AI) = 0,25,

P2

=

P(A2)

= 0,65 e

pa

=

P(Aa) = 0,1.

Portanto, se 10 dessas barras forem fabricadas, a probabilidade de se obter exatamente 5 barras de .comprimento menor do que 10,5 polegadas e exatamente 2 de com~rimento maior do que 11,8 polegadas é dada por

210 I I"ROBABULIDADIE

Problemas 8.1. Se X tiver uma distribuição de Poisson com parâmetro {3, e ~e P(X = O) = 0,2, calcular P(X > 2). 8.2. Admita-se que X tenha distribuiç.ão de Poisson com parâmetro À. Determine aquele valor de k para o· qual P(X = k) seja máxima. [Sugestao: Compare P(X = k) com J'(X = k - 1).] 8.3. (F..ste problema foi tirado do livro ProbabiUty and Sta.t-istical /tLjcrcnct for Engineers, por Derman e Klein, Oxford University Press, Londres, 1959.) O número de navios petroleiros, digamos N, que chegam a .determinada refinaria, cada dia, tem distribuição de Poisson, com parâmetro À = 2. As atuais instalações do porto podem atender a três petroleiros por dia. Se mais. de três petroleiros aportarem por dia, os excedentes a três deverão seguir para outro porto. (a) Em um dia, qual é a probabilidade de se ter de mandar petroleiros para outro porto ? (b) De quanto deverã'o as atuais instalações ser aumentadas para permitir manobrar todos os petroleiros, em aproximadamente 90 por cento dos dias?

(c) QLtal é o número esperado de petroleiros a chegarem por dia? (d) Qual é o número mais provável de petroleiros a chegarem por dia? (e)

Qual é o número esperado de petroleiros a serem atendidos diariamente?

Qual é o número espemdo de petroleiros que voltarão a outros portos diariamente? (f)

8.4. Suponha-se que a probabilidade de que uma peça, produzida por determinada máquina, seja defeituosa é 0,2. Se 10 peças produzidas por essa máquina forem escolhidas ao acaso, qual é a probabilidade de que não mais de uma defeituosa seja encontrada? Empregue as distribuições binomial e cie Poisson e compare as respostas. 8.5. Uma companhia de seguros descobriu que somente cerca de 0,1 por cento da população está incluída em certo tipo de acidente cada ano. Se seus 10.000 segurados são escolhidos, ao acaso, na população, qual é a probabilidade de que não mais do que 5 de seus clientes venham a estar incluídos em tal acidente no próximo ano? 8.6.

2 P(X 3

Suponha que X tenha uma distribuição de Poisson.

Se P(X = 2)

=!),calcular P(X =O) eP(X = 3).

8.7. Um fabricante de filmes produz 10 rolos de um filme especialmente sensível, cada ano. Se o filme não for vendido dentro do ano, ele deve ser refugado. A experiência passada. diz que . D, a (pequena) procura desse filme, é uma variável aleatória com distribuição de Poisson, com parâmetro 8. Se um lucro de US$ 7 for obtido, para cada rolo vendido, enqu~nto um prejuízo deUS$ 3 é verificado para cada rolo refuga.do, calcule o lucro esperado que o fabricante poderá realizar com os 10 rolos que ele produz. 8.8. Partículas são emitidas por uma fonte radioatiya. Suponha que o número de tais partículas, emitidas durante um período de uma hora,. tenha uma distribuição de Poisson com parâmetro À. Um dispositivo contador é empregado para registrar o número dess8.9 partícul8.9 emitidas. Se mais de 30 partículas

VARIÁVEIS ALEATÓRIAS DISCRETAS: A DE POISSON E OUTRAS I 211

I

chegarem durante qualquer período de um1a hora, o dispositivo registrador é incapaz de registrar o excesso e simplesmente registra 30. Se Y for ~ variável ale~~>­ tória definida como o número de partículti,s registradas pelo dispositivo contador, determine a distribuição de probabilidade! de Y.

I

8.9. Suponha que partículas sejam erütidas por uma. fonte radioativa e que o número de partículas emitidas durante ~m período de uma. hora. tenha uma distribuição de Poisson com parâmetro À. Admita que o dispositivo conta.dor, que registra essas emissões, ocasionalmente falHe no registro de uma ps.rt.ícula emitida. 1 EspeCificamente, suponha que qualquer p artícula emiti~a tenha uma. probabili·dade p de ser registrada. (a) Se Y for definida como o númer~ de partículas registradas, quru é um& expressão para a distribuição de probabilidade de Y? ' 1

I

(b)

Calcule P(Y

= 0),

.

se À

=4

I

e p 'F 0,9.

8.1 O. Suponha que um recipiente encerre 10.000 partículas. 1 A probabilidade de que uma dessas Pl!-rtículas escape \do recipiente é i!'llal a 0,000 4. Qual é a probabilidade de que mais de 5 escapamentos desses oéorri!Jll? (Pode-se admitir que os vários escapamentos sejam \independentes. uns doo obtros.) . . 8.11. Suponha qne um livro de 585 páginas contenha 43 erros tipográficos. Se esses erros estiverem aleatoriamente distribuídos pelo livro, qual i é a probabilidade de 10 páginas, escolhidas ao acaso, e5tejam livres de erros? (Sugest(!,o: Su,ponha que X = número de erros .,Por pági~a tenha uma distribuição de Poisson.)

8.12. Uma fonte radioativa é obsertada durante . 7 intervalos de tempo, cada um de dez segundos de duração. O ~úmero de partículas emitidas durante cada período é contado. Suponha que o ~úmero de par~ículas emitidas X, durante cada período observado, tenha uma qistribuiç!l.o de Poisson com ps.râii\etto . I . 5,0. (Isto é, partículas são emitid!IS à t~ de 0,5 partícul!IB por segundo.) (a) Qual é a probabilidade d,e que em c.a da um dos 7 intervalos de tempo, 4 ou 1 mais partículas sejam emitidas? \ .

(b) I Qual é a probabilidade de que em 1ao menos 1 d~s 7 interv~os de tempo, 4 ou mais partículas sejam emitidas?

I

1

8.13. Verificou-se que o númt)ro de falhas de um transistor em um computador eletrônico, em qualquer período de }una hora, pqde ser considerado como uma variável aleatória que tenha uma distribuição de Poisson com parâmetro 0,1. (Isto é, em média, haverá uma falha. de t~ansistor cada 10 horás.) Determinado cálculo, que requer 20 horas de tempo de c~lculo, é ini/2 ds dt.

Vamos introduzir coordenadas polares para calcular est& integral dupla:

t =r sena.

s = r cosa,

1

I

Conseqüentemente, o elemento de áre\i ds dt se toma r dr da. Comó e t variain entre - 00 e + CIO 1 f' Variall entre o e 00 1 enquantO Ol VlllJ!'ia ' entre O e 27r. Portanto, 8

J! = - 1

21r

12"1~l o

=-

l

12rr

27r

,o

= -1

12"'

.

27r

0

o

-

I re-,'!2 dr da

1

I , ., da

ef' '2lo I

dct. :b 1. I

Por isso, I= i, como se queria mostr~r. ,-.-

!,.

·

I.

216 l PROBABiLIDADE

(b) Vamos examinar o aspecto do gráfico de j. Ele apresenta a bem conhecida forma de sino, mostrada na Fig. 9.1. Visto que j depende de x somente através f(Jt) da expressão (x - J.J.)\ torna-se evidente que o gráfico de f será simétrico em relação a J.l. . Por exemplo, se x = J.l. + 2, (x - J.J.F == (J.J. + 2 - J.J.) 2 = 4, enquanto para x = fJ. - 2, (x -p.)2 = (JJ.-2- J.J.) 2 = 4, também.

O parâmetro u também pode ser interpretado geometri!Fig. 9.1 camente. Observamos que para x = Jl., o gráfico de j é descendente, de concavidade para baixo. Quando x ~ ± ro; j(x) ~O, assintoticamente. Visto que f(x) ?: O para todo x, isto significa que, para valores grandes de x (positivos ou negativos), o gráfico de tem a concavidade para cima.. o ponto no qual a concavidade muda é denominado ponto de ID.flexão, e será localizado pela resolução da equação f"(x) = O. Ao fazer isso verificamos que os pontos de inflexão ocorrem para x = J1. ± u. Isto é, u unidades para a direita e para a esquerda d~ .Jl. o gráfico ·de f muda de concavidade. Por isso, se u . for relativamente grande, o gráfico de f tende a ser "achatado", enquanto se u for pequeno, o gráfico de tende a ser bastante "pontiagudo". ·', X = p.

r

r

(c) Em complemento à interpreta~ão geométrica dos parâmetros J1. e u, o seguinte significado probabilístico importante pode ser associado a essas quantidades. Consideremos E(X)

Fazendo z

=

E(X)

!+ ~

= V 211r u

_~

x exp

(

-

21 [.·-X u fJ.- ]

(x - J.J.)/u e observando que dx

= - 1

v21r

1 v21r

J_+~ (uz -~

~ O"

J_+~

- ~

=

2 ).

dx.

u dz, obteremos

+ J.J.)e-•'fl .dz

ze-•'1 2 dz

1 + J.l.-=

.

-v!21r

J_

+m

e -•'12 dz.

~

A primeira das integrais acima é igual a zero, porque o integrando g(z) possui a propriedade g(z) = - g(-z), e por isso, g é uma função impar. A segunda integral (sem o fator JL) representa· a área total sob a fdp normal e, por isso, é igual à unidade. Assim, E(X) = Jl.

. i

~

. AlGUMAS VAI'HÃVE!S A L IEÀTÓRftAS CONTI"NUAS iMPORTANTES I 217

Consideremos agora ]. [ x - Jl. ( -2 -dr-

]z) dx



Novament e fazendo-se z = (x - J.L)Iu , obteremos :;

,,i:' i

! I

A segunda integral também é igual a zero, pelo mesmo argumento usado acima. A última integral (sem o fator' J.L 2 ) é igual à unidade. Para calcular (l/V 27r) J_+.,m z 2e-•'12 dz, integraremos por partes, fazendo ze-•'1 2 = dv .e z = u. Conseqüentemente v = - e~·Jz enquanto dz = du. Obteremos { "

1

v'21r

f+m z e-•'1 2

2

dz =

m

=,0

-ze- 17z 2, então ~C::::.....----x-l~,-p.-----""--X suas fdp terão as formas relativas I . Fig. 9.2 apresentadas na Fig. 9.2. (á) Se X tiver a distribuição N(O, 1), diremos que X possui. a dis.tribuição normal reduzida. Isto é, a fdp de X pode ser escrita ·co~o E(X 2)

2

2

·l··;

1•••

218 I PROBABiliDADE

igual a I

l{J(x)

-x'f2 . = V 27r e

(9.2)

(Empregaremos a letra l{J exclusivamente para a fdp da variável aleatória X acima.) ·A importância da distribuição normal reduzida está no fato de que ela está tabelada. Sempre que X tiver a distribuição N(p., CT 2), poderemos sempre obter a forma reduzida, pela adoção de uma função linear de X, como o indica o seguinte teorema :

=

Teorema 9.1.· Se X tiver a distribuição N(}J., u 2), e se Y = aX + b, então Y terá a distribuição N(ap, + b, a 2 u 2) .

Demonstração: O fato de que E(Y) = ap, + b e V(Y) = a 2CT 2 decorre imediatamente da.'l propriedades do valor esperado e da variância explicadas no Cap. 7. Para mostrar que, de fato, Y será normalmente distribuida, poderemos aplicar o Teor. 5.1, já que aX + b será ou uma função decrescente ou uma função crescente de X, dependendo do sinal de a. Em conseqüência, se g for a fdp de Y, teremos g(y)

=

~:11" CT

exp ( -

2!~

[

Y

~b

- J.L ] )

I! I

1 V27r CT!al exp ( -

que representa · a fdp de uma variável aleatória com distribuição N(a!J. + b, a 2ir 2).

Coroldrio. Se X tiver distribuição N(}J., u 2) e se Y = (X - J.L)/CT, então Y terá distribuição N(O, 1). Demonstração: É evidente que Y é uma função linear de X, e, por isso, o Teor. 9.1 se aplica. ., Comentário: A importância deste corolário é que, pela mudança de unidades na qual a variável é mensurada, poderemos obter a distribuição reduzida (veja o item d). Ao fazer isso, obteremos urna distribuição com parâmetros não-especificados, situação a mais desejáVel do ponto de vista da tabulação da distribuição (veja a seção seguinte). ·

ALGUMAS VARIÁVEiS ALEATÓRIAS C0NTfNUAS IMPORTANTES I 219

!

9.4.

.

I

Tabu iõllçálo da1 IOistriino iÇã\o

INlorm~i

Suponha-se que X tenha distrib~ição N(O, 1).. Nesse caso, . .l I rb e-"'12 dx. - -< b) = v2nJ,.

P(a achar uma função cuja derivada seja igual a e-z'f2 .) Cont~do, métodos de int~gração numérica podem ser empregados para ca;lcular integràis da :.forma acima., e de fato P(X ~ s) tem sido tabelada. A fd da distribuição normal -reduzida sem· coerentemente denotada por . Isto é, 12. Conseqüentemente, o lucro esperado (por bocal) pode ser escrito: E(T) = Cx[(12- p,)- cl>(10- p,)]- Cz[(IO_. p,)]- Ca[1- (12-:- p,)] · = (Cx

+ Ca)ci>(12-,u)- (Cx+Cz)(IO- p,)- Ca.

Admita-se que o processo de fabricação possa ser ajustado de modo q,ue diferentes valores de p, possam 'Ser encontrados. Para que valor. de p, o lucro esperado será máxiino? Devere~os calcular dE(T)j(dp,) e igual/i-la a zero. Denotando, como é cost\nne, a fdp da distribuição N(O, 1) por l{J, teremos dE(Tl ~

=

(Cx

· + Ca)[-l{J(l2p,)]- (Cx +Cz)[- l{J(lO- p,)].

Daí, - (Cx

+ Ca) V~7r

exp [ -

~

(12- p,)2]

+ (C1 + C.,J V~7r

+

exp [ -

~

(10-p,)2

J

=0.

Ou

Portanto,

M = ll _ _!_ln ( Ct 2 . C1

+ Ca )· + Cz

[f; fácil tarefa para o leitor verificar que a expressão acima fornece o valor máximo para E(T).]

I

·[

ALGUMAS VARIÁVEIS AlEATÓijH AS CONTfNUAS IMPORTANTES

Comentários:

a

l-

r-

I 223

i

(a) Se C2 = C3, is~o é, se um diâmetro X muito grande ou.

muito pequeno constituírem defeitos igualmente sérios, então o valor de Jl, para o qual o valor máximo de E(T) é atingido, será Jl = 11. Se C2 > C3, o valor de p. será maior que 11, enquanto sei C2 < C3 , o valor de Jl será menor que 11. Quando p. ~ + oo, E(T) ~ -Ca, enquanto se JL __,. ,_ ""• E('l') ~ -C2. (b) Considerem-se 08 seguintes v~ores de custo: cl = US$ 10, c2 = US$ 3, I ' e Ca = US$ 2. Em conseqüência, o !valor de fi. para o qual E(T) se tomará máximo é p. = 11 - (1/2) ln (12/13) US$11 ,04. Deste modo, o valor mt!.JP..mo atingido por E(T) será igual a US$ 6 ,~4 por bocal.

=i

iio

Definição. Uma variável al~at6ria contínua X, que tome todos oo valores não-negativos, terá ~a distribuição exponencial com parAmetro 01. > O, se sua fdp for dad~ por 1

1



J(x)

= :!:

:le ra ar lp

i

ae-;J\"'' x l> :., ,., I O Ó, para quaisquer outros valores; I

(Veja a Fig. 9.4.) [Uma integração imediata mostra que

1"'

J(x) dx

=

1

(9.7)

f(x)

1

!

e, por isso, a Eq. (9.7) represen1a uma fdp.J ! A distribuição exponencial dibsempenha importante papel n~ Fig. 9 •4 descrição de uma grande classe ide fenômenos, particularmente nos assuntos da teoria da confiabntdade. Dedicaremos : o Cap. 11 a algumas dessas aplicações. Por1 enquanto, ' vamos apenas estudar algumas das propriedades da dis~ribuição exponencial.

o.

I r

9.6. (a)

Propriedac!Jem da lOi~,tribuiçio E:rqoonencie! A fd F da distribuição

e~nencial é dada por I

F(x) =.P(X

s x) =

("/xe-'dt ~

j.J!

l í.- > e:;;;}~~ O 'f O,

[Portanto, P(X > x) ·=

~r·"""J

(9.8)

.:::-L--

1 .

para o:utros quaisque,r v~ores. ·. ': \

224 I PROBABIUOADE

(b) O valolt' esperado de X é obtido assim:

E(X) =

1'"

:me-- dx.

por partes e fazendo ae-""' dx = dv, x = u, obtemos du = dx. Port~mto, E(X) = [-

. + 1"'·

u-"llo

o

e-- O, P(X > s tiX >e). Teremos

+

+

P(X

> s + tI X > s) =

P(X > P(X

8

+ i)

> s)

Portanto, P(X

> s + tI X > s) =

P(X

> i).

(9.11)

Desta maneira,. mostramos que a distribuição exponencial apresenta , também a propriedade de "não possuir memória", tal como a distribuição geométrica. ('"feja o Comentário que se segue ao Teor. 8.4.) Faremos uso intenso dessa propriedade ao aplicarmos a distribuição exponencial aos modelos de fadiga, no Càp. 11. . Comentário: Do mesmo modo que ~ verdadeira no caso da distribuiÇão geométrica, a reciproca da; Propriedade (d) também vale aqui. A única variável aleat&-ia contln= X, que toma valores não-negativos para os quais P(X > s t \X > g)·= P(X > t) para todos s, t > O, é uma variável aleatória distribuída

+

+

exponencialmente. [Muito embora não o provemos aqui, deve-se salientar que o ponto crítico do racioclnio se refere ao fato de que a única função continua G, que tem a propriedade de G(x + y) = G(x)G(y) para todQs y > O, é G(x) = e-k: O, I o que ocorre se, e somente se, O 'S Ca /(C 2 - C1) < 1, o que por ~ua , vez é equivalente a Cz- Ct >O e iC2 - C1 - Ca >O. No entanto, a últka condição exige apenas quk os dados de custo sejam de tal magnitude que um lucro possa ser auferido.)

ifi1

~~

]~ J-~5 ·~~

t

~ri

I

,q~

:~~ ·:~ ,Y:

J "~'

.

Suponha-se, em particular, que (3 = 0,01, C1 = US$ 3, Cz = = US$ 10, e Ca = US$ 4." Nessel' caso, H = - 100 ln (4/7) = = 55,9 horas e::: 56 horas. Portanto,I! o operador deve ser contratadGl ' para 56 horas, de modo a se alcan'çar o máximo lucro. (Para uma ligeira modificação do exemplo acim~, veja o Probl. 9.18.) I

I

I

9.7.

1

A Distribuição Gama

-~"'

'

'

I

·~r::

.:i;

Vamos, inicialmente, introduzir uma função que é da maior importância, não somente em teoria ide probabilidade, mas em muitos _I domínios da Matemática.

~~

~~

'1~

ti _

A junção gama, denotada por

Definição.

j~

'\r

·~~í

' r(p)

~~

I

=

1

~

I

r,

xP~le-" dx, !definida para

é assim definida: p

> O.

(9.12)

I

I [Pode-se demonstrar que essa I integral imprópria existe (converge) sempre que p > O.l Se iqtegrarmos por partes,' fazendo e_, dx = du e xP-t = u obteremos ! '

r(p)

,

I

= -e-:rxp-llõ = O + (p

-

~~J

~I \e-:rxp- 2 dx

1) l

= (p - 1)rcv -

[-e-"(p- 1)xP-Z d:d

0

I

I).

!

(9.13)

I Desse 'modo, mostramos que a funç~o gama ob~dece a uma interes-

"'I

I i~';_, _

. ~#i,.!tt:.

.

sante relação .de recorrência. Sup6nha.:.se que p seja 1 um inteiro positivo, digamos p = n. Enião, aplicando-se a Eq. (9.13) repetii damente, obteremos ' rcn)

= cn - l)rcn - 1) = (n- l)(n- 2)r(n-

I

2~ '

,. ,

= ... = (n - l)(n - 2)· . . r(l};. ~

228 I PAOBABHUDAIIJIIE

Porém, I'(l) =

fo "'e-"' dx = 1, e, por isso, teremos r(n) = (n- 1)!

(9.14)

(se n for um inteiro positivo). (Portanto, poderemos considerar a função gama como uma generalização da função fatorial.) É também fácil verificar que

r( ~ )

=i"'

x- 112e-"' dx =

-v;.

(9.15)

(Veja o Probl. 9.19.) Com o auxilio da funçãÕ gama, poderemos agora introduzir a distribuição de probabilidade gama. Definição. Seja X uma variável aleatória continua, que tome somente valores não-negativos. Diremos que X tem uma distribuição de probabilidade gama, se sua fdp for dada por j(x)

f{x)

= -01.- (ax)'- 1e-&-" I'(r)

'

x>O

= O, para quaisquer outros valores.

(9.16)

Esta distribuição depende de ~:::::::::_

_ _..:=::=:=::::::::=...,.x

dois parâmetros, r e a, dos quais se exige r >O, a >O. [Em virtude

da definição da função gama, é fácil ver que f_:!:"' j(x) dx = 1.] •A Fig. 9.6 mostra o gráfico da fdp Eq. (9.16), para vários valores de r e a= L Fig. 9.6

9.8.

Propriedades d

0.

(9.17)

Por isso, a jd da distribuição gama pode ser expressa em termos da jd tabulada da distribuição de Poisson. (Lembramos que isto é válido quando o parâmetro r é um inteiro positivo.) 1

e

I

Comentdrio: O resultado apresentado na Eq. (9 .11), que relaciona·a fd',da . ·distribuição· de Poisson com a fd da distribuição gama, não é tão surpreendente quanto poderia parecer à primeira vista, como será explicado a seguir. ·. ·

230 I

' PROBAB~LBDADE

Antes de tudo, lembremo-nos da relação entre as distribuições binomial e de Pascal (veja o Comentário (b ), Seção 8.6). Uma relação semelliante existe entre as distribuições de Poisson e gama, destacando-se que esta última é uma distribuição contfuua. Quando tratamos com uma distribuição de Poisson, estamos essencialmente interessados no número de ocorrências de algum evento durante um periodo de tempo fixado. E, como também será indicado, a distribuição gama surge quando inqagamos a distfibuição do témpo necessário para obter um número especificado de ocorrências do evento. Especificáinente, suponhamos X = número de ocorrências do evento A durante (0, t). Então, sob condições adequadas (por exemplo, satisfazendo as hipóteses A 1 até A 5 da Seção 8.3), X tem uma distribuição de Poisson com parâmetro at, onde a é o número esperado (ou médio) de ocorrências de A durante um intervalo de tempo unitário. Seja T = tempo necessário para observar r ocorrências de A . Teremos: H(t) =P(T t)

1 - P(menor do que r ocorrências de A ocorram em (O, t]) 1-P(Xo.

(9.19)

Uma variável aleatória Z, que tenha fdp dada pela Eq. {9.19), terá uma distribuição de quz'-quadrado, com n graus de liberdade, (denotada por Xn 2). Na Fig. 9.7, a fdp está. apresentada; para n = 1, 2 e n > 2.

ALGUMAS VARiÁVEIS ALIEATÓfUAS C.Oi\ITfNUAS HVii?ORTANTJES I 231

I

múal e :e entre stribuis essenl).te um o gama t'núme-

Uma conseqüência imediata da !Eq. (9.18) Eq. (9.19), teremos

= n,l

E(Z)

n=2[I

(a)

z

(9.20)

J(z)

i

entoA mdo as m parâiurante r ocor-

que se Z tiver a fdp da

. V(Z) = 2n.

I I

J(z)

f(z)

~

R>2

~--~-(~~~~--~z

.1

F1lg . 9.7

ram em

(9 .16), (9.18)

I

A distribuição de qui-quadr~do possui numerosas aplicações imm portantes em inferência estatistica, algumas das quais mencionaremos mais tarde. Em Virtude jde sua importância, a distribuição de qui-quadrado está tabulada1 para diferentes valores do parâmetro n. (Veja o Apêndice.) j(z) .Deste modo, poderemos . aéhar na tábua, aquelevalor denotado por x-,.3 que sat~sfaça a P(Z $ ~ Xa 2) =a, O< a< 1 (Fig. 9.8). O Ex. 9.9 trata de um caso particular de uma , cara.cterização geral da distribuição de qui-quadrado, a qual estudaremos Fig. 9.8 em capitulo posterior.

I gama é um .e um

Exemplo 9.9. Suponha-se · due a velocidade V de um objeto tenha distribuição N(O, 1). Sej~ K = mP/2 a energia cinética do objeto. Para· encontrar-se a fdb de K, vamos inicialmente achar fdp . de S = V 2• Aplicando ditetámente o Teor. 5.2, teremos . .

a (9.19)

'), terá notada n > 2.



1

1

g(s)

I_r

= .y-; [~{v 2

= s-'il

_l_j· v'21r

s)

e-'-"12.

-

+ (,0(-:- V s)]

.

.-M.'.l

232 I I?ROBABIUDADE

Se compararmos esse resultado com a Eq. (9.19) e recordarmos que I'(l/2) = .y;;:, observaremos que S tem uma distribuição de X1 2 • Assim, encontramos que o quadrado de uma varidvel aleatória com distribuição N(O, 1) tem uma distribuição de )( 12• (É este resultado que generalizaremos mais tarde.) Agora, poderemos obter a fdp h da energia cinética K. J& que K é uma função monótona de P, cuja fdp é dada por g, acima, teremos diretamente 2 , .( -2 k ) . = 2 li. . ( -2 k )-11/2e-kfm h(k) = _ m"' m m V271" m '

k

>o.

Para calcularmos, por exemplo, P(K .::::; 5), não necessitaremos empregar a fdp de K, mas poderemos simplesmente utilizar a distribuição tabulada de qui--quadrado, da seguinte maneira:

' Esta última probabilidade poderá s~r diretamente obtida das tábuas da distribuição de qui-quadrado (se m for· conhecido), porque VZ apresenta uma distribuição de X1 2 • Já que E(V2) == 1 e ít variância (V 2 ) =-2 [veja a Eq. (9.20)], acharemos diretamente .

E(K) = m/2 e

V(K) = m 2/2.

Comentário: A tabulação da distribuição de qui-quadrado, dada no Apêndice, somente apresenta aqueles valores para os quais n, o número de graus de liberdade, é menor ou igual a 45. A justificativa disso é que, se n for grande, poderemos aproximar a distribuição de qui-quadrado com a distribuição normal, como se indica pelo teorema seguinte.

Teorema 9.2. Suponha-se que a variável aleatória Y tenha distribuição de x.. ~. Então, para suficientemente grande, a· variá-

n

vel aleatória V2Y tem aproximadamente a distribuição N( V2n-1, 1). (A demonstração não é dada aqui.) Este teorema pode ser· empregado da seguinte maneira. Suponha-se que desejamos P(Y .::::; t); onde Y tem distribuição de Xn 2, e n é tão_ grande que essa probabilidade não possa ser diretamente obtida da tábua da distribuição de qui-quadrado. Empregando o

AII..GUIVlAS VAR8ÁV lEIS AILEATÕR !AS COI\!Tfi\!UAS !IVliPORTAN1l"ES

I 233

Teor. 9.2, poderemos escrever 2 I.

m lo

P (Y :$ t)

= P(v2Y :$ -v'2t) ..j2n=-i :$ = 2, se x $ 2.

1

se

Portanto j, a fdp de X será dada por

(Veja a Fig. 9.9.) j(x)

P(X

x

I

1 · v21r

> 2,

co, 1)

1[

exp\-2

X -

2,2 ]

~

2 )

se .x

(- 2)

::s;

2.

Em seguida, P(Y

::s;

2) = P ( y

~:,'2

::s;

2

~} 2 ) = (-2) . -~

[, como de costume; é .a fd da distribuição N(O, 1).] Esse é um exemplo de uma distribuição normal truncada (especificamente truncada à direita de X = 2). Este exemplo pode ser generalizado da maneira seguinte. Definição. Diremos que uma variável aleatória X tem uma distribuiÇão normal truncada à direita de X = r, se sua fdp for da .forma j(x)

=O

se .x

= K _1

l

> r,

.

v 27r(J'

exp

(_ ~ [X~ M ] )

se x

Observamos que K é determinado pela condição . e, conseqüentemente,

K

=

1 [(r - p.)/(J']

P(Z

::s;

r)

::s; r.

(9.22)

f_-:, ~ .J(x) dx ,:, 1

ALGUMAS VARiÁVEiS AlEATÓI'IHAS CONTfNUAS iMPORTANTES I 237

onde Z tem distribuição N(p, a2 ). Analogamente à defmição anterior, teremos a seguinte:

Dejiniçãc.. Diremos que a variável aleatória X tem uma distribuição normal truncmoo à esquerda de X = "f, se sua fdp j for da forma j(x)

=O =·

se x

< "f,

.!.[

K exp. ("\1211"0' 2

2

x - JL ]

)

se z ;;::: 'Y·

(9.23)

(7

Também K é determinado pela condiçãof-"!:"' j(x)dx portanto,

=

1 e1

Os conceitós acima, introduzidos para a distribuição normal, podem ser estendidos de uma forma 'óbvia para outras distribuições. Por exemplo, uma variável aleatória X distribuída exponencialmente, truncada à esquerda de X = -y, teria a seguinte fdp:

j(x)

= O ·:se x < -y, = Ca.e-·"' se x ;:::· 'Y.

(9.24)

N OVaD1ente, C é determinado pela condição f_~"' j(x) dx isso

=1

e poX'

C = e" 7 • Podemos também considerar uma variável aleatória truncada no caso discreto. Por exemplo, se uma variável aleatória com distribuição de Poisson X (com ·parâmetro R) for truncada à direita de X = k 1, isso significh que X tem a seguinte distribuição:

+

P(X

= i) = O se

-- c .

i ;::: k

À' •

t.1

+ 1,

e-À se

t• --

Determinamos C pela condição L;"'~ o P(X

c=

.k 1. · Lj =O (À'/ j!)e-A

o,. 1, ..• , k . = t) =

(9.25)

1 e achamos



Assim, À'

P(X = t) = 1

t.

valores.

1

I:J=o(À''/j!) '

i= O, 1, ... , k e zero para outro:> ' ··

· 238 I PROBABILIDADE

Distribuições truncadas podem surgir em muitas aplicações importantes. Abaixo, apresentaremos .alguns exemplos. Exemplo 9.11. Suponha-se que X represente a duração da vida de wn componente. Se · X for distribuída normalmente, com

E(X)

7'

4 e V(X) = 4,

encontraremos que P(X

< O) = (Jl(- 2) = 0,023 . . )

Por conseguinte, este modelo não é muito significativo, porque ele ~tribui probabilidade 0,023 a wn evento que sabemos não pode ocorrer. P'oderlamos, em seu lugar, considerar .a variável aleatória X truncada à esquerda de X = O. Daí, admitiremos qtie a fdp da variável aleatória X será dada por f(x)

=

O se x :::;; O,

=

V(2~) (2)

exp [-

!(

x

~ 4 YJ O.

Ccnnentário: Já mencionamos que, freqüentemente, empregamos a distri· buição normal para representar uma variável aleatória X, a respeito da qual sabemos que ela não pode tomar valores negativos. (Por exemplo, tempo até falhar, comprimento de uma barra etc.) Para detenninados valores dos ' parâmetros p. = E(X)· e a 2 = V(X), o valor de P(X < O) será desprezível. Contudo, se não for este o caso (como no Ex. 9.11), deveremos empregar a distribuição nomial truncada a esquerda de X = O.

Exemplo 9.12. Suponha-se que um sistema seja constituído por n com.ponentes, que funcionem independentemente, cada um deles tendo a mesma probabilidade p de funcionar adequadàm:ente. Sempre que o sistema funcione mal, ele é inspecionado para descobrir quais e quantos componentes estão defeitl10sos. Seja a variável aleatória X definida como o número dos componentes que sejam verificados defeituosos nwn sistema que tenha falhado. Se admitirmos que o sistema falhe se, e somente se, ao menos um componente falhar, então X terá U.ma distribuição b~rwmial truncada à esquerda de X = O; porque o simples fato de que o sistema tenha fal]lado, elimina a possibilidade de que X= O. Nesse caso, teremos

. (k)(l - p )kpn--k . " P(X = k) . = P(si:s:emaae .t f lh ) , k .= 1, 2, ... , n ..

Já que P(sistema falhe) = 1- p", podemos escrever P(X = k) =

(~)(1 -

p )k_pn--k 1- p"

.k

=

1,2, ... ,n.

A L GUMAS VARBÃVEDS ALEATÓRiAS CONTfNUAS IMPORTANTES I 239 .

I

Suponha-se que partículas sej'am emitidas por · uma fonte radioativa, de acordo com a distribuição de Poisson, com parâmetro À. Um dispositivo co~tador registra e~as emissões somente quando menos de três paft;iculas .chegam. (Isto é, se três ou mais partículas chegarem durante um período de tempo especificado, o dispositivo cessa de funcibnar em virtude de algum "trava' . . mento" que ocorre.) Portanto, fie Y for o 'número de partículas registradas durante o intervalo de Itempo especlficado, Y tem os valores .possíveis O, 1 e 2. Conseqüentemente, Exemplo 9.13.

~-

I

.. P(Y = k)

. e-x

k!

. )>.k

e-~[1 + lf- + (À2f2)] ' . I

k =O, 1, 2,

= O, para quaisquer outros valores. ! Visto que a distribuição nokal truticada é particularmente importante, vamos considerar o sekumte problema, associado a essa distribuição. Suponha-se que X seja uma variável aleatória normalmente distribuida, truncada à direita de X Por isso, sua fdp é da forma

=\r.

f(x)

'

= O se x ~ r, ·=

1

---=

v'2mr

[- ; (" ~ ~ )']

exp

1

se x

~r.

I

Logo, teremos E(X)

=

J:"'

.x .j(x)dx

1

O a fim de que o problema acima tenha uma solução. Esta·condição não é muito surpreendente, porque ela apenas diz que o valor esperado (depois do truncamento à direita) deve ser menor do que o valor esperado original.

Problemas

/':""'--..,_

\_9.j). Suponha que X tenha a distribuição N(2, O 16). Empregando a tábu& da dGtribuição normal, calcule as seguintes probabilidades: . (a)

P(X

"?.

2,3).

(b)

P(1,8~ X

S2,1).

9.2. O diâmetro .de um cabo elétrico é normalmente distribuído com média 0,8 e variância 0,000 4.,. Qual é a probabilidade de que o diâmetro ultrapasse 0,81 T

ALGUMAS VARiÁVE iS ALIEAlrÓROAS COi\!Ti"NUAS 6MPORTAi\!TES I 241

9.3. Suponha que o cabo, _no P robl. _9.2, seje, considerad_o defeituoso se o diâmetro diferir de s)la. m&Ha e"in;'naiS de .o,õis. ·. Q"ual . é a probabilidade de se encontrar um cabo defeituoso? 't · · · - > ·. ·-·.

9.4. Sabe-se que os erros, em certo dispositivo pare. medir comprimentos, são normal';nente ' distriouídos CQ!_ll.-valor esperado zero e desvio-padrão 1 unidad~. Qua"l é a probabilidade de que Q erro na .111edidá. sej!!-')naior: do que 1 ~rtidJrcie? 2 ur]!,cJ~des? 3 unidadei? · ,_,,-!,· ;.,_

E (X ) ·-::-

16

2t'- '-: . ·4;,)

{ 9.$'. Suponha-se que a duração da vida de dois dispositivos eletrÔnicos, D 1'•e'Í>z, tenham distribuições N(40, 36) e N(4.i, 9), respectivamente. Se o dispositivo eletrônico tiver de ser usado por nm período de 4.'í horas, qual dos dispositivos deve ser preferido? Se tiver de ser usado por um período de 48 boras, qual deles deve ser preferido?

9.6. Podemos estar interessados apenas na magnitude de X , digamos . Y,;, lXI . Se X tiver distribuição N(O, 1), determine a fdp de Y, e calculeE(Y) e V(Y).

g·,7. Suponha que estejamos medindo a posição de um objeto no plano. Sejam X e Y os err.os de mensuração das coordenadas x e y, respectivamente. Suponha que X e Y sejam independentes e identicamente distribuídos, cada um

+

deles com a distribuição N(O, u 2). Estabeleça a fdp de R = v'X2 yz_ (A distribuição de R é conhecida. como distribuiçllo de Rayleigh.) [Sugestllo: Faça · X = R cos 1/,- e Y = R sen v,; Obtenha a fdp conjunta de (R, t/1) e, depois, obtenha. a fdp m'arginal de R.] '

9.8. Estabeleça a fdp da variável aleatória Q = X/Y, onde X e Y são distribufdos tal como no Probl. 9.7. (A distribuição de Q é conhecida como .distribuiçao de Cauchy.) Você pode c.alcular E(Q)? 9.9. Uma distribuiçãb, estreitamente relacionada com a distribuição normal, é a d·istribU1{llo wgnormal. Suponha que X seja normalmente distribuído, com média J.L e variância u 2 • Faça-se Y = eX. Então, Y possui a distribuição lognorma.l. (Isto é, Y será lognormal se, e somente se, ln Y for normal.) Estabeleça a fdp de Y. Comentário:. As seguintes variávei~ aleatórias -podem ser representadas pela distribuiçãq_acima: o diâmetro de· pequenas partículas após um processo de trituraÇão, o tamir.ho de um organismo sujeito a alguns pequenos impulsos, a duração da vida de determinadas peças. 9.10. Suponha. que X tenha distribuição N(J.L, u 2). uma função de p. e u), tal que P(X ~c) = 2P(X > c).

fííG)l,

Determine c (como .

Suponha que a temperatura (medida em graus centígrados) seja nor-

m~te distribuída,' c.om expectância 5 Oq, -~ , variância 4. Qual é a probabilidade de que a temperatura T esteja entre"48o e 53° centígrados? /~

.

@1..1.~ O diâmetro exterior de um eixo, D, é especificado igual a 4 polegadas.Conãtaere D como .uma ·variável aleatória rrormalmlmte distribuída com médía 4 polegadas e fa.r~nc.:ia 0,01 (Qoleg~d~) 2 • Se. diâmetro reaf difern do yalor especificado pot:, m:;;is de .(l,0-1~ pÕJ.'i~dll..'! e_menos de_0108-polegada5, o preju!zo do fabricante sera~· US$ ... o 'd iâtiie't;o ~o d(âmeU:ii' espécificado por . . reàfdiférir . •' .. . maia' de 0,08poJegadas, fprejlifzo será dé''US$1,p0. O prejúíZo L pode ser:'coU: sid(lrado ~ ,}.ri~~l · ~eatóô~. " Estaoeleçà ~a distribuição de probabilidade de L e calcule ·:E(L ).. .t'

o

~

o;E0:2:Se --~_...,....

~~

~.......

~

242 I PROBABILIDADE

9.13. Compare o limite superiar da prob~bilidade P[ IX- E(X)I~2VV(X)], obtido pela desigualdade ·de Tchebycheff, col:n a probabilidade ._exata, em cada. um dos casos se~uintes: \ . \ (a) X tem d~tr~bu~ção N(p., u~). (b) X tem distnbmção de. Pmsson, com parâmetro À. (c) X tem distribuição exponencial, com parâlnetro a. · ~--\ r. ~ SÍiiJonha que X seja uma variável aleatória para a qual E(X)-== 11-1. e V(X) = u2. ·"S'uponha.--·que Y seja unifo.rmemente diktribuída sobré o intei:Yalo .•. I . -'(a; b) . ...Détermine a e b de modo que E(X) = ~{Y) e V.(X) =. V(Y)I ~

. . . ...

..r

/

. '· I

L

....

\

...



9.15 • . Suponha que X, a carga de ruptura de um Ct!-bo (em kg), tenha distri· buição N(100, 16). Cada rolo de 100 metros de cabo 'd á um lucro de US$ 25, desde que X > 95. Se X .:S. 95, o cabo poderá ser utilizado para uma finalidade dife~ente e um lucro de US$ 10 por rolo será obtido. Determinar o lucro espe· rado por rolo. 9.16. Sejam X 1 e X 2 variáveis aleatórias independentes, cada nma com distribuição N(Jl, u 2 ). Faça-se Z(t) = X 1 cos wt · X2 sen wt. Esta variável interessa ao estudo de sinais aleatórios. Seja V(t) ;;. l dZ(t)fdt. (Supõe-se que ·w seja constante;} ..

+

(a)

Qual é

fixado ?

~:.llistribuição

de probabilidade de Z(t) e V(t), para qualquer t

·,\..'-'-..._

j

_;__ .•, , -

Mostre que Z(t) e'-V(tt:Jão nãO-correlacionadas. [Comentário: Poderse-á. também mostrar que Z(t) e V(t) são independentes, mas isto é um tanto mais difícil de fazer-se.] (b)

9.17. Um combustível para foguetes deve conter uma certa perce~ttagem X de um componente especial. As CRpecificações exigem que X esteja entre 30 e 35 por cento. O fabricante obterá um lucro líquido T sobre o combustível (por ga· lão ), que é dado pela seguinte função de X: T(X) =

= (a)

U$.$ 0,10 por galão se 30 < X < 35, US$ 0,05 por galão se 35 ~X < 40· ou 25 b). Quantos pares de ve.lores haverá agora 1 I

I

9.24. Suj:lOnh~ que V, a velocidade (cm/seg) de um objeto que tenha mli.ss11. de 1 kg, seja ume. variável alee.tória co~ distribuição N(O, 25). Admita-se .que K = 1.000 Vlf2 = 500 V2 represente a energia cinética (EC) do objeto. Calculár P(K < 200), · P(K > 800). . i 9;25. Suponha que X tenha distribui~ão N(!L, u2 ). Empregando o Teor. 7.7, obtenha uma. expressão aproximada para E (Y) e V(Y), quando .Y = ln X. 1

9.26. Suponha que X tenha uma distribuição normal truncada à. direite., tal como é dada pela Eq. (9.22). Estabeleç~ ~ma expressão para E(X), em 'termos 1 de funções tabuladas. -. i

9.27. Suporiha que X tenha uma d~tribuição exponenciru ··truncada à esquerda, como está dada pela Eq. (9.24). Obtenha.E(X). 9.28. {a) Estabeleça a distribuiçã~ dk probabilidade de uma variável e.leatória binomialmente· distribuída (baseada !em n repetições de um ·experimento) .truncada à direita de X = ·n; isto .é, X =: n não poderá ser observado. (b)

Determine o valor · e~;~;~do e a J.ariância da variável aleàtória descrita.

em (a) .

.

I

'

I

9.29. Suponha que uma variável aleatória normalmente distribuída, com valor esperado !L e variância u2, seja truncafia à esquerda· de X ,;, T e à direita de X= 'Y· .Estabeleça a fdp desta variável : aleatória "duplamente truncada". Suponha que X, o comprimento de uma barra, tenha distribuição Em VflZ de se . medir o valor d~ X, somente são especificadas certas exigências que devem ser atendidas. Espepificame~te, cada barra fabricada será classificada como segue: X < 8, 8 :':X < i1.2, e X 2:: 12. Se 15 dessas barras forem fabricadas, qual é a probabilidade d~I que um igual número de barras . caia . em cada uma das categorias acima? 9.30.

N(lO, 2).

9.31. Sabe-se· que a precipitação anqal de chuva, · em certa · localidade, · é uma variável normalmente com . aleatória . . . distribuída, I . média igual a 29,5 cm e desvio-padrão 2,5 cm. Quantos centímetr9s de chuva (anualmente) são ultrapassados em cerca de 5 por cento do tempo?

9.32.

·~

t

Suponha que X tenha distribuição N(O, 25). · Calcule P(l I

< X2 < 4).

9.33. Seja Xt o número de partículaá emitidas em t horas por uma fon~e radioativa e suponha-se que Xt tenha uma! distribuição de Poisson, com pe.r~-. metro {Jt. Faç~~rSe igual a T o número de hôras entre emissõcil sucessivas. Mostre

/. ;

i

244

I IJ>ROBABHUDADIE

41!1W 7' tzm uma distribuiçil.o (x), como é dada, no Apêndice]. Se & variável aleatória X . tiver distribuição N(l, 4), exprimir cad& uma das seguintes probabilidades em termos dos valores tabulados da função H: (a) P[IXI> 2]. (b) P[X -~ei].

lLo@O>, E(X) = M'(O) = np, o que concorda com nosso resultado anterior. Também, E(X2) = M"(O) = np [(n - 1) p + 1]. · Daí, V(X) = M"(O) - [M'(0)]2 = np(:l- p),

o que também concorda com o que achamos anteriormente.

A FUNÇÃO GERATRIZ DE MOMENTOS

I 253

Exemplo ].0.8. Suponha-se que X tenha distribuição N(a, {32). Por isso (Ex. 10.5), Mx(t) = exp (at 1j2 {3 2t2). Portanto,

+

Jli!'(t)

= e"'t +fl't'/2((3zt +a),

M"(t) = ef3't'!2 + ·at{32

+ ({32t + a)2ef3't'/2 + aa,

e M'(O) = a, M"(O) = {3 2 + a 2, fornecendo E(X) = a e V(X) = {32 como anteriormente. Vamos empregar o método dà fgm para calcular o valor esperado e a variância de uma variável aleatória com distribuição de probabilidade geométrica, Eq. (8.5) . Exemplo 10.9. Admita-se que X tenha uma distribuição de probabilidade geométrica. Isto é, P(X

=

Por isso,

k)

= qk-1p,k = 1, 2, ...

.,

Mx(t) =

1p = L e1 ~çq~k""l .

(p

+ q = 1).

.,

L (qe 1)~ç. qk=l

.E_

Se nos restringirmos àqueles valores de t para os quais O < qe1 < 1 [isto é, t t)

= P(t

=

f

+ t,t)


R~ isto é, se T < L Conseqüentemente, a probabilidade de !ruir é Pr = fc/ j(t) dt. l?robiema~s

I

~ 1.1.

I



I

Suponha que T, a duração até fe.IJ:tll.l' de uma peça, seja normalmente distribuída com E(T) = 90 horas e desvi01-paÍlril.o 5 horas.' Quantas l horas de 'operação deverão ser consideradas, a fim. de sei achar uma confiabilidade de 0,90;

~~~W?

.

I

.··

11.2. Suponha que a duração da ·vida de, um dispositivo eletrônico seja exponencialmente distribuída. Sabe-se que a cot;tfiabilidade desse dispositivo (para um período de 100 horas de operação) é de 0,90. Quantas horas de operação o,

{3j

>o.

i=i (a) Para quais valores de Cj a expressão acima é uma fdp?

(b) Obtenha .ú.ma expressão para a função de confiabilidade e a função de risco. (c) .Obtenha a expressão da duração até falhar esperada. · (d)

Responda (b) e (c), quando {3j = {3 para todo j.

11.7• . Cada uma das seis válvulas de um radiorreceptor tem uma duração de vida (em anos) que pode ser considerada como uma variável aleatória. Suponha que essas válvulas funcionem independentemente uma da outra. Qual será a probabilidade de que nenhuma válvula tenha de ser substituída, durante os dois primeiros meses de serviço se: (a) A fdp da duração até falhar for j(t) A fdp da duração até falhar for j(t)

(b)

~1.8.

=

50te-25 '', t

= 25te-2 5t,

t

> O? > O?

Demonstre o Teor. 11.4.

11.9. A duração da vida de um satélite é uma variável aleatória exponencialmente distribuída, com d\rração da vida esperada igual a 1,5 anos. Se trêS desses ~atélites forem lanÇados simultaneamente, qual será a probabilidad~ de que ao menos dois deles ainda venham a estar em órbita depois de 2 anos ?

!i=ig. 11.9

1i .1 O. Três componentes, que funcionem independetemente, são ligados em um sistema único, .como está indicado na Fig. 11.9. Supo-nha que. a coufiabilidade de cada um dos componentes, para um período de operação de t horas, seja dada por R(t) = e-0,031.

Se T for a duração até falhar do sistema completo (erri horas), qual será a fdp de T? Qual será a confiabilidade do sistema? . Como ela se compara com e-0,oa1 ?

·!)

AIP'IUICAÇÕIES À 1f'IEOIRDA DA ICOi\lfHAIBHUDADIE I 28~

11 . H. Suponha que n componentes, que funcionem independentemente, sejam ligados em série. Admita que a duração até falhar, de Cl!.da componente, s~ja normalmente distribuída, com expectância de 50 horaB e desvío-pa.drão 5 horas. (a) Se n = 4, qual será. a probabilidade de que o siStema ainda esteja a funo cionar depois de 52 horaB de operação? (b) Se n componentes forem instalados em paralelo, qual .deverá ser o

valor de n, para que a probabilidade de falhar durante as primeiras 55 horas seja aproximadamente igual a 0,01? i1.1.2. (Extraído de Derman & Klein, Probability and Statistical Injerence, Oxrord University Press, New York, 1959.) A duração da vida (L), em meses, de uma dada válvula eletrônica empregada em aparelhos de radar, foi verificada ser exponencialmente distribuída com parâmetro f3 = · 2; Ao executar seu programá de manutenção preventiva, ·uma: companhia quer decidir qua.ntos meses (m) depois de sua instalação, cada válvula deverá ser substituída., para tornar mínimo o custo ·esperado por válvula. O custo por válvula "(em dólares) Eerá denotado por C. O m!J,is curto período utilizável de tempo de.corrido entre a instalação e a .substituição é 0,01 do mês. Sujeito a essa restrição, qua.l o valor de -m que torna mínimo E(C), o custo esperado, em ca.da uma das seguintes .situações, onde o custo C é a men()ionada função de L e. m?

(a) C(L, m) (c)

=

3 JL- mJ.

(b)

C(L, m) = 2 se L < m, = 5(L - m) se L 2:: m.

C(L, m) = 3 se L = 5(L - m)

< m, se L 2:: m.

{Em cada c!i.so, ·esboce o gráíico de E(C), como função de m.] Comentário: Evidentemente, C é uma variável aleatória, porque é uma função de L, a qual é uma variável aleatória. E( C) .é 1.llna funçao de m, e o problema

apenas pede para determinar aquele valor de m que torne mínilllo o valor esperado 2:: 0,01. .

E(C), sujeito à restrição de que m

11.13. Suponha que a taxa de falhas, associada com a duração da vida T de uma peça, seja. dada pela seguinte função Z(t)

= Co, =

Co

O_:::; t < to, to), t 2:: 4J.

+ C1(t -

COmentário: Isto representa outra generalização da distribuição e~ponehcial. A .expressão acima se reduz à taxa de falhas constante (e, por isso, à distribuição o. exponencial) se cl

=

(a) Estabeleça a fdp de T, a. duração até falhar. (b) Estabeleça a expressão da eonfiabilidade R(t) e esboce seu gráíi~o.

11.14. Suponha que cada um de três dispositivos eletrônicos tenha uma lei de falhas dada por urna distribuição expmi.encial, com parâmetros f111 /32, fJ 1, respectivamente. Suponhu, que esses três dispositivos funciopem independentemente e estejam ligados em paralelo· par!)- formarem um único sistema. (a) Estabeleça a expressão de R(t), a confiabilide,de do sistema.

(b) Estabeleça a expressão da fdp de T, a duração até falhar !lo sistema. · Esboce o gráíico da fdp. (c) Calcule a duração até falhar esperada do sistema.

o

282

l PROBABI"LIDADE .

11.15. (a) Suponha que n componentes sejam ligados em série. A seguir, k . dessas conexões em série são ligadas em paralelo para formar um sistema. completo. (Veja a Fig. 11.10.) Se todoo os componentes tiverem a mesma confiabilidade, !Fig. 11.10 R, para um dado período de operação, determine a exp~ da confiabilidade do sistema cqmpleto (para o mesmo período de operação). (b) Suponha que cada um dos componentes· acima obedeça a uma lei de falhas exponencial, com taxa de falhas 0,05. Suponha, também, que o tempo de operação seja 10 horas e que h = 5. Determine o valor de k, de maneira que a cmifiabilidade do sistema completo seja ígual a 0,99.

11.16. Suponha que k componentes sejam ligados em paralelo. Em seguida, n dessas conexões em paralelo são ligadas em série, formando um único sistema. (Veja a Fig. 11.11.) Responda a (a) e (b) do Probl. 11.15, para esta · situação.

!Fig. 11.11 11.17.. Suponha que n componentes, todos com a mesma taxa de falhas oon8tante 'À, sejam ligados em paralelo. Estabeleça a expressão da duração até falhar esperada, do sistema resultante. 11.18. (a) 9 sistema de propulsão de uma aeronave é constituída de três motores. Supo;ma que a taxa de falhas constante de cada motor seja À = 0,000 5 e que cada motor falhe independentemente dos demais. Os motores são montados em paralelo. Qual será a cqnfiabilidade deste sistema de propulsão, para uma missão que exija 10 horas, quando ao menos dois motores devam sobreviver? (b) Responda à questão acima, para uma missão que exija 100 horas; i.ooo horas. (Este ·problema está sugerido por uma explanação incluída em I. Bazovsky, Reliabilily Tlieory and Pradice, Preritice-Hall, Inc., EnglE:ow~ Cliffs, N. J., 1961.}

p.19. Considere os componentes A, A', B, B' e C ligados da maneira indicada nas Figs. 11.12 (a) e (b). (0 componente C pode ser considerado como uma "defesa", quando ambos A e B deixarem de funcionar.) Representando '!!: confiabilidadés dos componentes isoladamente porRA, RA'• RB, RB' e Rc (e admitindo que os componentes funcionem independentemente um do outro), obtenha a expressio da confiabilidade do sistema completo, em cada uma dessas situações.

. i . APLICAÇOES A TÇORIA DA CONIFIABI LI O ADE I 283

I

i

I

[Sugestao: No segundo caso, Fig. 11.12(p), empregue relações de probabilidade condicion&da.)

I

I Fig. 11;.12 11.20. Admitindo que todos os componentes incluídos no Probl. 11.19 tenham a mesma taxa de falhas constante. À, estabeleÇa a expressão da .confiabilidade R(t) do sistema apresentado na Fig. 11.12(b). Determine, também, a duração até falhar média, desse sistema.

· 11.21. O componente A tem .confiabilidade 0,9, quando utilizado para dada finalidade. O componente B, que pode utilizado em lugar do componente A, tem confiabilidade de somente 0,75 . . Qual kerá o número mínimo de componentes do tipo B, que se terá ·de ligar e~ 'paralelo, Ide maneira a atingir a mesma confiabi. !idade que tem o co~ponente A sozinho? I '

set I

.

.

11.22. Suponha que dois componen$; que funcionem isoladamente, cada um deles com a mesma taxa de falhas consta!nte, sejam ligtj.do5 em paralelo. Sendo T a duração até falhar do sistema resultant~, estabeleça a fgm de T. Determine, . I também, E(T) e V(T), empregando a fgm.i · . . 11.23. Toda vez que consideramos sistema composto por vários componentes, admiÚmos sempre que os com~onentes funcionassem independentemente ·Um do outro. Essa sup,osição simPlificou consideravelmente nossos cálculos. N.o entanto, ela poderá não ser sempre uma hipótese realista. Em muitas situações,v sabe-se que o desempenho de um !componente pode iniluenciar o desempenho de outros. · Este é, em geral, um p~. oblema muito. difícil de se abordar, e examinaremos aqui, apenas um caso ·p~rticular. Suponha-se, .esPecificamente, que dois componentes C 1 e C2 sempre falhefn. juntos. Quer dizer, Ci falhará se, e somente se, c2 falhar. V;;rrifique que, neste caso, P(Cl falha e c2 falha) = P(Cl falha) = P(C2 falha).

um

I

1 ~cc

3

• • · ·Cc·.- ·. .·.:.. . 11.24. Considere quatro componentes l cb · Çz, Ci e c. Ligados da maneira indicada ! na . ~ Fig. 11.13. Suponha q1.1e os componentes !UU:cionem independentemente um do outro, f'm Fig. 11.13 éxceção de . C1 e C2, qmi falham juntamente; como foi explicado no Probl. 11.23. Se T;, ia dmação até falhar do componente C;, for exponencialmente distribuída com pa_râmetro /3;, obtenha a confiabilidade R(t) do sistema completo. Obtenha tamb~~ a fdp de T, a. .duração até falhar do sistema. ·I

11.25. Considere. o mesmo sistema. a.ptesentado nó Probl. ll.Ú, exceto q~e agora os componentes C1 e C3 falham conjuntamente. Responda· às perguntas do Probl. 11.24. .. ' ~

o

!

- - -- - -- - - - - - - - - -

Somas . de Variáveis Aleatórias Capítulo 12 12:1.

Introdução

Neste capítulo desejamos tornar mais precisas algumas idéias· a que apenas fizemos referência por todo o texto. A saber., à medida que o número de . repetições de um experimento cresce, a freqüêncil1 relativa }A de algum evento A converge (em um sentido probabilístico a ser explicado) para a probabilidade teórica P(A) . É este fato que nos permite · "identificar" a freqüêncià relativa de um evento, baseada em um grande número de repetições, com a probabilidade · do evento. Por exemplo, se uma nova peça for produzida e não tivermos conhecimento anterior sobi·e quão provável será que a peça seja defeituosa, poderemos proceder à inspeção de uin grande número dessas peças, digamos N, contarmos o número de peças defeituosas dentre elas, por exemplo n, e depois empregarmos nfN como uma aproximação da probabilidade de que uma peça seja defeituosa. O número n/N é uma variável aleatória, e seu valor depende essencialmente de duas coisas. · Primeira, o valor de n/N depende da probabilidade básica (mas presumivelmente desconhecida) p de que uma peça seja defeituosa. Segunda, 'rL/N depende · daquelas N peças · que tenham sido inspecionadas. O que· iremos mostrar é que se a técnica de selecionar as N peças f?r "aleatória", então o quociente n/N será próXimo de p (em sentido a ser explicado). (Evidentemente, a seleção aleatória das N peças é importante. Se fôssemos escolher somente aquelas peças que exibissem algum defeito fisico exte~o, por ~xemplo, poderíamos prejudicar seriamente nos~os cálculos.)

·12.2. A Lei dos Grancles Números Com o auxílio da desigualdade de Tchebycheff, Eq. (7.20), esta- · remos aptos a deduzir o resultado menCionado acima. Agora, vamos

SOMAS IDJIE VARDÃVIEOS AliEATÓIF!DA.S I 285

apreciar um exemplo. Suponha-se que um mfssil guiado tenha a probabilidade 0,95 de func'ionar adequadamente durant0 um certo período de operação. Conseqüentemente, se ·soltarmos N infsseis que tenham a confiabilidade mencionada, e se X for o número de mísseis que não fU.ncionem adequadamente, teremos E(X) = 0,05N, porque poderemos admitir que X seja binomialmente distribuída. Isto é, esperaríamos que cerca de 1 nússil em cada 20 viesse a falhar. À medida que N, o número de nússeis lançados, crescer, X, o número total de misseis falhados dividido por N, deve convergir, de algum modo, para o número. 0,05. Este importante resultado pode ser enunciado de ni:odo mais rigoroso como a Lei dos Grandes Números. A Lei dos Grandes Números (Formulação de Bemouilli). Seja 8, um experimento e seja A um evento associado a 8. Considerem-se n repetições independentes de 8, seja nA o número de vezes em que A ocorra nas n repetições, e façamos iA = nA/n. Seja P(A) = p (a qual se admite seja a mesma para todas as repetições). Então, para todo número positivo e, teremos Prob [iJA-

Pi ~e)~

p(l- p) ne 2

ou, equivalentemente, Prob

liJA-Pi CXI, o segundo membro da desigualdade acima tende para a unidade. 11: neste sentido que a média aritrltética. "converge" para E(X) .

l Exemplo 12.3. Um grande núm~ro de válvulas eletrônicas é teStado .. Seja T; a duração, .até falha~, da i-:ési~a válvula... SupoI

nha-se, também, que todas as válvulas provenham da mesma reserva e também admitamos que todas sej~m exponencialmente distribuídas com o mesmo parâmetro pt. i Conseqüentemente, E(T;) = a- 1• \Seja T = (T 1·+ .. ~ +Tn)/n. A forma enunciada acima da Lei dos Grandes Números diz que se n for grande, será "muito provável" que jo valor obtido para a média · aritmética de um grande número de doaiões até falhar seja próximo ~a~.

r

288 I PROBABiliDADE

A Lei dos Grandes Números, como foi enunciada acima, relaciona-se essencialmente com a variável aleatória X binomialmente dl~­ tribuída, porque X foi definida como o número de sucessos em n repetições independentes de um experimento, e precisamos apenas associar "sucesso" com a ocorrência do evento A, a fim de reconhecermos essa relação. Assim, o resultado acima pode ser enunciado, não rigorosamente, dizendo-se que à medida que o número de repetições de um experimento crescer, a freqüência relativa de sucesso, X/n, convergirá para a probabilidade de sucesso p, no sentido indicado anteriormente. Contudo, saber-se que Xfn será "próximo" de p, para n grande, não nos diz como essa "proximidade" é alcançada. Com o objetivo de investigar este assunto, deveremos estudar a distribuição de probabilidade de X, quando n for grande. Por exemplo, suponha-se que um processo de fabricação produza arruelas, cerca de 5 por cento das quais são defeituosas (por exemplo, muito grandes). Se 100 arruelas forem inspecionadas, qual será a probabilidade de que menos de 4 arruelas sejam defeituosas? Fazendo-se igual a X o número de arruelas defeituosas ~ncon­ tradas, a Lei dos Grandes Números apenas nos diz que X/100 será "próximo" de 0,05; contudo, não nos diz como calcular ,a probabilidade desejada. O valor exato dessa probabilidade é dado por P(X< 4)

=~

e~o) (0,05)k (0,95)

10

(}-k.

Esta probabilidade seria bastante difícil de calcular diretamente. Já estudamos um método de aproximação das probabilidades binomiais; a saber, a aproximação de Poisson. Examinaremos ; agora · outra importante aproximação dessas probabilidades, · a qual será aplicável sempre que n for suficientemente grande. Considere-se, a seguir, P(X = k) = G)pk(l - p)n-Tc. Esta probabilidade depende de n, de uma maneira bastante complicada,. e não fica evidente o que acontece à expressão acima se n for grande. Para estudarmos essa probabilidade, precisamos empregar a Fórmula ., de Stirlt'ng, uma aproximação bem conhecida de n! Esta fórmula diz que, para n grande, n! ~ V27r

e-nnn+l/ 2,

no sentido de que limn-.~ (n!)/(V27r

e-nnn+J/ 2)

(12.3)

=

1.

(Demonstração

SOMAS DE VAII'UÁVIE9S ALEATÓRIAS

,_

LS

I 28S

desta aproximação pode ser encontrada na maioria dos manuais de Cálculo avançado.) A Tab. 12.1 pode dar .ao leitor uma idéia da precisão desta aproximação. Esta tabela foi extraída de W. Feller, Probability Theory and Its Applications, John Wiley and Sons, Xnc., 1st. Edition, New York, 1950.

~-

o,

iab. 12.1

e-

o, li-

le,

>'0

de

Diferença

V27r énn,n+(lf2Í

n!

Diferença

nl 1 2 5 10

1 2 120 (3,628 8)10 6 (9,332 6)10 157

100

0,922 1,919 118,019 (3,598 6)10 6 (9,324 9)10 157

0,078 0,081 1,981 (0,030 2)10 6 (0,007 7)10 157

0,08 0,04 . 0,02 ·o,oo8 0,000 8

za.

lo, a

m-

C&mentário: Muito embora a diferença entre nl e sua aproximação cresça quando n ~ "'• o ·que é importante observar na Tab. 12.1 é que o erro relativo (última coluill!.) se torna cada vez menor.

~rá

iii-

te. 10-

)ra · ~rá

Empregando a Fórmula de Stirling aos vários fatoriais que aparecem na expressão de P(X = k), pode-se mostrar (depois de numerosas transformações), que para n grande, P(X

= k) '= ~

(~) p"(l -

Pl-1'

1 k - np ] exp (· - -1 [ v'21rnp(l- p) · 2 vnp(l - p)

2 )

. (12.4)

Finalmente, pode-se mostrar que para n grande, sta ' ,,. e

P(X :s:; k) = P [

X - np . Vnp(l - p)

'"'-' _·_1_ __ -

v 127r,

< -

k - np . ] Vnp(l- p)

f_(k -np)fVnp(l-p )

_.,

e -1'/z dt.

(12.5)

Desta maneira, encontramos o seguinte resultado importante (conhecido como a aproximação de DeMoivre-Laplace, para a distribui_ção binomial): ·

o

290 I PROBABIUIJADE

Aproximação normal_ da distribuição binomial. Se X tiver uma

distribuição binomial com parâmetros n e p, e se

y

X-np

[np(I-p)]l/2 ' então, para n grande, Y terá uma distribuição aproximadamenteN(O, 1), no sentido de que

Esta aproximação será válida para valores de n > 10, desde que p seja próximo de 1/2. Se p for próximo de Oou 1, n deverá ser um tanto maior, para garantir uma boa aproximação.

Comentários: (a) Este resultado não é apenas de notável interesse teórico, mas também de grande importância prática. Significa que poderemos empregar a distribuição normal tabulada extensivamente para avaliar probabilidades que surjam da distribuição binomial. (b) NaTab. 12.2, a precisão da aproximação da fórmula (12.4) é,,apresentada para diversos valores de n, k e p. '

Tab.12.2

n = S,.P = 0,2 k

o 1 2 3 4 5 6 7 8 9 10

11

n=S,p=0,5

n=25,p=0,2

Aproximação

Exata

Aproximação

Exata

Aproximação

Exata

0,130 0,306 0,331 0,164 0,037 0,004

0,168 0,336 0,294 0,147 0,046 0,009 0,001

0,005 0,030 0,104 0,220 0,282 0,220 0,104 0,030 0,005

0,004 0,031 0,109 0,219 0,273,. 0,219 0,109

0,004 0,024 0,071 0,136 0,187 0,196. 0,163 0,111 0,062,

O+ O+ O+

O+ O+ O+

0,009 0,027 0,065 0,121 0,176 0,199 0,176 0,121 0,065 0,027 0,009 0,002

O+ O+ O+ O+ O+ O+

O+ O+ O+ O+ O+

O,OJÍ 0,004

o,ozi

0,012 0,004; ..

j

SOMAS DIE \VARBÁVEBS AlEATÓRiAS I 291

I Voltando ao exemplo acima, obser~amos que E(X)

= np =

100(0,05)

= 5,

= npq

V(X';

- p)

= 4,75.

Dal podermos escrever

.= (0-5 X-5 3-5) V4,75 _:: ; V4,7s _:: ; -v4,7s

P(X _:::; 3)

P

= c:I>(-0,92)-

c:I>(J 2,3)

= 0,168,

das tábuas du distribuição normal.

I

Comentário: Ao empregar da aproximação normal à distribuição binomial, estaremos aproximando a distribuição de uma \variável aleatória discreta com a distribuição de uma variável aleatória contínu~. Por isso, algum cuidado deve ser tomado com os pontos extremos dos intervalos considerados. Por . exemplo, pam uma variável aleatória contínua, P(X = .3)\ = Q, enquanto para uma variável I ' aleatória discreta esta probabilidade pode ser n+o nula. As seguintes correçiles de continuidade melhbram a aproximação acima:

.

(a)

.

I

1 1') P(X = k) ::::: P (k - 2.:S X .:S k + 2\ , P(a .:S X .:S w::~ P (a- -4- .:S X .:Si t b) .

.

I

(h)

Empregando esta última correção para a avaliaÇão de P(X ~ 3), teremos P(X

.:S 3)

= P(O

.:S X .:S 3)

= P

(1- +.:S X .:S 3 +)

: : : c- o,69) - 105)

=pI v- 100

>

\ CIO/v12)v'2o C=:

1 - (0,388)

105- 100 •) (10/v'12)v2o ·

= 0,352.

12.5 Outras Distribuições Aproximadas pela Distribuição a de Poisson, a de Pascal e a Gama

No~mal:

Existem algumas distribuições importantes, que não a distribuição binomial explicada na Seção 12.3, as quais podem ser aproximadas pela distribuição normal. Em cada caso, como observaremos, a variável aleatória, cuja distribuição nós aproximaremos, pode .ser representa~ a como a soma de variáveis aleatórias independentes, dando-nos assim uma aplicação do Teorema do Limite Central, como foi explicado na Seção 12.4. :;-.··

298 I PROBABDUDADE

(a) A distribuição de Poisson. Recorde-se de que uma variável aleatória de Poisson . surge quando (sujeita a determinad·as hipóteses) estivermos interessados no número total de ocorrências de algum evento, em um intervalo de tempo de extensão t, com intensidade (isto é, t.axa de ocorrência por unidade de tempo) de a (veja a Seção 8.2). Como foi indicado naquela seção, nós poderemos considerar o número total de ocorrências como a soma das ocorrências em intervalos meno~ res não-imbricados, tornando, dessa maneira, aplicáveis os resultados da seção precedente. '

Exemplo 12.7. Suponha-se que, em uma determinada central telefónica, as chamadas cheguem com a taxa de 2 por minuto. Qual é a probabilidade de que 22 ou menos chamadas sejam recebidas durante um período de 15 minutos? (Admitiremos, naturalmente, que a intensidade permaneça inalterada durante o período considerado.) Se fizermos X= número de chamadas recebidas, então, E(X) = 2(15) = 30. Para calcular P(X < 22), e aplicando a correção de continuidade [veja a Eq. (b) que está imediatamente antes do Ex. 12.4 ], teremos

P(X .7. 200) = 1 - P(M ~ 7.200). Ora, o valor máximo será menor que 7.200 se, e somente se, todo valor amostral for menor que 7.200. Daí, I

P(M

>

7.200)

= 1-

[F(~.200))1° 0 .'

Para calcular F(7.200), recordemos que para a variável aleatória exponencialmente distribuída com parâmetro 0,001, F(t) = 1 - e- 0•0011 • ( '

.318 I PROBABILIDADE

Portanto, F(7.200)

= 1 - e- 0 •001 = 1 - e- 7 •2 = 0,999 25.

Por conseguinte, a probabilidade pedida é 1 - (0,999 25) 100 = 0,071. (c) Qual é a probabilidade de que a menor duração até falhar seja menor do que 10 horas? ExigireJl10S que P(K < 10) = 1 - P(~ 2: 10). Ora, o mfnimo da amostra será .maior do .que. ou igual a 10, se, e somente se, todo valor amostral for maior do qué ou igual a 10. Portanto, P(K


... , Xn) e K = mín (X 11 . . . , Xn). Estabeleça a distribuição de probabilidade de Me de K. [Sugestão : P(M = m) = F(m) - F(m - 1), onde F é a fd de 111.] 13.4. Uma amostra de tamanho 5 é obtida de uma variável aleatória com distribÚição N(12, 4). (a) Qual é a probabilidade de que a média amostral exceda 13? (b) Qual é a probabilidade de que o mínimo da. amostra seja menor do que 10? (c)

Qual é a probabilidade de que o máximo da amostra exceda 15?

13.5. A duração da vida (em horas) de uma peça é exponencialmente distribuída, com parâmetro f3 = 0,001. Seis peças são ensaiadas e sua duração até falhar é registrada. (a) Qual é a probabilidade .de que nenhuma peça falhe antes que tenham decorrido 800 horas ?

(b)

Qual é a, probabilidade de que nenhuma peça dure mais de 3.000 horas?

13.6. Suponha que X tenha distribuição N(O, 0,09). Uma amostra de tamanho 25 é obtida de X, digamos X1, .... , X26· Qual é a probabilidade de que

2:7:

1

X;~ exceda 1,5?

13.7. Empregando uma tábua de números aleatórios, obtenha uma amostra aleatória de tamanho 8 de uma· variável aleatória que tenha as seguintes distribuições: Exponencial, com parâmetro 2. De qui-quadrado, com 7 graus de liberdade. (c) N(4; 4). (a)

(b)

13.8. Na Seç. 13.5, apresentamos um. método pelo qual amostras aleatórias de uma distribuiç_ão especificada podem ser geradas. Há vários outros métodos pelos quais isto pode ser feito, alguns dos. quais são preferidos em relação ao apresentado, particularmente se equipamentos de cálculo estiverem disponíveis. O seguinte é um desses métodos: Suponha que desejemos obter uma amostra aleatória de uma variável aleatória que tenha distribuição de qui-quadrado, com 2k graus de liberdade. Proceda assim: obtenha uma amostra aleatória de tamanho k (com o auxílio de. uma tábua de números nJef!,tórios) de uma variável aleàt6ria que seja uniformemente distribuída sobre (0, 1), digamos ul, ... , uk. A seguir, calcule X1

=

-2ln (U1U2 ... Uk)

=

-2

L7= 1 ln (U;).

A variável alea-

tória X 1 terá, então, a distribuição desejada, como indicaJ!emos abaixo. Prosseguiremos, depois, este esquema, obtendo outra amostra de tamanho k de uma variável aleatória uniformemente distribuída, e, desse modo, encontrando o segundo valor amostral X 1 . Note-se que este procedimento exige k observações de uma

I AMOS"fiFIAS E lODST~DBUDÇÕES AMOSTRAUS

I

327

I I

I

variável aleatórilil uniformemente distribulda, pare cada obaervàçi!.o de x? 2~c. Para verificar 1!1\ afirma.ç~ feitl!l\ 1!1\Cima, procede. \como seg~,te: 1 ' • (a) Obtenh~t a funç!M> gere.triz de mom~n~ da varill.vel .aleátória -2ln (U,), onde u, é uniformemente distribulda sobre (O, 1). (b) Obtenh111 & função geratriz de ~omentos da ' -variável · ai.eatórii!l

_ 2 I:~= 1 ln (U;), onde os U 0 .si!.o variáveis ~leatórias independentes, cada um& com a distribuição acim&. Compare esta fgm ~om a da distribuição de .qui-que.drsdo e, depois, chegue à conclusão desejada. !

·, ·

13.9. Empregando o esquemm esboçado no' Probi. 13.8, obtenha ume am.ostre aleatória de tamanho 3, da. distribuição de x}l. I I

13.10. Uma ve.riáyel aleatória contínua 'X é uniformemente distril>uld& sobre· ( -1/2, 1/2). Uma amostra de tamanho n \é obtida de X e a inédia I!Jilos~ral X é calculada. Que.! é o desvio-padrão de X? I · ·

.

!.. . ,;:

I

.

13.11. Amostras independentes de tamanllos 10 e 15 são tiradas de uma ve.riável a.lee.tória norme.lmente distribulda., coni expectâncie. 20 e variância. 3. Qual será a probabilidade de que as médie.s da.s ldua.s amostras difiram (em valor : absoluto) de mais de 0,3? i

'

13.12. (l'ara este exercício e os três segujntes, leia o Comentário no final ·do Cap. 13.) Empregue a tábua de desvios normhls reduzidos (Tábua 7, no Apêndice) e obtenha urna amostra de tamanho 30, de uma variável aleatória X que tenha a distribuição N (1,4). Use esta amostra parÁ responder o seguinte:

I

.

I

I

(a) CompareP(X;;;. 2) coni a freqüência relativa do evento. (b) Compare a média amostral J[ e . a vatiância amostral S 2 com 1 e 4,

respectivamente .

\

(c) Construa o gráfico de F(t) = P(X.;; t ,) . Empregando o mesmo sistema

;:...

· . de coordenadas, obtenha o gráfico da função de 4istribuição edzpz'rica Fn defmida assim: i

O, se t O

ou, 'equivalentemente, se lim Prob [jÔ- ej ~ti:] n->"'

1

para todo "'

> O.

Comenl.ários: (a) Esta definição declara que um& estimativs será coerente se, à medid& que o tamanho da amostra n for aumentado, 'a estimativa Ôconvergirá para 8, no sentido probabilístico acima. Esta é, também, um& característica intuitivamente compreensível que uma estimativa deva possuir, porque ela diz que à medida que o tamanho da amostra crescer (o que significará, n& maioria de circunstâncias razoáveis, que mais informação se torne diSponível) a estimativa se tofnará "melhor", no sentido indic&do. (b) É relativamente .fácil verificar se uma estimativa é não-tendenciosa ou tendenciosa. Também é bastante imediato ·comparar as variâncias de duaa estimativas não-tendenciosas. Contudo, verificar a coerência, pela aplicação da def'mição acima, não é tão simples. O teorema seguinte é muitas vezes bastante útil.

!ESTiMAÇÃO DIE IP'AIRAMHROS I 333

Teorema 14.1. Seja ê uma estimativa de e baseada em uma amostra de tamanho n. Se Iimn .... ""E(ê) =e, e se Iimn .... "" V(ê) =O, então ê será uma estimativa coerente de e. Demonstração: Empregaremos a desigualdade de Tchebycheff, Eq. (7 .20). Assim, escreveremos P[l

~

1

2

ê- e1:;:;;.€],;;- E[ e- e] = €2

I



~

.

·~

=-E[8-E(e)+E(e)-e]2 = €2

~

.

1 • • • • • = - E{[e-E(e)y +2[8 -E(e)][E(8)-e]+

é

.

+ [E(ê)-8] 2 }= 1



·-..

= -€2 I V ar e + o+ [E (e) - e]2 }. Portanto, fazendo n -+ encontraremos

oo

e empregando as hipóteses do teorema,

e, por isso, igual a O (zero). Comentário: Se a estimativa tará automaticamente satisfeita.

ê for não-tendenciosa, a primeira condição es-

Um último critério, que é freqüentemente aplicado a estimativas, pode ser formulado da seguinte maneira: Suponha-se que X 1 , . • . , Xn seja uma amostra de X e que e seja um parâmetro desconhecido. Seja .ê uma função de (X1, ... , Xn).

Definição. Diremos que linear de e se: (a) E(ê) =e. (b)

ê

é a melhor estimativa não -tendenciosa

.

ê = 'L7= 1 aixi. Isto é, ê é uma função linear da amostra.

(c) V(ê).;;;; V(8*), onde e* é qualquer outra estimativa de e que a (a) e (b ), acima.

~atisfaça

I

:11

334 I PROBABILIDADE

Subseqüentemente, estudaremos um método bastante geral que ·;;:t~ fornecerá boas estimativas em um grande número de problemas, no ~~ sentido de que elas satisfazem a um ou mais dos critérios acima. ~~ Antes, porém, vamos examinar algumas estimativas que são intuiti- 'ifj vamente mW.to razoáveis, e verificar, a seguir, quão boas ou más elas .)t~ são em termos dos critérios acima. ~~

I

14.3. Alguns Exemplos Os critérios anteriores de não-tendenciosidade, vanancia mínima, coerência e linearidade nos . dão, ao menos, algumas diretrizes para julgarmos uma estimativa. Vamos agora ex~minar alguns exempl os.

:t/i

~~ :~t •:\!Mi

_';~~~~

Vamos reexaminar o problema anterior. Nós ti- ~\}~: ·~: ramos uma amostra de n rebites e encontramos que a amostra 'i~~~ (X 11 , •• Xn) apresentou exatamente k defeituosos; quer dizer Y = Exemplo 14.1.

'J''-fllI

= .L?=l X;= k. Em virtude de nossas hipóteses,· Y é uma va- ~~"~ riável aleatória binomialmente distribuída. ;~ ·}.{~R-

.

A estimativa do parâmetro p, intuitivamente mais sugestiva,. y~ , " • .,;>lF.J e p = Y/n, a proporção defeituosa encontrada na amostra. Vamos. i~~ apli~ar ~guns dos critérios anteriore§, para ver quão boa é a es:ti- ~:~~~ matlva p. \ i.il

Portanto,

p é uma estimativa não tendenciosa de p. V(p)

=

v( Y) = n n

__!_.(np)(l - p) 2

=

p(l- p)

n

Por conseguinte V(p) -7 O quando n -7 oo, e, por isso, p é uma esti- ;~ mativa coerente. Como já salientamos· anteriormente, poderão exis- ~ tir muitas estimativas não-tendenciosas para um parâmetro, algum:J; das quaiS poderão ser, no entanto, bastante insatisfat6rias. Con~ :WJ sidere-se, por exemplo, no contexto do presente exemplo, a estima- j~~ tiva p* assim definida: p* = 1 se o primeiro it~m escolhido for de:- ~! feituoso, e igual a O no caso contrário. Fica eviden.te que esta não é · ·~ uma estimativa muito boa, quando notamos que seu valor é apenas ~~ uma função de X1, em vez de XiJ ... , Xn . . No entanto, p* é não- JI -tendenciosa, porque E(p*) = lP(X = 1) OP(X = O) = p. A va- '~ riância de p* é p(l- p), a qual se compara muito mal à variância de p (l~l apresentada acima, a saber p(l - p)/n, especialmente se n for grande~ (o~

·;g

+

ii

I ESTIMAÇÃO DE PARÂMETROS I 335

I

o resultado

obtido no exemplo acima é um caso particular do seguinte enunciado geral: . I

Teorema 14.2. Seja X uma variá;vel aleatória com expectância finita JJ. e variância u 2 • Seja X a média amostral, baseada em uma amostra aleatória de tamanho n . Nesse caso, X será uma estimativa não-tendenciosa e coerente de Jl.. I · Demonstração: Isto decorre imediatamente do Teor. 13.1, no qual demonstramos que E(X) = Jl. e V(X) = u 2jn, a qual se aproxima ele O quando n ~ . co. 1 . Comentário: .Verifica-se que o resultado dl monstrado no Ex. 14.1 é um caso particular do Teor. 14.2, quando observamos que a propor~ão defeituosa ns. limos. tra, Yjn, pode ser escrita na forma (1/f&) (X1 j+ ... + Xn), onde os· X; tomam os valores um e zero, dependendo .de ser ou não defeituoso o item inspecionado.

.

I

A média amostral mencionada no Teor. 14.2 é uma funÇão linear da amostra, isto é, ela é da forma a1X1 + a 2X 2 + ... + anXn com a1 = .' .. = an = lfn. Vê-se facilmente\que P, = L~-l aJ(, constitui · ~ma estimativa não-tendenciosa de Jl. para qualquer escolha dos coe.. I ficientes que satisfaçam à condição L?=l a,= 1. Surge a s~guinte e 1

interessant~ qu~stão: Para qual escolha idos a; (sujeitos a -~i.:.1 a; = 1) sez:á a vanânCJa de Li= 1 a.X; a menor possfvel? · Venfwa-se que a . variância se tornará mínima se a;= 1/nlpara todo i. · Isto é, X constitui a estimativa linear, não-tendenciosa, de .variância mÍ'llÍma. Para verificar 1sso, considere~se M=

t a;X;, i=l

n

E

(K) .,_. 1,

.li •!i~

onde, como sempre cf>(K) = (i/V"2tr)f..:.K., e- 1' 2 dt. Assim, se fizermos a probabilidade acima igual a (1 - a), poderemos obter o valor de K {yj; . '!''-' da ·. tábua da distribuição normaL Isto é, · 2cf>(K) - 1 = 1 - a ;·í~ acarreta K = K 1 -a·~. Porque estamos interessados em obter um' intervalo de confiança para p, deveremos reescrever .a desigualdadii'/lj ·-.. ) !~·:l~;; acima I lh - p! . ~ K Vpqfn } como uma desigualdade cm p. Ora/.;;iJ

i!

v pqfn l --

.

.

1·'#1 .:iii;lffi

é equivalente a {(h- p) 2 :$ K~(l - p)p(n Se considerarmos um sistema de coordenadas (h, p), a desigualdadéo'f'~lil

{lh-

.

p J :$

K

.

.

·J

I

.

~STBMAÇÃO OIE PARÂMETROS I 363

I

'

representará a fronteira e o intel. de uma e]"1pse. rwr tipo de ~lipse será determinado por K e n: I quanto maior n, mais achatada sbrá a elipse:

o .

p

1

''' p=p,~s::J:=~:::=.__

Considere-se um ponto Q(h, p) rlo plano hzi. (Veja a l'ig. 14.13.) Q será um ponto "aleatório'' no s~ntido de que :ma primeira coordcn~da h será 'dcterminady, pelo resultado do experimento. Porque Q

_L_ _.,.h

h=c

Fig. 14.13

cairá dentro da elipse se, e somente se, l lh - pI ::;; K V1'1Jfn I, a probabilidade de que isso ocorra será 2(K) - 1. Se desejarmos ter esta probabilidade igual a (1 -a~, deveremos ei!côlher K adequadamente, isto é, K = K~-a12 • I

. Ora, p é desconhecido. (Este é\ naturalmchte, no~s6 problema.) A reta h = c (constante) cortará a Ielipse em dois pontos, digamos p = PI e p = P2 (Pode ser facilmente verificado que, para a e h dados, eXistirão sempre dois valores distintos \de p.) · Os valores PI e P2 podem ser obt·idos como a solução d:J. equação quadrática (em p): (h- p) 2 = K 2 p)pín. As soluções são PI=

hn

+ (!(2/2) -

nI -

K[h(l - h)n

n

+i K I

hn

P2 =

+ (K2/4)] /2 1

2

+ (K /2) + K [h0 2

.

h)n

(14.12)

+ (K /4))112 2

n + iK2

Portanto, li h - pI ::;; K v'pqfn l éj equivalente ·a I P1 1 ::; p ::;; pz}. · Desse modo, se K fur escolhido tal q'ue o primeiro evento tenha pro•. habilidade (1 - o:), teremos obtido um intervalo de confiança para p, . ·a saber {p 11 p2}, com coeficiente de cohfiança (1 - a). Resumindo: A fim de obter um intervalo de con(iança par:~. com coeficiente de confiarlça (1 - a), realize-se_. o experito n vezes e calcule-se a freqüência relativa do evento A, digamos h. calculem-se PI e P2 de acordo com ·as Eqs. (14.12), onde K é pelas tábuas da distrib~ição normaL Recorde-se que procedimento é válido somente i quando n 'for .suficientemente . . para justificar a . aproximação inormal.

. = P(A)

.

Comentário: Recorde-se que, na Eq. (14.12), h= X/n, onde X= número de do evento A. Portanto, X= nh\e n- X= n(1- h). Se, além de n,

364

I

I?ROBABH.. DI:liADIE

ambos os valores X e n - X forem grandes, p 1 e p 2 poderão ser calculados aproximadamente como

k

k

PI '?!h-- .jh(l-h),p,'?!.h+- .jh(l-h) .

.Jfi

.Jfi

.

Exemplo 14.22. Em determinado processo produtivo, 79 itens foram fabricados durante unia semana especificada. Desses, verificou-se serem 3 defeituosos. Portanto, h = 3/79 ::= 0,038. Empregando o procedimento acima, obteremos (0,013; 0,106) como intervalo de confiança, para p = P (item ser defeituoso), com coeficiente de confirurça 0,95. Exemplo 14~23. Uma fábrica tem um grande estoque de peças, algumas das quais oriundas de um método de produção agora considerado inferior, enquanto outras provêm de um processo moderno. Três milhares de peças são tiradas ao acaso do estoque. Dessas, verificou-se serem 1578 originadas do processo inferior. Empregando as expressões aproximadas de p 1 e p 2 , o cálculo seguinte fornece um intervalo de confiança de 99 por cento para p = proporção de peças do processo inferior:

h

1578 3000

=

0,526,

k= 2,576

2 576 ' ..j3000

v(0,526)(0,4 74) = 0,502,

2,576 p 2 = 0,526 + y'3õõO 3000

V (0,526)(0,474) = 0,550.

P1 = 0,526

Problemas 14.1. Suponha-se. que um objeto seja mensurado independentemente com dois diferentes dispositivos de mensuração. Sejam L 1 e L 2 os•comprimentos me-. didos pelo primeiro e segundo dispositivos, respectivamente. Se arnbos os dispositivos estiverem calibrados corretamente, poderemos admitir que E(L 1 ) = = E(L 2 ) =L, comprimento verdadeiro . No entanto , a precisão dos dispositivos não é necessariamente a mesma. Se avaliarmos a precisão em termos da variância, então V (L 1 ) '4= V(L 2 ). Se empregarmos a combinação linear Z = aL 1 + + (1 -a) L 2 para nossa estimativa de L, teremos imediatamente que E(Z) =L,

o

ESTIMAÇÃO DIE PARÂMETROS I 365

isto é, Z será uma estimativa não-tendenciosa de L. de a, O< a< I, a variância de Lseráummfnimo?

Para. qual valor escolhido

14.2. Seja X uma variável aleatória com expectância Jl. e variância u 2 • Seja (.'ú, ... , X,.) uma amostra de X. Existem muitas outras estimativas de u2 que se podem sugerir além daquela apresentada anteriormente. Verifique que C

'L::;;11 (Xi+l -

X;) 2 constitui uma estimativa não-tendenciosa de u2 , para um!!.

.escolha adequada de C.

Determine aquele valor d? C.

14.3. Suponha que 200 observações independentes X 11 •• • , Xm sejam obti- · dasdeumavariávelaleatóriaX.

Sabe-seque I:7~1 X,;=300 e que L~~ 1 X,.2=

0

,:,. 3.754. Empregando esses valores, C!!>lcule uma estimativll> niiD-tendenciosa de E(X) e de V(X). 14.4. Uma variável aleatória (a)

X tem

fdp j(x)

=

({3

+ l)zP, O < x < 1.

Calcule a estimativa. de MV de {3, baseada numa a.mostr& Xl,-· ., X,..

(b) Calcule a estimativa quando os valores amostrais forem: 0,3; 0,'8; 0,27; 0,35; 0,62 e 0,55. 14.5. Os dados da Tab. 14.7 foram obtidos para a distribuição da espessur& do lenho. em postes telefônicos. (W. A. Shewhart, Eccnwmic Control of Qiiality "o} Manujactuud Productz, Macmillan and Co., New York, 1932, Pág.· &i.) Admi· tindD-se que a variável aleatória em estudo tenha distribuição N(Jl, u 2 ), determine ss estimativas de S:i.v de p. e u 2 • -

Tab. 14~7 Espessura do lenho (pol) 1,0 1,3 1,6 1,9 2,2 2,.') 2,8 3,1 3.,4

Freqüência

Espessura do lenho (pol)

·2

3,7

29

4,0

62

4,3 4,6 4,9 5,2 5,5

I ():fi

153 186 193 18il 151

Freqüência

123 82 48

27 14

5 1

Freqüência total: 1.370

14.6. Suponha que T, a duração até falhar (em horas) de lllll dispositivoe1etrônico, tenha a seguinte fdp:

t > to > O, = O, para quaisquer outros valores.

j(t) = {3e-f3(t-t.),

tem uma distribuição exponencial truncada à esquerdll. de to.) Suponha que n sejam ensaiados e as durações até í:Uhar T11 .. •, Tn sejam registradas. (a)

Supondo que to seja conhecido, determine ~ . estimativa. de MV de .(3.

Supondo .que to seja desconhecido, mas ativa de l\:iV de to.

(b)

f3 seja conhecido, determine a

366 I PROBABILIDADE

14.7. Considere a mesma lei de falhas apresentada no Probl. 14.6. Agora, . N 'itens são ensaiados até To horas (To > to), e o número d~ itens . que falhem nesse perlodo é registrado, digamos k. Responda à pergunta (a) do Probl. 14.6.

14.8. Suponha que X seja · uniformemente distribuldo sobre (- a, Determine a estimativa de MV de a, baseada em uma amostra de tamanho n: X), ... , Xn . 14.9. (a) Um procedimento é realizado -até que um particular evento A ocorra . pela primeira vez. Em cada repetição, P(A) = p; suponha que sejam necessárias n 1 repetições. Depois, esSe experimento é repetido e, agora, na repetições são necessária.> para produzir-se o evento A. Se isso for feito k vezes, obteremos a amostra niJ ... , nk. Baseando-se nessa amostra, determine a estimativa de MV de p. (b) Admita que k seja bastante grande. Determine de E( p) e V(p), ond·e p é a estimativa de MV obtida em (a).

14.10. Testou-se um componente que se supõe ter uma distribuição de lhas exponencial. Foram observadas as seguintes durações de vida (em horas); 108, 212, 174, 130, 198, 169, 2.52, 168, 143. Empregando esses valores amostrais, calcule a estimativa de MV da confiabilidade desse componente, quando utilizarlo por um período de 150 .horas. 14.11. Os seguintes dados representam a duração da vida de lâmpadas elétricas (em horas): 1.009, 1.352, 1.483, L620, 1.757,

1.085, 1.359, 1.488, 1.62.5, 1.783,

1.123, 1.3GS, 1.499, 1.638, 1.796,

1.181, 1.23.5, 1.379, 1.397, L!i0.'5, 1.509, 1.639, ' 1.65>!, 1.809, 1.82H,

1.249, 1.406, 1.519, 1.673, 1.834,

1.263, 1.425, 1..541, 1.682, 1.871,

1_.292, 1.437, 1.543, 1.720, 1.881,

1.327' 1.438, 1..548, 1.729, 1.936,

1.338, 1.441, 1.549, 1.737, 1.949,

1.34& 1.458 1.610 1.752, 2.007.

Com os valores amostrais acima, calcule a estimativa de MV da confiabilidade dessa lâmpada elétrica, quando utilizada por 1.600 horas de operação, do-se que a duração da vida seja normalmente distribuída.

14.12. Suponha que duas lâmpadas, como explicado no Probl. 14.11, empregadas em (a) ligação em série, e (b) ligação em paralelo. Em cada calcule a estimativa de MV da confiabilidade, para um período de 1.600 horas operação do sistema, baseada nos valores amostrais fornecidos no Probl. 14 .11. 14.13. Suponhamos que partículas a sejam emitidas pur uma fonte ativa, de acordo com uma distribuição de Poisson. Isto é, se X for o número partículas emitidas durante um intervalo de t minutos, então P(X = k) = e-Ãt()..t)kjk! Em lugar de registrar-se o número real ® partículas erru.·tlaas,· suponha-tle que registremos o número de vezes em que nenhuma pa.rtfeula foi tida. Espec1ficamente, suponhamos .que 30 fontes radioativas de mesma cia, sejam observadas durante um período de 50 segundos e que em 25 dos ao menos uma. partícula. tenha sido emitida. Determine a estimativa de MV de baseada nessa ·informação.

.!'i ,' .I

.u

14.14. Uma variável aleatória X tem distribuição N(p., 1). vinte observações de X, mas em vez de se registrar o valor ·real, somente

ESTIMAÇÃO DE PARÃMETROS

I 367

mos se X era ou não era. negativo. Suponha 6ue o evento {X 0. j(x) = f(r) .

-. .

I

· ·que r seja conhecido, e seja X11 .. . , Xn uma amostra de X. ~termJlJe a estimativa de MV de À, baseada nesss amJtra. . I 14.16. Suponha que X tenha uma distribuição de Weibull, com fdp

.

'

x

j(x) = (Aa)xa-le-Az O.

Determine a estimativa de l\1V de

1

A,baseada em I

I

.

14.17• ~monstre o Teor. 14.3. [Sugesiao: Veja o Comentário '(a), que se segue a esse teorema.]

i

_ -

•: _ 14~18 • . Compare o valor_ de_ P~X ~ 1), \onde X tem ldistribuição N(O, 1), c.om P(t ~ 1), onde t tem dJstnbuJI(ão t de Student com: (a) 5 gl., (b) 10gl., (~)· 15 gl., (d) 20 gl., (e) 25 gl.

14.19. Suponha que X tenhr.~ distribuiç-ãb N(p., o-2). Uma amostra de tamanho .30, !ligamos X1, .. ,, XJo, fornece os se~intes valores: L~ I X i= 700,8; 1 xf = 16.395,8. Determine um intervalo de confianÇa de 95% (bilateral)

L:r-

para IA·

\

.

I

14.2(). Suponha que X tenha distribuição N(JA, 4). Uma amostra de tamanho 25 fornece a média amostral X= 78,3.1 Determine um intervalo de con_ :·__fiança de 99 por cento (bilateral) para p.. i

I

' - 14.21. Suponha que a duração da vida de lum componente seja normalmente -distribuída, N (.u, 9). Vinte componentes são ensaiados e suas durações até Jalliar 1 , .•• , X 20 são registradas. Suponha que X:= 100,9 horas. Determine um intyÍ:Valo de confiança de 99 por cento (bilateral) ;para a confiabilidade R (1 00). 14.22. Deternúne um intervalo de con!idnça de 99 por cento, unilateral \!lferior, ·para R(100) do Probl. 14.21. -... Ii Suponha que X tenha distribuição N(}l, o-2 ), onde Jl e o-2 são descoUma amostra de tamanho 15 forneceu os valores

x,:J.

=

27,3.

I

15 . L;-1 Xo = 8,7 e

Determine um inte7alo pe confiança de 95 por cento. (bi-

para u2• 14.24. Uma centena de componentes foi ensaiada, e 93 deles funcionaram de .500 horas. Determine um intervalo qe confiança de 95 por cento (bilapa.ra p = P (componente funcione mais ide 500 horas.) [Sugcstao: Em- · a Eq. (14.12).]

"i4.25. Suponha que· X, o comprimento de um parafuso, tenha distribuição Um grande número de parafusos é fabricado e depois separado em duas grandes reservas. A reserva 1 contém somente aqueles parafusos para os quais . X > 5, enquanto a reserva 2 c;ontém todos os demais. Uina amostra de tamanho n é tirada. da reserva l e os comprimentos dos parafusos escolhidos são medidos. Obtém-se, assim, uma amostra Yr, ... , Yn da variável aleatória Y, que é normal~ mente distribuída, truncada à esquerda de 5. Escreva a equação a ser resolvida a fim de se obter a estimativa de MV de p., baseada na amostra (Y11 • • • , Y,.) em N(p., 1).

cp e

termos das funções tabuladllS distribuição N(O, 1) . . 14.26.

(Distribuição de F.)

, onde rp(x) = (1/V'h)e-«'/2 e é a fd da .

Sejam X e Y variáveis aleatórias indepéndentes,

tendo distribuições X~,. e x~,, respectivamente. Seja. a. variável ·aleatóri11. F definida da seguinte maneira: F = (Xfn 1)/(Yfn2) = n-2X!nrY. (Esta variável aleatória. desempenha importante papel em muitas aplicações estatísticas.) Veri- ' fique que a fdp de F é dada pela seguinte expressão:

j

>o.

{Esta é a denominada distribuição de F (de Snedecor), com (n 11 n 2 ) graus de liber~ dade. Em virtude de sua importância, probabilidades associadas à variável alea~ tória F foram tabuladas.] (Sugestão : Para deduzir a fdp acima, empregue Teor. 6.5.) ~4.27. Esboce o gráfico da fdp h, como está apresentada no Probl. supondo que nr > n2 > 2.

14.28. Um dos motivos da importância da distribuição de F é o seguinte · Suponha que X e Y sejam variáveis aleatórias independentes com N(p.,., a,,?) e N(J! 11 , a 112 ), respectivamente. Sejam X r, ... , Xm e Y 11 •• •·, Yn, tras aleatórias de X e Y, respectivamente. EntAo a estatística Cl:~!o 1 (X~-X)~ + L~ 1 ( Y,; - YP tem uma distribuição de F, para uma escolha apropriada de Verifique isso e determine C. distribuição 7

Quais são os graus de liberdade associadoa

tt

~4.29. Suponha que a variável aleatória t tenha distribuição de t de S com 1 grau de liberdade. Qu: