Introducao a teoria da informacao [2 edicao]

Table of contents :
IMG_20230407_0031
IMG_20230407_0032
IMG_20230407_0033
IMG_20230407_0034
IMG_20230407_0035
IMG_20230407_0036
IMG_20230407_0037
IMG_20230407_0038
IMG_20230407_0039
IMG_20230407_0040
IMG_20230407_0041
IMG_20230407_0042
IMG_20230407_0043
IMG_20230407_0044
IMG_20230407_0045
IMG_20230407_0046
IMG_20230407_0047
IMG_20230407_0048
IMG_20230407_0049
IMG_20230407_0050
IMG_20230407_0051
IMG_20230407_0052
IMG_20230407_0053
IMG_20230407_0054
IMG_20230407_0055
IMG_20230407_0056
IMG_20230407_0057
IMG_20230407_0058
IMG_20230407_0059
IMG_20230407_0060
IMG_20230407_0061
IMG_20230407_0062
IMG_20230407_0063
IMG_20230407_0064
IMG_20230407_0065
IMG_20230407_0066
IMG_20230407_0067
IMG_20230407_0068
IMG_20230407_0069
IMG_20230407_0070
IMG_20230407_0071
IMG_20230407_0072
IMG_20230407_0073
IMG_20230407_0074
IMG_20230407_0075
IMG_20230407_0076
IMG_20230407_0077
IMG_20230407_0078
IMG_20230407_0079
IMG_20230407_0080
Elwiyn Edwards - introducao a teoria da informacao - cultrix - 1971 - ate p 59.pdf
IMG_20230407_0001
IMG_20230407_0002
IMG_20230407_0003
IMG_20230407_0004
IMG_20230407_0005
IMG_20230407_0006
IMG_20230407_0007
IMG_20230407_0008
IMG_20230407_0009
IMG_20230407_0010
IMG_20230407_0011
IMG_20230407_0012
IMG_20230407_0013
IMG_20230407_0014
IMG_20230407_0015
IMG_20230407_0016
IMG_20230407_0017
IMG_20230407_0018
IMG_20230407_0019
IMG_20230407_0020
IMG_20230407_0021
IMG_20230407_0022
IMG_20230407_0023
IMG_20230407_0024
IMG_20230407_0025
IMG_20230407_0026
IMG_20230407_0027
IMG_20230407_0028
IMG_20230407_0029
IMG_20230407_0030

Citation preview

ELWVN EDWARDS .

ELWYN EDWARDS

INTRODUÇÃO

A

TEORIA DA INFORMAÇÃO

Tradução de LEÔNIDAS HEGENBERG

e ÜCTANNY SILVEIRA DA MOTA

EDITO R A

CULTR I X

SÃO PAULO

Título do original: INFORMATION TRANSMISSION An Introductory Guide to the Application of the Theory of Information to the Human Sciences Publicado por Chapman & Hall Ltd., Londres. © 1964 by Elwyn Edwards

ÍNDICE

2.' edição

Prefácio

9

1. Que é Informação? -..2. Alguns Conceitos Matemáticos Fundamentais

31

4. Incerteza

44

6. Tempos de Reação ·- 7. Codificação

9. Capacidade dos Canais

EDITORA CULTRIX LTDA. Rua Conselheiro Furtado, 648, fone 278-4811, 01511 S. Paulo, SP que se reserva a propriedade !iteraria desta tradução. Impresso no Brasil Printed in Bra:âl

71

95 107

10. Informação Contínua

116

11. Apreciação Final

130

Bibliografia

Direitos de tradução para a língua portuguesa adquiridos com exclusividade pela

58 81

8. Percepção e Aprendizado

MCMLXXVI

15

3 . .Aritmética Binária e Rêdes Nervosas

- 5. Incerteza, Linguagem e Redundância

-

11

137

Apêndice 1 -

Solução de Problemas

143

Apêndice 2 -

Tabelas de log 2 n e - p(i) log2 p(i)

147 '

PREFÁCIO Cêrca de quin.ze anos decorreram desde a publicação do trabalho clássico de Shannon que despertou o interêsse pela aplicação de conceitos e medidas da teoria da comunicação às ciências do comportamento. Durante êsses anos, muito se desenvolveram os estudos e ampla bibliografia surgiu. Por que haveria, então, necessidade de uma exposição introdutória à matéria, sob a forma do presente livro? A pergunta estará parcialmente respondida se aludirmos ao grande número de estudantes de ciências do comportamento aos quais falta conhecimento de Matemática e que têm, conseqüentemente, dificutdaáe para apreender idéias que, em essência, hão de ser matemàticamente expressas. O objetivo principal dêste pequeno livro é o de transmitir a êsse tipo de lei· tor compreensão suficiente dos conceitos próprios da teoria da comunicação, habilitando-o a apreciar, de maneira crítica a literatura existente. Parece de conveniência tornar explícitos .os objetivos que esta obra não pretende atingir. Em primeiro lugar, não se faz qualquer tentativa de cobrir uma porção volumosa da bibliografia que diz respeito às aplicações da teoria a problemas de comportamento. Faz-se menção de "uns poucos exemplos, com o fito de ilustrar as técnicas de aplicação. Em segundo lugar, anote-se que estas páginas nada encerram de original; o autor busc!J tão-somente explicar, de maneira simples, o que em trabalhos outros já se encontra explanado. Em terceiro lugar, embora o autor creia que apreciável nível de entendimento acêrca do alcance da teoria da comunicação possa ser conseguido sem conhecimento matemático mais profundo, seria descabido pretender que completa compreensão do assun-

9

to é acessível ao não-matemático. A meta perseguida será, apenas, a de proporcionar conhecimento que leve a alguma familiaridade com o assunto. Certas idéias básicas e a notação relativa aos temas matemáticos de interêsse para a exposição aparecem no Capítulo 2; solução completa dos problemas propostos nesse mesmo capítulo acha-se num dos apêndices. Os leitores que não encontrarem dificuldade nessa parte da obra não deverão encontrá-la em nenhuma outra, com a possível exceção do capítulo relativo à Informação Contínua; tal assunto não pode ser tratado sem recurso ao cálculo e o leitor a quem falte o conhecimento necessário terá de aceitar, em confiança, alguns dos resultados apresentados. A intenção de escrever êste livro surgiu a partir de uma sugestão que me foi Jeita pelo Sr. A. T. W elford, a quem sou grato pelo auxílio que me prestou durante as fases iniciais de preparação do manuscrito. O Sr. H. H. Johnson e o Sr. H. Hindle também me auxiliaram, lendo e criticando partes do manuscrito, que foi datilografado pela Sra. Ray Priestley. Comentários valiosos foram feitos pelo conselho editorial da emprêsa publicadora. O Sr. P. G. Wood deu-me assistência no Jque diz respeito à leitura das provas. Além dos muitos autores citados no texto, devo referir os seguintes editôres que, amàvelmente, permitiram fransêrição .de obras por êles publicadas: The American Psychological Association, The American Association for the Advancement of Science, The American Journal of Psychology, The American Speech and Hearing Association, The Free Press of Glencoe Inc., The M.I.T. Press, Taylor & Francis Limited, The University of Chicago Press, The University of Illinois Press, D. Van Nostrand Company Limited, John Wiley & Sons, Inc. Ao longo da redação do livro, muito apoio recebi de minha espôsa. A tôdas essas pessoas devo os melhores agradecimentos.

E. E. Janeiro, 1964

10

CAPÍTULO

QUE

É

1

INFORMAÇÃO?

Já não são muitos os que sustentam, hoje em dia, que o homem atue de maneira inteiramente diversa de como atuam animais e máquinas. Essa afirmação não equivale, evidentemente, a sugerir que o homem esteja despido por completo de caraeterísticas particularizadoras ou a contrariar a opinião de que "não há nada como a mulher". Sob vários aspectos, entretanto, é inegável que homens, cães, macacos, automóveis e computadores eletrônicos obedecem a certas leis comuns. Um dos mais conhecidos princípios físicos afirma · que qualquer sistema fechado encerra conteúdo finito de energia, conteúdo êsse que se mantém constante, embora a energia possa manifestar-se sob diferentes formas, nas várias partes do sistema. (Não consideraremos aqui certos ângulos mais complexos da lei da conservação da energia.) A energia armazenada em moléculas de petróleo, por exemplo, converte-se em trabalho mecânico, no caso de um automóvel. De maneira análoga, a energia armazenada no corpo humano pode transformar-se em trabalho muscular. Em cada um dêsses exemplos, a quantidade de trabalho possível de obter do sistema está sujeita a limitações que podem ser compreendidas se levada em conta a quantidade de energia existente nas moléculas orgânicas. Suponhamos que um homem é solicitado a caminhar 500 quilômetros sem alimentar-se nem beber nem repousar. É de esperar que não o consiga; no comêço da prova, seu corpo não conta com reservas de energia suficientes para permitir-lhe chegar ao fim. A energia não é, porém, o único fator que põe limites ao desempenho . 11

Para ilustrar o segundo ponto que temos em vista, pediremos a nosso homem ( após ter êle convalescido das conseqüências da primeira prova) que bata com um lápis numa mesa durante meio minuto, ao ritmo de cinco percussões por segundo. Desta vez, êle alcançará êxito sem maiores dificuldades. Peçamos-lhe, em seguida, que bata o lápis durante outro meio minuto, agora com velocidade quatro vêzes maior do que a anterior. me deixa de ser bem sucedido, mas não por motivos ligados à falta de energia; é pequena a quantidade de energia necessária para cumprir a tarefa mencionada. A razão do insucesso está, simplesmente, em que o homem não pode alterar o sentido dos movimentos de sua mão quarenta vêzes por segundo, por menor que seja a amplitude dêsse movimento e por mais . leve que seja a carga que lhe pese na mão. Em todo sistema físico, as considerações relativas ao contrôle complementam as relativas à energia. Ambas restringem os limites do desempenho, tanto quando se trata de sêres vivos rwmo quando se trata de coisas inertes. Com freqüência, ignora-se, na prática, um ou outro daqueles tipos de consideração. Os engenheiros de rádio, por exemplo, raramente pres· tam atenção séria a problemas de energia, pôsto que os aparelhos receptores só utilizem reduzida quantidade de energia, que pode ser fàcilmente conseguida a partir de rêdes elétricas ou através do emprêgo de baterias. Os problemas oferecidos pelo rádio são os de seletividade e fidelidade, problemas essencialmente de contrôle. Por outro lado, engenheiros liga· dos ao projeto de usinas hidroelétricas preocupam-se, antes de tudo, com a energia; os problemas de contrôle colocam-se, para êles, em segunda plana. Essa diversidade de ênfase, que ora se põe na energia e ora se coloca no contrôle, levou a que a língua alemã cunhasse dois vocábulos diversos associados à energia elétrica: um diz respeito à teoria das pequenas correntes (ou seja, problemas de contrôle), outro diz respeito à teoria das grandes correntes (problemas de energia). 1

Ao fazer um estudo amplo do comportamento humano, devemos ter em conta que importa considerar energia e con" trôle. Nos exemplos acima referidos, vimos que deficiência em qualquer dos dois setores pode conduzir a falha no cumprimento de uma tarefa. Nas páginas seguintes, contudo, 12

nossa preocupação se voltará inteiramente para problemas de contrôle e admitiremos que os sujeitos de nossas experiências dispõem, sem dificuldade, da quantidade de energia necessária para memorizar palavras, embaralhar cartas, apertar botões, girar chaves ou praticar quaisquer outros atos por nós imaginados. Se surgirem falhas de desempenho, buscaremos ex. plicações em limitação de contrôle ; a respon~abilidade será lançada ao sistema nervoso e não ao muscular. O sistema nervoso humano dirige os movimentos através da transmissão de sinais que partem dos centros controladores e caminham até os músculos, os quais se contraem e executam o movimento ordenado. De maneira muito semelhante, funciona qualquer outro sistema de contrôle, transmitindo sinais que contêm informações acêrca dos "desejos" do controlador. Essas informações são interpretadas e as necessárias modificações têm lugar. No corpo humano, as informações são transmitidas sob a forma de pulsos que caminham ao longo das fibras nervosas. Em outras máquinas, a transmissão de informações pode ocorrer pela passagem de ondas sonoras através do ar ou pela passagem de pequenas correntes elétricas através de condutores. Componente importante de um computador eletrônico é a parte que nêle armazena informações. Anàlogamente, a memória humana desempenha papel extremamente importante no que diz respeito ao comportamento. Falando em memória, queremos dar a entender muito mais do que uma coleção de acontecimentos que possa ser rememorada após ter ocorrido. A memória inclui, a par disso, armazenagem de informações a que se recorre quando se desejam levar a efeito atividades comuns como a de andar e, mesmo, a de permanecer em pé. Tais atividades não poderiam ser executadas caso se interrompessem, de algum modo, as informações provenientes do sistema nervoso central. Não se conseguiu ainda compreensão total do mecanismo da memória, mas outras formas de armazenagem são comuns; letras impressas em papel e em fitas magnéticas servem de exemplo. Até aqui fizemos asserções várias a propósito da informação. Pode ela caminhar de um ponto para outro, pode ser traduzida de uma para outra forma e pode ser armazenada. Em cada um dêsses sentidos, o emprêgo que fazemos da pa13

lavra "informação" é compatível com a significáção a ela comumente atribuída. O têrmo tem, no entanto, a par dêsse um sentido técnico. Como n0 caso de um grande número d~ têrmos científicos, o sentido técnico não se aparta radicalmente do comum, mas é mais preciso. Convém, sempre, empregar conceitos que sejam quantificáveis e, em sua forma refinada o conceito de informação pode ser quantificado. ' Se tivermos em conta a asserção "hoje é sexta-feira" cabe ad:nitir que nessa frase se contenha informação, mas se f~rmos adiante e perguntarmo.s "quanta informação nela se contém?", a resposta não será imediata. A teoria da informação responde quantitativamente a perguntas como essa. A indagação particular acima feita será objeto de nova consideração, posteriormente. A. informação é, portanto, o elemento essencial de qual- . quer sistema de contrôle. Nosso propósito é o de mostrar .de que maneira se torna possível medir· a informação, acentuando-lhe a importância no contexto do comportamento humano.

CAPÍTULO

2

ALGUNS CONCEITOS MATEMÃTIQOS FUNDAMENTAIS Antes de dar prosseguimento à exposição, convém explicar o vocabulário matemático a ser utilizado. A linguagem matemática assume a forma de útil sistema de abreviações, que não apenas economiza papel e poupa símbolos, mas, a par disso, torna possível a apresentação imediata de certas relações, que seriam de compreensão difícil ou impossível se vazadas em linguagem comum. Para a maioria dos leitores, êste capítulo corresponderá a uma recapitulação. Presumir-se-á, entretanto, que êsses leitores têm algum conhecimento matemático para além da capacidade de somar, subtrair, multiplicar e dividir com razoável acêrto. índices inferiores

Freqüentemente se manifesta a convemencia de utilizar números como indicadores. Os jogadores de futebol e as casas de uma rua, por exemplo, são identificados graças a números. Essa forma de empregar os números é muito diversa do uso que dêles se faz em escalas de medida, como as de comprimento e de pêso. É absurdo imaginar que a casa n.º 6 de uma rua seja duas vêzes mais velha ou duas vêzes maior do que a casa n.º 3. Pode ocorrer que sejam casas idênticas, cada qual em um dos lados da rua, postas uma diante da outra. Quando os numerais são utilizados para êsse gênero de indicações, não dizemos que dois e dois são quatro. Empregamos números porque 14

15

( a ) não há dois números iguais; (poderiam faltar côres ou letras do alfabeto ) , e ' (e) conhecemos a ordem em que os números aparecem e, assim, sabemos se é preciso avançar .ou recuar do ponto em que estamos para atingir o especial número procurado. ( b) nunca faltarão números

nal indicativo será examinado mais adiante, quando viermos a estudar a probabilidade condicional. Parênteses ·

O número que se Utiliza como indicador é convencionalmente apresentado sob a forma de um índice inferior. Suponhamos estar lidando com um grupo de homens que serão designados respectivamente pelos números

Infelizmente, a nomenclatura matemática não é universal e nem está isenta de ambigüidades. Os parênteses, por exemplo, são usados pelo menos com dois propósitos. Em primeiro lugar, para indicar reunião dos elementos que em seu interior se contêm, de modo que os fatôres que se encontrem fora dos parênteses hão de referir-se ao todo que nêles se encerre. Caso comum é o exemplificado pela identidade

1, 2, 3, 4, 5, . . . etc.

a(b + e ) = ab +a.e.

Suponhamos, além disso, que estamos interessados na altura e no pêso de cada um dos homens. Se usarmos a letra h pa_ra indicar a altura e a letra w para indicar o pêso, poderemos, de maneira cômoda ligar a essas letras os números designativos d~s homens, d~í resultando

No segundo uso que se faz dos parênteses, êles aparecem acompanhados de números indicadores e constituem, portanto, forma possível de expressar o mesmo que se expressa com o auxílio de índices inferiores. Assim, por exemplo, em vez de escrever nossa relação de altura sob a forma

h 1 , h2 , h 3 , h4 , h-:, ,

etc.

como relação indicadora das altoras e

h1 , h2 , h3 ,

... ,

hi .. -, hn

poderemos escrever

h(l) , h( 2) , h(3) , . .. , h( i) , . .. , h(n) . como relação indicadora de pesos . É comumente útil ·dispor de um meio de indicar o homem típico de um grupo, sem individualizá-lo. Por convenção, êsse homem é representado pela letra "i", de modo que hi será sua altura e w i seu pêso. Um outro homem deve ser mencionado : o último do grupo, que se indica pela letra "n". Assim, se houver 100 homehs, o número n será o número 100. Podemos, agora, relacionar os nossos homens, suas alturas e pesos, da forma seguinte : homens: 1, 2, 3, 4, 5, i, ... n alturas: h 1 , h2 , h3 , h 4 , hG, ... hi . . . bn pesos : W i, w 2 , W 3 , w4> W 5 , •• • , W i ••. Wn Essa é maneira mais comum de empregar o índice inferior. Caso especial em que o índice inferior deixa de ser mero si16

Escolher esta ou aquela notação é pura questão de gôsto ou de conveniência. Soma

Se desejarmos determinar a altura total dos homens reunidos, escreveremos altura total = h 1

+ h2 + ha + h4 + h5

• - •

+ hi + ... + hn

e efetuaremos a soma . A indicação acima pode tornar-se excessivamente longa, motivo pelo qual se recorre, comumente, a uma abreviação padronizada, 2: hi. 2: é o símbolo que traduz a letra maiúscula grega sigma. Para conseguir expressão clara, indicamos acima e abaixo do 2: o limite superior e o inferior do grupo a ser somado. Exemplificando: 17

é indicação de que se deseja a soma das alturas de todos os homens, desde o de número 1 até o de número n, que é o último do grupo. Para a soma das alturas dos primeiros cinco homens a· indicação seria:

e para indicar a soma 'das alturas dos cinco últimos teríamos: i== n

2: hi i= (n-4)

Note-se que, no último exemplo, o limite inferior é traduzido por (n-4) devido ao fato de que a indicação de limites supõe a inclusão dos elementos indicados. Os cinco últimos homens do grupo são: n-4, n-3, n-2, n-1 , e n. Na prática, omite-se, em geral, parcialmente, ou no todo , a indicação dos limites da soma. Nessa hipótese, deve-se entender que a soma é a de todos os elementos do grupo , ou seja, n

·2: hi =

i = n

n

2,'hi = 2: hi = 2.' h, i=l

i=l

Se desejarmos fazer o cálculo da soma de somas, utilizaremos dupla notação de soma. Suponhamos, por exemplo, que são cinco os grupos de homens e que, em cada grupo, há seis indivíduos. Podemos atribuir aos homens números de 1 a 30 e indicar a soma de suas alturas sob a forma: Altura total = h 1

+ h + h:i + ... + h 2

30 .

· Por outro lado, se inicialmente fizermos a soma dos elementos de cada grupo, a soma dos cinco subtotais nos dará o desejado total geral. Se optarmos por usar êste segundo método, deveremos atribuir a cada homem uma indicação constante de dois números. O primeiro número servirá para identificá-lo dentro do grupo e o segundo para identificar o grupo a que êle pertence. Assim, as alturas dos seis homens do grupo 1 serão traduzidas por: hl'l'

h2·1'

h3 ' 1' h4•1J

h ü ' l>

hG'l

Recorrendo a essa notação, poderemos escrever : Altura total = 2: hi. 1

+ 2: hi. + 2

2: h,i. 3

+ 2 hi. + ~ hi. 4

ri

Será possível reduzir a extensão dos têrmos acima utilizando j como representativo de um grupo e m para indicar o último número do grupo, à semelhança do que fizemos quando empregamos i e n com relação a um só grupo. O total geral das alturas poderá, então, ser representado como soma dos subtotais, sob a forma: rn

Altura total =

E x ercício 2.1

Indivíduo

Altura

Pêso

(h)

(w)

70 68 74 71 67 69

143 162 157 151 150 161

1 2 3 4 5 6

Idade (a) 32 27 20 23 29 34

Côr dos olhos (c)

azul verde verde castanho azul cinzento

A tabela acima proporciona informação seis individuas. Calcular o seguinte:

18

i==n

i==n

2: hi

2: wi

i=I

i=3

i=4

2: ai i= I

acêrca

i= n

2: e, i=I

de

Essa notação mostra-se muito conveniente quando lidamos co m valôres classificados duplamente e estamos interessados não só nos subtotais, mas também no total geral.

Média A i.déia de média · (ou do que, tecnicamente, chamamos média aritmética) é uma idéia comum. Se considerarmos cinco homens, cujas idades respectivas sejam, 23, 25, 22, 26 e 24 anos, teremos que a média é 24. Determina-se tal número 19

somando as idades e dividindo o resultado pelo número de indivíduos, ou seja, l

1

Média=-1: a(i) =-X 120 = 24 n

5

Examinemos um segundo caso. Suponhamos que existam doze homens cujas idades sejam, respectivamente: Homem

Idade

( i)

(a

1 2 3 4 5 6 7 8 9 10 11 12

(i))

22 21 25 28 22 25 27 22 21 25 22 28

É em geral conveniente que a segunda coluna seja expressa sob forma de uma proporção do número total de casos e não como número absoluto. No primeira linha, em vez de 2 escreveremos 2/12, ou 1/6, e assim por diante.

,____

Idade

Proporção

21 22 25 27 28

1/6 1/ 3 1/ 4 1/ 12 1/ 6 1

Totais

Produto 3 7 6 2 4

1/ 2 1/3 1/ 4 1/ 4 2/ 3

24

Dessa forma, a soma da segunda coluna será necessàriamente 1 e o total da terceira coluna será diretamente a média, dispensando-se outras operações. Quando se calcula a média dessa maneira, a ela se dá o nome de "média ponderada''. Tal ocorre porque são empregados fatôres de ponderação (os valôres da segunda coluna) e o resultado não é uma simples média das idades 21, 22, 25, 27 e 28, média simples que seria igual a 24,6.

Poderemos calcular a média pela fórmula atrás indicada, isto é, 1

Média

Ex,ercício 2 . 2

1

= -n .l' a( i) = - 12

X 288

= 24

Em casos como êsse, podemos simplificar a operação aritmética, reunindo os homens de mesma idade e multiplicando o número indicativo de cada idade pelo número de homens dessa idade, para, a seguir, efetuar a soma. A operação será a seguinte: Idade 21 22 25 27 28

Totais

20

Número de casos 2 4 3 1

2 12

Produto 42 88 75 2l 56 288,

Qual a altura média do grupo de homens abaixo indicado? Calcular a média diretamente, e, em seguida, verificar o resultado empregando fatôres de ponderação. Homem

Altura

1

71" 69" 70" 71" 68" 65" 68" 71" 69" 68"

2 3 4 5 6 7 8 9 10

prof. Edson d'Avila IFSP

'

(11) 9 9694-7530

21

índices superiores Quando numerais são colocados na parte superior direita de letras, funcionam, freqüentemente, não como indicadores, mas como expoentes. O expoente deve ser encarado como indicação para multiplicar um número por si mesmo tantas vêzes quantas o expoente assinale, isto é, a2

= a X a;

e a4

=aX a X aX a

Logaritmos Um logaritmo é a versão contrária ou a "função inversa" do expoente. Suponhamos que temos uma equação em que a incógnita aparece como expoente, p. ex.:

3x = 81 e que desejamos escrever a equação sob a forma

Há dois importantes pares de regras para manipulação dos expoentes. Em primeiro lugar: am X an = am + n

e: Êsse par de regras pode ser fàcilmente verificado substituindo-se m e n por valôres determinados, p. ex .: 2

3

a X a = (a X a) X (a X a X a) = a

ª4 7

a2 = a X a X a X a = a

Xa

ª

x= ... Não há maneira de manipular os números 3 e 81 para atingir forma de expressar x sem introduzir o logaritmo, em sua acepção costumeira. O leitor é convidado a enfrentar o problema. Talvez já tenha percebido que o valor de x em nossa equação é 4, isto é:

34

Não há, contudo, conjunto de regras que nos leve à solução x 4 sem o emprêgo de logaritmos .

=

2

Podemos definir o logaritmo dizendo que :

Do exposto decorre que:

=

se Ax B então x = logAB o que se deve ler da seguinte forma: "Se A elevado à potência x é igual a B, então x é igual ao logaritmo, na base A, de B." Em outras palavras, o logaritmo, na base A, de uma quantidade B é a potência a que a base A deve ser elevada para tornar-se igual a B.

Em segundo lugar:

Estas duas últimas relações podem ser verificadas de maneira análoga à como se fêz a verificação das duas primeiras, substituindo m e n por valôres determinados. Exercício 2. 3 y5 X y4

Simplificar :

= 81.

5

(y4

É possível, claro está, construir tabelas de logaritmos de números em qualquer base. Três dêsses conjuntos de tabelas são de emprêgo geral. Logaritmos comuns são calculados na base 10. Os logaritmos naturais, ou neperianos, têm a base e, que é uma constante matemática importante, com o valor aproximado de 2,718. Face a problemas de comunicação, é conveniente calcular logaritmos na base 2.

X y2) + y3, - - - + yB y2 X y

E xercício 2. 4

Qual é o logaritmo de 16 n as bases respectivamente 4, 2, 1?

22

23

Os logaritmos têm propriedades análogas às expressões equivalentes que apareçam sob forma de expoente, tal como referidas acima. Essas propriedades são a seguir mencionadas

+

.·ym x yn = ym+n ym-;-yn = ym - n y o= 1 (ym) n = ym x n

ou logvm logvn = logv(m X n) ou logvm- logvn = logv(m -;--11) ou logvl =0 ou n X logvm = logvm n .

Por vêzes, desejamos passar logaritmos expressos numa base para outra base. Isso pode ser fàcilmente feito . Suponhamos que temos o logaritmo de m na base y e desejamos passá-lo para a base z. Podemos escrever: logy. m =A, então (por definição) m = yA Obtemos, a seguir, os logaritmos de base z de cada um dos membros da equação, de modo que: log m =A X log y z

z

e substituímos o valor de A, tomando a primeira equação, para obter: log m z

p(ÊXITO)

= n.º de possíveis meios . de obter 5 ou 6

6

n.º total de resultados possíveis

= logy m X logzy

Exercício 2 . 5 Dado que log, 10 = 3,3219, usar tabelas de logaritmos c.o muns para calcular (i) log, 12 e (ii ) log, 41,2; Verificar as respostas, conferindo-as com as tabelas que se encontram ao fim do livro.

Probabilidade. Quando ouvimos dizer "provàvelmente choverá na próxima semana'', sabemos o que se pretende 'dizer embora fôsse difícil responder à pergunta "Quão provável que chova?"

l

24

Bste não é o local adequado para examinar as varias teorias de probabilidade, mas convém que nos demos conta de · como são medidas as probabilidades. Evitaremos o problema da definição e diremos que a probabilidade tem a ver com o resultado dos expeiimentos quando seja impossível predizer em pormenor um resultado particular . O índice de medida da probabilidade varia de O a 1. Zero indica impossibilidade e a unidade corresponde à certeza. A tudo que se situe entre êsses limites é atribuído um valor fracionário. Se, por exemplo, atirarmos moeda não-viciada, a probabilidade de obter cara é de 0,5. Para calcular êsse valor, tomamos a razão do número de modos pelos quais cara pode ser obtida, relacionando-o ao número total de resultados possíveis de um único lançamento da moeda, isto é, 1 :2 ou seja, 0,5. Recorramos a um segundo exemplo. Atiramos um dado e o resultado obtido deve ser tomado como êxito ou insucesso. Entenderemos por êxito que foi obtido um 5 ou um 6 e qualquer outro número corresponderá a insucesso. A probabilidade de êxito é, portanto:

A probabilidade de êxito é, pois, 2/6 ou 1/3. De outra parte, a probabilidade de insucesso é 4/6 ou 2/3. · A soma dessas probabilidades deve ser igual à unidade. Em outras palavras, há certeza de êxito ou insucesso, pois que não existe uma terceira alternativa. Um maço de cartas de jogar nos dá excelente meio de enfrentar a questão da probabilidade. Num caso simples, podemos perguntar: "Qual a probabilidade de retirar um ás , quando retiramos uma carta do baralho?" A solução é a seguinte: p( ÁS)

n.º de resultados que são ases

------------=n.º total de resultados possíveis

4

52

.1

= -13 25

Suponhamos que a indagação seja agora "Qual a probabilidade de retirar um ás vermelho?" Há duas maneiras de chegar a uma solução. Empregando o método direto, temos: n.º de resultados que são ases vermelhos

1

p (VERMELHO OU FIGURA) =

= - = -

p.( ÁS VERM. ) =

.

2

como exemplo a probabilidade de retirar uma cart,a que seja vermelha ou que seja uma figura. A aplicação direta da re. gra referida nos conduziria à errônea conclusão de que:

· n.º total de resultados possíveis

52

26

Como alternativa, podemos recorrer a uma regra aplicável quando se fazem duas classificações. A regra é a de que p(A e B) = p(A) X p(B)

Em nosso exemplo, isso equivale a dizer que a probabilidade de retirar uma carta que seja, ao mesmo tempo, vermelha e um ás, é dada pelo produto da probabilidade de retirar uma carta vermelha pela probabilidade de retirar uni ás, isto é: p(Ás VERMELHO) = p(Ás) X p(CARTA VERMELHA) ·4

1

1

52

2

26

p (VERMELHO) + 3

Consideremos um outro problema. "Qual a probabilidade de que uma carta retirada do baralho seja uma figura ou um ás?" Se enfrentarmos êsse problema empregando o método direto, teremos que: ' ) OU AS = -16

52

p (FIGURA)

19

= -;+13=26

A solução correta (que pode ser verificada através de recurso a um baralho) é, porém, 8/13. A razão d~ nosso êrr~ reside em havermos contado algumas cartas duas vezes. O rei de ouros, per exemplo, apareceu tanto na contagem de cartas vermelhas quanto na contagem de figuras. Para chegar a um resultado correto, a probabilidade de uma carta ser ao mesmo tempo vermelha e uma figura deve se.r subtraída. Obteremos, então: p(VERMELHO OU FIGURA)= p(VERMELHO) p(VERMELHO E FIGURA)

=- X-=-

p ( FIGURA

1

+ p(FIGURA) -

Ou, de maneira mais geral: p(A ou B)

= p(A) + p(B) -

p(A) X p(B)

Utilizando essa fprmula, teremos o resultado correto:

P(VERMELHO ou

1

3

1

3

8

FIGURA)=-+--- X - = 2

13

2

13

13

A solução pode também ser encontrada por meio de uma regra que se vale de : p(A ou B)

= p(A)

+ p(B)

Em nosso exemplo, teríamos: p(FIGURA OU ÁS)= p(FIGURA) + p(ÁS)

D

D

No caso em pauta, a regra levou a resultado positivo, mas devemos ser cuidadosos ao empregá-la. Ela só é aplicável quando as classificações se excluem mutuamente. Tomemos

26

IA) FIGURA 2 . 1 :

(8}

Representação de probabilidades de resultados independentes.

27

Essas duas regras podem ser ilustradas recorrendo-se a um diagrama. Na figura 2 . 1 A, aparece um quadrado cujos lados têm comprimento igual à unidade e que é, pois, de área igual à unidade. Traça-se uma linha vertical à distância p(A) do lado AD , de modo que o retângulo AEFD tenha área igual a p( A) unidades. Na figura 2 . 1 B, aparece o mesmo quadrado, com um outro retângulo ABHG, de área p( B), superposto . Então, a grandeza de AEIG, que representa a parte do quadrado onde se incluem tanto A quanto B, tem a área: p(A).p(B)

A área total sombreada, que representa A ou B, será p(A)

+ p(B) -

p(A) .p(B)

Convém dispor de um meio de indicar cada uma das quatro áreas em que o quadrado foi dividido. Se escrevermos A' para não-A e B' para não-B, teremos: p(A') p(B')

..,

/>~

= 1 -= 1t> r

" formaçao poss1ve1s, em cada caso transmitida aos sujeitos. N .º do Experimenta 1 2

3 4 5

94

Ordem da Matriz 3 4 6 8 10

X X X X X

3 4 6 8 10

H (in.) (bits/s inal)

N .º de Possibilidade·

9 16 36 64 )()()

1

3,2 4,0 5,2 6,0 6,6

T (in.; ex- ) (bits/ sinal) 3,2 3,9 4,4 4,5 4,4

95

... de H( in.) aparecem na tabela acima. Ocorreram erros exceto no caso da matriz 3 X 3 - e, por isso, os valôres de T( in .; ex. ) são inferiores aos do correspondente H( in.). Examinemos, agora, a maneira como foi calculado T ( in.; ex.). Para exemplo, tomemos o caso da matriz 3 X 3, em relação à qual são, nove os estímulos possíveis e nove as possíveis respostas. Há duas incertezas básicas a considerar, H(in .) e H ( ex. ). Para avaliar T(in.; ex.), utilizamos a equação :

+ H( ex.) -

T(ín. ; ex.) = H(in.)

. . os quadrículos que formam uma esses reg1stros ocupanam. diagonal, cruzando a matnz . .. emos ue se fazem vinte re. No nosso exemplo, adm1ur d qm dos nove estímulos d t ente a ca a u · gistros, correspon. ei:i emd. stímulos provoca resposta correossíveis. A maioria ~sses. e Pta, ma s ha' enganos ocasionais. H ( in.) é expresso por· H(in.) =log:i9 = 3,17 bits/sinal

H(ín.; ex. )

Os três valôres que se situam à direita, nessa igualdade, podem ser obtidos a partir da matriz de freqüência do tipo a seguir referido. Os dados incluídos no exemplo não foram colhidos do experimento de Klemmer e Frick, mas são fictícios. Em cada coluna, aparece um dos nove estímulos possíveis, ao passo que nas fileiras são indicadas as respostas. Em cada um dos quadrados da matriz, registra-se o número de vêzes em que se associam cada entrada e saída. Se não houvesse erros,

H (ex.) é expresso por H(ex.) -1: p(r) log2 p(r)

=

d resposta determinada . onde p( r) é a proba~ilid?de , e d~m:oma dos dementos da Obtém-se essa expressao a:raves Os valôres de Freqüência co~­ quarta coluna da tabela abaixo. . das fileiras na tabela ac1respondem, naturalmente, aos totais ma reproduzida.

Quadrado do estímulo (entrada) 1 1

..

~

2

3

20

5

6

7

8

9

1 19

2

4

Totaís de fíleíra s 21

1

20

18

18

'"O

'õi

"'

~

3

!'!

4

. o

5

"'

6

_o_ "' ~

'"O

17 1

1

17 20

1

1

23

19

20

o

'"O

..."' "'::>

'"O

CJ

7

1

8

19

2

22

1

17

18

9 Totaís de colunas

96

20

20

20

20

20

20

20

1

20

21

20

20

180

Quadrado da Resposta

Freqüênciir

1 2 3

21 20 18

Probabilidade _: p(r)log2p(r) p(r)

6 7 8 9

23 20 22 18 21

~13 Jl 1 OJ12 0; 10 0;12

0137 0135 0J33 0;31 0;38 0135 0,31 o,33 0;37

180

1)00

3116

' Totais

4 5

17

0112 0111 OilO 0;09

.. H. ( ex. ) -- 3 ' 16 bits/sinal. Consequentemente, ·. H(in .; ex.) é expresso p9r H(in.; ex.)= --:E p(i) log2 p(i), Td d d a determinada combinação onde p( i) é a probNab1 ~ a e. - e d:;:1 brevidade, deixa-se de inestíinulo-resposta. o mteres,e 'J7

cluir tabela semelhante à atrás reproduzida, anotando-se, porém, que o processo de elaboração é idêntico. Tomamos cada uma das freqüências indicadas na matriz, dividimo-la por 180, para obter a probabilidade, e somamos-lhe os valôres de - p(i) log 2 p(i) .

D(in .: ex . )=

Em nosso exemplo:

Obtemos H(in. ; ex.)= 3,52.

2,81

D(in .: ex.)

Estamos, agora, em condições de calcular a quantidade média de informação transmitida, utilizando a equação

+

T(in., ex.)= H(in.) H(ex.) - H(in., ex. ) 3,17 3,16 - 3,52 = 2,81 bits/sinal

=

+

Com base nesse valor de T( in.; ex.) podemos calcular a quantidade de informação que se perde, Hex. ( in.) bastando, para isso, recorrer à equação

Hex. (in.) = H(in.) - T(in.; ex. )

.= 3,17 =

= -3,16 = 88 por cento.

. 1ar re fen.do, Por serem H(in.) No caso partlcu · · easH(ex.) funçõesaproD· . . tam b em , ' ximadamente iguais, s,a- 0. quase 1gua1s . orém não ocorre necessariamente. isso, p ' erimento de percepçao, asVoltando agora a nosso exp. d T( i·n . ex ) fo1' d H(m ) e e ., · sinalemos que os va ores e b r â~cia de método pela priram por nós ?btidos com o /~;ke ( 1951). Na Figura 8 .1, meira vez descnt? .por Garnler_ . tre H( in. ) e T( in.; ex. ). indica-se em grafice a re açao en

2,81 0,36 bit/sinal

5,0

A proporção entre a transmissão efetiva e a incerteza de entrada é freqüentemente usada para medir a eficácia da transmissão, o que se indica por D( ex.: in.) . . ) D( ex.: m.

T(in.; ex.) ) H(ex.

Transmissão Efetiva =--------

T(in.; ex.)

. Transmissão Perfeita

H(in.)

0

'" e:

·;;;

? :E

4,0

No exemplo dado, D(ex.: in .) =

2,81

--

3,17 = 88 por cento É óbvio que, diversamente de T(in.; ex.), a função D é não-simétrica. Na notação, indica-se essa diferença utilizando dois pontos e não ponto e vírgula.

Podemos definir a função D alternativa, que mede a fidedignidade da transmissão, nos têrmos seguintes:

98

.s j,0

....-.-

~/f~-~·3,0~-~~o;;--~5'.no-~6:~0---=,,7~ H(in.) (bits/ sinal) FIGURA g .1 : Resultados do experimento de. kpercepção, levado a efeito por Klemmer e Fnc .

99

Nota-se que, enquanto a incerteza de entrada aumenta entre 3,2 e 5,2 bits/sinal, a transmissão aumenta, mas posteriores aumentos de H ( in.) não produzem alterações significativas em T( in.; ex.). Isso quer dizer que só uma quantidade finita de informação (no caso, 4,4 bits/ sinal) pode ser colhida de um tipo específico de quadro exposto por período de tempo determinado. Claro que se alterarmos o tipo de quadro ou o tempo de exposição, torna-se possível alteração da quantidade de informação transmitida. Klemmer e Frick foram adiante e investigaram os efeitos de duas alterações no quadro: ( i) omissão das linhas que formam o quadrado; ( ii) apresentação simultânea de mais de um ponto. Não concluíram êles que se registrasse qualquer alteração da quantidade de informação transmitida quando eram eliminadas as linhas que formam os quadriculados interiores. O aumento do número de pontos produziu, entretanto, acentuado efeito: aumentando de 1 para 4 o número de pontos na matriz 3 X 3, a quantidade de informação transmitida aumentou de 3,2 para 6,6 bits/sinal. O leitor interessado na aplicação prática da teoria da comunicação ao campo da Psicologia dar-se-á conta de que o experimento mencionado é pródigo em . sugestões de grande valor para a elaboração de quadros visuais. Um experimento que relaciona a incerteza à memoria foi descrito por Aborn e Rubenstein (1952). Êstes investigadores imaginaram uma linguagem artificial construída de maneira tal que trechos dela contivessem quantidades de incerteza média fàcilmente controláveis . A linguagem consistia de dezesseis palavras sem sentido, cada uma delas correspondendo a uma sílaba pronunciável, onde sempre figuravam três letras. Essas dezesseiS palavras acomodavam-se em quatro grupos, cada um dêles incluindo quatro palavras começadas com a mesma letra. Foram compostos seis trechos, com cêrca de trinta sílabas cada um. Em cada um dos trechos se continha uma quantidade diferente de incert,eza média, que variava entre 1 e 4

bits/sílaba. No primeiro trec h ~ a si'l ab a apa recia aleatària mente colocada, de sorte que a i~certeza média era

H = log'.! 16

= 4 bits/sílaba. Nos demais trechos, surgiam diferentesA q~antida.?es . ~e redundância através da introdução de dependencias sequ1nciais entre sílabas sucessivas. No quarto trecho,. por exemp o, as sílabas eram divididas por vírgulas .em. con1ílunbtos de qu.atrd. Em cada um dêsses conjuntos, a primeira s a .ª era re~ua a do ru o 1 a segunda sílaba do grupo 2, e assim por .diante. A c~d! alt~r,a do trecho era, portanto, possívelCpded1zer lfe ue ru o seria retirada a sílaba segumte. . a a esco 1a dever~ r~cair, pois, sôbre uma síla~a d~ um con1unto de qu atro e a incerteza média era de 2 bits/ silaba. . ' Aos sujeitos se fornecia, de início, uma fôlha. ~e .papel contendo tôda a linguagem, de sorte a poderem fam1hanzar-se 1 Em seguida mostrava-se-lhes um trecho de cada vez , colm e a., d de treAs 'm1·nutos com a recomendação de que o pe o peno o ' · , d d memorizassem. Imedia tamen~e após decomdo o peno ~ e três minutos, os sujeitos reg1stravam tanto quanto pud--ssem recordar do trecho observado. . _ Dois resultados foram colhidos a partir das pas.~agdns . d Em primeiro lugar, fêz-;;e urna contagem as memonza as. E 'd obteve se a sílabas corretamente memorizadas: m seg;i1 ~Í '1 1- d uantidade de informação memonzada, atraves o. ca cu o o qroduto do número de sílabas corretamente ~emor1zadas e do pseu conteu'do me'd1'0 de informação · Êsses dms resultades destinavam-se a testar as duas hipóteses em exame: 1. O número de sílabas memoriz~das au~enta à me~ida que decresce a quantidade de mform~çao n~ entra a. 2. A quantidade de informação memonzada e constante para todos os trechos.

Os resultados obtidos pelos sujeitos apoiaram ~ pdimeira hi ótese. O número de sílabas memoriza~as a paru,r o trech~ 6 foi mais de duas vêzes superior aq numero de silabat demorizadas a partir do trecho 1. De outra p~rt~, os resu t~:~ não corroboraram inteir,amen te a segunda h1 potes e' h tal 1c4 se mostra na Figura 8. 2. No que se refere aos trec os . - ' a

100 101

quantidade de informação memorizada manteve-se significativamente constante mas d' . ,· 6 . ' ' no que iz respeito as passagens 5 e ' q~e contmham respectivamente 1~ e 1 bit p 'I b menos mformação foi memorizada . ~ or si a a, 30

0 0

"'

:.õ "'20

-o

"' ·.:; N

o

E

o

OJ

E

30

60

90

120

Informação de entrada (bits )

o

"""' c"'

F IGU RA

.: 10

8. 3 : Relação entre entrada e perda, no experimento de memorização .

..8

....e

miliarização com a linguagem artificial, de dez minutos para dez horas. Em segundo lugar, em vez de o período de estudo do trecho ser de apenas três minutos, os registros de memorização foram feitos após 1, 3, 5, 10, 15 e 20 minutos. o ~~--;,10;;-~~~~-;;1;;--~--:-i:--~~~~ 60 90 120 I nformação de entrada ( hits ) FIGURA

8.2:

Resultados colhidos por Aborn e Rubenstein no experimento de memorização.

, . Relação interessante aparece na Figura 8 . 3, onde está graficamente contraposta a informação perdida à informa ão â~d en~rafda. - AlI?arenteme?te, a quantidade de informação p~r1 a e unçao mear da mformação de entrada. f'.m trabalho posterior, os mesmos autores Aborn e Ru b enstem (1954) des r . ' T d . ' c ~vem outros experimentos que fizeram ut1 izan o cmco dos seis trechos do estudo referido . Neste ~~~r~do trabalho, ~ora~ introduzidas duas alterações de proento. Em primeiro lugar, aumentou-se o período ele fa-

Os resultados falaram em favor da procedência da primeira hipótese atrás mencionada: maior número de sílabas foi recordado à medida que diminuía a quantidade de informação de entrada. As alterações de procedimento levaram, entretanto, os investigadores a uma conclusão diferente no que se refere à quantidade de informação na entrada e à quantidade memorizada. Nestes últimos experimentos, parecia não haver quantidade constante de memorização. Verificou-se, em vez disso, que a quantidade de informação memorizada aumentava com o aumento da quantidade de informação de entrada. Na Figura 8. 4, mostra-se a relação entre informação de entrada e informação perdida, para períodos de estudo de 1, 3, 5, 10, 15 e 20 minutos . Para obter essas curvas, é necessário introduzir certo ajuste nos dados colhidos por Aborn e Rubenstein. Os autores dividiram os sujeitos em dois grupos . O Grupo 1 trabalhou com trechos cuj as entr.adas eram,

102 103

300

0

fmin.

+ J m in. A.

Smin .

!:l 10mi n.

~

".i5200

X 15min. • 20min .

o

""'-" "' E

lie: 100 .....

o

700

2 00

300

Entrada ( bits ) F IGURA 8. 4 : Relação entre entrada e perda no experimento

de Rubenstein e Aborn.

respectivamente, de 120, 64 e 32 bits. O Grupo 2 trab:llhou com trechos cujas entradas eram, respectivamente, de 120, 75 e 48 bits . Infelizmente, os grupos não tiveram desempenho equivalente; assim, no trecho comum a ambos, o Grupo 2 alcançou uma saída aproximadamente 1:llz vêzes superior à do Grupo 1. Por essa razão, os resultados alcançados pelo Grupo 2 foram divididos pelo fator l:llz, para que se obtivessem, nos trechos não-comuns, dados passíveis de comparação. Vê-se, pela Figura 8 . 4, que, sendo os dados processados dessa maneira, resulta um conjunto de linhas retas. A quantidade de informação perdida está linearmente relacionada com a quantidade de informação de entrada. Miller e Selfridge ( 1950) fizeram experimentos com trechos formados ·por palavras inglêsas. Os trechos apresenta-

104

FIGURA 8 . 5: Um sujeito de olhos vendados traça o caminho ao longo de um labirinto em T.

vam variação na extensão em que se aproximavam de um texto inglês comum. Verificou-se que eram mais lembradas as pala. vras que apareciam nos trechos de maior semelhança com a prosa inglêsa. Verificou-se, ainda, que .a qu antidade de informação memorizada permanecia quase constante. Muitos outros pesquisadores recorreram a técnic:1s de análise de informação para descrever dados relativos à memória. Dêsses trabalhos , emerge um ponto de particular importância: o de que os níveis de desempenho humano dependem muito da estratégia de codificação adotada pelo sujeito . Já fizemos notar que a forma de entrada, nos experimentos que dizem respeito a tempos de reação, afeta as taxas de transmissão de informação. No caso de experimentos de memorização, há campo muito maior para que os sujeitos façam variar os métodos de recodificar a entrada, antes que ela seja armazenada e, posteriormente, recolhida. Demonstrou-se, por exemplo, que sujeitos pouco preparados têm capacidade de memória que abrange cêrca de sete itens, sejam êstes letras do alfabeto, números binários ou números decimais. As quantidades de informação respectivas são, entretanto, de 33, 7 e 23 bits. Se, porém, ensinar-se ao sujeito como recodificar os números binários, transformando-os em decimais, e se êle tornar-se hábil nessa transformação, poderá (através d{. uma retradução) reproduzir muito mais que sete dígitos binários. O autor dêste livro utilizou-se de um simples labirinto em T para demonstrar o valor da recodificação de informações que devam ser aprendidas. Recorre-se a dois grupos de sujeitos. Os do Grupo 1 têm seus olhos vendados, devendo, em seguida, aprender a acompanhar o traçado de um labirinto semelhante ao que aparece na Figura 8. 5 e o conseguem valendo-se de um lápis. Três traçados consecutivos sem êrro constituem o critério de êxito. Os sujeitos do Grupo 2 devem aprender o traçado do mesmo labirinto, mas recebem instruções que os familiarizam com a técnica de atribuir a uma volta à esquerda o código O e, uma volta à direita , o código 1; a par disso, aprendem a agrupar os dígitos binários em conjuntos de três e a traduzi-los em númercs decimais ::i serem memorizados. Para reproduzir o caminho correto através do labirinto, o sujeito tem de traduzir cada dígito decimal em três dígitos binários, executando as correspondentes voltas à esquerda ou à direita.

prof. Edson d'Avila IFSP

(11) 9 9694-7530

105

A .fim, por exemplo, de determinar o caminho que deve se~~ir ao longo do labirin~o. represe?tado n\l Figura 8 . 6, 0 sujeito deve guardar os digitos decim:ris 3 5 2 traduzi-los sob a forma '

011

101

010

DED

EDE

e, a seguir, traduzi-los por EDD

CAPÍTULO

Fim

9

CAPACIDADE DOS CANAIS Já tivemos ocasiao de aludir aos conceitos de canal de informação e de capacidade dêsse canal. No presente capítulo, examinaremos, de maneira mais aprofundada, questões pertinentes ao assunto.

Início FIGURA 8. 6 : Labirinto em T, ao qual

codificada 3 5 2.

se aplica a solução

. Verificou-s~ que os sujeitos que integram o Grupo Í ' precisam faz~r. mais de vinte tentativas pµra se familiarizarem - e' f ora d o comum os sujeitos dcom Go labmnto ' ao pa sso que nao 0 . rupo 2 chegarem a percorrê-lo, sem êrro na terceira tentativa. ' l _Do ,que . s~ disse decorrem duas considerações práticas le at1va_s a otimização do desempenho humano. Em primeiro dugad impor~a que ~s. dispositivos de entrada sejam projetaos e maneira a facthtar percepção eficaz e rápida. Em seg~ndo, lugar, acentue-se que os métodos de treinamento· dev"'m visar a elaboração de eficientes estratégias de codificação. ~

Canal de informação é qualquer sistema capaz de veicular informações. Quando, por exemplo, realizamos experimentos· psicológicos, estamos utilizando sêres humanos como canais · de informação. Todo canal tem uma extremidade de entrada e uma extremidade de saída, sendo, portanto, direcional. No caso de um ser humano, células receptoras sensitivas atuam como mecanismos de entrada e órgãos motores como mecanismos de saída. Entre êsses dois extremos, há ligações nervosas altamente complexas através das quais caminham as informações que se dirigem ao sistema nervoso central, a:> que dêle partem ou as que por êle circulam. É útil dispor-se de medida que permita especificar a quantidade de informação cuja passagem um determinado canal pode permitir. Se o canal fôr um datilógrafo, a medida assumirá, talvez, a forma de unidades de palavras por minuto; se o canal fôr uma fibia nervosa, .as unidades poderão ser im-pulsos por segundo. No contexto da teoria da comunicação é, entretanto, mais conveniente recorrer a unidades de bits por segundo. Para qualquer canal, a capacidade C é definida como o valor máximo de T(in.; ex.) em bits por segundo. ~sse valor máximo é função da estrutura e dos princípios de funcionamento do canal.

706 107

Tivemos, anteriormente, oportunidade de examinar caso em que aparecia uma rêde nervosa na qual dois neurônios de entrada forneciam informação a uma única célula eferente. Podemos tomar êsse eferente como um canal cuja capacid ade é de 1 bit/mS. Contanto que não exista ruído no sistema há sempre meio de fazer com que T( in.; ex .) se aproxime de 1 bit/mS tanto quanto se deseje, independentemente do número e do caráter das entradas que alimentem êsse canal. P reocupemo-nos agora com um canal em que o ruído esteja presente. Na Figura 9 . 1, temos uma rêde nervosa com um neurônio de entrada, R , que fornece informação a um eferen te E. Aparecem , além disso, dois neurônios de ruído, Nl e N2 . .

A partir das freqüências de combinações de s i~ais que aparecem na tabel~ acima,_ é possível calcular os valores das · várias funções de mformaçao. H ( in.) e H (ex.) equivalem, ambos , a 1 bit/ sím~olo, pois em ambos a entrada e a saída 1 e O ocorrem com igual probabilidade. H ( in . ex.) é calculado a partir da tabela de probabili,dades de cad~ uma das quatro possíveis combinações entrada-saida Entrada

Saída

o o

o 1 o

1 1

1

P ( in .; ex. )

-p logp

t t t t

0,531 0,375 0,531 0,375

R

FIGU RA

9 . 1 : Rêde que simula canal com

~ uí d o.

Admitiremos que é de 1/2, em cada caso, a probabilidade de R, Nl e N2 dispararem. Para pôr em evidência a rdação entre a entrada (isto é, ativação de R) e a saída (ativação de E ), com ou sem disparo de Nl e N2, pode-se construir a tabela seguinte: Entrada

NI

N2

Saída

o o o o

o o

o o 1"' o

1

o 1 o 1 o l o

º"' 1

1

1

1

1 1

1 1

1 1

o o

l

Nos dois casos assinalados por um asterisco na tabela, entrada e saída não se correspondem. O ruído produziu, no canal, alguns erros de transmissão.

108

T emos, portanto, H(in., ex.) = - E p( in., ex.) log p( in.,ex .) = 1,81 bits/sinal H ;n_(ex. ) , Hex.(in.) e T(in. ; ex.) podem ser de.terminados a partir das três funções já calc~lada~ . ~ara que ele poss'i reavivar a memória, remete-se o leitor a Figura 6. 3 e texto pertinente.

H.in.·(ex.)= H(in., ex .) - H(in. ) = 1,81 - 1 = 0,81 bits/sinal H (in.) = H(in., ex.) - H(ex.) ex. = 1,81 - 1 = 0 ,81 bits/sinal . T(in.; ex. )= H(in. ) H(ex.) - H(m., ex. )

=1+

+

1 - - 1,81

= 0 ,19 bits/sinal O s valôres do equívoco e do ruído (iguais, no c~so pa~ti­ cular que nos ocupa) podem, de outra parte, ser , obtidos direta mente a partir das inform ações que se contem na tabela Entrada-Saída.

109

Tomemos o caso do equívoco, incerteza que se associa à entrada, quando a saída é conhecida. Se a saída fôr O, a entrada será O ou 1, com as probabilidades respectivas de ~ e -;. Assim, a· incerteza de entrada associada a uma s·aída O será: 3

3

3

1

1

Essa função que aparece representa d a na F'igura 92al · N' esse cança O Val~r máximo de 1 bit/sinal quando P = 0,5. caso, T(in. ; ex.)= H( in.) - Hex.(in.)

1

+ (-;;

=1 - 1 = O bits/sinal.

log ~) log -;;) = 0,81 bits/ símbolo.

- ~

= (0,5 ' X 0,8 1 ) + (0 ,5 X 0,81 ) = 0,8 1

êi. 0,5 .!.

...

.~

bits/sinal.

Q.

O>

~

O valor de Hin .(ex. ) pode ser calculado de maneira semelhante. Note-se que o valor de Hex. (in.) calculado por êsse método direto se coad una com o valor an teriormente obtido. O efeito dos neurônios de ruído é, pois, o de reduzir T( i n., ex. ) de 1 bit/sinal para 0,19 bits/sinal.

O exemplo que examinamos diz respeito a um canal binário simétrico, ou seja, canal em que a probabilidade de receber-se O quando se envia 1 é igual à probabilidade de receber-se 1 quando se envia O. Da existência de um canal simétrico dêsse tipo, decorrem dois resultados que simplificam as funções de informação relevantes. 1. Equívoco e ruído são iguais.

2 . O válor do equívoco independe das freqüências relativas de O e 1 na entrada. P odemos expressar de maneira mais geral os resultantes valôres do ruído e do equívoco utilizando p para indicar a probabilidade de um sinal ser errôneamente recebido. Teremos

HinJex. ) = H ex.(in.) = - [p log p + (1 - p) log (1- p)]

~

o

1,0

0,5 p

Iog5 .(2. 19 . 2 : Relação entre P e - [ P 1og p + d(1 -Fip)ura Esta curva deve ser comparada com a a g

FIGURA

P)



A função atinge o valor mínimo O para dois. valôres dde p : o e 1. A interpretação d o caso P = o e' .imediata· _ , ' quan f . o Oa robabilidade de um êrro seja O, a transm1ssao ~ per elta. ~aso p = 1 é algo paradoxal. Nesse caso, todo smal que comeor ser O passa a ser 1 e vice-versa. Como se sabe ~ entre~anfo que essa transformação ocorre tódas as vêzes, o b~al recebid~ pode ser traduzido s~m êrro, ?~ so__rte que. tam ~~ nrã~ suita uma transmissão perfeita. M~d1f1caçao_ de ,smdal q . da acarrete perda na transmissão de mformaçoes e enomma Distorção. , Há uma maneira muito simples pela qual podenamos alterar á rêde nervosa que aparece na Figura 9. 1 para contornar as dificuldades que derivam de o ruído estar presente. O leitor poderá estar . interessado em assegurar-se de p~e a transmissão . através do canal revisto que aparece na igura

ª

11 0

111

9. 3 está isenta de erros; E será ativado se e somente se R fôr ativado. Infelizmente, êsse método é de pouco valor prático. Em nosso exemplo, admitimos que os neurônios de ruído são inteiramente independentes dos neurônios de sinal e que suas potências eficazes relativas (ou razão "sinal/ ruído") podem ser fàcilmente modificadas. Na prática, isso não ocorre. A potência do ruído é, em geral, uma função qualquer da potência do sinal, de modo que não há solução fácil. Conseguir razões ótimas sinal/ruído é um dos maiores problemas da engenharia dos canais de informação práticos.

>----1[2'.JE

R

N2 FIGURA

9. 3: Rêde que ilustra o efeito de um aumento da razão 's inal/ruído.

Que dizer, então, a propósito da taxa a que as informações podem ser transmitidas através de canais em que esteja presente o ruído? A resposta ao problema da transmissão mais uma vez encontra-se na arte da codificação e torna-se necessário que as longas seqüências de siriais -de entrada sejam recodificadas segundo os mesmos esquemas que usamos quando se tratava de casos em que o ruído estava ausente. Contanto que H(in. l não seja maior que o código adequado nos habilitará a transmitir informações com t~m índice de êrro tão reduzido quanto desejarmos. Se H( in.) fôr maior do que C, alguma informação se perderá, mas não haverá necessàriamente perda superior à diferença entre il (in. l e c, contanto - mais uma vez - que recodifiquemos seqüências suficientemente longas . ~ste é o teorema fundamental de Shannon para um canal com ruído.

e,

No restante dêste capítulo, daremos atenção às aplicações do conceito de capacidade de canal à transmissão humana de informações. 112

Diante do problema de determinar a capacidade de informação de um ser humano, dois tipos de abordagem podem ser .adotados. Em primeiro lugar, podemos fazer um estudo da estrutura e do modus operandi de algumas porções dos tecidos humanos que intervêm no processo de transmissão de informações. Em segundo lugar, podemos encarar a pe~soa como uma "caixa preta", sujeitando-a a estímulos conhecidos e medindo as conseqüências que daí resultem. Essas duas técnicas tipificam, respectivamente, a abordagem fisiol