Sinais e Ruídos Aleatórios

June 3, 2017 | Autor: Thiago Ferraz | Categoria: Digital Communication, Signals and Systems
Share Embed


Descrição do Produto

Sinais e Ruídos Aleatórios Denise dos Santos Castro, Thiago Vinícius Dantas Ferraz Universidade Federal de São João Del Rei – Campus Alto Paraopeba Departamento de Telecomunicações – DETEM Resumo: Este artigo descreve um estudo sobre probabilidade e variáveis aleatórias, cujo principal objetivo é aplicar tais conceitos em sistemas de comunicação, por exemplo, na transmissão de um sinal de voz, observando a informação juntamente com a interferência aleatória e ruído de canal.

possíveis dos sinais distorcidos por ruídos aleatórios. II Probabilidade E Variáveis Aleatórias Um experimento é dito aleatório, quando o resultado varia de forma imprevisível, quando é realizado várias vezes nas mesmas condições, apresenta as seguintes características:

I Introdução As informações são transmitidas, em sistemas de comunicações digitais, por meio de sequências de 0s e 1s, sequências essas de ordem e localização aleatórias, onde o termo “aleatório” é utilizado para descrever variações imprevisíveis de um sinal observado.

 

Em qualquer tentativa do experimento, a saída é imprevisível. Para uma grande quantidade de tentativas, a saída exibe uma regularidade estática.

Considerando que um experimento seja realizado n vezes sob condições idênticas e o fato de o resultado ocorrer 𝑁𝐴 vezes,

Para que uma comunicação seja feita de maneira eficiente, os ruídos que interferem no sistema devem ser minimizados, para que causem o mínimo de danos possíveis a transmissão, mas não é tão simples assim, pois o ruídos são sinais aleatórios e consequentemente imprevisíveis.

podemos associar a relação

𝑁𝐴 𝑛

a um evento

A por meio da frequência relativa, que é um número real não negativo não nulo menor ou igual a 1, a frequência relativa se define como:

Neste artigo serão apresentadas algumas ferramentas necessárias para caracterizar as propriedades dos sinais aleatórios, para que a medição e análise destes sejam possíveis, e abordado conceitos como frequência relativa, axiomas da probabilidade, variáveis aleatórias funções de distribuição, probabilidade condicional, variáveis aleatórias Gaussianas.

𝑓𝐴 =

𝑁𝐴 (𝑛) 𝑛

Quando um experimento é repetido muitas vezes, o valor da frequência relativa varia cada vez menos, tendendo a ficar constante: 𝑁𝐴 lim 𝑓𝐴 (𝑛) = lim = 𝑝𝐴 𝑛→∞ 𝑛→∞ 𝑛 onde, 𝑝𝐴 é a probabilidade do evento A.

O estudo de processos aleatórios é importante, pois torna-se possível o desenvolvimento de técnicas capazes de recuperar o máximo de informações

Probabilidade de um evento é utilizada para representar a possibilidade de uma tentativa do experimento resultar na

1

ocorrência de um evento. Para que a probabilidade do evento A ocorrer como P[A] , será construído o teorema da probabilidade através do conjunto de axiomas de probabilidades: 





Através da utilização de variáveis aleatórias é possível analisar determinados resultados, desenvolver análise de probabilidade em termos de grandeza e valor real, independente da forma ou dos eventos internos do experimente aleatório.

0 ≤ 𝑃[𝐴] ≤ 1, esse axioma afirma que a probabilidade de um evento é um número não negativo menor ou igual a 1. P[Ω]=1, esse axioma afirma que probabilidade de um evento certo é 1. Se A e B são eventos que não ocorrem simultaneamente, então

As variáveis aleatórias podem ser discretas, assume apenas um número finito de valores, ou contínuas, assume uma faixa de valores reais. Elas podem ter também valores complexos. As mais conhecidas variáveis aleatórias são: a variável aleatória de Bernoulli, Binomial, geométrica, Poisson, uniforme, exponencial e Gaussiana.

𝑃[𝐴 ∪ 𝐵] = 𝑃[𝐴] + 𝑃[𝐵].

As funções principais que caracterizam variáveis aleatória são: pmf(função massa de probabilidade) ,cdf(função distribuição cumulativa) e pdf(função densidade de probabilidade).

Frequentemente é necessário determinar se dois eventos, A e B, estão relacionados de alguma maneira, ou seja, se o evento A ocorrer vai interferir se na ocorrência do evento B ou vice versa. Isto está relacionado a probabilidade condicional, P[B|A], do evento B dado que A aconteceu por 𝑃[𝐵|𝐴] =

𝑃[𝐵,𝐴] 𝑃[𝐴]

=

𝑃[𝐵∩𝐴] 𝑃[𝐴]



,

caso os eventos sejam independentes, (a ocorrência de B não interfere na ocorrência de A, ou vice-versa) tem-se 𝑃[𝐵|𝐴] =

𝑃[𝐵,𝐴] 𝑃[𝐴]

=

𝑃[𝐵∩𝐴] 𝑃[𝐴]

=

𝑃[𝐵],𝑃[𝐴] 𝑃[𝐴]



=

𝑃[𝐵]. III Variáveis Aleatórias

pmf: função , 𝑓(𝑥) ,que associa a probabilidade de ocorrência de uma variável discreta. o Características da pmf: i. 0 < 𝑓(𝑥) ≤ 1 ii. ∑𝑥∈Ω 𝑓(𝑥) = 1 iii. 𝑓(𝑥) = 𝑃(𝑋 = 𝑥) cdf: probabilidade da variável aleatória, X, assumir qualquer valor menor ou igual a X, 𝐹𝑋 (𝑥) = 𝑃[𝑋 ≤ 𝑥] o Características da cdf: i. 0 ≤ 𝐹𝑋 (𝑥) ≤ 1 ii. lim 𝐹𝑋 (𝑥) = 1 𝑥→∞

Em um experimento aleatório, seu resultado não precisa ser necessariamente um número. Mas o resultado em si não é interessante, mas sim as medidas ou atributos numéricos do resultado, assim é melhor associar o número às saídas de um experimento aleatório. Então, é utilizado uma variável aleatória a essa associação, onde variável aleatória é uma função cujo domínio é um espaço de amostras e cuja faixa é um conjunto de números reais.

iii.

𝐹𝑋 (𝑥) deve ser uma função crescente. pdf: é análoga a pmf, só que para variáveis continuas. Indica a “densidade” de probabilidade para o ponto x está dentro de um intervalo, é definida como: iv.



2

lim 𝐹𝑋 (𝑥) = 0

𝑥→∞

𝑓𝑋 (𝑥) =

𝑑𝐹𝑋 (𝑥) 𝑑𝑥

Para uma variável aleatória contínua de densidade 𝑓𝑋 (𝑥):

, onde esta deriva

tem que ser sempre positiva, pois 𝐹𝑋 (𝑥) é função crescente.

+∞

𝐸[𝑥] = ∫ −∞

É possível encontrar a cdf através da pdf,

A variância é a estimativa do espalhamento da distribuição de probabilidade ao redor da média, onde a variância (𝜎𝑋2 ) para variáveis aleatórias é dada por,

𝑥

𝐹𝑋 (𝑥) = ∫−∞ 𝑓𝑋 (𝑡)𝑑𝑡. E a probabilidade de um intervalo ocorrer é: 𝑏

𝑃[𝑎 ≤ 𝑋 ≤ 𝑏] = ∫ 𝑓𝑋 (𝑥)𝑑𝑥

𝜎𝑋2 = 𝑉𝑎𝑟(𝑋) = 𝐸[(𝑋 − 𝜇𝑋 )2 ]

𝑎

= ∑(𝑋 − 𝜇𝑋 )2 𝑃[𝑋 = 𝑥]

IV Várias Variáveis Aleatórias

𝑋

Variáveis aleatórias estão presentes constantemente em experimentos aleatórios. Tendo duas variáveis aleatórias X e Y, a função distribuição cumulativa dessas variáveis pode ser definida como a probabilidade da variável aleatória X ser menor ou igual a um valor específico x e da variável Y ser menor ou igual a y,

E para uma variável aleatória contínua com função de densidade 𝑓𝑋 (𝑥) é dada por, 𝜎𝑋2

onde 𝐹𝑋,𝑌 (𝑥, 𝑦) é a função de distribuição cumulativa.

𝑓𝑋,𝑌 (𝑥, 𝑦) =

densidade

=∫ −∞

(𝑋 − 𝜇𝑋 )2 𝑓𝑋 (𝑥)𝑑𝑥

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸[(𝑋 − 𝜇𝑋 )(𝑌 − 𝜇𝑋 )]

de

VI Transformação Aleatórias

𝑑2 𝐹𝑋,𝑌 (𝑥,𝑦) 𝑑𝑥𝑑𝑦

+∞

A covariância Cov(X,Y) de duas variáveis aleatórias, X e Y, é dada pelo valor esperado do produto de duas variáveis aleatórias,

𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝑃[𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦] ,

A função probabilidade é,

𝑥𝑓𝑋 (𝑥)𝑑𝑥

.

De

Variáveis

Considere o problema: determinar a função densidade de probabilidade de uma variável aleatória Y que é obtida por uma transformação um-para-um de uma dada variável aleatória X.

Como as variáveis aleatórias X e Y são independentes se a saída de uma não afetar a saída da outra, a probabilidade comum P[X,Y] nesse caso é, 𝑃[𝑋, 𝑌] = 𝑃[𝑋]𝑃[𝑌].

Seja Y uma função diferenciável monótona crescente g de X:

V Esperança

𝑌 = 𝑔(𝑥)

Para descrever a variável aleatória podemos utilizar medidas mais simples, como média e variância. Para uma variável aleatória X, a média(µx), é a soma ponderada de todas as possíveis saídas: µ𝑥 = 𝐸[𝑋] = ∑ 𝑥𝑃[𝑋 = 𝑥] 𝑋

Figura 1 - Função diferenciável monótona crescente

3

Neste caso, tem-se que:

Um exemplo para característica da variável Gaussiana segue abaixo

𝐹𝑌 (𝑦) = 𝑃(𝑌 ≤ 𝑦) = 𝑃(𝑋 ≤ ℎ(𝑦)) = 𝐹𝑋 (ℎ(𝑦))

a

curva aleatória

onde h é a transformação inversa ℎ(𝑦) = 𝑔−1 (𝑦). Supondo que X possua uma função densidade de probabilidade 𝑓𝑋 (𝑥) conhecida, então: 𝐹𝑌 (𝑦) = ∫

ℎ(𝑦)

−∞

𝑓𝑋 (𝑥)𝑑𝑥

Diferenciando ambos os lados com relação a variável y, obtém-se

Figura 2 - Curva V.A. Gaussiana

A normalização da variável aleatória Gaussiana ocorre quando 𝜇 = 0 e 𝜎 2 = 1. A partir disso, pode-se definir a função Q como o complemento da função distribuição cumulativa normalizada da variável aleatória Gaussiana, dada por

𝑑ℎ 𝑓𝑌 (𝑦) = 𝑓𝑋 (ℎ(𝑦)) ( ) 𝑑𝑦 VII Variáveis Aleatórias Gaussianas A variável aleatória Gaussiana possui um importante papel em diversas aplicações, sobretudo em sistemas de comunicação. É uma variável aleatória contínua, inteiramente descrita por seus parâmetros de média e desvio padrão, com pdf e cdf dadas respectivamente por 𝑓𝑋 (𝑥) =

1 √2𝜋 𝜎𝑋

𝑃[𝑋 ≤ 𝑥] =

𝑒



(𝑥−𝜇𝑋 )2 2 2𝜎𝑋

1 √2𝜋 𝜎𝑋

𝑥

∫ 𝑒

𝑄(𝑥) =

1 √2𝜋

−∞



exp (−

𝑥

𝑠2 ) 𝑑𝑠 2

Q(x) = 1 − FX (x)

VIII Referências Bibliográficas −∞ < 𝑥 < ∞ −

[1] Haykin, Simom, 2ªedição. Introdução: Sistemas de Comunicação;

(𝑥−𝜇𝑋 )2 2 2𝜎𝑋 𝑑𝑥

[2] Garcia, Alberto Leon, 3ª edição. Probability, Statistics and Random Processes.

−∞

4

ANEXO 1 Exercícios: 1- Um pacote de informação contem 200 bits. Este pacote é transmitido em um canal de comunicação no qual a probabilidade de erro de cada bit é 10-3. Qual é probabilidade do canal ser recebido sem erro? O número de erros ocorrentes no pacote de 200 bits tem uma distribuição binomial, já que neste caso deseja-se encontrar em n provas de Bernoulli x quantidade de erros. 𝑃[𝑥] = (1 − 𝑝)𝑛 𝑃[𝑥 = 0] = (1 − 10−3 )200 𝑃[𝑥 = 0] = 0,82 2- Determine a média e a variância de uma variável randômica uniformemente distribuída entre os pontos a e b. Média:

+∞

µ = 𝐸[𝑥] = ∫ 𝑏

−∞

𝑥𝑓𝑋 (𝑥)𝑑𝑥

1 𝑑𝑥 𝑏−𝑎 𝑎 (𝑏 − 𝑎)2 (𝑏 − 𝑎) 𝐸[𝑥] = = 2(𝑏 − 𝑎) 2 𝐸[𝑥] = ∫ 𝑥

Variância: 𝐸[(𝑋 − 𝜇𝑋 )2 ] = ∫

+∞

−∞

)2

(𝑋 − 𝜇𝑋 )2 𝑓𝑋 (𝑥)𝑑𝑥

𝐸[(𝑋 − 𝜇𝑋 ] = ∫

𝑏 (𝑋

𝑎

𝐸[(𝑋 − 𝜇𝑋 )2 ] =

Substituindo µ =

− 𝜇𝑋 ) 2 𝑑𝑥 (𝑏 − 𝑎)

(𝑏 − µ)3 (𝑎 − µ)3 1 − (𝑏 − 𝑎) 3 3

(𝑏+𝑎) 2

Tenho que: 𝐸[(𝑋 − 𝜇𝑋 )2 ] =

(𝑏 − 𝑎)3 (𝑎 − 𝑏)3 (𝑏 − 𝑎)2 1 [ − ]= (𝑏 − 𝑎) 24 24 2

5

3- Seja X uma variável aleatória e seja 𝑌 =

(𝑋−µ𝑋 ) 𝜎𝑋

.Quais são as médias e variâncias da

variável aleatória Y? 𝐸[𝑌] = 𝐸 [ 𝐸(𝑌 − 𝜇𝑌 )

2

𝑋 − µ𝑋 𝐸[𝑋] − µ𝑋 0 ]= = =0 𝜎𝑋 𝜎𝑋 𝜎𝑋

= 𝐸[𝑌

2]

𝑋 − µ𝑋 2 𝐸(𝑋 − µ𝑋 )2 = 𝐸( ) = = 𝜎𝑋 𝜎𝑋 2

𝐸(𝑌 − 𝜇𝑌 )2 =

6

𝜎𝑋 2 =1 𝜎𝑋 2

ANEXO 2 Simulação 1 %% Cálculo da pdf de uma Distribuição Gaussiana a partir da definição % página 341, equação 8.48 media = 0; desvio = 1; % desvio padrão x = -4:.1:4; % intervalo da variável x - eixo x % Função Densidade de Probabilidade fx = ( 1/((sqrt(2*pi))*desvio )) * exp(-((x-media).^2) / (2*desvio.^2)); subplot(211) plot(x,fx) title ('\bfPDF f_X(x)') xlabel('\bfx') legend('\sigma = 1') grid on %% CDF - Função de distribuição cumulativa % VA Gaussiana normalizada gauss_normalizada = cdf('norm',x,fx); subplot(212) plot(x,gauss_normalizada,'r') title('\bfCDF F_X(x)') xlabel('\bfx') grid on

Simulação 2 %% pdf de uma Distribuição Gaussiana % Comparação das pdf's levando em consideração a variação do desvio % padrão media = 0; desvio = 1; x = -15:.1:15; fx = ( 1/((sqrt(2*pi))*desvio )) * exp(-((x-media).^2) / (2*desvio.^2)); subplot(311) plot(x,fx) title ('\bfPDF f_X(x)') xlabel('\bfx') legend('\sigma = 1') grid on %% pdf 2 desvio = 4; x = -15:.1:15; fx = ( 1/((sqrt(2*pi))*desvio )) * exp(-((x-media).^2) / (2*desvio.^2)); subplot(312) plot(x,fx,'r') legend('\sigma = 2') grid on

7

%% pdf 3 desvio = 8; x = -15:.1:15; fx = ( 1/((sqrt(2*pi))*desvio )) * exp(-((x-media).^2) / (2*desvio.^2)); subplot(313) plot(x,fx,'k') legend('\sigma = 3') grid on

8

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.