Edit page

Variáveis Aleatórias Discretas

Distribuição Uniforme Discreta

Esta distribuição não é lecionada no programa de 2021/22, mas pode ser importante para perceber alguns conceitos.

Esta distribuição é normalmente usada em situações em que todos os eventos são equiprováveis.

Dizemos que uma VA discreta XX tem uma distribuição uniforme discreta e representamos X  uniforme discreta(S)X~\sim~\op{uniforme \, discreta}(S) se, dados os parâmetros:

  • S={x1,x2,,xn}S = \{ x_1, x_2, \cdots, x_n \} para nNn \in \N e xiR,i{1,2,,n}x_i \in \R, \forall_{i \in \{ 1, 2, \cdots, n \}}

satisfizer:

Contradomínio: SS
Função de Probabilidade

P(X=x)={1n,xS0,xSP(X = x) = \begin{cases} \frac{1}{n}, &x \in S \\ 0, &x \notin S \end{cases}

Uma VA XX com distribuição uniforme discreta tem:

  • Valor Esperado:
    E(X)=1ni=1nxiE(X) = \frac{1}{n} \sum_{i=1}^n x_i
  • Variância:
    V(X)=1ni=1nxi2(1ni=1nxi)2V(X) = \frac{1}{n} \sum_{i=1}^n x_i^2 - \left( \frac{1}{n} \sum_{i=1}^n x_i \right)^2
Exemplo

Se considerarmos a VA XX que mede o resultado do lançamento de um dado ao ar, temos que:

X  uniforme discreta({1,2,3,4,5,6})X~\sim~\text{uniforme discreta}(\{1,2,3,4,5,6\})

Sendo assim, a função de probabilidade desta VA é

P(X=x)={16,x{1,2,3,4,5,6}0,x{1,2,3,4,5,6}P(X = x) = \begin{cases} \frac{1}{6}, &x \in \{1,2,3,4,5,6\} \\ 0, &x \notin \{1,2,3,4,5,6\} \end{cases}

e o seu valor esperado e variância são

E(X)=16i=16i=72V(X)=16i=16i2(16i=16i)2=916494=3512E(X) = \frac{1}{6} \sum_{i=1}^6 i = \frac{7}{2} \quad \quad V(X) = \frac{1}{6} \sum_{i=1}^6 i^2 - \left( \frac{1}{6} \sum_{i=1}^6 i \right)^2 = \frac{91}{6} - \frac{49}{4} = \frac{35}{12}

Distribuição Binomial

Esta distribuição é usada para, dada uma prova de Bernoulli que é executada nn vezes (independentemente), medir a probabilidade de haver exatamente xx sucessos.

Dizemos que uma VA discreta XX tem uma distribuição binomial e representamos X  binomial(n,p)X~\sim~\op{binomial}(n,p) se, dados os parâmetros:

  • nn: número de provas de Bernoulli executadas (nNn \in \N);
  • pp: probabilidade de sucesso da prova de Bernoulli (p[0,1]p \in [0,1]).

satisfizer:

Contradomínio: {0,1,2,,n}\{0,1,2,\cdots,n\}
Função de Probabilidade

P(X=x)={(nx)px(1p)nx,x{0,1,,n}0,x{0,1,,n}P(X = x) = \begin{cases} {n \choose x} p^x(1-p)^{n-x}, &x \in \{0,1,\cdots,n\} \\ 0, &x \notin \{0,1,\cdots,n\} \end{cases}

Uma VA XX com distribuição binomial tem:

Valor Esperado: E(X)=npE(X) = np
Variância: V(X)=np(1p)V(X) = np(1-p)

Exemplo

Aproveitando a prova de Bernoulli que vimos no exemplo acima, temos que um exemplo de uma VA com distribuição binomial é a VA XX que regista o número de coroas em 10 lançamentos de uma moeda ao ar. Para realçar a diferença entre um sucesso e insucesso, vamos, no entanto, usar uma moeda enviesada, cuja probabilidade de sucesso é p=0.6p=0.6. Temos que:

X  binomial(10,0.6)X~\sim~\text{binomial}(10, 0.6)

A função de probabilidade desta VA é

P(X=x)={(10x) 0.6x 0.410x,x{0,1,2,3,4,5,6,7,8,9,10}0,x{0,1,2,3,4,5,6,7,8,9,10}P(X = x) = \begin{cases} {10 \choose x} ~ 0.6^x ~ 0.4^{10-x}, &x \in \{0,1,2,3,4,5,6,7,8,9,10\} \\ 0, &x \notin \{0,1,2,3,4,5,6,7,8,9,10\} \end{cases}

e o seu valor esperado e variância são

E(X)=100.6=6V(X)=100.60.4=2.4E(X) = 10 \cdot 0.6 = 6 \quad \quad V(X) = 10 \cdot 0.6 \cdot 0.4 = 2.4

Propriedades da distribuição binomial:

  • A distribuição binomial não tem uma função de distribuição que possa ser escrita em forma fechada (isto é, sem um somatório);
  • Se X  binomial(n,p)X~\sim~\op{binomial}(n,p) e YY for a VA que mede o número de insucessos associados a XX, isto é
    Y=nX  binomial(n,1p)Y = n-X~\sim~\op{binomial}(n, 1-p)
    temos que
    FY(y)=1FX(ny1)F_Y(y) = 1 - F_X(n-y-1)

Distribuição Geométrica

Esta distribuição é usada para, dada uma prova de Bernoulli, medir a probabilidade de o primeiro sucesso ocorrer ao fim de exatamente xx tentativas.

Dizemos que uma VA discreta XX tem uma distribuição geométrica e representamos X  geomeˊtrica(p)X~\sim~\op{geométrica}(p) se, dados os parâmetros:

  • pp: probabilidade de sucesso da prova de Bernoulli (p[0,1]p \in [0,1]).

satisfizer:

Contradomínio: Z+\Z^+
Função de Probabilidade

P(X=x)={p(1p)x1,xZ+0,xZ+P(X = x) = \begin{cases} p(1-p)^{x-1}, &x \in \Z^+ \\ 0, &x \notin \Z^+ \end{cases}

Uma VA XX com distribuição geométrica tem:

Valor Esperado: E(X)=1pE(X) = \frac{1}{p}
Variância: V(X)=1pp2V(X) = \frac{1-p}{p^2}

Exemplo

Continuando com o lançamento da moeda enviesada, queremos agora contar quantas vezes temos de lançar a moeda até sair coroa (sucesso). Temos que a VA XX que regista esse valor satisfaz:

X  geomeˊtrica(0.6)X~\sim~\text{geométrica}(0.6)

A função de probabilidade desta VA é

P(X=x)={0.60.4x1,xZ+0,xZ+P(X = x) = \begin{cases} 0.6 \cdot 0.4^{x-1}, &x \in \Z^+ \\ 0, &x \notin \Z^+ \end{cases}

e o seu valor esperado e variância são

E(X)=10.61.67V(X)=0.40.621.11E(X) = \frac{1}{0.6} \approx 1.67 \quad \quad V(X) = \frac{0.4}{0.6^2} \approx 1.11

Propriedades da distribuição geométrica:

  • A distribuição geométrica tem função de distribuição dada por
    FX(x)={0,x<11(1p)x,x>1F_X(x) = \begin{cases} 0, &x<1 \\ 1-(1-p)^{\lfloor x \rfloor}, &x>1 \end{cases}
  • Propriedade da Falta de Memória: Dada uma VA com distribuição geométrica XX, temos que, k,xZ+\forall_{k, x \in \Z^+}:
    P(X>k+xX>k)=P(X>x)P(X > k+x | X > k) = P(X > x)
    Por outras palavras, a VA Y=XkX>kY = X-k | X>k é tal que
    Ygeomeˊtrica(p)Y \sim \op{geométrica}(p)

Distribuição de Poisson

A distribuição de Poisson mede o número de ocorrências de uma EA num dado intervalo.
Para que isto seja possível, é necessário assumirmos que:

  • existe um intervalo pequeno suficiente tal que podemos considerar que é impossível o evento acontecer duas vezes nesse intervalo;
  • a ocorrência do evento num intervalo é independente da ocorrência noutros intervalos, bem de como qual é o intervalo em questão.

Dizemos, então, que uma VA discreta XX tem uma distribuição de Poisson e representamos X  Poisson(λ)X~\sim~\op{Poisson}(\lambda) se, dados os parâmetros:

  • λ\lambda: valor esperado de ocorrências do evento num intervalo base (λR+\lambda \in \R^+)

satisfizer:

Contradomínio: Z0+\Z_0^+
Função de Probabilidade

P(X=x)={eλλxx!,xZ0+0,xZ0+P(X = x) = \begin{cases} \frac{e^{-\lambda} \lambda^x}{x!}, &x \in \Z_0^+ \\ 0, &x \notin \Z_0^+ \end{cases}

Uma VA XX com distribuição de Poisson tem:

Valor Esperado: E(X)=λE(X) = \lambda
Variância: V(X)=λV(X) = \lambda

Exemplo

Considere-se a VA XX que regista o número de remates que há num dado intervalo de um jogo de futebol. Se assumirmos que o valor esperado de remates num minuto é λ=0.08\lambda = 0.08, temos que o número de remates que acontecem em qualquer intervalo de um minuto do jogo satisfaz

X  Poisson(0.08)X~\sim~\text{Poisson}(0.08)

Sendo assim, a VA tem função de probabilidade

P(X=x)={e0.080.08xx!,xZ0+0,xZ0+P(X = x) = \begin{cases} \frac{e^{-0.08} 0.08^x}{x!}, &x \in \Z^+_0 \\ 0, &x \notin \Z^+_0 \end{cases}

e valor esperado e variância

E(X)=V(X)=0.08E(X) = V(X) = 0.08

Se, por outro lado, quisermos a VA YY que regista o número de remates em 5 minutos do jogo de futebol, temos que:

Y  Poisson(50.08)Y~\sim~\text{Poisson}(5 \cdot 0.08)

Propriedades da distribuição de Poisson:

  • A distribuição de Poisson pode ser aproximada pela binomial, se considerarmos o acontecimento do evento no intervalo em que é impossível o evento acontecer duas vezes como uma prova de Bernoulli. Desta forma, temos que
    XPoisson(λ)Xlimnbinomial(n,λn)X \sim \op{Poisson}(\lambda) \Leftrightarrow X \sim \lim_{n \to \infty} \op{binomial}\left(n, \frac{\lambda}{n} \right)

Distribuição de Bernoulli

Este tipo de distribuição é usado para modular situações em que apenas há dois resultados possíveis.

Prova de Bernoulli

Damos o nome de prova de Bernoulli a qualquer experiência aleatória cujo espaço de resultados tem apenas dois eventos elementares: um evento a que damos o nome de sucesso, com probabilidade pp, e um a que damos nome de insucesso, com probabilidade 1p1-p.

Sucesso pode ser mau!

Enquanto que estamos habituados a associar sucesso a coisas boas e insucesso a coisas más, neste caso, o sucesso deve ser entendido apenas como aquilo que queremos modelar.
Sendo assim, por exemplo, se considerarmos a EA que verifica se o ecrã de um telemóvel se parte no primeiro ano de uso, o sucesso será "o ecrã partiu-se".
Claro que dada uma Prova de Bernoulli AA, podemos sempre considerar a experiência aleatória contrária BB, e, nesse caso, o sucesso de BB será o insucesso de AA e vice-versa. Podemos aproveitar-nos disto à vontade, desde que tenhamos em atenção que o sucesso da prova de Bernoulli e o que queremos medir com a VA sejam coerentes.

Dizemos que uma VA discreta XX tem uma distribuição de Bernoulli e representamos X  Bernoulli(p)X~\sim~\op{Bernoulli}(p) se, dados os parâmetros:

  • p=P(Sucesso)p = P(\op{Sucesso}), p[0,1]p \in [0,1]

satisfizer:

Contradomínio: {0,1}\{ 0, 1 \}
Função de Probabilidade

P(X=x)={p,x=11p,x=00,x{0,1}{px(1p)1x,x{0,1}0,x{0,1}P(X = x) = \begin{cases} p, &x=1 \\ 1-p, &x=0 \\ 0, &x \notin \{0,1\} \end{cases} \Leftrightarrow \begin{cases} p^x(1-p)^{1-x}, &x \in \{0,1\} \\ 0, &x \notin \{0,1\} \end{cases}

Uma VA XX com distribuição de Bernoulli discreta tem:

Valor Esperado: E(X)=pE(X) = p
Variância: V(X)=p(1p)V(X) = p(1-p)

Exemplo

O lançamento de uma moeda ao ar é um exemplo de uma prova de Bernoulli com p=0.5p = 0.5. Se XX for uma VA que mede se o lançamento da moeda ao ar dá "coroa" (vamos tomar isto como o nosso sucesso), dizemos que

X  Bernoulli(0.5)X~\sim~\op{Bernoulli}(0.5)

A função de probabilidade desta VA é

P(X=x)={0.5,x{0,1}0,x{0,1}P(X = x) = \begin{cases} 0.5, &x \in \{0,1\} \\ 0, &x \notin \{0,1\} \end{cases}

e o seu valor esperado e variância são

E(X)=0.5V(X)=0.50.5=0.25E(X) = 0.5 \quad \quad V(X) = 0.5 \cdot 0.5 = 0.25

Distribuição Hipergeométrica

Esta distribuição não faz parte da matéria lecionada no programa de 2021/22.

Tal como a distribuição binomial, esta distribuição tem a ver com o número de sucessos em nn provas de Bernoulli. No entanto, desta vez, as provas não são independentes entre si e podem ser pensadas como seguindo um processo de extração sem repetição.

Dizemos que uma VA discreta XX tem uma distribuição hipergeométrica e representamos X  hipergeomeˊtrica(N,M,n)X~\sim~\op{hipergeométrica}(N, M, n) se, dados os parâmetros:

  • NN: tamanho da população (nZ+n \in \Z^+);
  • MM: tamanho da população sucesso (mZ+m \in \Z^+);
  • nn: número de provas de Bernoulli executadas (nZ+,nLn \in \Z^+, n \leq L)

satisfizer:

Contradomínio: {max(0,n(NM)),,min(n,M)}=D\{ \op{max}(0, n - (N-M)), \cdots , \op{min}(n, M) \} = D
Função de Probabilidade

P(X=x)={(Mx)(NMnx)(Nn),xD0,xDP(X = x) = \begin{cases} \frac{{M \choose x}{N-M \choose n-x}}{{N \choose n}}, &x \in D 0, &x \notin D \end{cases}

Uma VA XX com distribuição hipergeométrica tem:

  • Valor Esperado:
    E(X)=nMNE(X) = n\frac{M}{N}
  • Variância:
    V(X)=nMN(1MN)NnN1V(X) = n\frac{M}{N} \left( 1-\frac{M}{N} \right)\frac{N-n}{N-1}