Professional Documents
Culture Documents
La teoría de la probabilidad es, junto con la teoría de señales, uno de los dos pilares matemáticos
sobre los que se asienta el análisis de sistemas de comunicaciones digitales. En este capítulo se
presentan nociones básicas de probabilidad y procesos aleatorios. Se revisan los conceptos de
variable aleatoria y procesos estocásticos y sus propiedades, en particular aquellas de interés en
comunicaciones digitales.
PROBABILIDAD
El desconocimiento puede ser total o parcial. Si consideramos el experimento “lanzar dos dados y
sumar sus puntos”, cualquier resultado entre 2 (1+1) y 12 (6+6) es posible, pero también sabemos
que el 7 es un resultado más “esperable” que el 2. Lo sabemos por naturaleza del experimento o
por información estadística.
Definimos ahora una medida de probabilidad Pr como toda una funcion que, aplicada sobre
cualquier suceso S ⊂ Ω, devuelve un numero real Pr{S} que verifica las siguientes propiedades
P2. Pr {φ}=0
P3. Pr {Ω}=1
P4. Dado un conjunto finito (o infinito numerable) de sucesos Si ε Φ disjuntos (Si ∩ Sj = φ), se
verifica
=
Supongamos que el experimento aleatorio puede repetirse un número indefinido de veces, y que
el resultado de cada experimento es independiente de los demás. Diremos que una probabilidad
Pr es un buen modelo de incertidumbre para dicho experimento en la medida en que sea capaz de
predecir con exactitud la frecuencia con la que se repiten los diferentes sucesos del experimento.
Es decir, Pr es una buena medida de incertidumbre sobre el resultado del experimento si dado
cualquier suceso S ⊂ Ω, tras N repeticiones del experimento, denominado Ns al número de veces
que se produce algún resultado que está en S, el cociente Ns/N converge a P{S} cuando N tiende a
infinito.
Ejemplo 3.1
Ejemplo 3.2
La asignación de probabilidades a los 6 resultados posibles del lanzamiento del dado permite
calcular un valor de probabilidad para cualquier otro suceso. Así, por ejemplo, suponiendo que la
probabilidad de cada posible resultado es 1/6, la probabilidad de que se obtenga un número par
será
1
2 ∪
4 ∪
6 =
2 +
4 +
6 =
2
VARIABLES ALEATORIAS
cada posible resultado un numero. Dado el resultado ∈ Ω, la variable aleatoria X tomara un valor
Estrictamente hablando, variable aleatoria es toda aplicación de Ω en la recta real, que asigna a
Ejemplo 3.3
transmisión”, o bien & = “No hay errores de transmisión”. Puede definirse la variable aleatoria Z
dada por Ζ(% ) = 0 y Ζ(()=1. De este modo,
Ζ = 1 es la probabilidad de que se haya
producido algún error en la transmisión.
La diferencia entre variables discretas y continuas es sustancial. Como hemos visto anteriormente,
si el espacio muestral imagen es finito o infinito numerable, para caracterizar la variable aleatoria
en términos probabilísticos es suficiente con asignar un valor de probabilidad a cada posible
resultado (que, de acuerdo con la definición anterior, es también un suceso) respetando las
propiedades 1 a 3, y calcular las probabilidades de los demás sucesos aplicando la propiedad 4. Lo
último es posible porque puede construirse cualquier suceso mediante la unión contable de
sucesos atómicos (esto es, sucesos formados por un solo resultado posible). Sin embargo, siΩ’ es
continuo, aquellos sucesos que contengan un conjunto infinito y no numerable de resultados
posibles no pueden construirse como unión contable de sucesos atómicos y, por tanto, no es
posible calcular su probabilidad a partir de las probabilidades de los sucesos atómicos. Además, ¡la
mayoría de los sucesos atómicos tienen probabilidad nula!
de la forma
≤ .. La función que devuelve la probabilidad de este suceso para cada valor de X
Cuando Ω’ es continuo, suele preferirse caracterizar la variable aleatoria X a partir de los sucesos
P1. 0 ≤ /0 (.) ≤ 1
P2. /0 (∞) = 1
P3. /0 (−∞) = 0
P4. /0 (.) es una función monótona creciente (/0 (& ) ≤ /0 (2 ) si & < 2 ).
distribución), que llamaremos 40 (.), como aquella que, para cada posible valor x de X, devuelve
Dada una variable aleatoria discreta X, se define su distribución de probabilidades (o simplemente
45 (3) =
= 3
45 ( . ) = 1
;%
$/5 (.)
<5 (.) =
$.
Las siguientes propiedades son una consecuencia inmediata de esta definición, y de las
propiedades de la función de distribución enunciadas anteriormente:
≤ A =
≤ B ∪
B < ≤ A
≤ A =
≤ B +
B < ≤ A
Y, por tanto
B < ≤ A = /5 (A) − /5 (B) = >D <5 (.)$.
C
∈ = E <5 (.)$.
F
La propiedad (3.9) puede ayudarnos a interpretar la función <0 (.): partiendo de la definición de
derivada,
/5 (. + ∆) − /5 (.)
. < ≤ . + ∆
<5 (.) = lim = lim
∆→% ∆ ∆→% ∆
∑0O P0 45 (.). La función de distribución cumple /5 (.QD0 ) = 1, donde .QD0 es el máximo valor
posible de X (estrictamente hablando, el valor supremo).
.% < .& < ⋯ < .9:& , puede escribirse 45 (. ) = /5 (. ) − /5 (.:& ).
Asimismo, las probabilidades pueden expresarse a partir de la función de distribución. Suponiendo
Esperanza matemática
Ω =
xT , 0 ≤ i ≤ M − 1 se define como
La media o esperanza matemática de la variable aleatoria discreta X de espacio muestral
9:&
V. = W
= . 45 (. )
;%
Siendo " el numero de sumandos iguales a . . Dado que el cociente Ni/N se aproxima a 4.(. ) a
medida que aumenta N, el promedio se aproxima a la media.
W
\() = \(. )45 (. )
;%
Momento de orden : W
^
•
V. = W
= E .<5 (.)$.
:@
Y, en general,
@
W
\() = E \(.)<5 (.)$.
:@
Los casos particulares definidos anteriormente también son de aplicación a variables continuas.
DISTRIBUCIONES DE INTERES
elementos: Ω =
.% , .& , con probabilidades
Bernoulli. Una variable aleatoria X se dice de Bernoulli si su espacio muestral tiene solamente dos
45 (.% ) = 4
45 (.& ) = 1 − 4
Así, por ejemplo, esta variable aleatoria resulta útil en comunicaciones para analizar sucesos del
tipo “Se ha transmitido un bit de valor 1” o bien “El mensaje recibido contiene errores”.
puede demostrarse que, en tal caso, X es una variable aleatoria de espacio muestral Ω =
Considerando la variable aleatoria X que toma el valor k si el suceso S se ha producido k veces,
!
c d=
_ _! ( − _)!
La distribución geométrica surge, por ejemplo, cuando se desea evaluar la primera vez que se
produce un suceso S de probabilidad p es una sucesión infinita de realizaciones independientes de
cierto experimento aleatorio. Su valor medio (que es el tiempo medido de aparición del suceso)
puede calcularse como
@ @
W
= _45 (_) = 4 (1 − 4) _(1 − 4)a:&
a;% a;&
@
$
W
= −4(1 − 4) (1 − 4)a
$4
a;&
$ 1
−4(1 − 4) h − 1i
$4 4
1
= h − 1i
4
Poisson. La variable aleatoria de Poisson también toma valores enteros no negativos, y su función
de probabilidad se define como
45 (_) = _≥0
j kl mn
a!
1
<5 (.) = A − B , B≤.≤A u
0, o qBr qrstBt7r
Su media es
C
1 B+A
V5 = W
= E .$. =
A−B 2
D
Y su varianza
C
2
1 1 (A − V5 )w (B − V5 )w
W
( − V5 ) = E(. − V5 )2 $. = v − x
A−B A−B 3 3
D
1
= (A − B)2
12
1 (0:{)|
<5 (.) = o
:
2} |
]√2z
La variable gausiana de media cero y varianza unidad se conoce como una variable normal
unitaria. La probabilidad de que supere un valor x se calcula como
@ @
1 |
≥ . = E <5 (~)$~ = E o : 2 $~
√2z
0 0
|
(.) ≤ 2 o : | .≥0
&
|
(.) < o .≥0
& :
|
0√2
Y una inferior es
|
(.) < 0 c1 − 0|d o : | .≥0
& &
√2
La figura 3.2 muestra estas cotas junto a la función Q, donde podemos apreciar que tanto las
ecuaciones anteriores con muy ajustadas para valores grandes de x. observe además que el
|
termino dominante para valores grandes de x en las tres cotas es el mismo, o : | .
Weibull. Una variable Weibull de parámetros q ≥ 0 y ≥ 0 se caracteriza por una función de
densidad de probabilidad
gausianas: si .% y & son gausianas independientes de media cero y varianza ] 2 , la variable dada
Alternativamente, podemos definir una variable aleatoria de tipo Rayleigh a partir de dos variables
por = .%2 + .&2 sigue una distribución Rayleigh con = 2] 2 . Variables de este tipo las
encontramos con frecuencia en ciertos detectores en comunicación digitales.
Distribución Chi-cuadrado ( ). Se dice que una variable aleatoria tiene una distribución
. 2 con t grados de libertad si se ajusta a una distribución Gamma con los parámetros
•
distribución , que seria la que posee la variable = √. Note que la distribución con
dos grados de libertad (t = 2) es un caso particular de una distribución de Rayleigh.
Cualquier transformación sobre una variable aleatoria es, a su vez, otra variable aleatoria,
caracterizable por su función de probabilidad o de densidad de probabilidad, según se trate de una
variable discreta o continua, respectivamente.
4 ( ) =
= =
= . = 4.(. )
Si la transformación no es uno a uno (porque para uno o mas . se verifica que \(. ) = \(.a ) con
_ ≠ 7), se comprueba fácilmente que
4 ( ) = 4.(.a )
ua|(0n );O
El análisis en el caso continuo es algo más complejo. Sea una variable aleatoria continua e
= \(). Entonces, puede escribirse
/ () =
≤ =
\() ≤
Supongamos, en primer lugar, que \ es una función estrictamente creciente. En tal caso, puede
definirse la función inversa . = ℎ() = \:& (), y la ecuación anterior se reescriben como
/ () =
≤ ℎ() = /5 (ℎ())
/ () =
≤ =
≥ ℎ() = 1 − /5 (ℎ())
Derivando las dos ecuaciones inmediatas anteriores, según se trate de una función creciente o
decreciente, resulta
$ℎ()
< () = <5 (ℎ())
$
Ejemplo 3.4
((¡)k)|
< () = <5 (ln()) = o >0
& & :
||
} √2
$\(.)
:&
< () = <5 (.) £ £ q¤B$r . = ℎ()
$.
Esta expresión puede generalizarse para funciones \ con tramos crecientes y decrecientes, de
modo análogo al caso discreto: la fdp resulta de la suma
$\(.) :&
< () = <5 (.)
u0|(0);
$.
Ejemplo 3.5
Considere la variable aleatoria con fdp <5 (.) y la variable aleatoria = \() = 2 . La función
\(.) tiene como derivada = 2. y un tramo decreciente (. < 0) y un tramo creciente
f(0)
f0
(. > 0). En el tramo decreciente la función inversa es . = ℎ() = − y en el tramo creciente es
. = ℎ() = . Aplicando
$\(.)
:&
< () = <5 (.) £ £
u0|(0);
$.
Obtenemos
1 ( ¥{)|
: √ |
( :{)|
: √ |
< () = vo 2} + o 2} x
22z]
Esperanza matemática
W
= E < ()$
:@
W
\() = E \(.)<5 (.)$.
:@
haciendo el cambio de variable = \(.), la integral inmediata anterior puede escribirse como
@
$\ :&
W
\() = E <5 (ℎ()) h (ℎ())i $
$.
:@
Sabiendo que
$\ :&
$ℎ()
h (ℎ())i =
$. $
Resulta
@
$ℎ()
W
\() = E <5 (ℎ()) $
$
:@
Por último, en virtud de < () = <5 (ℎ()) y teniendo en cuenta que, si \ es estrictamente
f¢()
f
creciente, su inversa también lo es, de modo que <5 `ℎ()b = <5 `ℎ()b = < (),
f¢() f¢()
f f
resulta
W
\() = W
Supongamos, por ejemplo, que la variable aleatoria continua tiene media V5 y varianza ]52 , y se
Un caso particular de interés es aquel en el que la relación entre las variables es lineal.
V = W
= W
B + A = E (B. + A)<5 (.)$. = B E .<5 (.)$. + A
:@ :@
= BV5 + A
Y su varianza
W
( − V )2 = W
(B + A − BV5 − A)2 = W
B2 ( − V5 )2 = B2 ]52
simultanea de dos dados específicos. Por ejemplo, si & es el resultado de lanzar el dado 1 y 2 es
cada dado, y su probabilidad puede medirse recurriendo a la probabilidad de la ocurrencia
el resultado de lanzar el dado 2, podemos calcular las probabilidades de la configuración “& = 6”,
“2 = 4” como
& = 6, 2 = 4. De forma general, podemos definir la función de probabilidad
conjunta 4& , 2 (.& , .2 ) que, para cada posible valor de .& y .2 , devuelve la probabilidad del
suceso “& = .& ” y “2 = .2 ”.
Variables discretas
función como 4% , … , [:& (.% , … , .[:& ). Asimismo, puede construirse el vector aleatorio
de las variables, su probabilidad de ocurrencia simultanea. De forma general, denotaremos esta
%
=¦ & ¨
⋮
[:&
suma sobre todos los valores posibles de las otras variables. Esta operación suele denominarse
marginalización. Así, por ejemplo,
La media V5 de un vector aleatorio tiene una definición similar al de una variable escalar
V5 = W
= … .45 (.)
0 ∈¬ 0ªk« ∈¬ªk«