You are on page 1of 8

Probabilidad y Estadística en Comunicaciones y

Definición de Procesos Aleatorios


Karla Lucia Condoy Reyes

Universidad Nacional de Loja

Facultad de la Energía, las Industrias y los Recursos Naturales no Renovables

Carrera de Ingeniería en Electrónica y Telecomunicaciones


karla.condoy@unl.edu.ec

Abstract____ En este documento trataremos de la probabilidad probabilidad aquí en términos de eventos asociados con los
y estadística, temas muy importantes en toda disciplina, ya resultados de los experimentos.
que es imposible estar completamente seguro de los valores
que se obtienen a través de mediciones.
En la comunicación se producen señales aleatorias como ruido A. Probabilidad y eventos
no deseado y como formas de onda de información que se La probabilidad de un evento A, denotada por P(A),
desean. Al carecer de un conocimiento detallado de la puede definirse en términos de la frecuencia de ocurrencia
variación de tiempo de una señal aleatoria, debemos hablar
relativa de A que ocurre con un número N de pruebas.
en cambio en términos de probabilidad y propiedades
estadísticas. 𝑃(𝐴) = 𝑁𝐴 ⁄𝑁 𝑁→∞ (1)
Los temas principales incluyen probabilidades, variables donde 𝑁𝐴 es el número de veces que A ocurre en N pruebas.
aleatorias, promedios estadísticos y modelos de probabilidad El límite en la ecuación, se usa para indicar que, si N es
importantes.
muy grande, entonces la desviación esperada de la razón
En casi todos los aspectos de la vida se presentan situaciones
en donde el comportamiento de un fenómeno o evento no 𝑁𝐴 ⁄𝑁 de una constante se vuelve muy pequeña. Esto se
puede ser predicho, por esto es necesario estudiar los procesos llama en ocasiones “Ley empírica de números grandes” y
aleatorios, para ello mencionaremos algunas definiciones. concuerda con la idea intuitiva de probabilidad.
Cada probabilidad es un numero negativo delimitado por
Palabras clave. – Probabilidad, estadística, variable aleatoria,
0 ≤ 𝑃(𝐴) ≤ 1
proceso aleatorio.
donde 𝑃(𝐴) = 0 si el evento A es un evento nulo (nunca
I. INTRODUCCIÓN ocurre) y 𝑃(𝐴) = 1 si es un evento seguro (siempre ocurre)
Se dice que las señales cuyos valores pueden
especificarse de manera exacta son “determinísticas”. Las B. Muestra de espacio y teoría de probabilidad
señales determinísticas no siempre pueden expresarse en El modelo sistemático de un experimento casual permite
forma explícita, pero si es posible expresarlas, dentro de que el espacio muestral S denote el conjunto de resultados
ciertos limites mas bien amplios, en términos de sumatorias y sea A dividido en puntos de muestra 𝑠1 , 𝑠2 , … , 𝑠𝑛 .
de funciones conocidas de manera explícita (como las
𝑆 = {𝑠1 , 𝑠2 , … , 𝑠𝑛 }
series de Fourier). El uso de estas señales ha desempeñado,
hasta aquí, un importante papel en nuestro análisis de los La figura 1 muestra el espacio muestral y las relaciones
sistemas de comunicación. Ahora veremos métodos para entre A, B y C en forma de un diagrama de Venn. B y C
describir señales no determinísticas o “aleatorias”. Para son eventos excluyentes, mientras que A contiene un punto
hacerlo, se expondrán algunos conceptos básicos de la en común con B y C.
teoría de la probabilidad.
El enfoque sobre la probabilidad será selectivo. Dado que
solo interesan algunas aplicaciones específicas a los
sistemas de comunicación.

II. PROBABILIDAD Y ESPACIO


MUESTRAL
La teoría de la probabilidad establece un marco
matemático para el estudio de los fenómenos aleatorios. La
teoría no trata de la naturaleza de los procesos aleatorios en Figura 1. Espacio muestral y diagrama de Venn de tres eventos
Fuente: A. Carlson, P. Crilly and J. Rutledge, Sistemas de
sí, sino más bien con sus manifestaciones observables
comunicación. 2007.
experimentalmente. En consecuencia, discutiremos la
Otros eventos pueden describirse mediante Intercambiando A y B en la ecuación (6) produce
combinaciones particulares de subconjuntos de eventos, 𝑃(𝐵 𝐴) = 𝑃(𝐴𝐵)⁄𝑃(𝐴), y nosotros de ese modo obtener
como sigue: dos relaciones para la probabilidad, es decir,
El evento de unión 𝐴 + 𝐵 (simboliza 𝐴 ∪ 𝐵).
𝑃(𝐴𝐵) = 𝑃(𝐴 𝐵)𝑃(𝐵) = 𝑃(𝐵 𝐴)𝑃(𝐴) (7)
El evento de intersección AB (simboliza 𝐴 ∩ 𝐵)
Axiomas fundamentales:
Teorema de Bayes
𝑃(𝐴) ≥ 0 para cualquier evento A en S (2𝑎)
𝑃(𝐵)𝑃(𝐴 𝐵)
𝑃(𝑆) = 1 (2𝑏) 𝑃(𝐵 𝐴) = (8)
𝑃(𝐴1 + 𝐴2 ) = 𝑃(𝐴1 ) + 𝑃(𝐴2 ) 𝑠𝑖 𝐴1 𝐴2 = ∅ (2𝑐) 𝑃(𝐴)
El tercer axioma [2𝑐] se generaliza para 3 o más eventos
Se dice que los eventos A y B son estadísticamente
𝑀
independientes cuando no dependen el uno del otro, como
𝑃(𝐴1 + 𝐴2 + ⋯ + 𝐴𝑀 ) = ∑ 𝑃(𝐴𝑖 ) = 1 (3) se indica en
𝑖=1
𝑃(𝐴 𝐵) = 𝑃(𝐴) 𝑃(𝐵 𝐴) = 𝑃(𝐵) (9)
A veces nos preocuparemos por la no ocurrencia de un
evento. El evento "no A" se llama el complemento de A Insertando la ecuación (9) en la (7)
𝑃(𝐴𝐶 ) = 1 − 𝑃(𝐴) (4) 𝑃(𝐴𝐵) = 𝑃(𝐴)𝑃(𝐵) (10)

Finalmente, considere los eventos A y B que no son entonces la probabilidad conjunta de eventos
mutuamente exclusivos, entonces el axioma (2c) no se estadísticamente independientes es igual al producto de las
aplica. La probabilidad del evento 𝐴 + 𝐵 esta dado por probabilidades de eventos individuales. [1]
𝑃(𝐴 + 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴𝐵) (5)
III. VARIABLES ALEATORIAS Y
C. Probabilidad condicional e independencia FUNCIONES DE PROBABILIDAD
estadística El lanzamiento de monedas y otros juegos de azar son
temas naturales y fascinantes para cálculos de
La probabilidad de que ocurra un evento A, dado que
probabilidad. Pero los ingenieros de comunicación están
también ocurrido un evento B, se denota por
más preocupados por procesos aleatorios que producen
𝑃(𝐴𝐵) resultados numéricos: el valor instantáneo de un voltaje de
𝑃(𝐴 𝐵) = (6)
𝑃(𝐵) ruido, el número de errores en un mensaje digital, y así
sucesivamente. Manejamos tales problemas al definir una
Ejemplo variable aleatoria.
Un ejemplo más: suponga que tenemos un espacio Una variable aleatoria es una regla o relación, denotada
muestral S constituido por la población de adultos de una por X, que asigna un número real X (s) a cada punto en el
pequeña ciudad que cumplen con los requisitos para espacio de muestra S.
obtener un título universitario. Debemos clasificarlos de Una variable discreta puede tomar sólo un número finito
acuerdo con su género y situación laboral. Los datos se o contable de valores. Una variable continua puede tomar
presentan en la tabla 1. infinitamente muchos valores correspondientes a los
Tabla 1. Clasificación de los adultos de una pequeña ciudad puntos en un intervalo de recta.
El nombre de discreta se refiere a las brechas discretas
entre los posibles valores que la variable puede tomar.
Variables como el número de miembros de una familia,
el número de ventas de autos nuevos y el número de llantas
defectuosas devueltas para cambio son todos ellos
Se seleccionará al azar a uno de estos individuos para que
ejemplos de variables discretas. Por el contrario, variables
realice un viaje a través del país con el fin de promover las
como la estatura, peso, tiempo, distancia y volumen son
ventajas de establecer industrias nuevas en la ciudad. Nos
continuas porque pueden tomar valores en cualquier punto
interesaremos en los eventos siguientes:
a lo largo de un intervalo de recta. Para cualesquier dos
M: se elige a un hombre,
valores que se escojan, un tercer valor siempre puede
E: el elegido tiene empleo.
hallarse entre ellos. [2]
Al utilizar el espacio muestral reducido E, encontramos
que
460 23 A. Distribuciones discretas de probabilidad
𝑃(𝑀⃓ 𝐸) = = El conjunto de pares ordenados (𝑥, 𝑓(𝑥)) es una función
600 30
de probabilidad, una función de masa de probabilidad o una
Sea N(A) el número de elementos en cualquier conjunto distribución de probabilidad de la variable aleatoria
A. Podemos utilizar esta notación, puesto que cada uno de discreta X si, para cada resultado x posible
los adultos tiene las mismas probabilidades de ser elegido, 1. 𝑓(𝑥) ≥ 0,
para escribir 2. ∑𝑥 𝑓(𝑥) = 1
𝑃(𝑀⃓𝐸) 460⁄600 23 3. 𝑃(𝑋 = 𝑥) = 𝑓(𝑥)
𝑃(𝑀⃓ 𝐸) = = =
𝑃(𝐸) 600⁄900 30
Ejemplo Solución: a) Evidentemente, f (x) = 0. Para verificar que
Un embarque de 20 computadoras portátiles similares la condición 2 de la PDF.
para una tienda minorista contiene 3 que están defectuosas. ∞ 2
𝑥2 𝑥3 2 8 1
Si una escuela compra al azar 2 de estas computadoras, ∫ 𝑓(𝑥)𝑑𝑥 = ∫ 𝑑𝑥 = ⃒ = + =1
calcule la distribución de probabilidad para el número de −∞ −1 3 9 −1 9 9
computadoras defectuosas. b) Si usamos la condición 3 de la PDF, obtenemos
Solución: Sea X una variable aleatoria cuyos valores x son
los números posibles de computadoras defectuosas
1
𝑥2 𝑥3 1 1
𝑃(0 < 𝑋 < 1) = ∫ 𝑑𝑥 = ⃒ =
compradas por la escuela. Entonces x sólo puede asumir los 0 3 9 0 9
números 0, 1 y 2. Así,
La función de distribución acumulativa (o CDF) 𝐹(𝑥), de
una variable aleatoria continua X con función de densidad
(30)(17
2
) 68 𝑓(𝑥), es.
𝑓(0) = 𝑃(𝑋 = 0) = =
(20
2
) 95 𝑥

𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫ 𝑓(𝑡)𝑑𝑡 (12)


(31)(171
) 51 −∞
𝑓(1) = 𝑃(𝑋 = 1) = 20 = de la definición anterior se puede describir los dos
(2) 190
resultados,
𝑑𝐹(𝑥)
(32)(17 ) 3 𝑃(𝑎 < 𝑋 < 𝑏) = 𝐹(𝑏) − 𝐹(𝑎) 𝑦 𝑓(𝑥) =
𝑓(2) = 𝑃(𝑋 = 2) = 0
= 𝑑𝑥
(20
2
) 190 sí existe la derivada.

Por consiguiente, la distribución de probabilidad de X es Ejemplo.


𝒙 0 1 2 Calcule 𝐹(𝑥) para la función de densidad del ejemplo
𝒇(𝒙) 68 51 3 anterior y utilice el resultado para evaluar 𝑃(0 < 𝑋 ≤ 1).
95 190 190 Solución: Para -1 < x < 2,
𝑥 𝑥
𝑡2 𝑡3 𝑥 𝑥3 + 1
La función de distribución acumulativa (o CDF) 𝐹(𝑥) de 𝐹(𝑥) = ∫ 𝑓(𝑡) 𝑑𝑡 = ∫ 𝑑𝑡 = ⃒ =
una variable aleatoria discreta es. −∞ −1 3 9 −1 9
Por lo tanto,
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∑ 𝑓(𝑡) (11)
𝑡≤𝑥 0, 𝑥<0
Para el ejemplo anterior tenemos que la función de 𝑥3 + 1
distribución acumulativa de x es 𝐹(𝑥) = { , −1≤𝑥 <2
9
1, 𝑥≥2
0, 𝑝𝑎𝑟𝑎 𝑥 < 0
68 C. Distribuciones de probabilidad conjunta
, 𝑝𝑎𝑟𝑎 0 ≤ 𝑥 < 1
𝐹(𝑥) = 95
187 Si X y Y son dos variables aleatorias discretas, la
, 𝑝𝑎𝑟𝑎 1 ≤ 𝑥 < 2
190 distribución de probabilidad para sus ocurrencias
{ 1, 𝑝𝑎𝑟𝑎 𝑥 ≥ 2 simultáneas se representa mediante una función con
valores f (x, y), para cualquier par de valores 𝑓(𝑥, 𝑦) dentro
B. Distribuciones de probabilidad continua del rango de las variables aleatorias X y Y. Se acostumbra
La función 𝑓(𝑥) es una función densidad de probabilidad a referirse a esta función como la distribución de
(o PDF) para la variable aleatoria continua X, definida en probabilidad conjunta de X y Y.
el conjunto de números reales, si La función 𝑓(𝑥, 𝑦) es una distribución de probabilidad
1. 𝑓(𝑥) ≥ 0, para toda 𝑥 ∈ 𝑅 conjunta o función de masa de probabilidad de las variables
∞ aleatorias discretas X y Y, si
2. ∫−∞ 𝑓(𝑥)𝑑𝑥 = 1
∞ 1. 𝑓(𝑥, 𝑦) ≥ 0 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑎 (𝑥, 𝑦),
3. 𝑃(𝑎 < 𝑋 < 𝑏) = ∫−∞ 𝑓(𝑥)𝑑𝑥 2. ∑𝑥 ∑𝑦 𝑓(𝑥, 𝑦) = 1,
3. 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑓(𝑥, 𝑦).
Ejemplo
Para cualquier región A en el plano xy, 𝑃[(𝑋, 𝑌) ∈ 𝐴] =
Suponga que el error en la temperatura de reacción, en
∑ ∑𝐴 𝑓(𝑥, 𝑦) .
°C, en un experimento de laboratorio controlado, es una
variable aleatoria continua X que tiene la función de La función 𝑓(𝑥, 𝑦) es una función de densidad conjunta
densidad de probabilidad de las variables aleatorias continuas X y Y, si
𝑥2 1. 𝑓(𝑥, 𝑦) ≥ 0 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑎 (𝑥, 𝑦),
𝑓(𝑥) = { 3 , −1<𝑥 <2 ∞ ∞
2. ∫−∞ ∫−∞ 𝑓(𝑥, 𝑦) 𝑑𝑥 𝑑𝑦 = 1,
0, 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
3. 𝑃[(𝑋, 𝑌) ∈ 𝐴] = ∫ ∫𝐴 𝑓(𝑥, 𝑦)𝑑𝑥 𝑑𝑦, para
a) Verifique que 𝑓 (𝑥) es una función de densidad. cualquier región A en el plano xy.
b) Calcule 𝑃(0 < 𝑋 = 1).

Dada la distribución de probabilidad conjunta 𝑓 (𝑥, 𝑦) de
las variables aleatorias discretas X y Y, la distribución de 𝜇 = 𝐸{𝑋} = ∫ 𝑥 𝑓(𝑥)𝑑𝑥 (18)
−∞
probabilidad 𝑔(𝑥) sólo de X, se obtiene sumando 𝑓 (𝑥, 𝑦) Si es continua.
sobre los valores de Y. De manera similar, la distribución
de probabilidad ℎ(𝑦) de sólo Y se obtiene sumando 𝑓 (𝑥, 𝑦) La medida de variabilidad más importante de una
sobre los valores de X. Definimos g(x) y h(y) como variable aleatoria X se obtiene al aplicar el teorema en
distribuciones marginales de X y Y, respectivamente. 𝑔(𝑋) = (𝑋 − 𝜇)2 . A causa de su importancia en
estadística, se le denomina varianza de la variable aleatoria
Las distribuciones marginales sólo de X y sólo de Y son X o varianza de la distribución de probabilidad de X y se
denota como 𝑉𝑎𝑟(𝑋) o con el símbolo 𝜎 2 o simplemente
𝑔(𝑥) = ∑ 𝑓(𝑥, 𝑦) 𝑦 ℎ(𝑥) = ∑ 𝑓(𝑥, 𝑦) (13) cuando queda claro a qué variable aleatoria nos referimos.
𝑦 𝑥
Sea X una variable aleatoria con distribución de
para el caso discreto, y probabilidad 𝑓(𝑥) y media 𝜇. La varianza de X es
∞ ∞
𝑔(𝑥) = ∫ 𝑓(𝑥, 𝑦) 𝑦 ℎ(𝑥) = ∫ 𝑓(𝑥, 𝑦) (14)
−∞ −∞ 𝜎 2 = 𝐸[(𝑋 − 𝜇)2 ] = ∑(𝑥 − 𝜇)2 𝑓(𝑥) (19)
para el caso continuo. 𝑥
Si X es discreta, y
La función 𝑓(𝑥, 𝑦)/𝑔(𝑥), que es una función de y con x
fija, satisface todas las condiciones de una distribución de ∞

probabilidad. Como resultado, para poder calcular 𝜎 2 = 𝐸[(𝑋 − 𝜇)2 ] = ∫ (𝑥 − 𝜇)2 𝑓(𝑥)𝑑𝑥 (20)
−∞
probabilidades condicionales es importante que utilicemos Si X es continua.
el tipo especial de distribución de la forma 𝑓(𝑥, 𝑦)/𝑔(𝑥).
Este tipo de distribución se llama distribución de La raíz cuadrada positiva de la varianza, 𝜎, se llama
probabilidad condicional y se define como: desviación estándar de X.
Sean X y Y dos variables aleatorias, discretas o continuas. La varianza de una variable aleatoria X es
La distribución condicional de la variable aleatoria Y, dado
𝜎 2 = 𝐸(𝑋)2 − 𝜇 2 (21)
que 𝑋 = 𝑥, es
El siguiente teorema, debido a Chebyshev, da una
𝑓(𝑥, 𝑦)
𝑓(𝑦 𝑥) = 𝑠𝑖𝑒𝑚𝑝𝑟𝑒 𝑞𝑢𝑒 𝑔(𝑥) > 0 (15𝑎) estimación conservadora de la probabilidad de que una
𝑔(𝑥) variable aleatoria tome un valor dentro de k desviaciones
De manera similar, la distribución condicional de la estándar de su media, para cualquier número real k.
variable aleatoria X, dado que Y = y, es (Teorema de Chebyshev) La probabilidad de que
𝑓(𝑥, 𝑦) cualquier variable aleatoria X tome un valor dentro de k
𝑓(𝑥 𝑦) = 𝑠𝑖𝑒𝑚𝑝𝑟𝑒 𝑞𝑢𝑒 ℎ(𝑦) > 0 (15𝑏) desviaciones estándar de la media es al menos. Es decir,
ℎ(𝑦)
1
Sean X y Y dos variables aleatorias, discretas o continuas, 𝑃(𝜇 − 𝑘𝜎 < 𝑋 < 𝜇 + 𝑘𝜎) ≥ 1 − 2 (22)
𝑘
con distribución de probabilidad conjunta 𝑓(𝑥, 𝑦) y El uso del teorema de Chebyshev se restringe a situaciones
distribuciones marginales 𝑔(𝑥)y ℎ(𝑦), respectivamente. Se donde se desconoce la forma de la distribución.
dice que las variables aleatorias X y Y son estadísticamente
independientes si y sólo si
V. MODELOS DE PROBABILIDAD
𝑓(𝑥, 𝑦) = 𝑔(𝑥)ℎ(𝑦) (16)
Para toda (𝑥, 𝑦) dentro de sus rangos. Existen numerosos tipos de distribuciones. Algunas de
las más importantes empleadas en los problemas de
comunicaciones y de estadística se detallan a continuación
IV. PROMEDIOS ESTADISTICOS
La función de densidad de probabilidad es útil para A. Distribución binomial
evaluar los valores más probables de determinadas
cantidades. El número X de éxitos en n experimentos de Bernoulli se
El promedio conjunto denomina variable aleatoria binomial. La distribución de
Una de las principales aplicaciones de la teoría de la probabilidad de esta variable aleatoria discreta se llama
probabilidad es la evaluación del valor promedio de una distribución binomial y sus valores se denotarán como
variable aleatoria, la cual representa algún fenómeno físico, 𝑏(𝑥; 𝑛, 𝑝), ya que dependen del número de ensayos y de la
o la del valor promedio de alguna función de la variable probabilidad de éxito en un ensayo dado.
aleatoria. El valor esperado, que también se conoce como
promedio conjunto Un experimento de Bernoulli puede tener como resultado
Sea X una variable aleatoria con distribución de un éxito con probabilidad p y un fracaso con probabilidad
probabilidad f(x). La media o valor esperado de X es q = 1 – p. Entonces, la distribución de probabilidad de la
variable aleatoria binomial X, el número de éxitos en n
ensayos independientes, es
𝜇 = 𝐸{𝑋} = ∑ 𝑥 𝑓(𝑥) (17)
𝑥 𝑛
Si X es discreta, y 𝑏(𝑥; 𝑛, 𝑝) = ( ) 𝑝 𝑥 𝑞 𝑛−𝑥 , 𝑥 = 0,1,2, … , 𝑛 (23)
𝑥
La media y la varianza de la distribución binomial
𝑏(𝑥; 𝑛, 𝑝) son
𝐸{𝑥} = 𝑛𝑝 (24)
𝜎 = 𝑛𝑝𝑞 (25)

Ejemplo
La probabilidad de que cierta clase de componente
sobreviva a una prueba de choque es de 3/4. Calcule la
probabilidad de que sobrevivan exactamente 2 de los Figura 2. Sumas de probabilidades de Poisson
Fuente: R. Walpole, R. Myers and S. Myers, Probabilidad y
siguientes 4 componentes que se prueben. estadística para ingeniería y ciencias, 2012.
Solución: Si suponemos que las pruebas son
independientes y p = 3/4 para cada una de las 4 pruebas, C. Distribución Uniforme
Obtenemos Una de las distribuciones continuas más simples de la
3 4 3 2 1 2 estadística es la distribución uniforme continua. Esta
𝑏 (2; 4, ) = ( ) ( ) ( )
4 2 4 4 distribución se caracteriza por una función de densidad que
4! 32 es “plana”, por lo cual la probabilidad es uniforme en un
=( )( ) intervalo cerrado, digamos [A, B].
2! 2! 44
27 La función de densidad de la variable aleatoria uniforme
= = 0.2109 continua A en el intervalo [A, B] es
128
1
B. Distribución de Poisson 𝑓(𝑥; 𝐴, 𝐵) = { 𝐵 − 𝐴 , 𝐴 ≤ 𝑥𝐵 (28)
La distribución de probabilidad de la variable aleatoria de 0, 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
Poisson X, la cual representa el número de resultados que La función de densidad forma un rectángulo con base
ocurren en un intervalo de tiempo dado o región específicos 1
𝐵 − 𝐴 y altura constante . Como resultado, la
y se denota con t, es 𝐵−𝐴
distribución uniforme a me nudo se conoce como
𝑒 −𝜆𝑡 (𝜆𝑡) 𝑥
𝑝(𝑥; 𝜆𝑡) = , 𝑥 = 0,1,2, …, (26) distribución rectangular. Sin embargo, observe que el
𝑥! intervalo no siempre es cerrado: [A, B]; también puede ser
donde λ es el número promedio de resultados por unidad (A, B)
de tiempo, distancia, área o volumen y 𝑒 = 2.71828 …
Existe una tabla que contiene las sumatorias de la
probabilidad de Poisson.
𝑟

𝑝(𝑥; 𝜆𝑡) = ∑ 𝑝(𝑥; 𝜆𝑡) (27)


𝑥=0

Tanto la media como la varianza de la distribución de


Poisson 𝑝(𝑥; 𝜆𝑡) son 𝜆𝑡
Figura 3. Función de densidad para una variable aleatoria en el
Ejemplo intervalo [1, 3]
Durante un experimento de laboratorio el número Fuente: R. Walpole, R. Myers and S. Myers, Probabilidad y
estadística para ingeniería y ciencias, 2012.
promedio de partículas radiactivas que pasan a través de un
contador en un milisegundo es 4. ¿Cuál es la probabilidad
de que entren 6 partículas al contador en un milisegundo La media y la varianza de la distribución uniforme son
dado? 𝐴+𝐵
Solución: Al usar la distribución de Poisson con x = 6 y 𝐸{𝑥} = (29)
2
λt = 4, y al remitirnos a la tabla A.2, tenemos que
𝑒 −4 (4)6 (𝐵 − 𝐴)2
𝑝(6; 4) = 𝜎 2𝑋 = (30)
6! 12
6 5
Ejemplo
= ∑ 𝑝(𝑥; 4) − ∑ 𝑝(𝑥; 4)
Suponga que el tiempo máximo que se puede reservar
𝑥=0 𝑥=0
una sala de conferencias grande de cierta empresa son
= 0.8893 − 0.7851 = 0.1042 cuatro horas. Con mucha frecuencia tienen conferencias
extensas y breves. De hecho, se puede suponer que la
duración X de una conferencia tiene una distribución
uniforme en el intervalo [0, 4]
a) ¿Cuál es la función de densidad de probabilidad?
b) ¿Cuál es la probabilidad de que cualquier conferencia
determinada dure al menos 3 horas?
Solución: a) La función de densidad apropiada para la
variable aleatoria X distribuida uniformemente en esta
situación es
1
𝑓(𝑥; 𝐴, 𝐵) = { 4 0≤𝑥≤4
0, 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

41 1 1
b) 𝑃[𝑋 ≤ 3] = ∫3 𝑑𝑥 = 𝑥⃒ 43 =
4 4 4
Figura 5. 𝑃(𝑥1 < 𝑋 < 𝑥2 ) =área de la región sombreada
Fuente: R. Walpole, R. Myers and S. Myers, Probabilidad y
D. Distribución gaussiana estadística para ingeniería y ciencias, 2012.
La distribución de probabilidad continua más importante
en todo el campo de la estadística es la distribución normal. Por fortuna, podemos transformar todas las
Su gráfica, denominada curva normal, es la curva con observaciones de cualquier variable aleatoria normal X en
forma de campana de la figura, la cual describe de manera un nuevo conjunto de observaciones de una variable
aproximada muchos fenómenos que ocurren en la aleatoria normal Z con media 0 y varianza 1. Esto se puede
naturaleza, la industria y la investigación. La distribución realizar mediante la transformación
normal a menudo se denomina distribución gaussiana en 𝑥−𝜇
honor de Karl Friedrich Gauss. 𝑍= (32)
𝜎𝑋
La distribución de una variable aleatoria normal con
media 0 y varianza 1 se llama distribución normal
estándar. [4]
Ejemplo
Dada una distribución normal estándar, calcule el área
bajo la curva que se localiza
a) a la derecha de z = 1.84, y
b) entre z = –1.97 y z = 0.86.
Figura 4. La curva normal
Fuente: R. Walpole, R. Myers and S. Myers, Probabilidad y
estadística para ingeniería y ciencias, 2012.

La densidad de la variable aleatoria normal X, con media


𝑚𝑋 y varianza 𝜎 2𝑋 es
1
1 − (𝑥−𝜇)2
𝑛(𝑥; 𝜇, 𝜎𝑋 ) = 𝑒 2 𝜎2𝑋 (31)
√2𝜋𝜎𝑋
donde 𝜋 = 3.14159 … y 𝑒 = 2.17828 …

La media y la varianza de 𝑛(𝑥; 𝜇, 𝜎𝑋 ) son 𝜇 y 𝜎 2𝑋 ,


respectivamente. Por lo tanto, la desviación estándar es 𝜎𝑋 . Figura 6. Ejemplo de distribución estándar

1) Áreas bajo la curva Solución: Véase la figura 6 para las áreas específicas.
La dificultad que se enfrenta al resolver las integrales de a) El área en la figura 6a a la derecha de 𝑧 = 1.84 es igual
funciones de densidad normal exige tabular las áreas de la a 1 menos el área en la tabla A.3 a la izquierda de 𝑧 =
curva normal para una referencia rápida. Sin embargo, 1.84, a saber, 1 – 0.9671 = 0.0329.
sería inútil tratar de establecer tablas separadas para cada b) El área en la figura 6b entre 𝑧 = – 1.97 y 𝑧 = 0.86 es
posible valor de 𝑚𝑋 y 𝜎𝑋 . igual al área a la izquierda de 𝑧 = 0.86 menos el área a la
Para la curva normal de la figura 5, es representada por el izquierda de 𝑧 = – 1.97. A partir de la tabla A.3
área de la región sombreada. encontramos que el área que se desea es
𝑥2
0.8051– 0.0244 = 0.7807.
𝑃(𝑥1 < 𝑋 < 𝑥2 ) = ∫ 𝑛(𝑥; 𝜇, 𝜎𝑋 ) 𝑑𝑥
𝑥1
𝑥2 1
1 − 2 (𝑥−𝜇)2 VI. DIFINICION DE PREOCESOS
= ∫ 𝑒 2𝜎 𝑋 𝑑𝑥 ALEATORIOS
√2𝜋𝜎𝑋 𝑥1
Los procesos aleatorios son extensiones de los conceptos
asociados con variables aleatorias cuando el parámetro de
tiempo se agrega al problema. Como se verá, esto habilita
la incorporación de la respuesta de frecuencia dentro de la
descripción estadística.
La definición de un proceso aleatorio puede compararse [5] L. Couch, R. Romero Elizondo and J. Cuevas
con la de una variable aleatoria. Una variable aleatoria Ruiz, Sistemas de comunicación digitales y
asigna eventos a constantes, mientras que un proceso analógicos, 7th ed. México: Pearson Educación,
aleatorio asigna eventos a funciones parámetro t. 2008.
Definición. - Un proceso aleatorio real (o proceso
estocástico) es un conjunto indexado de funciones reales de
algún parámetro, generalmente el tiempo, que posee ciertas
propiedades estadísticas.
La definición de un proceso aleatorio puede compararse
con la de una variable aleatoria. Una
variable aleatoria asigna eventos a constantes, mientras que
un proceso aleatorio asigna eventos a funciones
del parámetro t.
Teorema. Un proceso aleatorio puede describirse
mediante un conjunto indexado de variables aleatorias. [5]

CONCLUSIONES
 Tanto la probabilidad como la estadística es
necesaria en las comunicaciones ya que permite el
estudio de señales no determinísticas o aleatorias.
 En las comunicaciones se presentas señales
aleatorias como el ruido no deseado y como
formas de ondas de información, para comprender
estas señales se debe estudiar términos de
probabilidad y propiedades estadísticas.
 Una distribución de probabilidad para una
variable aleatoria discreta es un listado
mutuamente excluyente de todos los resultados
posibles para esa variable aleatoria, tal que una
probabilidad particular de ocurrencia esté
asociada con cada resultado.
 Los procesos aleatorios son en general una
agrupación de variables que tienen un valor
incierto, y que se puede tener una aproximación
de los valores que estas puedan tomar.

RECOMENDACIONES
 Se recomienda que se entiendan muy bien los
temas tratados en este documento, ya que son
fundaméntales para el estudio de señales en
comunicaciones.
 Si se tiene vacíos de debe profundizar consultando
los libros mencionados en las referencias.

REFERENCIAS
[1] A. Carlson, P. Crilly and J. Rutledge, Sistemas de
comunicación,4th ed. México: MacGraw-Hill, 2007.
[2] W. Mendenhall, J. Velázquez Arellano, R. Beaver and
B. Beaver, Introducción a la probabilidad y
estadística, 13th ed. México: Cengage Learning.
[3] F. Stremler and G. Duchén Sánchez, Introducción a
los sistemas de comunicación, 3rd ed. México:
Addison-Wesley Pub. Co., 1998.
[4] R. Walpole, R. Myers and S. Myers, Probabilidad y
estadística para ingeniería y ciencias, 9th ed. Distrito
Federal: Pearson Educación, 2012.

You might also like