You are on page 1of 20

Tema 1

COMPLEMENTO 2 ricardo.ariasgonzalez@upv.es

Combinatoria
Probabilidad
Estadística
Procesos estocásticos
Combinatoria sin repetición Distinguibles

Permutaciones de 𝑁 elementos: 𝑃! = 𝑁! = 𝑁 𝑁 − 1 𝑁 − 2 ⋯ 1
# formas en que 𝑁 elementos distintos se pueden ordenar. 𝑁! : Factorial
Ej. (1): ¿cuántos números se pueden construir moviendo los dígitos de este número “175”? 3! = 6

Variaciones de 𝑁 elementos Combinaciones de 𝑁 elementos


tomados de 𝑛 en 𝑛: tomados de 𝑛 en 𝑛:
"
" 𝑉! 𝑁! 𝑁
𝑁! 𝐶! = = =
𝑉!" = nótese 𝑉!! = 𝑃! 𝑃" 𝑛! 𝑁 − 𝑛 ! 𝑛
𝑁−𝑛 ! $
Coeficiente 𝑁 #
𝑁
= 2$
# muestras ordenadas de 𝑛 elementos 𝑛
binomial 𝑛 !"#
distintos extraídas de un conjunto de 𝑁
elementos 𝑛 < 𝑁 # muestras sin orden de 𝑛 elementos distintos
extraídas de un conjunto de 𝑁 elementos 𝑛 < 𝑁
Ej. (2): Metemos 𝑁 bolas Ej. (3): 𝑁 bolas distintas Ej. (4): 𝑁 bits de información
distintas en dos urnas, influye en dos urnas, sin importar con 𝑛 1s y 𝑁 − 𝑛 0s: 1010101 …
el orden de introducción 𝑛 𝑁−𝑛 cómo las metemos
Combinatoria con repetición Indistinguibles

Permutaciones de 𝑁 elementos: " ," ,…," 𝑁! 𝑁


𝑃𝑅!! " # = =
# formas en que 𝑁 elementos se pueden ordenar 𝑛+! 𝑛,! ⋯ 𝑛- 𝑛+, 𝑛,, ⋯ , 𝑛-
# microestados

habiendo 𝑛" repeticiones del elemento del tipo 𝑖


(indistinguibles) con un total de 𝑘 tipos (𝑖 = 1, … , 𝑘). Coeficiente multinomial
' 𝑁
nótese 𝑃𝑅$!,$)! = 𝐶$! =
⋯ # 𝑛% = 𝑁 𝑛
%"&
𝑛& 𝑛* 𝑛' Ej. (6): ¿Cuántas cadenas de ADN de 𝑁 nucleótidos
Ej. (5): ¿cuántas ordenaciones lineales de bolas posibles? se pueden construir con 𝑛$ de adenina, 𝑛% de
citosina, 𝑛& de guanina y 𝑛 ' de timina?
Variaciones de 𝑁 elementos Combinaciones de 𝑁 elementos tomados
"
tomados de 𝑛 en 𝑛: 𝑉𝑅! = 𝑁" " 𝑁+𝑛−1 de 𝑛 en 𝑛:
𝐶𝑅! =
# muestras ordenadas de 𝑛 elementos no 𝑛 # muestras sin orden de
necesariamente distintos extraídas de un 𝑛 elementos no necesariamente distintos extraídas de
conjunto de 𝑁 elementos aquí 𝑛 ⋛ 𝑁 un conjunto de 𝑁 elementos aquí 𝑛 ⋛ 𝑁
Ej. (7): ¿cuántas cadenas de ADN se pueden Ej. (6): ¿Cuántos urnas de 3 nucleótidos se pueden llenar (no hay que
formar de 3 nucleótidos? 4# = 64 ? formar cadenas de ADN, así que no importa el orden de llenado)? 20 ?
Expresiones asintóticas de interés
𝑁! ~𝑁 ! 𝑒 1! 2𝜋𝑁
Fórmula de Stirling 𝑁 suficientemente grande
ln 𝑁! = 𝑁 ln 𝑁 − 𝑁 + 𝑂 ln 𝑁
𝑁
Coef. binomial: ln ~𝑁 ln 𝑁 − 𝑁 − 𝑛 ln 𝑛 − 𝑛 − 𝑁 − 𝑛 ln 𝑁 − 𝑛 − 𝑁 − 𝑛 =
𝑛
𝑛 𝑛
= 𝑁 ln 𝑁 − ln 𝑛 − 1 − ln 𝑁 − 𝑛 = −𝑁 𝛼 ln 𝛼 + 1 − 𝛼 ln 1 − 𝛼 = 𝑁𝐻 𝛼
𝑁 𝑁 𝑛
𝛼=
𝑁 ln 2
Usada en Tª Información 𝐻 𝛼 ≡ −𝛼 ln 𝛼 − 1 − 𝛼 ln 1 − 𝛼
Coeficiente 𝑁 𝑛"
ln ~ 𝛼" =

𝐻 𝛼
multinomial: 𝑛+, 𝑛,, ⋯ , 𝑛- 𝑁
Con *
−𝑁 𝛼+ ln 𝛼+ + 𝛼, ln 𝛼, + ⋯ + 𝛼- ln 𝛼- @ 𝛼" = 1
"()
El que estos desarrollos sean lineales
en N es clave en física estadística. 𝛼
Sucesos aleatorios
Consideraciones
1. Existencia de un experimento 2. # éxitos
𝜈=
repetible bajo las mismas condiciones # éxperimentos
𝜈⟹ 𝑃 𝐴 : Probabilidad del suceso A

Reglas que verifican las probabilidades de dos sucesos cualesquiera:


𝑃 𝐴∘𝐵 =𝑃 𝐴 +𝑃 𝐵 −𝑃 𝐴𝑦𝐵 𝑃 𝐴 𝑦 𝐵 = 𝑃 𝐵 > 𝑃 𝐴|𝐵 prob. condicionada

𝑃 𝐴𝑦𝐵 =𝑃 𝐴 >𝑃 𝐵 , ∀𝐴 𝑦 𝐵 independientes Si 𝑃 𝐴 𝑦 𝐵 = 0 ⟹ 𝐴 y 𝐵 excluyentes

Ejemplo: lanzo una moneda dos veces Probabilidad de que salga una cara:
)
𝐴: sale cara en la 1ª tirada 𝑃 𝐴 = 𝑃 𝐵 = +
,
1 1 1 3
𝐵: sale cara en la 2ª tirada ) )
𝑃 𝐴𝑦𝐵 = +I+= , ,
) ⇒𝑃 𝐴∘𝐵 = + − =
2 2 4 4
Variables aleatorias
Es el resultado de un experimento.
Puede tomar valores continuos o discretos. 𝑋 𝑥
Discretos: los valores de 𝑋 están dentro de Continuo: se suele suponer como
un conjunto numerable, posiblemente infinito dominio la recta real, ℝ
Ω = 𝑥+, 𝑥,, … , 𝑥- , …

Distribución de probabilidad 𝑃0 𝐴 ≡ Prob 𝑋 ∈ 𝐴 ∀𝐴 ⊆ ℝ


Densidad de
𝑃J 𝑥K ≡ Prob 𝑋 = 𝑥K 𝜌! 𝑥 : ℝ ⟶ [0, ∞) probabilidad

𝑃! 𝑥" ∈ 0,1 𝜌+ 𝑥 = lim


1 -/∆-
< 𝑑𝑥′𝜌+ 𝑥′ = lim
1
Prob 𝑋 ∈ 𝑥, 𝑥 + ∆𝑥
∆-→# ∆𝑥 - ∆-→# ∆𝑥

Normalización: @ 𝑃0 𝑥* = 1
𝑃0 𝐴 = M 𝑑𝑥𝜌0 𝑥 ∈ 0,1 M 𝑑𝑥𝜌 𝑥 = 1 𝜌+ 𝑥 ≥ 0
-! ∈/ $ ℝ
Notación: se suele prescindir del subíndice 𝑋, 𝑌, … en las distribuciones y densidades de probabilidad.
Distribuciones y densidades de probabilidad
Sean 𝑋[ , … , 𝑋\ variables aleatorias continuas.
Se denomina densidad de probabilidad conjunta 𝜌 𝑥! , … , 𝑥"
𝑃 𝐴 ≡ Prob 𝑥+, … , 𝑥" ∈ 𝐴 = K 𝑑𝑥+ ⋯ 𝑑𝑥" 𝜌 𝑥+, … , 𝑥"
F⊆ℝ$

Densidad de probabilidad marginal 𝜌# 𝑥! , … , 𝑥#


𝑠<𝑛
𝜌I 𝑥+, … , 𝑥I = K 𝑑𝑥IJ+ K 𝑑𝑥IJ, ⋯ K 𝑑𝑥" 𝜌 𝑥+, … , 𝑥I , 𝑥IJ+, … , 𝑥"
ℝ ℝ ℝ

Densidad de probabilidad condicional 𝜌$⁄%&$ 𝑥' , … , 𝑥$ |𝑥$(' , … , 𝑥%


𝜌" 𝑥+, … , 𝑥" Dens. prob. de las 𝑠 primeras variables,
𝜌I⁄"1I 𝑥+, … , 𝑥I |𝑥IJ+, … , 𝑥" =
𝜌"1I 𝑥IJ+, … , 𝑥" 𝑋) , … , 𝑋2 , conociendo las otras 𝑛 − 𝑠,
𝑋23) = 𝑥23) , … , 𝑋4 = 𝑥4
Independencia estadística
𝑋 e 𝑌 estadísticamente indep. si 𝜌 𝑥, 𝑦 = 𝜌 𝑥 𝜌 𝑦 ⇒ 𝜌 𝑥|𝑦 = 𝜌 𝑥
Ejemplos
Ej. (1): Sea 𝑋 ∈ Ω = 1,2, … , 6 , las caras de un dado de parchís
1
𝑃L 𝑥 = Prob 𝑋 = 𝑥 = ∀𝑥 ∈Ω
6
1
Ej. (2): Tomamos ahora dos dados 𝑋, 𝑌 ∈ Ω = 1, . . , 6 𝑃L 𝑥 = 𝑃M 𝑦 = 6
ambos un valor concreto 1
𝑃L,M 𝑥, 𝑦 = Prob 𝑋 = 𝑥, 𝑌 = 𝑦 = Prob 𝑋 = 𝑥 > Prob 𝑌 = 𝑦 = ∀ 𝑥, 𝑦 ∈ Ω
36
pues son sucesos independientes.

Ej. (3): Sea Z = 𝑋 + 𝑌 ∈ Ω′ = 2, … , 12


1 1 1 1
⇒ 𝑃5 2 = ⇒ 𝑃5 3 = + =
36 36 36 18
1+1
1+2o2+1 6− 7−𝑧
En general: 𝑃N 𝑧 =
?
# sucesos
posibles 36
Ejemplos
Ej. (4): Sea el segmento de 0 a 𝐿: 0 𝑋 ∈ 𝐴 = 0, 𝐿 𝐿

1 1, 𝑥 ∈ 𝐴 1
1
𝜌L 𝑥 = 𝒳 O,P 𝑥 con 𝒳F 𝑥 = Y < 𝑑𝑥𝜌+ 𝑥 = < 𝑑𝑥 = 1
𝐿 0, 𝑥 ∉ 𝐴 ℝ # 𝐿

1
Introducimos también 𝑌 ∈ 𝐴 = 0, 𝐿 𝜌M 𝑦 = 𝒳 O,P 𝑥
𝐿
Por último 𝑍 = max 𝑋, 𝑌 …¿probabilidad de encontrar 𝑍 en el intervalo 𝑧, 𝑧 + ∆𝑧 ?
0 ∆𝑧 𝑌
𝑋 𝑌
𝑧 𝑧+ 𝐿 1 de estas 3 𝑋 𝑋, 𝑌
posibilidades:
0 𝐿0 𝐿 0 𝐿
Prob 𝑍 ∈ 𝑧, 𝑧 + ∆𝑧 = Prob 𝑌 < 𝑧, 𝑋 ∈ 𝑧, 𝑧 + ∆𝑧 o 𝑋 < 𝑧, 𝑌 ∈ 𝑧, 𝑧 + ∆𝑧 o 𝑋, 𝑌 ∈ 𝑧, 𝑧 + ∆𝑧 =
Prob 𝑌 < 𝑧, 𝑋 ∈ 𝑧, 𝑧 + ∆𝑧 + Prob 𝑋 < 𝑧, 𝑌 ∈ 𝑧, 𝑧 + ∆𝑧 + Prob 𝑋, 𝑌 ∈ 𝑧, 𝑧 + ∆𝑧 =
Prob 𝑌 < 𝑧 I Prob 𝑋 ∈ 𝑧, 𝑧 + ∆𝑧 + Prob 𝑋 < 𝑧 I Prob 𝑌 ∈ 𝑧, 𝑧 + ∆𝑧 +
Prob 𝑋 ∈ 𝑧, 𝑧 + ∆𝑧 I Prob 𝑌 ∈ 𝑧, 𝑧 + ∆𝑧 =
Ejemplos
Prob 𝑌 < 𝑧 ( Prob 𝑋 ∈ 𝑧, 𝑧 + ∆𝑧 + Prob 𝑋 < 𝑧 ( Prob 𝑌 ∈ 𝑧, 𝑧 + ∆𝑧 + Prob 𝑋 ∈ 𝑧, 𝑧 + ∆𝑧 ( Prob 𝑌 ∈ 𝑧, 𝑧 + ∆𝑧 =
2
𝑧
+ donde Prob 𝑋 < 𝑧 = < 𝑑𝑥𝜌+ 𝑥 =
𝑧 ∆𝑧 𝑧 ∆𝑧 ∆𝑧 ∆𝑧 ∆𝑧 ∆𝑧 # 𝐿
+ + = 2𝑧 + + hemos 2/∆2
𝐿 𝐿 𝐿 𝐿 𝐿 𝐿 𝐿 𝐿 ∆𝑧
usado que Prob 𝑋 ∈ 𝑧, 𝑧 + ∆𝑧 =< 𝑑𝑥𝜌+ 𝑥 =
2 𝐿
𝜌N
La densidad de probabilidad es el límite:
,
2`
1 ∆𝑧 ∆𝑧 2𝑧 𝐿
𝜌N 𝑧 = lim 2𝑧 , + = ,
∆U→O ∆𝑧 𝐿 𝐿 𝐿
𝑧
𝐿
1 WJ∆W
Forma de construir la distribución de 𝜌L 𝑥 = lim K 𝑑𝑥′𝜌L 𝑥′ =
∆W→O ∆𝑥 W
probabilidad, desde intervalos finitos 1
𝑥, 𝑥 + ∆𝑥 a infinitesimales 𝑥, 𝑥 + 𝑑𝑥 lim Prob 𝑋 ∈ 𝑥, 𝑥 + ∆𝑥
∆W→O ∆𝑥
Delta de Dirac
∞, 𝑥 = 𝑥O centrada 4
𝛿 𝑥 − 𝑥) = Y 0, 𝑥 ≠ 𝑥
O
en 𝑥6 < 𝛿 𝑥 − 𝑥# 𝑑𝑥 = 1 𝑥6 = 0
3

𝛿 𝑥
Y
𝑓 𝑥O , 𝑎 < 𝑥O < 𝑏
K 𝛿 𝑥 − 𝑥O 𝑓 𝑥 𝑑𝑥 = Y
X 0, 𝑎 > 𝑥O o 𝑏 < 𝑥O
No debe interpretarse como una función pues se llega a contradicción con
𝑥
la definición de la misma. Una distribución tiene su propia definición en matemáticas.
38
Se suele suponer que 𝑎 → −∞ y b→ +∞, de manera que ∫78 𝛿 𝑥 − 𝑥6 𝑓 𝑥 𝑑𝑥 = 𝑓 𝑥6

Función Heaviside o paso 𝜃 𝑥 − 𝑥c = Y1, 𝑥 > 𝑥O


0, 𝑥 ≤ 𝑥O 𝑥6 = 0
(centrada en 𝑥O)

𝜃 𝑥
𝑑 W
𝛿 𝑥 − 𝑥O = 𝜃 𝑥 − 𝑥O
?
𝜃 𝑥 − 𝑥O = K 𝛿 𝑥′ − 𝑥O 𝑑𝑥′
𝑑𝑥 1[
𝑥
Valores medios
Variable Variable
aleatoria 𝑋 = E 𝑥𝑃J 𝑥 𝑋 = F 𝑑𝑥𝜌J 𝑥 𝑥 aleatoria
discreta k∈l ℝ continua
También conocido como valor esperado de la variable aleatoria 𝑋

Propiedades
Demostración. Usando 𝑃 𝑥 = # 𝑃 𝑥, 𝑦
1. Linealidad 𝛼𝑋 + 𝛽𝑌 = 𝛼 𝑋 + 𝛽 𝑌 la probabilidad marginal:
+ +,8
"7∈6

𝛼𝑋 + 𝛽𝑌 = # 𝛼𝑋 + 𝛽𝑌 𝑃+,8 𝑥, 𝑦 = 𝛼 # 𝑥𝑃+ 𝑥 + 𝛽 # 𝑦𝑃8 𝑌 = 𝛼 𝑋 + 𝛽 𝑌


-∈6! -∈6! 7∈6"
7∈6"

2. Independencia: si 𝑋 e 𝑌 son independientes estadísticamente 𝑋𝑌 = 𝑋 𝑌

Momento de orden 𝒏 𝑋 \ = E 𝑥 \ 𝑃J 𝑥 𝑋 \ = F 𝑑𝑥𝜌J 𝑥 𝑥 \


k∈l m
Ejemplos
Ej. (1): Segmento de 0 a 𝐿: 0 𝐿
38 9
1 1 𝐿
𝑋 =M 𝑑𝑥 𝑥 = M 𝑑𝑥 𝑥 =
78 𝐿 6 𝐿 2

2𝑧 9
2𝑧 + 2
Ej. (2): 𝑍 = max 𝑋, 𝑌 𝜌N 𝑧 = , 𝒳 O,P 𝑍 𝑍 = M 𝑑𝑧 + = 𝐿
𝐿 3
𝐿 6

P
, 3
Ej. (3): 𝜌_ 𝑢 = P
𝒳 !⁄",P 𝑢 𝑈 = K 𝑑𝑢2𝑢 = 𝐿
+` ?? 4
,
Dispersión
Si pintamos una gráfica 𝑋 nube de puntos Desviación de la variable
con los resultados de medir 𝑋− 𝑋 aleatoria 𝑋 respecto a su
𝑋
una variable aleatoria: media, 𝑋

Tomemos el valor medio: 𝑥


𝑋− 𝑋 = 𝑋 − 𝑋 =0 Es necesario tomar la media del cuadrado:

% !&%
𝜎$ ≡ 𝑋 − 𝑋 Desviación típica --> calcular el
valor medio de la desviación

Lema: 𝜎!* = 𝑋 * − 𝑋 *

Demo: 𝜎0+ = 𝑋 − 𝑋 + = 𝑋+ + 𝑋 + − 2𝑋 𝑋 = 𝑋+ + 𝑋 + − 2 𝑋 𝑋 = 𝑋+ − 𝑋 +

9" 9
* * Ej. (1): 𝑋+ = # , 𝜎0 = )+
Como siempre 𝜎L, ≥0 ⟹ 𝑋 ≥ 𝑋 9" 9
Ej. (2): +
𝑍 = , 𝜎5 =
+ ):
Otras cantidades estadísticas
Correlación 𝐶 𝑋, 𝑌 ≡ 𝑋− 𝑋 𝑌− 𝑌 = 𝑋𝑌 − 𝑋 𝑌
Mide la dependencia estadística de dos variables aleatorias
𝐶 𝑋, 𝑌 = 0 𝑋 e 𝑌 son variables aleatorias estadísticamente independientes

𝐶 𝑋, 𝑌 cuando se alcanzan los extremos, las variables están


−1 ≤ ≤1 fuertemente correlacionadas (+1) o anti-correlacionadas
𝜎L 𝜎M (−1), se les puede asociar una relación causal.
P"
Ej. (1): 𝐶 𝑋, 𝑍 = ,b

Autocorrelación 𝜎! ! ≡ 𝐶 𝑋, 𝑋 Se utiliza para encontrar patrones,


periodicidad,…, en dos condiciones
Por ejemplo, para dos tiempos diferentes. diferentes.
𝐶 𝑋a! , 𝑋a" ≡ 𝑋 𝑡+ − 𝑋 𝑡+ 𝑋 𝑡, − 𝑋 𝑡,
Funciones de variables aleatorias
Sea 𝑋 una variable aleatoria de recorrido ΩL . Sea 𝑓: ΩL ⟶ ΩM una función.
⟹ 𝑌 = 𝑓 𝑋 es una variable aleatoria de recorrido ΩM .

Encontremos la distribución de Suponemos que ∃𝑓 1+: ΩM ⟶ ΩL y


probabilidad de 𝑌 conociendo la de 𝑋. consideramos ΩL = ΩM = ℝ
M 𝑑𝑦𝜌< 𝑦 = Prob 𝑌 ∈ 𝐵 = Prob 𝑋 ∈ 𝑓 7) 𝐵 =
;
𝑓 )& 𝐵 = 𝑥: 𝑓 𝑥 ∈ 𝐵
𝜌L 𝑓 1+ 𝑦
𝑧 = 𝑓 𝑥 , 𝑑𝑧 = 𝑓′ 𝑥 𝑑𝑥 ⟹ 𝜌M 𝑦 =
𝑑𝑧 𝑓′ 𝑓 1+ 𝑦
M 𝑑𝑥𝜌0 𝑥 = M 𝜌0 𝑓 7) 𝑧
=#$ ; ; 𝑓′ 𝑓 7) 𝑧 𝑓 biyectiva

En general, 𝜌M 𝑦 = 𝛿 𝑓 𝑋 − 𝑦 = K 𝑑𝑥𝜌L 𝑥 𝛿 𝑓 𝑋 − 𝑦
g%

Demo: < 𝑑𝑦𝜌8 𝑦 = < 𝑑𝑦 < 𝑑𝑥𝜌+ 𝑥 𝛿 𝑓 𝑋 − 𝑦 = < 𝑑𝑥𝜌+ 𝑥 𝒳9 𝑓 𝑥 =< 𝑑𝑥𝜌+ 𝑥
9 9 6! 6! : #$ 9
Funciones de variables aleatorias
En general 𝑓 𝑋 ≠ 𝑓 𝑋 . Solo se da la igualdad sin 𝑓 es una función lineal.

Valor medio 𝑓 𝑋 = E 𝑓 𝑥 𝑃J 𝑥 𝑓 𝑋 = F 𝑑𝑥𝜌J 𝑥 𝑓 𝑥


de función m
k∈l
1
Ej. (1): 𝑌 = 𝑋 ,; 𝜌L 𝑥 = 𝒳 O,+ 𝑥 ⟹ 𝜌M 𝑦 = 𝒳 O,+ 𝑦
2 𝑦
Sean 𝑋+ y 𝑋, dos variables aleatorias. 𝑌 = 𝑓 𝑋+, 𝑋, ⟹ 𝜌M 𝑦 = 𝛿 𝑦 − 𝑓 𝑋+, 𝑋,

Ej. (2): 𝑌 = 𝑋+ + 𝑋, ⟹ 𝜌< 𝑦 = 𝛿 𝑌 − 𝑋) − 𝑋+ = M 𝑑𝑥) M 𝑑𝑥+ 𝜌+ 𝑥) , 𝑥+ 𝛿 𝑦 − 𝑥) − 𝑥+


ℝ ℝ

= M 𝑑𝑥) 𝜌+ 𝑥) , 𝑦 − 𝑥)

Si 𝑋+ y 𝑋, son
estadísticamente independientes
⟹ 𝜌< 𝑦 = M 𝑑𝑥) 𝜌0$ 𝑥) 𝜌0" 𝑦 − 𝑥) Convolución

Función característica
Es la transformada de Fourier de
la distribución de probabilidad de
𝐺J 𝑘 ≡ 𝑒 tKJ = F 𝑑𝑥𝜌J 𝑥 𝑒 tKk
una variable aleatoria l/
𝐺L : ℝ ⟶ ℂ
Propiedades
1. 𝐺hL 𝑘 = 𝐺L 𝜆𝑘 2. Si 𝑋 e 𝑌 son independientes: 𝐺LJM 𝑘 = 𝐺L 𝑘 𝐺M 𝑘
Demo: 𝐺03< 𝑘 = 𝑒 "* 03< = 𝑒 "*0 𝑒 "*< = 𝑒 "*0 𝑒 "*<

3. "
1 𝜕 1 𝜕 1 𝜕 "*0 1
𝑋" = z 𝐺L 𝑘 Demo: 𝐺0 𝑘 = 𝑒 = 𝑖𝑋𝑒 "*0 = 𝑋𝑒 "*0
𝑖 𝜕𝑘 𝑖 𝜕𝑘 𝑖 𝜕𝑘 𝑖
-iO 1 𝜕
⟹ s 𝐺0 𝑘 = 𝑋
1 𝜕 4 𝑖 𝜕𝑘
Igualmente: 𝐺0 𝑘 = 𝑋 4 𝑒 "*0 *(6
𝑖 𝜕𝑘 cuando lo evalúo en k=0 me aparece X^n
Distribuciones y densidades notables
𝑁 \ uv\
Distribución binomial 𝑝\ = Prob 𝑋 = 𝑛 = 𝑝 1−𝑝
𝑛
𝑋, ΩL = 1,2, … , 𝑁 𝑝: parámetro que cumple 0 ≤ 𝑝 ≤ 1

𝜆\ vw Aparece como el límite de la


Distribución de Poisson 𝑝\ = 𝑒
LÍMITE BINOMIAL 𝑛! binomial para 𝑁 ≫ 𝑛, 𝑝 ≪ 1
(𝑁 → ∞ , 𝑛𝑝 → 𝜆)
𝑋, ΩL = 1,2, … = ℕ 𝜆: parámetro que cumple 𝜆 > 0

1 kvx 0 𝜇= 𝑋
v
Distribución de Gauss 𝜌 𝑥 = 𝑒 yz 0
LÍMITE BINOMIAL
𝜎 2𝜋 𝜎= 𝑋, − 𝑋 ,

𝑋 ∈ ℝ Parámetros: 𝜇 ∈ ℝ, 𝜎 > 0 Interpretación de los parámetros


Aparece como el límite de la binomial para 𝑁 ≫ 𝑛
Proceso estocástico
Es una variable aleatoria
que depende del tiempo
𝑋 𝑡 , Ω$
La densidad de probabilidad se escribe:
𝜌L(a) 𝑥 = 𝜌 𝑥, 𝑡
El tiempo, 𝑡, es un parámetro
La normalización es
! 𝑑𝑥𝜌 𝑥, 𝑡 = 1
independiente de 𝑡: ℝ Hormeño et al., Biophys J. 97, 1022-1030 (2009)

Origen de un proceso estocástico: Densidad conjunta: 𝜌 + ;$ ,+ ;% 𝑥& , 𝑥* = 𝜌* 𝑥& , 𝑥* ; 𝑡& , 𝑡*


• Condiciones iniciales imprecisas No trataremos este objeto pues hablaremos de Física
• Evolución no determinista Estadística de equilibrio

You might also like