You are on page 1of 525

Contenidos

Artículos

Teorema de Bayes

1

Paradoja del cuervo

2

Probabilidad condicionada

4

Distribución de probabilidad continua

8

Distribución Box-Cox

10

Distribución de Cauchy

11

Distribución de Erlang

14

Distribución de Gumbel

15

Distribución de Pareto

18

Distribución de Rayleigh

22

Distribución exponencial

23

Distribución F

25

Distribución gamma

27

Distribución log-normal

28

Distribución t de Student

30

Distribución χ²

33

Distribución de Fréchet

36

Distribución T² de Hotelling

37

Distribución de Laplace

40

Distribución logística

43

Distribución normal multivariante

46

Distribución normal

53

Distribución Triangular

70

Distribución uniforme continua

72

Distribución de Weibull

77

Función de densidad de probabilidad

81

Teorema fundamental del álgebra

84

Teorema fundamental del cálculo

87

Teorema de muestreo de Nyquist-Shannon

91

Teorema del límite central

95

Varianza

97

Teorema de Stokes

100

Teorema de Sarkovskii

102

Teorema del valor medio

103

Teorema del punto fijo de Brouwer

106

Teorema del punto fijo de Banach

111

Teorema de Picard-Lindelöf

112

Función lipschitziana

114

Teorema de Kirszbraun

115

Teorema fundamental de la aritmética

115

Teorema del binomio

118

Coeficiente binomial

121

Teorema de Green

131

Teorema de Gauss-Márkov

132

Homocedasticidad

133

Regresión lineal

135

Regresión no lineal

141

Teorema de Bell

146

Teorema de imposibilidad

159

Teorema de Bloch

160

Teorema de equipartición

162

Teorema de la estadística del espín

181

Teorema de Fortescue

182

Teorema de la energía cinética

183

Teorema de Hellman-Feynman

184

Teorema de Huygens

185

Teorema de Kirkwood-Frohlich

187

Teorema de Kutta-Yukovski

187

Lineal

188

Teorema de Liouville (mecánica hamiltoniana)

190

Teorema de máxima potencia

192

Teorema de Noether

194

Teorema de Poynting

198

Principio de superposición

200

Teorema del transporte de Reynolds

201

Teorema de Rivlin-Ericksen

204

Teorema adiabático

205

Teorema de Earnshaw

206

Teorema de Mermin-Wagner

207

Teorema de Steiner

210

Teorema de Taylor-Proudman

212

Teorema de Torricelli

213

Teorema de unicidad del potencial

215

Teorema π de Vaschy-Buckingham

216

Teorema de Varignon (mecánica)

219

Teorema de la velocidad media

220

Teorema de virial

221

Vis viva

226

Teorema

227

Teorema de Kirchhoff

229

Teorema del programa estructurado

229

Teorema de compacidad

230

Teorema de completitud de Gödel

230

Demostración original del teorema de completitud de Gödel

231

Teorema de la deducción

232

Teorema de Frege

233

Teoremas de incompletitud de Gödel

234

Teorema de Löb

243

Teorema de Löwenheim-Skolem

244

Programa de Hilbert

245

Desigualdad matemática

247

Desigualdad de Boole

250

Cota de Cramér-Rao

252

Desigualdad de Bernoulli

255

Desigualdad de Bessel

256

Desigualdad de Cauchy-Schwarz

257

Desigualdad de Chebyshov

258

Desigualdad de Hardy

259

Desigualdad de Hoeffding

260

Desigualdad de Hölder

261

Desigualdad de Jensen

262

Desigualdad de Kraft

264

Desigualdad de las medias aritmética y geométrica

264

Desigualdad de Minkowski

266

Desigualdad de Márkov

268

Desigualdad de Opial

269

Desigualdad de Shapiro

269

Desigualdad de Nesbitt

270

Teorema de Jung

271

Teorema de Cauchy

272

Constante de Apéry

273

Teorema de Euclides (desambiguación)

275

Teorema de existencia

275

Teorema de Lagrange

275

Teorema de Liouville

276

Teorema maestro

276

Teorema de multiplicación

278

Teorema de Knaster-Tarski

279

Teorema de restricción cristalográfica

280

Teorema de Rice

283

Teorema de la amistad

285

Lema de Berge

287

Teorema de Brooks

287

Teorema de los cuatro colores

288

Teorema de Kuratowski

293

Teorema de Rao-Blackwell

294

Teorema de Karhunen-Loève

295

Teorema de Aumann

297

Teorema de Cochran

298

Teorema de convergencia de Lévy

298

Ley de Benford

299

Teorema de Shannon-Hartley

301

Teorema de la invariancia (teoría de la información)

306

Teorema de Bernoulli

307

Lema de Borel-Cantelli

307

Fórmula de Tanaka

308

Teorema del mono infinito

309

Ley cero-uno de Kolmogórov

314

Ley de los grandes números

314

Teorema de la probabilidad total

315

Teorema de De Moivre-Laplace

316

Teorema fundamental

317

Teorema fundamental de la teoría de Galois

317

Teorema fundamental de la geometría de Riemann

319

Teorema fundamental de homomorfismos

320

Teoremas fundamentales de la economía del bienestar

321

Lema fundamental de teoría de cribas

329

Teoría de cribas

331

Criba de Brun

332

Constante de Brun

334

Conjetura de los números primos gemelos

335

Números primos gemelos

336

Número primo

337

Teorema de los números primos

355

Teorema de Beatty

357

Teorema de Bombieri-Vinográdov

359

Teorema de Carmichael

360

Teorema chino del resto

361

Teorema de congruencia lineal

362

Conjetura de Catalan

364

Conjetura de modularidad de Serre

365

Teorema de los cuatro cuadrados

366

Teorema de Dirichlet

367

Lema de Euclides

370

Teorema de Euclides

371

Teorema de Euler

373

Criterio de Euler

377

Teorema de Fermat

378

Teorema del número poligonal de Fermat

378

Pequeño teorema de Fermat

379

Demostraciones del pequeño teorema de Fermat

384

Teorema de Fermat sobre la suma de dos cuadrados

387

Último teorema de Fermat

389

Teorema de Gelfond-Schneider

393

Teorema de Herbrand-Ribet

394

Identidad de Proizvolov

395

Teorema de Lochs

396

Teorema de Lucas

397

Teoremas de Mertens

398

Teorema de Mills

399

Teorema del número pentagonal

400

Teorema de Ostrowski

404

Postulado de Bertrand

405

Teorema de Proth

405

Teorema de Ribet

406

Serie de los inversos de los números primos

408

Teorema de Taniyama-Shimura

412

Teorema de Hurwitz (teoría de números)

413

Teorema de Popoviciu

414

Teorema de SiegelWalfisz

415

Teorema de Vinográdov

416

Teorema de Wilson

417

Teorema de Wolstenholme

420

Teoría de Donaldson

421

Teoría de campo de gauge

421

Grado de libertad (física)

426

Grado de libertad (ingeniería)

428

Grado de libertad (estadística)

429

Regla de las fases de Gibbs

430

Dimensión

430

Espacio topológico

434

Alfombra de Sierpinski

436

Arco conexo

438

Conjunto de Cantor

439

Conjunto de Smith-Volterra-Cantor

442

Continuo dimensional

443

Dimensión topológica

443

Espacio con un número transfinito de dimensiones

444

Espacio de caminos

444

Espacio euclídeo

445

Espacio regular

446

Esponja de Menger

447

Plano de Sorgenfrey

448

Primer ordinal no numerable

449

Recta larga (topología)

450

Recta numérica

451

Topología de Alexandrov

452

Topología de los complementos finitos

453

Topología de los complementos numerables

453

Topología del límite inferior

454

Topología euclideana

455

Topología trivial

456

Triángulo de Sierpinski

457

Teorema de Euler sobre funciones homogéneas

460

Función homogénea

461

Espacio de Banach

463

Teorema de la divergencia

467

Teorema de descomposición espectral

469

Operador hermítico

470

Espacio de Hilbert

472

Ondícula

477

Transformación

479

Cálculo

480

Cálculo infinitesimal

490

Cálculo lambda

497

Referencias

Fuentes y contribuyentes del artículo

507

Fuentes de imagen, Licencias y contribuyentes

514

Licencias de artículos

Licencia

518

Teorema de Bayes

Teorema de Bayes

1

En la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763 [1] que expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A.

En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados.

Sea

probabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las

probabilidades condicionales

del que se conocen las probabilidades condicionales un conjunto de sucesos mutuamente excluyentes y exhaustivos,

un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la

. Entonces, la probabilidad

y exhaustivos, y tales que la . Entonces, la probabilidad viene dada por la expresión: donde:

viene dada por la expresión:

la . Entonces, la probabilidad viene dada por la expresión: donde: • son las probabilidades a
la . Entonces, la probabilidad viene dada por la expresión: donde: • son las probabilidades a

donde:

• son las probabilidades a priori.

la expresión: donde: • son las probabilidades a priori. • es la probabilidad de en la
la expresión: donde: • son las probabilidades a priori. • es la probabilidad de en la

• es la probabilidad de

en la hipótesis

• son las probabilidades a posteriori.

.
.

Fórmula de Bayes

Con base en la definición de Probabilidad condicionada, obtenemos la Fórmula de Bayes, también conocida como la Regla de Bayes:

Fórmula de Bayes, también conocida como la Regla de Bayes: Aplicaciones El teorema de Bayes es

Aplicaciones

El teorema de Bayes es válido en todas las aplicaciones de la teoría de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadística tradicional sólo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmación empírica mientras que los llamados estadísticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cómo debemos modificar nuestras probabilidades subjetivas cuando recibimos información adicional de un experimento. La estadística bayesiana está demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en función de la evidencia empírica es lo que está abriendo nuevas formas de hacer conocimiento. Una aplicación de esto son los clasificadores bayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam, que se adaptan con el uso.

Como observación, se tiene

de correo basura o spam , que se adaptan con el uso. Como observación, se tiene

y su demostración resulta trivial.

Teorema de Bayes

2

Enlaces externos

• Calculadora en internet [2]

• Inferencia estadística según el modelo bayesiano [3] , en la web de la Sociedad Andaluza de Enfermedades Infecciosas [4]

• Enciclopedia Stanford de filosofía [5]

• Simulacion del Teorema de Bayes con R-Project [6]

Referencias

[[11]]

Paradoja del cuervo

*

La paradoja del cuervo es una paradoja propuesta por el filósofo alemán Carl Hempel en la década de 1940 para ilustrar un problema donde la lógica inductiva desafía a la intuición. Esta paradoja se conoce también como paradoja de la negación o paradoja de Hempel.

Cuando durante miles de años la gente ha observado hechos que se acomodan bien en el marco de una teoría como la ley de la gravedad, tendemos a creer que dicha teoría tiene una alta probabilidad de ser cierta y nuestra confianza en ella aumenta con cada nueva observación de acuerdo con ella. Este tipo de razonamiento puede sintetizarse en el principio de inducción:

• Si se observa un caso particular X consistente con la teoría T, entonces la probabilidad de que T sea cierta aumenta.

Hempel da un ejemplo del principio de inducción. Propone como teoría "Todos los cuervos son negros". Si ahora examinamos a un millón de cuervos, y observamos que todos son negros, nuestra creencia en la teoría "todos los cuervos son negros" crecerá ligeramente con cada observación. En este caso, el principio de inducción parece razonable.

En este caso, el principio de inducción parece razonable. Cuervo negro. No-negro, no-cuervo. Ahora bien, la

Cuervo negro.

el principio de inducción parece razonable. Cuervo negro. No-negro, no-cuervo. Ahora bien, la afirmación "todos

No-negro, no-cuervo.

Ahora bien, la afirmación "todos los cuervos son negros" es equivalente en lógica a la afirmación "todas las cosas no-negras son no-cuervos". Por lo tanto, observar una manzana roja proporciona evidencia empírica para sostener esta segunda afirmación. Una manzana roja es una cosa no-negra, y cuando la examinamos, vemos que es un no-cuervo. Así que, por el principio de inducción, el observar una manzana roja debería incrementar nuestra confianza en la creencia de que todos los cuervos son negros.

Paradoja del cuervo

3

Hay filósofos que han ofrecido varias soluciones a este desafío a la intuición. El lógico estadounidense Nelson Goodman ha sugerido añadir restricciones a nuestro propio razonamiento, como no considerar nunca que un caso válido "Todos los P son Q" si valida también "Ningún P es Q".

Otros filósofos han cuestionado el "principio de equivalencia". A lo mejor, la manzana roja debe aumentar nuestra creencia en la teoría "todas las cosas no-negras son no-cuervos" sin aumentar nuestra creencia en la teoría "todos los cuervos son negros". Esta sugerencia también ha sido cuestionada, sin embargo, con el argumento de que no puedes tener distinto nivel de creencia en dos afirmaciones si sabes que ambas son o ciertas o falsas al mismo tiempo. Goodman, y más tarde, Quine, usaron el término predicado proyectable para describir las expresiones, como cuervo y negro, que permiten el uso de generalizaciones inductivas. Los predicados no proyectables son aquellos como no-negro y no-cuervo, que aparentemente no lo permiten. (Ver también verjo, otro predicado no proyectable inventado por Goodman.) Quine sugirió que es una cuestión empírica cuáles, si alguno, de los predicados son proyectables, y observa que en un universo de infinitos objetos, el complemento de un predicado proyectable debe ser siempre no proyectable. Esto tendría la consecuencia de que, a pesar de que "todos los cuervos son negros" y "todas las cosas no-negras son no-cuervos" deben ser validados al mismo tiempo, ambos derivan su apoyo de cuervos negros, y no de no-cuervos no-negros.

Algunos filósofos han defendido que es nuestra intuición la que falla. Observar una manzana roja realmente incrementa la probabilidad de que todos los cuervos sean negros. Después de todo, si alguien te diese todas las cosas no-negras del universo, y pudieses ver que no hay ningún cuervo entre ellas, podrías concluir entonces que todos los cuervos son negros. El ejemplo solo desafía a la intuición porque el conjunto de cosas no-negras es con diferencia más grande que el conjunto de cuervos. Así, observar otra cosa no-negra que no sea un cuervo debería cambiar muy poco nuestra creencia en la teoría si lo comparamos con la observación de otro cuervo que sí sea negro.

Hay una alternativa al "principio de inducción" descrito anteriormente.

Sea X una instancia de la teoría T, e I toda nuestra información sobre el entorno.

T , e I toda nuestra información sobre el entorno. Sea la probabilidad de dado .

Sea la probabilidad de dado . Entonces,

sobre el entorno. Sea la probabilidad de dado . Entonces, Este principio se conoce como "teorema
sobre el entorno. Sea la probabilidad de dado . Entonces, Este principio se conoce como "teorema
sobre el entorno. Sea la probabilidad de dado . Entonces, Este principio se conoce como "teorema

Este principio se conoce como "teorema de Bayes". Es una de las bases de la probabilidad y la estadística. Cuando los científicos publican análisis de resultados experimentales y obtienen que son significativos estadísticamente o no significativos estadísticamente, están usando este principio de forma implícita, por lo que podría afirmarse que este principio describe mejor el razonamiento científico que el "principio de inducción" original.

Si se usa este principio, no aparece la paradoja. Si pides a alguien que escoja una manzana al azar y te la muestre, entonces la probabilidad de ver una manzana roja es independiente del color de los cuervos. El numerador será igual al denominador, por lo que la división será igual a uno, y la probabilidad permanecerá inalterada. Ver una manzana roja no afectará a tu creencia de que todos los cuervos son negros.

Si pides a alguien que escoja una cosa no-negra al azar, y te muestran una manzana roja, entonces el numerador será superior al denominador por una diferencia mínima. Ver la manzana roja sólo aumentará ligeramente tu creencia de que todos los cuervos son negros. Tendrás que ver casi todas las cosas del universo (y comprobar que son no-cuervos) para que aumente de modo apreciable tu creencia en "todos los cuervos son negros". En ambos casos, el resultado es de acuerdo a la intuición.

Paradoja del cuervo

4

Referencias

• Hempel, Carl. G. A Purely Syntactical Definition of Confirmation. J. Symb. Logic 8, 122-143, 1943.

• Hempel, Carl. G. Studies in Logic and Confirmation. Mind 54, 1-26, 1945.

• Hempel, Carl. G. Studies in Logic and Confirmation. II. Mind 54, 97-121, 1945.

• Hempel, Carl G, Studies in the Logic of Confirmation. In Marguerite H. Foster and Michael L. Martin [1] , eds. Probability, Confirmation, and Simplicity. New York: Odyssey Press, 1966. Pp 145-183

• Falletta, Nicholas. The Paradoxicon: a Collection of Contradictory Challenges, Problematical Puzzles, and Impossible Illustrations. 1983. Pp 126-131. ISBN 0-385-17932-4

Enlaces externos

• Hempel [2] (Inglés, información general)

• PRIME Encyclopedia [3] (Inglés, información general)

J. L. Mackie. The British Journal for the Philosophy of Science, 13, 265-277 (1963) [4] (Inglés, análisis exhaustivo)

Referencias

Probabilidad condicionada

Probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee «la probabilidad de A dado B».

No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o pueden no tener relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos.

El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.

Probabilidad condicionada

5

Definición

probabilidad condicional de A dado B está definida como:

condicional de A dado B está definida como: y dos eventos (o sucesos) con , la
A dado B está definida como: y dos eventos (o sucesos) con , la Interpretación se
A dado B está definida como: y dos eventos (o sucesos) con , la Interpretación se

con

,
,

la

Interpretación

se puede interpretar como, tomando los mundos en los queInterpretación

B

se cumple, la fracción en los que también se cumple A. Si el evento

B

es, por ejemplo, tener la gripe, y el evento A es tener dolor de

por ejemplo, tener la gripe, y el evento A es tener dolor de sería la probabilidad

sería la probabilidad de tener dolor de cabeza

dolor de sería la probabilidad de tener dolor de cabeza se puede interpretar como, tomando los
dolor de sería la probabilidad de tener dolor de cabeza se puede interpretar como, tomando los

se puede interpretar como,

tomando los mundos en los que B se cumple, la fracción en los que también se cumple A.

B se cumple, la fracción en los que también se cumple A. cabeza, cuando se está

cabeza,

cuando se está enfermo de gripe. Gráficamente, si se interpreta el espacio de la ilustración como el

espacio de todos los mundos posibles, A serían los mundos en los que

se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zona verde de la intersección representaría los mundos en los que se tiene

gripe y dolor de cabeza

decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe, sería la proporción de mundos con gripe y dolor de cabeza (color verde) de todos los mundos con gripe: El área verde dividida por el área de B. Como el área verde representa y el área de B representa a

, formalmente se tiene que:Como el área verde representa y el área de B representa a . En este caso

y el área de B representa a , formalmente se tiene que: . En este caso

. En este caso

de B representa a , formalmente se tiene que: . En este caso , es Propiedades

, es

representa a , formalmente se tiene que: . En este caso , es Propiedades 1. 1.

Propiedades

1.

1.

Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la probabilidad de tener dolor de cabeza dado que tengo gripe es 1.

1.

gripe siempre tienen dolor de cabeza, entonces la probabilidad de tener dolor de cabeza dado que
gripe siempre tienen dolor de cabeza, entonces la probabilidad de tener dolor de cabeza dado que

Probabilidad condicionada

6

Independencia de sucesos

Dos sucesos aleatorios A y B son independientes si y sólo si:

aleatorios A y B son independientes si y sólo si: O sea que si A y

O sea que si A y B son independientes, su probabilidad conjunta,

ó
ó

puede

individuales. Equivalentemente:

ser

expresada

como

el

puede individuales. Equivalentemente: ser expresada como el producto de las probabilidades En otras palabras, si A

producto

de

las

probabilidades

En otras palabras, si A y B son independientes, la probabilidad condicional de A dado B es simplemente la probabilidad de A y viceversa.

Exclusividad mutua

Dos

sucesos

A

y

B

son

mutuamente

excluyentes

si

. Entonces, . Además, si entonces
. Entonces,
.
Además, si
entonces

es igual a 0.

y

sólo

si

La falacia de la probabilidad condicional

La

falacia de la probabilidad condicional se basa en asumir que P(A|B)

es

casi igual a P(B|A). El matemático John Allen Paulos analiza en su

libro El hombre anumérico este error muy común cometido por personas que desconocen la probabilidad.

La verdadera relación entre P(A|B) y P(B|A) es la siguiente:

relación entre P ( A | B ) y P ( B | A ) es

(Teorema de Bayes)

( A | B ) y P ( B | A ) es la siguiente: (Teorema

La proporción de zona verde dentro de B es la misma que la de A en todo el espacio y, de la misma forma, la proporción de la zona verde dentro de A es la misma que la de B en todo el espacio. Son sucesos dependientes.

que la de B en todo el espacio. Son sucesos dependientes. Los conjuntos A y B

Los conjuntos A y B no intersecan. Son mutuamente excluyentes.

Problemas de ejemplo

---La paradoja del falso positivo---

La magnitud de este problema es la mejor entendida en términos de probabilidades condicionales.

Supongamos un grupo de personas de las que el 1 % sufre una cierta enfermedad, y el resto está bien. Escogiendo un individuo al azar:

y
y

Supongamos que aplicando una prueba a una persona que no tiene la enfermedad, hay una posibilidad del 1 % de conseguir un falso positivo, esto es:

y
y

Finalmente, supongamos que aplicando la prueba a una persona que tiene la enfermedad, hay una posibilidad del 1

% de un falso negativo, esto es:

Probabilidad condicionada

7

Probabilidad condicionada 7 y Ahora, uno puede calcular lo siguiente: La fracción de individuos en el

y

Probabilidad condicionada 7 y Ahora, uno puede calcular lo siguiente: La fracción de individuos en el

Ahora, uno puede calcular lo siguiente:

La fracción de individuos en el grupo que están sanos y dan negativo:

de individuos en el grupo que están sanos y dan negativo: La fracción de individuos en

La fracción de individuos en el grupo que están enfermos y dan positivo:

individuos en el grupo que están enfermos y dan positivo: La fracción de individuos en el

La fracción de individuos en el grupo que dan falso positivo:

fracción de individuos en el grupo que dan falso positivo: La fracción de individuos en el

La fracción de individuos en el grupo que dan falso negativo:

fracción de individuos en el grupo que dan falso negativo: Además, la fracción de individuos en

Además, la fracción de individuos en el grupo que dan positivo:

la fracción de individuos en el grupo que dan positivo: Finalmente, la probabilidad de que un

Finalmente, la probabilidad de que un individuo realmente tenga la enfermedad, dado un resultado de la prueba positivo:

la enfermedad, dado un resultado de la prueba positivo: En este ejemplo, debería ser fácil ver

En este ejemplo, debería ser fácil ver la diferencia entre las probabilidades condicionadas P (positivo | enfermo) (que es del 99 %) y P (enfermo | positivo) (que es del 50 %): la primera es la probabilidad de que un individuo enfermo dé positivo en la prueba; la segunda es la probabilidad de que un individuo que da positivo en la prueba tenga realmente la enfermedad. Con los números escogidos aquí, este último resultado probablemente sería considerado inaceptable:

la mitad de la gente que da positivo en realidad está sana.

La probabilidad de tener una enfermedad rara es de 0,001:

La probabilidad de que cuando el paciente está enfermo se acierte en el diagnóstico es de 0,99:

está enfermo se acierte en el diagnóstico es de 0,99: La probabilidad de falso positivo es
está enfermo se acierte en el diagnóstico es de 0,99: La probabilidad de falso positivo es

La probabilidad de falso positivo es de 0,05:

Pregunta: Me dicen que he dado positivo, ¿Qué probabilidad hay de que tenga la enfermedad?

de falso positivo es de 0,05: Pregunta: Me dicen que he dado positivo, ¿Qué probabilidad hay
de falso positivo es de 0,05: Pregunta: Me dicen que he dado positivo, ¿Qué probabilidad hay
de falso positivo es de 0,05: Pregunta: Me dicen que he dado positivo, ¿Qué probabilidad hay

Distribución de probabilidad continua

8

Distribución de probabilidad continua

En teoría de la probabilidad una distribución de probabilidad se llama continua si su función de distribución es continua. Puesto que la función de distribución de una variable aleatoria X viene dada por , la definición implica que en

una distribución de probabilidad continua X se cumple P[X = a] = 0 para todo número real a, esto es, la probabilidad de que X tome el valor a es cero para

cualquier valor de a. Si la distribución de X es continua,

En las distribuciones de probabilidad continuas, la distribución de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:

la función de densidad , por lo que tenemos entonces que: Una distribución de probabilidad continua,
la función de densidad , por lo que tenemos entonces que: Una distribución de probabilidad continua,
la función de densidad , por lo que tenemos entonces que: Una distribución de probabilidad continua,

Una distribución de probabilidad continua, la distribución normal.

Mientras que en una distribución de probabilidad discreta un suceso con probabilidad cero es imposible, no se da el caso en una variable aleatoria continua. Por ejemplo, si se mide la anchura de una hoja de roble, el resultado 3,5 cm es posible, pero tiene probabilidad cero porque hay infinitos valores posibles entre 3 cm y 4 cm. Cada uno de esos

valores individuales tiene probabilidad cero, aunque la probabilidad de ese intervalo no lo es. Esta aparente paradoja

se resuelve por el hecho de que la probabilidad de que X tome algún valor en un conjunto infinito como un intervalo,

no puede calcularse mediante la adición simple de probabilidades de valores individuales. Formalmente, cada valor tiene una probabilidad infinitesimal que estadísticamente equivale a cero.

Existe una definición alternativa más rigurosa en la que el término "distribución de probabilidad continua" se reserva

a distribuciones que tienen función de densidad de probabilidad. Estas funciones se llaman, con más precisión,

variables aleatorias absolutamente continuas (véase el Teorema de Radon-Nikodym). Para una variable aleatoria X absolutamente continua es equivalente decir que la probabilidad P[X = a] = 0 para todo número real a, en virtud de que hay un incontables conjuntos de medida de Lebesgue cero (por ejemplo, el conjunto de Cantor).

Una variable aleatoria con la distribución de Cantor es continua de acuerdo con la primera definición, pero según la segunda, no es absolutamente continua. Tampoco es discreta, ni una media ponderada de variables discretas y absolutamente continuas.

En aplicaciones prácticas, las variables aleatorias a menudo ofrece una distribución discreta o absolutamente continua, aunque también aparezcan de forma natural mezclas de los dos tipos.

Definición

Para una variable continua hay infinitos valores posibles de la variable y entre cada dos de ellos se pueden definir infinitos valores más. En estas condiciones no es posible deducir la probabilidad de un valor puntual de la variable; como se puede hacer en el caso de variables discretas, pero es posible calcular la probabilidad acumulada hasta un cierto valor (función de distribución de probabilidad), y se puede analizar como cambia la probabilidad acumulada en cada punto (estos cambios no son probabilidades sino otro concepto: la función de densidad.

En el caso de variable continua la distribución de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:

Distribución de probabilidad continua

9

Distribución de probabilidad continua 9 Sea es una función una variable continua, una distribución de probabilidad

Sea

es una función

de probabilidad continua 9 Sea es una función una variable continua, una distribución de probabilidad o

una variable continua, una distribución de probabilidad o función de densidad de probabilidad (FDP) de

tal que, para cualesquiera dos númeroso función de densidad de probabilidad (FDP) de siendo . La gráfica de se conoce a

siendo(FDP) de tal que, para cualesquiera dos números . La gráfica de se conoce a veces

.
.
(FDP) de tal que, para cualesquiera dos números siendo . La gráfica de se conoce a
(FDP) de tal que, para cualesquiera dos números siendo . La gráfica de se conoce a
(FDP) de tal que, para cualesquiera dos números siendo . La gráfica de se conoce a

La gráfica de se conoce a veces como curva de densidad, la probabilidad de que tome un valor en el

de densidad , la probabilidad de que tome un valor en el intervalo es el área

intervalo es el área bajo la curva de la función de densidad; así, la función mide concentración de probabilidad

alrededor de los valores de una variable aleatoria continua.

área bajo la curva de 1. 0 para toda .
área bajo la curva de
1. 0 para toda
.

entre

y
y

Para que sea una FDP ( ) legítima, debe satisfacer las siguientes dos condiciones:

2.

debe satisfacer las siguientes dos condiciones: 2. Ya que la probabilidad es siempre un número positivo,

Ya que la probabilidad es siempre un número positivo, la FDP es una función no decreciente que cumple:

1.

2.

. Es decir, la probabilidad de todo el espacio muestral es 1.la FDP es una función no decreciente que cumple: 1. 2. . Es decir, la probabilidad

. Es decir, la probabilidad del suceso nulo es cero.Es decir, la probabilidad de todo el espacio muestral es 1. Algunas FDP están declaradas en

Algunas FDP están declaradas en rangos de

a
a

, como la de la distribución normal.

Distribuciones continuas

Las distribuciones de variable continua más importantes son las siguientes:

••

••

Distribución exponencial

••

Distribución F

••

••

Distribución ji cuadrado

••

Distribución normal

••

Distribución t de Student

Enlaces externos.

•• Distribución t de Student Enlaces externos. • Wikimedia Commons alberga contenido multimedia sobre

Wikimedia Commons alberga contenido multimedia sobre Distribuciones de probabilidad. Commons

Distribución Box-Cox

Distribución Box-Cox

10

En la estadística, la distribución Box-Cox (también conocida como la distribución de energía de lo normal) es la distribución de una variable aleatoria X para la que la transformación Box-Cox en X sigue una distribución normal truncada. Se trata de una distribución de probabilidad continua que tiene la función de densidad de probabilidad dada por:

que tiene la función de densidad de probabilidad dada por: para y> 0, donde m es

para y> 0, donde m es el parámetro de localización de la distribución, s es la dispersión, f es el parámetro de la familia, I es la función indicadora , Φ es la Función de distribución de la distribución normal estándar, y sgn es la función signo.

Fue propuesta por George E. P. Box y David Cox.

Caso especial

ƒ = 1 da una distribución normal truncada.

Referencias

Properties of the Power-Normal Distribution [1] . U.S. Environmental Protection Agency.

Referencias

Distribución de Cauchy

Distribución de Cauchy

11

Cauchy-Lorentz

Cauchy-Lorentz La línea verde es la distribución estándar de Cauchy Función de densidad de probabilidad Leyenda

La línea verde es la distribución estándar de Cauchy Función de densidad de probabilidad

estándar de Cauchy Función de densidad de probabilidad Leyenda de colores para la PDF de la

Leyenda de colores para la PDF de la imagen superior Función de distribución de probabilidad

Parámetros

(real)
(real)

escala (real)

Función de densidad (pdf)
Función de distribución (cdf)

no definida

Mediana
Moda

Varianza

no definida

no definida

Entropía

no definida

Función característica

Distribución de Cauchy

12

La distribución Cauchy-Lorentz, llamada en honor a Augustin Cauchy y Hendrik Lorentz, es una distribución de probabilidad continua. Es conocida como la distribución de Cauchy y en el ámbito de la física se conoce como la distribución de Lorentz, la función Lorentziana ó la distribución de Breit-Wigner. Su importancia en la física es dada por ser la solución de la ecuación diferencial que describe la resonancia forzada. En espectroscopia describe la forma de las líneas espectrales que son ampliadas por diversos mecanismos, en particular, el mecanismo de ensanchamiento por colisión [1] .

Caracterización

Función de densidad (PDF)

En estadística la distribución de Cauchy (a veces también distribución de Lorentz) es una distribución de probabilidad continua cuya función de densidad es

de probabilidad continua cuya función de densidad es donde x 0 es el parámetro de corrimiento

donde x 0 es el parámetro de corrimiento que especifica la ubicación del pico de la distribución, y γ es el parámetro de escala que especifica el ancho medio al máximo medio (half-width at half-maximum, HWHM).

En el caso especial donde x 0 = 0 y γ = 1 es denominado la distribución estándar Cauchy con la función de densidad de probabilidad

Cauchy con la función de densidad de probabilidad En general la distribución de Cauchy no tiene

En general la distribución de Cauchy no tiene valor esperado ni varianza.

Sean

distribución Cauchy.

valor esperado ni varianza. Sean distribución Cauchy. y dos variables aleatorias uniformes dentro -1 y 1

y

valor esperado ni varianza. Sean distribución Cauchy. y dos variables aleatorias uniformes dentro -1 y 1

dos variables aleatorias uniformes dentro -1 y 1 y

y dos variables aleatorias uniformes dentro -1 y 1 y Función de distribución La función de

Función de distribución

La función de distribución acumulativa (CDF) es:

La función de distribución acumulativa (CDF) es: , entonces el número tiene la y la función

, entonces el número

de distribución acumulativa (CDF) es: , entonces el número tiene la y la función inversa de

tiene la

y la función inversa de distribución acumulativa para la distribución Cauchy es

es: , entonces el número tiene la y la función inversa de distribución acumulativa para la

Distribución de Cauchy

13

Propiedades

La distribución de Cauchy es un ejemplo de una distribución que no tiene valor esperado, varianza o momentos definidos. Su moda y su mediana están bien definidas y son ambas iguales a x 0 .

Cuando U y V son dos variables aleatorias independendientes y normalmente distribuidas con un valor esperado = 0 y una variancia = 1, luego la tasaU/V tiene la distribución estándar de Cauchy.

X 1 , , X n son variables aleatorias, independientes e idénticamente distribuidas, cada una con una distribución Cauchy, luego la media de la muestra (X 1 + + X n )/n tiene la misma distribución Cauchy estándar (la media de la muestra, la cuál no es afectada por los valores extremos, puede ser usada como medida de la tendencia central). Para comprobar que esto es cierto se calcula la función característica de la media de la muestra:

la función característica de la media de la muestra: donde es la media de la muestra.
la función característica de la media de la muestra: donde es la media de la muestra.

donde es la media de la muestra. Este ejemplo sirve para demostrar que la hipótesis de variancia finita en el

teorema del límite central no puede ser depuesta, al igual que la hipótesis de esperanza finita en la ley de los grandes números. Es también un ejemplo de una versión más generalizada del teorema de límite central que es característica de todas las distribuciones asimétricas alpha-estables de Lévy, de las cuales es la distribución de Cauchy un caso especial.

La distribución de Cauchy es una función de distribución infinitamente divisible. Es también una distribución estrictamente estable.

La distribución de Cauchy coíncide con la distribución t de Student con un grado de libertad.

Función Característica

Sea X una variable aleatoria con una distribución Cauchy. Luego la función característica de la distribución Cauchy está bien definida:

de la distribución Cauchy está bien definida: Enlaces externos • MathWorld [ 2 ] • GNU

Enlaces externos

• MathWorld [2]

• GNU Scientific Library - Reference Manual [3]

• ensanchamiento por colisión [1]

• Diccionario Estadístico [4]

Referencias

Distribución de Erlang

Distribución de Erlang

14

Distribución de Erlang

Distribución de Erlang Función de densidad de probabilidad Función de distribución de probabilidad Parámetros

Función de densidad de probabilidad

Distribución de Erlang Función de densidad de probabilidad Función de distribución de probabilidad Parámetros

Función de distribución de probabilidad

Parámetros

alt.:
alt.:
Dominio
Función de densidad (pdf)
Función de distribución (cdf)
Media

for
for

Varianza

Varianza
Coeficiente de simetría
Curtosis
Entropía
for
for
Función característica
de momentos (mgf) for Función característica En estadística , la distribución Erlang , es una

En estadística, la distribución Erlang, es una distribución de probabilidad continua con dos parámetros y cuya función de densidad para valores es

parámetros y cuya función de densidad para valores es La distribución Erlang es el equivalente de
parámetros y cuya función de densidad para valores es La distribución Erlang es el equivalente de
parámetros y cuya función de densidad para valores es La distribución Erlang es el equivalente de

La distribución Erlang es el equivalente de la distribución gamma con el parámetro

Para

y .
y
.
de la distribución gamma con el parámetro Para y . eso es la distribución exponencial. Se

eso es la distribución exponencial. Se utiliza la distribución Erlang para describir el tiempo de espera

Distribución de Erlang

15

hasta el suceso número

Su esperanza viene dada por:

1 5 hasta el suceso número Su esperanza viene dada por: en un proceso de Poisson

Su varianza viene dada por:

La función generadora de momentos responde a la expresión:

Enlaces externos

• Calculadora Distribución de Erlang [1]

externos • Calculadora Distribución de Erlang [ 1 ] Referencias [1]

Referencias

Distribución de Gumbel

Distribución de Gumbel

Distribución de Gumbel Función de densidad de probabilidad Función de distribución de probabilidad Parámetros

Función de densidad de probabilidad

Distribución de Gumbel Función de densidad de probabilidad Función de distribución de probabilidad Parámetros

Función de distribución de probabilidad

Parámetros

location ( real ) scale (real)

scale (real)

Dominio
Función de densidad (pdf)

where

where
Función de distribución (cdf)
Media
Mediana
Moda

Distribución de Gumbel

16

En teoría de probabilidad y estadística la distribución de Gumbel (llamada así en honor de Emil Julius Gumbel (1891-1966) es utilizada para modelar la distribución del máximo (o el mínimo), por lo que se usa para calcular valores extremos. Por ejemplo, sería muy útil para representar la distribución del máximo nivel de un río a partir de los datos de níveles máximos durante 10 años. Es por esto que resulta muy útil para predecir terremotos, inundaciones o cualquier otro desastre natural que pueda ocurrir.

La aplicabilidad potencial de la distribución de Gumbel para representar los máximos se debe a la teoría de valores extremos que indica que es probable que sea útil si la muestra de datos tiene una distribución normal o exponencial.

Propiedades

La función de distribución acumulada de Gumbel es:T La mediana es La media es donde =

La mediana es

de distribución acumulada de Gumbel es:T La mediana es La media es donde = Constante de

La media es

acumulada de Gumbel es:T La mediana es La media es donde = Constante de Euler-Mascheroni

donde

acumulada de Gumbel es:T La mediana es La media es donde = Constante de Euler-Mascheroni 0.5772156649015328606.
es La media es donde = Constante de Euler-Mascheroni 0.5772156649015328606. La desviación estándar es: La moda

0.5772156649015328606.

La desviación estándar es:

0.5772156649015328606. La desviación estándar es: La moda es μ. Una muestra de papel para graficar que

La moda es μ.

La desviación estándar es: La moda es μ. Una muestra de papel para graficar que incorpora

Una muestra de papel para graficar que incorpora la distribucion Gumbel

Distribución estándar de Gumbel

La distribución estándar de Gumbel es el caso donde μ = 0 y β = 1 con la función acumulada

es el caso donde μ = 0 y β = 1 con la función acumulada y

y la función de densidad

y β = 1 con la función acumulada y la función de densidad La mediana es

La mediana es

0.36651292058166432701.

función de densidad La mediana es 0.36651292058166432701. La media es , the Euler – Mascheroni constant

La media es

0.5772156649015328606.

La desviación estándar es

Euler – Mascheroni constant 0.5772156649015328606. La desviación estándar es 1.28254983016186409554. La moda es 0.

1.28254983016186409554.

Distribución de Gumbel

17

Estimación de parámetros

Un modo práctico de usar la distribución puede ser:

Un modo práctico de usar la distribución puede ser: donde M es la mediana . Para
Un modo práctico de usar la distribución puede ser: donde M es la mediana . Para

donde M es la mediana. Para ajustar los valores es posible tomar la median directamente y a continuación de varía μ hasta que se ajusta al conjunto de valores.

Generación de variables de Gumbel

Sea una variable aleatoria U extraía de una distribución uniforme y continua, en el intervalo [0, 1], entonces la variable:

y continua, en el intervalo [0, 1], entonces la variable: tiene una distribución de Gumbel con

tiene una distribución de Gumbel con parámetros μ and β. Esto se deduce de la forma de la función de distribución acumulada dada anteriormente.

a todos los valores anteriores se les debe multiplicar por 100 y divir por 33,33 para tener mayor confiabilidad

Distribuciones relacionadas

Cuando la cdf de Y es la inversa de la distribución estándar de Gumbel acumulada,

entonces Y tiene una Distribución de Gompertz. [1]

,
,

Distribución de Gumbel Opuesta

Algunos autores emplean una versión modificada de la distribución de Gumbel. [2] La función de distribución acumulada opuesta de Gumbel es:

función de distribución acumulada opuesta de Gumbel es: La función de densidad de probabilidad es: References
de Gumbel es: La función de densidad de probabilidad es: References [1] Willemse, W. J. and

References

[1] Willemse, W. J. and Kaas, R., "Rational reconstruction of frailty-based mortality models by a generalisation of Gompertzlaw of mortality", Insurance: Mathematics and Economics, 40 (3) (2007), 468484. [[22]] Moncho, R.; Caselles, V.; Chust, G. (2012): "Alternative model of probability distribution of precipitation: application to Spain". Climate Research, 51: 23:33

Software

Se puede usar software y un programa de computadora para el ajuste de una distribución de probabilidad, incluyendo la de Gumbel, a una serie de datos:

• Easy fit (http://www.mathwave.com/articles/distribution_fitting.html), "data analysis & simulation"

• ModelRisk (http://www.vosesoftware.com/), "risk modelling software"

• Ricci distributions, fitting distrubutions with R (http://cran.r-project.org/doc/contrib/Ricci-distributions-en. pdf) , Vito Ricci, 2005

• Risksolver, automatically fit distributions and parameters to samples (http://www.solver.com/risksolver8.htm)

Distribución de Gumbel

18

Distribución de Pareto

 

Pareto

  Pareto Funciones de densidad de probabilidad para diferentes α con x m = 1. El

Funciones de densidad de probabilidad para diferentes α con x m = 1. El eje horizontal es el parámetro x&nbsp. Como α → ∞ la distribución se aproxima δ(x x m ) donde δ es la delta de Dirac. Función de densidad de probabilidad

la delta de Dirac . Función de densidad de probabilidad unciones de densidad de probabilidad para

unciones de densidad de probabilidad para diferentes α con x m = 1. El eje horizontal es el parámetro x&nbsp. Función de distribución de probabilidad

Parámetros

 
forma (real)

forma (real)

Dominio
Función de densidad (pdf)
Función de distribución (cdf)
Media
Mediana
Moda

Distribución de Pareto

19

En estadística la distribución Pareto, formulada por el sociólogo Vilfredo Pareto, es una distribución de probabilidad continua con dos parámetros, que tiene aplicación en disciplinas como la sociología, geofísica y economía. En algunas disciplinas a veces se refieren a la ley de Bradford. Por otro lado, el equivalente discreto de la distribución Pareto es la distribución zeta (la ley de Zipf).

Probabilidad acumulada

Si X pertenece al dominio de la variable de la distribución de pareto, entonces la probabilidad de que X sea mayor

que un número x viene dada por:

de que X sea mayor que un número x viene dada por: donde x m es

donde x m es el valor mínimo posible (positivo) de X, y α es un parámetro. La familia de las distribuciones de Pareto

se parametrizan por dos cantidades, x m y α. Cuando esta distribución es usada en un modelo sobre la distribución de riqueza, el parámetro α es conocido como índice de Pareto.

Función de densidad

A partir de la probabilidad acumulada, se puede deducir mediante una derivada que la función de densidad de

que la función de densidad de probabilidad es: Propiedades • La media o valor esperado de

Propiedades

• La media o valor esperado de una variable aleatoria X, que sigue una distribución de Pareto con parámetro α > 1 es

una distribución de Pareto con parámetro α > 1 es (if α ≤ 1, the expected

(if α 1, the expected value does not exist).

• La varianza es

1, the expected value does not exist). • La varianza es (Si α ≤ 2, la

(Si α 2, la varianza no existe).

• Los momentos son

Distribución de Pareto

20

Distribución de Pareto 2 0 pero el n -ésimo momento existe sólo para n < α

pero el n-ésimo momento existe sólo para n < α.

• La función generadora de momentos sólo está definida para valores no positivos de t 0 según:

definida para valores no positivos de t ≤ 0 según: Caso degenerado La función de la

Caso degenerado

La función de la delta de Dirac es un caso límite de la densidad de Pareto:

de Dirac es un caso límite de la densidad de Pareto: Distribución simétrica Puede definirse una

Distribución simétrica

Puede definirse una Distribución de Pareto Simétrica según: [1]

una Distribución de Pareto Simétrica según: [ 1 ] Distribución Generalizada de Pareto Pareto Generalizado

Distribución Generalizada de Pareto

Pareto Generalizado

 

Parámetros

Parámetros localización

(real)

escala (real)

forma (real)

forma (real)

Dominio
where
where
Función de distribución (cdf)
Media
Mediana

Varianza

Varianza

La familia de distribuciones generalizadas de Pareto (GPD) tienen tres parámetros

La función de probabilidad acumulada es

y .
y
.
parámetros La función de probabilidad acumulada es y . Para el parámetro escala y , con

Para

el parámetro escala y

, con , y
, con
, y

con

es y . Para el parámetro escala y , con , y con , donde es

, donde

es y . Para el parámetro escala y , con , y con , donde es

es el parámetro localización,

y , con , y con , donde es el parámetro localización , es es el

es

es el parámetro forma. Nótese que algunas referencias toman el parámetro forma

como

. La función de densidad de probabilidad es:

Distribución de Pareto

21

Distribución de Pareto 2 1 o de nuevo, para , y si Software Se puede usar

o

Distribución de Pareto 2 1 o de nuevo, para , y si Software Se puede usar

de nuevo, para

, y si
, y
si

Software

Se puede usar software y un programa de computadora para el ajuste de una distribución de probabilidad, incluyendo la de Pareto, a una serie de datos:

• Easy fit [2] , "data analysis & simulation"

• MathWorks Benelux [3]

• ModelRisk [4] , "risk modelling software"

• Ricci distributions, fitting distrubutions with R [5] , Vito Ricci, 2005

• Risksolver, automatically fit distributions and parameters to samples [6]

• StatSoft distribution fitting [7]

• CumFreq [8] , libre sin costo, incluye intervalos de confianza a base de la distribución binomial

Citas

• Barry C. Arnold (1983). Pareto Distributions, International Co-operative Publishing House, Burtonsville, Maryland. ISBN 0-899974-012-1.

• Christian Kleiber and Samuel Kotz (2003). Statistical Size Distributions in Economics and Actuarial Sciences, New York:Wiley. xi+332 pp. ISBN 0-471-15064-9.

• Lorenz, M. O. (1905). "Methods of measuring the concentration of wealth". Publications of the American Statistical Association. 9: 209219.

Distribución de Rayleigh

Distribución de Rayleigh

22

En la teoría de la probabilidad y estadística, la distribución de Rayleigh es una función de distribución continua. Se suele presentar cuando un vector bidimensional (por ejemplo, el que representa la velocidad del viento) tiene sus dos componentes, ortogonales, independientes y siguen una distribución normal. Su valor absoluto seguirá entonces una distribución de Rayleigh. Esta distribución también se puede presentar en el caso de números complejos con componentes real e imaginaria independientes y siguiendo una distribución normal. Su valor absoluto sigue una distribución de Rayleigh.

La función de densidad de probabilidad es:

de Rayleigh. La función de densidad de probabilidad es: Su esperanza es: y su varianza: Distribución

Su esperanza es:

La función de densidad de probabilidad es: Su esperanza es: y su varianza: Distribución de probabilidad

y su varianza:

densidad de probabilidad es: Su esperanza es: y su varianza: Distribución de probabilidad Rayleigh. Distribución
densidad de probabilidad es: Su esperanza es: y su varianza: Distribución de probabilidad Rayleigh. Distribución

Distribución de probabilidad Rayleigh.

es: y su varianza: Distribución de probabilidad Rayleigh. Distribución Rayleigh cumulativa. Estimación del

Distribución Rayleigh cumulativa.

Estimación del parámetro

La estimación de máxima verosimilitud del parámetro

La estimación de máxima verosimilitud del parámetro viene dado por: Distribuciones relacionadas • • • •
La estimación de máxima verosimilitud del parámetro viene dado por: Distribuciones relacionadas • • • •

viene dado por:

Distribuciones relacionadas

es una distribución de Rayleigh si son dos distribuciones normales independientes. Si entonces Si sigue
es una distribución de Rayleigh si
son dos distribuciones normales independientes.
Si
entonces
Si
sigue una distribución exponencial
.

entonces

La distribución chi es una generalización de la distribución de Rayleigh.

La distribución de Rice es una generalización de la distribución de Rayleigh.

La distribución de Weibull es una generalización de la distribución de Rayleigh.

donde

una generalización de la distribución de Rayleigh. donde y sigue una distribución chi-cuadrado con dos grados

y

sigue una distribución chi-cuadrado con dos grados de libertad:

de la distribución de Rayleigh. donde y sigue una distribución chi-cuadrado con dos grados de libertad:

Distribución de Rayleigh

23

Enlaces externos

• Calculadora Distribución de Rayleigh [1]

Referencias

Distribución exponencial

Distribución exponencial

Distribución exponencial Función de densidad de probabilidad Función de distribución de probabilidad Parámetros

Función de densidad de probabilidad

exponencial Función de densidad de probabilidad Función de distribución de probabilidad Parámetros

Función de distribución de probabilidad

Parámetros

Parámetros
Dominio
Función de densidad (pdf)
Función de distribución (cdf)
Media
Mediana
Moda

Varianza

Varianza
Coeficiente de simetría
Curtosis
Entropía
Función generadora de momentos (mgf)
Función característica

En estadística la distribución exponencial es una distribución de probabilidad continua con un parámetro cuya función de densidad es:

exponencial es una distribución de probabilidad continua con un parámetro cuya función de densidad es:

Distribución exponencial

24

Distribución exponencial 2 4 Su función de distribución es: Donde El valor esperado y la varianza
exponencial 2 4 Su función de distribución es: Donde El valor esperado y la varianza de

Donde

El valor esperado y la varianza de una variable aleatoria X con distribución exponencial son:

variable aleatoria X con distribución exponencial son: representa el número e . La distribución exponencial es

representa el número e.

distribución exponencial son: representa el número e . La distribución exponencial es un caso particular de

La distribución exponencial es un caso particular de distribución gamma con k = 1. Además la suma de variables aleatorias que siguen una misma distribución exponencial es una variable aleatoria expresable en términos de la distribución gamma.

Ejemplo

Ejemplos para la distribución exponencial es la distribución de la longitud de los intervalos de variable continua que transcuren entre la ocurrencia de dos sucesos, que se distribuyen según la distribución de Poisson.

Calcular variables aleatorias

Se pueden calcular una variable aleatoria de distribución exponencial

distribución uniforme

:
:
de distribución exponencial distribución uniforme : por medio de una variable aleatoria de o, dado que

por medio de una variable aleatoria dede distribución exponencial distribución uniforme : o, dado que es también una variable aleatoria con

o, dado que

o, dado que es también una variable aleatoria con distribución , puede utilizarse la versión más

es también una variable aleatoria con distribución

o, dado que es también una variable aleatoria con distribución , puede utilizarse la versión más

, puede utilizarse la versión más

eficiente:

, puede utilizarse la versión más eficiente: Relaciones La suma de variables aleatorias independientes de

Relaciones

puede utilizarse la versión más eficiente: Relaciones La suma de variables aleatorias independientes de
puede utilizarse la versión más eficiente: Relaciones La suma de variables aleatorias independientes de

La suma de variables aleatorias independientes de distribución exponencial con parámetro es una variable aleatoria de distribución gamma.

Software

Se puede usar software y un programa de computadora para el ajuste de una distribución de probabilidad, incluyendo la exponencial, a una serie de datos:

• Easy fit [2] , "data analysis & simulation"

• MathWorks Benelux [3]

• ModelRisk [4] , "risk modelling software"

• Ricci distributions, fitting distrubutions with R [5] , Vito Ricci, 2005

• Risksolver, automatically fit distributions and parameters to samples [6]

• StatSoft distribution fitting [7]

• CumFreq [8] , libre sin costo, incluye intervalos de confianza a base de la distribución binomial

Distribución exponencial

25

Enlaces externos

• Calculadora Distribución exponencial [1]

[2]Calcular la probabilidad de una distribución exponencial con R (lenguaje de programación)

Referencias

Distribución F

Fisher-Snedecor

 
 
 

Función de densidad de probabilidad

 
 
 

Función de distribución de probabilidad

 

Parámetros

grados de libertad

grados de libertad

Dominio  
 
Función de densidad (pdf)  
 
Función de distribución (cdf)  
 
Media para

para

para
para

para

para

Varianza

Varianza para

para

Varianza para

Distribución F

26

Usada en teoría de probabilidad y estadística, la distribución F es una distribución de probabilidad continua. También se le conoce como distribución F de Snedecor (por George Snedecor) o como distribución F de Fisher-Snedecor.

Una variable aleatoria de distribución F se construye como el siguiente cociente:

distribución F se construye como el siguiente cociente: donde • U 1 y U 2 siguen

donde

U 1 y U 2 siguen una distribución chi-cuadrado con d 1 y d 2 grados de libertad respectivamente, y

U 1 y U 2 son estadísticamente independientes.

La distribución F aparece frecuentemente como la distribución nula de una prueba estadística, especialmente en el análisis de varianza. Véase el test F.

La función de densidad de una F(d 1 , d 2 ) viene dada por

densidad de una F ( d 1 , d 2 ) viene dada por para todo

para todo número real x 0, donde d 1 y d 2 son enteros positivos, y B es la función beta.

B es la función beta . La función de distribución es donde I es la función

Distribuciones relacionadas

incompleta regularizada . Distribuciones relacionadas • es una distribución ji-cuadrada cuando para . Enlaces
relacionadas • es una distribución ji-cuadrada cuando para . Enlaces externos • Tabla de valores críticos

para

.
.

Enlaces externos

• Tabla de valores críticos de una distribución F [1]

• Prueba de significación mediante la distribución F [2]

• Distribution Calculator [3] Calcula las probabilidades y valores críticos para las distribuciones normal, t, ji-cuadrada y F

[4] Calcular la probabilidad de una distribución F-Snedecor con R (lenguaje de programación)

Referencias

Distribución gamma

Distribución gamma

27

En estadística la distribución gamma es una distribución de

la distribución gamma es una distribución d e p robabilidad continua con dos parámetros y densidad

probabilidad continua con dos parámetros y densidad para valores es

continua con dos parámetros y densidad para valores es cuya función de Aquí es el número
continua con dos parámetros y densidad para valores es cuya función de Aquí es el número
parámetros y densidad para valores es cuya función de Aquí es el número e y la
Aquí es el
Aquí
es
el

la

valores es cuya función de Aquí es el número e y la es es la función

es

es la función gamma. Para valores

(el

de

aquella

). En este caso - por ejemplo para describir un proceso de -

se

llaman

la

distribición

con

un

.
.
- se llaman la distribición distribución Erlang con un . Distribución gamma. Poisson parámetro El valor

Distribución gamma.

parámetro

El valor esperado y la varianza de una variable aleatoria X de distribución gamma son

de una variable aleatoria X de distribución gamma son Relaciones El tiempo hasta que el suceso

Relaciones