You are on page 1of 2

El impacto de los supuestos distribucionales al modelar algún

fenómeno aleatorio y por qué es relevante realizar una prueba


estadística para validar tales supuestos
Como hemos visto, prácticamente todas las decisiones industriales están sujetas a
incertidumbre. Por lo tanto, una correcta caracterización de ella es necesaria para tomar
decisiones más efectivas. Típicamente, esta caracterización se realiza a través del uso de
variables aleatorias, que pueden ser continuas o discretas, según sea el caso. Por ejemplo,
imaginemos que el tiempo de viaje desde un punto 𝑖𝑖 hasta un punto 𝑗𝑗 de una ciudad puede ser
modelado a través de una función lineal de la forma 𝑦𝑦(𝑥𝑥) = 𝑎𝑎 + 𝑥𝑥. En este caso, 𝑦𝑦(𝑥𝑥)
corresponde al tiempo de viaje entre 𝑖𝑖 y 𝑗𝑗. 𝑎𝑎 podría ser una constante o algún tiempo base que
describa el tiempo para viajar desde punto 𝑖𝑖 al punto 𝑗𝑗. 𝑥𝑥 podría ser un componente residual
asociado al error; es decir, cuánto tiempo más o cuánto tiempo menos podría demorarme desde
el punto 𝑖𝑖 al punto 𝑗𝑗 en relación con el tiempo base 𝑎𝑎.

La expresión 𝑦𝑦(𝑥𝑥) = 𝑎𝑎 + 𝑥𝑥 es una variable aleatoria si es que 𝑥𝑥 es también una variable


aleatoria. En particular, como la variable aleatoria 𝑥𝑥 está sumada a una constante 𝑎𝑎, entonces,
la variable aleatoria 𝑦𝑦(𝑥𝑥) es una variable aleatoria de la misma naturaleza que 𝑥𝑥. Por lo tanto,
la distribución particular considerada para modelar el residual 𝑥𝑥 va a ser relevante, pues también
impactará en el comportamiento que tenga 𝑦𝑦(𝑥𝑥). Por ejemplo, supongamos que 𝑥𝑥 es variable
aleatoria de distribución normal. Si 𝑥𝑥 es una variable aleatoria de distribución normal, entonces
𝑦𝑦(𝑥𝑥) de igual forma será una variable aleatoria de distribución normal. Si 𝑥𝑥 es una variable
aleatoria uniforme, entonces, 𝑦𝑦(𝑥𝑥) de igual forma será una variable aleatoria uniforme. Como
sabemos, la distribución normal es distinta a la distribución uniforme. Ambas son distribuciones
simétricas centradas en su media. Sin embargo, sus otros momentos centrales son distintos;
pensemos en la varianza, en la oblicuidad y en la curtosis. Por otra parte, como también
sabemos, la variable aleatoria uniforme considera que cualquier realización dentro de su
dominio tiene la misma probabilidad (de ahí viene el nombre “uniforme”). En cambio, la
distribución normal tiene una densidad en forma de campana, por eso es conocida de igual
forma como distribución Gaussiana. Por lo anterior, como las densidades de ambas
distribuciones son distintas, es esperable que si nosotros consideramos al residual 𝑥𝑥 como una
u otra variable aleatoria, el tiempo para ir desde 𝑖𝑖 hasta 𝑗𝑗 también sea distinto en distribución.
De esta manera, se hace completamente relevante, para tener una correcta caracterización de
la incertidumbre, realizar una prueba estadística que valide o que rechace el supuesto de
considerar una distribución u otra. Lo anterior se debe a que, aunque nuestra función lineal
𝑦𝑦(𝑥𝑥) = 𝑎𝑎 + 𝑥𝑥 eventualmente sea una función correcta, si es que su input aleatorio es incorrecto
(si consideramos una variable aleatoria incorrecta para describir a 𝑥𝑥), entonces el resultado de

1
esa función lineal también será incorrecto. Este fenómeno típicamente se conoce como GIGO,
que proviene del inglés “garbage in, garbage out” y significa que, si un modelo posee datos de
entrada incorrectos, los datos de salida también lo serán.
En síntesis, utilizar una distribución de probabilidades u otra va a suponer resultados distintos
para el caso planteado. Por lo tanto, para estar seguros de la correcta aplicabilidad de nuestra
función 𝑦𝑦(𝑥𝑥) = 𝑎𝑎 + 𝑥𝑥 para determinar el tiempo de viaje desde un punto 𝑖𝑖 hasta un punto 𝑗𝑗,
necesitamos validar o poner a prueba estadísticamente sus supuestos, en este caso, la
distribución de probabilidad utilizada para la variable aleatoria 𝑥𝑥.

You might also like