You are on page 1of 83

Traducido del inglés al español - www.onlinedoctranslator.

com

3
Datos y espacio

Este capítulo está dedicado a cuestiones relacionadas con la recopilación de datos y su representación para su uso en la
modelización del transporte. Presentamos aquí una amplia gama de métodos de recopilación de datos, pero esto no es completo.
La naturaleza de los datos a recolectar depende, por supuesto, de los modelos elegidos para un estudio en particular. Además, los
avances en las telecomunicaciones están cambiando la recopilación de datos de viaje con un uso más generalizado de unidades
GPS personales que ofrecen ventajas específicas en el seguimiento del movimiento durante períodos de tiempo más prolongados.
El tratamiento aquí es general. Consideraremos cinco temas que son un requisito previo para otros temas tratados en el resto del
libro. En primer lugar, proporcionaremos una breve introducción a la teoría del muestreo estadístico, que complementará en parte
los conceptos elementales discutidos en la sección 2.5. Se advierte a los lectores interesados que existe un libro completo sobre el
tema (Stopher y Meyburg 1979) que se puede consultar para obtener más detalles. En la sección 3.2 discutiremos la naturaleza y la
importancia de los errores que pueden surgir tanto durante la estimación del modelo como al pronosticar con la ayuda de modelos;
También se aborda la interesante cuestión de la precisión de los datos frente a la complejidad y el costo del modelo.

En la sección 3.3 consideraremos varios tipos de encuestas utilizadas en la planificación del transporte aplicada; estaremos
particularmente interesados en problemas tales como la corrección, expansión y validación de datos de encuestas, y también
discutiremos temas involucrados en la recopilación de datos longitudinales (por ejemplo, panel) y datos de tiempo de viaje. La
sección 3.4 brinda un tratamiento bastante completo de los temas más importantes involucrados en el diseño experimental y la
recopilación de datos de preferencias establecidas. Finalmente, la sección 3.5 considera los importantes problemas prácticos de la
representación de redes y el diseño de zonificación; aquí es donde realmente se deciden las 'capacidades espaciales' del modelo.
Las representaciones de red deficientes o los sistemas de zonificación demasiado toscos pueden invalidar los resultados incluso del
modelo más atractivo desde el punto de vista teórico.

3.1 Teoría básica del muestreo


3.1.1 Consideraciones estadísticas

La estadística puede definirse como la ciencia que se ocupa de recopilar, analizar e interpretar datos para
obtener la máxima cantidad de información útil. También puede describirse como una de las disciplinas
relacionadas con la toma de decisiones en condiciones de incertidumbre; su objetivo sería en este caso ayudar a
determinar el nivel de incertidumbre asociado con los datos medidos para apoyar mejores decisiones.
Los datos generalmente consisten en una muestra de observaciones tomadas de una determinada población de interés que no
es económicamente (o quizás incluso técnicamente) factible de observar en su totalidad. Estas observaciones se realizan sobre uno
o más atributos (digamos ingresos) de cada miembro de la población. Las inferencias pueden ser

Transporte de modelado, Cuarta edición. Juan de Dios Ortúzar y Luis G. Willumsen. ©


2011 John Wiley & Sons, Ltd. Publicado en 2011 por John Wiley & Sons, Ltd.
56 Transporte de modelado

hecho entonces sobre el valor medio de estos atributos, a menudo llamados parámetros de la población. El
diseño de la muestra tiene como objetivo garantizar que los datos a examinar proporcionen la mayor cantidad
de información útil sobre la población de interés al menor costo posible; queda el problema de cómo usar los
datos (es decir, expandir los valores en la muestra) para hacer inferencias correctas sobre esta población. Así
existen dos dificultades:

- como asegurar unrepresentantemuestra; y


- cómo extraer conclusiones válidas de una muestra que satisface la condición anterior.

Ninguno de estos constituiría un problema si no hubiera variabilidad en la población. Para resolver la segunda
dificultad, existe un procedimiento bien establecido que no presenta mayores problemas si se cumplen ciertas
condiciones y supuestos. La identificación de una muestra representativa, sin embargo, puede ser una tarea más delicada
en determinados casos, como veremos a continuación.

3.1.1.1 Definiciones básicas

MuestraLa muestra se define como una colección de unidades que ha sido especialmente seleccionada para representar
una población más grande con ciertos atributos de interés (es decir, altura, edad, ingresos). Tres aspectos de esta
definición tienen particular importancia: primero, qué población busca representar la muestra; segundo, cuán grande
debe ser la muestra; y tercero, qué se entiende por 'especialmente seleccionados'.

Población de interésEste es el grupo completo sobre el cual se busca información; en muchos casos su definición se
deriva directamente de los objetivos del estudio. La población de interés se compone de elementos individuales; sin
embargo, la muestra generalmente se selecciona sobre la base de unidades de muestreo que pueden no ser equivalentes
a estos elementos individuales, ya que a menudo se considera necesaria la agregación de estos últimos. Por ejemplo, una
unidad de muestreo de uso frecuente es el hogar, mientras que los elementos de interés son las personas que residen en
él.

Método de muestreoLa mayoría de los métodos aceptables se basan en una forma de muestreo aleatorio. La cuestión
clave en estos casos es que la selección de cada unidad se realiza de forma independiente, teniendo cada unidad la
misma probabilidad de ser incluida en la muestra. Los métodos más interesantes son:

- Muestreo aleatorio simple, que no sólo es el método más simple sino que constituye la base de todos los demás.
Consiste en asociar primero un identificador (número) a cada unidad de la población y luego seleccionar estos
números al azar para obtener la muestra; el problema es que se pueden requerir muestras demasiado grandes para
garantizar datos suficientes sobre las opciones minoritarias de particular interés. Por ejemplo, bien puede ser que el
muestreo de hogares al azar en un país en desarrollo proporcione poca información sobre la propiedad de varios
automóviles.
- Muestreo aleatorio estratificado, dóndea prioriprimero se utiliza la información para subdividir la población en estratos
homogéneos (con respecto a la variable estratificadora) y luego se realiza un muestreo aleatorio simple dentro de cada
estrato utilizando la misma tasa de muestreo. El método permite obtener las proporciones correctas de cada estrato
en la muestra; por lo tanto, puede ser importante en aquellos casos en los que existen subgrupos relativamente
pequeños en la población, ya que podrían carecer de representación en una muestra aleatoria simple.

También es posible estratificar con respecto a más de una variable, creando así unanorte-matriz dimensional de celdas
de grupo. Sin embargo, hay que tener cuidado con el número de celdas creadas ya que aumenta geométricamente con el
número de estratos; las cifras grandes pueden implicar que el número promedio de unidades de muestreo por celda es
demasiado pequeño. Sin embargo, incluso el muestreo estratificado no ayuda cuando se necesitan datos sobre opciones
con baja probabilidad de elección en la población; en estos casos un tercer método llamado
Datos y espacio 57

muestreo basado en la elección, en realidad se requiere un subconjunto del anterior. El método consiste en estratificar la
población en función del resultado del proceso de elección considerado. Este método es bastante común en los estudios
de transporte, como veremos en la sección 3.3. Una gran ventaja es que los datos se pueden producir a un costo mucho
menor que con los otros métodos de muestreo; su principal inconveniente es que la muestra así formada puede no ser
aleatoria y por tanto el riesgo de sesgo en los valores expandidos es mayor.

Error de muestreo y sesgo de muestreoEstos son los dos tipos de errores que pueden ocurrir al tomar una
muestra; combinados, contribuyen al error de medición de los datos. La primera se debe simplemente al hecho
de que estamos tratando con una muestra y no con la población total, es decir, siempre estará presente debido a
los efectos aleatorios. Este tipo de error no afecta los valores esperados de las medias de los parámetros
estimados; solo afecta la variabilidad a su alrededor, determinando así el grado de confianza que se puede
asociar a los medios; es básicamente una función del tamaño de la muestra y de la variabilidad inherente del
parámetro bajo investigación.
El sesgo de muestreo, por otro lado, es causado por errores cometidos ya sea al definir la población de
interés, o al seleccionar el método de muestreo, la técnica de recolección de datos o cualquier otra parte del
proceso. Se diferencia del error de muestreo en dos aspectos importantes:

- puede afectar no solo la variabilidad alrededor de la media de los parámetros estimados sino también los valores
ellos mismos; por lo tanto implica una distorsión más severa de los resultados de la encuesta;
- Si bien es posible que no se evite el error de muestreo (solo se puede reducir aumentando el tamaño de la muestra), el sesgo de
muestreo se puede eliminar virtualmente si se tiene especial cuidado durante las diversas etapas del diseño del muestreo y la
recopilación de datos.

Tamaño de la muestraDesafortunadamente, no existen respuestas directas y objetivas para el cálculo del tamaño de la
muestra en cada situación. Esto sucede, a pesar de que los cálculos del tamaño de la muestra se basan en fórmulas
estadísticas precisas, porque muchas de sus entradas son relativamente subjetivas e inciertas; por lo tanto, deben ser
producidos por el analista después de una cuidadosa consideración del problema en cuestión.
Determinar el tamaño de la muestra es un problema de compensaciones, ya que:

- una muestra demasiado grande puede implicar un proceso de recopilación y análisis de datos demasiado costoso dada la
el objetivo del estudio y su grado de precisión requerido; pero
- una muestra demasiado pequeña puede implicar resultados que están sujetos a un grado de variabilidad inaceptablemente alto,
lo que reduce el valor de todo el ejercicio.

En algún lugar entre estos dos extremos se encuentra el tamaño de muestra más eficiente (en términos de costo)
dado el objetivo del estudio. En lo que sigue se supondrá que esto consiste en estimar determinados parámetros
poblacionales mediante estadísticos calculados a partir de datos muestrales; dado que cualquier estadística muestral está
sujeta a errores de muestreo, también es necesario incluir una estimación de la precisión que puede estar asociada con
su valor.

3.1.1.2 Tamaño de la muestra para estimar los parámetros de la población

Esto depende de tres factores principales: la variabilidad de los parámetros en la población en estudio, el grado de
precisión requerido para cada uno y el tamaño de la población. Sin duda los dos primeros son los más importantes; esto
puede parecer sorprendente a primera vista porque, para muchos, parece intuitivamente necesario tomar muestras más
grandes en poblaciones más grandes para mantener la precisión de las estimaciones. Sin embargo, como se mostrará a
continuación, el tamaño de la población no afecta significativamente el tamaño de la muestra, excepto en el caso de
poblaciones muy pequeñas.
58 Transporte de modelado

El Teorema del Límite Central, que está en el centro del problema de estimación del tamaño de la muestra, postula
que las estimaciones de la media de una muestra tienden a distribuirse Normal como el tamaño de la muestra (norte)
aumenta. Esto es válido para cualquier distribución de población sinortees mayor o igual a 30; el teorema se cumple
incluso en el caso de muestras más pequeñas, si la población original tiene una distribución de tipo Normal.
Considere una población de tamañonortey una propiedad específica que se distribuye con mediamy varianza
σ2. El teorema del límite central establece que la distribución de la media (X)de muestras sucesivas se distribuye
Normal con mediamy desviación estándar se (X),conocido como el error estándar de la media, y dado por:


sí (X) = (norte−norte)σ2/[norte(norte−1)] (3.1)

Si sólo se considera una muestra, la mejor estimación demesXy la mejor estimación deσ2ess2(el
varianza muestral); en este caso el error estándar de la media se puede estimar como:

sí (X) = (norte−norte)s2/nn (3.2)

y, como se mencionó anteriormente, es una función de tres factores: la variabilidad del parámetro (s2), el tamaño de la muestra (
norte) y el tamaño de la población (norte). Sin embargo, para poblaciones grandes y tamaños de muestra pequeños (el caso más
frecuente) el factor (norte−norte)/norteestá muy cerca de 1 y la ecuación (3.2) se reduce a:

s
sí (X) =√ (3.3)
norte

Así, por ejemplo, cuadruplicar el tamaño de la muestra sólo reducirá a la mitad el error estándar, es decir, es un caso típico de
rendimientos de escala decrecientes. El tamaño de muestra requerido se puede estimar resolviendo la ecuación (3.2) paranorte y
esto suele ser más sencillo de hacer en dos etapas, primero calculandonortede la ecuación (3.3) tal que:

s2
norte′= (3.4)
sí (X)2
y luego corrigiendo para el tamaño finito de la población, si es necesario, por:

norte′
norte= (3.5)
norte′
1+
norte

Aunque el procedimiento anterior parece ser tanto objetivo como relativamente trivial, tiene dos problemas
importantes que dificultan su aplicación: estimar la varianza de la muestras2y elegir un error estándar aceptable
para la media. La primera es obvia:s2solo puede calcularse una vez que se ha tomado la muestra, por lo que
debe estimarse a partir de otras fuentes. El segundo está relacionado con el grado de confianza que se desea
asociar al uso de la media muestral como estimación de la media poblacional; la práctica normal no especifica un
solo valor de error estándar, sino un intervalo alrededor de la media para un nivel de confianza dado. Por lo
tanto, se necesitan dos juicios para calcular un error estándar aceptable:

- Primero, se debe elegir un nivel de confianza para el intervalo; esto expresa con qué frecuencia el analista está preparado para
cometer un error al aceptar la media de la muestra como una medida de la media verdadera (por ejemplo, el
el nivel típico del 95% implica una aceptación de errar en el 5% de los casos).
- Segundo, es necesario especificar los límites del intervalo de confianza alrededor de la media, ya sea en términos
absolutos o relativos; como el intervalo se expresa como una proporción de la media en este último caso, se requiere
una estimación de esta para calcular los valores absolutos del intervalo. Una opción útil considera expresar el tamaño
de la muestra en función del coeficiente de variación esperado (CV =σ/m) de los datos.

Por ejemplo, si se asume una distribución Normal y se especifica un nivel de confianza del 95%, esto significa
que un valor máximo de 1.96 se (X)sería aceptado para el intervalo de confianza (es decir,m±1.96σ
Datos y espacio 59

contiene el 95% de la distribución de probabilidad Normal); si se especifica un error del 10% obtendríamos el
intervalo (m±0.1m) y se puede ver que:

sí (X) =0.1μ/1.96 = 0.051m

y reemplazando este valor en (3.4) obtenemos:

norte′= (s/0.051m)2= 384CV2 (3.6)

Tenga en cuenta que si el intervalo se especifica como (m±0.05m), es decir, con la mitad del error,norte′se cuadruplicaría hasta
los 1536 CV2.
Para completar este punto es importante recalcar que el ejercicio anterior es relativamente subjetivo; por lo tanto, a los
parámetros más importantes se les pueden asignar intervalos de confianza más pequeños y/o niveles de confianza más altos. Sin
embargo, cada una de estas acciones dará como resultado errores estándar aceptables más pequeños y, en consecuencia,
muestras y costos más grandes. Si es necesario estimar varios parámetros, la muestra puede elegirse en función de lo que requiera
un tamaño de muestra más grande.

3.1.1.3 Obtención de la Muestra

La última etapa del proceso de muestreo es la extracción de la muestra en sí. En algunos casos, el procedimiento se
puede automatizar fácilmente, ya sea en el sitio o en el escritorio (en cuyo caso se debe tener cuidado de que se siga
realmente en el campo), pero siempre se debe realizar con referencia a un proceso aleatorio. Aunque los únicos procesos
verdaderamente aleatorios son los de naturaleza física (es decir, lanzar un dado o lanzar una moneda), por lo general
requieren demasiado tiempo para ser útiles en la selección de muestras. Por esta razón, en el muestreo suelen emplearse
procesos pseudoaleatorios, capaces de generar fácil y rápidamente un conjunto de números aleatorios adecuados.

Ejemplo 3.1Considere un área determinada cuya población puede clasificarse en grupos según:
propiedad de automóviles (con y sin automóvil); y tamaño del hogar (hasta cuatro y más de cuatro
residentes).
Supongamos quemetrose requieren observaciones por celda para garantizar un nivel de confianza del 95% en la estimación de,
por ejemplo, tasas de viaje; suponga también que se puede considerar que la población tiene aproximadamente la siguiente
distribución (es decir, a partir de datos históricos).

Propiedad del carro Tamaño del hogar % de la población

Con auto cuatro o menos 9


más de cuatro dieciséis

sin coche cuatro o menos 25


más de cuatro 50

Hay dos formas posibles de proceder:

1. Lograr una muestra conmetroobservaciones por celda mediante una muestra aleatoria. En este caso, es necesario
seleccionar un tamaño de muestra que garantice esto para cada celda, incluida la que tenga la menor proporción de
la población. Por lo tanto, el tamaño de la muestra sería:

norte=100metro/9 = 11.1metro
60 Transporte de modelado

2. Alternativamente, se puede realizar primero una encuesta aleatoria preliminar de 11.1metrohogares donde solo se
solicita membresía celular; esta encuesta de bajo costo se puede utilizar para obtener las direcciones demetrohogares
incluso en el grupo más pequeño. Posteriormente, como sólometrose necesitan observaciones por celda, bastaría
con seleccionar aleatoriamente una muestra (estratificada) de 3metrohogares de los otros grupos a ser entrevistados
en detalle (junto con losmetroya detectada para la celda más restrictiva).

Como puede verse, en el primer caso se obtiene una muestra mucho mayor; su costo (aproximadamente tres
veces más entrevistas) debe sopesarse con el costo de la encuesta preliminar.

3.1.2 Conceptualización del problema de muestreo

En esta parte supondremos que el objetivo final de tomar la muestra es calibrar un modelo de elección para toda
la población. Siguiendo a Lerman y Manski (1976) denotaremos porPAGyFcaracterísticas de la población y de la
muestra respectivamente. También supondremos que cada observación muestreada puede describirse sobre la
base de las siguientes dos variables:

i=elección observada del individuo de la muestra (por ejemplo, tomó un autobús);

X=vector de características (atributos) del individuo (edad, sexo, ingresos, propiedad de automóvil) y de
las alternativas en su conjunto de elección (tiempos de caminata, espera y viaje, costo)

Finalmente supondremos que el proceso de elección subyacente en la población puede ser representado por
un modelo con parámetrosθ; en este caso, la distribución conjunta deiyXes dado por:

PAG(i,X/θ)

y la probabilidad de elegir la alternativaientre un conjunto de opciones con atributosXes:

PAG(i/X, θ)

Dependiendo de la forma en que se extraiga cada observación, la muestra tendrá su propia distribución
conjunta dei'arenaX's que denotaremos porF(i,X/θ). Sobre la base de esta notación, el problema de muestreo
puede formalizarse de la siguiente manera (Lerman y Manski 1979).

3.1.2.1 Muestra aleatoria

En este caso la distribución deiyXen la muestra y la población deben ser idénticas, es decir:

F(i,X/θ) =PAG(i,X/θ) (3.7)

3.1.2.2 Muestra estratificada o exógena

En este caso la muestra no es aleatoria con respecto a ciertas variables independientes del modelo de elección (por
ejemplo, una muestra con 50% de hogares de bajos ingresos y 50% de hogares de altos ingresos se estratifica si y solo si
se toma una muestra aleatoria dentro de cada estrato ). El proceso de muestreo está definido por una funciónF(X), dando
la probabilidad de encontrar una observación con característicasX; en la población esta probabilidad es por supuestoPAG(
X). La distribución deiyXen la muestra viene dada por:

F(i,X/θ) =F(X)PAG(i/X, θ) (3.8)


Datos y espacio 61

Es simple mostrar que una muestra aleatoria es solo un caso especial de muestra estratificada donde F
(X) =PAG(X), porque:

F(i,X/θ) =PAG(X)PAG(i/X, θ) =PAG(i,X/θ) (3.9)

3.1.2.3 Muestra basada en elección

En este caso, el procedimiento de muestreo está definido por una funciónF(i), dando la probabilidad de
encontrar una observación que elija la opcióni(es decir, se estratifica según la elección). Ahora la distribución de i
yXen la muestra viene dada por:

F(i,X/θ) =F(i)PAG(X/i, θ) (3.10)

No habíamos definido la probabilidad más a la derecha en (3.10), pero podemos obviarla sobre la base de un teorema de Bayes
que establece:

PAG(X/i, θ) =PAG(i/X, θ)PAG(X)/PAG(yo/θ) (3.11)

La expresión en el denominador, que tampoco ha sido definida, puede obtenerse suponiendo


discretasXde:

PAG(yo/θ) = PAG(i/X, θ)PAG(X) (3.12)
X

Por lo tanto, la expresión final para la probabilidad conjunta deiyXpara una muestra basada en la elección es claramente más
complejo:


F(i,X/θ) =F(i)PAG(i/X, θ)PAG(X)/ PAG(i/X, θ)PAG(X) (3.13)
X

y sirve para ilustrar no solo que el muestreo basado en la elección es intuitivamente más problemático que los otros dos
enfoques, sino también que tiene un mayor potencial de sesgo en lo que realmente nos preocupa: la elección.
Por lo tanto, cada método de muestreo produce una distribución diferente de opciones y características en la muestra,
y no haya priorirazones para esperar que un método de estimación de parámetro único sería aplicable en todos los casos.

Ejemplo 3.2Suponga que para los propósitos de un estudio de transporte, la población de un área determinada ha sido
clasificada de acuerdo con dos categorías de ingresos, y que solo hay dos modos de transporte disponibles (automóvil y
autobús) para el viaje al trabajo. Supongamos también que la distribución de la población está dada por:

De bajos ingresos Altos ingresos Total

Usuario de autobús 0,45 0.15 0,60


usuario de coche 0.20 0.20 0.40

Total 0,65 0.35 1.00

1. Muestra aleatoria. Si se toma una muestra aleatoria, es claro que se obtendría la misma distribución
poblacional.
62 Transporte de modelado

2. Muestra exógena. Considere una muestra con un 75 % de viajeros de bajos ingresos (LI) y un 25 % de viajeros de altos
ingresos (HI). De la tabla anterior es posible calcular la probabilidad de que un viajero de bajos ingresos utilice el
autobús, como:

PAG(LI y Autobús) 0.45


PAG(Autobús/LI) = = =0.692
PAG(LI y Autobús) +PAG(LI y coche) 0.45 + 0.20
Ahora bien, dado que la muestra exógena tiene un 75% de personas de bajos ingresos, la probabilidad de encontrar
un usuario de bus con bajos ingresos en la muestra es: 0.75×0,692 = 0,519. Haciendo esto para el resto de las celdas,
se puede construir la siguiente tabla de probabilidades para la muestra estratificada:

De bajos ingresos Altos ingresos Total

Usuario de autobús 0.519 0.107 0.626


usuario de coche 0.231 0.143 0.374

Total 0.750 0.250 1.000

3. Muestra basada en elección. Supongamos ahora que tomamos una muestra del 75% de usuarios de autobuses y del 25% de usuarios de automóviles. En

este caso, la probabilidad de que un usuario de autobús tenga bajos ingresos se puede calcular como:

PAG(LI y Autobús) 0.45


PAG(LI/autobús) = = =0.75
PAG(LI y Autobús) +PAG(HI y Autobús) 0.45 + 0.15
Por lo tanto, la probabilidad de encontrar un viajero de bajos ingresos que elija el autobús en la muestra es 0,75 por
0,75, o 0,563. Procediendo de manera análoga, se puede construir la siguiente tabla de probabilidades para la
muestra por elección:

De bajos ingresos Altos ingresos Total

Usuario de autobús 0.563 0.187 0.750


usuario de coche 0.125 0.125 0.250

Total 0.688 0.312 1.000

Como obviamente era de esperar, cada método de muestreo produce en general una distribución diferente en la
muestra. La importancia del ejemplo anterior aumentará cuando consideremos lo que está involucrado en la
estimación de modelos usando varias muestras. Para ello es necesario adquirir una comprensión intuitiva de lo que
hacen los programas de calibración; simplemente buscan los 'mejores' valores de los coeficientes del modelo
asociados con un conjunto de variables explicativas; en este caso lo mejor consiste en replicar las elecciones
observadas con mayor precisión.

Para la población en su conjunto, la probabilidad de observar realmente un conjunto de datos dado se puede
encontrar, conceptualmente, simplemente calculando las probabilidades de elegir la opción observada por diferentes
tipos de viajeros (con atributos y conjuntos de elección dados). Por ejemplo, en la primera tabla del Ejemplo 3.2 (muestra
aleatoria simple), la probabilidad de que un viajero de altos ingresos seleccione un automóvil viene dada por la relación
entre la probabilidad de que tenga altos ingresos y use automóvil, y la probabilidad de que tenga altos ingresos. , eso es:

0.20
=0.572
0.15 + 0.20
Datos y espacio 63

Si consideramos la segunda tabla (muestra exógena), la misma probabilidad ahora viene dada por:

0.143
=0.572
0.107 + 0.143

Esto no es coincidencia; de hecho, fue uno de los hallazgos más importantes de una interesante investigación de
Lermany otros. (1976) en los Estados Unidos. En la práctica significa que se puede utilizar software estándar para estimar
modelos con datos obtenidos de una muestra exógena.
También es importante tener en cuenta que este no es el caso de las muestras basadas en la elección. Para probar esto,
considere calcular la misma probabilidad pero usando información de la tercera tabla:

0.125
=0.400
0.187 + 0.125

Como puede verse, el resultado es completamente diferente. Para finalizar este tema es interesante mencionar que
Lermany otros. (1976) también propusieron un método para usar datos de muestras basadas en la elección en la
estimación del modelo, evitando sesgos a expensas solo de requerir el conocimiento de las cuotas de mercado reales.
Esto implica ponderar las observaciones por factores calculados como:

Prob (seleccione la opción en una muestra aleatoria)

Prob (seleccione la opción en una muestra basada en elección)

Por lo tanto, en nuestro ejemplo, el factor de ponderación para la observación basada en autobuses debería ser:

0.45 + 0.15
=0.8
0.563 + 0.187

y para los usuarios de automóviles:

0.20 + 0.20
=1.6
0.125 + 0.125

Tenga en cuenta que es necesario tener datos sobre las opciones en cada alternativa, es decir, no sería posible calibrar
un modelo para automóvil y autobús, basándose únicamente en datos para el último modo. Volveremos sobre este
problema en la sección 8.4.2.

3.1.3 Consideraciones prácticas en el muestreo

3.1.3.1 El problema de la implementación

El muestreo estratificado (y basado en la elección) requiere un muestreo aleatorio dentro de cada estrato; para hacerlo,
primero es necesario aislar al grupo relevante y esto puede ser difícil en algunos casos. Considere, por ejemplo, un caso
en el que la población de interés consiste en todos los viajeros potenciales en una ciudad. Así, si estratificamos por área
de residencia, puede ser relativamente sencillo aislar la subpoblación de residentes dentro de la ciudad (por ejemplo,
utilizando datos de una encuesta anterior); el problema es que es sumamente difícil aislar y tomar una muestra del resto,
es decir, de los que viven fuera de la ciudad.
Un problema adicional es que, en ciertos casos, incluso si es posible aislar todas las subpoblaciones y estratos
conformes, aún puede ser difícil asegurar una muestra aleatoria dentro de cada estrato. Por ejemplo, si estamos
interesados en tomar una muestra de viajeros basada en la elección del modo en una ciudad, necesitaremos
entrevistar a los usuarios de autobuses y para esto primero es necesario decidir qué rutas se incluirán en la
muestra. El problema es que ciertas rutas pueden tener, digamos, proporciones de estudiantes y/o jubilados
mayores que el promedio, y esto introduciría un sesgo (Lerman y Manski 1979).
64 Transporte de modelado

3.1.3.2 Encontrar el tamaño de cada subpoblación

Este es un elemento clave para determinar cuántas personas serán encuestadas. Dada cierta estratificación,
existen varios métodos disponibles para conocer el tamaño de cada subpoblación, tales como:

1. Medición directa. Esto es posible en ciertos casos. Considere una muestra basada en la elección del modo de viajes al
trabajo; la cantidad de boletos de autobús y metro vendidos, más los conteos de tráfico durante la hora pico en un
corredor urbano, pueden dar una medida adecuada (aunque imperfecta ya que no todos los viajes durante la hora
pico son al trabajo) de la cantidad de personas que eligen cada modo. Si tenemos una estratificación geográfica (es
decir, zonal), en cambio, el último censo puede servir para estimar el número de habitantes de cada zona.

2. Estimación a partir de una muestra aleatoria. Si se toma una muestra aleatoria, la proporción de
observaciones correspondiente a cada estrato es un estimador consistente de la fracción del total
correspondiente a cada subpoblación. Es importante señalar que el costo de este método es bajo ya que la
única información que se busca es la necesaria para establecer el estrato al que pertenece el informante.
3. Solución de un sistema de ecuaciones simultáneas. Supongamos que estamos interesados en estratificar por el modo elegido y
que tenemos datos sobre ciertas características de la población (p. ej., ingresos medios y propiedad de automóviles). Tomando
una pequeña muestra en modo activado podemos obtener valores medios modales de estas variables y postular un sistema de
ecuaciones que tiene las fracciones de la subpoblación como incógnitas.

Finalmente, la 'tasa de fracaso' de los diferentes tipos de encuestas debe ser considerada al diseñar marcos de
muestreo. El tamaño de la muestra discutido anteriormente corresponde al número de respuestas exitosas y válidas al
esfuerzo de recopilación de datos. Se sabe que algunos procedimientos de encuesta generan bajas tasas de respuestas
válidas (por ejemplo, algunas encuestas postales), pero aún pueden usarse debido a su bajo costo (Richardsonet al. 1995).

Ejemplo 3.3Suponga que la siguiente información está disponible:

Renta media de la población (I): 33 600 $/año

Promedio de propietarios de automóviles (CO): 0,44 automóviles/hogar

Suponga también que las encuestas pequeñas en modo encendido arrojan lo siguiente:

Modo yo ($ / año) CO (coches/hogar)

Auto 78 000 1.15


Autobús 14 400 0.05
Metro 38 400 0.85

SiFidenota la fracción de la subpoblación del total, se cumple el siguiente sistema de ecuaciones simultáneas:

33 600 = 78 000F1+ 14 400F2+ 38 400F3


0.44 = 1.15F1+ 0.05F2+ 0.85F3
1 =F1+F2+F3

cuya solución es:

F1= 0.2451
F2= 0.6044
F3= 0.1505
Esto significa que si la población total del área fuera de 180 000 habitantes, habría aproximadamente 44 100 usuarios
de automóviles, 108 800 usuarios de autobuses y 27 100 usuarios de metro.
Datos y espacio sesenta y cinco

3.2 Errores en el Modelado y Pronóstico


Los procedimientos estadísticos que normalmente se utilizan en el modelado (demanda de viajes) asumen no solo que se
conoce la especificación funcional correcta del modeloa priori, sino también que los datos utilizados para estimar los
parámetros del modelo no tienen errores. En la práctica, sin embargo, estas condiciones se violan a menudo; además,
aunque se cumplieran, los pronósticos del modelo suelen estar sujetos a errores debido a imprecisiones en los valores
asumidos para las variables explicativas en el año de diseño.
El objetivo final de la modelización suele ser la previsión (es decir, el número de personas que eligen determinadas opciones);
Un problema importante al que se enfrentan los diseñadores de modelos es encontrar qué combinación de complejidad del
modelo y precisión de los datos se ajusta mejor a la precisión de pronóstico requerida y al presupuesto del estudio. Para ello, es
importante distinguir entre diferentes tipos de errores, en particular:

- aquellos que podrían causar que incluso los modelos correctos produzcan pronósticos incorrectos, por ejemplo, errores en la predicción de
las variables explicativas, errores de transferencia y agregación; y
- aquellos que realmente hacen que se estimen modelos incorrectos, por ejemplo, errores de medición,
muestreo y especificación.

En la siguiente sección se considera primero los tipos de errores que pueden surgir con los amplios efectos que
pueden causar; luego se examina el equilibrio entre la complejidad del modelo y la precisión de los datos, con particular
énfasis en el papel de los modelos simplificados en ciertos contextos.

3.2.1 Diferentes tipos de error


Considere la siguiente lista de errores que pueden surgir durante los procesos de construcción, calibración y
pronóstico con modelos.

3.2.1.1 Errores de medición


Estos ocurren debido a las imprecisiones inherentes al proceso de medición real de los datos en el año base, tales como:
preguntas mal registradas por el entrevistado, respuestas mal interpretadas por el entrevistador, errores de medición de
la red, errores de codificación y digitalización, etc. Estos errores tienden a ser mayores en los países menos desarrollados,
pero siempre se pueden reducir mejorando el esfuerzo de recopilación de datos (p. ej., mediante el uso apropiado de
apoyo de entrevistas computarizadas) o simplemente asignando más recursos al control de calidad de los datos; sin
embargo, ambos cuestan dinero.
El error de medición, tal como se define aquí, debe distinguirse de la dificultad de definir las variables que deben
medirse. La complejidad que puede surgir en este ámbito se indica en la Figura 3.1. Lamentablemente, el modelador y el
viajero usan diferentes 'unidades' para expresar variables como el tiempo y la distancia. El modelador trabaja en
segundos y metros donde los viajeros perciben algo que les cuesta convertir en minutos y kilómetros precisos. Los
modeladores solo esperan que las medidas en nuestras propias unidades reflejen, con algún grado de error desconocido,
las percepciones de los viajeros que influyen en sus elecciones. Idealmente, el modelado debe basarse en la información
percibida por viajeros individuales, pero aunque los datos informados pueden dar una idea de la percepción, su uso
plantea la difícil cuestión de cómo pronosticar lo que los usuarios van a percibir en el futuro. Por lo que parece inevitable
que los modelos estén dotados de errores de percepción que tienden a ser mayores para las alternativas no elegidas
debido a la existencia deautoselectividadsesgo (es decir, los atributos de la opción elegida se perciben como mejores y los
de la opción rechazada como peores de lo que son, como para reforzar la racionalidad de la elección realizada).

La mayoría de los modelos se utilizan para pronosticar condiciones futuras. Esto plantea un problema interesante en
la elección de las variables a incluir. Supongamos que podemos ajustar muy bien un modelo a un conjunto de variables
con datos actuales pero que puede ser difícil pronosticar el valor futuro de al menos algunos de estos. Si
66

Figura 3.1Medición y elección de atributos

este es el caso, aunque podemos obtener valores precisos para estas variables independientes durante la
encuesta, sus valores futuros solo se conocen con gran incertidumbre (un amplio intervalo de confianza). Este
problema puede tomar una forma simple si la variable difícil es, por ejemplo, los precios futuros del combustible
que son difíciles de pronosticar con precisión. Pero puede tomar una forma más compleja si el problema es
estimar el número de personas con características específicas de edad, sexo, ingresos, tipo de empleo, estado
civil y número de hijos que residirán en una zona o ubicación en particular dentro de diez años. .

3.2.1.2 Errores de muestreo

Estos surgen porque los modelos deben estimarse utilizando conjuntos de datos finitos. Los errores de muestreo son
aproximadamente inversamente proporcionales a la raíz cuadrada del número de observaciones (es decir, para reducirlos a la
mitad es necesario cuadruplicar el tamaño de la muestra); por lo tanto, reducirlos puede ser costoso. Daganzo (1980) ha examinado
el problema de definir estrategias de muestreo óptimas en el sentido de refinar la precisión de la estimación.
Datos y espacio 67

3.2.1.3 Errores de cálculo


Estos surgen porque los modelos generalmente se basan en procedimientos iterativos para los cuales la solución
exacta, si existe, no se ha encontrado por razones de costos computacionales. Estos errores suelen ser pequeños
en comparación con otros errores, excepto en casos como la asignación a redes congestionadas y problemas de
equilibrio entre la oferta y la demanda en sistemas modelo completos, donde pueden ser muy grandes (ver De
Ceaet al.2005).

3.2.1.4 Errores de especificación

Estos surgen porque el fenómeno que se modela no se comprende bien o porque necesita simplificarse
por cualquier motivo. Las subclases importantes de este tipo de error son las siguientes:

- Inclusión de una variable irrelevante (es decir, una que no afecta el proceso de elección modelado). Este error
no sesgará el modelo (o sus pronósticos) si los parámetros aparecen en forma lineal, pero tenderá a aumentar
el error de muestreo; en un modelo no lineal, sin embargo, puede haber sesgo (ver Tardiff 1979).
- Omisión de una variable relevante; quizás el error de especificación más común. Curiosamente, los modelos que
incorporan un término de error aleatorio (como muchos de los que examinaremos en los capítulos 4 y 7) están
diseñados para adaptarse a este error; sin embargo, pueden surgir problemas cuando la variable excluida está
correlacionada con variables en el modelo o cuando su distribución en la población relevante es diferente
de su distribución en la muestra utilizada para la estimación del modelo (ver Horowitz 1981).
- no permitirvariaciones de saborpor parte de los individuos generalmente producirá modelos sesgados, como se
muestra en el Capítulo 8. Desafortunadamente, este es el caso en muchos modelos prácticos de elección; las
excepciones son los modelos probit multinomial y logit mixto, que son menos productivos y que analizamos en los
capítulos 7 y 8.
- Otros errores de especificación, en particular el uso de formas modelo que no son apropiadas, como
funciones lineales para representar efectos no lineales,compensatoriomodelos para representar el
comportamiento que podría serno compensatorio(ver la discusión en el Capítulo 8), o la omisión de efectos
tales comohábitoo inercia(ver Cantilloy otros. 2007). Williams y Ortúzar (1982a) ofrecen una discusión
completa de estas formas de error.

Todos los errores de especificación pueden reducirse en principio simplemente aumentando la complejidad del modelo; sin
embargo, los costos totales de hacer esto no son fáciles de estimar ya que se relacionan con la operación del modelo, pero pueden
inducir otros tipos de errores que pueden ser costosos o imposibles de eliminar (por ejemplo, al pronosticar más variables y con un
mayor nivel de desagregación). Además, la eliminación de algunos errores de especificación puede requerir una extensa
investigación del comportamiento y simplemente debe admitirse que tales errores pueden estar presentes en todos los modelos
factibles.

3.2.1.5 Errores de transferencia

Estos ocurren cuando un modelo desarrollado en un contexto (tiempo y/o lugar) se aplica en otro diferente. Aunque se pueden
hacer ajustes para compensar la transferencia, en última instancia se debe enfrentar el hecho de que el comportamiento puede ser
diferente en diferentes contextos. En el caso de las transferencias espaciales, los errores pueden reducirse o eliminarse mediante
una reestimación parcial o completa del modelo al nuevo contexto (aunque esto último implicaría descartar los ahorros
sustanciales en costos que se obtienen con la transferencia). Sin embargo, en el caso de transferencia temporal (es decir,
pronóstico), esta reestimación no es posible y cualquier error potencial simplemente debe aceptarse (ver la discusión en el Capítulo
9). Este tipo de error será mayor para la planificación a largo plazo.
68 Transporte de modelado

aplicaciones como el tiempo reducirá la validez del modelo ya que las actitudes y preferencias cambian con el tiempo, y
quizás más importante, la precisión de las variables de planificación utilizadas como entrada.

3.2.1.6 Errores de agregación

Estos surgen básicamente de la necesidad de hacer pronósticos para grupos de personas, mientras que el modelado a
menudo debe hacerse a nivel del individuo para capturar mejor el comportamiento. Las siguientes son subclases
importantes de error de agregación:

- Agregación de datos. En la mayoría de los estudios prácticos, los datos utilizados para definir la situación de
elección de los viajeros individuales se agregan de una forma u otra; incluso cuando se pide a los viajeros que
informen sobre las características de sus opciones disponibles, solo pueden haber basado su elección en los
valores esperados de estas características. Cuando se utilizan modelos de red, se agregan rutas, horas de
salida e incluso zonas; esto significa que los valores así obtenidos para las variables explicativas son, en el
mejor de los casos, promedios para grupos de viajeros en lugar de valores exactos para un individuo en
particular. Los modelos estimados con datos agregados sufrirán algún tipo de error de especificación (ver Daly
y Ortúzar 1990). Reducir este tipo de error de agregación implica realizar mediciones en muchos más
conjuntos de circunstancias: más zonas, más horas de salida,
esto cuesta tiempo y dinero y aumenta la complejidad del modelo.
- Agregación de alternativas. Una vez más, debido a consideraciones prácticas, puede que no sea factible intentar considerar toda
la gama de opciones disponibles para cada viajero; incluso en casos relativamente más simples, como la elección del modo, la
agregación está presente como la gran variedad de servicios que abarcan una opción de autobús, por ejemplo (por ejemplo,
autobuses de un piso operados por un solo hombre, de dos pisos operados por dos hombres, minibuses,
servicios express), rara vez se tratan como opciones separadas.
- Agregación de modelos. Esto puede causar serias dificultades al analista excepto en el caso de modelos lineales donde es un
problema trivial. Las cantidades agregadas, como los flujos en los enlaces, son un resultado de modelado básico en la
planificación del transporte, pero los métodos para obtenerlas están sujetos a errores de agregación que a menudo son
imposibles de eliminar. Examinaremos este problema con cierto detalle en los capítulos 4 y 9.

3.2.2 La compensación entre la complejidad del modelo y la precisión de los datos

Dadas las dificultades discutidas anteriormente, es razonable considerar el problema dual de cómo optimizar el retorno de la
inversión para aumentar la precisión de los datos, dado un presupuesto de estudio fijo y un cierto nivel de complejidad del modelo,
para lograr un nivel razonable de precisión en los pronósticos. Para abordar este problema, primero debemos comprender cómo
los errores en las variables de entrada influyen en la precisión del modelo que utilizamos.
Considere un conjunto de variables observadasXcon errores asociadosmiX(es decir, desviación estándar); para encontrar el error
de salida derivado de la propagación de errores de entrada en una función como:

z=F(X1,X2, . . . ,Xnorte)

se puede utilizar la siguiente fórmula (Alonso 1968):

∑( ) 2 ∑ ∑∂F
∂F ∂F
mi
z=2 mi 2+ mimiXrj i (3. 14)
i
∂Xi xi
i j=i
∂Xi∂X j xi j

dónderyoes el coeficiente de correlación entreXiyXj; la fórmula es exacta para funciones lineales y una
aproximación razonable en otros casos. Alonso (1968) lo usó para derivar algunas reglas simples a seguir
durante la construcción del modelo para evitar grandes errores de salida; por ejemplo, una obvia es
Datos y espacio 69

evitar el uso de variables correlacionadas, reduciendo así el segundo término del lado derecho de la ecuación (3.14) a
cero.
Si tomamos la derivada parcial demizcon respecto amixie ignoramos el término de correlación, obtenemos:

()
∂miz= ∂F2mixi
(3.15)
∂mixi ∂Xi miz

Usando estas tasas marginales de mejora y una estimación de los costos marginales de mejorar la precisión de los
datos, debería ser posible, en principio, determinar un presupuesto de mejora óptimo; Sin embargo, en la práctica, este
problema no es fácil, sobre todo porque la ley de rendimientos decrecientes (es decir, cada reducción porcentual
adicional en el error de una variable tenderá a costar proporcionalmente más) podría operar, lo que lleva a un
procedimiento iterativo complejo. Sin embargo, la ecuación (3.15) sirve para deducir dos reglas lógicas (Alonso 1968):

- concentrar el esfuerzo de mejora en aquellas variables con un gran error; y


- concentrar el esfuerzo en las variables más relevantes, es decir, aquellas con mayor valor de (∂f/∂X )ya que
i

tienen el mayor efecto sobre la variable dependiente.

Ejemplo 3.4Considere el modeloz=xy+w, y la siguiente medida de las variables


independientes:

X=100±10;y=50±5;w=200±50

Suponga también que el costo marginal de mejorar cada medición es el siguiente:

Costo marginal de mejorarX(a 100±9) = $ 5.00


Costo marginal de mejorary(a 50±4) = $ 6.00 Costo
marginal de mejorarw(a 200±49) = $ 0.02

Aplicando la ecuación (3.14) obtenemos:

mi
z=2y2mi2X+X2mi2y+mi2w=502 500

entoncesmiz=708,87; procediendo análogamente, valores de mejoramizen los casos de mejoraX,yowse puede encontrar
que es 674.54, 642.26 y 708.08 respectivamente. También de (3.15) obtenemos:

∂miz 10y2 ∂miz ∂miz


= =35.2; =70.5; =0.0705
∂miX 708.87 ∂miy ∂miw
Estos tres últimos valores son las tasas marginales de mejora correspondientes a cada variable. Para calcular
el costo de las mejoras marginales enmizdebemos dividir los costos marginales de mejorar cada variable por sus
respectivas tasas marginales de mejora. Por lo tanto, obtenemos los siguientes costos marginales de mejorarmiz
derivados de las distintas mejoras variables:

Mejoría marginal enX=5/35.2 = $ 0.142 Mejoría


marginal eny=6/70.05 = $ 0.085 Mejoría
marginal enw=0.02/0.705 = $ 0.284

Por lo tanto, se decidiría mejorar la precisión de medición de la variableysi la reducción


marginal enmizvalía al menos $0.085.
70 Transporte de modelado

Definamos ahora la complejidad como un aumento en el número de variables de un modelo y/o un aumento
en el número de operaciones algebraicas con las variables (Alonso 1968). Es obvio que para reducir el error de
especificación (mis) debe aumentarse la complejidad; sin embargo, también es claro que a medida que hay más
variables a medir y/o mayores problemas para su medición, el error de medición de datos
(mimetro) probablemente también aumentará.

Si el error total de modelado se define comomi= (mi2 s + mi2metro),es fácil ver que el mínimo demihace
no se encuentran necesariamente en el punto de máxima complejidad (es decir, máximo realismo). La figura 3.2 muestra no solo
que esto es intuitivamente cierto, sino también que solo
alcanzarse a niveles decrecientes de modelo

Figura 3.2Variación del error con la complejidad

Ejemplo 3.5Considere el caso de tener que elegir entre un modelo extremadamente simple, que se sabe que
produce un error total del 30% en los pronósticos, y un nuevo modelo que tiene una especificación perfecta (es
decir,mis=0) dado por:

z=X1X2X3X4X5
donde elXison variables independientes medidas con un error del 10% (es decirmimetro=0.1Xi). Para decidir qué
modelo es más conveniente aplicaremos la ecuación (3.14):

mi
z=02 .01[X2 1(X2X3X4X5)2+X2 2(X1X3X4X5)2+. . .+X2 5(X1X2X3X4)2]

mi
z=02 .05[X1X2X3X4X5]2= 0.05z2

eso es,miz=0.22zo un error del 22%, en cuyo caso elegiríamos el segundo modelo.

El lector interesado puede comprobar que si se supone que elXilas variables solo se pueden medir con un
error del 20 %, el error total del segundo modelo es del 44,5 % (es decir, ahora seleccionaríamos el primer
modelo aunque su error total aumentara hasta el 44 %).
La figura 3.3 sirve para ilustrar este punto, que se puede resumir de la siguiente manera: si los datos no son
de muy buena calidad, podría ser más seguro predecir con modelos más simples y robustos (Alonso 1968). Sin
embargo, para conocer y comprender el fenómeno, siempre será preferible un modelo mejor especificado.
Además, la mayoría de los modelos se usarán en un modo de pronóstico donde los valores de la planificación
Datos y espacio

Figura 3.3Influencia del error de medida

VariablesXino será observado sino pronosticado. Sabemos que algunas variables de planificación son más fáciles de
pronosticar que otras y que la desagregación hace que predecir sus valores futuros sea una tarea aún menos segura. Por
lo tanto, al elegir un modelo con fines de pronóstico, se debe dar preferencia a aquellos que utilizan variables de
planificación que pueden pronosticarse, a su vez, con mayor confianza.
Consideremos, por ejemplo, queX1es el precio del combustible. Se puede esperar una precisión del 10 % en los costos de
gasolina durante el año y las áreas donde se recolectaron los datos. Sin embargo, la precisión de la estimación de los precios del
combustible dentro de diez años disminuirá, probablemente hasta un 40 %. Si los errores en las demás variables se mantienen
como se indica, será suficiente para que el error enX1aumentar al 25 % para que el error total sea del 32 % y sea preferible el
modelo más simple.

3.3 Métodos básicos de recopilación de datos

3.3.1 Consideraciones prácticas

La selección de los métodos de recolección de datos más apropiados dependerá significativamente del
tipo de modelos que se utilizarán en el estudio; definirán qué tipo de datos se necesitan y, por lo tanto,
qué métodos de recopilación de datos son más apropiados. Sin embargo, las limitaciones prácticas
también tendrán una fuerte influencia en la determinación del tipo de encuesta más apropiado para una
situación dada. La especificación del sistema modelo deseado y el diseño de un plan de levantamiento no
es un asunto sencillo y requiere una habilidad y experiencia considerables. Para obtener información
básica sobre reclutamiento, capacitación, diseño de cuestionarios, supervisión y control de calidad, se
remite al lector al siempre popular libro de Moser y Kalton (1985).et al.(1995). En lo que sigue discutimos
brevemente algunas de las limitaciones prácticas más típicas en los estudios de transporte.
72 Transporte de modelado

3.3.1.1 Duración del estudio

Esto obviamente tiene una gran importancia porque determina indirectamente cuánto tiempo y esfuerzo se puede
dedicar a la etapa de recolección de datos. Es muy importante lograr un estudio balanceado (en términos de sus varias
etapas) evitando el problema demasiado frecuente de eventualmente encontrar que la mayor parte del presupuesto del
estudio (y tiempo) se dedicó a la recolección, análisis y validación de datos (ver Boycey otros. 1970).

3.3.1.2 Horizonte de estudio

Hay dos tipos de situaciones que vale la pena considerar a este respecto:

- Si el año de diseño está demasiado cerca, como en un estudio de transporte táctico, no habrá mucho tiempo para realizar el
estudio; esto probablemente implicará la necesidad de usar un tipo particular de herramienta de análisis, quizás requiriendo
datos de un tipo especial.
- En los estudios de transporte estratégico, por otro lado, el horizonte de estudio habitual es de 20 o más años
en el futuro. Aunque en principio esto da tiempo para emplear casi cualquier tipo de herramienta analítica
(con sus encuestas asociadas), también significa que los errores en los pronósticos solo se conocerán en 20
años o más. Esto requiere flexibilidad y adaptación si se quiere lograr un proceso exitoso de monitoreo y
reevaluación.

3.3.1.3 Límites del Área de Estudio

Aquí es importante ignorar los límites políticos formales (es decir, del condado o distrito) y concentrarse en toda el área
de interés. También es necesario distinguir entre ésta y el área de estudio definida en el resumen del proyecto; el primero
es normalmente más grande, ya que esperaríamos que el segundo se desarrollara en un período de, digamos, 20 años.
La definición del área de interés depende nuevamente del tipo de políticas examinadas y decisiones a tomar; Volveremos
sobre este tema a continuación.

3.3.1.4 Recursos de estudio

Es necesario saber, con la mayor claridad y detalle posible, cuánto personal y de qué nivel estará disponible para
el estudio; también es importante saber qué tipo de instalaciones informáticas estarán disponibles y qué
restricciones existirán para su uso. En general, el tiempo disponible y los recursos de estudio deben ser
proporcionales a la importancia de las decisiones a tomar como resultado. Cuanto mayor sea el costo de una
decisión equivocada, más recursos deben dedicarse a hacerlo bien.
Hay muchas otras restricciones posibles, que van desde las físicas (es decir, el tamaño y la topografía de la
localidad) hasta las sociales y ambientales (por ejemplo, la renuencia conocida de la población a responder
ciertos tipos de preguntas), que deben tenerse en cuenta y que influirán en la muestra. diseño.
Una consideración práctica general es que los viajeros suelen ser reacios a responder a "otro" cuestionario. Responder
a las preguntas lleva tiempo y, a veces, puede verse como una violación de la privacidad. Esto puede dar como resultado
que se niegue rotundamente a responder o que se brinden respuestas simplistas pero creíbles, lo que en realidad es
peor. En muchos países es necesario obtener el permiso de las autoridades antes de emprender cualquier estudio de
tráfico que implique interrupciones a los viajeros.
La tecnología moderna ofrece una serie de métodos para recopilar información sobre viajes, recorridos, destino, modos o
elección de ruta, sin requerir la participación activa del viajero, por ejemplo, rastrear ubicaciones de teléfonos móviles. Sin
embargo, estos presentan problemas de privacidad que deben manejarse con cuidado, con sensibilidad y, por supuesto, de
acuerdo con la ley, que en el momento de escribir este artículo no es particularmente clara en la mayoría de los lugares. Además,
estos métodos de seguimiento no ofrecen mucha información sobre el comportamiento subyacente.
Datos y espacio 73

intenciones, aunque algunas pueden deducirse de las ubicaciones y los tiempos. Esta es otra área fértil para futuras
investigaciones.

3.3.2 Tipos de encuestas

Hasta mediados de la década de 1970, se llevó a cabo un gran número de encuestas de hogares de origen-destino (O-D),
utilizando una técnica de muestreo aleatorio simple, en áreas urbanas de países industrializados y también en muchas
ciudades importantes de países en desarrollo. Este gran esfuerzo fue muy costoso y exigió enormes cantidades de
tiempo (un problema con recopilar demasiada información es que también se debe gastar mucho tiempo y dinero en
analizarla); de hecho, como ya hemos comentado, el esfuerzo de recopilación de datos tradicionalmente ha absorbido
una parte vital de los recursos disponibles para realizar estos grandes estudios dejando, en muchos casos, poco tiempo y
dinero para las tareas cruciales de preparación y evaluación de planes.
En muchas áreas urbanas, y en particular en las grandes áreas metropolitanas, los datos de las encuestas sobre viajes tienen un
papel importante. En algunas situaciones, este tipo de datos se utiliza casi en su totalidad por su riqueza para describir la situación
existente y, por lo tanto, ayudar al analista a identificar problemas relacionados con el sistema de transporte. En otros, y tal es
nuestro principal interés, los datos se recopilan principalmente para su uso en el modelado de transporte estratégico y, por lo
tanto, en la previsión, pero aún pueden usarse para ambos propósitos (Battellino y Peachman 2003).
Comprender el uso de los datos es uno de los pasos clave para determinar la metodología de la encuesta para cualquier
encuesta de viajes. Por ejemplo, modelos de actividad (Beckmany otros. 1995) requieren grandes cantidades de datos no sólo sobre
las actividades que realizan las personas, sino también sobre la 'infraestructura' de la actividad (por ejemplo, horarios de apertura
de las tiendas). Sin embargo, las necesidades habituales de los datos de encuestas de viajes son proporcionar la base para
predicciones precisas, generalmente mediante un modelo de planificación de transporte estratégico. En este caso, los elementos de
datos clave son los viajes entre orígenes y destinos, en lugar de los determinantes conductuales subyacentes, de ahí el término
estudio 'origen-destino'.
Stopher y Jones (2003) brindan una guía rigurosa, completa y útil de los elementos que debe considerar una encuesta
de estado del corazón. Aquí solo nos concentraremos en ciertos elementos clave necesarios para mejorar la utilidad de
los datos como ayuda para calibrar un modelo contemporáneo de planificación estratégica del transporte que equilibre la
oferta y la demanda. En ese caso, las mejores prácticas actuales sugieren que el conjunto de datos probablemente tenga
las siguientes características (Ampt y Ortúzar 2004):

- Consideración de datos de viajes basados en etapas, asegurando que los análisis puedan relacionar modos específicos con
ubicaciones/horas del día/duración del viaje, etc.
- Inclusión de todos los modos de viaje, incluidos los viajes no motorizados.
- Mediciones de niveles altamente desagregados de propósitos de viaje.
- Cobertura del período de tiempo más amplio posible, por ejemplo, 24 horas al día, siete días a la semana y quizás 365 días al año
(para cubrir todas las estaciones).
- Datos detodomiembros del hogar.
- Información de alta calidad lo suficientemente robusta para ser utilizada incluso a nivel desagregado (Daly y
Ortuzar 1990).
- Formar parte de un sistema integrado de recopilación de datos que incorpore entrevistas en los hogares, así como
datos de origen y destino de otras fuentes, como las encuestas de cordón.

Desafortunadamente, la recopilación de datos con este nivel de precisión no es una tarea fácil y, a menudo, se ve
impedida por la gran dificultad de convencer a una muestra suficientemente grande de personas para que participen en
un esfuerzo tan arduo. Luego, dependiendo de los objetivos del modelo (es decir, análisis estratégico versus estudios
tácticos detallados), el analista puede necesitar aliviar la carga de los encuestados y conformarse con información menos
detallada.
74 Transporte de modelado

3.3.2.1 Alcance de la Encuesta

La Figura 3.4 es útil para describir el alcance de un estudio para capturar todos los viajes que afectan un área
metropolitana. Primero es necesario definir el área de interés del estudio. Su límite externo se conoce como
cordón exterior. Una vez definido esto, se divide el área en zonas (veremos algunas reglas básicas de zonificación
en la sección 3.4) para tener una idea clara y espacialmente desagregada del origen y destino de los viajes, y así
poder cuantificar espacialmente variables como como población y empleo.

Viajes con
orígenes y
destinos
afuera de
área

Hogares
Mudanza de no residentes
dentro, fuera y alrededor del

área de estudio

Movimientos de
residentes

Figura 3.4Alcance de la recopilación de datos necesaria para una encuesta O-D metropolitana

El área fuera del cordón externo también se divide en zonas pero con un nivel de detalle menor (zonas más grandes).
Dentro del área de estudio también puede haber otrosinternocordones, así comolíneas de pantalla(es decir, una divisoria
artificial que sigue a un límite natural o artificial con pocos cruces, como un río o una vía férrea), cuyos propósitos se
analizan a continuación. No existen reglas estrictas y rápidas para decidir la ubicación del cordón externo y, por lo tanto,
qué áreas se considerarán externas al estudio; depende del alcance y los niveles de decisión que se adopten para el
estudio, es decir, es un problema muy contextual.
La figura 3.4 implica que se necesitan los siguientes datos:

- Encuesta de Hogares: viajes realizados por todos los miembros del hogar por todos los modos de transporte tanto dentro del
área de estudio como saliendo/llegando al área durante el período de la encuesta; esta encuesta debe incluir información
socioeconómica (ingresos, propiedad de automóviles, tamaño y estructura de la familia, etc.). Esta información es muy eficiente
en la generación de datos que permiten la estimación de generación de viajes y modelos de distribución modal; además, los
datos sobre los viajes de los hogares proporcionan buena información sobre la distribución de la duración de los viajes en la
ciudad, un elemento importante en la estimación de los modelos de distribución de viajes.
- Encuestas de intercepción, cordón externo: datos sobre las personas que cruzan la frontera del área de estudio, en particular los
no residentes del área de estudio. Estos datos también se pueden usar para verificar y ampliar los datos de los hogares en los
cruces del área de estudio, ya que generalmente solo se recopila una pequeña cantidad de datos, incluso en una encuesta muy
grande. Son levantamientos más cortos, realizados en puntos que interceptan los viajes que llegan y salen del área de estudio:
levantamientos fuera de acera, a bordo de vehículos de transporte público o en puntos de intercambio de modos (es decir,
aeropuertos).
Datos y espacio 75

- Levantamientos de interceptación, cordones internos y líneas de pantalla: se requieren para medir los viajes de los no
residentes y, nuevamente, para verificar los datos de los hogares hasta cierto punto. Son insumos importantes para
otros modelos.
- Conteo de personas y tráfico: son de bajo costo y se requieren para la calibración, validación y para verificaciones posteriores a
otras encuestas. La integración de estos datos en la metodología de la encuesta se analiza a continuación.
- Encuestas de tiempo de viaje: son necesarios para calibrar y validar la mayoría de los modelos y pueden ser necesarios tanto para viajes en
coche como en transporte público.
- Otros datos relacionados: para crear modelos de pronóstico sólidos según sea necesario en grandes áreas metropolitanas, también es
importante contar con una metodología de encuesta que permita la integración de elementos de datos relacionados que influyen en el
comportamiento de viaje (Richardsony otros. 1995). Aquí incluimos:
– Inventario de uso de la tierra; zonas residenciales (densidad de viviendas), zonas comerciales e industriales (por tipo de
establecimiento), estacionamientos, etc.; estos son particularmente útiles para los modelos de generación de viajes.
– Inventarios de infraestructura y servicios existentes (redes de transporte público y privado, tarifas, frecuencia, etc.;
ubicación y horarios de semáforos); estos son esenciales para la calibración del modelo, especialmente los modelos
de distribución y asignación.
– Información de encuestas especiales sobre actitudes y elasticidad de la demanda (por ejemplo, preferencia declarada y otros
métodos).

Cada uno de los componentes de la encuesta anterior requiere un diseño detallado junto con una estrategia de muestreo
cuidadosamente seleccionada. A continuación, brindamos información sobre el diseño metodológico total y pistas sobre las
medidas necesarias para integrar los diversos componentes de la encuesta.

3.3.2.2 Encuestas de viajes para entrevistas en el hogar

Las encuestas de entrevistas domiciliarias o de viajes en el hogar son el tipo de encuesta más costosa y difícil, pero
ofrecen un conjunto de datos rico y útil. Sin embargo, en muchas ocasiones el interés no se centrará en recopilar datos
para el sistema modelo completo, sino solo para partes del mismo: el caso más típico es el de la elección y asignación de
modo en estudios a corto plazo.
Un método interesante, especialmente adecuado para estudios de trayecto al trabajo basados en corredores y que
ha demostrado ser muy eficaz en la práctica, es el uso de entrevistas en el lugar de trabajo (ver Dunphy 1979; Ortúzar y
Donoso 1983). Estos implican que la autoridad local solicite a una muestra de instituciones (empleadores) en, por
ejemplo, el permiso del Distrito Comercial Central (CBD) para entrevistar a una muestra de sus empleados; en ciertos
casos se ha encontrado eficiente pedir que la muestra se distribuya por residencia del empleado (por ejemplo, aquellos
que viven en un determinado corredor). Cabe señalar, sin embargo, que a diferencia del caso de las encuestas aleatorias
de hogares, los datos obtenidos en este caso se basan en la elección en términos de destino; sin embargo, es
mayormente aleatorio con respecto al modo.
Aunque nos referiremos principalmente a las encuestas de hogares, la mayoría de los aspectos de la discusión general
y, de hecho, los relacionados con el diseño del instrumento de medición son igualmente aplicables a cualquier otro tipo
de encuesta de origen-destino (O-D).

Consideraciones GeneralesTanto los procedimientos como los instrumentos de medición utilizados para recopilar
información en el sitio tienen una influencia directa y profunda en los resultados derivados de cualquier esfuerzo de
recopilación de datos. Es por ello que se ha recomendado incluir el procedimiento de medición como un elemento más a
considerar de forma explícita en el diseño de cualquier proyecto que requiera datos empíricos para su desarrollo.
Wermuth (1981), por ejemplo, incluso ha propuesto una categorización de todas las etapas que comprende un
procedimiento de medición. En esta parte nos referiremos sólo a dos de estas categorías: ladesarrolloy elusarde
instrumentos diseñados para medir patrones de actividad fuera del hogar.
Ya hemos mencionado que la medición empírica del comportamiento de viaje es uno de los principales insumos para
el proceso de toma de decisiones en la planificación del transporte urbano; de hecho, proporciona la base para la
76 Transporte de modelado

formulación y estimación de modelos para explicar y predecir futuras actividades de viaje. Por ello, las
deficiencias metodológicas en esta etapa tendrán repercusiones directas en todas las etapas posteriores del
proceso de planificación del transporte.
Las críticas frecuentes sobre las encuestas de viajes de hogares o lugares de trabajo han incluido:

- las encuestas solo midieron el comportamiento de viaje promedio en lugar del real de las personas;
- sólo podía investigarse una parte de los movimientos del individuo;
- la información sobre el nivel de servicio (por ejemplo, sobre los tiempos de viaje) está mal estimada por el encuestado.

De hecho, se ha encontrado que las mediciones de variables derivadas de encuestas O–D


tradicionales, por ejemplo, relacionadas con tiempos, distancias y costos de viaje, han
resultado inadecuadas cuando se comparan con valores medidos objetivamente para las
mismas variables. Es decir, las características reportadas han tendido a diferir
sustancialmente de la realidad a pesar de que los individuos que respondieron a la encuesta
experimentan los valores reales de estas variables de nivel de servicio dos veces al día.
También se ha concluido que el sesgo tiene un carácter sistemático y aparentemente está
relacionado con las actitudes de los usuarios con respecto a cada modalidad; por ejemplo, en
el caso del transporte público, los tiempos de acceso, espera y transbordo (que son bastante
molestos) tienden a ser severamente sobreestimados.y otros. 1983).
Un análisis metodológico de estas críticas lleva a dos conclusiones (Brög y Ampt 1982). En primer lugar, la información sobre el
comportamiento del viaje no debe buscarse en términos generales (es decir, valores medios), sino con referencia a un punto de
referencia temporal concreto (por ejemplo, un día de viaje preasignado). En segundo lugar, no se recomienda examinar las diversas
actividades de forma aislada, sino tomar el patrón de actividad completo como base para el análisis; por ejemplo, se puede
demostrar que preguntar por las horas de inicio y finalización de un viaje arroja resultados más precisos que preguntar por su
duración total. Por lo tanto, las encuestas de viajes contemporáneas emplean un marco de recuerdo de actividad (Ampt y Ortúzar
2004).

Un proceso continuo de recopilación de datosEl mejor enfoque para la recopilación de datos de viajes de los hogares
postula que la información debe recopilarse paracada díade la semanadurante todo el añoy durante varios años
(Richardsony otros. 1995). Para permitir el uso de datos en cualquier nivel de agregación y alejarse de la necesidad de un
sistema de zonificación estándar, la metodología también recomienda geocodificar toda la información de origen y
destino.
La recopilación de datos para cada día de un año determinado permite capturar las variaciones estacionales, así como las
diferencias de fin de semana/día de la semana. Por lo tanto, el enfoque tiene numerosas ventajas:

- Permite medir los cambios en la demanda a lo largo del tiempo y, en particular, permite correlacionar estos
cambios a cambios en el sistema de suministro.
- Dado que los encuestados solo informan datos de uno o dos días, hace que su tarea sea fácil y confiable, al mismo tiempo.
mismo tiempo dando datos durante un período más largo.
- La extensión del estudio durante un año también da como resultado menores costos operativos.
- Permite un mejor control de calidad.

Por otro lado, en este nuevo enfoque hay varias cuestiones que deben abordarse en cada
circunstancia específica:

- Es necesario esperar hasta un año antes de que existan datos suficientes para cumplir con los fines para los cuales el
se diseñó el estudio (típicamente calibrar un modelo a gran escala).
- Si se utilizan entrevistadores, es necesario mantenerlos motivados durante un período más largo.
- Es necesario desarrollar procesos de ponderación que tengan en cuenta las variaciones estacionales.
Datos y espacio 77

- Es necesario desarrollar métodos especiales para la ponderación posterior de los datos anuales si se combinan con datos de encuestas en
curso (como se analiza a continuación).

Actualización Periódica de Matrices y ModelosLas matrices y los modelos para que coincidan con el sistema de
recopilación de datos en curso deben actualizarse periódicamente para maximizar el beneficio de la información
continua. No obstante, si bien es posible considerar la elaboración de matrices parciales de viaje dados requerimientos
específicos; Las tablas de viaje y los modelos para toda el área de estudio no deben actualizarse con más frecuencia que
cada 12 a 18 meses, según el tipo de ciudad en estudio.

Implicaciones para la recopilación de datosEs probable que la actualización periódica de modelos y matrices tenga un efecto
sobre los datos recopilados. Por ejemplo, ¿qué información es más sensible a la actualización? En este contexto puede haber varios
elementos que merezca la pena actualizar periódicamente:

- Modelos de generación y atracción de viajes.


- Matrices de viaje, que reflejan el crecimiento diferencial en diferentes partes del área de estudio.
- División modal, incluidos los modos no motorizados, que refleja los posibles impactos de diferentes
políticas de transporte.
- Niveles de tráfico en diferentes partes de la red, lo que permite identificar crecimientos diferenciales en la
redes primarias, secundarias, de acceso y locales.
- Tendencias de propiedad de automóviles y formación de hogares en varios distritos de la ciudad.

La prioridad a aplicar en el caso de cada uno de estos indicadores dependerá del tipo de políticas de transporte que se
consideren, la necesidad de monitorear su desempeño y las necesidades generales de modelado. También dependerá de
sus tasas de cambio esperadas, su importancia y los costos asociados con la recopilación de datos para su actualización,
incluido el costo social de molestar a los usuarios del sistema de transporte (ver DICTUC 1998 para una discusión más
detallada).
También es importante señalar la conveniencia de permitir la estimación de otros tipos de modelos que probablemente se necesiten en el
futuro, como los modelos de elección de la hora del día y los modelos dinámicos. Por otro lado, la disponibilidad de datos recopilados de
manera continua permite monitorear el comportamiento de los usuarios con respecto a intervenciones radicales en el sistema de transporte.
Algunos ejemplos son las emergencias ambientales en las que aumentan las restricciones de entrada de automóviles de CBD, las obras en las
carreteras principales, las huelgas de autobuses o los cambios en los precios de la gasolina, las tarifas de los autobuses o las tarifas de
estacionamiento. La respuesta a tales políticas (predecibles o no) proporciona información básica sobre los umbrales de comportamiento de los
usuarios y crea una base de datos temporal que debería facilitar el desarrollo de modelos más sofisticados.

Formato y diseño del cuestionarioDado que uno de los objetivos de una encuesta es lograr la tasa de respuesta más alta posible
para minimizar el sesgo de falta de respuesta, se recomienda utilizar métodos mixtos (es decir, basados en autocompletado y
entrevistas personales) para recopilar los datos (Goldenberg 1996). . En particular, un sistema de autocompletado parece más
apropiado en distritos donde las personas están acostumbradas a 'llenar formularios' (con seguimiento de validación de entrevistas
personales) o donde no se puede acceder a los hogares más que a través de sistemas remotos de campanas de seguridad, donde
los intentos de personal Las entrevistas dan como resultado bajas tasas de respuesta. Esta combinación aprovecha la rentabilidad y
la eficiencia de los diseños de autocompletado de alta calidad y garantiza una carga de respuesta mínima para todos los
participantes (Richardsony otros. 1995).
Las encuestas telefónicas, aunque se utilizan ampliamente en América del Norte por su rentabilidad relativa,
no se recomiendan por varias razones (Ampt y Ortúzar 2004):

- Incluso cuando los avisos se envían a los hogares por adelantado (por ejemplo, en forma de mini-diarios), tienden a sufrir una
gran cantidad de informes indirectos (es decir, una persona que informa en nombre de otros), lo que lleva a una significativa
subnotificación de viajes.
78 Transporte de modelado

- Aunque la propiedad de teléfonos es muy alta en los países donde las listas de teléfonos se utilizan como marco de
muestreo, a menudo hay hasta un 40% de hogares no registrados (Ampt 2003); esto significa que al menos el 40%
(más los hogares sin teléfono) de la población no puede dar datos si se utilizó un enfoque de método único.
- Cuando se utiliza la marcación aleatoria de dígitos para superar esta dificultad, el problema puede verse exacerbado por la ira de
las personas que reciben llamadas con números no listados.
- Un número cada vez mayor de personas en muchos países ahora solo tienen teléfonos móviles; esto significa que,
incluso si los números de teléfono móvil están disponibles, hay una mezcla de muestreo basado en el hogar y en la
persona, lo que requeriría un esfuerzo considerable para que la etapa de ponderación sea efectiva.

En cuanto a la disposición, el orden de las preguntas normalmente busca minimizar la resistencia del encuestado a
responderlas, por lo que las preguntas difíciles (por ejemplo, relacionadas con los ingresos) suelen colocarse al final. El instrumento
de la encuesta (y cualquier entrevista personal) debe tratar de satisfacer los siguientes criterios:

- Las preguntas deben ser simples y directas.


- Asegúrese de que cada pregunta tenga un propósito específico; un número excesivo de preguntas degrada el
tasa de respuesta y aumenta las omisiones de viaje.
- Se debe minimizar el número de preguntas abiertas.
- La información del viaje debe incluir el propósito del viaje. Es interesante adquirirdatos de viaje basados en etapas(es decir,
todos los movimientos en una calle pública) para garantizar que los análisis puedan relacionar modos específicos con
ubicaciones específicas, horas del día, etc.
- Recopile información para que los recorridos completos puedan reconstruirse durante el análisis.
- Buscar información sobretodos los modos de viaje, incluidos los viajes no motorizados.
- Todas las personas del hogar deben incluirse en la encuesta, incluidos los miembros que no pertenecen a la familia, como las empleadas
domésticas en los países en desarrollo.
- Para facilitar la tarea del encuestado de registrar todos los viajes, se recomienda un marco de recuerdo de actividades, mediante
el cual las personas registran los viajes en el contexto de las actividades que han realizado en lugar de simplemente los viajes
que han realizado; se ha demostrado que esto da como resultado una medición de viaje mucho más precisa (Stopher 1998).

- Dado que las personas tienen dificultad para recordar actividades infrecuentes y discrecionales, incluso
cuando son recientes, se debe asignar un día o días de viaje a cada hogar con anticipación. Los encuestados
deben recibir un breve diario antes de estos días; la información en el diario puede luego ser transferida al
formulario autocompletado o informado al entrevistador al final del día (o tan pronto como sea posible).
- Finalmente, todos los datos deben recopilarse al nivel máximo de desagregación (nivel de coordenadas xy)
basado en un sistema de información geográfica (SIG).

El instrumento de la encuesta debe diseñarse para una carga mínima de encuestados (Ampt 2003), una tasa de respuesta
máxima (CASRO 1982) y, por lo tanto, la mayor solidez de los datos:

- Los diseños de autocompletado deben centrarse en el diseño general, ya que son el único contacto de los investigadores con el
encuestado. El diseño debe ser claro y conciso y, en general, debe llevar a los encuestados a la siguiente pregunta. Por lo
general, los diseños deben estar diseñados para alentar a todos los encuestados a responder, estén o no acostumbrados a
completar formularios (es decir, deben ser fáciles de usar, estar bien presentados y usar
lenguaje sencillo).
- La fortaleza de las entrevistas personales radica en la facilidad de respuesta para los participantes de la encuesta, por lo que el enfoque
debe estar en capacitar a los entrevistadores para que comprendan el contexto de la encuesta y asegurarse de que los diseños de la
encuesta sean fáciles de administrar para ellos.
Datos y espacio 79

Para cualquier tipo de encuesta de hogares, se recomienda que la encuesta se divida en dos partes: (1)
características personales y del hogar e identificación y (2) datos del viaje. Repasaremos brevemente la
información buscada en cada parte:

- Identificación y características personales y del hogar: esta parte incluye preguntas diseñadas para clasificar a
los miembros del hogar según su relación con el cabeza de familia (por ejemplo, esposa, hijo), sexo, edad,
posesión de licencia de conducir, nivel educativo y ocupación. Para reducir la posibilidad de una clasificación
subjetiva, es importante definir un conjunto completo de ocupaciones (las encuestas que no son de hogares
generalmente se preocupan solo por la persona entrevistada; sin embargo, las preguntas relevantes son las
mismas o muy similares). Esta parte también incluye preguntas diseñadas para obtener datos
socioeconómicos del hogar, tales como características de la casa, identificación del hogar
vehículos (incluyendo un código para identificar a su usuario habitual), propiedad de la vivienda e ingresos familiares. Datos del
- viaje: esta parte de la encuesta tiene como objetivo detectar y caracterizar todos los viajes realizados por los miembros del hogar
identificados en la primera parte. Un viaje ahora se define como cualquier movimiento fuera de un edificio o local con un
propósito determinado; pero la información buscada considera viajes por etapas, donde una etapa se define por un cambio de
modo (incluyendo a pie). Cada etapa se caracteriza en función de variables como el origen y el destino (normalmente expresado
por el cruce de carreteras más cercano o el código postal completo, si se conoce), el propósito, las horas de inicio y finalización,
el modo utilizado, la cantidad de dinero pagada por el viaje, etc. en. Idealmente, el análisis debería poder vincular los viajes de
una manera lógica para reconstruir los recorridos y generar Producciones y Atracciones por hogar.

Definición del marco de muestreoEl alcance de las encuestas de movilidad generalmente incluye a todos los viajeros en
un área (Figura 3.4). Así, no solo incluye a los residentes, sino también a los visitantes de los hogares, en los hoteles, otras
personas en viviendas no privadas (como hospitales) y los viajeros que transitan por la zona los días de la encuesta.

Una vez que se ha definido el alcance, se debe determinar el marco muestral. En otras palabras, qué tipo de lista proporcionará información sobre todos los residentes,

visitantes y personas que pasan por el área, para poder elegir una muestra de esas personas y viajes. Aunque hay varias opciones, el marco muestral del hogar, aunque

complejo, suele ser el más sencillo. Si se ha realizado un censo recientemente y se dispone de información sobre todas las viviendas, esto puede ser ideal. Alternativamente, se

podría utilizar una lista de bloqueo de toda la región (preparada por cualquier motivo, por ejemplo, para una empresa de servicios públicos o para una encuesta anterior), pero

una cuestión clave es que debe estar muy actualizada. Aunque los datos del censo solo están disponibles cada diez años en la mayoría de los lugares, en ciertos países, el

gobierno posee una lista de todas las viviendas registradas oficialmente para pagar impuestos sobre la propiedad y esto puede ser un punto de partida útil. Si tales listas no

están disponibles, se pueden utilizar varios otros métodos, el más típico en las naciones industrializadas son las listas telefónicas (Stopher y Metcalf 1996) complementado con

otros métodos si la propiedad telefónica o las listas no son universales. Si no se dispone de un marco 'oficial', siempre es posible simplemente muestrear bloques al azar,

enumerar los hogares en el bloque y tomar muestras al azar de estos. el más típico en los países industrializados son los listados telefónicos (Stopher y Metcalf 1996)

complementados con otros métodos si la propiedad del teléfono o los listados no son universales. Si no se dispone de un marco 'oficial', siempre es posible simplemente

muestrear bloques al azar, enumerar los hogares en el bloque y tomar muestras al azar de estos. el más típico en los países industrializados son los listados telefónicos

(Stopher y Metcalf 1996) complementados con otros métodos si la propiedad del teléfono o los listados no son universales. Si no se dispone de un marco 'oficial', siempre es

posible simplemente muestrear bloques al azar, enumerar los hogares en el bloque y tomar muestras al azar de estos.

Elegir el marco muestral para los viajes de no residentes es más complicado. Se recomienda
hacerlo de la siguiente manera:

- Obtenga una lista de todas las viviendas no privadas y seleccione una muestra (posiblemente estratificada por tamaño o por tipo de
visitante).
- Obtener una lista de intercambios de transporte público donde es probable que las personas lleguen y salgan de la región
metropolitana (por ejemplo, aeropuertos, estaciones de tren y estaciones de autobuses de larga distancia). Idealmente, esto
producirá un muestreo de viajeros en cada punto de intercepción, aunque en algunos casos será necesario muestrear sitios.
- Obtener una lista de todos los puntos de cruce de carreteras del cordón externo del área. Al igual que con los
intercambios de transporte público, lo ideal sería incluir todos los puntos de cruce, aunque en algunos casos será
necesario muestrearlos.
80 Transporte de modelado

Sin embargo, el procedimiento anterior no garantiza un marco de muestreo perfecto. Afortunadamente, con algunas excepciones claras, la
importancia de los viajes realizados por los visitantes es generalmente mucho menor que la de los residentes en cualquier área de estudio
determinada.

Tamaño de la muestraLas encuestas de viajes siempre se basan en algún tipo de muestreo. Incluso si fuera posible
encuestar a todos los viajeros en un servicio específico en un día determinado, esto sería solo una muestra de los viajeros
que realizan viajes en una semana, mes o año determinado. El desafío en el diseño de muestreo es identificar estrategias
y tamaños de muestreo que permitan conclusiones razonables y modelos confiables e imparciales, sin gastar recursos
excesivos en la recopilación de datos. A menudo hay más de una forma de obtener la información relevante. Para algunas
necesidades de datos, puede ser posible recopilar la información a través de encuestas de hogares o mediante encuestas
de intercepción. En estas situaciones, es mejor utilizar el método que entregue los datos más precisos al menor costo
(DICTUC 1998).
Existen procedimientos bien documentados para estimar el tamaño de la muestra de las encuestas de hogares de
manera que es posible satisfacer diferentes objetivos; por ejemplo, estimación de tasas de viaje y generación de viajes
por categorías, niveles de propiedad de automóviles e incluso de variables de elección de modo para diferentes estratos
de ingresos (Stopher 1982). Dadas las limitaciones presupuestarias razonables, el analista se enfrenta a la pregunta de si
es posible lograr todos estos objetivos con una muestra dada de hogares en una determinada metrópolis (ver, por
ejemplo, Purvis 1989). En general, estos métodos requieren conocimientos sobre las variables a estimar, sus coeficientes
de variación y la precisión de medición deseada junto con el nivel de significación asociado a ella.

El primer requisito, aunque obvio y fundamental, ha sido ignorado muchas veces en el pasado. La
mayoría de las encuestas O–D de hogares se han diseñado sobre la base de objetivos vagos, como
'reproducir los patrones de viaje en el área'. ¿Cuál es el significado de este? ¿Son los elementos de la
matriz O-D los que se requieren, y si este es el caso, son requeridos por propósito, modo y hora del día, o
son solo las tendencias de flujo entre grandes zonas las que son de interés?
El segundo elemento (coeficiente de variación de la variable a medir) era un desconocido en el pasado, pero ahora se
puede estimar utilizando información de la gran cantidad de encuestas de hogares O-D que se han realizado desde la
década de 1970. Finalmente, el nivel de precisión (porcentaje de error aceptable para el analista) y su nivel de confianza
son cuestiones que dependen del contexto y que el analista debe decidir sobre la base de su experiencia personal.
Cualquier muestra puede volverse demasiado grande si el nivel de precisión requerido es demasiado estricto. Se puede
decir que en este aspecto es donde radica el 'arte' de la determinación del tamaño de la muestra.
Una vez conocidos estos tres factores, el tamaño de la muestra (norte) puede calcularse utilizando la siguiente fórmula
(ME Smith 1979):

CV2Z2 α
norte= (3.16)
mi2
donde CV es el coeficiente de variación,mies el nivel de precisión (expresado como una proporción) yZαes el valor
normal estándar para el nivel de confianza (α) requerido.

Ejemplo 3.6Supongamos que queremos medir el número de viajes por hogar en un área determinada y que tenemos
datos sobre el coeficiente de variación de esta variable para varias ubicaciones en los EE. UU. de la siguiente manera:

Área CV

Promedio de EE. UU. (1969) 0.87


Pensilvania (1967) 0.86
Nuevo Hampshire (1964) 1.07
baltimore (1962) 1.05
Datos y espacio 81

Como todos los valores son cercanos a uno, podemos elegir esta cifra por conveniencia. Como se mencionó
anteriormente, la decisión sobre la precisión y el nivel de confianza es la más difícil; La ecuación (3.16) muestra que si
postulamos niveles demasiado estrictos, el tamaño de la muestra aumenta exponencialmente. Por otro lado, es
conveniente fijar niveles estrictos en este caso porque el número de viajes por hogar es una variable crucial (es decir, si
este número es muy erróneo, la precisión de los modelos posteriores se verá gravemente comprometida). En este
ejemplo, solicitamos un nivel de precisión de 0,05 a un nivel del 95 %.
Paraα= 95% el valor deZαes 1.645, por lo tanto obtenemos:

norte=1.0(1.645)2/(0.05)2= 1084
es decir, bastaría con tomar una muestra de aproximadamente 1100 observaciones para asegurar tasas de disparo con una
tolerancia del 5% el 95% del tiempo. El lector interesado puede consultar a ME Smith (1979) para conocer otros ejemplos de este
enfoque.
La situación cambia, sin embargo, si es necesario estimar matrices origen-destino (O-D). Por ejemplo, ME
Smith (1979) argumenta que se necesitaría un tamaño de muestra del 4% de todos los viajes en un área de
estudio determinada para estimar niveles superiores a 1100 viajes entre pares O-D al 90% de nivel de confianza
con un error estándar de 25%. Esto significa efectivamente que si hay menos de 1100 viajes entre dos zonas, un
tamaño de muestra de menos del 4% no sería suficiente para detectarlos.

Ejemplo 3.7Los viajes por celda O–D en Santiago, a nivel de municipio (por ejemplo, solo 34 zonas), se analizaron
utilizando datos de la Encuesta de Hogares de 1991 (Ortúzary otros. 1993). Se observó que solo el 58% de las
celdas O-D contenían más de 1000 viajes. Así, parecería necesario postular un tamaño de muestra del 4% de los
viajes (y por deducción, del 4% de los hogares) para estimar una matriz O-D a nivel de municipio con un error
estándar del 25% y límites de confianza del 90%. Sin embargo, si se considera el efecto de las tasas de respuesta
(incluso si llegaran al 75%), dado que había alrededor de 1 400 000 hogares en la ciudad, esto implicaría un
tamaño de muestra inicial de casi 75 000 hogares. Es dudoso que un tamaño de muestra tan grande (y los costos
y niveles de efectividad asociados) estén justificados para lograr un objetivo tan exiguo.

Claramente, la fuerza impulsora detrás de muestras de gran tamaño es la necesidad de obtener matrices de viaje a
nivel de zona. También se ha demostrado que es muy difícil reducir el error de medición a un nivel aceptable en áreas con
más de, digamos, 100 zonas, ya que el tamaño de muestra requerido es cercano al de la población (ME Smith 1979). Por
lo tanto, si el objetivo del estudio incluye estimar una matriz O-D, es necesario utilizar una combinación de métodos de
encuesta, incluidas las encuestas de hogares y de intercepción, para aprovechar sus mayores eficiencias para diferentes
objetivos de datos.

Estrategias de optimización para el diseño de muestrasPara lograr un diseño de muestreo que produzca un tamaño
de muestra más pequeño, es necesario idear estrategias que estimen, por ejemplo, las tasas de generación de viajes por
nivel socioeconómico. Un enfoque es utilizar una heurística de muestreo aleatorio estratificado de etapas múltiples que
produce mejores resultados que el método clásico ideado por ME Smith (1979); lamentablemente requiere mucho
esfuerzo por parte del analista y no garantiza una solución única (DICTUC 1998). La heurística comienza ordenando las
clases sociodemográficas según el grado de representación en la población. A continuación, a las zonas en el área de
estudio se les asigna una clase basada en el grupo socioeconómico que ocurre con mayor frecuencia en ellas. Luego se
selecciona una muestra aleatoria de zonas de cada tipo socioeconómico (es decir, del orden del 1% de todos los hogares).
Posteriormente, las zonas restantes se categorizan en orden de prioridad y se eligen según sea necesario para alcanzar la
diferencia entre la muestra ya seleccionada y el mínimo requerido para cada nueva clase. El procedimiento se repite
hasta que todas las clases tengan el tamaño de muestra mínimo requerido (por ejemplo, 30 o 50 observaciones).

Este procedimiento se aplicó en Santiago para el sistema de 264 zonas definido en la encuesta O–D de 1991 (Ortúzar
et. Alabama. 1993) y para una estratificación de 14 clases en función de los ingresos y la propiedad de automóviles. La
solución final lograda fue un tamaño de muestra de 1312 hogares ubicados en solo 15 zonas, lo que garantizaba
82 Transporte de modelado

un mínimo de 30 observaciones por clase. Sin embargo, en ciertas zonas, especialmente aquellas que contienen personas
de altos ingresos, la solución implicó tamaños de muestra poco razonables (es decir, alrededor del 20% de la población
zonal). Se encontró una mejor solución resolviendo el siguiente problema de optimización (Ampt y Ortúzar 2004):

Minimizar
∑ ∑
αjηyo
i∈{clases} j∈{zonas}

sujeto a

0≤αj≤d

αjηyo≥mi
j∈{zonas}

dóndeαjes la proporción de hogares a entrevistar en la zonajydun límite razonable (por ejemplo, un máximo del
5 %),ηyoes el número de hogares de claseien la zonaj, ymies el tamaño de muestra mínimo aceptable para cada
clasei(es decir, 30 o 50 observaciones).
Con la misma información que en el caso anterior, se encontró que el problema se podía resolver de manera óptima y
se obtenía una muestra de solo 482 hogares. Más interesante aún, para una estratificación con 26 clases (es decir,
agregando el tamaño del hogar como variable estratificadora), se encontró que sería posible un tamaño de muestra
óptimo de 1372 hogares, garantizando un mínimo de 30 observaciones en cada una de las clases especificadas, mediante
la recopilación de datos. en sólo 17 de las 264 zonas.
Sin embargo, como no se impuso ningún límite parad, algunos valores deαjvolvían a estar cerca del 20% de la
población de la zona. Entonces, aplicando la restricción dedsiendo menor al 5%, finalmente se obtuvo una muestra de
1683 hogares en solo 27 zonas. Tenga en cuenta que el método permite segmentaciones que no sean por criterios
socioeconómicos. Por ejemplo, también es posible identificar diferencias espaciales en términos de área física (es decir,
distancia al CDB) o acceso a la red de transporte público, y aumentar el número de clases consideradas para la
optimización (Ortúzaret al.1998).
Finalmente, recuerde que el diseño también se puede mejorar al permitir diferentes tasas de respuesta entre
diferentes grupos. En principio, es posible estimar el número de hogares necesarios en una muestra bruta (mi)
para lograr un número mínimo dado de respuestas para cada clase, asegurando así un diseño que producirá
datos de generación de viajes de mayor calidad.

Tamaño de la muestra para una encuesta continuaUn último desafío consiste en diseñar una estrategia de muestreo
para una encuesta continua. Si se requiere una muestra de, digamos, 15 000 hogares en el año 1 para cumplir con los
requisitos iniciales de modelado de un área metropolitana, una encuesta en curso probablemente tendría la siguiente
forma o algo similar:

Año 1 Año 2 año 3 año 4 Año 5


15 000 5000 5000 5000 5000

Este método requiere una entrada continua más pequeña después del primer año, lo que ofrece varias ventajas:

- Una fuerza de campo más pequeña y bien capacitada y procedimientos administrativos que probablemente garanticen un alto nivel de
datos de calidad con un esfuerzo mínimo en los años siguientes.
- Las autoridades correspondientes hacen un compromiso financiero por cuatro años en el año 1, lo que reduce el riesgo de dificultades por
la repetición de la financiación, por ejemplo, en el año 4.
Datos y espacio 83

Pero sí requiere el desarrollo de un sistema anual de ponderación e integración para garantizar que los datos se puedan
usar fácilmente para el modelado, y este sistema debe ser sólido y fácil de usar. Necesitamos asegurarnos de quetodolos
datos al final del año 2 son representativos del año 2, quetodolos datos al final del año 3 son representativos de ese año,
y así sucesivamente. Dicho procedimiento proporciona una representación actualizada del comportamiento de viaje
existente para el modelado y otros fines. En las ciudades en desarrollo (es decir, donde se producen cambios rápidos en
la propiedad de automóviles, la distribución y distribución del uso del suelo), esto significaría una capacidad de modelado
más precisa que nunca antes. También proporcionaría un tamaño de muestra más grande para usar en el segundo año y
en los siguientes, lo que permitiría hacer preguntas más detalladas sobre los datos en ellos. Además, si se supone que los
datos se utilizarán para otros fines además del modelado, el método de recopilación de datos anual proporcionará datos
de series temporales esenciales. Aquí hay unos ejemplos:

- Cambios en los patrones de viaje (por modo) relacionados con cambios en los niveles de propiedad y distribución de automóviles, niveles de
contaminación o patrones de uso de la tierra.
- Cambios en la elección del modo relacionados con cambios en los patrones de suministro, por ejemplo, mejoras para los
peatones, expansión de la red de transporte público.

La forma en que los datos del segundo año y los siguientes deben integrarse y combinarse con los datos del
primer año tiene que ocurrir en cuatro niveles: hogar, vehículo, persona y viaje. En este sentido es importante
tener en cuenta tres cosas:

- Selección cuidadosa de la muestra y altas tasas de respuesta para asegurar que los 15 000 hogares en el año 1 sean
representativos de la ciudad; entonces los procedimientos de ponderación y expansión deben aplicarse como
descrito abajo.
- Asegúrese de que los 5000 hogares en el año 2 sean representativos de la ciudad (es decir, espacialmente y en todos los demás
parámetros utilizados para el primer año de la selección de la muestra); de nuevo, los procedimientos de ponderación deben
se aplicado.
- Al final del año 2, la base de datos constará de 20 000 hogares, pero solo contendrá los datos brutos y
los factores de ponderación.

En ciudades de tamaño más pequeño, o en áreas donde hay poco cambio en tamaño y estructura, puede que no sea
necesario tener una estrategia de muestreo tan complicada, pero aún depende de los usos de los datos. Por ejemplo,
podría ser apropiada una muestra igual para cada uno de los años en un período de cinco años.

3.3.2.3 Otros tipos importantes de encuestas

Entrevistas en la carreteraEstos proporcionan información útil sobre los viajes no registrados en las encuestas de hogares (por
ejemplo, viajes externo-externo en una encuesta de cordón). A menudo son un mejor método para estimar las matrices de viaje que
las entrevistas en el hogar, ya que son posibles muestras más grandes. Por esta razón, los datos recopilados también son útiles
para validar y ampliar la información basada en los hogares.
Las entrevistas en carretera implican preguntar a una muestra de conductores y pasajeros de vehículos (por ejemplo, automóviles,
transporte público, vehículos de mercancías) que cruzan una estación de carretera, un conjunto limitado de preguntas; estos incluyen al menos
origen, destino y motivo del viaje. Otra información como la edad, el sexo y los ingresos también es deseable, pero rara vez se solicita debido a
las limitaciones de tiempo; sin embargo, los entrevistadores bien capacitados pueden agregar fácilmente al menos parte de estos datos a partir
de la simple observación del vehículo y los ocupantes (con dificultades obvias en el caso del transporte público).

La realización de estas entrevistas requiere una gran cantidad de organización y planificación para evitar demoras
innecesarias, garantizar la seguridad y brindar resultados de calidad. La identificación de sitios adecuados, la
coordinación con la policía y los arreglos para la iluminación y la supervisión son elementos importantes para el éxito de
estas encuestas. Nos concentraremos aquí en cuestiones de tamaño de muestra y precisión.
84 Transporte de modelado

Ejemplo 3.8Supongamos un punto de control dondenortelos coches se cruzan y queremos tomar una muestra denorte
vehículos a encuestar. Supongamos también que de estosnorte,X1los automóviles viajan entre el par origen-destino O-D1.
En este caso se puede demostrar queX1tiene una distribución hipergeométricaH(norte,norte1,norte), dóndenorte1es el
número total de viajeros entre el par O–D1, y que su valor esperado y varianza están dados por:

mi(X1) =notario públicoconpag=norte1/NEVADA(

X1) =notario público(1 -pag)(1 -n/n)

Usando una aproximación Normal (basada en el teorema del Límite Central) la distribución deX1es:

X1∼norte(np, np(1 -pag)(1 -n/n))

y un estimador depages:

X1
pag=
norte

Por lo tanto

( )
pag(1 -pag)(1 -n/n)
pag∼n p,
norte

y un aproximado de 100(1 −α)% intervalo de confianza parapages dado por:

[√ √ ]
pag(1 -pag)(1 -n/n) pag(1 -pag)(1 -n/n)
pag−z , pag+z
norte norte

dóndezes el valor normal estándar para el nivel de confianza requerido (1,96 para el nivel del 95 %).
Normalmente requerimos que el error absolutomiasociado conpagno excede un valor preestablecido
(generalmente 0.1), es decir:


pag(1 -pag)(1 -n/n)
mi=z ≤mi
norte

Trabajando algebraicamente esta expresión obtenemos:

pag(1 -pag)(1 -n/n)


norte≥
(e/z)2

o equivalente:

pag(1 -pag)
norte≥ (3.17)
(e/z)2+pag(1 -pag)/NORTE

Se puede ver que, para un determinadoN, miyz, el valorpag=0.5 produce el valor más alto (es decir, el más
conservador) paranorteen (3.17). Tomando este valor y considerandomi=0,1 (es decir, un error máximo del 10 %) y zigual
a 1.96, obtenemos los valores de la Tabla 3.1.
Datos y espacio 85

Tabla 3.1Variación del tamaño de la muestra con el flujo observado

norte(pasajeros/período) norte(pasajeros/período) 100norte/norte(%)

100 49 49.0
200 sesenta y cinco 32.5
300 73 24.3
500 81 16.2
700 85 12.1
900 87 9.7
1100 89 8.1

Ejemplo 3.9Un examen de los datos históricos durante el trabajo preparatorio para una entrevista en la carretera reveló
que los flujos a través de la estación de medición variaron mucho a lo largo del día. Ante esto, se consideró demasiado
complejo tratar de implementar la estrategia de la Tabla 3.1 en el campo. Por lo tanto, se desarrolló la siguiente tabla
simplificada:

Flujo observado estimado


(pasajeros/período) Tamaño de la muestra (%)

900 o más 10.0 (1 en 10)


700 a 899 12,5 (1 en 8)
500 a 699 16,6 (1 en 6)
300 a 499 25,0 (1 en 4)
200 a 299 33,3 (1 en 3)
1 a 199 50,0 (1 en 2)

El procedimiento de trabajo de campo requiere detener al azar el número correspondiente de vehículos, entrevistar a
todos sus pasajeros y preguntar origen, destino y motivo del viaje. En el caso de viajes en transporte público, dadas las
dificultades prácticas asociadas con la detención de los vehículos durante el tiempo necesario para entrevistar a todos los
pasajeros, la encuesta puede realizarse con los vehículos en movimiento. Para ello es necesario definir tramos de
carretera en lugar de estaciones y el número de entrevistadores a utilizar depende de los factores de ocupación vehicular
observados en el tramo. Sin embargo, incluso este enfoque puede resultar inviable si los vehículos están sobrecargados.

Encuestas de cordónEstos proporcionan información útil sobre viajes externo-externo y externo-interno. Su objetivo es
determinar el número de viajes que ingresan, salen y/o atraviesan el área acordonada, contribuyendo así a completar la
información proveniente de la encuesta O–D de hogares. El principal se realiza en el cordón externo, aunque también se
pueden realizar estudios en los cordones internos. Para reducir las demoras, a veces implican detener una muestra de los
vehículos que pasan por una estación de control (generalmente con ayuda de la policía), a los que se les entrega un breve
cuestionario de devolución por correo. En algunos estudios holandeses se registra una muestra de matrículas en la
estación de control y los cuestionarios se envían a las direcciones correspondientes almacenadas en el ordenador de
Rentas e Impuestos Especiales. Un problema importante aquí es que se sabe que las encuestas de respuesta por correo
producen resultados sesgados: esto se debe a que se suele devolver menos del 50% de los cuestionarios y se ha
demostrado que el tipo de persona que los devuelve es diferente del que no (ver Brög y Meyburg 1980). Esta es la razón
por la cual, en muchos países, las encuestas en carretera a menudo hacen un número bastante limitado de preguntas (es
decir, ocupación, propósito, origen, destino y modos disponibles) para alentar mejores tasas de respuesta.
86

Figura 3.5Comprobación de la coherencia de los datos de la encuesta de hogares

Encuestas de línea de pantallaLas líneas de pantalla dividen el área en grandes zonas naturales (por ejemplo, a ambos
lados de un río o una autopista), con pocos puntos de cruce entre ellas. El procedimiento es análogo al de las encuestas
de cordón y los datos también sirven para llenar vacíos y validar (ver Figura 3.5) la información proveniente de las
encuestas de hogares y de cordón. Se debe tener cuidado al tratar de corregir los datos de la encuesta de hogares de
esta manera, porque podría no ser fácil realizar la comparación sin introducir sesgos.

3.3.3 Corrección, Ampliación y Validación de los Datos de la Encuesta

La corrección y la ponderación son esenciales en cualquier encuesta sobre viajes (Stopher y Jones 2003); Las siguientes secciones
analizan un enfoque que se considera apropiado para las encuestas contemporáneas descritas anteriormente, que se llevan a cabo
durante un período de varios años.

3.3.3.1 Corrección de datos

La necesidad de corregir los datos de las encuestas para lograr resultados que no solo sean representativos de
toda la población, sino también confiables y válidos, se ha discutido extensamente (Brög y Erl 1982; Wermuth
1981). Ahora se acepta que la simple ampliación de la muestra no es adecuada, aunque durante muchos años
fue el método más practicado. Brög y Ampt (1982) identifican una serie de pasos de corrección de la siguiente
manera.

Correcciones por tamaño del hogar y características sociodemográficasPara hacer correcciones que
garanticen que el tamaño del hogar, la edad y el sexo, el tipo de vivienda y las distribuciones de propiedad de
vehículos de los datos muestreados representan eso en la población (basado en datos del Censo), se necesita un
enfoque iterativo, ya que los métodos más simples no garantizan resultados (ver la discusión de Devilley otros.
1993). El ajuste multi-proporcional (ver secciones 5.2.3 y 5.6.2), también conocido como 'ratio de
clasificación' (Armoogum y Madre 1998), es probablemente el mejor enfoque en este caso, ya que garantiza la
convergencia en pocas iteraciones. Además, su aplicación tiene la ventaja adicional de no requerir el cálculo
posterior de factores de expansión. Stopher y Stecher (1993) dan un ejemplo casi pedagógico de este enfoque.
El método es particularmente válido si los datos de la población secundaria se recopilaron cerca del momento
de la encuesta de viajes. Sin embargo, puede que no sea apropiado si la encuesta de viajes se realiza varios años
después del censo, ya que la población urbana puede cambiar con bastante rapidez, especialmente en los países
menos desarrollados. En este caso sería necesario calcular proporciones de hogares en cada grupo y computar
factores de expansión en la forma más tradicional (Ortúzaret al.1993; richardsonet al.1995).
Datos y espacio 87

El método multiproporcional no garantiza que cada valor de celda sea idéntico en el Censo y en la encuesta de viajes
ya que en cualquier matriz existe un grado importante de indeterminación (es decir, muchas combinaciones de valores
de celda pueden dar lugar a los mismos totales de filas). y columnas). En particular, debido a sus características
multiplicativas, una celda con un cero siempre terminará con un valor cero. Además, ciertas estructuras de matrices
especiales (que contienen ceros en algunas posiciones clave) pueden conducir a la falta de convergencia del método
(consulte la sección 5.6.1 para ver un ejemplo).
Para evitar sesgos en la corrección multiproporcional, porque estamos corrigiendo por elementos tan
diversos como, por ejemplo, el tamaño del hogar (número de personas) por un lado, y las características
personales (sexo y edad) por el otro, es mejor definir categorías únicas, evitando así clases que consideren, por
ejemplo, de dos a cuatro personas, seis o más personas, etc. Sin embargo, es fácil imaginar ocasiones en las que
sería necesario agrupar alguna categoría por no estar representada en el muestra para una zona determinada.
En ese caso, conviene comprobar si es posible agrupar zonas similares en lugar de hacer la corrección a un nivel
tan desagregado (Stopher y Stecher 1993).

Correcciones Adicionales en Encuestas de HogaresAdemás de las correcciones por tamaño del hogar, propiedad de
vehículos y datos sociodemográficos, son necesarios otros dos procedimientos de corrección, dependiendo de si se trata
de una entrevista personal o una encuesta de autocompletado (Richardsonet al.1995). Estos procedimientos se indican a
continuación:

Correcciones por datos no reportadosEstos son necesarios cuando ciertos elementos de la encuesta no han sido
respondidos (no respuesta del ítem). En las encuestas de autocompletado, entrevistar a una muestra de validación de
personas mediante entrevistas personales y luego ponderar los datos en consecuencia (Richardsonet al.1995) se utiliza
para abordar esto. Este tipo de corrección generalmente no es necesario cuando se utilizan entrevistas personales
porque los entrevistadores deben estar bien capacitados y supervisados, lo que disminuye la incidencia de falta de
respuesta (pero vea la discusión en Stopher y Jones 2003).

Correcciones por falta de respuestaEstos son necesarios cuando un hogar o individuo no responde, es decir, no
devuelve el instrumento de la encuesta o se niega verbalmente o por correo a responder a la encuesta (Zimowski
et al.1998). Esto se puede atribuir a una variedad de causas, y es importante diferenciar entre la pérdida genuina
de la muestra (por ejemplo, las viviendas desocupadas que no generan viajes no deberían ser elegibles) y los
rechazos (donde la persona podría estar viajando pero no responde, claramente elegible) . En el caso de las
entrevistas personales, se ha recomendado que las correcciones se basen en el número de visitas necesarias
para lograr una respuesta, ya que se ha demostrado que esto se asocia con fuertes diferencias en el
comportamiento de viaje (Kam y Morris 1999; Keeteret al.2000); sin embargo, también hay evidencia que sugiere
que estas diferencias pueden ser pequeñas (Kurthet al.2001).
En las encuestas de autocompletado, por otro lado, originalmente se creía que las correcciones se podían hacer con
base en la cantidad de recordatorios de seguimiento necesarios para generar una respuesta en el hogar (Richardsonet al.
1995), pero es probable que el problema sea más complejo que el de las entrevistas personales (véanse las discusiones
de Polak 2002 y Richardson y Meyburg 2003). Relacionado con esto, es interesante mencionar que se han reportado
reducciones en el sesgo de no respuesta debido a la representación inadecuada de ciertos estratos de la población (es
decir, por ingreso) usando técnicas especiales de factoraje que toman en cuenta las diferencias en las tasas de retorno
por diferentes tipos de hogares por zonas (Kimet al.1993).
Un último punto relacionado es cómo decidir cuándo se considera completa la respuesta de un hogar. La Encuesta
Nacional de Viajes de EE. UU. utiliza la regla del 'cincuenta por ciento' (al menos el 50 % de los adultos mayores de 18
años completaron la encuesta), después de los argumentos de que excluir los hogares donde no todos respondieron
puede exagerar el sesgo, y los datos se ponderan para mitigar el falta de respuesta a nivel de persona en los hogares
muestreados. La investigación sobre este tema permitió detectar los tipos de hogares más probables y los no
encuestados más probables (DRCOG 2000). Curiosamente, se ha encontrado que las tasas de viajes de la muestra que
incluye el 50% de los hogares no son estadísticamente diferentes a una muestra que incluye solo hogares con el 100% de
los miembros respondiendo (ver Ampt y Ortúzar 2004).
88 Transporte de modelado

Ponderación de integración para una encuesta continuaSe requiere una ponderación de integración para unir cada
ola de la encuesta; en este caso se recomienda proceder de la siguiente manera (Ampt y Ortúzar 2004):

- Ponderación del hogardebe ocurrir para cada variable 'importante' (según lo elegido en la consulta previa), para
- Peso del vehículodebe hacerse de la misma manera. Una variable de particular importancia aquí es la edad
por ejemplo, el tamaño del hogar, la propiedad de un automóvil o los ingresos del hogar.

del vehículo, ya que sin una correcta ponderación parecería que la flota no envejece. Ponderación de personas.En
- este caso, es probable que los factores de importancia sean los ingresos y la educación, por ejemplo.
- Ponderación de viajes.Es probable que el número de viajes y el modo sean las variables clave en este caso, todo hecho de
acuerdo con los mismos principios generales descritos anteriormente.

De esta forma los datos serán representativos de la población en todos los años de la encuesta. Por supuesto, esto no es perfecto,
pero con un buen esquema de muestreo debería ser muy sólido. Por ejemplo, en el año 2 la muestra reflejará cambios reales en el
tamaño del hogar (por ejemplo) que puedan estar ocurriendo. Por lo tanto, si uno quisiera usar los años 1 y 2 para reflejar la
situación en el año 2 (que es exactamente lo que le gustaría hacer a una agencia gubernamental), sería necesario ponderar el
conjunto de datos del año 1 para tener el tamaño adecuado del hogar que es realmente observado en el año 2. Claramente, si un
año determinado coincide con un año del Censo, el proceso de ponderación puede adquirir un significado completamente nuevo,
aunque es probable que esto ocurra solo una vez por década.

Ejemplo 3.10La Tabla 3.2 presenta el número de muestras recopiladas en los primeros tres años de una
encuesta continua, estratificadas según el tamaño del hogar. Si consideramos los hogares de tamaño 1 digamos,
podemos ver que constituyen el 13,33% de la muestra en el año 1 (es decir, 2000/15 000) el 17% de la muestra
del año 2, y si se suma sin reponderar el 14,25% de la muestra para ambos años. Sin embargo, esto sería similar
a la mezcla proverbial de manzanas y peras.

Tabla 3.2Procedimientos de ponderación para la integración

Valores ponderados para los años 1 y 2


Tamaño del hogar

1 2 3 4 5 Total
Año 1 2000 13,33% 3000 20,00% 4000 26,67% 5000 33,33% 1000 6,67% 15 000
Año 2 850 17,00% 1200 24,00% 1000 20,00% 1500 30,00% 450 9,00% 5 000
Total 2850 14,25% 4200 21,00% 5000 25,00% 6500 32,50% 1450 7,25% 20 000
Valores de reponderación para el año 1

1 2 3 4 5
Año 1 17.00/13.33 1.275 1.200 0.750 0.900 1.350
Procedimiento de reponderación

1 2 3 4 5
Año 1 2550 3600 3000 4500 1350 15 000
Año 2 850 1200 1000 1500 450 5 000
Total 3400 17% 4800 24% 4000 20% 6000 30% 1805 9% 20 000

Para integrar los datos correctamente, primero debemos calcular los pesos (apropiados) para el año 1 para garantizar
que ambos conjuntos tengan las mismas proporciones que las medidas en el último año (basado en el supuesto de que la
nueva muestra extraída cada año representa las características de ese año). población). Estos pesos se calculan en la
siguiente parte del cuadro y son iguales a la relación entre los porcentajes (para cada estrato) de los años 2 y 1 (es decir,
24/20 = 1,2 en el caso de hogares de tamaño 2). La parte final de la tabla muestra el resultado de sumar los datos
ponderados del año 1 a los datos del año 2, para lograr una muestra final de 20 000 hogares que tiene la misma
distribución según el tamaño del hogar que ocurre en el año 2.
Datos y espacio 89

3.3.3.2 Métodos de imputación

La falta de respuesta de la encuesta hace que la identificación de los parámetros de la población sea problemática y, normalmente,
la identificación de los datos de la falta de respuesta solo es posible si se hacen ciertas suposiciones (con frecuencia no
comprobables) sobre la distribución de los datos faltantes. Sin embargo, la falta de respuesta no impide necesariamente la
identificación de los límites de los parámetros. Hay varios métodos de imputación en el estado de la práctica que van desde la
imputación deductiva, al uso de medias generales o de clase, a la imputación de plataforma fría y caliente, etc. (Armoogum y Madre
1998). De hecho, las organizaciones que realizan encuestas importantes generalmente publican archivos de datos que
proporcionan ponderaciones o imputaciones de falta de respuesta que se utilizarán para estimar los parámetros de la población.
Stopher y Jones (2003) recomiendan distinguir entre imputación e inferencia. Este último puede usarse inicialmente y es
particularmente útil para ciertos tipos de variables (por ejemplo, si una persona no indica que es un trabajador pero informa viajes
al trabajo). Sin embargo, hay algunas variables que pueden no ser seguras de inferir debido, por ejemplo, a estructuras sociales
cambiantes.
La imputación se define como la sustitución de valores por datos faltantes, con base en ciertas reglas o
procedimientos. Sin embargo, vale la pena señalar que la mayoría de los métodos de imputación no
conservan la varianza de la variable de imputación (por ejemplo, los ingresos) y, por lo tanto, pueden
producir estimaciones inconsistentes cuando la variable que contiene las imputaciones se incluye en un
modelo. Por esta razón, algunos investigadores incluso creen que imputar valores aumenta el sesgo en
algunos casos y simplemente se traduce en datos improvisados. Por lo tanto, se recomienda registrar los
cambios producidos al imputar los valores y, si es posible, evaluar sus efectos. Horowitz y Manski (1998)
muestran cómo vincular el sesgo asintótico de las estimaciones utilizando ponderaciones e imputaciones
típicas.
Otro enfoque para resolver este y otros problemas consiste en realizar imputaciones múltiples y luego
combinar los estimadores de los modelos resultantes en cada caso para obtener valores consistentes que
incluyan una consideración de los errores asociados al proceso de imputación (Brownstone 1998).
En la Encuesta OD Santiago 2001 (DICTUC 2003), 543 hogares de 15 537 no respondieron la pregunta de
ingreso familiar. Debido a la fuerte asimetría de la distribución del ingreso se utilizó una transformación
logarítmica de los datos que nos permitió centrar la distribución y lograr una mayor semejanza con una
distribución Normal. Se produjeron con éxito imputaciones múltiples utilizando un modelo lineal basado en la
distribución t de Student con cinco grados de libertad (Langeet al.1989), estimado utilizando el muestreo de
Gibbs (Geman y Geman 1984). Se detectaron valores atípicos y se eliminaron del proceso de estimación; Al final
resultó que, se descubrió que estaban codificados incorrectamente, lo que significa que el proceso tenía la
ventaja secundaria de permitir más controles sobre la calidad de los datos.

3.3.3.3 Expansión de muestra

Una vez corregidos los datos es necesario ampliarlos para representar la población total; para lograr esto se definen
factores de expansión para cada zona de estudio como la relación entre el número total de direcciones en la zona (A) y el
número obtenido como muestra final. Sin embargo, a menudo los datos sobreAestán desactualizados, lo que genera
problemas en el campo. La siguiente expresión es bastante general en este sentido:

A−A(C+CD/B)/B
Fi=
B−C−D
dóndeFies el factor de expansión para la zonai,Aes el número total de direcciones en la lista de población
original,Bes el número total de direcciones seleccionadas como muestra original,Ces el número de direcciones
muestreadas que no eran elegibles en la práctica (por ejemplo, demolidas, no residenciales), yDes el número de
direcciones muestreadas donde no se obtuvo respuesta. Como puede verse, siAera perfecto (es decirC=0) el
factor sería simplementeA/(B−D) como se define anteriormente. Por otro lado, siD=0 se puede ver que la fórmula
se encarga de restar deAla proporción de casos no elegibles, a fin de evitar un sesgo enFi.
90 Transporte de modelado

3.3.3.4 Validación de resultados

Los datos obtenidos de las encuestas O–D normalmente se someten a tres procesos de validación. El primero
simplemente considera verificaciones in situ de la integridad y coherencia de los datos; esto suele ir seguido de su
codificación y digitalización en la oficina. El segundo es una verificación computacional de rangos válidos para la mayoría
de las variables y, en general, de la consistencia interna de los datos. Una vez que se completan estos procesos, se
supone que los datos están libres de errores obvios.
En los estudios de movilidad, la validación más importante se realiza dentro de los datos de la encuesta en sí y no con datos
secundarios, como conteos de tráfico en líneas de pantalla y cordones en el área de estudio. La razón es que cada método tiene sus
propios sesgos particulares que confunden esta tarea. Por ejemplo, las comparaciones brutas, como el número de viajes que
cruzan un cordón o el número de viajes por modo, a menudo dan comparaciones relativamente malas.
Si bien las técnicas de encuestas más modernas minimizan estos problemas, aún se recomienda el uso de
datos independientes para verificar las cifras de todos los componentes de una encuesta de viajes O-D
metropolitana (consulte la discusión en Stopher y Jones 2003). Las comparaciones objetivas de estas cifras,
teniendo en cuenta las fortalezas y debilidades de cada método de encuesta, permiten detectar posibles sesgos y
tomar medidas para corregirlos. Además, si se van a ajustar matrices (ver apartado 12.4.7), es fundamental
reservar datos independientes para validar los resultados finales. Esto requiere buen juicio y experiencia, ya que
si no se le da suficiente cuidado a la tarea es fácil producir correcciones a las matrices O-D que no se
corresponden con la realidad.

3.3.4 Recopilación de datos longitudinales

La mayor parte de la discusión hasta ahora se ha llevado a cabo bajo la suposición implícita de que estamos tratando con datos
transversales (instantáneas). Sin embargo, como vimos en el Capítulo 1, los investigadores del comportamiento de viaje están cada
vez más convencidos de que los modelos transversales empíricos han sufrido por la falta de reconocimiento de la
intertemporalidad de la mayoría de las opciones de viaje. Los datos de panel son una buena alternativa para incorporar efectos
temporales porque en esta estructura de datos se entrevista a un grupo determinado de individuos en diferentes momentos.

En esta parte intentaremos proporcionar un breve esbozo de los métodos y problemas de recolección de datos
longitudinales o de series de tiempo; primero definiremos varios enfoques y luego nos concentraremos en el
aparentemente preferido: datos de panel. En el Capítulo 8 consideraremos los problemas adicionales de modelar
elecciones discretas en este caso.
Finalmente, examinaremos algunas pruebas sobre los costos probables de un ejercicio de recopilación de datos de
panel en comparación con el enfoque transversal más típico.

3.3.4.1 Definiciones básicas

1. Encuesta transversal repetida. Este es uno que realiza mediciones similares en muestras de una población
equivalente en diferentes puntos en el tiempo, sin garantizar que cualquier encuestado esté incluido en más
de una ronda de recopilación de datos. Este tipo de encuesta proporciona una serie de instantáneas de la
población en varios momentos; sin embargo, las inferencias sobre la población utilizando modelos
longitudinales pueden estar sesgadas con este tipo de datos y puede ser preferible tratar las observaciones
como si se hubieran obtenido de una sola encuesta transversal (ver Duncany otros. 1987).
2. Panel de encuesta. Aquí, medidas similares (es decir, el panelondas), se hacen en la misma muestra en d-
diferentes puntos en el tiempo. Hay varios tipos de encuestas de panel, por ejemplo:
Encuesta de panel rotatorio. Esta es una encuesta de panel en la que algunos elementos se mantienen en el panel solo durante una
parte de la duración de la encuesta.
- Encuesta de panel dividido. Esta es una combinación de encuesta de panel y de panel rotativo.
Datos y espacio 91

- Estudio de cohortes. Esta es una encuesta de panel basada en elementos de subgrupos de población que han compartido una
experiencia similar (por ejemplo, nacimiento durante un año determinado).

Aunque el uso de datos de panel se ha incrementado en muchas áreas, especialmente desde el trabajo
pionero de Heckman (1981), en el transporte existen pocos ejemplos, que se pueden clasificar en
dos grupos:
- Paneles de encuesta largos. Estos consisten en repetir la misma encuesta (es decir, con la misma metodología y
diseño) en momentos 'separados', por ejemplo, una o dos veces al año durante un cierto número de años o antes y
después de un evento importante. Algunos ejemplos famosos son el Panel Holandés (Van Wissen y Meurs 1989) y
el Panel de Transporte de Puget Sound (PSTP) en los Estados Unidos (Murakami y Watterson 1990). El principal
problema de este tipo de panel es el desgaste (es decir, la pérdida de encuestados) entre levantamientos sucesivos
(conocidos como olas).
- Paneles de encuestas breves: son datos de varios días en los que se recopilan mediciones repetidas en la misma muestra de
unidades durante un período de tiempo 'continuo' (por ejemplo, dos o más días sucesivos), pero la encuesta no se repite
necesariamente en años posteriores. Algunos ejemplos recientes de este tipo de panel son el diario de uso del tiempo de
dos días para el Estudio del Panel Nacional de Dinámica de Ingresos de EE. UU. y los paneles de datos de diarios de viajes y
actividades de seis semanas recopilados en Alemania (Axhauseny otros. 2002) y Suiza (Axhauseny otros. 2007). En este caso,
la deserción no es un problema, pero los cambios poco frecuentes en la elección del modo y la baja variabilidad de los datos
(tanto los atributos de cada modo como las características socioeconómicas de los encuestados son prácticamente fijos), ya
que esto puede causar dificultades en la estimación de modelos, como se discutió. por Cherchi y Ortúzar (2008b).

Si se planifica una intervención sustantiva para un sistema, los paneles tienen ventajas aún más significativas para
evaluar los cambios (Kitamura 1990a). De hecho, Van Wissen y Meurs (1989), basándose en el Puget Sound Panel,
describieron cómo los efectos de las políticas podrían cambiar las tendencias; además, es más fácil capturar estos
cambios utilizando observaciones de los mismos individuos, ya que parte de su comportamiento actual puede explicarse
por experiencias previas. Aunque las ventajas de los paneles parecen claras, hay muy pocos paneles creados en torno a
un cambio sustancial del sistema que permitiría modelar cambios en la elección del modo; excepciones notables son el
estudio de antes y después desarrollado en Amsterdam en torno a una extensión de su sistema de autopistas urbanas
(Kroesy otros. 1996) y elPanel Santiago(Yáñezet al.2009a) construido en torno a la introducción de Transantiago, un
cambio radical en el sistema de transporte público de Santiago de Chile (Muñoz y otros. 2009).

Es importante distinguir entre encuesta longitudinal y datos de panel. Los primeros consisten en mediciones
periódicas de determinadas variables de interés. Finalmente, aunque en principio es posible obtener datos de panel de
una encuesta transversal, las consideraciones de medición abogan por el uso de un diseño de encuesta de panel en lugar
de preguntas retrospectivas para obtener datos de panel confiables.

3.3.4.2 Muestreo representativo


Los diseños de paneles a menudo se critican porque pueden volverse poco representativos de la población inicial, ya que sus
muestras necesariamente envejecen con el tiempo. Sin embargo, esto solo es estrictamente cierto en los diseños de estudios de
cohortes que consideran una muestra no representativa para empezar; por ejemplo, si la muestra consta de personas con un año
de nacimiento común, las personas que se unen a la población ya sea por nacimiento o por inmigración no estarán representadas
en el diseño.
En general, un diseño de panel debe intentar mantener una muestra representativa de toda la población a lo largo del
tiempo. Por lo tanto, debe hacer frente no solo a los problemas de nacimiento, inmigración o entrada individual por otros
medios, sino también a manejar la incorporación de familias enteras a la población (por ejemplo, niños que abandonan el
hogar de los padres, parejas que se divorcian). Se necesita un mecanismo para mantener una
92 Transporte de modelado

muestra representativa que permite a familias e individuos ingresar a la muestra con probabilidades conocidas, pero esto
no es simple (para más detalles ver Duncany otros. 1987).

3.3.4.3 Fuentes de error en los datos de panel

El diseño de un panel puede aumentar (o restar valor, si no se hace con cuidado) la calidad de los datos. Aunque
generalmente se acepta que los contactos y entrevistas repetidos conducen a información de mejor calidad, los paneles
suelen tener tasas más altas de falta de respuesta que los métodos transversales y corren el riesgo de introducir
contaminacióncomo discutimos a continuación.

Efectos sobre el error de respuestaLos encuestados en paneles de encuestas largas tienen contacto repetido con entrevistadores
y cuestionarios en intervalos de tiempo relativamente largos; esto puede mejorar la calidad de los datos por las siguientes razones:

- Las entrevistas repetidas a lo largo del tiempo reducen la cantidad de tiempo entre el evento y la entrevista, tendiendo así
para mejorar la calidad de la información recuperada.
- El contacto repetido aumenta las posibilidades de que los encuestados entiendan el propósito del estudio; también
pueden estar más motivados para hacer el trabajo requerido para producir respuestas más precisas.
- Se ha encontrado que la calidad de los datos tiende a mejorar en oleadas posteriores de un panel, probablemente debido al
aprendizaje de los encuestados, los entrevistadores o ambos.

Sin embargo, en el caso de paneles de encuesta cortos, la calidad de las respuestas tiende a disminuir con la cantidad de
días considerados (es decir, se informan menos viajes y se omiten los viajes en modos lentos) debido a la fatiga.

Problemas de falta de respuestaBajo la etiqueta genérica de no respuesta, se incluyen varios temas importantes que
tienen dos fuentes básicas: la pérdida de una unidad de información (desgaste) y/o la pérdida de un elemento de
información. Hensher (1987) analiza en detalle cómo probar y corregir este tipo de error.
Los problemas de falta de respuesta asociados con la ola inicial de un panel no son diferentes a los de las encuestas
transversales, por lo que es muy poco lo que se puede hacer para ajustar sus posibles efectos. Por el contrario, se han
recopilado muchos datos sobre los que no respondieron en oleadas posteriores; esto se puede utilizar para determinar
sus características principales, lo que permite modelar la falta de respuesta como parte del comportamiento de interés
más general (ver Kitamura y Bovy 1987).
Los diseños típicos de paneles grandes dedican una gran cantidad de esfuerzo a atender el 'cuidado y la alimentación' de los
encuestados: esto implica instruir a los entrevistadores para que se comuniquen con los encuestados muchas veces y escribir cartas
de aliento específicamente adaptadas a la fuente de renuencia de los encuestados. Estas 'políticas de mantenimiento' a menudo
son consideradas importantes por los administradores del panel, al igual que el uso de incentivos para fomentar la cooperación
(Yáñezy otros. 2009a).

Respuesta ContaminaciónSe ha informado evidencia de que las respuestas de la onda inicial en los estudios de panel
pueden diferir de las de las ondas posteriores; por esta razón, en algunas encuestas de panel, las entrevistas iniciales no
se utilizan con fines comparativos. Una pregunta crucial es si el comportamiento en sí, o solo su informe, se ve afectado
por la membresía del panel. La evidencia sobre esto no es concluyente, pero parece depender del tipo de
comportamiento medido. Por ejemplo, Traugott y Katosh (1979) encontraron que los participantes en un panel sobre el
comportamiento electoral aumentaron su voto (es decir, cambiaron el comportamiento) a medida que pasaba el tiempo;
sin embargo, también se encontró que esto se debió en parte a una mayor conciencia del proceso político y en parte al
hecho de que las personas que tenían menos motivaciones políticas tendían a abandonar el panel.

Tratamiento de observaciones repetidasOtro problema, que es más específico de los paneles de encuesta cortos, se relaciona
con la presencia de observaciones repetidas. Es normal esperar que los individuos, en diferentes días, puedan repetir exactamente
los mismos viajes (casos típicos son los viajes sistemáticos al trabajo que muchas veces se realizan todos los días con las mismas
características: tiempo, costo, propósito, modo, etc.) . Entonces, especialmente cuando estos
Datos y espacio 93

los datos se utilizan para la estimación del modelo, una pregunta crucial aquí es cuál debe ser la longitud óptima del
panel de encuesta corto, ya que la forma en que se trata la información repetida puede afectar los resultados de la
estimación (Cherchiy otros. 2009; Yáñezet al.2009b).

3.3.4.4 Costos relativos de los levantamientos longitudinales

Las preguntas sobre los costos relativos de los estudios longitudinales no pueden responderse sin hacer
referencia a las alternativas a ellos. Una comparación obvia es entre una sola encuesta transversal, con
preguntas sobre un período anterior, y un panel de dos olas. Sin embargo, si el estudio longitudinal está
diseñado para mantener su muestra básica representativa cada año y si se dedican suficientes recursos a la
tarea, también puede servir como una fuente (anual) de datos transversales representativos y, por lo tanto, debe
compararse con una serie de tales encuestas en lugar de una sola.
Duncany otros. (1987) han realizado cálculos aproximados en esta línea, concluyendo que en el primer caso la
encuesta longitudinal costaría entre un 20 y un 25% más que la encuesta transversal con preguntas
retrospectivas. Sin embargo, también concluyen que en el segundo caso los costos de campo de cada ola
sucesiva del estudio transversal serían entre 30 y 70% más altos que las oleadas adicionales de la encuesta de
panel, dependiendo de la duración de la entrevista.
Otros costos son causados por la necesidad de contactar y persuadir a los encuestados en el caso de los paneles y
por la necesidad de volver a tomar muestras con cada corte transversal fresco en el otro caso. Finalmente, hay otros
costos de procesamiento de datos asociados con los paneles, pero estos deben sopesarse frente a la mayor oportunidad
de verificar las inconsistencias, el análisis de la falta de respuesta, la consideración de los efectos de la inercia en el
modelado, etc.

3.3.5 Encuestas de tiempo de viaje

El requisito de datos detallados y precisos sobre el tiempo de viaje, la velocidad del vehículo y los retrasos es importante para la
calibración y validación de los sistemas modelo. Los tiempos de viaje son un determinante clave de los costos de viaje, por lo que es
importante asegurarse de que el modelo represente correctamente los retrasos en la red de interés. En principio, uno esperaría
que el tráfico en la red vial estuviera sujeto a la variabilidad en su tiempo de viaje. Sin embargo, los tiempos de viaje en los
autobuses, e incluso en el metro, también pueden verse afectados por la congestión y las interrupciones. El enfoque aquí se centra
principalmente en los tiempos de viaje de los vehículos en redes congestionadas, pero los principios son aplicables a otros modos.
Los tiempos de viaje se pueden dividir en:

-
- Retrasos, cuando el vehículo se detiene por congestión o medidas de control de tráfico (semáforos, señal de
Tiempos de funcionamiento, mientras el vehículo está en movimiento.

alto, etc.).

Los tiempos de viaje pueden ser muy variables como resultado de las medidas de control del tráfico y simplemente de los niveles de
congestión. Para enlaces cortos, los errores de medición también serán significativos. Como la variabilidad en un solo enlace sería demasiado
alta para la mayoría de los modelos, es preferible observar los tiempos de viaje en segmentos que cubren varios cruces para reducirla y hacer
que los resultados sean más representativos del tipo de modelo utilizado. Para los modelos estratégicos, los segmentos deben incluir al menos
cinco enlaces o tener al menos 1 km de largo (lo que sea más largo). Para modelos de escala más pequeña, se pueden usar segmentos más
cortos, pero las observaciones deberán repetirse más para obtener una estimación confiable a pesar de la variabilidad local en los tiempos de
viaje.
La técnica más común para medir el tiempo de viaje se conoce como el "método del observador en movimiento". En
este caso, se conduce un vehículo de prueba a la velocidad promedio del flujo de tráfico y se registran los tiempos para
tramos de carretera. Mantener una velocidad media es difícil y el requisito normal es que el conductor alcance tantos
vehículos (en la clase correspondiente) como vehículos lo alcancen a él. Un observador en el coche (o un
94 Transporte de modelado

instrumento basado en GPS), registrar tiempos a intervalos regulares o al pasar por lugares identificables (es decir,
cruces clave, un puente o edificio en particular).
El diseño de una encuesta de tiempo de viaje requiere:

- Especificar el nivel de precisión requerido.


- Identificación de uno o más circuitos a inspeccionar.
- Identificación de los tramos viales de interés.
- Selección de un método de recogida de datos: observador, GPS u otro.
- Selección de los días y horas en que se realizarán las encuestas.
- Número de corridas que se necesitarán para cada circuito y tiempos de levantamiento.

La precisión requerida dependerá del objetivo del modelo. Para modelos estratégicos a gran escala es
deseable tener una precisión de unos 5 a 8 km/h (alrededor de±10%). Para estudios operativos, es deseable una
mejor precisión de 2 a 5 km/h. En el caso de modelos desagregados de elección de modo, como se analiza en los
Capítulos 7 a 9, se ha encontrado que el nivel de precisión debería ser muy alto (es decir, los tiempos promedio
de viaje para el período pico no representarán adecuadamente los experimentados por los viajeros dentro del
pico, y se ha recomendado agrupar a los individuos según la hora de salida en intervalos de, como máximo, 15
min, véase Daly y Ortúzar 1990).
Los circuitos a inspeccionar deben ser representativos del área de estudio de interés. Deben cubrir caminos y calles de
diferentes tipos y niveles de flujo, con énfasis en aquellos tipos que se consideren más importantes. La longitud de los
tramos de la carretera debe elegirse para reducir la variabilidad que se encuentra en los cruces, especialmente si hay
señales controladas. Para áreas urbanas densas, las secciones deben contener entre 7 y 10 cruces controlados por
señales.
El tamaño de la muestra y el número de recorridos a realizar dependerán también de la variabilidad observada en diferentes
tipos de carreteras en diferentes condiciones. La ecuación (3.16) anterior se puede utilizar para estimar con mayor precisión tanto el
número de segmentos (enlaces entre cruces) en un tramo de carretera como el número de recorridos. Idealmente, el coeficiente de
variación CV debe estimarse a partir de las observaciones. Los valores típicos para el CV estarían entre 9 y 15 para carreteras con
baja y alta variabilidad. Si requerimos una confianza del 90 % para estar dentro de un error del 10 %, esto da como resultado de tres
a siete ejecuciones para este rango. A menudo se recomienda que se realicen al menos cinco ejecuciones para garantizar que
ninguna circunstancia especial afecte indebidamente los resultados.

3.4 Encuestas de preferencia declarada

3.4.1 Introducción
La discusión anterior se ha llevado a cabo bajo el supuesto implícito de que cualquier dato de elección
correspondía apreferencia revelada(PR) información; esto significa datos sobre elecciones reales u observadas
hechas por individuos. Es interesante notar que rara vez estamos en condiciones de observar realmente la
elección; normalmente solo conseguimos obtener datos sobre lo que las personas informan que hacen (o más a
menudo, lo que han hecho el día anterior o, mejor, en el día de viaje preasignado).
En términos de comprensión del comportamiento de viaje, los datos de RP tienen limitaciones:

- Las observaciones de elecciones reales pueden no proporcionar suficiente variabilidad para construir buenos modelos
para evaluación y pronóstico. Por ejemplo, las compensaciones entre alternativas pueden ser difíciles de
distinguir, por lo que las combinaciones de niveles de atributos pueden ser deficientes en términos de eficiencia
- estadística. El comportamiento observado puede estar dominado por algunos factores que dificultan la detección de la
importancia relativa de otras variables. Esto es particularmente cierto con las variables cualitativas secundarias (p. ej.,
servicios de información de transporte público, seguridad, decoración) que también pueden costar dinero y nos
gustaría saber cuánto las valoran los viajeros antes de asignar recursos entre ellas.
Datos y espacio 95

- Las dificultades para recopilar respuestas para políticas que son completamente nuevas, por ejemplo, un modo completamente nuevo
(quizás un transporte de personas) o un sistema de recuperación de costos (por ejemplo, tarificación electrónica de carreteras).

Estas limitaciones se superarían si pudiéramos realizar experimentos controlados de la vida real dentro de las
ciudades o los sistemas de transporte, pero las oportunidades para hacerlo en la práctica son muy limitadas. Por lo tanto,
cuando los datos de los mercados reales no están disponibles para predecir el comportamiento o generar funciones de
preferencia confiables, los investigadores han tenido que recurrir apreferencia declarada(SP) métodos. Estos cubren una
variedad de técnicas, que tienen en común la recopilación de datos sobre las intenciones de los encuestados en
escenarios hipotéticos en comparación con sus acciones reales observadas en los mercados reales. Los tres métodos SP
más comunes han sidovaloracion contingente(CV),análisis conjunto(CA) yelección declarada(SC) técnicas. En el transporte,
las técnicas SC han tendido a dominar (véanse algunos ejemplos en Ortúzar 2000) y por esta razón, nos centraremos en
este método brindando solo una breve descripción de los enfoques de encuesta CV y CA. Tenga en cuenta también que
en el ámbito del transporte, la etiqueta SP no ha adoptado la valoración contingente, como en campos como el marketing
o la economía ambiental; además, en la práctica del transporte, la etiqueta SP generalmente se refiere a CA o SC sin una
distinción formal (ver la discusión en Ortúzar y Garrido 1994b).

3.4.1.1 Valoración contingente y análisis conjunto


Como técnica coherente, CV se ocupa principalmente únicamente de obtenerdisposición a pagar(WTP) información para
varias políticas o opciones de productos (Mitchell y Carson 1989). En este caso, la póliza (por ejemplo, una forma de
reducir el riesgo de accidentes) se presenta a los encuestados, a quienes luego se les pregunta cuánto están dispuestos a
pagar por tenerla. En la práctica, se utilizan típicamente cuatro tipos de preguntas de CV; interrogatorio directo, juegos
de apuestas, opciones de pago y opciones de referéndum. En los estudios CV, la póliza o producto se mantiene estático y
el resultado, en forma de WTP, es para todo el producto o póliza. Como tal, las preguntas CV no se pueden utilizar para
desentrañar la disposición a pagar por características o atributos individuales del producto o política en estudio.
Volveremos sobre esta técnica en la sección 15.4.
A diferencia del CV, el análisis conjunto tradicional permite al investigador examinar las preferencias, e incluso
la disposición a pagar si se incluye un atributo de precio o costo, no solo para toda la póliza o producto, sino
también de las características individuales del objeto o los objetos en estudio. En CA, a los encuestados se les
presenta una serie de políticas o productos alternativos y se les pide que los califiquen o clasifiquen (consulte la
Figura 3.6). Los niveles de las características o atributos de las diversas políticas o productos se varían
sistemáticamente y se convierten en las variables independientes que se someten a una regresión contra los
datos de clasificación o clasificación. Los pesos de los parámetros para cada atributo reflejan la preferencia
marginal o el 'valor parcial' de ese atributo. Por lo tanto, si se incluye un atributo de costo o precio como parte
del producto o política presentado a los encuestados,et al.1989). Sillano y Ortúzar (2005) analizan las dificultades
especiales asociadas con la estimación de la disposición a pagar cuando se utilizan funciones flexibles de
elección discreta, como las que analizaremos en la sección 8.6, para modelar la situación en cuestión.

El CA tradicional ha tenido una aceptación limitada en los estudios de transporte debido a una serie de críticas que se han
formulado contra el método a lo largo de los años (Louviere y Lancsar 2009). En primer lugar, se ha argumentado que los métodos
estadísticos utilizados principalmente para analizar los datos de CA son inapropiados, en el sentido de que la variable dependiente
de un modelo de regresión lineal debe tener, como mínimo, una escala de intervalo. Como tal, el uso de datos de clasificación como
una variable dependiente ciertamente viola esta suposición, aunque algunos argumentan que incluso los datos de calificaciones
tampoco son datos de nivel de intervalo, dada la forma en que los encuestados usan psicológicamente la métrica de calificaciones.
Una segunda crítica no radica en cómo se analizan los datos, sino en el uso mismo de los datos de calificaciones o clasificaciones
como métrica de medición. Los encuestados en la vida real no califican ni clasifican las alternativas e incluso si lo hicieran de
manera diferente, las personas abordarían tales escalas de maneras psicológicamente diferentes. Como tal, se ha argumentado
que los resultados de las encuestas de CA no tienen una interpretación psicológicamente significativa (Louviere y Lancsar 2009).
Entonces, los métodos SC han tendido a dominar los estudios de transporte.
96

Tarifa Intercambio Tiempo en autobús tiempo de caminata

70p Ningún cambio 15 minutos 10 minutos

Tarifa Intercambio Tiempo en autobús tiempo de caminata

70p Ningún cambio 20 minutos 8 minutos

Tarifa Intercambio Tiempo en autobús tiempo de caminata

85p Ningún cambio 15 minutos 10 minutos

Tarifa Intercambio Tiempo en autobús tiempo de caminata

85p 1 cambio 15 minutos 8 minutos

Figura 3.6Ejemplo de ejercicio de clasificación de preferencias declaradas

3.4.1.2 Métodos de elección declarada

Los estudios de elección declarada son similares a los métodos CA en la medida en que a los encuestados se les presentan varias
alternativas hipotéticas; sin embargo, los dos métodos difieren en cuanto a la métrica de respuesta. Mientras que CA pide a los
encuestados que clasifiquen o califiquen las alternativas (con todas las alternativas mostradas a los encuestados al mismo tiempo),
a los encuestados que realizan una encuesta de SC se les pide que elijan su alternativa preferida de entre un subconjunto del
número total de alternativas hipotéticas construidas por el analista. . Al pedir a los encuestados que hagan una elección, en lugar
de una calificación o clasificación, se evitan las dos críticas dirigidas a CA. En primer lugar, el análisis de datos de elección discreta
requiere un conjunto diferente de modelos econométricos desarrollados específicamente para analizar dichos datos; por lo tanto, la
métrica de elección es consistente con el modelo estadístico que se le aplica. En segundo lugar, la selección de la única alternativa
preferida es psicológicamente consistente entre los encuestados y una tarea que es común a los individuos en los mercados reales.
Otra distinción entre los dos métodos es que las tareas CA normalmente presentan a los encuestados un número relativamente
grande de alternativas, simultáneamente, para calificar o clasificar, mientras que los métodos SC normalmente presentan solo unas
pocas alternativas a la vez (y en la mayoría de los casos solo dos). cambiándolos y haciendo que los encuestados repitan la tarea de
elección.
Por otro lado, la distinción principal entre las encuestas RP y SC es que en el último caso se pregunta a
los individuos qué elegirían hacer (o cómo clasificarían/calificarían ciertas opciones) en una o más
situaciones hipotéticas. El grado de artificialidad de estas situaciones puede variar, según las necesidades
y el rigor del ejercicio:
Datos y espacio 97

- Elcontexto de decisiónpuede ser hipotético o real; en otras palabras, se le puede preguntar al encuestado
para considerar un viaje real o uno que podría considerar emprender en el futuro.
- Algunos de losalternativasofrecido puede ser hipotético aunque se recomienda que uno de ellos sea uno
existente, por ejemplo el modo que acaba de elegir el encuestado incluyendo todos sus atributos.

Un problema crucial con la recopilación de datos de preferencias declaradas en general es cuánta fe podemos poner
en que las personas realmente hagan lo que dijeron que harían cuando surja el caso (por ejemplo, después de presentar
una nueva opción). De hecho, la experiencia en la década de 1970 no fue buena en este sentido, con grandes diferencias
entre la elección predicha y la real (p. ej., solo la mitad de las personas hicieron lo que dijeron que harían) encontradas en
muchos estudios (ver Ortúzar 1980a).
La situación mejoró considerablemente en la década de 1980 y se informó una buena concordancia con la realidad a partir de
modelos estimados usando datos SC (Louviere 1988a). Sin embargo, esto ocurrió porque los métodos de recopilación de datos
mejoraron enormemente y se volvieron muy exigentes, no solo en términos de experiencia en el diseño de encuestas sino también
en sus requisitos de personal de encuestas capacitado y procedimientos de garantía de calidad. El lector interesado puede
consultar el excelente libro de Louvierey otros. (2000).
Las principales características de una encuesta SC se pueden resumir de la siguiente manera:

(a) Se basa en la obtención de declaraciones de los encuestados sobre cómo responderían a diferentes
alternativas hipotéticas (de viaje).
(b) Cada opción se representa como un 'paquete' de diferentes atributos como tiempo de viaje, precio, avance,
confiabilidad, etc.
(c) el analista construye estas alternativas hipotéticas de modo que se pueda estimar el efecto individual de cada atributo;
esto se logra utilizandodiseño experimentaltécnicas que aseguran que los parámetros de los atributos elegidos se
estiman con los errores estándar más pequeños. En realidad, un diseño experimental no es más que una matriz de
números utilizada para asignar valores a los atributos de cada alternativa. Mediante el uso de la teoría del diseño
experimental, la asignación de estos valores se produce de forma no aleatoria y, al variar sistemáticamente los
atributos del diseño, los analistas pueden controlar tantos factores como sea posible que influyan en las elecciones
observadas. Al crear el diseño de una manera específica y precisa, el analista busca asegurar la capacidad de obtener
estimaciones de parámetros confiables con un mínimo confusióncon las estimaciones de otros parámetros.

(d) El investigador tiene que asegurarse de que a los encuestados se les den alternativas hipotéticas que puedan
entender, que parezcan plausibles y realistas, y que se relacionen con su nivel actual de experiencia.
(e) Las respuestas dadas por los individuos se analizan para proporcionar medidas cuantitativas de la
importancia relativa de cada atributo; para esta elección, los modelos se estiman como se analiza en detalle
en el Capítulo 8.

Sin embargo, el proceso de construcción de encuestas de SP efectivas está lejos de ser simple y consume bastante
tiempo si se realiza correctamente. Se recomienda una amplia investigación cualitativa y secundaria para determinar el
conjunto relevante de alternativas, atributos y niveles de atributos que se utilizarán para crear las alternativas hipotéticas.
A continuación ofrecemos consejos basados en discusiones y comentarios útiles del Dr. John M. Rose, Instituto de
Estudios de Transporte y Logística de la Universidad de Sydney, uno de los principales expertos en este tema.
Al preparar una encuesta SP, el analista deberá abordar al menos los siguientes aspectos:

- ¿Será el experimentoetiquetado(es decir, los nombres de las alternativas tienen un significado sustantivo más
allá de su ordenación; ver Figura 3.7) osin etiquetar(ver Figura 3.8) yno compraostatus quo ¿Se presentará una
alternativa (ver Figura 3.7b)? Volveremos sobre este último tema en el apartado 3.4.2.6.
- Al decidir qué atributos usar, necesitamos determinar qué factores representan mejor aquellos que influyen en las elecciones
entre las diversas alternativas. Tenga en cuenta que otros criterios externos también pueden influir en esta tarea;
98

(a) Diseño estándar

(b) Diseño que incluye una opción de no compra

Figura 3.7Ejemplo de tareas SC en modo etiquetado

por ejemplo, si los resultados del estudio se utilizarán como entradas en, por ejemplo, un modelo de red, los
atributos deben acomodar th
permitir un atributo de comodidad, la
comodidad en el estudio SC); Lo haremos

Figura 3.8Ejemplo de tarea SC de ruta sin etiquetar


Datos y espacio 99

- Con respecto a los niveles de atributo, el analista debe definir valores para cada uno, incluidos valores cuantitativos
específicos (por ejemplo, $5, $10 y $20) o etiquetas cualitativas ('bajo', 'medio' y 'alto'). Una vez que se haya definido lo
anterior, también se recomiendan más pruebas previas y pruebas piloto. Esto puede dar lugar a mejoras adicionales
del instrumento de la encuesta. Solo una vez que el analista esté satisfecho con la encuesta, se debe llevar el estudio
de SC al campo.

3.4.2 El Proceso de la Encuesta

Al configurar una encuesta de PS, los analistas deben tratar de seguir las cinco etapas ilustradas en la Figura 3.9. La
primera etapa requiere que los objetivos del estudio estén claramente definidos y aclarados. Esto implica identificar la
población de interés, así como refinar los objetos experimentales o las alternativas que se estudiarán. También se deben
definir y probar definiciones y descripciones de nuevas alternativas.
La segunda etapa requiere delinear el conjunto de suposiciones que reflejan nuestras creencias generales
sobre qué cualidades son importantes para que muestre un diseño experimental. Estos supuestos dictarán las
propiedades estadísticas del diseño generado en la Etapa 3 del proceso. Como existen muchos posibles

1. Aclarar los objetivos del estudio y definir los objetos de interés

a. Definir condiciones experimentales


b. Población de estudio
C. Definir objetos de estudio
i. Alternativas
ii. Atributos y niveles de atributo

2. Definir suposiciones experimentales

a. Especifique las propiedades de diseño deseables

b. Especifique el tipo de modelo esperado

C. Especifique las funciones de utilidad esperadas


i. Definir la estructura de codificación esperada
ii. Especificar estimaciones de parámetros anteriores

3. Generar diseño experimental

a. Especificar consideraciones de diseño


i. Determinar el número de tareas de elección.
ii. Especificar cualquier restricción de diseño

b. Construye el diseño

4. Realizar pruebas de generación de diseño posterior

a. Diseño de prueba para errores de especificación

5. Cuestionario de conducta

a. Aleatorizar las tareas de elección

b. Aleatorizar ubicaciones de dimensiones de diseño


i. Aleatorizar el orden de los atributos
ii. Aleatorizar alternativas

Figura 3.9Pasos en el diseño de un experimento de preferencia declarada


100 Transporte de modelado

diseños experimentales para cualquier problema dado (cada uno con diferentes propiedades estadísticas), especificar los
supuestos y delinear las propiedades que el analista considere importantes es fundamental para generar el diseño.
Desafortunadamente, en la gran mayoría de los estudios de SP, esta segunda etapa generalmente se ignora y los
investigadores generan diseños sin apreciar completamente qué suposiciones los llevaron a ellos, o si los diseños
generados son apropiados para satisfacer las necesidades del estudio.
El método real para construir un diseño en la Etapa 3 depende de las suposiciones hechas en la Etapa 2, con
diferentes suposiciones que requieren diferentes métodos de generación de diseño. Por lo tanto, incluso si el
analista se salta la Etapa 2, todavía se hacen suposiciones implícitas al generar el diseño.
La etapa 4 representa una etapa ideal en el proceso más que necesaria; desafortunadamente, al igual que con la Etapa
2, a menudo se ignora en la práctica. En esta etapa, el analista realiza pruebas, generalmente en forma de simulaciones,
para determinar cómo es probable que funcione el diseño en la práctica. Este tipo de pruebas puede permitir que el
analista corrija cualquier problema con el diseño antes de ir al campo.
La etapa final del proceso de generación del diseño consiste en tomar el diseño y usarlo para construir el
cuestionario que se entregará a los encuestados.

3.4.2.1 Clarificación de los objetivos del estudio y definición de objetos de interés

Esta etapa implica que el analista obtenga una comprensión del contexto o problema específico que se está estudiando,
la población de interés, así como los tipos de elecciones que se les pedirá a los encuestados de la muestra.
Por lo general, el contexto de elección (condiciones experimentales) es un insumo que no está bajo el control del
analista, ya que lo proporciona un cliente externo o está determinado por los objetivos del estudio. Sin embargo,
comprender el contexto del estudio es crucial para el éxito de los estudios de PS y, en circunstancias especiales, las
entrevistas en profundidad y la búsqueda de conocimientos especializados pueden ser vitales en esta tarea (Ortúzar y
Palma 1992). Armado con este conocimiento, el analista deberá determinar qué resultados de comportamiento son de
interés directo, como determinar el valor subjetivo del tiempo (SVT), WTP para la reducción de riesgos, o simplemente
estimar una formulación generalizada de costo de viaje.
Después de obtener una comprensión completa del problema en estudio, se requiere que el analista
identifique y comprenda la población de interés. Esto implica determinar quiénes son los encuestados de la
muestra, dónde es probable que estén ubicados, cómo serán muestreados y cómo serán encuestados.
Comprender tales preguntas en esta etapa es importante, ya que influirán en el tipo de cuestionario que se
utilizará y esto probablemente influirá en el tipo de diseño experimental generado.
Por ejemplo, si los encuestados están ubicados en un patrón disperso geográficamente y tienen acceso limitado a
Internet, las encuestas en papel y lápiz pueden ser la única opción. En tales casos, el diseño experimental será más difícil
de adaptar a las circunstancias específicas individuales. Cuando los encuestados pueden ser encuestados usando una
computadora o por Internet, el experimento puede adaptarse a las circunstancias reportadas de cada individuo (por
ejemplo, si un encuestado no tiene acceso a un automóvil, entonces la alternativa del automóvil puede eliminarse de la
encuesta para ese encuestado). El tipo de encuesta utilizada también tendrá implicaciones en términos de los datos
recopilados, lo que determinará si las suposiciones hechas en la Etapa 2 del proceso de diseño de la encuesta se
transfieren del diseño a los datos finalmente recopilados. Además de tener un impacto en el diseño de la encuesta,
comprender la población de interés también proporcionará más información sobre el muestreo requerido para el estudio
(consulte la Etapa 3). Finalmente, al comprender la población de interés, el analista puede determinar, por ejemplo, si se
deben muestrear diferentes segmentos y, por lo tanto, si es necesario más de un diseño experimental o cuestionario de
encuesta.
Comprender la población de interés, así como los objetivos generales del estudio, proporcionará información sobre la
cantidad y diversidad de alternativas aplicables a varios individuos de la muestra al tomar decisiones dentro del contexto
del estudio. Dicho conocimiento ayudará a construir las tareas de elección que se utilizarán en la encuesta SP. La Figura
3.7 mostró dos tareas de elección diferentes que podrían considerarse para un estudio de elección de modo. La de la
Figura 3.7a requiere que los encuestados elijan entre las alternativas de tren, autobús y automóvil, mientras que la tarea
de elección de la Figura 3.7b permite que el encuestado tampoco seleccione ninguna de estas alternativas. Si el objetivo
del estudio era modelar la elección del viajero, entonces la primera tarea de elección puede
Datos y espacio 101

aplicarse sin problemas para los encuestados que no pueden optar por no viajar al trabajo; sin embargo, podría no ser adecuado para los
encuestados que pueden teletrabajar (es decir, trabajar desde casa), y en ese caso debería ser preferible la tarea de segunda elección. De
manera similar, para los viajes que no son para ir al trabajo, la tarea de segunda opción podría ser más apropiada dado que la mayoría de los
viajes que no son para ir al trabajo pueden considerarse de naturaleza discrecional (al menos para los que no son adolescentes).

Atributos y AlternativasLa construcción de alternativas realistas o tecnológicamente factibles requiere


las siguientes cuatro tareas distintas:

a) El abanico de opciones suele estar dado por el objetivo del ejercicio; sin embargo, no se deben omitir las alternativas
realistas que un usuario podría considerar en la práctica. Por ejemplo, al estudiar las posibles respuestas de los
conductores de automóviles a las nuevas iniciativas de tarificación vial, puede que no sea sensato considerar solo
modos de viaje alternativos; los cambios en la hora de salida o en destinos alternativos (para evitar los cargos por
carretera más elevados) pueden ser respuestas muy pertinentes. Al ignorarlos, uno coloca al encuestado en un
contexto más artificial (menos realista), quizás provocando respuestas inapropiadas o poco realistas (discutiremos
este tipo de problema más adelante en la sección 3.4.2.6).
b) El conjunto y la naturaleza de los atributos también deben elegirse para garantizar respuestas realistas. Los atributos
más importantes deben estar presentes y deben ser suficientes para describir las alternativas tecnológicamente
factibles. Se debe tener cuidado aquí ya que las combinaciones particulares de atributos (por ejemplo, una alternativa
de alta calidad, alta frecuencia y bajo costo) pueden no ser vistas como realistas por los encuestados, lo que reduce el
valor de todo el ejercicio. También se debe tener cuidado si el número de atributos se considera excesivo (por
ejemplo, superior a seis); Carsony otros. (1994) encontraron que los efectos de la fatiga hacen que los encuestados
simplifiquen sus elecciones centrándose en un número menor de atributos o simplemente respondiendo al azar o de
forma lexicográfica (Sælensminde 1999). En este sentido, trabajos recientes han demostrado que pueden existir
límites, que están culturalmente afectados, en el número de tareas de elección, alternativas, atributos e incluso su
rango de variación, que son aceptables en un estudio dado (Caussadeet al.2005; Rosaet al.2009a).
c) Para garantizar que se incluyan los atributos correctos y que las opciones se describan de
manera fácil de entender, es ventajoso realizar un pequeño número de discusiones
grupales (p. ej., grupos focales) con una muestra representativa de personas. Un
moderador capacitado se asegurará de que se discutan e informen todas las preguntas
relevantes relacionadas con la percepción de alternativas, la identificación de atributos
clave y la forma en que los sujetos los describen y perciben, y los elementos clave que
establecen el contexto del ejercicio. Los grupos focales cuestan dinero y, en muchos
casos, el investigador se verá tentado a saltárselos creyendo que ya existe una buena
comprensión del problema y el contexto. En ese caso,
d) La selección de la métrica para la mayoría de los atributos es relativamente sencilla. Sin embargo, hay algunas situaciones que
pueden requerir una consideración más cuidadosa, en particular con respecto a atributos cualitativos como 'comodidad' o
'confiabilidad'. Por ejemplo, la fiabilidad del tiempo de viaje se puede presentar como una distribución de los tiempos de viaje
en diferentes días de una semana laboral, o como la probabilidad de que se retrase más de un tiempo determinado. Para
obtener más información sobre este tema, consulte la discusión sobre la presentación de estímulo a continuación.
e) Finalmente, en relación al número de niveles que puede tomar cada atributo, es importante tener en cuenta que
Wittinky otros. (1982) encontraron evidencia de que las variables con más niveles podrían ser percibidas como más
importantes por los encuestados; Volveremos sobre este tema en relación con otro tema más adelante.

3.4.2.2 Definición de supuestos experimentales

Para cualquier estudio SC, existen muchos diseños experimentales potenciales que se pueden construir. El objetivo del
analista es elegir un método de construcción de diseño particular y generar el diseño. Esto dependerá de muchas
consideraciones diferentes, la mayoría de las cuales reflejan las creencias personales del analista sobre cuáles son las
propiedades importantes que debe poseer el diseño. Sin embargo, algunas decisiones no reflejan los prejuicios o
creencias personales del analista, sino que están influenciadas por el problema que se estudia.
102 Transporte de modelado

Experimentos etiquetados o no etiquetadosEn muchos casos, la decisión de tratar un experimento como etiquetadoo
sin etiquetardependerá del problema en estudio. En particular, los estudios de elección de modo generalmente
requerirán un experimento etiquetado, mientras que los problemas de elección de ruta son generalmente susceptibles
de experimentos SC no etiquetados. Sin embargo, la decisión de si se utiliza cualquier tipo de experimento es crucial, ya
que generalmente afecta la cantidad y el tipo de parámetros que se estimarán como parte del estudio.

En general, los experimentos no etiquetados requieren solo la estimación de parámetros genéricos, mientras que los
experimentos etiquetados pueden requerir la estimación de parámetros genéricos o específicos alternativos, o
combinaciones de ambos. El conocimiento previo de la cantidad de estimaciones de parámetros probables (relacionadas
con el diseño) es importante ya que cada una representa un grado adicional de libertad requerido para fines de
estimación. La teoría general del diseño experimental postula que la matriz de información de Fischer (o hessiana) (I) será
singular si el número de observaciones de elección (cada una equivalente a una tarea de elección) es menor que el
número de parámetros (ver Goos 2002). Como tal, la cantidad mínima de tareas de elección requeridas para un diseño
experimental es igual o mayor que la cantidad de parámetros (relacionados con el diseño) a estimar. Tenga en cuenta
que la inclusión de unstatus quoalternativa no afecta el número mínimo de tareas de elección requeridas para un diseño,
ya que no requiere la estimación de ninguna estimación de parámetros relacionados con atributos. La decisión de utilizar
un experimento de elección etiquetado en lugar de uno no etiquetado también puede afectar la generación dediseños
ortogonales, como se discutió en la sección 3.4.2.3.

Equilibrio de nivel de atributo imponenteEsta es otra consideración en la generación de diseños. El equilibrio del nivel
de atributo se produce cuando cada nivel de atributo aparece el mismo número de veces, dentro de cada atributo, en
todo el diseño. Esto generalmente se considera una propiedad deseable, aunque puede afectar la eficiencia estadística
del diseño (consulte la sección 3.4.2.3). Si está presente, asegura que cada punto en el espacio de preferencia esté
igualmente representado, de modo que los parámetros se puedan estimar igualmente bien en todo el rango de niveles,
en lugar de tener más o menos puntos de datos en solo algunos de los niveles de atributos (lo que puede afectar cómo el
diseño funciona en la práctica). Sin embargo, vale la pena señalar que el balance de nivel de atributo puede requerir
diseños más grandes que los dictados por el número de requisitos de estimaciones de parámetros.

Ejemplo 3.11Considere un diseño con cuatro atributos, donde dos tienen dos niveles, uno tiene tres niveles y el último tiene cuatro
niveles. En la jerga clásica en este campo nos referiríamos a esto como 223141diseño factorial; tenga en cuenta que el producto de
los niveles a la potencia de los atributos (48 en este caso) representa el número total de tareas de elección necesarias para
recuperar todos los efectos (es decir, efectos principales o lineales y todas las interacciones), es decir, un diseño factorial completo
(más sobre esto a continuación ).
Suponiendo que cada atributo producirá una estimación de parámetro única (es decir, efectos principales
únicamente), el diseño más pequeño requeriría solo cuatro tareas de elección basadas en el criterio del número de
parámetros; sin embargo, para mantener el equilibrio del nivel de atributos, el diseño más pequeño posible requeriría 12
tareas de elección (12 siendo divisible sin resto por 2, 3 y 4).

Número de niveles de atributoEsto debería reflejar la creencia de los investigadores en cuanto a la relación que tiene
cada nivel con la contribución general a la utilidad y si se espera que la relación sea lineal o no lineal de un nivel al
siguiente. Si se esperan efectos no lineales para cierto atributo y el analista sospecha que el atributo será, digamos,
codificado ficticio(consulte el Ejemplo 3.11) antes del análisis, se necesitarán más de dos niveles para modelar
adecuadamente las supuestas no linealidades. Cuando el código ficticio (oefectosy/oortogonalcodificados) se incluyen
atributos, el número de niveles para estos atributos está predeterminado. Sin embargo, cuantos más niveles se utilicen,
mayor será el número potencial de tareas de elección requeridas debido a la estimación de parámetros adicionales.
Además, mezclar la cantidad de niveles de atributo para diferentes atributos puede generar una mayor cantidad de
tareas de elección (debido al equilibrio del nivel de atributo).

Variando el Rango de AtributosLa investigación sobre el impacto de esto sugiere que usar un rango amplio (p. ej., $0 a $30) es
estadísticamente preferible a usar un rango estrecho (p. ej., $0 a $10), ya que teóricamente conducirá a estimaciones de
parámetros con un error estándar más pequeño; sin embargo, usar un rango demasiado amplio también puede ser
Datos y espacio 103

problemático (ver Bliemer y Rose, 2008). De hecho, tener un rango de nivel de atributo demasiado amplio puede resultar en tareas
de elección con alternativas dominadas; mientras que tener un rango demasiado estrecho puede resultar en alternativas para las
cuales el encuestado tendrá problemas para distinguir entre (ver Cantilloy otros. 2006). Sin embargo, tales consideraciones son
puramente de naturaleza estadística y los analistas también deben considerar las limitaciones prácticas sobre el posible rango que
pueden tomar los niveles de atributos; es decir, los niveles de atributos que se muestran a los encuestados deben tener sentido
para ellos (deben ser realistas). Por lo tanto, a menudo habrá una compensación entre la preferencia estadística por un rango de
nivel de atributo más amplio y las consideraciones prácticas que pueden limitar este rango.

Inclusión de efectos de interacciónEstos son importantes cuando los efectos de dos variables no son aditivos (ver
Figura 3.10); incluir interacciones tendrá un impacto sobre el número de tareas de elección requeridas de un diseño. Esto
se debe a que cada efecto de interacción tendrá una estimación de parámetro correspondiente y, por lo tanto, requiere
un grado de libertad adicional y, a su vez, una tarea de elección adicional. Como tal, Rose y Bliemer (2009) sugieren
comenzar el proceso de generación del diseño especificando la especificación de utilidad del 'peor caso' (es decir, en
términos de todos los efectos que pueden probarse, junto con cualquier parametrización no lineal que pueda estimarse).
generati
utilidad potencialmente válida
número mínimo de cho

Figura 3.10Presencia y ausencia de interacción de atributos: (a) sin interacción, (b) con interacción

Una vez que se han tomado las decisiones para cada uno de los anteriores, varios experimentos diferentesprocedimientos de
generación de diseñopuede ser considerado. El método más fácil es emplear unfactorial completo(FF) diseño, es decir, uno que
consta de todas las tareas de elección posibles. Una ventaja de usar un diseño FF es que todos los efectos principales y los efectos
de interacción serán ortogonales. Desafortunadamente, el número de tareas de elección en un diseño de FF normalmente será
demasiado grande y muchas de las tareas de elección tendrán alternativas dominadas o poco realistas.

Diseños factoriales fraccionados Debido a la imposibilidad práctica de tratar con diseños FF, muchos
los analistas confían en los llamadosfactorial fraccionariodiseños, que consisten en un subconjunto de tareas de
elección del factorial completo. Para construir un diseño factorial fraccionado, uno podría seleccionar al azar
tareas de elección del FF; sin embargo, son posibles estrategias más inteligentes. Se han explorado numerosos
métodos dentro de la literatura sobre cómo seleccionar tareas de elección de manera estructurada, de modo
que se produzcan los mejores datos posibles del experimento SC para estimar modelos. El tipo de diseño
factorial fraccionado más conocido es eldiseño ortogonal, que se produce para tener correlaciones cero entre los
atributos dentro del experimento SC (y, por lo tanto, es excelente para estimar modelos lineales, consulte Rose y
Bliemer 2009). Aunque existen varios tipos de diseños ortogonales, consideraremos aquí solo el más popular,
que consiste en construir una matriz ortogonal simple.
104 Transporte de modelado

Ejemplo 3.12Considere una situación con cinco atributos, dos en dos niveles y el resto en tres niveles (es decir,
un 2233diseño). En este caso, dependiendo del número de interacciones a probar, el número de opciones
requeridas variaría de la siguiente manera en un diseño ortogonal clásico:

- 108 para considerar todos los efectos (es decir, un diseño factorial completo);
- 81 considerar los efectos principales y todas las interacciones entre pares de atributos, ignorando los efectos de orden
superior;
- 27 considerar los principales efectos e interacciones entre un atributo y todos los demás;
- 16 solo si no se consideran interacciones.

Más recientemente, varios investigadores han sugerido otros tipos de diseños factoriales fraccionados como D-
óptimooD-eficientediseños (Rose y Bliemer 2008). Al generar este tipo de diseños, los investigadores definen su
eficiencia en términos de varianzas (cuyas raíces son los errores estándar, como veremos en el Capítulo 8) y
covarianzas de las estimaciones de los parámetros; cuanto menores sean estas (co)varianzas, más eficiente será
el diseño experimental. Como tal, el objetivo de generar este tipo de diseño es elegir combinaciones de niveles
de atributos que den como resultado las (co)varianzas de parámetros más pequeñas posibles. Para hacerlo, el
analista debe hacer una serie de suposiciones sobre el modelo a estimar, así como las estimaciones de los
parámetros que se obtendrán. Esto habilita la matriz de covarianza asintótica esperada (S2) del diseño a calcular,
del cual se derivan las (co)varianzas; tenga en cuenta que se calcula como el inverso negativo deI(ver apartado
8.4.1), la información de Fisher o matriz de Hesse. Comprender qué modelo se estimará es importante, ya queS2
para un diseño dado será diferente para diferentes especificaciones del modelo econométrico.

Sin embargo, han surgido dos escuelas de pensamiento en competencia dentro de la literatura sobre qué parámetros previos
son apropiados para usar en la generación de diseños experimentales para estudios SC. El primero crea diseños bajo los llamados
hipótesis nula, a saber, valores previos de parámetros de valor cero (Streety otros. 2005), mientras que la escuela competidora
asume valores previos de parámetros distintos de cero. Claramente, en el último caso, uno tiene que decidir cuáles son estos
valores previos de parámetros distintos de cero, lo que generalmente conduce a diseños más eficientes si las estimaciones de los
parámetros de la población son realmente distintas de cero. Sin embargo, esto se produce a expensas del esfuerzo por obtener
parámetros previos (Rose y Bliemer 2008).
Dentro de la primera escuela de pensamiento, aunque no es necesario, normalmente se hacen suposiciones
adicionales al generar diseños SC. En primer lugar, generalmente se supone que los diseños que son ortogonales dentro
de las alternativas y que maximizan las diferencias en los niveles de atributos entre alternativas (es decir, estarán
correlacionados entre alternativas) serán óptimos (ver Burgess y Street 2003; 2005; Street y Burgess 2004; 2007) . Esto se
debe a que, bajo el supuesto de que todos los parámetros son cero, cualquier modelo de elección discreta colapsará en
un modelo lineal y, por lo tanto, un diseño ortogonal será óptimo. Esto también reconoce el hecho de que los modelos de
elección discreta son realmente diferentes de los modelos de utilidades (ver sección 7.3.1).
Una segunda suposición que ha sido menos comunicada para esta clase de diseños es queS2
generalmente se construye bajo el supuesto de que el analista aplicará códigos ortogonales a los modelos
estimados utilizando los datos recopilados con el diseño. Como tal, la eficiencia del diseño puede reducirse si se
utiliza en la práctica un sistema de codificación diferente, que suele ser el caso. Finalmente, los diseños óptimos
para este tipo de diseño solo se han producido bajo el supuesto de estimar modelos logit multinomiales (MNL),
que son los modelos de elección discreta más simples (Domencich y McFadden 1975). Sin embargo, el atractivo
de este enfoque es doble:

- Los encuestados se ven obligados a hacer concesiones en todos y cada uno de los atributos del diseño, ya que no hay dos atributos
en cualquier situación de elección dada, siempre que sea posible, tomará el mismo valor.
- El enfoque no requierea prioriconocimiento de las estimaciones de los parámetros, y esto puede ser particularmente
adecuado para diseños que tienen principalmente atributos cualitativos.
Datos y espacio 105

La segunda escuela de pensamiento de diseño utiliza valores previos de parámetros distintos de cero, asumiendo
algún conocimiento previo sobre sus valores. Investigación original sobre la generacióneficientediseños asumieron que
los investigadores teníanexactoconocimiento sobre las estimaciones de los parámetros esperados (p. ej.θ1= −0,2;θ2= 1,0).
Los diseños generados bajo tal suposición se conocen comodiseños localmente óptimosya que sus (co)varianzas se
minimizarán solo en los valores precisos asumidos para los parámetros anteriores (ver Rose y Bliemer 2005; Scarpa y
Rose 2008).
Más recientemente, los investigadores han producidoDiseños eficientes bayesianosque no suponen un conocimiento
preciso de las estimaciones de los parámetros. Dichos diseños permiten que la población real caiga dentro de alguna
distribución de posibles estimaciones de parámetros, de modo que el analista optimice la distribución de posibles
anteriores (p. ej.θ1∼N(−0.8, 0.2)). En este enfoque, generalmente dejamos de lado el principio de ortogonalidad y
generamos diseños de una manera que se puede esperar que minimice los elementos deS2
asociado con el modelo de elección discreta (no lineal) estimado sobre los datos (Bliemer y Rose 2006;
Bliemery otros. 2009; Carlsson y Martinsson 2002; Ferrini y Scarpa 2007; Fowkes 2000; Huber y Zwerina
1996; Kanninen 2002; Kesselsy otros. 2006; Rose y Bliemer 2008; Sandor y Wedel 2001; 2002; 2005; Scarpa
y Rose 2008; Viradory otros. 1998; watsony otros. 2000).
La principal ventaja de este enfoque es que el diseño generado está directamente relacionado con el resultado
esperado del proceso de modelado. Además, se puede optimizar para cualquier tipo de modelo, no solo MNL, o para una
variedad de tipos de modelos (Rosey otros. 2009b). Además, el enfoque puede asumir cualquier estructura de datos (es
decir, no se limita a asumir una codificación ortogonal). Sin embargo, mientras que la primera escuela puede probar la
optimización de sus diseños (bajo la hipótesis nula), la segunda escuela generalmente no puede (bajo la hipótesis no
nula). Por lo tanto, estos diseños se denominan típicamenteeficientey noóptimodiseños

Una nota sobre datos ficticios, de efectos y de codificación ortogonalSi se cree que el impacto marginal sobre la
utilidad no es lineal de un nivel de atributo a otro, el analista puede desear probarlo transformando los datos
utilizando codificaciones ficticias, efectos o ortogonales. Dentro de la literatura, el primero sigue siendo el método
preferido, aunque los efectos y las codificaciones ortogonales ofrecen una serie de ventajas sobre él.

En todos los casos, el analista crea D =L−1 nuevas variables en los datos, dondeLes el número total de
niveles del atributo que se está transformando. Paracodificación ficticiatransformaciones, el investigador
utiliza una serie de ceros y unos para mapear los niveles originales a los recién creadosDvariables Para crear
el mapeo, cada nueva variable ficticia corresponde a la primeraL−1 niveles del atributo original. Para crear
los códigos ficticios, cada nivel de tiempoyoaparece para el atributo original, la correspondiente variable
ficticia recién creada toma el valor 1; en caso contrario, toma el valor cero. Esto ocurre por
todos menos el último nivel de atributo (el nivel base) que no tiene una variable ficticia correspondiente.
En ese caso, el último nivel de atributo tomará el valor cero para todas las variables ficticias codificadas (ver Tabla
3.3).Codificación de efectosuse el mismo patrón de creación de mapasmi=L−1 efectos variables codificadas; sin
embargo, el nivel base toma el valor −1 para todos losmivariables codificadas de efectos (ver Tabla 3.3).
Finalmente, como la codificación ficticia y de efectos,codificación ortogonalrequiere la creación deO=L−1 nuevas
variables. Sin embargo, a diferencia de la codificación ficticia y de efectos aquí, usamos contrastes de polinomios
ortogonales para poblar elOnuevas variables (ver Tabla 3.3). Por lo tanto, cada variable codificada ortogonal sucesiva
corresponde a un efecto polinomial de orden superior para el atributo pretransformado (es decir,ok1→Xk(lineal
efecto),ok2→Xk 2(efecto cuadrático),ok3→X3k(efecto cúbico), etc.). En lugar de tomar directamente la
poder polinomial de la variable original y usarlos directamente (lo que inducirá la correlación en

(continuado)
106 Transporte de modelado

contrastes omiales que retienen la ortogonalidad dentro


los datos), la codificación ortogonal usa polígonos ortogonales norte
para cada atributo (ver Chihara 1978).

Tabla 3.3Ejemplo de dummy, efectos y c ortogonal otimbre


Codificación ficticia mi
codificación de efectos Codificación ortogonal
Atributo
Niveles D1 D2 D3 D4 D5 E1 E2 E3 E4 E.5 O1 O2 O3 O4 O5
1 1 – – – – 1 – – – –1 – – – –
2
2 0 – – – – −1 – – – – −1 – – – –
1 1 0 – – – 1 0 – – – −1 1 – – –
3 2 0 1 – – – 0 1 – – –0 −2 – – –
3 0 0 – – – −1 −1 – – –1 1 – – –
1 1 0 0 – –10 0 – – − 3 1−1 - –
2 0 1 0 – –01 0 – – −1 −1 3 – –
4
3 0 0 1 – –00 1 – – 1 −1 −3 – –
4 0 0 0 – – −1 −1 −1 – – 3 1 1 – –
1 1 0 0 0 –10 0 0 – − 2 2−1 1 –
2 0 1 0 0 –01 0 0 – −1 −1 2 −4 –
5 3 0 0 1 0 –00 1 0 – 0 −2 0 6 –
4 0 0 0 1 –00 0 1 – 1 −1 −2 −4 –
5 0 0 0 0 – −1 −1 −1 −1 – 2 2 1 1 –
1 1 0 0 0 010 0 0 0 − 5 5−5 1 −1
2 0 1 0 0 001 0 0 0 −3 −1 7 −3 5
3 0 0 1 0 000 1 0 0 −1 −4 4 2 − 10
6
4 0 0 0 1 000 0 1 0 1 −4 −4 2 10
5 0 0 0 0 100 0 0 1 3 −1 −7 −3 −5
6 0 0 0 0 0 1 1 1 1 1 5 5 5 1 1

Ejemplo 3.13Considere el diseño ortogonal f que se o dos atributos, A y B, y cuatro tareas de elección ks y las
muestra en la tabla 3.4. Las filas representan tareas de columnas tienen los valores de nivel de atributo caso la
elección que se mostrarían en cada tarea de elección. En estructura de correlación (es decir, la correlación
este coeficientes para las variables en cada columna) es ortogonal por construcción (ver Wonnacott y
Wonnacott 1990).

Cuadro 3.4originales o diseño togonal


Tarea de elección A B
1 1 3
2 2 1
3 3 4
4 4 2
correlación norteEstructura
A B
A 1 0
B 0 1

La tabla 3.5 demuestra que la estructura de correlaciones ficticias, detransformaciones de codificación gonal para este diseño. La tabla
efectos y orto también se proporciona en la base de los cálculos para cada tipo de codificación (puede ser simplemente Como se
utilizando el métodoherramienta de análisis de datosen Excel). puede ver, tanto las codificaciones ficticias como las de efectos
Datos y espacio 107

inducir la correlación dentro de los datos, incluso si el diseño original a partir del cual se crearon era
ortogonal (sin correlación). La codificación ortogonal, a pesar de ser ignorada en gran medida en la
literatura, evita este problema.

Tabla 3.5Comparación de código ficticio, efecto y ortogonal


Códigos ficticios Códigos de efectos Códigos ortogonales
Elección de la tarea AD1 AD2AD3BD1BD2BD3AE1AE2AE3BE1BE2BE3AO1AO2AO3BO1BO2BO3
1 1 0 0 0 0 1 1 0 0 0 0 1 − 3 1 −1 1 −1 −3
2 0 1 0 1 0 0 0 1 0 1 0 0 − 1 − 1 3 −3 1 −1
3 0 0 1 0 0 0 0 0 1 − 1 −1 −1 1 −1 −3 3 1 1
4 0 0 0 0 1 0 − 1 −1 −1 010 3 1 1 −1 −1 3
Estructura de correlación

Al1Al2Al3Bl1Bl2 Bl3 Al1Al2Al3Bl1Bl2 Bl3Al1Al2Al3Bl1Bl2Bl3


Al1 1 0 −0,3 −0,3 −0,3 −0,3 1 0.5 0.5 0 − 0,5 0,5 1 0 0 0 0 1
Al2 −0,3 1 −0,3 1 −0,3 −0,3 0,5 1 0,5 0,5 − 0,5 0 0 1 0 0 −1 0
Al3 − 0,3 −0,3 1 −0,3 −0,3 −0,3 0,5 0.5 1 −0,5 −1 − 0,5 0 0 1 −1 0 0
Bl1 −0,3 1 −0,3 1 −0,3 −0,3 0 0.5 − 0,5 1 0,5 0,5 0 0 −1 1 0 0
Bl2 − 0,3 −0,3 −0,3 −0,3 1 −0,3 −0,5 −0,5 −1 0,5 1 0,5 0 −10010
Bl3 1 0,3 0,3 0,3 0,3 1 0,5 0 0,5 0,5 0,5 1 1 0 0 0 0 1

Además de la cuestión de la correlación, otra razón para preferir usar efectos y códigos ortogonales en lugar de
códigos ficticios es que el nivel base de las variables codificadas ficticias se confundirá perfectamente con las
constantes del modelo y, por lo tanto, serán indistinguibles entre sí. Mediante el uso de códigos de nivel de base
distintos de cero, los efectos y las codificaciones ortogonales evitan dicha confusión y permiten estimaciones
independientes del nivel de base.

3.4.2.3 Generación del diseño experimental

En la práctica, existen varios enfoques diferentes que se pueden emplear para generar un diseño experimental factible,
todos los cuales reflejan las propias creencias del analista sobre cuáles son las propiedades más importantes que debe
mostrar un diseño experimental SC.

Métodos tradicionales de diseños ortogonalesEstos han sido históricamente los tipos de diseño experimental
más comunes. La ortogonalidad está relacionada con la estructura de correlación de los atributos de diseño.
Obligándolos a tener correlaciones cero, cada atributo es independiente de todos los demás. En la práctica,
existen varios métodos para construir diseños ortogonales, incluidos, entre otros, métodos como generar
diseños de bloques incompletos balanceados (BIBD), diseños de cuadrados latinos, diseños factoriales
fraccionados ortogonales en las diferencias y diseños plegables; todos estos han sido discutidos extensamente
en otro lugar (Bunchy otros. 1996; Fowkes y Wardman 1988; Louvièrey otros. 2000; Rose y Bliemer 2008).

Sólo consideraremos el tipo de diseño ortogonal más ampliamente aplicado: elLKJdiseño factorial
fraccionado ortogonal (dondeLes el número de niveles,kel número de atributos yjel número de
alternativas); dos tipos deLKJLos diseños se han descrito en el pasado. El primero implica atributos
que no están correlacionados tanto dentro como entre alternativas; tales diseños se denominansimultáneo
diseños ortogonales, ya que todas las alternativas se generan al mismo tiempo. El segundo tipo implica

(continuado)
108 Transporte de modelado

primero localizando un diseño ortogonal para la primera alternativa, y usando el mismo diseño para construir
alternativas subsiguientes reorganizando las filas del diseño (Louvierey otros. 2000); tales diseños se conocen comoL
generado secuencialmenteKJDiseños factoriales fraccionados ortogonales.
Al generar un diseño ortogonal secuencialmente, el analista solo necesita ubicar un diseño ortogonal para una
única alternativa, mientras que el enfoque de diseño simultáneo requiere la generación de un diseño ortogonal
considerando la estructura de correlación de todos los atributos, independientemente de la alternativa a la que
pertenezcan. Por esta razón, el enfoque de diseño secuencial generalmente dará como resultado diseños con un
número menor de tareas de elección, ya que el número mínimo teórico de tareas de elección requeridas para un
diseño no garantiza necesariamente que se pueda ubicar un diseño ortogonal.

Ejemplo 3.14Considere un diseño con tres alternativas, cada una descrita por siete atributos con tres niveles
de atributo. El diseño ortogonal factorial fraccionado simultáneo más pequeño que se puede construir con
21 atributos de diseño (7 atributos en 3 alternativas) tiene 72 tareas de elección (ver Hahn y Shapiro, 1966 o
los sitios web mencionados a continuación).

En comparación, el diseño ortogonal secuencial más pequeño (donde solo es necesario ubicar un diseño
ortogonal que no está correlacionado para 7 atributos) tiene solo 12 tareas de elección.
Una limitación del proceso de diseño secuencial es que tales diseños son apropiados solo para experimentos SC no
etiquetados. Tenga en cuenta también que los diseños generados bajo la hipótesis nula de cero parámetros previos, como se
describe anteriormente, se generan secuencialmenteLKJDiseños factoriales fraccionados ortogonales.

Independientemente del proceso real utilizado, hay varios sitios web y software útiles disponibles para
obtener diseños ortogonales (ver Hedayaty otros. 1999). Además, varios paquetes de software como SPSS (
www.spss.com), SAS (www.sas.com)y Ngene 1.0 (www.choice-metrics.com) también pueden generar una
variedad de diseños ortogonales.

Método de diseño D-óptimo bajo la hipótesis nulaTradicionalmente, un analista construiría un diseño ortogonal
secuencial simplemente asignando tareas de elección al azar de la primera alternativa para formar la segunda y las
siguientes alternativas. Más recientemente, se ha desarrollado un nuevo criterio de optimización para construir diseños
SC ortogonales óptimos generados específicamente para modelos MNL usando códigos ortogonales. Estos diseños
mantienen (dentro de la alternativa) la ortogonalidad, al mismo tiempo que minimizanS2
bajo el supuesto de que los parámetros serán cero y los atributos estarán codificados ortogonalmente.
En la práctica, esto generalmente da como resultado que los niveles de atributos entre las alternativas se hagan tan
diferentes como sea posible. Como tales, estos diseños generalmente aumentarán las compensaciones que los
encuestados se ven obligados a hacer en todos los atributos, maximizando la información obtenida en términos de la
importancia que cada atributo tiene en la elección (Burgess y Street 2005; Street y Burgess 2004). Calle y Burgess (2007),
Calley otros. (2005) y Rose y Bliemer (2008), brindan análisis detallados de los procedimientos exactos utilizados para
generar esta clase de diseño. Finalmente, Ngene 1.0 y Burgess (http://crsu.science.uts. edu.au/choice/choice.html)
proporcionan capacidades informáticas para generar dichos diseños.

D-Métodos de diseño eficientes bajo la hipótesis no nulaUn enfoque alternativo para generar experimentos SC implica
seleccionar un diseño que probablemente proporcione unaS2matriz que contiene valores lo más pequeños posible, bajo
el supuesto de que los parámetros no serán cero. Dado que sus errores estándar asintóticos obtenidos de modelos de
elección discreta son simplemente las raíces cuadradas de la diagonal principal de esta matriz, cuanto más pequeños
sean los elementos de la matriz (o, como mínimo, sus elementos diagonales), menores serán los errores estándar
asintóticos para cada parámetro. Sin embargo, estoseficientees poco probable que los diseños sean ortogonales.
Datos y espacio 109

Los diseños eficientes construidos bajo la hipótesis no nula difieren de los generados bajo la hipótesis nula en
que intentan imitar el rendimiento del modelo que se va a estimar después de la recopilación de datos. Si
después de una extensa investigación previa al diseño, incluidos grupos focales, entrevistas en profundidad y
estudios piloto, uno espera que los atributos seleccionados no tengan impacto en la elección (equivalente a
suponer que los parámetros serán estadísticamente iguales a cero), entonces uno podría cuestionar por qué se
está realizando el estudio. De esta forma, la función objetivo que define la optimización al generar un diseño
eficiente de parámetros anteriores no nulos puede considerarse práctica, ya que el diseño busca minimizar los
errores estándar que se espera obtener en la práctica.
Sin embargo, los diseños eficientes construidos bajo la hipótesis previa de parámetro no nulo requieren una
serie de suposiciones sólidas:

- El analista primero debe decidir qué tipo de modelo es probable que se estime una vez que se hayan recopilado los
datos, a fin de decidir qué matriz se utilizará específicamente para generar el diseño. Esto es porqueS2
porque un modelo de elección discreta diferirá del de cualquier otro modelo de elección discreta; por ejemplo,
el correspondiente al modelo MNL es diferente al de un modelo Nested Logit (NL) o Mixed Logit (ML) (ver
Bliemer y Rose 2008; 2009; Rosey otros. 2009b). Pero recuerde que los diseños óptimos generados bajo el
supuesto de hipótesis nula solo pueden asumir una especificación de modelo MNL.
- El analista también debe suponer cuáles serán las estimaciones de los parámetros de la población para poder predecirS 2

para un diseño. La razón es que para cualquier modelo LogitS2es analíticamente igual a la inversa negativa de las
segundas derivadas de la función log-verosimilitud del modelo (como veremos en la sección 8.3) y estas son, a su vez,
función de las probabilidades del modelo. Pero las probabilidades del modelo son una función de las utilidades, que a
su vez son una función de los atributos de diseño y las estimaciones de los parámetros.

Como se discutió anteriormente, el analista puede asumir estimaciones previas de parámetros de forma bayesiana al
construir un diseño. La suposición de parámetros previos no necesita ser demasiado restrictiva. No es necesario
proporcionar valores de parámetros previos precisos (aunque tales diseños se generaron en el pasado; véase, por
ejemplo, Carlsson y Martinsson 2002). Más bien, se pueden usar distribuciones de parámetros anteriores que (con suerte)
contienen los valores reales de los parámetros de la población. Luego, dichos diseños se optimizan en un rango de
posibles valores de parámetros, sin que el analista tenga que conocer los valores precisos de la población de antemano
(ver Sándor y Wedel 2001; Kesselsy otros. 2006). Esto, sin embargo, aumenta sustancialmente el tiempo de computación
requerido para generar el diseño. Rose y Bliemer (2008) describen los pasos precisos utilizados para generar este tipo de
diseño, mientras que Bliemer y Rose (2008), Bliemery otros. (2009) y rosay otros. (2009b) proporcionan detalles de las
segundas derivadas analíticas (necesarias para calcularS2) para una gama de diferentes modelos de Logit.

Medición de la eficiencia estadísticaEn lugar de intentar minimizar los elementos deS2de un diseño dado
directamente, se han propuesto una serie de medidas de la eficiencia estadística de un diseño y se pueden
utilizar en su lugar. El más común es elD-error, que utiliza el determinante escalado (es decir, elevado a la
potencia 1/kpara tener en cuenta el número de parámetros a estimar) deS2para medir la eficiencia. Otra medida,
menos popular, esA-errorque se basa en el rastro deS2.
El determinante de una matriz es un resumen estadístico único de la magnitud de los elementos contenidos en la
matriz. Cuanto más pequeño sea el determinante, más pequeños serán, en promedio, los valores contenidos en la matriz.
En el caso de diseños generados bajo la hipótesis nula, asumiendo codificación ortogonal y una estructura de modelo
MNL, elD-medida de errorse convierte en unD-optimalidadestadística, que es un valor porcentual de la eficiencia general
del diseño. Por lo general, se dice que los diseños con valores de alrededor del 90 por ciento o más representan diseños
deseables de esta clase. Para todos los demás diseños eficientes, el objetivo es minimizar elD-error.

Otra medida de eficiencia estadística, propuesta por Bliemer y Rose (2009), esS-error. McFadden (1974)
describió una relación directa entre la matrizS2de modelos Logit y el tamaño de muestra necesario para localizar
estimaciones de parámetros estadísticamente significativas. Bliemer y Rose (2009) propusieron explotar esta
110 Transporte de modelado

relación para calcular los requisitos de tamaño de muestra para experimentos SC. ElS-errorde un diseño proporciona el
tamaño de muestra teóricamente mínimo requerido para obtener estimaciones de parámetros significativas
asintóticamente a partir de él. Al igual que conD-error, el objetivo es encontrar un diseño que minimiceS-error. Para
calcular elS-errorde un diseño, el analista también debe construir su matrizS2.
Independientemente de la medida de eficiencia precisa utilizada, minimizar los elementos deS2para un diseño también reduce
los errores estándar asintóticos esperados (es decir, las raíces cuadradas de las diagonales de la matriz). Como tal, para cualquier
tamaño de muestra dado, los errores estándar asintóticos más pequeños significan intervalos de confianza más pequeños
alrededor de las estimaciones de los parámetros, así como errores asintóticos más grandes.t-ratios para cada parámetro. Por lo
tanto, los diseños eficientes se construyen específicamente con el propósito de producir resultados de estudio más confiables.
Alternativamente, los diseños eficientes pueden producir los mismos errores estándar asintóticos que otros diseños con
tamaños de muestra más pequeños. Esto se debe a que elS2de todos los modelos de elección discreta son divisibles pornorte, el
tamaño de la muestra y, como tal, los errores estándar asintóticos también son divisibles por la raíz cuadrada denorte. El resultado
de esto es que existe un rendimiento decreciente ineludible en términos de la significación estadística de las estimaciones de
parámetros obtenidas de cada encuestado adicional agregado a una encuesta.

Ejemplo 3.15Sea la matriz de información de Fisher connortelos encuestados se denotarán porInorte(θ). Desde
Inorte(θ) =norte·I1(θ), sostiene queS2 norte= (Inorte(θ))−1=1(I1(θ))−1=1S2, tal
norte
que :
norte1
t

se1(θ)
senorte(θ) = √ . (3.18)
norte

Por lo tanto, está claro que los errores estándar asintóticos proporcionan mejoras (disminuciones) decrecientes para tamaños de
muestra más grandes.

Métodos para generar diseños bajo la hipótesis no nulaSe han implementado una serie de algoritmos para
generar diseños eficientes bajo la hipótesis no nula; estos tienden a ser algoritmos basados en filas o columnas.
Algoritmos basados en filas(por ejemplo, el algoritmo de Federov modificado, véase Cook y Nachtsheim 1980)
generalmente comienzan creando un conjunto de tareas de elección de candidatos (ya sea generando un diseño
factorial completo o factorial fraccionado) y luego seleccionan tareas de elección al azar o en función de algún tipo de
criterio de eficiencia.
Algoritmos basados en columnasComience con un diseño aleatorio y cambie los niveles de atributo dentro de cada
atributo del diseño. Los algoritmos basados en filas tienen la ventaja de poder eliminar tareas de elección dominada del
conjunto de candidatos; sin embargo, dichos algoritmos suelen tener dificultades para mantener el equilibrio del nivel de
atributos. Los algoritmos basados en columnas, por otro lado, normalmente tienen poca dificultad para mantener el
equilibrio del nivel de atributo, pero a menudo pueden dar como resultado tareas de elección dominada.
El algoritmo más popular parece ser el algoritmo RSC (reetiquetado, intercambio y ciclado) (Huber y Zwerina 1996;
Sándor y Wedel 2001). Tiene tres operaciones separadas; sin embargo, algunos pueden omitirse si es necesario. El
algoritmo comienza con un diseño construido al azar, después del cual las columnas y filas se cambian usando
reetiquetado,intercambio, yciclismotécnicas o combinaciones de las mismas. El reetiquetado ocurre cuando se
cambian todos los niveles de atributo de un atributo (por ejemplo, la combinación {1, 2, 1, 3, 2, 3}podría ser
reetiquetado{3, 2, 3, 1, 2, 1}). ElintercambioLa operación implica cambiar los niveles de solo unos pocos niveles de
atributos a la vez en lugar de todos los niveles de atributos (por ejemplo, la combinación de atributos{1, 2, 1,3, 2, 3}
podría convertirse{3, 2, 1,1, 2, 3}). Finalmente, c.andandoreemplaza todos los niveles de atributo en cada tarea de
elección simultáneamente, reemplazando el primer nivel de atributo con el segundo nivel, el segundo nivel con el
tercero, etc. Como tal, el ciclo solo se puede realizar si todos los atributos tienen exactamente el mismo conjunto de
niveles factibles.

Una nota sobre el bloqueo de diseñosA menudo, el número total de tareas de elección generadas a partir de un diseño puede ser
demasiado grande para que lo maneje un solo encuestado. En tales casos, el investigador puede recurrir abloqueandoel diseño.
Datos y espacio 111

Una forma de hacerlo es mediante álgebra modular decidiendo un efecto que será confundido (ver Galilea y
Ortúzar, 2005). Para los diseños ortogonales, el bloqueo implica encontrar una columna de 'bloqueo' adicional
que se puede usar para asignar subconjuntos de las tareas de elección generadas a diferentes encuestados.
Mediante el uso de una columna de bloqueo ortogonal, la asignación de las tareas de elección a los encuestados
será independiente de los niveles de atributo que se muestren a cada uno (es decir, un encuestado no verá las
tareas de elección solo con precios altos y otra tarea de elección con precios bajos). Para diseños eficientes no
ortogonales, es poco probable que se pueda ubicar una columna de bloqueo ortogonal. En tal caso, el analista
puede producir una columna de bloqueo casi ortogonal minimizando la mayor correlación entre la columna de
bloqueo y los atributos de diseño.

Una nota sobre la necesidad de información previa en la generación de diseñosUna de las principales
críticas a la generación de experimentos SC es el requisito de conocimiento previo sobre los parámetros previos
y la estructura del modelo. Con respecto al primer problema, los investigadores han demostrado que cuando no
se conoce información previa sobre los valores probables de los parámetros, lo más probable es que un diseño
ortogonal tradicional genere buenos resultados, ya que en realidad se genera bajo el supuesto de que no hay
información previa. Sin embargo, cuando se dispone de información previa, generalmente es posible obtener
una mayor eficiencia estadística relajando la restricción de ortogonalidad (ver Rose y Bliemer 2009 para una
revisión de esta literatura). Así, incluso si la única información que tiene el analista es que un parámetro tomará
un signo particular (por ejemplo, un parámetro de costo será negativo),

La cuestión de requerir conocimientos avanzados sobre la estructura del modelo es mucho más complicada. Nuestro
estudio de caso anterior asumió un modelo MNL. Desafortunadamente, diferentes modelos de elección discreta tienen
diferentes S2matrices ya que cada una produce más o menos estimaciones de parámetros. Como tal, optimizar un diseño
para un modelo MNL no garantiza que sea óptimo para otras formas de modelo.
Ecuaciones para construir elS2se han informado matrices para otras estructuras modelo; por ejemplo, bliemery otros.
(2009) comparan diseños optimizados para el modelo Nested Logit (NL) con los generados para el MNL. Sándor y Wedel
(2002) examinaron la formulación transversal del modelo Mixed Logit (ML) de parámetros aleatorios, y Bliemer y Rose
(2008) exploraron la formulación de panel de este mismo modelo. Sin embargo, vale la pena señalar que estos
investigadores han descubierto que los diseños optimizados para el modelo MNL generalmente funcionan bien cuando
se analizan utilizando otras formas de modelo, con la excepción de la versión transversal del modelo ML de parámetros
aleatorios. En cualquier caso y para superar esta crítica, Rose y otros. (2009b) introdujeron una forma de promedio del
modelo, donde elS2Se puede calcular la matriz para diferentes estructuras de modelos y generar una medida de eficiencia
ponderada.

Una nota sobre los efectos de interacción y los diseños SCMuy a menudo, los analistas están interesados en estimar
los efectos de interacción además de los efectos principales (ver Figura 3.10). Usando el método de diseño tradicional de
construir diseños ortogonales, esto significaba que los atributos del diseño se asignaban a columnas particulares para
que no solo los efectos fueran ortogonales entre sí, sino también algunas o todas las columnas de interacción (formadas
al multiplicar dos o más columnas de efectos principales juntas). Recuerde que los diseños ortogonales minimizan los
elementos contenidos dentro delS2matriz de modelos lineales. De hecho, tienden a producir covarianzas cero, lo que
sugiere que las estimaciones de los parámetros de los efectos de interés son independientes entre sí.

Dado que la literatura sobre diseño experimental se originó con el examen de modelos lineales (es decir,
ANOVA y modelos de regresión), dichos diseños se consideraron importantes. Sin embargo, los modelos de
elección discreta no son modelos lineales (aunque colapsan en modelos lineales cuando todas las estimaciones
de los parámetros son simultáneamente cero). Como tal, los mismos problemas que existen para los efectos
principales existen para los términos de interacción cuando se trata de estimar modelos de elección discreta. De
hecho, un diseño que sea capaz de detectar efectos de interacción independientes bajo la hipótesis nula
producirá covarianzas distintas de cero cuando los parámetros dejen de ser cero, lo que sugiere que existe una
correlación entre los parámetros de interés. Por lo tanto, para minimizar los errores estándar y las covarianzas
de cualquier efecto de interacción de interés,
112 Transporte de modelado

3.4.2.4 Realización de pruebas de generación posteriores al diseño

Una vez que se ha generado un diseño, es posible probar cómo se espera que funcione en la práctica. Cuando se llevan a
cabo, tales pruebas típicamente han tomado una de dos formas. Dado un diseño, arréglelo y cambie los parámetros
previos para probar su eficiencia bajo el nuevo conjunto de parámetros asumidos (ver Rose y Bliemer 2008). Al adoptar
este enfoque, el investigador puede determinar la solidez del diseño ante errores de especificación de los parámetros
anteriores. Algunos analistas también han empleado la simulación de Monte Carlo para probar si se ha utilizado el
proceso de generación de datos correcto para generar el diseño, así como cuán precisas serán las estimaciones de los
parámetros para varios tamaños de muestra (ver Kesselsy otros. 2006; Ferrini y Scarpa 2007).

Se han utilizado varias medidas estadísticas diferentes para comparar los parámetros anteriores con los
obtenidos del proceso de simulación de Monte Carlo. Los dos más populares son el error cuadrático medio (MSE)
y el error absoluto relativo (RAE), definidos de la siguiente manera:

1∑ R ( )2
MSE= θk(r)−θ¯ (3.19)
R r=1

1∑ R ( )
RAE= θk(r)−θ̄ /θ̄ (3.20)
R r=1

dóndeθk(res
) la estimación del parámetro para el atributokobtenido en la iteración de la muestrar, yθ̄es lo conocido
estimación previa de parámetros utilizada en la construcción de la simulación de Monte Carlo.
Otra estadística popular que se usa a menudo en estas tareas es el error cuadrático medio esperado de las estimaciones de
parámetros (EMSE). A diferencia de MSE y RAE, esta medida proporciona una estadística de resumen única del sesgo y la varianza
generales en todas las estimaciones de parámetros, en lugar de las estimaciones de parámetros individuales:

1∑ R( ) T( )
EMSE= θk(r)−θ¯ θk(r) − θ̄ . (3.21)
R r=1

3.4.2.5 Cuestionario de Conducta

Una vez generado el diseño experimental, la siguiente etapa es la construcción del cuestionario. Dado que el
diseño no es más que una matriz de valores, el analista debe convertir esta matriz en algo que los encuestados
puedan interpretar y responder de manera significativa. Por lo tanto, la tarea del analista es convertir cada fila
del diseño en una opción similar a la que se muestra en las Figuras 3.7 y 3.8. Esto puede requerir, por ejemplo, el
uso de material gráfico de alta calidad para transmitir una impresión de cómo podría ser el nuevo material
rodante. El investigador debe tener cuidado de evitar cualquier sesgo implícito en el material ilustrativo utilizado.
Las ilustraciones gráficas a menudo se prefieren a las fotografías debido al mayor control que se brinda con
respecto a los detalles incluidos en ellas.

Ejemplo 3.16En un estudio sobre el papel de la frecuencia de los trenes sobre la demanda de viajes interurbanos (Steer y
Willumsen 1983) se encontró que aunque diferentes personas percibían la variable clave (frecuencia) de diferentes
maneras, casi nadie pensaba en ella en términos de trenes por hora o por día. Por lo tanto, la encuesta de SC comenzó
determinando cómo era vista la frecuencia (es decir, el concepto del analista) por el viajero, por ejemplo:

- 'Tomé el último tren que me deja en Newcastle antes de las 11 am; eran las 7:50 de Kings Cross', o
- 'Acabo de llegar a la estación y descubrí que el próximo tren a Newcastle saldría en 15 minutos.
Datos y espacio 113

Luego, el entrevistador convirtió los diferentes atributos de frecuencia del diseño experimental en los mismos
términos, por ejemplo: 'Para llegar a Newcastle antes de las 11 a. m., ahora debe tomar el tren de las 7:30' en una opción
de baja frecuencia, o '. . .el tren de las 8', en uno de alta frecuencia. Alternativamente, '. . .el próximo tren a Newcastle
salía en 30. . .' o '. . .10 minutos', para cada opción. A continuación, se pidió a los viajeros que eligieran entre alternativas
descritas en términos con los que estaban familiarizados y que afectaban a sus opciones de viaje actuales, aumentando
así el realismo y la relevancia.
Al construir el cuestionario, se recomienda que el analista aleatorice el orden de las tareas de elección que se
muestran a los diferentes encuestados para minimizar los posibles efectos de orden. Es decir, los encuestados pueden
usar las primeras tareas de elección para aprender qué es lo que se les pide que hagan, mientras que pueden sufrir fatiga
por las últimas tareas de elección. Aleatorizar las tareas de elección entre los encuestados debería reducir cualquier
interacción de estos sesgos con las tareas de elección específicas del diseño que de otro modo podría ocurrir. Aunque es
menos común, también se recomienda que el orden de las alternativas y los atributos sea aleatorio entre los
encuestados.

3.4.2.6 Nada es importante


Se ha recomendado agregar una opción nula al diseño experimental, también conocida comoopción de no compra. La
razón es que si se le presentan dos o más opciones a un individuo que las encuentra todas inaceptables y no tiene
oportunidad de rechazar el lote, es posible que esto desencadene un mecanismo secundario de toma de decisiones que
podría sesgar los resultados del experimento. . Este importante problema ha sido ignorado con demasiada frecuencia en
la práctica.

Ejemplo 3.17Olsen y Swait (1998) estudiaron la veracidad de las siguientes proposiciones para el caso de
comprar un producto cuya venta está sujeta a requisitos previos estrictos (por ejemplo, jugo de naranja
concentrado, donde se espera que muchos consumidores requieran que sea sin azúcar):

- Si no está presente una opción de no compra (NPO), los pesos de los atributos diferirán de los observados
cuando se ofrece una NPO en el diseño.
- Si se incluye una NPO en el diseño experimental, el analista debería poder identificar más
estructuras de preferencia que si faltara la NPO.
- Los modelos basados en datos sin NPO pueden mostrar una capacidad predictiva baja para situaciones de elección que
incluyen NPO, mientras que los modelos basados en datos que incluyen NPO presentarán una buena capacidad predictiva en
cualquier escenario.

Olsen y Swait (1998) utilizaron un diseño experimental con tres marcas, dos niveles de calidad de naranja, dos niveles de
dulzura, dos tipos de empaque (sencillo y en lotes de cuatro) y dos niveles de precio por unidad. También agregaron una
opción económica (con la marca del supermercado), que consiste en un jugo de naranja dulce elaborado con naranjas de
baja calidad. Postularon un diseño factorial que les permitiera estimar los efectos principales y todas las interacciones
entre pares de atributos.
Se presentaron muestras de igual tamaño (70 individuos) con 16 situaciones de tres opciones, para los
diseños con y sin NPO. También preguntaron si los consumidores vetarían la venta de un producto si uno de sus
atributos tuviera un nivel inaceptable.
Descubrieron que los parámetros de los modelos estimados no solo diferían en magnitud sino que, como era de
esperar, el modelo con NPO presentaba efectos no lineales (de interacción) significativos. Estos resultados fueron
confirmados por un análisis de las respuestas a la pregunta sobre el veto de un producto en función de sus características
(es decir, el 63% de la muestra consideró inaceptable el jugo endulzado; el 57% consideró inaceptable el requisito de
comprar paquetes de cuatro unidades). La Tabla 3.6 muestra el porcentaje de error en las predicciones
114 Transporte de modelado

Tabla 3.6 Errores cruzados de predicción en cuotas de mercado

Error de predicción (%)

Alternativa con NPO→sin NPO sin NPO→con NPO

1 3.8 24.8
2 − 1,9 21.6
3 − 2,8 37,9
OSFL – − 47,8

para cada conjunto de datos usando los parámetros estimados con el otro conjunto. No hay duda de que sus hipótesis
iniciales se confirmaron; por lo que se puede concluir que nadaesciertamente importante.

3.4.2.7 Realismo y Complejidad


Un elemento clave en el éxito de las encuestas de SP es el grado de realismo logrado en las respuestas. El
realismo debe ser preservado en lacontextodel ejercicio, elopcionesque se presentan y losrespuestasque están
permitidos. Esto se puede lograr de varias maneras:

- Concentrándose enespecíficoen lugar del comportamiento general; por ejemplo, se debe preguntar a los encuestados
cómo responderían a una alternativa en una ocasión dada, en lugar de en general; cuanto más abstracta es la
pregunta, menos fiable es la respuesta.
- Usar un contexto de elección realista, en particular uno en el que los encuestados hayan tenido una experiencia personal reciente
de (es decir, unpivotediseño).
- Conservar las restricciones de elección necesarias para que el contexto sea realista; esto generalmente significa pedir a
los encuestados que expresen sus preferencias con respecto a un viaje muy reciente sin relajar ninguna de sus
restricciones: por ejemplo, "si hoy prefiere usar el automóvil para visitar a su dentista por la noche directamente desde
el trabajo, mantenga esta restricción en su elecciones'. Aliviar estas restricciones solo producirá
respuestas irrealmente elásticas.
- Usar niveles de atributos existentes (percibidos) para que las opciones se construyan en torno a la experiencia existente.
- Usar las percepciones de los encuestados sobre lo que es posible para limitar los valores de los atributos en el ejercicio. Por
ejemplo, al considerar servicios ferroviarios mejorados, no ofrezca opciones donde la estación esté más cerca de casa de lo que
es factible.
- Asegurarse de que todos los atributos relevantes estén incluidos en la presentación; esto es especialmente
importante si se desarrollan modelos de elección de viajes y no solo se mide la importancia relativa de
diferentes atributos.
- Mantener los experimentos de elección lo más simple posible, sin sobrecargar al encuestado. Recuerde que en la
práctica respondemos a elecciones muy complejas, pero lo hacemos durante un largo período de tiempo, adquiriendo
experiencia sobre las alternativas a nuestro propio ritmo y seleccionando la mejor para nosotros. En un ejercicio SP,
estas opciones se comprimen en un período de tiempo muy corto y, por lo tanto, deben ser

- Permitir que los encuestados opten por una respuesta fuera del conjunto de alternativas experimentales. Por ejemplo,
convenientemente simplificado.

en un ejercicio de elección de modo, si todas las opciones se vuelven demasiado poco atractivas, el encuestado puede
decidir cambiar el destino, el tiempo de viaje o no viajar; permítale una alternativa de 'hará otra cosa'. Si se utiliza una
entrevista basada en computadora, podría programarse para pasar luego a otro ejercicio que explore
precisamente estas otras opciones.
- Asegurarse de que todas las opciones estén definidas de forma clara y sin ambigüedades. Esto puede resultar bastante
difícil cuando se trata de atributos cualitativos como la seguridad o la comodidad; por ejemplo, no expresar
Datos y espacio 115

alternativas como 'pobre' o 'mejorado' ya que esto es demasiado vago y propenso a diferentes interpretaciones por parte de los
encuestados. En su lugar, describa qué medidas o instalaciones están involucradas para mejorar la seguridad o la comodidad del viaje
(circuito cerrado de televisión en todas las estaciones/asistentes presentes en todo momento,. . ., aire acondicionado en todos los autocares
como en los trenes InterCity).

3.4.2.8 Uso de computadoras en encuestas de PS

Las computadoras se han utilizado desde hace varios años en la realización de encuestas de muchos tipos, incluidas las
encuestas SC. Las computadoras ofrecen ventajas muy significativas sobre los métodos de 'papel y lápiz' pero tienen,
dada la tecnología actual, algunas limitaciones. Considerémoslos primero.
En el caso de las encuestas SC, lo más probable es que se utilicen microcomputadoras portátiles, preferiblemente del tamaño de
una notebook. En el pasado, sus principales limitaciones eran la duración de la batería y el peso, pero las máquinas modernas
prácticamente han superado estos problemas. La segunda restricción es el tamaño y la calidad de la pantalla. Las computadoras
portátiles contemporáneas ofrecen un tamaño de pantalla razonable y las pantallas a color de alta resolución permiten mostrar
más información, a un precio. Además, la pantalla de una computadora se adapta perfectamente a las elecciones pareadas en su
forma pura y generalizada (es decir, con una escala de calificación asociada, véase Ortúzar y Garrido 1994a). También es posible
mostrar no solo los atributos que varían como parte del experimento SC, sino también otras características que permanecen fijas,
como el destino, la hora del reloj o, de hecho, cualquier otra cosa que pueda ser relevante o útil para el encuestado.

Sin embargo, lo que hace que las entrevistas basadas en computadora sean más atractivas es la tarea de adaptar el
experimento al sujeto. La mayoría de las entrevistas de preferencias declaradas incluirán un cuestionario en el que se
recopila y utiliza información sobre el encuestado y un viaje reciente (o compra, etc.) para construir un experimento
posterior (es decir, un diseño pivote). Este cuestionario se puede reproducir en software con las ventajas añadidas de
validación de entrada automática y enrutamiento automático (consulte la Figura 3.11). Con un sistema computarizado las
respuestas a
automáticamente para cada
el experimento apropiado

Figura 3.11Ejemplo de cuestionario informatizado


116 Transporte de modelado

y se pueden incorporar controles lógicos en las respuestas y pantallas de ayuda emergentes o ventanas de información
de búsqueda (por ejemplo, para horarios) para mejorar la calidad de la entrevista.
Las computadoras también permiten experimentar con diseños adaptativos, es decir, modificar el diseño
experimental a la luz de las respuestas del sujeto (Holdenet al.1992; tubiaet al.2007); aunque puede haber
ganancias al adaptar el diseño en un sentido bayesiano, se debe tener cuidado de no perder las propiedades
deseables de la muestra y el diseño general. De hecho, Bradley y Daly (2000) advierten contra el uso de diseños
adaptativos, ya que pueden generar sesgos; además, los métodos para implementar esto en el caso de diseños
eficientes para modelos de elección discreta más complejos son muy complejos.
El uso de computadoras para las encuestas SC también hace posible diseñar entrevistas más complejas que las que
podrían intentarse manualmente, aunque esta complejidad puede nunca ser evidente para el encuestado, o incluso para
el entrevistador. Además, un buen software permite la aleatorización del orden en que se ofrecen las opciones a cada
individuo, eliminando así otra posible fuente de sesgo en las respuestas. Finalmente, como todas las respuestas se
almacenan directamente en el disco, no hay costos de ingreso de datos ni errores y los datos están disponibles de
inmediato para su procesamiento.
Varios paquetes de software ofrecen excelentes instalaciones para diseñar y codificar entrevistas muy
complejas con un mínimo de comprensión de la informática en sí; entre los más conocidos están ACA (Sawtooth
Software), ALASTAIR (Steer Davies Gleave), MINT (Hague Consulting Group) y Ngene 1.0 (Choice Metrics). En
resumen, las ventajas prácticas de las entrevistas SP basadas en computadora son:

- Un formato interesante que es consistente entre entrevistas y encuestados.


- Bifurcación automática de preguntas, indicaciones y validación de respuestas. Codificación y
- almacenamiento automático de datos.
- La facilidad con la que el ejercicio SP se puede adaptar a cada individuo.
- La reducción del tiempo de entrevista lograda porque el entrevistador no tiene que calcular y
preparar opciones por escrito. Reducción de
- costes de formación y briefing.
- Las ventajas estadísticas de aleatorizar la secuencia de opciones.

En el lado del débito se tiene el costo inicial de inversión en hardware, software, seguros y el requerimiento de
brindar algunos servicios de respaldo (discos, baterías de repuesto, módems, asesoría técnica a entrevistadores
y supervisores, etc.) en el lugar.
Otra posibilidad, cada vez más atractiva, es la realización de la entrevista a distancia a través de una encuesta en una
página Web distribuida a través de Internet (ver por ejemplo, Iragüen y Ortúzar 2004; Hojmanet al. 2005). En este caso, el
marco muestral es un tema importante, así como el diseño aún más cuidadoso del instrumento de encuesta; esto tiene
que seguir las recomendaciones especiales ya mencionadas para las encuestas de devolución por correo.

3.4.2.9 Problemas de calidad en las encuestas de preferencia declarada

Las técnicas de preferencia declarada (SP) han demostrado ser un instrumento poderoso en la investigación y el
desarrollo de modelos en el transporte y otros campos. Su valor depende de la aplicación cuidadosa de las pautas
desarrolladas hasta ahora y discutidas en las páginas anteriores. Un elemento clave en esto es restringir la artificialidad
del ejercicio al mínimo requerido. Cuanto más interesado esté el analista en predecir el comportamiento futuro, más
importante será asegurarse de quecontexto de decisiónes específico (un viaje real, no uno hipotético) y elespacio de
respuestaes conductual.
Pero uno de los peligros de estas técnicas es que es relativamente fácil tomar atajos para reducir costos. Por
ejemplo, se puede permitir que el contexto de la decisión se vuelva menos específico y más genérico; esto hace
que el muestreo sea más fácil, el cuestionario más simple y, como era de esperar, los modelos resultantes
Datos y espacio 117

bastante creíbles, ya que reflejan un comportamiento "ideal" en lugar de restringido. El valor de los indicadores de
bondad de ajuste en las encuestas de preferencia declarada depende completamente de la calidad y el realismo del
experimento. El problema es que los modelos resultantes de estudios 'más baratos' solo se encontrarán defectuosos
mucho más tarde.
Lo mismo ocurre con las técnicas de análisis discutidas en el Capítulo 8. Un buen análisis a menudo requerirá combinar datos de
SP y RP para asegurarse de que los modelos resultantes estén bien anclados (escalados) en las restricciones y el ruido del
comportamiento real.
Las encuestas de SP pueden ser una forma rentable de refinar y mejorar las herramientas de modelado, pero es probable que
un énfasis excesivo en el bajo costo, a expensas de la garantía de calidad y el análisis sólido, genere decepciones y un apoyo
deficiente para la toma de decisiones.

3.4.3 Ejemplo de estudio de caso

Considere una evaluación de transporte hipotética simple estudio de iones en el que se pedirá a los encuestados que . El
(elija entre tres precios de rutas hipotéticas diferentes (es sobjetivo del estudio es determinar el papel que (es decir, viajar
decir, costos de gasolina y peaje) y condiciones de tiempo en flujo libre y tráfico congestionado) requiere determinar
de viaje) según la elección de la ruta. El estudio al puede scómo la confiabilidad del tiempo de viaje
influir en la elección de la ruta.
Suponga que la investigación secundaria y cualitativa influyeconfirmó lo anterior como el conjunto relevante de atributos fijó los
en la elección; la misma investigación adicional ident relevante iniveles de atributo que se muestran en la Tabla 3.7 como tres niveles
para el estudio. Tenga en cuenta que cada atributo tiene t en este ejemplo, pero no es necesario que sean los diferentes
mayúsculas y minúsculas, ya que aquí se permiten diferentes números de niveles de atributo. esto fue solo
atributos por motivos de simplicidad.

Tabla 3.7Atributo y atributo niveles de ibuto

Gastos de viaje

Gasolina $1,00, $1,50, $2,00


Peaje $0,00, $2,00, $4,00
Tiempos de viaje (minutos)
Tiempo de flujo libre 10, 15, 20
tiempo congestionado 10, 15, 20
tiempo de salida 5, 10, 15
Fiabilidad del tiempo de viaje

Probabilidad de llegar temprano 0,1, 0,2, 0,3


Probabilidad de llegar tarde 0,1, 0,3, 0,5

Además, dado que hemos elegido una ruta, oEl problema del hielo como nuestro caso de estudio, un
el experimento ch es el más apropiado para losdenfoque de diseño SC no etiquetado a considerar. Recuerde,
procesos y principios en la construcción de bsin embargo, que las encuestas SC elled son un poco
encuestas SC etiquetadas. Como tal, donde di diferentes a las que existen, haremos una nota especial. tivos
Ahora, armado con el conjunto apropiado de alternativas (3), atributos (7) y niveles de atributos (3 para un diseño
para cada atributo, el objetivo se convierte en generar datos experimental que se puede utilizar para capduals que ayudarán
reales sobre las respuestas de comportamiento de los objetivosa responder a las preguntas identificadas).
de estudio individuales.

(continuado)
118 Transporte de modelado

El primer paso es escribir las s más probables que se mi


t de funciones de utilidad representativas (V)
estimarán para el estudio. Se han recopilado los datos de wque serán las funciones de utilidad esperadas
la ecuación (3.22) sho. Al escribir el equa (prevemos la que se usarán una vez que, como se muestra a
estimación de parámetros genéricos para las alternativasmetrocontinuación, es fácil ver que solo tenemos
cruzadas y no hay interacciones) que si hubiéramos efectos (es decir, los parámetros son los
asumido un experimento de elección etiquetado, se mismos y no hay constantes específicas
esperaban parámetros específicos y genéricos alternativosalternativas (ASC) Nota: las funciones de
esperados, estos deberían incluirse en la ut o las variables utilidad deben reflejar la combinación de ers
codificadas ortogonales también deberían estar incluido tu que se estimarán.

V(A) =θ1XMascota A{1.00,1.50,2.00}+θ2XPeaje A{0,2,4}+θ3 XF TLC{10,15,20}+θ4XCongTA{10,15,20}


+ θ5XEgTA{10,15,20}+θ6XPRconde a{0.1,0.2,0.3} + θ7XPRconde a{0.1,0.3,0.5},
V(B) =θ1XMascota B{1.00,1.50,2.00}+θ2XPeajeB{0,2,4}+θ3 XF FTB{10,15,20}
(3.22)
+ θ4XCongTB{10,15,20}+θ5XEgTB{10,15,20} + θ6XPREarlB{0.1,0.2,0.3}+θ7XPREarlB{0.1,0.3,0.5}, XF
V(C) =θ1XPetC{1.00,1.50,2.00}+θ2XPeajeC{0,2,4}+θ3 FTC{10,15,20}
+ θ4XCongTC{10,15,20}+θ5XEgTC{10,15,20} + θ6XPRconde{0.1,0.2,0.3}+θ7XPRconde{0.1,0.3,0.5}.

Al mismo tiempo que se estima la especificación de considerado, la estructura del modelo más probable de
utilidad, también se debe decidir. Esto se debe a las ser diferentes estructuras del modelo tendrá más o
estimaciones de parámetros (como veremos en el Capítulomenos. Por ejemplo, si un modelo logit mixto con aleatoria
7). parámetros a estimar (ver apartado 7.6.2), con cada entonces más de un parámetro puede estar asociado del
atributo. De manera similar, los parámetros relacionados orequerirá la estimación de escala adicional pler MNL.
con Nested Logit m (consulte la sección 7.4.3) que el sim
Dada la estructura del modelo y la utilidad especificación, entonces es posible determinar el ajuste
esperada, se requiere el menor número de tareas de del diseño. Para el presente estudio de caso, suponga del
elección en general que nos gustaría estimar un MNL con especificación de utilidad (3.22) en los datos; En tal
simple mo ese caso, se deben estimar siete A caso, se requiere que el diseño tenga siete efectos de
parámetros. tareas como mínimo. Como no estamos interacción de éter de elección que pueden estar
seguros de a quién le gustaría permitir la posibilidad apresentes, y se estima el modelo econométrico avanzado,
de que más desee producir un diseño con más de sev mi
tenemos tareas de elección.
Por otro lado, suponiendo que el nivel de atributo bala más Una vez que se requiere, el diseño final debe tener como
de siete tareas de elección con su número total de tres niveles, mi
objetivo que r sea divisible por tres (es decir, que todos los
la cantidad de tareas de elección debe ser d generar un diseño iatributos sean visibles por este número). Ante esto, decidimos
con 12 tareas de elección, pero las eliminaremos (es decir, bloquearlo para que cada encuestado se enfrente solo a seis de
supongamos que el número inicial de investigación cualitativa indicó que los encuestados podrían responder solo esto
de tareas cómodamente).
Hemos construido tres diseños diferentes en o para ur ejemplo (aunque en la práctica, sería habitual
construir solo uno): un diseño ortogonal, un diseño D- D- diseño óptimo bajo la hipótesis nula, y a Para generar esta
eficiente bajo la hipótesis no nula. a los valores esperados última, se requiere información como . Ahora, los valores
de las estimaciones de parámetros de varias fuentes. Por previos de los parámetros pueden establecerse para tener
ejemplo, el signo de análisis, como un parámetro de costo,salguna expectativa previa en cuanto a la probable función de
debe ser negativo. También puede proporcionar evidencianorteutilidad. Alternativamente, podrían tomarse estimaciones de
sobre qué valores proporciona la p una indicación sobre elarámetros de investigaciones previas, o un estudio piloto podría
valor razonablemente probable. mi
tomar s.
Para el estudio de caso actual, suponga que las estimaciones de oi la literatura estableció que el conjunto de parámetros
una revisión en la Tabla 3.8 podrían actuar como buenas que configuran el experimento (ver Ziy otros. 2009). Nota
mi
estimaciones previas en s que nuestra referencia no incluye untiempo atributo, y por lo tanto el parámetro anterior para este
de salida atributo fue tomado como cero.
Datos y espacio 119

Tabla 3.8Parámetros previos y errores estándar previos


Gastos de viaje ($)
Gasolina − 0,479 (0,0311)
Peaje − 0,426 (0,0362)
Tiempos de viaje (min)
Tiempo de flujo libre − 0,098 (0,0087)
tiempo congestionado − 0,147 (0,0108)
tiempo de salida 0.0 (0.0)
Fiabilidad del tiempo de viaje

Probabilidad de llegar temprano − 0,120 (0,0827)


Probabilidad de llegar tarde − 0,305 (0,032)

Tenga en cuenta que si el parámetro exacto estima la eportado en la Tabla 3.8, sin resultados adicionales. De
información r, entonces es poco probable que un diseño óptimohecho, las estimaciones de parámetros para la corriente d
localmente coincida exactamente con los obtenidos suponga mi
en nuestro estudio de referencia; por esta razón vamos a
distribuciones bayesianas de parámetros anteriores i extrae denortegenerando el diseño. Para hacer esto, tomaremos ciones
la distribución normal multivariada bayesiana medias de las usando las estimaciones de los parámetros informados
distribuciones y sus errores estándar distribución de como las desviaciones estándar (por ejemplo, el
parámetros para la gasolina el atributo esθ una distribución 1bayesiano previo). ∼norte(-0,479, 0,0311)). Aunque hemos
Normal multivariada aquí, podríamos o cualquier otra elegido tener distribuciones uniformes asumidas con la
suposición distribucional en generati misma facilidad que el diseño (Rose y Bliemer 2009).
norte

Los tres diseños generados se muestran en Tabl en la Tabla e 3.9 y sus estructuras de correlación se reportan en el gen
3.10. Todos los diseños se generaron utilizando diseño, se norte 1.0. El primero, el proceso gn ortogonal tradicional. Por lo
construyó utilizando el diseño secuencial construido para la itanto, primero se reorganizó aleatoriamente un diseño
primera alternativa; entonces sus tareas de elección terceras wortogonal para construir el segundo y se seleccionó
alternativas (por ejemplo, la primera tarea de elección en alte raleatoriamente el nativo 1 para ser la tarea de elección 3,
11 en la alternativa 2 y la tarea de elección 8 en alternativa da miy así sucesivamente). Como se puede ver en la Tabla 3.11,
como resultado un diseño donde eldentro de la alternativa el Cestas orrelaciones son cero para los atributos de diseño,
entre alternativaestructura de correlación puede diseñar pero no cero. Volveremos a discutir el segundo
después de discutir el tercero.
El diseño 3 se construyó utilizando el párrafo estimaciones
metro de éter mencionadas anteriormente. Aquí requerimos
anterior estimando laS2matriz, y por lo tanto el diseñoF la matriz de información de isherInorte(θ). Reorganizar y, por lo tanto,
para que cada fila represente una alternativa, tarea,I varias filas se combinan para formar una opción
norte(θ) puede calcularse utilizando matrices simples deX álgebra (ver Rose y Bliemer 2006), por medio
las ecuaciones (3.23) y (3.24):

( ) ∑C ∑jc
Inorte(θ) =ZTZ = zTjczjc (3.23)
C=1 j=1

dónde
( )
∑j C √
zjc=Xj kc− Xyo kcPAGic PAGic (3.24)
i= 1

Aquíjyise utilizan para denotar alternativas,Cun nivel ce tarea,kun atributo particular yXjkcel atributo preguntaC.
choi para elkelatributo de alternativajen la elección t deFinalmente,PAGicrepresenta la probabilidad de elección
alternativaiser elegido en la tarea de elecciónC.

(continuado)
120

Tabla 3.9Diseños experimentales


Transporte de modelado
Datos y espacio 121

Tabla 3.9(Continuado)

(continuado)
122

Tabla 3.10Diseñar estructuras de correlación

Diseño ortogonal tradicional


Pr. Pr. FF Cong. P.ej. Pr. Pr. FF Cong. P.ej. Pr. Pr. FF Cong. P.ej.
Gasolina Peaje Tarde Temprano Tiempo Tiempo Tiempo Gasolina Peaje Tarde Temprano Hora Tiempo Tiempo Gasolina Peaje Tarde Temprano Tiempo Tiempo Tiempo Bloquear

Gasolina 1.00
Peaje 0.00 1.00
Pr. Tarde 0.00 0.00 1.00
Pr. Temprano 0.00 0.00 0.00 1.00
Tiempo de FF 0.00 0.00 0.00 0.00 1.00
Cong.
Tiempo 0.00 0.00 0.00 0.00 0.00 1.00
P.ej. Tiempo 0.00 0.00 0.00 0.00 0.00 0.00 1.00
Gasolina - 0,25 0.25 0.50 0.00 0.13 - 0,25 0.00 1.00
Peaje - 0,50 0.00 0.00 - 0,50 - 0.13 0.25 - 0,50 0.00 1.00
Pr. Tarde - 0,13 - 0,63 0,38 - 0,13 - 0,13 - 0,50 0.25 0.00 0.00 1.00
Pr. Temprano 0,25 - 0,25 0,13 - 0,38 0,00 0,25 0.00 0.00 0.00 0.00 1.00
Tiempo de FF 0.13 0.13 0.13 0.38 - 0,63 - 0,25 - 0,50 0.00 0.00 0.00 0.00 1.00
Cong.
Tiempo 0.13 0.13 0.00 0.00 0,63 - 0,25 - 0,25 0.00 0.00 0.00 0.00 0.00 1.00
P.ej. Tiempo 0.13 0.13 - 0,50 0.00 - 0,13 - 0,25 0.25 0.00 0.00 0.00 0.00 0.00 0.00 1.00
Gasolina - 0,13 - 0,13 0,00 - 0,75 - 0,50 - 0,25 0.00 - 0.13 0.38 0.38 0.38 0.13 - 0,25 0.00 1.00
Peaje - 0,38 - 0,38 0,00 0,25 0,25 - 0,25 0.00 - 0.13 - 0.13 0.38 0.13 0.13 0.50 - 0,25 0.00 1.00
Pr. Tarde - 0,25 0.75 0.00 0.00 0.00 0.00 - 0,50 0.25 0.25 - 0,63 - 0.13 0.38 0.25 - 0,25 0.00 0.00 1.00
Pr. Temprano 0.38 - 0.13 - 0,25 0.00 - 0.13 0.25 - 0,25 - 0,75 0.00 - 0.13 - 0,25 0.13 0.13 - 0,38 0.00 0.00 0.00 1.00
Tiempo de FF 0.25 0.00 - 0.13 0.00 0.25 - 0.13 - 0,38 - 0,38 0.13 0.00 0.25 0.13 0.25 0.25 0.00 0.00 0.00 0.00 1.00
Cong.
Tiempo 0,63 0.13 - 0,25 0.00 0.13 - 0,25 0.25 0.00 - 0,75 - 0,25 0.38 0.00 0.13 0.13 0.00 0.00 0.00 0.00 0.00 1.00
P.ej. Tiempo - 0,13 - 0,13 0,00 - 0,50 0,63 0.50 0.00 0.00 0.25 - 0,25 0.38 - 0,75 0.13 - 0,38 0.00 0.00 0.00 0.00 0.00 0.00 1.00

Bloquear 0,00 0,00 0,41 0.00 0.00 0.00 0.00 0.82 0.00 0.00 0.00 0.00 0.00 0.00 - 0,20 - 0,20 0.00 - 0,41 - 0,61 0.00 0.00 1.00
Transporte de modelado
Datos y espacio

Tabla 3.10(Continuado)

Diseño D-óptimo bajo la hipótesis nula


Pr. Pr. FF Cong. P.ej. Pr. Pr. Congreso FF. P.ej. Pr. Pr. FF Cong. P.ej.
Gasolina Peaje Tarde Temprano Tiempo Tiempo Tiempo Gasolina Peaje Tarde Temprano Hora Hora Tiempo Gasolina Peaje Tarde Temprano Tiempo Tiempo Tiempo Bloquear

Gasolina 1.00
Peaje 0.00 1.00
Pr. Tarde 0.00 0.00 1.00
Pr. Temprano 0.00 0.00 0.00 1.00
Tiempo de FF 0.00 0.00 0.00 0.00 1.00
Cong.
Tiempo 0.00 0.00 0.00 0.00 0.00 1.00
P.ej. Tiempo 0.00 0.00 0.00 0.00 0.00 0.00 1.00
Gasolina - 0,50 0.00 0.00 0.00 - 0,38 0.00 0.75 1.00
Peaje 0.00 - 0,50 0.00 0.00 - 0,38 0.00 0.75 0.75 1.00
Pr. Tarde 0.38 0.38 - 0,50 0.00 - 0,38 0.00 0.00 0.00 0.00 1.00
Pr. Temprano - 0,38 - 0,38 0,00 - 0,50 - 0,38 0.00 0.00 0.38 0.38 - 0,38 1.00
Tiempo de FF 0.00 0.00 0.00 0.00 - 0,50 0.00 0.00 0.00 0.00 0.00 0.00 1.00
Cong.
Tiempo 0.00 0.00 0.00 0.00 0.75 - 0,50 0.00 - 0,38 - 0,38 - 0,38 - 0,38 0.00 1.00
P.ej. Tiempo 0.00 0.00 0.00 0.00 - 0,75 0.00 - 0,50 0.00 0,00 0,38 0,38 0.00 - 0,75 1.00
Gasolina - 0,50 0.00 0.00 0.00 0.38 0.00 - 0,75 - 0,50 - 0,75 - 0,38 0.00 0.00 0.38 0.00 1.00
Peaje 0.00 - 0,50 0,00 0.00 0.38 0.00 - 0,75 - 0,75 - 0,50 - 0,38 0.00 0.00 0.38 0.00 0.75 1.00
Pr. Tarde - 0,38 - 0,38 - 0,50 0.00 0.38 0.00 0.00 0.00 0.00 - 0,50 0.38 0.00 0.38 - 0,38 0.38 0.38 1.00
Pr. Temprano 0.38 0.38 0.00 - 0,50 0.38 0.00 0.00 - 0,38 - 0,38 0.38 - 0,50 0.00 0.38 - 0,38 0.00 0.00 - 0,38 1.00
Tiempo de FF 0.00 0.00 0.00 0.00 - 0,50 0.00 0.00 0.38 0.38 0.38 0.38 - 0,50 - 0,75 0.75 - 0,38 - 0,38 - 0,38 - 0,38 1.00
Cong.
Tiempo 0.00 0.00 0.00 0.00 - 0,75 - 0,50 0.00 0.38 0.38 0.38 0.38 0.00 - 0,50 0.75 - 0,38 - 0,38 - 0,38 - 0,38 0.75 1.00
P.ej. Tiempo 0.00 0.00 0.00 0.00 0.75 0.00 - 0,50 - 0,75 - 0,75 - 0,38 - 0,38 0.00 0.75 - 0,50 0.75 0.75 0.38 0.38 - 0,75 - 0,75 1.00

Bloquear 0.00 0.00 0.00 0.41 0.00 0.00 0.00 0.00 0.00 0.00 - 0,20 0.00 0.00 0.00 0.00 0.00 0.00 - 0,20 0.00 0.00 0.00 1.00

(continuado)
123
124

Tabla 3.10(Continuado)

Diseño D-eficiente bajo la hipótesis no nula


Pr. Pr. FF Cong. P.ej. Pr. Pr. FF Cong. P.ej. Pr. Pr. FF Cong. P.ej.
Gasolina Peaje Tarde Temprano Tiempo Tiempo Tiempo Gasolina Peaje Tarde temprano Tiempo Tiempo Tiempo Gasolina Peaje Tarde Temprano Tiempo Tiempo Tiempo Bloquear

Gasolina 1.00
Peaje 0.13 1.00
Pr. Tarde 0.00 - 0,13 1,00
Pr. Temprano - 0.13 0.13 0.25 1.00
Tiempo de FF - 0.13 0.00 - 0,25 0.00 1.00
Cong.
Tiempo 0.13 - 0,25 0.13 0.13 - 0,25 1.00
P.ej. Tiempo - 0.13 0.00 0.25 0.25 - 0,63 - 0.13 1.00
Gasolina - 0.13 0.88 - 0.13 0.25 0.13 - 0,50 0.13 1.00
Peaje 0.00 - 0,75 - 0.13 0.00 0.00 0.13 0.13 - 0,63 1.00
Pr. Tarde 0.13 0.00 - 0,13 - 0,25 - 0,25 0.00 0.13 - 0.13 0.00 1.00
Pr. Temprano 0.13 0.13 0,00 - 0,38 - 0,38 - 0.13 0.00 0.13 - 0,38 - 0.13 1.00
Tiempo de FF - 0.13 0.38 0,13 0,00 - 0,63 0.13 0.38 0.38 - 0.13 0.13 0.38 1.00
Cong.
Tiempo 0.00 0.13 0,63 0.50 0.13 0.00 - 0.13 0.00 - 0,25 -0,13 -0,25 -0,25 1.00
P.ej. Tiempo 0.00 0.13 - 0.13 0.00 0.50 0.00 - 0,50 0.25 0,13 -0,13 0,00 0,25 - 0.13 1.00
Gasolina - 0,63 - 0,75 0,13 - 0.13 0.00 0.13 0.13 - 0,63 0,63 0.00 - 0,25 - 0,13 0.00 - 0.13 1.00
Peaje - 0,13 0,13 0,13 - 0,50 0.00 0.00 0.13 0.13 - 0,38 0.13 0,50 0,25 - 0,25 0.13 0.00 1.00
Pr. Tarde - 0,25 - 0.13 - 0,50 0.00 0.38 - 0.13 0.00 0.13 0.25 - 0,63 0.13 - 0.13 - 0,50 0.25 0.13 0.13 1.00
Pr. Temprano 0.00 - 0.13 - 0,38 - 0,38 0.25 0.25 - 0.13 - 0,25 0.38 0.38 - 0,63 - 0,13 - 0,38 0.13 0.25 0.00 0.00 1.00
Tiempo de FF 0.50 0.25 - 0.13 - 0,25 - 0,38 - 0,25 0.00 0.00 - 0,25 0,63 0,25 0,00 0,13 - 0,38 - 0,38 - 0,13 - 0,63 - 0,13 1.00
Cong.
Tiempo 0.13 0.13 - 0,25 - 0,25 0.38 - 0,75 - 0,38 0.25 0.13 - 0.13 0.13 - 0.13 0.00 0.38 - 0.13 - 0,25 0.13 - 0.13 0.25 1.00
P.ej. Tiempo 0.13 - 0,50 - 0,38 - 0,13 0.00 0.13 - 0,25 - 0,63 0.25 0.13 0.00 - 0,63 0.00 - 0,50 0.25 - 0,38 0.00 0.00 0.38 0.00 1.00

Bloquear 0.41 0.00 0.00 0.00 - 0,20 0.41 0.00 - 0,20 0.41 0.00 0.00 0.41 0.00 0.41 0.00 0.00 0.00 0.20 0.00 0.00 - 0,20 1.00
Transporte de modelado
Datos y espacio 125

Tabla 3.11 Inorte(θ) yS2para el tercer diseño


Inorte(θ)

Var(θ1) Var(θ2) Var(θ3) Var(θ4) Var(θ5) Var(θ6) Var(θ7)


Var(θ1) 2.088 − 1.974 0.026 0.045 − 0,807 − 1.525 2.761
Var(θ2) − 1.974 27.323 0.065 − 0,077 − 20.218 − 30.855 − 5.141
Var(θ3) 0.026 0.065 0.376 0.002 − 2.105 0.608 0.362
Var(θ4) 0.045 − 0,077 0.002 0.091 0.374 − 0,330 0.507
Var(θ5) − 0,807 − 20.218 − 2.105 0.374 188.628 − 36.823 3.175
Var(θ6) − 1.525 − 30.855 0.608 − 0,330 − 36.823 159.857 − 14.522
Var(θ7) 2.761 − 5.141 0.362 0.507 3.175 − 14.522 213.312
S2
Var(θ1) Var(θ2) Var(θ3) Var(θ4) Var(θ5) Var(θ6) Var(θ7)
Var(θ1) 0.588 0.081 0.002 − 0,179 0.016 0.024 − 0,004
Var(θ2) 0.081 0.071 0.016 0.027 0.011 0.017 0.002
Var(θ3) 0.002 0.016 2.852 − 0,161 0.034 − 0,001 − 0,005
Var(θ4) − 0,179 0.027 − 0,161 11.441 − 0,018 0.022 − 0,022
Var(θ5) 0.016 0.011 0.034 − 0,018 0.008 0.004 0.000
Var(θ6) 0.024 0.017 − 0,001 0.022 0.004 0.011 0.001
Var(θ7) − 0,004 0.002 − 0,005 − 0,022 0.000 0.001 0.005

Para el tercer diseño, la figura 3.12 muestra la media c de alculaciones usadas para construirInorte(θ) asumiendo
las distribuciones de parámetros bayesianos que dan como la n en la Tabla 3.9. Para valores de diseño conocidosX,
problema calcular las funciones de utilidad de probabilidades el primero para cada tarea de elección dado el modelo
esperadas. Una vez que las probabilidades de elección tienen vasumido y calculado, es posible construir elZ e inversa
matriz en la ecuación (23), así comoInorte(θ). Tomando th bajo el deInorte(θ) produceS2para el tercer diseño, los trices se
parámetro a priori asumido; estos dos amuestran en la Tabla 3.11.
Luego se calcula el valor del error D para este diseño. ated como
( )
D-error = det S2(X,θ)1/K (3.25)

y el valor calculado para la matrizS2en mesa 3,12 es 0,109162.


Sin embargo, al generar este diseño no utilizaremos las simplemente asuma las estimaciones de los parámetros que
figuras y tablas anteriores. Más bien, usaremos si la distribuciónse muestran en los métodos de mulación para sacar valores de
de parámetros previos bayesianos multivariados sea Normal o los supuestos, llamémoslos-en general (es decir, recuerde que
cualquier otra distribución), y calcularemos pueden eS2por cada sorteo realizado. el bayesianoDb-error
por lo tanto se puede calcular como:

( )
Db-error = detS 2(X,θ)1/Kφ(θ|-)dθ (3.26)
θ

Al arreglar los sorteos simulados y cambiar los e combinaciones de nivel de atributo del diseño usando
algoritmos discutidos en la sección 3.4.2.3, el diseño ayesian Db-El error se puede calcular para cada e nuevo
generado por B. Que produce el valor más bajo Db-error que se retiene y utiliza. En particular, el bayesiano
para el Diseño 3 utilizando 100 sorteos de Halton (siempremi
Bhat 2001) en la simulación fue 0,109749. La nota en
que el error D real o D bayesianob-valor de error compara mi
realidad no tiene sentido y solo se puede usar para hacer
diseños construidos bajo el mismo conjunto o suposiciones.

(continuado)
126

Zmatriz

Figura 3.12Calculando elZmatriz


Transporte de modelado
Datos y espacio 127

Cuadro 3.12Prueba previa de error de especificación de parámetros

% variación θ1 signo 1
Delaware Diseño 2 Diseño 3
− 100 0 0.195474 0.177806 0.119139
− 80 − 0,0958 0.196038 0.17958 0.117869
− 60 − 0,1916 0.196801 0.181486 0.116844
− 40 − 0,2874 0.197772 0.183523 0.116066
− 20 − 0,3832 0.198958 0.18569 0.11532
0 − 0.479 0.200367 0.187988 0.115242
20 − 0,5748 0.202007 0.190418 0.115196
40 − 0,6706 0.203888 0.192982 0.115396
60 − 0,7664 0.20617 0.195684 0.11584
80 − 0,8622 0.208405 0.19528 0.11653
100 − 0,958 0.21106 0.201519 0.117468

Aunque no lo mostramos aquí, unS2matriz El lector también se puede calcular para los otros dos diseños.
interesado puede comprobar que bajo el diseño s paraame suposiciones utilizadas para generar las funciones
la hipótesis no nula (es decir, lo mismo que produciría de utilidad D-eficientes y estimaciones de parámetros
el diseño ortogonal tradicional de 0.201293, mientras anteriores), un error D de 0.200367 y un D bayesianob
que el diseño D-óptimo bajo 0.187988 y un D -error la hipótesis nula produciría un error D de
bayesianob-error de 0.1897077.
Volviendo ahora al segundo diseño (es decir, y er la hipótesis nula), recuerde que se generó
asumiendo una estructura de modelo MNL con r anteriores iguales a cero y los niveles de atributo
parámetros en códigos ortogonales. No mostramos que elmi
recodificaron el proceso de generación del diseño aquí y la
lector de precisión se remita a Rose y Bliemer (2008) ni se calle interesaday otros. (2005) por los métodos empleados en
nos ocurre la combinación exacta de niveles de atributos ns para generarlo. Sin embargo, el diseño también puede n
que se generará utilizando métodos como los que para construir el diseño D-eficiente bajo el
muestran hipótesis no nulas.
Al adoptar este enfoque, la matriz de diseño codificaría ld necesita ser transformado para permitir ondents
en lugar de los niveles reales que se muestran como cero yortogonales. A continuación, los parámetros previos serían
Inorte(θ) calculado. A diferencia de D-effic y Burgess (2005) el diseño de conjuntos bajo la hipótesis no nula, Street ons
han derivado un conjunto de ecuaciones sobre cuán que permiten al analista determinar con precisión el valor
eficiente es esta clase de diseño. En lugar de maximizar la del error D, Street y Burgess (2005) para nuestro ejemplo,
eficiencia D del diseño. Tenga en cuenta lo que sugiere la eficiencia D es 72.07 por ciento , ter (es decir, más cerca
que posiblemente podría haber una suposición utilizada tdel óptimo) diseño bajo el
en su construcción.
Al examinar el diseño en sí (Cuadro 3.9), se observa quemi
o que bajo los supuestos utilizados para generarla, se
un resultado típico es que el nivel del atributo difiere. Estomi
maximizarán los nces entre las alternativas. atributo del
se puede ver, por ejemplo, al examinar el nivel entre las precio de la gasolina que nunca toma lo mismo para
alternativas. Existen diferencias similares que este proceso todos los demás atributos. Entonces, como mencionamos,
de generación de diseño en particular tiende a hacer al metro aximice las compensaciones que se les pide a los
elegir entre sus alternativas de elección. encuestados.
Una vez que se ha generado el diseño, se pueden pruebas de cómo se puede esperar que se desempeñe
realizar varias prácticas. Una sencilla es fijar los valores a en el diseño y variar sistemáticamente el parámetro
priori, observando el impacto de cada cambio en los de eficiencia del diseño. La Tabla 3.12 muestra la
cálculos del error t D cuando el primer parámetro pri or se varía en un rango de valores. Mediante el examen

(continuado)
128 Transporte de modelado

el impacto sobre la eficiencia dado dicho parámetro Ccambios, el analista puede obtener una comprensión de los errores
qué tan robusto será el diseño en diversos grados de especificación de parámetros anteriores.
Aunque no se establece explícitamente, la hipótesis Los diseños ortogonales se generan bajo la
tradicional. Como tal, la prueba del parámetro anterior m especificación nula is no se limita a diseños D-
se construyó bajo la hipótesis no nula. De hecho, a eficientes, aunque rara vez se hace en la práctica, se
cualquier diseño generado, incluidos los generados d puede aplicar bajo el supuesto de hipótesis nula.
Una vez que se ha generado el diseño, la encuesta se puede finalizar. Para construir las tareas de elección,
debe traducir el diseño generado en un formulario de aprobamos que los encuestados puedan interpretar de manera
respuesta. Un examen de la figura 3.8 revisará la tareami
significativa y que la tarea de elección que se muestra allí
de primera elección tomada del diseño D-óptimo. corresponda a gn bajo la hipótesis nula de la Tabla 3.10.

Tamaño de muestra y experimentos SCEcuación 3. 18) da pistas sobre el tamaño de muestra requerido; b) demostrar
( mentos para experimentos SC. Bliemer y Rose (200 para 9cómo se pueden derivar de esta ecuación las estimaciones de los
obtener asintóticamente par estadísticamente significativorequisitos del tamaño de la muestra a metro.
El asintóticot-valor de la relación para un parámetro dado r θkpuede calcularse como:
( )
sek(θk)
tnorte(θk) =θk / √ (3.27)
nortek

dóndenortekes el tamaño de la muestra que se derivaría del cálculo del atributok.reorganizar


obtenemos:

tnorte(θ k)2sek(θk)2
nortek= (3.28)
θk2
Por lo tanto, para cualquier asintótica deseablet-valor de e, digamos que para un nivel de confianza del 95%, 1,96, es o
relación posible para calcular el requisito de tamaño de lograr que asintóticat-valor de la relación para un diseño
muestra t bajo varios supuestos de parámetros previos.
Para el estudio de caso anterior, tomar las medias de distribuciones de parámetros anteriores como los errores
los parámetros y obtener el parámetro estándar e de reales de la población de la Tabla 3.11, los requisitos de tamaño
acuerdo con cada parámetro, en orden, sería: el lector de muestra 11.12, 1.74, 125.27, 3096.82, 3.25 y 2.30 (el tamaño
puede verificar esto fácilmente). Tenga en cuenta que no pag
del archivo se puede calcular paratiempo de salidaDado que el
se sabe que se asumió un parámetro anterior cero. Taki tamaño de muestra más grande es el crítico, los encuestados
podría decir que el diseño requiere al menos 3097 para que todos los parámetros sean cálculos estadísticos,
significativos. Sin embargo, tenga en cuenta que al hacer aBliemer y Rose (2009a; b) sugieren que un tamaño de muestra
tales c que estos tamaños de muestra representan un minimás grande probablemente debería
teórico.

3.5 Redes y Sistemas de Zonificación


Una de las primeras elecciones más importantes a las que se enfrenta el modelador de transporte es la del nivel de
detalle (resolución) que se adoptará en un estudio. Este problema tiene muchas dimensiones: se refiere a los esquemas a
probar, el tipo de variables de comportamiento a incluir, el tratamiento del tiempo, etc. Esta sección se concentra en las
pautas de diseño para dos de estas opciones: sistema de zonificación y definición de red.
Veremos que en estos dos casos, como en otros elementos clave de la modelización del transporte, las
elecciones finales reflejan un compromiso entre dos objetivos en conflicto: precisión y coste. En principio, podría
lograrse una mayor precisión mediante el uso de un sistema de red y zonificación más detallado; en el límite,
esto implicaría reconocer cada hogar individual, su ubicación, distancia a los puntos de acceso a la red, etc. Con
una muestra lo suficientemente grande (tasa del 100 % durante varios días), la representación del sistema actual
podría ser muy precisa. Sin embargo, el problema de la estabilidad en el tiempo debilita esta visión de
Datos y espacio 129

precisión como la que se necesitaría para pronosticar, con el mismo nivel de detalle, cambios a nivel de hogar individual
que afectarían la demanda de transporte. Esta es una tarea muy difícil y en su mayoría innecesaria. Por lo tanto, los
niveles menores de detalle no solo se justifican por razones de economía, sino también por motivos de precisión siempre
que se trate de pronósticos (recuerde nuestra discusión en la sección 3.2).

3.5.1 Diseño de Zonificación

Se utiliza un sistema de zonificación para agregar los hogares y las instalaciones individuales en partes manejables con
fines de modelado. Las dos dimensiones principales de un sistema de zonificación son el número de zonas y su tamaño.
Los dos están, por supuesto, relacionados. Cuanto mayor sea el número de zonas, más pequeñas pueden ser para cubrir
la misma área de estudio. Ha sido una práctica común en el pasado desarrollar un sistema de zonificación específico para
cada contexto de estudio y toma de decisiones. Obviamente, esto es un desperdicio si uno realiza varios estudios en
áreas relacionadas; además, la introducción de diferentes sistemas de zonificación dificulta el uso de datos de estudios
anteriores y la comparación de los resultados de los modelos a lo largo del tiempo.
La primera opción al establecer un sistema de zonificación es distinguir el área de estudio del resto del
mundo. Algunas ideas pueden ayudar a hacer esta elección:

- Al elegir el área de estudio se debe considerar el contexto de toma de decisiones, los esquemas a modelar y la
naturaleza de los viajes de interés: obligatorios, opcionales, de larga o corta distancia, etc.
- Para estudios estratégicos se desearía definir el área de estudio de modo que la mayoría de los viajes tengan su origen
y destino dentro de ella; sin embargo, esto puede no ser posible para el análisis de los problemas de transporte en
áreas urbanas más pequeñas donde la mayoría de los viajes de interés son viajes directos y un
se debe considerar la derivación.
- Problemas similares surgen con los estudios de gestión del tráfico en áreas locales donde, de nuevo, la mayoría de los
viajes tendrán su origen, destino o ambos, claramente fuera del área de interés. Lo que importa en estos
casos es si es posible modelar cambios en estos viajes que surjan como resultado de nuevos esquemas. El
- área de estudio debe ser un poco más grande que el área específica de interés que cubre los esquemas a
considerar. Deben tenerse en cuenta las oportunidades de cambio de ruta, cambios de destino, etc.; nos
gustaría modelar sus efectos como parte del área de estudio en sí.

La región externa al área de estudio normalmente se divide en una serie dezonas externas. En algunos casos,
podría ser suficiente considerar que cada zona externa representa 'el resto del mundo' en una dirección
particular; los límites de estas diferentes porciones del resto del mundo podrían representar las áreas de
captación naturales de los enlaces de transporte que alimentan el área de estudio. En otros casos, puede ser
ventajoso considerar zonas externas de tamaño creciente con la distancia al área de estudio. Esto puede ayudar
en la evaluación de los impactos sobre diferentes tipos de viajeros (por ejemplo, de larga y corta distancia).
El área de estudio en sí también se divide en áreas más pequeñasinternozonas Su número dependerá de un
compromiso entre una serie de criterios que se comentan a continuación. Por ejemplo, el análisis de los esquemas de
gestión del tráfico generalmente requerirá zonas más pequeñas, que a menudo representan incluso estacionamientos o
grandes generadores/atractores de viajes. Los estudios estratégicos, por otro lado, a menudo se llevarán a cabo sobre la
base de zonas mucho más grandes. Por ejemplo, se han llevado a cabo estudios estratégicos de Londres utilizando
sistemas de zonificación fina de unas 1000 zonas (para unos 7,2 millones de habitantes) y varios niveles de agregación de
las mismas hasta unas 50 zonas (a nivel de distrito). En la Tabla 3.13 se presentan ejemplos de números de zona elegidos
para varios estudios.
Como se puede observar, existe una gran variedad de modelos y número de zonas por millón de habitantes. Estos
varían según la naturaleza del modelo (planificación táctica y de corto plazo, estratégica y de largo plazo), los recursos
disponibles y el enfoque particular o conjunto de problemas abordados.
130 Transporte de modelado

Cuadro 3.13 Números de zona típicos para estudios

Ubicación Población Número de zonas Comentarios

Londres (2006) 7,2 millones 2252 Subzonas de nivel fino


∼1000 Zonas normales en
∼230 distritos LTS LTS
52 Municipios de tráfico
Montreal (2008) 3.4. millón 1425 Zonas normales
Leeds Reino Unido (2009) 0,7 millones ∼560 Zonas normales
santiago (2009) 5,5 millones ∼700 Zonas normales
Dallas-Forth Worth (2004) 6,5 millones 4875 Incluyendo 61 zonas externas
Washington DC (2008) 6,5 millones ∼2200 Zonas normales
463 Zonas gruesas
Bogotá (2000) 6,1 millones 637 Zonas normales
Dublín (2010) 1,7 millones ∼650 Y unos 10.000 enlaces por carretera
Sídney (2006) 3,6 millones 2690 Zonas normales

Tenga en cuenta también que a veces se usa un sistema de zonificación más agregado para parte del sistema modelo, por
ejemplo, generación y distribución de viajes; luego, a menudo se usa un sistema de zonificación más fino para la elección y
asignación del modo: a menudo se les conoce como Zonas de Asignación de Tráfico o TAZ.
Las zonas se representan en los modelos de computadora como si todos sus atributos y propiedades estuvieran
concentrados en un solo punto llamadocentroide de zona. Es mejor pensar en este lugar teórico como flotando en el
espacio y no físicamente en ningún lugar en un mapa. Los centroides se adjuntan a la red a través deconectores
centroides representando los costos promedio (tiempo, distancia) de incorporación al sistema de transporte para viajes
con origen o destino en esa zona. Casi tan importante como el costo asociado con cada conector de centroide es el nodo
de la red al que se conecta. Estos deben estar cerca de los puntos de acceso/egreso natural de la zona misma. Ubicar los
centroides automáticamente en el centro de gravedad de cada zona y medir su distancia a los nodos clave para producir
conectores de centroides es una solución rápida válida solo para las ejecuciones de red de 'primer corte' más simples.

Los centroides y los conectores de centroides juegan un papel clave en la calidad del resto de modelos,
pero su definición y codificación no sigue un enfoque estricto y objetivo; dependen mucho de la
experiencia del modelista. El conector centroide influye en la ruta seguida para cargar los viajes tanto en
la red viaria como en la de transporte público y por tanto afecta al coste total del viaje de Origen a
Destino y todos los modelos que lo incluyen.
La siguiente es una lista de criterios de zonificación que ha sido recopilada a partir de la experiencia en varios estudios
prácticos:

1. El tamaño de la zonificación debe ser tal que el error de agregación causado por la suposición de que todas las actividades se
concentran en el centroide no sea demasiado grande. Puede ser conveniente comenzar postulando un sistema con muchas
zonas pequeñas, ya que esto puede agregarse de varias formas más adelante dependiendo de la naturaleza de los proyectos a
evaluar.
2. El sistema de zonificación debe ser compatible con otras divisiones administrativas, en particular con las zonas
censales; este es probablemente el criterio fundamental y el resto solo debe seguirse si no conducen a
inconsistencias con él.
3. Las zonas deben ser lo más homogéneas posible en el uso de la tierra y/o composición de la población; Las zonas
censales con claras diferencias en este aspecto (es decir, sectores residenciales con niveles de ingresos muy
diferentes) no deben agregarse, aunque sean muy pequeñas.
Datos y espacio 131

4. Los límites de las zonas deben ser compatibles con los cordones y líneas de pantalla y con los de los sistemas de
zonificación anteriores. Sin embargo, se ha encontrado en la práctica que se debe evitar el uso de vías principales
como límites de zona, porque esto aumenta considerablemente la dificultad de asignar viajes a zonas, cuando estas
se originan o terminan en el límite entre dos o más zonas.
5. La forma de las zonas debe permitir una fácil determinación de sus conectores centroides; esto es particularmente
importante para la estimación posterior de las características intrazonales. Una zona debe representar el área de
captación natural de las redes de transporte y su(s) conector(es) centroide(s) identificado(s) para representar los
costos promedio para acceder a ellos.
6. Las zonas no tienen que ser del mismo tamaño; en todo caso, podrían tener dimensiones similares en unidades de tiempo de viaje, por lo
que generarían zonas más pequeñas en áreas congestionadas que en áreas no congestionadas.

Es ventajoso desarrollar un sistema de zonificación jerárquico, como en los Estudios de Transporte de Londres, donde
las subzonas se agregan en zonas que a su vez se combinan en distritos, distritos de tráfico y, finalmente, sectores. Esto
facilita el análisis de diferentes tipos de decisiones con el nivel de detalle adecuado. Los sistemas de zonificación
jerárquica se benefician de un esquema apropiado de numeración de zonas donde el primer dígito indica el área amplia,
los dos primeros el municipio de tráfico, los tres primeros el distrito, y así sucesivamente.

3.5.2 Representación de la red


Se considera que la red de transporte representa un componente clave del lado de la oferta del esfuerzo de modelado, es
decir, lo que ofrece el sistema de transporte para satisfacer las necesidades de movimiento de los viajeros en el área de
estudio. La descripción de una red de transporte en un modelo informático se puede realizar a diferentes niveles de
detalle y requiere la especificación de su estructura, sus propiedades o atributos y la relación entre esas propiedades y los
flujos de tráfico. Para una revisión general temprana de los problemas de representación de redes, véase Lamb y Havers
(1970).

3.5.2.1 Detalles de la red

La red de transporte puede representarse en diferentes niveles de agregación en un modelo. En un extremo se tienen
modelos sin vínculos específicos en absoluto; se basan en representaciones continuas de la oferta de transporte (Smeed
1968). Estos modelos pueden proporcionar, por ejemplo, una ecuación continua de la capacidad de tráfico promedio por
unidad de área en lugar de elementos o enlaces discretos. En un nivel de desagregación ligeramente más alto, se pueden
considerar caminos individuales pero incluir propiedades de flujo de velocidad tomadas en un área mucho más grande;
véase, por ejemplo, Wardrop (1968).
La práctica normal, sin embargo, es modelar la red como ungráfico dirigido, es decir, un sistema de nodos y enlaces
que los unen (ver Larson y Odoni 1981), donde la mayoría de los nodos representan cruces y los enlaces representan
tramos homogéneos de carretera entre cruces. Los enlaces se caracterizan por varios atributos, como la longitud, la
velocidad, el número de carriles, etc., y normalmente son unidireccionales; incluso si durante la entrada se especifica un
solo enlace bidireccional por simplicidad, se convertirá en dos enlaces unidireccionales en la representación informática
interna de la red. Un subconjunto de los nodos está asociado con centroides de zona y un subconjunto de enlaces con
conectores de centroides. Actualmente, la principal fuente de datos de la red sería uno de los muchos mapas digitales
disponibles para la mayoría de las ciudades. Sin embargo, no se debe suponer que están libres de errores. Necesitarán
revisión, actualización, poda (para centrarse en la red de interés) y complementando con observaciones sobre elementos
como estacionamiento en la calle, fricción peatonal, carriles para autobuses y otras características que pueden afectar su
desempeño. Una configuración muy simple de este tipo se presenta en la Figura 3.13.

Un problema con este esquema es que se ofrece conectividad 'en el nodo' a cada enlace que se une a él sin costo
alguno. En la práctica, algunos movimientos de giro en los cruces pueden ser mucho más difíciles de realizar que otros;
132

Figura 3.13Una red vial codificada como nodos y enlaces


Datos y espacio 133

de hecho, algunos movimientos de giro pueden no estar permitidos en absoluto. Para representar mejor estas
características de las redes viales reales, es posible penalizar y/o prohibir algunos movimientos de giro. Esto se puede
hacer manualmente expandiendo el cruce proporcionando enlaces separados (a veces llamados ficticios) para cada
movimiento de giro y asociando un costo diferente a cada uno. Alternativamente, algunos programas informáticos
comerciales son capaces de realizar esta expansión de forma semiautomática, siguiendo sencillas instrucciones del
usuario sobre movimientos difíciles o prohibidos.
El nivel de desagregación se puede aumentar aún más cuando se utilizan modelos detallados de simulación de tráfico. En estos
casos, se utilizan enlaces adicionales en cruces complejos para tener en cuenta el rendimiento de los carriles reservados, las líneas
de cesión de paso, etc.
A veces, las redes son subconjuntos de sistemas más grandes; pueden ser acordonados de ellos definiendo así puntos
de acceso o acordonamiento donde la red de interés se conecta con el resto del mundo. Estos puntos a veces se
denominan "puertas de enlace" y se pueden usar enlaces ficticios para conectarlos a zonas externas.
Una decisión clave al configurar una red es cuántos niveles incluir en la jerarquía de carreteras. Si se incluyen más
caminos, la representación de la realidad debería ser mejor; sin embargo, nuevamente hay un problema de economía
versus realismo que obliga al modelador a seleccionar algunos enlaces para su exclusión. Además, no tiene mucho
sentido incluir una gran cantidad de caminos en la red y luego hacer suposiciones generales sobre los movimientos de
giro y las demoras en los cruces. Tampoco es sensato utilizar una red muy detallada con un sistema de zonificación
grueso como entoncesagregación espaciallos errores (es decir, en términos de conexiones centroides a la red) reducirán
el valor del proceso de modelado. Esto es particularmente importante en el caso de las redes de transporte público, como
veremos en el Capítulo 11. Lo que importa es hacer que la elección de la ruta y los flujos sean lo más realistas posible
dentro de las limitaciones del estudio.
Jansen y Bovy (1982) investigaron la influencia de la definición y el detalle de la red sobre la precisión de la asignación
de carreteras. Su conclusión fue que los mayores errores se obtuvieron en los niveles inferiores de la jerarquía de las
carreteras. Por lo tanto, se debe incluir en la red al menos un nivel por debajo de los enlaces de interés: por ejemplo, en
un estudio de caminos A (troncales) también se deben incluir caminos B (secundarios).
En el caso de las redes de transporte público, se requiere un nivel adicional de detalle. El modelador debe especificar la
estructura de red correspondiente a los servicios ofrecidos. Estos se codificarán como una secuencia de nodos visitados
por el servicio (autobús, tren), normalmente cada nodo representa una parada o estación adecuada. Los cruces sin
paradas de autobús pueden, por lo tanto, ser excluidos de la red de transporte público. A menudo se agregan dos tipos
de enlaces adicionales a las redes de transporte público. Estos son enlaces a pie, que representan las partes de un viaje
en transporte público realizado a pie, y enlaces para modelar los costos adicionales asociados con la transferencia de un
servicio (o modo) a otro.

3.5.2.2 Propiedades de enlace

El nivel de detalle proporcionado sobre los atributos de los enlaces depende de la resolución general de la red y del tipo
de modelo utilizado. Como mínimo, los datos para cada enlace deben incluir su longitud, sus velocidades de viaje (ya sea
velocidades de flujo libre o un valor observado para un nivel de flujo dado) y la capacidad del enlace, generalmente en
unidades equivalentes de automóviles de pasajeros (pcu) por hora.
Además de esto, se asocia una relación costo-flujo con cada enlace, como se analiza a continuación. En algunos casos, se utilizan
modelos más elaborados para relacionar la demora con el flujo de tráfico, pero estos requieren información adicional sobre los
enlaces, por ejemplo:

- Tipo de vía (por ejemplo, autopista, carretera principal, calle local).


- Ancho de vía o número de carriles, o ambos.
- Indicación de la presencia o no de carriles bus, o prohibiciones de uso por parte de determinados vehículos (por ejemplo,
camiones).
134 Transporte de modelado

- Giros prohibidos, o giros que se realizarán solo cuando se produzcan espacios adecuados en el tránsito contrario.
- Tipo de cruce y detalles del cruce, incluidos los tiempos de las señales.
disponible, y así sucesivamente.

- Capacidad de almacenamiento de colas y su presencia al inicio de un período de modelado.

Los resultados de algunas investigaciones han identificado otros atributos de las rutas como importantes para los conductores,
por ejemplo, los peajes (consulte el Capítulo 16), la señalización y el consumo de combustible (consulte, por ejemplo, Outram y
Thompson 1978 y Woottony otros. 1981). El trabajo en los Países Bajos ha demostrado que el tiempo y la distancia (ponderados)
explican solo alrededor del 70% de las rutas realmente elegidas. La categoría de la carretera (autopista, carretera A, carretera B), la
previsibilidad del tiempo empleado, la calidad escénica, las señales de tráfico y la capacidad ayudan a explicar rutas adicionales. A
medida que mejore nuestra comprensión de cómo estos atributos influyen en la elección de la ruta, podremos desarrollar modelos
de asignación más precisos. La contrapartida de esta mejora será la necesidad de incluir otras características de las carreteras,
como su calidad escénica, pendiente, etc.

3.5.2.3 Costos de red


La mayoría de las técnicas de asignación actuales asumen que los conductores buscan minimizar una combinación lineal de tiempo,
distancia (asociada a los costos de combustible) y peajes (si los hay), a veces denominado costo generalizado para la elección de
ruta. Se sabe que se trata de una suposición simplificadora, ya que puede haber diferencias no solo en la percepción del tiempo,
sino también en su importancia relativa en comparación con otras características de la ruta. Sin embargo, la mayoría de los
modelos de red que se utilizan en la actualidad se ocupan únicamente del tiempo de viaje, la distancia y los peajes.
Al modelar el tiempo de viaje en función del flujo, se deben distinguir dos casos diferentes. El primer caso es cuando
se puede suponer que la demora en un enlace depende solo del flujo en el enlace mismo; esto es típico de los enlaces
largos que se alejan de los cruces y, por lo tanto, hasta ahora se ha utilizado en la mayoría de los modelos de asignación
interurbanos. El segundo caso se encuentra en áreas urbanas donde el retraso en un enlace depende de manera
importante de los flujos en otros enlaces, por ejemplo, para el tráfico no prioritario en un cruce de ceda el paso o en una
rotonda.
La introducción de formulaciones de retardo de flujo muy generales no es difícil hasta que uno enfrenta el siguiente problema,
el equilibrio de la oferta y la demanda. Allí, el tratamiento matemático del primer caso (a menudo llamado caso de función de costo
separable) es más simple que el segundo; sin embargo, ahora existen técnicas para equilibrar la demanda y la oferta en el caso de
modelos de retardo de enlace que dependen de flujos en varios enlaces, es decir, cuando el efecto de cada flujo de enlace no se
puede separar. El Capítulo 11 proporcionará una discusión más completa de las relaciones de flujo de costos.

3.5.2.4 Redes de Transporte Público

Las redes de transporte público son más complejas que las redes de carreteras. Requieren una identificación de la ruta
tomada por cada servicio como una secuencia única de enlaces. También es necesario identificar los lugares donde las
paradas son posibles y también aquellos donde se permite el intercambio con otros servicios. La frecuencia del servicio y,
en algunos casos, el horario real y la tarifa, también deben especificarse e incluirse en la descripción de la red. El acceso a
las paradas puede ser a pie o por otro modo y esto puede representarse por conectores centroides en los modelos más
simples y por una o más redes auxiliares de modos de acceso en emprendimientos más realistas. Es por esto que los
conectores del centroide para el transporte público siempre son diferentes a los que se utilizan para la red de carreteras.

La red de transporte público podría ser completamente independiente de la red de carreteras como en el caso de la mayoría de los servicios
de metro y ferrocarril; alternativamente, la velocidad del servicio puede verse afectada por el tráfico rodado, como en el caso de los autobuses y
la circulación en la calle de los tranvías, incluso cuando las medidas prioritarias para apoyarlos ayuden a reducir el impacto de la congestión
vial.
Datos y espacio 135

Además del efecto de la congestión vial, en ocasiones es necesario tener en cuenta el problema de la
congestión de pasajeros: aglomeraciones en autobuses y trenes que provocan molestias e incluso la pérdida de
un servicio por estar lleno y por la imposibilidad de abordar.

Ejercicios
3.1 Requerimos estimar la población de un área determinada para el año 2020 pero solo tenemos
disponible información censal confiable para 1990 y 2000, así:

PAG1990= 240±5 yPAG2000= 250±2


Para estimar la población futura tenemos disponible el siguiente modelo:

PAGnorte=PAGbtd

dóndePAGnortees la población en el año de pronóstico (norte),PAGbla población en el año base (b),tes la tasa de
crecimiento de la población yd= (norte−b)/10, es el número de décadas para extrapolar el crecimiento.
Suponga que los datos de ambos censos son independientes y que el modelo no tiene ningún error de
especificación; en ese caso,
(a) averiguar con qué nivel de precisión es posible pronosticar la población en el año 2020;
(b) se le ofrece la información del censo de 2010, pero se le advierte que su nivel de precisión
es peor que el de los dos censos anteriores:

PAG2010= 265±8

Averigüe si es conveniente utilizar este valor.


(c) repetir el análisis suponiendo que el error de especificación del modelo es proporcional ad, y que
se puede estimar en 12d%
3.2 Considere el siguiente modelo de división modal entre dos zonasiyj(pero omitiremos los índices de
zona para aliviar la notación):

exp(−θt1) 1 1
PAG1( t/θ) = = =
exp(−θt1) + exp(−θt2) 1 + exp -θ(t2−t1) 1 + exp(−θt)
exp(−θt)
PAG2( t/θ) = 1 −PAG1=
1 + exp(−θ t)
dóndetkes el tiempo total de viaje en modok, yθun parámetro a estimar.
Durante el desarrollo de un estudio, se calcularon los tiempos de viaje como el promedio de cinco
mediciones (observaciones) para cada modo, a un costo de $1 por observación, y se obtuvieron los
siguientes valores:

t1= 12±2 minutos t2= 18±3 minutos

(a) Si el valor estimado paraθes 0.1, calcule un intervalo de confianza paraPAG1.


(b) Suponga que estaría dispuesto a pagar $3 por cada punto porcentual de reducción en el error de PAG1;
averigüe si en ese caso sería conveniente para usted tomar 10 observaciones adicionales en cada modo
por lo que los siguientes valores paratkse obtendría:

t1= 12±1 minuto t2= 17.5±1.5 minutos

3.3 Considere un área urbana donde 100 000 personas viajan al trabajo; suponga que posee la siguiente
información sobre ellos:
136 Transporte de modelado

(i) Información general:

Número promedio de Ingresos familiares


Modo coches por hogar (1000$/año)

Auto 2.40 120


Subterráneo 1.60 60
Autobús 0.20 10
Total 0,55 25

(ii) Distribución de la población

Coches por hogar

Ingreso familiar (1000$/año) 0 1 2+ Total

Bajo (<25) 63.6 15.9 0.0 79.5


Medio (25–75) 6.4 3.7 2.4 12.5
Alto (>75) 0.0 2.4 5.6 8.0
Total 70.0 22.0 8.0 100.0

Se requiere recolectar una muestra de viajeros para estimar una serie de modelos (con un máximo de 8
parámetros) que garantizan un error de especificación insignificante si se dispone de al menos 50
observaciones por parámetro. También tiene la seguridad de que si toma una muestra aleatoria del 20 % de
todos los viajeros, el error será insignificante y no habrá sesgo.
Tu problema es elegir el método de muestreo más conveniente (aleatorio, estratificado o basado en
elección), y para ello tienes disponible también la siguiente información:

Costo por hora de un entrevistador.................................................... ..................................$2 por hora Costo de


procesamiento del cuestionario.................................................... ................................0.3 por formulario Tiempo
requerido para clasificar a un entrevistado.................................................... ..........................4 min Tiempo
requerido para completar una entrevista.................................................... ..........................10 minutos

También se le proporciona la siguiente tabla que contiene los tamaños de muestra recomendados basados en la elección:

Tamaño de la subpoblación % a ser entrevistado

<10 000 25
10 000–15 000 20
15 000–30 000 15
30 000–60 000 10
> 60 000 5

3.4 Considere los siguientes resultados de haber recopilado muestras estratificadas (basadas en el ingreso I) y basadas en la
elección de una determinada población:
Datos y espacio 137

muestra estratificada

Modo Yo bajo Medio I Yo alto

Auto 3.33 18.00 20.00


Autobús 33.34 7.20 4.00
Subterráneo 3.33 4.80 6.00
Total 40.00 30.00 30.00

Muestra basada en elección

Modo Yo bajo Medio I Yo alto Total

Auto 6.67 20.00 13.33 40.00


Autobús 17.24 2.07 0,69 20.00
Subterráneo 16.67 13.33 10.00 40.00

(a) Si sabe que las proporciones basadas en el ingreso en la población son 60, 25 y 15% respectivamente para
ingresos bajos, medios y altos, encuentre una tabla equivalente para una muestra aleatoria. ¿Es posible validar
tu respuesta?
(b) Calcule los factores de ponderación que serían necesarios para aplicar a las observaciones en la muestra basada
en la elección para estimar un modelo para la elección entre automóvil, autobús y metro usando software
estándar (es decir, el desarrollado para muestras aleatorias).

You might also like