You are on page 1of 91

Programa ETORTEK

Ayudas a la Investigación Estratégica

(CON)ex COMPLEX

Empresa Digital Extendida basada en el


Conocimiento desde la perspectiva de la Teoría
de la Complejidad

ENTREGABLES TAREA 2

“ANÁLISIS DE MODELOS NO-LINEALES”

Eduardo Castellano
IKERLAN, Mayo de 2005
ÍNDICE

1. ANÁLISIS DE MODELOS NO-LINEALES EN EL CONTEXTO DE (CON)ex COMPLEX ......... 3

1.1 Planteamiento General de (CON)ex COMPLEX................................................................... 3


1.2 Objetivo general de (CON)ex COMPLEX ............................................................................. 3
1.3 Planteamiento general del área de investigación 2: Análisis de Modelos No-Lineales ...... 3

2. ESTADO DEL ARTE DE LAS APLICACIONES ORGANIZATIVAS DEL MODELO NK[C], Y


DERIVADOS ................................................................................................................................. 5

2.1 Descripción del Modelo NK[C]............................................................................................. 5


2.2 Ámbitos de Aplicación del Modelo NK[C] .......................................................................... 16

3. ESTADO DEL ARTE DE LAS APLICACIONES DEL MODELO SMALL WORLD, Y


DERIVADOS ............................................................................................................................... 30

3.1 Descripción del Modelo Small World y otras Propiedades................................................ 31


3.2 Ámbitos de Aplicación ....................................................................................................... 37

4. ESTADO DEL ARTE DE LAS APLICACIONES DE LOS MODELOS BASADOS EN


AGENTES (ABM) ........................................................................................................................ 55

4.1 Introducción a los Modelos ABM ....................................................................................... 55


4.2 Ámbitos de Aplicación de los Modelos ABM ..................................................................... 62

5. BIBLIOGRAFÍA PRINCIPAL ................................................................................................... 88

2
1. ANÁLISIS DE MODELOS NO-LINEALES EN EL CONTEXTO DE (CON)ex
COMPLEX

Se presenta a continuación el encaje de la Tarea 2, “Investigación y análisis sobre


modelos no lineales”, dentro del contexto del proyecto (CON)ex Complex.

Para ello, se comenzará por hacer un recordatorio del planteamiento general del
proyecto (CON)ex Complex, así como de su objetivo general. Para, a continuación, describir el
planteamiento general de investigación que se cubre la tarea de Análisis de Modelos No-
Lineales.

1.1 Planteamiento General de (CON)ex COMPLEX


Una Organización que pueda evolucionar satisfactoriamente en sus estrategias,
estructuras y procesos, a través de un proceso co-evolutivo con su entorno, es una idea
cautivadora en la medida en que produce la auto-regeneración fluida y natural de la
Organización en el tiempo.

Esta aproximación transforma de forma radical el concepto del trabajo del directivo. El
foco se traslada del control a la creación, tanto al nivel de los individuos como de la
organización, de condiciones e infraestructuras facilitadoras de una cultura de anticipación al
cambio e innovación, mediante la guía y establecimiento de límites del proceso natural, para la
emergencia de redes autoorganizadas de creación de valor.

Las teorías de la complejidad aplicadas a la gestión organizativa cobran sentido bajo


está óptica. La complejidad puede ser de gran ayuda, por tanto, para la comprensión y el
desarrollo organizativo en su definición de nuevos modelos organizativos más flexibles.
Modelos capaces de gestionar la complejidad interna y externa de la organización, es decir
dinámicos y flexibles frente a la incertidumbre, que no necesite reestructurarse continuamente y
capaces de co-evolucionar con su entorno industrial mediante una plataforma de revitalización
capaz de conciliar la explotación de los recursos y capacitaciones actuales (eficiencia y
estabilidad) y la exploración de nuevas capacitaciones (novedad y cambio).

1.2 Objetivo general de (CON)ex COMPLEX

Las organizaciones son en si mismas sistemas complejos, constituidos por múltiples


individuos y recursos interrelacionados a través de procesos interdependientes y redes de
relaciones, a diferentes escalas. Debido a ello, presentan, a lo largo del tiempo,
comportamientos sorprendentes y contra-intuitivos derivados de la estructura no-lineal de sus
redes de creación de valor.

Los sistemas complejos adaptativos son un marco adecuado para modelar y simplificar
lo complejo. El marco conceptual de las teorías de la complejidad, sus principales modelos de
referencia, así como sus métodos, y herramientas de análisis, tanto cualitativos como
cuantitativos (modelado computacional), resultan especialmente útiles a la hora de clarificar la
estructura y funcionamiento de estas redes intra e inter-organizativas, sus patrones de
interdependencia y posibles patrones de comportamiento.

1.3 Planteamiento general del área de investigación 2: Análisis de


Modelos No-Lineales

Tal como se ha comentado anteriormente, las intrincadas interrelaciones de elementos


(agentes, recursos, procesos...) de un sistema complejo organizativo dan lugar a múltiples
cadenas de interdependencias que provocan diversos comportamientos contra-intuitivos.

La creación de valor en la organización, y su potencial de regeneración se produce


dentro de este contexto de interdependencias a diferentes escalas (micro y macro) y planos
(social, cultural, técnico).

3
El fenómeno de la Conectividad (interrelaciones entre los elementos de la organización)
y su impacto en el desempeño de la Organización puede descomponerse en distintos niveles.
Fundamentalmente se trata de tres:

la densidad de conexiones,
la estructura de las conexiones,
y la calidad de las conexiones.

Tal como se mostrará a lo largo de los siguientes apartados, tanto el grado o densidad de
conexiones e interdependencias entre los elementos de una red organizativa, como la
estructura de estas redes de interdependencias, y la calidad, variedad e intensidad de dichas
interdependencias, son elementos clave del funcionamiento y desempeño organizativo, y en
definitiva de su potencial de creación de valor.

El marco teórico de los sistemas complejos dispone de modelos de referencia


conceptuales que permiten analizar el efecto de cada uno de estos aspectos sobre distintas
facetas del desempeño organizativo (generación e intercambio de conocimiento,
procesamiento de información, capacidad innovadora, resolución de conflictos, etc...).

Los modelos conceptuales no-lineales que se han trabajo en esta tarea para cubrir las tres
facetas de la conectividad, y sus implicaciones sobre el desempeño organizativo, son los
siguientes:

1) El Modelo NK[C] de Kauffman (1993), permite analizar en detalle el efecto del grado o
densidad de conexiones, e interdependencias, sobre las dinámicas de desempeño
organizativo, tanto a nivel intra como inter-organizativo.

2) El Modelo Small World de Watts y Strogatz (1998) y similares (Barabási y Albert,


1999; Amaral, 2000), permiten analizar la formación, evolución, las propiedades
estructurales y consecuencias dinámicas, sobre el desempeño organizativo de los
patrones de relaciones de las redes organizativas.

3) Los Modelos basados en Agentes, ABM (Tesfatsion, 2005), permiten añadir detalle y
realismo a los modelos anteriores, en forma de capacidades cognitivas y de percepción
a los agentes implicados, incorporar el efecto de la calidad, variedad e intensidad de
dichas interdependencias, para analizar su impacto, junto con la densidad de
relaciones y patrones estructurales de las redes, sobre el desempeño organizativo de
las redes de valor.

Se reproduce, a continuación, la tabla de objetivos, subtareas, e hitos, que comprenden este


bloque:

T2 Título: Investigación y análisis sobre modelos no lineales

Objetivos

Análisis, en base a modelos conceptuales de referencia de los sistemas complejos, del efecto
de las interdependencias, grado de conectividad, tipo de patrones de conectividad y su
evolución, entre los agentes-procesos-tecnologías de la organización, sobre el diseño y nivel de
desempeño organizativo

Descripción de las Sub-tareas

4
T2.1.- Análisis de la aplicabilidad del modelo NK[C] de S. Kauffman, y derivados del mismo, al
estudio del efecto del grado de conectividad entre agentes-procesos-tecnologías de la
organización sobre el diseño y desempeño organizativo.
T2.2.- Análisis de la aplicabilidad del modelo Small World de D. Watts & S.H. Strogatz, y
derivados del mismo, al estudio del efecto de los patrones estructurales de conectividad entre
agentes-procesos-tecnologías de la organización sobre el diseño y desempeño organizativo.
T2.3.- Análisis de la aplicabilidad de la modelización basada en agentes (ABM) al estudio de las
dinámicas, evolución, de las interdependencias (grado de conectividad y patrones de
conectividad) entre agentes-procesos-tecnologías de la organización sobre el diseño y
desempeño organizativo.

Entregables

E2.1: Estado del arte de las aplicaciones del modelo NK[C], y derivados, sobre el diseño y
desempeño organizativo
E2.2: Estado del arte de las aplicaciones del modelo Small World (SW), y derivados, sobre el
diseño y desempeño organizativo
E2.3: Estado del arte de las aplicaciones de los Modelos Basados en Agentes (ABM) sobre el
diseño y desempeño organizativo

Hitos y resultados esperados

H2.1: Aplicabilidad del modelo NK[C], y derivados, en la mejora del diseño y desempeño
organizativo.
H2.3: Aplicabilidad del modelo Small World (SW), y derivados, en la mejora del diseño y
desempeño organizativo.
H2.3: Aplicabilidad del Modelado Basado en Agentes (ABM) en la mejora del diseño y
desempeño organizativo.

Las siguientes secciones del documento cubrirán cada uno de los entregables
descritos; E.2.1, E.2.2, y E.2.3. Así, el apartado 2 presentará el estado del arte de las
aplicaciones del modelo NK[C], y derivados, sobre el diseño y desempeño organizativo.
Igualmente para el apartado 3, en relación al estado del arte de las aplicaciones del modelo
Small World (SW), y derivados. Y por último, el apartado 4, sobre el estado del arte de las
aplicaciones de los Modelos Basados en Agentes (ABM), de nuevo, sobre el diseño y
desempeño organizativo.

2. ESTADO DEL ARTE DE LAS APLICACIONES ORGANIZATIVAS DEL


MODELO NK[C], Y DERIVADOS

2.1 Descripción del Modelo NK[C]

El modelo NK[C] fue concebido por Stuart Kauffman (1993) para investigar, de forma
sistemática, varios aspectos relativos al impacto que tiene el grado de interconectividad entre
las especies de un ecosistema sobre su co-evolución en el tiempo. O dicho de otro modo, en
los procesos co-evolutivos, donde distintos elementos se influyen mutuamente, la utilidad
(fitness) de un organismo o especie depende tanto de sus propias características, como de las
características de los otros organismos o especies con los que interactúa, a medida que todos
ellos se co-adaptan y transforman.

Donde decimos organismo, perfectamente podríamos decir organización, y el mensaje seguiría


siendo el mismo. Así, podemos asumir como cierto que el desempeño, ó bien el
posicionamiento, de una organización en un mercado dependerá tanto de sus características
propias, como de las características de sus competidores y demás agentes con los que
interactúa en dicho mercado.

5
Una de las aportaciones más interesantes del modelo es establecer un siguiente paso y ligar el
hecho de que, a medida que aumenta la interdependencia entre los elementos de un sistema,
también aumenta el número de restricciones conflictivas (conflicting constraints) y la
complejidad interna entre ellos, de modo que, los posibles óptimos alcanzables por cada uno
por separado, se reducen al interactuar entre sí, apareciendo múltiples óptimos locales de
menor tamaño.

El modelo NK[C] es, por definición, un modelo parametrizable de relieves adaptativos de


utilidad (fitness landscapes), basado en redes booleanas aleatorias y homogéneas.
Expliquemos a continuación qué queremos decir con esto:

• Por modelo parametrizable entendemos que existen unos parámetros en el modelo, y


que en función de los valores que adopten, el modelo ofrecerá una u otras salidas. En
concreto, los dos principales parámetros del modelo son, N (número de elementos que
componen el sistema) y K (grado de conectividad entre los elementos del sistema). En
el caso del modelo extendido NKCS, S representará el número de sistemas en
interacción, y C el grado de interdependencia o conectividad entre dichos sistemas.

• En cuanto a las salidas del modelo, éstas toman la forma de relieves de utilidad (fitness
landscapes1), también llamados relieves adaptativos (Kauffman, 2003). Los relieves de
utilidad son una forma de visualizar el desempeño de los elementos de un sistema. La
contribución, en forma de utilidad, de los elementos dependerá de la utilidad propia, así
como de la utilidad de los otros K elementos con los que tiene relación. De este modo,
los elementos (agentes adaptativos) del sistema se ven sometidos a restricciones
condicionadas por su conectividad (K) lo cual afecta la complejidad interna y el grado
de optimización de su utilidad. El proceso de co-evolución entre agentes adaptativos se
puede ver como un proceso de deformación de los relieves de utilidad, de modo que
los movimientos adaptativos de cada agente, hacia regiones de mayor utilidad, alteran
el relieve de utilidad de sus vecinos. El grado de conectividad (K) es crucial. A medida
que aumenta, los relieves de utilidad se hacen más rugosos, debido a las múltiples
restricciones que entran en conflicto, apareciendo múltiples óptimos locales de baja
altura.

Fig.1 – Representación visual de un relieve de utilidad (fitness landscape). Fuente: Mitleton-


Kelly, E. (2003)2.

1
Término acuñado inicialmente en el campo de la genética por parte de Sewall Wright:
Wright, S. 1931. Evolution in Mendelian populations. Genetics, 16, pp.97–159
Wright, S. 1932. The roles of mutation, inbreeding, crossbreeding and selection in evolution. Proceedings
Sixth Internat. Congress on Genetics, 1, pp.356–366
2
Mitleton-Kelly, E. 2003. Ten Principles of Complexity & Enabling Infrastructures. In Complex Systems
and Evolutionary Perspectives of Organizations: Applications of Complexity Theory to Organizations,
Eve Mitleton-Kelly (ed.), Elsevier, 2003.

6
• Por último, decimos que el modelo está basado en redes booleanas, ya que los
elementos (N) del sistema pueden adoptar únicamente como valores 1 ó 0. Estos
elementos se encontrarán más o menos conectados (K), formando por tanto redes de
relaciones. La utilidad para cada uno de ellos se asignará, a partir de una distribución
uniforme aleatoria con valores entre 0,0 y 1,03. Y la forma de establecer las relaciones
entre los elementos (N) del sistema será también de tipo aleatoria, y por tanto,
homogénea. De ahí el nombre de redes booleanas aleatorias homogéneas
(homogeneous random boolean networks).

Para comprender mejor el modelo y su funcionamiento pasamos a describir, a continuación, un


ejemplo. En concreto, vamos a usar una de las primeras aplicaciones del propio Kauffman,
referida a genes y cromosomas. Igualmente, desde un punto de vista metafórico, podríamos
estar refiriéndonos a los procesos y sus interrelaciones dentro una organización. Ver Fig.2:

• Supongamos que N representa el número de genes en un cromosoma. En el ejemplo


de la Fig.2, N=5.
• Cada uno de estos genes tendrá una contribución en forma de utilidad, cuyo valor
dependerá de la suya propia y la de los otros genes con los que está conectado. En el
caso de la Fig.2, K=2. De modo que, cada gen está conectado a sus dos adyacentes.
• Las posibles restricciones conflictivas que se generan debido a la conectividad resultan
desconocidas y complejas. Para representar las características estadísticas de esta red
de interacciones se emplea una función de utilidad (fitness) aleatoria, con forma de
distribución uniforme, y con valores comprendidos entre 0,0 y 1,0.
• Como puede verse en la figura, cada cromosoma tendrá una utilidad media, y la
distribución de las utilidades para diferentes valores de los cromosomas constituirá el
llamado relieve de utilidad. El caso de ejemplo, en la Fig.2, muestra el cálculo de la
utilidad para un cromosoma “10110”. Este mismo cálculo debería realizarse para el
resto de los posibles cromosomas (00010, 10010, 01010, etc...) a partir de la tabla.

Fig.2 – Ejemplo del cálculo de los relieves de utilidad. Fuente: Mitchell A. Potter,
http://cs.gmu.edu/~mpotter/nk-generator/

La tabla de la Fig.2, para un cromosoma cualquiera, por ejemplo “10110”, y K=2, se lee de la
siguiente forma:

1) Gen1=1. Adyacentes; Gen5=0, Gen2=0. Su combinación es por tanto 010. Según


tabla, a esa combinación del Gen1 le corresponde una utilidad de 0.940
2) Gen2=0, Sus adyacentes Gen1=1, y Gen3=1. Su combinación es por tanto 101.
Según tabla, a esa combinación del Gen2 le corresponde una utilidad de 0.300

3
Los características de los relieves de utilidad generados mediante la función uniformemente aleatoria no
difieren significativamente de los resultantes del uso de otro tipo de funciones; Gauss, etc. El modelo es
por tanto robusto al uso de distintas distribuciones de asignación de utilidades.

7
3) Gen3=1, Sus adyacentes Gen2=0, y Gen4=1. Su combinación es por tanto 011.
Según tabla, a esa combinación del Gen3 le corresponde una utilidad de 0.128
4) Gen4=1, Sus adyacentes Gen3=1, y Gen5=0. Su combinación es por tanto 110.
Según tabla, a esa combinación del Gen4 le corresponde una utilidad de 0.698
5) Gen5=0, Sus adyacentes Gen4=1, y Gen1=1. Su combinación es por tanto 101.
Según tabla, a esa combinación del Gen5 le corresponde una utilidad de 0.498
6) Por tanto el cromosoma “10110” tiene una valor de utilidad 0.513, que se
corresponde con el valor medio de la utilidad de los genes que lo componen.

La siguiente figura, Fig.3, es un buen ejemplo de visualización del movimiento de un agente


adaptativo, sobre el relieve de utilidad, en búsqueda de posiciones maximicen su utilidad (bien
mediante de la localización de óptimos locales u óptimos globales).

Fig.3 – Representación visual de transiciones a través del relieve de utilidad. Fuente: Kauffman
(1993)

Suponemos en este caso, Fig.3, que N=3 y K=2. De nuevo se hace una tabla, con valores
uniformemente aleatorios entre 0,0-1,0, para asignar utilidades a cada una de las
combinaciones posibles. Y se calcula la utilidad promedio (W) por cromosoma.

Por tratarse de 8 puntos, podemos representarlo en forma de cubo tridimensional. Situamos así
cada cromosoma en el espacio tridimensional, con su valor de utilidad. Para cada uno de ellos,
se indica, entre sus vecinos4, las direcciones hacia las cuales debería trasladarse para mejorar
su utilidad. Vemos, de esta forma, que aparecen 2 máximos locales en el sistema, hacia los
cuales evolucionarían por selección los cromosomas en su estrategia de mejorar su utilidad.

La posibilidad de alcanzar uno u otro, dependerá, tal cómo está planteado el problema, de la
posición inicial de partida. Esto condiciona que algunas regiones iniciales se vean abocadas a
dirigirse hacia óptimos locales. Una forma de evitarlo es introduciendo un factor de mutación en
los cromosomas, de modo que, cada cierto tiempo, se produzcan saltos a otras posiciones del
relieve de utilidad que den acceso a nuevas regiones de óptimos. Este planteamiento es
comparable con la introducción de innovaciones disruptivas respecto a las incrementales.

2.1.1 Principales propiedades del modelo NK

1. Grado de Conectividad y Rugosidad del Relieve de Utilidad

4
Por posiciones vecinas, a una dada como origen, se entienden aquellas que difieren únicamente en un
valor en sus atributos respecto a la de origen. Así se considera que para una posición origen (1,0,1), sus
vecinas sean: (0,0,1), (1,1,1), (1,0,0). Esta definición es extensible a N-dimensiones del “cromosoma”.

8
A medida que aumenta el grado de conectividad (K), aumenta la complejidad interna y las
restricciones conflictivas entre los elementos, apareciendo un mayor número de picos, de
menor tamaño (más óptimos locales), en el relieve. Esto implica, a su vez, que posiciones
inicialmente próximas puedan evolucionar hacia óptimos distintos. Por lo tanto, la correlación
entre la utilidad y la similitud entre cromosomas se reduce. Estrategias relativamente similares
pueden llevarnos a localizaciones de óptimos locales distantes en el mapa del relieve de
utilidad.

Situándonos en los extremos de K (grado de conectividad) podemos decir que:

• Para K=0 (conectividad nula); se produce un relieve suave, con un único óptimo global,
y alta correlación entre las utilidades de cromosomas similares. Estrategias inicialmente
similares nos llevan al mismo óptimo del relieve de utilidad. Kauffman (1993) llama a
este relieve Fujiyama; “…una única cumbre de suaves laderas”.

• Para K=N-1 (máxima conectividad); se produce un relieve con múltiples óptimos


locales de bajo nivel, y baja correlación entre la utilidad de cromosomas similares. El
relieve que se produce para este caso se conoce como relieve de utilidad
completamente aleatorio (Fully random fitness landscape – Kauffman (1993)).

Igualmente, a medida que N y K aumentan simultáneamente, aumenta también el número de


picos del relieve de utilidad, aunque con una altura menor. Ello es conocido como “Complexity
Catastrophe”, y es debido a que a medida que crecen las interacciones, lo hacen también,
como hemos comentado anteriormente, las restricciones conflictivas entre las partes, de modo
que los óptimos locales accesibles se aproximan hacia el valor medio. Esta es una propiedad
general de los sistemas complejos (Kauffman, 1993). Como veremos más adelante (sección
3.2.4), Herman Roose (2003) CEO de Oranje, hace mención a ella en el contexto de la
organización en términos de infoxicación a medida que aumentan los canales de comunicación
en una organización a través del servicio de correo electrónico.

2. Transición entre el Orden y el Caos: K=2

Volviendo al ejemplo de las redes booleanas, consideremos a continuación una red con N
genes. Cada uno de estos genes, de nuevo, podrá estar activado (1) ó desactivado (0). Cada
uno de estos genes binarios recibirá entradas de otros genes de la red, y estará gobernado por
una función booleana que determine su estado, de actividad ó inactividad, en función de dichas
entradas (Kauffman, 2003).

Este esquema de partida es equivalente al planteado en la Fig.3, sólo que en este caso nos
concentramos en leer las transiciones dinámicas de los distintos cromosomas en su búsqueda
mejorar sus posiciones sobre el relieve de utilidad. Dado que las utilidades para los genes en la
Fig.3, se han calculado a partir de una función uniformemente aleatoria, y que a partir de ella
se han establecido las transiciones, podemos asegurar que, igualmente, las transiciones
dinámicas se han establecido de forma aleatoria. Según la Fig.3 (N=3, K=2) las transiciones
dinámicas serían las siguientes:

Fig.4 – (a)Tabla de transiciones aleatorias de la Fig.3. (b) Representación de las trayectorias


seguidas según tabla

9
Para analizar la estructura y comportamiento de estas redes emplearemos la tabla(a) de la
Fig.4. En esta se puede observar, para cada uno de los genes, hacia qué estados cambian. En
un sistema determinista, todo estado inicial cambiará hacia un único estado sucesor. En el
caso de sistemas no deterministas, un único estado puede tener más de un sucesores. La
elección, en estos casos, suele venir fijada a través de un proceso aleatorio. Para la tabla(a) de
la Fig.4 se han considerado transiciones deterministas.

A lo largo del tiempo, partiendo de cualquier situación inicial, los distintos estados iniciales del
sistema seguirán trayectorias dinámicas a través del espacio de estados. Por ser el número de
estados finitos, en este caso 8, las trayectorias pueden pasar en algún momento por uno ya
visitado anteriormente, describiendo así un bucle recurrente o ciclo de estados. También
puede, como en el caso de la Fig.4(b), desplazarse hacia uno o varios estados concretos.
Ambos, los bucles recurrentes y los estados finales, se denominan atractores del sistema.
Cada uno de ellos, en la Fig.4(b) los estados 100 y 111, posee su cuenca de atracción que
englobará a aquellos estados iniciales que fluyen hacia ellos. Las cuencas de atracción, por
tanto, dividen el espacio de estados en conjuntos asociados a los diferentes atractores del
sistema.

Investigaciones rigurosas (Kauffman; 1993, 2000, 2003) sugieren que dichas redes booleanas
pueden residir en tres regímenes básicos: régimen ordenado, régimen caótico, y un régimen
próximo a la transición de fase entre el orden y el caos. Ciertas propiedades, como la
conectividad fundamentalmente, y en menor medida un sesgo en las funciones booleanas
relativo a la intensidad de las relaciones, determinarán el régimen del sistema.

Algunas propiedades de cada uno de estos tres regímenes, son las siguientes:

1) Ordenado:

• Las longitudes de los atractores de ciclos de estados crece de forma


polinómica con el número de genes.
• Cuando se daña o perturba un gen, la cascada de alteraciones en las
actividades de otros genes es muy pequeña. La perturbación se amortigua,
siendo el sistema muy robusto a posibles perturbaciones.
• Estados inicialmente próximos desarrollan trayectorias convergentes en el
espacio de estados.

2) Caótico:

• La longitud de los ciclos de estados crece exponencialmente con el tamaño


de la red.
• Cuando se daña o perturba un gen, la cascada de alteraciones en las
actividades de otros genes se transmite a través del todo el sistema. Esas
avalanchas masivas son la firma del famoso efecto mariposa5, donde un
pequeño cambio inicial puede tener consecuencias a escala global del sistema.
• Estados inicialmente próximos desarrollan trayectorias divergentes en el
espacio de estados.

3) Transición Orden-Caos:

• Partiendo de la región ordenada y desplazándonos hacia la transición de fase


orden-caos, el número de estados de un ciclo es proporcional a las raíz
cuadrada del número de genes. En palabras de Kauffman (2000, 2003):
“...Esta proporción que tuve el honor de descubrir hace tres décadas, aún me
deja perplejo. El genoma humano posee unos 80,000 genes, por lo que su
espacio de estados consta de unos 280,000, o sea, 1024,000 estados. Pero ese
sistema reside en el régimen ordenado, cerca de la transición de fase al caos,

5
Conocido técnicamente como “dependencia sensitive a las condiciones iniciales”. Artículo seminal:
Lorenz, E. 1963. Deterministic Non-periodic Flow. J. Atmos. Sci. 20, pp.130-141

10
resulta que se asienta... en torno a la raíz cuadrada de 80,000, es decir, en
torno a sólo unos 270 estados!”. Lo cual coincide aproximadamente con el
número de ciclos celulares, o modos celulares, del cuerpo humano.
• Cuando se daña o perturba un gen, la cascada de alteraciones en las
actividades de otros genes sigue una ley potencial, con muchas avalanchas
pequeñas y pocas de gran tamaño propagándose a través de la red (Bak,
1997).
• Estados inicialmente próximos desarrollan trayectorias que ni convergen ni
divergen del todo en el espacio de estados.

Para asociar cada uno de estos estados con el grado de conectividad de la red (K) se emplea
la curva de Derrida (1986). El cálculo es el siguiente (Kauffman, 2000, 2003):

Se toman dos estados cualesquiera de la red en el instante t y se contrastan


con los que adoptan en el instante t+1
estado 1 (00000) → (00110) estado1’
estado 2 (00001) → (10101) estado 2’

La distancia de Hamming, DH, entre los estados 1 y 2 es el número de variables


binarias que difieren entre ambos. Para el instante t, difieren en 1 respecto de
5 posiciones; DH(t)=1/5=0,2. Mientras que para el instante t+1, difieren en 3
posiciones respecto a 5; DH(t+1)=3/5=0,6. De modo que estos dos estados que
diferían en un gen inicialmente, divergen en el estado siguiente.

Para caracterizar redes booleanas respecto a los regímenes ordenado y


caótico, se toman miles de parejas de estados al azar, que inicialmente se
hallaran a diferentes distancias DH(t), se hace avanzar la red un instante, y se
calcula la nueva distancia de Hamming para todas esas parejas DH(t+1).

La curva de Derrida representa una función recurrente. En el eje “x” se sitúa


DH(t) y en el eje “y” DH(t+1). Para cada instante de tiempo se calcula el valor
promedio de la red para los puntos de la muestra [DH(t), DH(t+1)].

Valores de DH(t) > DH(t+1) representan trayectorias convergentes típicas del


régimen ordenado. Valores de DH(t) = DH(t+1) representan trayectorias que ni
convergen ni divergen, típicas del régimen de transición al caos. Y valores de
DH(t) < DH(t+1) representan trayectorias divergentes típicas del régimen caótico.

En la Fig.5 se representan los distintos regímenes en función de l grado de conectividad (K):

Fig.5 – Curvas de Derrida para distintos valores del grado de conectividad K. Fuente: Kauffman
(2000).

11
Derrida y Pomeau (1986) demostraron analíticamente que si K ≤ 2, las redes residen en el
estado ordenado, correspondiendo K = 2 al régimen de la frontera del caos. Para valores
superiores a 2, las redes se hallan en el régimen caótico.

Esto significa que una red dotada de lógica aleatoria es capaz de mostrar comportamiento
ordenado. En palabras de Kauffman (2003): “...si tomamos 10,000 genes y los conectamos al
azar, con la única limitación de que cada gen tenga sólo K=2 entradas... la insensata red de
20,000 relaciones se pondrá así misma en orden. El sistema se las arreglará para orbitar en
torno a sólo uno 100 estados (raíz cuadrada de 10,000), de entre los 210,000, o sea, 103,000
posibles! Es un auténtico orden gratuito”.

Otro parámetro que puede desplazar la frontera de la transición al caos, extendiendo así la
región de orden, es el llamado parámetro P, que determina el sesgo en las funciones
booleanas (modelo de comportamiento) que dota de mayor probabilidad a ciertas transiciones.
Vemos a continuación la forma de medirla siguiendo con el ejemplo de la Fig.4(a):

Fig.6 – Tabla para el cálculo del sesgo de la función booleana (P)

Siguiendo con el ejemplo de los 3 genes, en la Fig.6(b) se ha representado por separado el


efecto de la función booleana de transición sobre cada uno de ellos. Vemos así que la función
la transición para el gen A da lugar, en T+1, a siete 1s y un 0. El parámetro P representa el
número de ocurrencias del valor mayoritario sobre el número total de casos. Por lo tanto para el
gen A, P=7/8. Para el gen B, P=4/8. Y para el gen C, P=5/8.

Por definición para una función booleana, P puede variar entre 0,5 y 1,0. Derrida y sus colegas
(Derrida y Pomeau, 1986) demostraron que, cuando K>2, al hacer crecer P por encima de 0,5
las redes pasan del régimen caótico al ordenado. De esta forma, la frontera entre orden y caos
puede desplazarse, y conseguir regímenes ordenados, para valores de K superiores a K=2. Ver
Fig. 7.

Fig.7 – Desplazamiento de la frontera orden-caos para distintos valores de P y K

Por último, la segunda clase de sesgo se materializa a través de las llamadas “funciones
booleanas canalizadas”. En este caso, al menos uno de los genes se caracteriza por tener una
entrada en la que un valor determina obligatoriamente el siguiente estado del gen regulado,

12
independientemente de los valores de las demás entradas (Kauffman, 2000). Veámoslo con el
ejemplo de la Fig.8:

Fig.8 – Funciones booleanas canalizadas. Fuente: Kauffman (2000, 2003)

Al depender A y B de los tres genes, reciben entradas reguladoras de todos ellos. Sin embargo
en el caso de C, si A se encuentra inicialmente en el estado 0, C adoptará obligatoriamente el
estado 0 en el instante siguiente, independientemente de los estados de A y B (Fig.8a).
Recibiendo de este modo entradas únicamente de A y de sí mismo. La figura 8(b) representa la
red genética que establece las entradas que gobiernan la activación y desactivación de cada
uno de los genes. Como se puede ver, las funciones booleanas canalizadas reconfiguran la
posible red de relaciones (modelo estructural) del sistema genético.

Al igual que sucedía anteriormente con el parámetro P, la existencia de un número alto de


genes con entradas canalizadas, sesgo producido por las funciones booleanas canalizadas,
desplazan la frontera entre orden y caos, permitiendo regímenes ordenados para valores de K
> 2. Datos experimentales (Kauffman, 2000, 2003) indican que los mecanismos reguladores, de
distintos genes reales, emplean este tipo de funciones canalizadas para situarse en regiones
ordenadas, a pesar de tener grados de conectividad superiores a 2.

Diferentes autores (Marion, 1999; Boisot & Child,1999) han comparado estos sesgos, tanto P
como las funciones booleanas canalizadas, como medidas equivalentes al efecto de la
intensidad de la relaciones (strength of couplings), vínculos fuertes o débiles dentro de la red
de relaciones, en el campo del Análisis de Redes Sociales.

3. Ajuste Coevolutivo de Relieves Adaptativos Acoplados y Auto-organización: El Modelo NK[C]

Para explicar el fenómeno de la coevolución entre relieves adaptativos vamos a recurrir al


ejemplo expuesto por Kauffman (2000, 2003) de dos especies; la rana y la mosca. Cuando una
rana desarrolla una lengua pegajosa, la eficacia de la mosca se ve afectada, se reduce, su
relieve de utilidad decrece. Igualmente, si la mosca desarrolla, en consecuencia, una sustancia
disolvente en sus patas hará inútil el efecto anterior de la mosca, restaurando los relieves de
utilidad de partida. Los relieves de utilidad de ambas especies se consideran por tanto
acoplados, ya que transformaciones en uno de ellos afectará el relieve de utilidad del otro. Ver
Fig.9:

Fig.9 – Relieves de utilidad NK acoplados entre dos especies; mosca y rana. Fuente: Kauffman
(2000)

13
El parámetro C, en el ejemplo de la figura 9, representa el índice de acoplamiento entre los
genes de las dos especies (S=2; rana y mosca). N sigue representando el número de genes de
cada una de las especies, y K el grado de conectividad interna de los genes de cada especie. A
medida que una de las especies se desplaza por su relieve de utilidad mejorando su eficacia
(i.e., desarrollo de lengua más pegajosa de la rana), altera el paisaje de utilidad de la otra
especie. En palabras de Kaufmman (2000): “…la coevolución es una danza de relieves
acoplados que se deforman”. Este ejemplo biológico de la rana y la mosca es fácilmente
extensible a otros dominios sociales como el caso de las organizaciones. En estos casos en
vez de hablar de sistemas ecológicos hablaríamos de sistemas organizativos o empresariales,
y la lucha se establecería en el campo de las estrategias, tecnologías y procesos, productos y
servicios, para asegurar la supervivencia organizativa en los mercados.

Los sistemas coevolutivos presentan dos regímenes de comportamiento principales, que son,
el ordenado y el caótico, separados por una región de transición orden-caos. El
comportamiento ordenado se produce cuando las especies coevolucionan hasta alcanzar picos
mutuamente compatibles, dejando al sistema en un régimen estable y ordenado. Decimos que
el sistema alcanza en estos casos un equilibrio de tipo Nash. El comportamiento caótico se
produce cuando las especies persiguen los picos de eficacia en sus respectivos relieves y,
debido a los movimientos adaptativos de las demás y la coevolución de los relieves acoplados,
estos picos se transforman más deprisa de lo que tardan cada una de las especies en
alcanzarlos. Este efecto es conocido como efecto de la “Reina Roja”, metáfora extraída del libro
del matemático Charles Lutwidge Dodgson más conocido por su seudónimo Lewis Carroll –
Aventuras de Alicia en el País de las Maravillas, que sugiere que las especies, en su
competición por encontrar una posición eficaz en la red del ecosistema, se encuentran en una
continua escalada de armamentos en la cuál nadie gana, y en la que todas corren furiosamente
para no quedar retrasadas.

Tanto Kauffman (1993, 1995), como Marion (1999) y McKelvey (1999) en el contexto
organizativo, apuntan una categorización entre los valores de los parámetros del modelo NK[C]
y la posibilidad de alcanzar los distintos regímenes de comportamiento. Así:

• Para K > C; se produce un breve baile coevolutivo y rápidamente se alcanza un


equilibrio estable tipo Nash. Cuanto mayor sea K respecto C, antes se alcanzará el
equilibrio.
• Para K < C; el baile coevolutivo es muy largo, antes de alcanzar un equilibrio tipo Nash.
• A medida que el número de especies (S) aumenta; los bailes coevolutivos se alargan
cada vez más, llegando a no alcanzar nunca un equilibrio tipo Nash. Produciendo un
comportamiento de tipo caótico y el efecto “Reina Roja”.

La siguiente tabla resumen el conjunto de comportamientos:

Grado de conectividad interna, K


Baja Alta
Grado de conectividad externa, C Baja Mezcla Estable
y Número de Especies, S Alta Caótico Mezcla

Tabla 1 – Tipos de comportamientos del sistema en función de los valores K,C,S. Fuente:
Marion (1999)

Además, una vez alcanzado el equilibrio de Nash, los jugadores con una menor K (grado de
conectividad y complejidad interna) tendrán un desempeño superior a los demás.

El modelo desarrollado por Kauffman (1993, 1995, 2000, 2003) de relieves NK acoplados
coevolutivos (NK[C]), presenta la característica de que cada una de las especies puede ajustar
la estructura de sus relieves (K) en provecho propio. Según expone Kauffman (2000),
replicando el concepto de mano invisible inicialmente formulado por Adam Smith en su trabajo
“Investigación sobre la Naturaleza y Causas de la Riqueza de las Naciones” de 1776, “…lo
curioso es que, como si hubiera una mano invisible, la estructura conjunta resultante parece

14
trabajar a favor de un beneficio medio de todas las especies”. El funcionamiento del modelo es
el siguiente:

• Cada especies está representada por un único individuo


• En cada paso del programa, elegida una especies al azar, pueden suceder las
siguientes cosas:
1) No sucede nada.
2) La especie puede cambiar su genotipo. Si éste es más eficaz a la hora de
interactuar con las especies vecinas, la innovación es aceptada.
3) La especie puede alterar la rugosidad de su relieve, aumentando o disminuyendo
su K. La innovación será aceptada si hace que el genotipo resultante sea más
eficaz.
4) Otra criatura al azar, intenta invadir el nicho de la especies actual. Contacta con
sus vecinas y en el caso de que sea más eficaz, a la hora de interactuar con las
vecinas, que la especie actual, invadirá su nicho y la extinguirá.

Simulaciones de dicho modelo, ponen de manifiesto, que las dinámicas coevolutivas, entre los
relieves de las especies, hacen que cada una de ellas ajuste su K, evolucionando la rugosidad
de los relieves hacia valores intermedios, donde las criaturas son, tanto a nivel individual como
en conjunto, más eficaces.

Otra característica interesante del modelo es que el ecosistema en su conjunto se auto-


organiza de modo crítico (Bak, 1997), presentando una distribución de avalanchas de
extinciones, así como de vida media de las especies, que sigue una ley potencial. Esto nos
indica, tal como se comentó anteriormente, que el sistema ha coevolucionado de forma auto-
organizada hacia la región de transición orden-caos. Múltiples datos de la realidad, tanto
referidos a ecosistemas naturales (extinción de especies en los últimos 650 millones de años,
terremotos, etc), como a ecosistemas sociales y económicos (fluctuaciones económicas de
índices, fluctuaciones de tráfico, vida media de los productos, tecnologías, organizaciones y
mercados, etc) se ajustan cualitativamente a los resultados del modelo anterior (Bak, 1997;
Watts, 1999).

4. Algunas Críticas al Modelo NK[C]

De lo expuesto hasta el momento, y debido a la simplicidad del modelo NK[C] de redes


booleanas aleatorias y homogéneas, se podría derivar en un primer momento que se trata éste
de un modelo de juguete, quizá demasiado simplista de lo que puede ser una situación real, y
por lo tanto poco práctico.

Algunas críticas en este sentido indican que los parámetros empleados son una aproximación
demasiado simplificada de los eventos que pueden suceder en una organización
(McKelvey,1999). Igualmente, que un modelado de este tipo tiene ciertas limitaciones a la hora
de representar ciertos aspectos relativos a las interacciones entre personas y sus percepciones
(Mitleton-Kelly y Papaefthimiou, 2000)

Estos mismos autores, sin embargo, reconocen su validez y alto potencial como marco de
referencia, a partir del cual, incorporando un mayor grado de capacidades cognitivas a los
elementos del modelo, y matices a las relaciones entre los mismos (por ejemplo, mediante el
modelado basado en agentes –ABM- que permite incorporar diversos atributos a los individuos,
aspectos cualitativos en las relaciones, percepciones acerca de los individuos participantes, así
como de las relaciones que establecen; Contractor, 1997), se puede conseguir entender de una
forma más clara aspectos relativos a la evolución y coevolución de grupos dentro de las
organizaciones, así como entre organizaciones, aspectos relativos a la formulación de
estrategias, nuevas formas organizativas, y demás dimensiones organizativas.

Como veremos a continuación, su potencial como modelo conceptual es muy alto, y de hecho
ha sido aplicado ampliamente en el ámbito del management empresarial.

15
2.2 Ámbitos de Aplicación del Modelo NK[C]

Los sistemas complejos, tales como las organizaciones, se caracterizan por poseer múltiples
atributos y restricciones que entran en conflicto entre sí debido a las interdependencias entre
dichos elementos constituyentes. Estas restricciones pueden llevar a las organizaciones a
estancarse en óptimos locales del espacio de utilidad. El modelo NK, y versiones extendidas
del mismo como el NK[C], son un poderoso marco para el estudio del efecto de la conectividad,
intra e inter organizativa, sobre distintos procesos de diseño, gestión y dirección organizativa
(Marion,1999; Roose, 2003).

Además, el modelo NK[C] permite analizar diferentes principios de la complejidad, por ejemplo,
el límite del caos, grado de conectividad, interdependencia, emergencia, autoorganización,
creación de nuevo orden, co-evolución, exploración del espacio de posibilidades, etc...
(Mitleton-Kelly, 2003)

El modelo NK[C] ha sido aplicado en diferentes disciplinas, de las ciencias organizativas, con el
fin de identificar propiedades fundamentales, y aclarar aspectos relacionados con el efecto de
la conectividad de los sistemas en distintos ámbitos, i.e.;

• teoría de la organización (McKelvey, 1999),


• cambio organizativo y formas organizativas (Levinthal, 1997),
• estrategia (Rivkin, 2000; Caldart y Ricart, 2003),
• innovación tecnológica (Altenberg, 1997; Valente, 2000; Frenken, 2001),
• gestión de la fabricación (Auerswald et al. 2000; McCarthy y Tank, 2000),
• gestión tecnológica (McCarthy, 2003),
• creación e intercambio de conocimiento (Boisot y Child, 1999; Oliver y Roos, 1999),
• etc…

Se pasa, a continuación, a describir alguna de las aplicaciones más significativas, de entre las
muchísimas referencias de trabajos que existen hoy día6. Comenzaremos por el trabajo de Bill
McKelvey (1999), en especial se comentará la parte de su artículo que trata de la correlación
entre los conceptos del modelo NK[C] de Kauffman, y sus correspondientes en el ámbito
organizativo. En segundo lugar, se comentará el trabajo de D.A. Levinthal (1997), acerca del
cambio organizativo y formas organizativas. Se trata de uno de los trabajos seminales en este
campo, y uno de los más referenciados en la literatura posterior. A continuación, se describirán
un par de aplicaciones en el ámbito de la estrategia organizativa (Rivkin, 2000; Caldart y Ricart,
2003). Y finalmente se comentará el trabajo de Boisot y Child (1999), que trata de la
reinterpretación del modelo I-Space (creación e intercambio de conocimiento), en relación a
distintas formas de adaptación estratégica y organizativa al entorno.

1. El Modelo NK y la Organización (McKelvey, 1999)

El trabajo de McKelvey (1999) se centra el los procesos co-evolutivos entre firmas competitivas.
Estos procesos co-evolutivos son analizados, tanto a nivel de interacción entre las firmas, como
a nivel interno de interacción de los componentes o partes de sus propias cadenas de valor.
Para ello, emplea el modelo extendido NK[C] de Kauffman, descrito anteriormente, visualizando
la creación de ventajas competitivas y su valor, como resultado de estas dinámicas co-
evolutivas, a través de los valores de equilibrio de Nash alcanzados en los relieves de utilidad o
de desempeño. Previamente, justifica su potencial aplicación, traduciendo los componentes del
modelo al contexto organizativo. A continuación, plantea una serie de preguntas respecto las
propiedades dinámicas y estructurales de estos procesos co-evolutivos, y presenta,
apoyándose en distintas simulaciones, las respuestas a las mismas que resultan de la
aplicación del modelo NK[C].

6
Una simple búsqueda en Google, a fecha de marzo de 2005, por los conceptos: +“NK model”
+”management” ofrece de entrada 410 resultados.

16
Para justificar la aplicación del modelo NK[C] al ámbito organizativo, McKelvey (1999)
conceptualiza las competencias de la cadena de valor de la firma como partes. Y cada una de
estas partes como eventos de comportamiento, discretos y aleatorios, gobernados por micro-
agentes virtuales (parámetro N del modelo NK). Desde esta perspectiva, la firma se convierte
en un colectivo de micro-agentes virtuales, cada uno de los cuales desarrolla un proceso de
comportamiento propio, una competencia. Esta visión se apoya en la concepción de Porter
(1996)7, según la cual, las actividades son las unidades básicas de ventaja competitiva de la
firma, siendo la ventaja competitiva global de la organización resultado del conjunto total de sus
actividades, y de la forma en que se hallen interrelacionadas8 (las interrelaciones representan
el parámetro K de Kauffman). Cada uno de estos eventos (micro-estados), está representado a
través de un micro-agente virtual decisor9, que tratará de conseguir con sus acciones
resultados que maximicen una determinada función de utilidad (Fitness de los relieves de
utilidad). Mejorando de esta forma las competencias, y en última instancia, las ventajas
competitivas de la cadena de valor de la organización.
Las elecciones de los micro-agentes del modelo NK son de tipo aleatorio, en este sentido
McKelvey (1999) argumenta que, a lo largo del presente siglo las hipótesis de comportamiento
racional uniforme de los micro-agentes de los sistema socio-económicos, al igual que en otras
ciencias, han sido reemplazadas por visiones de tipo más estocásticas. Aplicaciones de las
ciencias de la complejidad a las organizaciones se apoyan también en esta hipótesis (Stacey,
1991, 1995, 1996)10, las cuales son confirmadas por diferentes trabajos de campo (MacKenzie,
1986; Barney, 1994)11 donde se pone de manifiesto que en las organizaciones existen multitud
de objetivos, tanto oficiales como informales, de tipo idiosincrásico; empleados únicos,
relaciones informales únicas, culturas emergentes únicas, cadenas de valor únicas, de forma
que la firma no se haya en la realidad diaria gobernada por un único objetivo marcado por el
gerente, si no que existen multitud de objetivo locales que se están desarrollando
simultáneamente y de forma interactiva.
Por último, en relación a los procesos coevolutivos entre firmas, decir que, los eventos
asociados a los micro-agentes de la firmas pueden desarrollarse, directa o indirectamente,
como respuesta a las acciones de departamentos similares de firmas que son competencia. De
esta forma, las distintas empresas serán el equivalente al parámetro S-número de especies, y
las interrelaciones, entre competencias de distintas firmas, como el parámetro C del modelo
NK[C] de Kauffman. La complejidad multi-coevolutiva de McKelvey (1999) se produce, al igual
que en el modelo NK[C], cuando existen cambios co-evolutivos simultáneos entre distintas
competencias de cadenas de valor de diferentes niveles (intra e inter organizativas). Se
muestra, a continuación, un par de tablas del artículo de McKelvey (1999), en las cuales se han
adaptado los parámetros y algunos conceptos del modelo NK[C] al contexto organizativo:

7
Porter, M.E. 1996. What Is Strategy? Harvard Bus. Rev. (Nov–Dec) 61–78
8
RBV – Core Competencies – Dynamic Capabilities...:
Teece, D. J. 1984. Economic analysis and strategic management. California Management Rev. 26
Wernerfelt, B. 1984. A resource-based view of the firm. Strategic Management J. 5 171–180.
Dierickx, I., K. Cool. 1989. Asset stock accumulation and sustainability of competitive advantage.
Management Sci. 35(12) 1504–1511.; etc…
Prahalad, C. K., G. Hamel. 1990. The core competence of the corporation. Harvard Bus. Rev. 68
Barney, J. 1991. Firm resources and sustained competitive advantage. J. Management 17 99–120.;
etc…
9
El concepto de micro-agente virtual decisor es una abstracción que representa a una entidad decisora
vinculada a una actividad. Actividad que, como sabemos en las organizaciones, puede estar implementada
parcialmente por diversos trabajadores distribuidos a través de la organización.
10
Stacey, R. D. 1991. The Chaos Frontier: Creative Strategic Control for Business. Butterworth-
Heinemann, Oxford.
Stacey, R. D. 1995. The science of complexity: An alternative perspective for strategic change processes.
Strategic Management J. 16 477–495.
Stacey, R. D. 1996. Complexity and Creativity in Organizations. Berrett-Koehler, San Francisco.
11
Mackenzie, K. D. 1986. Organizational Design: The Organizational Audit and Analysis Technology.
Ablex, Norwood, NJ.
Barney, J. 1994. Beyond individual metaphors in understanding how firms behave: A comment on game
theory and prospect theory models of firm behavior. R. P. Rumelt, D. E. Schendel, D. J. Teece, eds.
Fundamental Issues in Strategy. Harvard Business School Press, Cambridge, MA. 55–70.

17
Defining an Adaptive Chainscape to Fit Kauffman’s NK[C] Simulations
S A species, S, which is a population, is treated as a single homogeneous entity. “Simulations of coevolving
systems are carried out under the assumption that each species acts in turn, in the context of the current
state of the other
species.” (Kauffman 1993, p. 245; his italics). Kauffman’s simplification of species down to a single acting
entity is
what makes his model applicable to my analysis of firms. Thus, S = number of firms.
N The NK model consists of N sites, where each site is interpreted as an independent “part” or “agent.” A
site for Kauffman is a protein or trait, that is, a “part.” For firms, N could equal the number subunits,
production stations, value chain units, process events, competencies, teams, employees, and so forth.
K Measures internal coevolutionary density among parts within a firm. Thus K is a measure of the
interdependencies
among the various potentially changing parts or agents. Kauffman terms K a measure of epistatic links
(1993, p. 41), that is, links that inhibit change. Because of the interdependencies, the fitness improvement
(yield) from a particular change may be diminished because of fitness limitations posed by other parts. He
takes a much broader view of their definition than the narrow “allele suppresser effect” typical in biology.
In fact, he views the effects of multiple alleles so complex that he relies on a random fitness function. My
definition of K as interdependencies having suppressing effects seems well within Kauffman’s usage.
C Measures external coevolutionary density among parts between a pair of competing firms. The other
member of a
coevolving pair (gene or species) has a number of proteins or traits, C, which are interdependent with any
mutation
behavior (or lack of it) of a given focal part (protein or trait). For me, C represents interdependent
agents/microagents between a pair of competing coevolving firms. Some number of the opponent’s parts
might coevolve with a given part of the focal firm.
A The Boolean network attribute of Kauffman’s model is retained by assuming that any adaptive walk an
agent might make in attempting to improve its fitness is limited to a “2 alternative” action, A—remain
unchanged or adopt a change. Any more complicated decision may be reduced to a sequence of binary
choices.
D The dimensionality, D, of a search space/landscape/chainscape is, therefore, defined as N(A_1).
wj Because the interdependency effects wj are complex and unpredictable, Kauffman assigns random values
between 0.0 to 1.0. Given K competencies wj that are epistatically linked to wi, the AK fitness contributions
wj are averaged together with wi at period t -1 to create a modified value of wi at time t.
W,wi The total fitness value W of a chain vector is the average of all its N agents
Agent Kauffman interprets each “site” as an independent “agent.” The fitness contribution of each of any
Fitness particular agent’s two options, A = 0 or 1, is randomly assigned a value ranging from 0.0 to 1.0.
One- For a given firm’s value chain of length N, and given a rule of only one-change allowed per time period for
N
Change any agent trying to change toward improved microstates seen in a neighboring agent, there are A “one-
Neighbor change neighbor” microagents, each of which is different from a given microagent at only one competence
N
point or locus, that is, in my case 2 neighbor microagents. Instead of a firm having one alternative value
chain that is better on, say, 10 out of 24 competencies, each agent is defined to have 23 neighboring
microagents—10 of which are better—each differing by only one competence, and each microagent can
adopt only one improvement per period. This is what creates the combinatorial search space/chainspace.
Chainscape A chainscape is, thus, a multidimensional landscape consisting of a total of AN one-change neighbor
N
microagents—for Kauffman, 2 . If A=2 and N=24, the landscape is a multidimensional lattice comprising
16,777,216 microstates. Within this scape, each agent is next to ( A-1)x(N-1) microagents, each of which
may change from one time
period to the next depending on changes at other microstate sites (microagents).

Adaptive Evolution is defined as an adaptive walk through a chainscape where a firm improves the parts of its chain
Walk at each time period by surveying all the one-change neighboring microagents and randomly selecting one
from those offering improved fitness. If none offer an improvement, the agent stays unchanged.
Epistatic Agents may have one or more interdependencies (epistatic links) to other agents which may inhibit the
Links fitness value of a changed competence. For example, a notebook firm’s chances of improving
performance reliability may be inhibited by adoption of a leading edge (unreliable) experimental
competence conserving battery power, or enhanced by staying with an older highly reliable competence in
active matrix screen technology.

Tabla 2 – Adaptación de los parámetros y conceptos del modelo NK[C] al contexto organizativo
de las competencias de la cadena de valor, compuestas por micro-estados, gobernados por
micro-agentes, y que defininen el relieve “chainscape”, a través del cual se realizan los
movimientos adaptativos para mejorar sus competencias. Fuente: McKelvey (1999)

18
Tabla 3 – Notas acerca de la iteración en el tiempo del modelo NK[C], y su interpretación en el
contexto organizativo de las competencias de la cadena de valor de McKelvey. Fuente:
McKelvey, 1999

Las preguntas que se plantea McKelvey (1999) en su artículo son las siguientes. Se adjunta la
respuesta, resultado de distintas simulaciones del modelo NK[C], para cada una de ellas:

1. ¿Puede el exceso de interrelaciones, entre las competencias de la cadena de valor de la


firma, inhibir su ventaja competitiva? Traducción al modelo NK[C]: ¿Qué valor de
interrelaciones internas, K, es el óptimo para conseguir el mayor nivel de fitness?

A medida que K crece, la proporción de firmas que alcanzan un equilibrio de Nash también
crece, independientemente del valor C.
Para las simulaciones en las que se encuentra un equilibrio de Nash, las firmas con valores
más bajos de K, son las que mejores resultados de desempeño consiguen,
independientemente del valor de C.
En el caso de no alcanzarse el equilibrio de Nash (efecto Reina Roja), las firmas con bajo K,
perderán sus ventajas competitivas.
En general, el resultado de las simulaciones indica que la mejor estrategia para una firma es la
de mantener K y C ligeramente inferiores a las de sus competidores.

2. ¿Puede el exceso de interrelaciones, entre las competencias de la cadena de valor de una


firma y las de otra firma, inhibir su ventaja competitiva?. Traducción al modelo NK[C]: ¿Qué
valor de interrelaciones externas, C, es el óptimo para conseguir el mayor nivel de fitness?

Las firmas con C alto, consiguen mejores resultados si alcanzan el equilibrio de Nash antes
que sus competidores.
Durante las oscilaciones previas al equilibrio de Nash, las firmas que realizan movimientos
rápidos, consiguen que sus oponentes alcancen resultados menores.
En general, una firma debería tratar de tener valores similares entre su K (densidad de
interrelaciones internas) y su C (densidad de interrelaciones externas) para conseguir mejores
valores de desempeño (ventajas competitivas en su cadena de valor respecto a los
competidores).

19
3. ¿Interactúan entre sí las interdependencias, internas y externas, de las competencias de la
cadena de valor, inhibiendo la ventaja competitiva?. Traducción al modelo NK[C]: ¿Existe un
ratio óptimo entre K y C?

Los mejores resultados se consiguen para firmas que tienen valores similares de sus K y C.

4. Dados unos valores de complejidad relacional, K y C, estables, ¿existe un tamaño óptimo


para el conjunto de firma que conforman el grupo?, o dicho de otro modo; ¿existe un número
de S que optimice las salidas del modelo?

Los resultados de la simulación indican que los mejores resultados, en cuanto a estabilidad y
desempeño, para el conjunto de las firmas se produce cuando el número de firmas en
competición es bajo.

5. ¿Existen valores de complejidad interna y externa que sean positivos tanto para las firmas
individuales como para el conjunto del grupo?

Para valores de C altos, resulta beneficioso tanto para la firma individual como para el grupo,
aumentar el valor K de la firma hasta igualar el valor C. Esto hace que el equilibrio de Nash se
consiga antes y tenga valores mayores de fitness.
Para valores de C bajos, resulta más adecuado para la firma tratar de optimizar su propio
fitness a expensas de los demás. Esto hace que el grupo poco a poco se vea en la necesidad
de volverse más competitivo, aumentando así la conectividad externa, C.

6. ¿Deberían los estrategas organizativos tener en cuenta la rugosidad del relieve en que se
desenvuelven?

Si N crece, mientras K se mantiene constante, el relieve no cambia.


Si K crece, mientras N se mantiene fija, los valores de fitness de los óptimos locales se
reducen.
Si K aumenta linearmente con N, aparecen múltiples óptimos locales de poco fitness.
De este modo, la mejor opción parece ser la de mantener unos valores internos de K bajos,
pudiendo aumentar a su vez las N competencias, para así poder acceder a óptimos locales con
valores de fitness altos.

Las conclusiones finales son las siguientes:

- Las firmas deberían mantener sus interdependencias internas (K) y externas (C), de las
competencias de la cadena de valor, a niveles ligeramente inferiores a los de sus
competidores. Ya que si se alcanza un equilibrio de Nash, aquellas con menor K
obtendrán un mejor desempeño.
- Las firmas cuyas interdependencias, internas (K) y externas (C), tengan valores similares
obtendrán mejores resultados de desempeño que aquellas con valores muy distintos.
- A medida que el número de firmas que compiten entre sí se reduce, se consiguen
mejores valores de desempeño.
- A medida que las competencias de una firma crecen (N), resulta recomendable mantener
unos valores de K bajos para que el relieve contenga óptimos locales con valores fitness
suficientemente atractivos.

Una vez situado el modelo NK[C] en el contexto organizativo, a través del artículo de McKelvey
(1999) pasamos, a continuación, a comentar aplicaciones más concretas. La primera de ellas,
el trabajo de Levinthal (1997), referido a los procesos de cambio organizativo y las formas
organizativas más adecuadas para diferentes entornos.

2. El Modelo NK y las Formas Organizativas vs. Entornos Cambiantes (Levinthal, 1997)

El trabajo de Levinthal (1997) se centra en el estudio de las interrelaciones existentes entre los
procesos de cambio organizativo y las fuerzas selectivas, o condiciones, del entorno. Para

20
abordar su trabajo, se apoya en el concepto de diversidad de formas organizativas como
respuesta a las condiciones del entorno (Hannan y Freeman, 1989)12, y teorías de la
contingencia (Scott, 1987; Thompson, 1967)13, teniendo en cuenta además la interrelación
entre los procesos de adaptación a nivel organizativo (cambios significativos en los atributos de
la organización) y las presiones selectivas a nivel de la población de formas organizativas.
Según Levinthal (1997), los procesos de adaptación y selección son fuerzas que se hayan
interrelacionadas, ya que, para que los procesos de selección puedan actuar, debe existir cierta
heterogeneidad entre las formas organizativas, siendo dicha heterogeneidad producto de la
adaptación organizativa.

Para estudiar este efecto, Levinthal (1997) desarrolla un modelo simulable, que se apoya en el
concepto de relieves adaptativos de utilidad del modelo NK de Kauffman (1993, 1995). En este
caso, la altura de los puntos del relieve representarán el desempeño (fitness value) asociado a
cada forma organizativa. La adaptación organizativa se visualiza como la evolución, a partir de
una posición inicial dada, hacia formas organizativas alternativas de mayor desempeño (picos
del relieve). Para ello, se asume que la organización es capaz de identificar formas de mayor
desempeño en su entorno, y de modificar aquellos atributos que la diferencian de las mismas,
con el fin de posicionarse en estas nuevas localizaciones. Los cambios hacia zonas próximas
del relieve se considerarán como locales (local search – cambio incremental), mientras que los
cambios hacia formas que se corresponden con localizaciones más distante serán del tipo
“long-jump” (reorientaciones [Tushman y Romanelli, 1985]14 - cambios radicales). La elección
de una u otra estrategia vendrá determinada en gran medida por el desempeño de la forma
organizativa actual. Las reorientaciones o cambios radicales (long jump) se asocian a formas
que se hayan en posiciones iniciales de bajo desempeño. Siguiendo la lógica del modelo NK,
se plantea que, debido a las interrelaciones (K) existentes entre los distintos atributos (N) que
definen un modelo organizativo (relaciones entre los procesos, relación entre la estrategia y la
estructura organizativa, etc…)15, el relieve de utilidad (fitness landscape) es de tipo rugoso. Un
relieve rugoso se caracteriza por tener numerosos picos de utilidad, y estrechas cuencas de
atracción hacia los mismos (dependencia sensitiva a las condiciones iniciales5). La primera
consecuencia de esto, es que la forma organizativa inicial tendrá un efecto muy significativo
sobre las posibles formas organizativas que emerjan como resultado del proceso de adaptación
local, de cambio, hacia posiciones de mayor desempeño. La segunda es que la diversidad de
formas organizativas quedará asegurada, debido al proceso de búsqueda local hacia formas de
mayor desempeño. Pasado cierto tiempo, distintas formas se irán consolidando como
dominantes (picos), es en este punto cuando la fuerzas de la selección actúan determinando la
frecuencia de distribución de dichas formas dominantes, emergidas a partir del proceso de
adaptación local hacia desempeños superiores. Las fuerzas de selección determinarán la tasa
de supervivencia de distintas formas organizativas en relación a aquella con mayor
desempeño. La simulación del modelo de Levinthal (1997) está diseñado de forma que el
número total de organizaciones en la población sea constante, para ello, a medida que algunas
de las organizaciones son eliminadas por la selección, se incorporan nuevas firmas a la
simulación. Algunas de estas nuevas firmas se inicializarán con valores aleatorios y otras como
recombinaciones de formas existentes. La elección de uno u otro tipo de inicialización será
función del desempeño global medio de la población de organizaciones; para valores altos del
mismo se primará la recombinación de formas exitosas existentes, y para valores bajos la
inicialización aleatoria. Los secuencia de pasos de las series de simulaciones son los
siguientes: 1) inicialización del relieve de desempeño y la población inicial de organizaciones,
2) las formas organizativas se mueven por el relieve tanto a través de búsquedas locales de
localizaciones de mayor desempeño como mediante long-jumps, 3) determinar las formas que
sobreviven, 4) se definen nuevas formas organizativas que sustituyan a las desaparecidas,

12
Hannan M. y Freeman J. 1989. Organizational Ecology. Harvard University Press
13
Scott, W. R. 1987. Organizations: Rational, Natural, and Open Systems. Englewood Cliffs, NJ:
Prentice Hall, Inc.; Thompson, J. D. 1967. Organizations in action. New York: McGraw-Hill
14
Para ejemplos en firmas reales de tales comportamiento ver: Tushman, M. L. y Romanelli, E. 1985.
Organizational evolution: A metamorphosis model of convergenceand reorientation. In L. L. Cummings
& B. M. Staw (Eds.), Research in organizational behavior. vol. 7: 171-222. JAI Press. Greenwich, CT.
15
Chandler, A. 1962. Strategy and Structure: Chapters in the History of American Industrial Enterprise.
MIT Press

21
bien de forma aleatoria o mediante recombinación a partir de formas existentes. Se muestran a
continuación algunas salidas de las simulaciones:

• La primera figura (Fig.10a) hace referencia a los resultados de la simulación para la


condición de que sólo actúe el proceso de adaptación (no hay long-jumps, ni
selección). Se contemplan distintos valores de K (interrelación entre los atributos de la
organización). Rápidamente las formas organizativas evolucionan hacia las dominantes
(picos del relieve). A menor K, menor número de picos, de formas dominantes u
óptimos (para K=0, 1 único óptimo global, 1 única cuenca de atracción). A mayor K, el
relieve será más rugoso, aparecen más picos (óptimos locales), distintas formas
dominantes, a las que accederá en función de la cuenca de atracción en que se
encuentre inicialmente cada una de las formas organizativas.

• La segunda figura (Fig.10b) se refiere a los resultados de la simulación cuando


únicamente actúa la selección (sin adaptación). El cambio se produce debido
únicamente al proceso de desaparición e incorporación de nuevas firmas. La diferencia
principal respecto a la anterior es que, para el caso de selección, únicamente se tiene
en cuenta la forma con mejor desempeño, y todas las demás se comparan y
recombinan hacia ella. Se trata por tanto de un proceso global que conduce a un único
máximo.

• La tercera figura (Fig.10c) representa los resultados de la simulación cuando ambos


procesos están presentes, tanto la adaptación como la selección. En este caso la
adaptación determina un conjunto de formas dominantes, y a continuación la selección
la frecuencia de distribución de dichas formas dominantes en base a su desempeño.

Fig.10 – Resultado de las simulaciones del modelo. Fuente: Levinthal (1997)

22
Los ejemplos anteriores se refieren a simulaciones sobre un relieve estable (entorno estable).
El caso más interesante, sin embargo, es el que se refiere a entornos cambiantes (relieves
cambiantes [Tushman y Romanelli, 1985]14). Para ello, cada cierto periodo de tiempo, el relieve
se redefine. Esto se consigue cambiando el valor fitness de la función uniforme para
determinados atributos. El periodo de cambio, y el número de atributos para los cuales se
modifican sus valores fitness, determinan entornos más o menos cambiantes. Las
simulaciones, en este contexto, dan como resultados que aquellas organizaciones con atributos
menos interrelacionados (K baja), también denominadas débilmente acopladas (loosely
coupled), tienen mayores índices de supervivencia en entornos cambiantes que las formas
organizativas fuertemente acopladas (K alta, y conocidas como tightly coupled organizations
[Weick, 1979]16). La interpretación de este hecho es clara, una organización con
interdependencia entre sus atributos, baja K (débilmente acoplada – loosely coupled), puede
cambiar uno de sus atributos para conseguir un mejor desempeño en el nuevo escenario sin
que este hecho tenga un impacto negativo sobre la contribución del resto de sus atributos. Otro
aspecto a resaltar de las simulaciones referidas a los procesos de adaptación y selección, en
entornos (relieves) cambiantes, son las consecuencias, de estos mecanismos, respecto a los
cambios incrementales y radicales de las formas organizativas supervivientes. Se observa así,
que para valores altos de K, relieve rugoso con múltiples picos, y organizaciones fuertemente
acopladas, la mejor estrategia de supervivencia es la de la reorientación, long-jump
(innovaciones radicales en su estructura organizativa). Lo cual implica alto coste y riesgo.
Mientras que para valores bajos de K, relieve con pocos picos, y organizaciones débilmente
acopladas, la adaptación local (innovaciones incrementales) sigue siendo válida. Menor coste y
menor riesgo. La conclusión es por tanto clara, en entornos cambiantes, las formas
organizativas con menor interdependencia entre sus atributos (K baja, débilmente acopladas –
loosely coupled) tendrán mayores probabilidades de supervivencia que las fuertemente
acopladas (K alto, tightly coupled organizations).

Esta conclusión coincide con las últimas revisiones de trabajos acerca de nuevas formas
organizativas en entornos cambiantes (Castellano, 2003)17, que afirman que las formas
organizativas tipo loosely coupled (redes dinámicas internas y externas de colaboración y
cooperación; organización en red [Powell, 1990; Nohria y Eccles, 1992; Snow, Miles y
Coleman, 1992]18) resultan más adecuadas para este tipo de entornos que otras tipo tighly
coupled (organizaciones integradas y jerárquicas).

3. El Modelo NK y la Estrategia Organizativa

En este campo existen un par de trabajos que cabe destacar. Por un lado el de Rivkin (2000),
relativo a cómo diseñar estrategias de negocio que sean difíciles de imitar por los
competidores. Y por otro lado, el de Caldart y Ricart (2003), que aborda la cuestión de la
evolución de la estrategia corporativa y su influencia sobre el desempeño en entornos
turbulentos (altamente cambiantes). Se comentan a continuación.

El trabajo de Rivkin (2000) se centra en el problema que supone para las compañías la
imitación, por parte de los competidores, de sus estrategias de negocio exitosas, y qué pueden
hacer para minimizar esta habitual práctica industrial.

Para ello, Rivkin (2000) se apoya en distintas evidencias empíricas acerca de firmas que
resisten dicha imitación a pesar del conocimiento público de sus estrategias, sean por ejemplo;
Dell Computer, Southwest Airlines, Toyota, Ikea, etc (Porter, 1996)7. Y se pregunta acerca de
los factor principales que impiden su imitación. En este sentido existen distintas teorías como el

16
Weick, K. 1979. The Social Psychology of Organizing. Random House
17
Castellano, E. 2003. New Organizational Forms and Networks Literature Review. LSE Complexity
Research Programme WP
18
Powell, W. W. 1990. Neither Market Nor Hierarchy: Network Forms of Organization. Research in
Organizational Behavior, Vol. 12, pages 295-336
Nohria, N. and Eccles, R. 1992. Networks and Organizations: Structure, Form, and Action. Harvard:
Harvard Business School Press
Snow, C.C., Miles, R.E. and Coleman H.J. 1992. Managing 21st century network organizations.
Organizational Dynamics, vol. 20, pp: 5-20

23
resource based view (Teece, 1984; Wernerfelt, 1984; Dierickx y Cool, 1989; Barney, 1991.)8
acerca de ciertos factores que dificultan la imitación. La propuesta de Rivkin (2000), se apoya
en el modelo NK para formular, que la complejidad interna de la estrategia, puede ser una
barrera importante a la hora de impedir su imitación. Esta complejidad de la estrategia se
define en términos del número de decisiones u opciones que la conforman (N), y de la
interrelación (K) existente entre ellas (Simon, 1962)19. Según formula Rivkin (2000), a medida
que el número de interrelaciones entre las decisiones de la estrategia aumentan, o dicho de
otro modo, a medida que los managers buscan una combinación óptima de opciones, en vez
de tratar de optimizarlas individualmente, la cuestión de imitar una estrategia de negocio
exitosa se convierte en un problema muy complicado. Al aumentar las interrelaciones (K), el
relieve de desempeño se vuelve más rugoso, aparecen numerosos picos locales con sus
correspondientes estrechas cuencas de atracción. Para que un competidor pudiera imitarla,
debería poder evolucionar desde su posición de partida hacia la localización a imitar dentro del
relieve de desempeño (las heurísticas de búsqueda del modelo simulable de Rivkin (2000)
contemplan la mejora incremental y la de follow-the-leader). Para alcanzar la posición deseada
debería conocer, no sólo todas las decisiones u opciones que comprende la estrategia (N), sino
también cómo se hayan interrelacionadas entre sí (K). Cualquier error en alguno de estos
aspectos lo llevaría, para las distintas heurísticas de búsqueda, hacia una posición diferente a
la deseada, dada la alta dependencia sensitiva a las condiciones iniciales en este tipo de
relieves rugosos. No es muy común que los managers de una empresa tengan un
conocimiento perfecto de las decisiones u opciones, y formas en que estas se hayan
interrelacionadas, de un miembro de la competencia. De modo que la posibilidad de errar
alguno de estos aspectos, en el proceso de imitación de estrategias de negocio exitosas de
otras organizaciones, es un hecho altamente probable.

Como vemos, en el trabajo de Rivkin (2000) se está proponiendo que se aumenten las
interrelaciones (K) entre las opciones o elementos de decisión (N) de la estrategia de negocio,
para así, protegerse de las imitaciones. Se propone en definitiva transformar la estrategia de
negocio en un sistema fuertemente acoplado (tightly coupled system). Mientras que, por otro
lado, en el trabajo anterior de Levinthal (1997) se apostaba por formas organizativas
débilmente acopladas (loosely coupled – tipo organizaciones red18 y organizaciones
modulares20), para favorecer la supervivencia de las organizaciones en entornos cambiantes.
Se presenta, por tanto, un dilema, o tensión, entre las ventajas de la protección a la imitación
de los sistemas altamente interrelacionados, frente a su rigidez, o efecto de inercia ante
situaciones de cambio. Según comenta Rivkin (2000) al final de su artículo, los diseñadores de
organizaciones deberían plantearse qué temen más; la inercia y falta de flexibilidad ante el
cambio, o bien, la posibilidad de imitación, por parte de sus rivales, de sus estrategias de
negocio exitosas. Otra posibilidad, es la planteada por Levinthal (2000), en este caso no se
trata de encontrar un trade-off entre ambas cuestiones, si no la de diferenciar entre el conjunto
de atributos core de la organización y los periféricos. Los atributos core tendrán interrelaciones
fuertes entre sí (tight couplings) mientras que los periféricos serán de tipo débilmente
interrelacionados (loose couplings). Se plantea en este sentido relieves mixtos, diferentes K
para según que tipo de atributos de la organización. Este planteamiento de Levinthal (2000)
podría ser modelado mediante el modelo NK[C]; en el cual se identificarían los distintos
conjuntos de atributos como subsistemas (S); con determinada conectividad (C) entre ellos; y
por otro lado dentro de cada subsistema existirían una serie de atributos (N) con su
conectividad específica (K). Está además en sintonía con los modelos de redes heterogéneas
que se describirá en la siguiente sección (sección 3).

El segundo artículo de esta sección es el correspondiente a Caldart y Ricart (2003), acerca de


la evolución de la estrategia corporativa y su influencia sobre el desempeño en entornos
turbulentos o altamente cambiantes.

Caldart y Ricart (2003) inician su trabajo reconsiderando el papel del nivel corporativo a la hora
de contribuir en forma de ventajas competitivas. Para ello, se apoyan en recientes trabajos

19
Simon, H. A. 1962. The architecture of complexity. Proc. Amer. Philos. Soc. 106 467–482.
20
Sanchez, R. & Mahoney, J. 1996. Modularity flexibility, and knowledge management in product and
organization design. Strategic Management Journal, 17:63-76

24
empíricos acerca de organizaciones multi-negocio, y en las interrelaciones existentes entre
dichos negocios, en el caso de entornos turbulentos, entornos con alto nivel de cambio. Dichos
entornos turbulentos presentan una serie de características como son; alto grado de
dinamismo, complejidad e incertidumbre (Crossan, Nanjad y Vera, 2001)21. Los trabajos de
referencia en este campo se centran principalmente en la captura de sinergias (Brown y
Eisenhardt, 1998)22, oportunidades de intercambio de conocimiento (Chakravarthy, Zaheer y
Zaheer, 2001)23, la recombinación de recursos para distintos dominios de producto-mercado
(Galunic y Eisenhardt, 2001)24, a través de procesos evolutivos y auto-organizativos (Stacey,
1993)25 entre las dichas unidades, con el centro corporativo actuando como facilitador (creador
de condiciones e infraestructuras que faciliten ciertos procesos de cambio organizativo:
Mitelton-Kelly, 2003)26 para el desarrollo de dichos procesos. En contraposición a otros trabajos
donde al centro corporativo se le encomienda el papel activo de identificar y desarrollar dichas
interrelaciones entre las unidades (Prahalad y Hamel, 1990; Markides y Williamson, 1996)27.

A nivel teórico y metodológico, el punto de partida de Caldart y Ricart (2003), son la escuela de
pensamiento conocida como “behavioural evolutionism” (Cyert y March, 1963; Nelson y Winter,
1982)28, los modelos NK y NK[C] de Kauffman (1993, 1995), así como sus aplicaciones en el
campo de la teoría organizativa (Gavetti y Levintahl, 200029; Levinthal, 1997; McKelvey, 1999).
Junto con un caso de estudio de una compañía, fabricante de componentes de automoción,
que les servirá como validación y contraste de su modelo de creación de ventajas competitivas
por parte del nivel corporativo en entornos turbulentos. Caldart y Ricart (2003) emplean el
modelo NK como integrador de las visiones de; adaptación organizativa a las condiciones del
entorno, y el efecto de las fuerzas selectivas del entorno sobre la supervivencia organizativa
(Levinthal, 1997). Como en aplicaciones anteriores del modelo NK, al área organizativa, el
desempeño organizativo se representa respecto a un relieve de utilidad (fitness landscape).
Dicho relieve de utilidad, o de desempeño, consiste en un espacio multidimensional, en el cual,
cada atributo de la organización (acciones, políticas, procesos, etc…) representa una
dimensión, existiendo una dimensión final que indica la utilidad, o desempeño (fitness), del
conjunto de los atributos de la organización. La estructura del relieve de utilidad, como en
casos anteriores, será función del grado de interdependencia (K) entre los atributos
organizativos (N). A mayor interdependencia (K), mayor rugosidad, mayor número de óptimos
locales, y número de atractores hacia los mismos (aumento de la dependencia sensitiva a las
posiciones de partida en los movimientos por el relieve). Cyert y March (1963)28 asumen que
los actores que se desenvuelven sobre dichos relieves son inteligentes, pero al ser su
inteligencia de ámbito local, las búsquedas incrementales hacia posiciones de mayor
desempeño, en superficies rugosas, les llevarán únicamente a óptimos locales, debido
fundamentalmente a la dependencia de las condiciones iniciales. De este modo, el
comportamiento observado será discreto en cuanto al nuevo desempeño. El mecanismo
principal para superar este efecto son los “long-jumps” de tipo explorativo (relacionados con
innovaciones organizativas de tipo radical). Debido ámbito de aplicación del trabajo de Cardart

21
Crossan, M., Nanjad, L. y Vera, D. 2001. Leadership on the Edge: old wine in new bottles?. Strategic
Management Society Conference
22
Brown, S., Eisenhardt, K. 1998. Competing on the Edge: Strategy as Structured Chaos. Harvard
Business School Press
23
Chakravarthy, B., Zaheer, A. y Zaheer, S. 2001. Knowledge Sharing in Organizations: A field Study.
Strategic Management Society Conference
24
Galunic, Ch. y Eisenhardt, K. 2001. Architectural innovations and Modular Corporate Forms. Academy
of Management Journal, 44, pp.1229-1250
25
Stacey, R. 1993. Strategic Management and Organisational Dynamics. Pitman Publishing
26
Mitleton-Kelly, E. 2003: ICoSS Project – LSE Complexity Research Programme,
www.lse.ac.uk/complexity
27
Prahalad, C. y Hamel, G. 1990. The Core Competencies of the Corporation. Harvard Business Review,
68(3), pp.79-91
Markides, C. y Williamson, P. 1996. Corporate Diversification and Organizational Structure: A
Resource-Based View. Academy of Management Journal, 39, pp.340-367
28
Cyert, R. y March, J. 1963. A Behavioural Theory of the Firm. Blackwell Business
Nelson, R. R. y Winter, S.G. 1982. An Evolutionary Theory of Economic Change. Belknap Press
29
Gavetti, G. y Levintahl, D. 2000. Looking forward and looking backward: cognitive and experiential
search. Administrative Science Quarterly, 45, pp. 113-137

25
y Ricart (2003), recordemos que se trata de las relaciones multi-negocio, los autores
consideran para su estudio el modelo extendido NK[C]. En este caso, C se refiere a la
interdependencia existente entre atributos de los distintos subsistemas (en este caso negocios)
que conformar el sistema (corporación). Estos relieves acoplados, hacen que posicionamientos
de uno de los subsistemas tenga consecuencias sobre el relieve de desempeño del resto de
subsistemas.

El modelo que desarrollan los autores (Caldart y Ricart, 2003), para identificar el impacto de la
estrategia corporativa sobre las ventajas competitivas en entornos altamente dinámicos, se
basa en tres bloques principales. El primero de ellos se refiere a aspectos cognitivos en
relación a identificar el relieve sobre el cual se está operando. El segundo bloque se refiere a
las iniciativas estratégicas, para moverse dentro de este relieve, con el fin de alcanzar la mejor
posición competitiva posible. Y el tercer, y último bloque, se refiere a la arquitectura
organizativa/corporativa más adecuada para desenvolverse en estos relieves cambiantes.
Pasamos a continuación a comentar cada uno de estos tres bloques, que constituyen su
“triángulo de la estrategia corporativa” (Caldart y Ricart, 2003), en mayor detalle:

• El Escenario (representación cognitiva del relieve de desempeño): Se refiere al modelo


mental o teoría del negocio de la corporación en su conjunto, acerca de las relaciones
causa-efecto entre las acciones de la corporación y su efecto sobre el entorno
(representación del relieve de desempeño de los múltiples negocios). Dicho proceso
cognitivo no es perfecto ni completo (Simon, 1947; March y Simon, 1958; Cyert y
March, 1963)30. Para abordar la complejidad del entorno, se crean modelos
simplificados e imperfectos que definen los modos de actuación. De esta forma,
cuando el modelo mental, acerca del entorno, no capture aspectos centrales del
negocio, las acciones derivadas del mismo conducirán a decisiones equivocadas. En
este sentido, replantearse continuamente las representaciones del entorno puede servir
para depurar los errores existentes, así como desarrollar nuevos aspectos hasta
entonces no tenidos en cuenta, permitiendo identificar de forma más rápida posiciones
atractivas dentro de un relieve de oportunidades-riesgos cambiantes, y los factores de
éxito requeridos (N).

• Iniciativas Estratégicas: Este segundo bloque trata acerca de la puesta en práctica de


las estrategias que orientan la evolución de la empresa, las distintas lógicas, sobre la
base de la representación cognitiva de la situación corporativa. De este modo, a partir
de la posición sobre el relieve, la corporación inicia el movimiento hacia posiciones de
mayor desempeño. Se pueden distinguir dos lógicas principales; la de tipo incremental
que refuerza la consolidación del posicionamiento actual (explotación31, búsqueda
local, búsqueda de la eficiencia de los recursos y capacitaciones actuales: la mayoría
de los N-atributos no cambian), y la de tipo más radical, que introduce cambios
significativos (exploración31, long-jumps, desarrollo de nuevos recursos y
capacitaciones, bien de forma disruptiva o de forma escalonada: multitud de N-atributos
cambian). Los cambios de tipo radical (exploración mediante long-jumps) resultan más
adecuados para entornos con altas tasas de cambio, en los cuales es difícil tener una
representación fiable del relieve. Mientras que para entornos estables, resultan más
adecuadas las estrategias incrementales (explotación o búsqueda de mejores
posiciones locales).

• Arquitectura Organizativa/Corporativa: Trata del diseño de un marco para los procesos


de auto-organización de los diferentes negocios interdependientes de la corporación.
Esta arquitectura deberá buscar un balance entre la necesidad de actuar
ordenadamente (explotación31 – estadarización para la búsqueda de eficiencias de los

30
Simon, H. 1947. Administrative Behavior. Free Press
March, J. y Simon,H. 1958. Organizations. John Wiley
Cyert, R. y March, J. 1963. A Behavioural Theory of the Firm. Blackwell Business
31
Holland, J. H. 1975. Adaptation in Natural and Artificial Systems. The MIT Press, Cambridge, MA
March, J. 1991. Exploration and exploitation in organizational learning. Organization Science, 2:
March, J.G & Levinthal, D. 1993. The myopia of learning. Strategic Management Journal, 14: 95-112
Nooteboom, B. 2000. Learning and Innovation in Organizations and Economies. Pinter

26
recursos, procesos y capacitaciones actuales, sistemas de control, etc) y la de innovar
(exploración31 – desarrollo de nuevos recursos, procesos, capacitaciones y flexibilidad
organizativa). Para resolver la paradoja exploración-explotación en el ámbito del diseño
organizativo (Castellano, 2003)32, los autores (Caldart y Ricart, 2003), basándose en
los trabajos de Eisenhardt y Brown (1998)22 y Stacey (1993)25, proponen:
“…actividades estructuradas de forma flexible pero dotadas de estructura en puntos
críticos, una cultura de cambio frecuente en un contexto de reglas generales, y la
existencia de canales para una comunicación… entre las distintas divisiones de la
empresa”. Para su caso de estudio, LUJAN - corporación constituida por unidades de
negocio que se dedican a la fabricación de componentes para la automoción,
identifican como iniciativas organizativas dirigidas en este sentido las siguientes;
promoción del diseño modular de los subsistemas y del sistema (explotación-
exploración), desarrollo de procesos estándares para las distintas divisiones
(explotación), potenciar las recombinaciones de recursos y oportunidades de negocio a
lo largo de las divisiones (exploración), desarrollo de canales de comunicación entre
divisiones (exploración), y la adopción de métricas consistentes con las prioridades
corporativas (explotación).

De esta forma, proponen la superioridad de los procesos auto-organizativos, respecto al


control, como forma de crear nuevas oportunidades de negocio en entornos altamente
dinámicos. Entendidos estos procesos auto-organizativos como procesos de interacción
(políticas, equipos de aprendizaje y comunidades de práctica, creación e intercambio de
conocimiento, etc.) a partir de los cuales se genere innovación y emerjan nuevas direcciones
estratégicas para la organización. Dejándole al nivel corporativo, el papel de diseñar reglas
simples (objetivos o políticas generales – Eisenhardt y Sull, 200133), que sirvan de marco
(Mitleton-Kelly, 200326) dentro del cual puedan desarrollarse dichos procesos auto-
organizativos, cooperativos y colaborativos, para la identificación de nuevas oportunidades
entre las distintas unidades de negocio, e implementar aquellas que se consideren más
valiosas.

4. El Modelo NK y la Creación e Intercambio de Conocimiento (Boisot y Child, 1999)

El trabajo de Boisot y Child (1999) se centra en el problema a que se enfrentan las


organizaciones a la hora de adaptarse a entornos complejos. Plantean dos tipos de
aproximaciones para esta adaptación; la reducción de la complejidad, o bien, su absorción.
Para desarrollar su trabajo se apoyan en el modelo Information-Space (I-Space; Boisot 1995)34,
interpretado desde conceptos propios de los sistemas complejos (complejidad cognitiva, y
complejidad relacional-modelo NK). Identifican, además, las formas organizativas que mejor se
ajustan a cada tipo de estrategia, así como los modelos culturales que las potencian.

Por reducción y absorción de la complejidad del entorno, los autores entienden lo siguiente. Se
dice que una organización reduce la complejidad del entorno, para adaptarse a ella, cuando
elicita una visión singular y representativa de la misma, de la multitud de posibilidades
existentes, y a continuación, actúa en base a su comprensión de lo que está sucediendo. Este
tipo de estrategia lleva a la especialización, y se fundamenta en una codificación relevante y la
abstracción del fenómeno. Por otro lado, se dice que una organización absorbe la complejidad
del entorno, cuando mantiene distintas representaciones del mismo, algunas de ellas
contradictorias entre sí, y se prepara con un repertorio de posibles respuestas que cubran la
variedad de posibilidades. Las respuestas en este caso serán menos efectivas que en el
anterior, pero podrán cubrir un mayor abanico de contingencias que les pueda presentar el
entorno. Cada una de estas estrategias se corresponde con las estrategias de aprendizaje de
tipo explotación (reducción y especialización) y exploración (variedad y flexibilidad)31.

32
Catellano, E. 2003. Applying Complexity Principles & the Exploration vs. Exploitation Cycle
Framework to the Analysis of Shell-FSTO Organizational Dilemmas. LSE Complexity Research
Programme ICoSS Workshop
33
Eisenhardt, K. y Sull, 2001. Strategy as Simple Rules. Harvard Business Review, 78(1), pp.107-116
34
Boisot, M. 1995. Information Space: A Framework for Learning in Organizations, Institutions and
Culture. Routledge, London.

27
En cuanto al I-Space, está compuesto por las siguientes fases fundamentales; codificación,
abstracción, y difusión. Se entiende por codificación, la asignación de la información
proveniente del entorno a categorías formales. Un mayor nivel de codificación, se entiende en
términos concreción de tareas en forma de rutinas, mientras que un nivel de codificación bajo
estará relacionado con tareas que comprendan múltiples excepciones y no sean trasladables a
rutinas. La abstracción se refiere, en este contexto, a la reducción de categorías necesarias
para aprehender el fenómeno en cuestión, a través de identificar las estructuras subyacentes
al mismo. Cuanto mejor se haya aprehendido la estructura subyacente a un fenómeno, diremos
que mayor abstracción se ha hecho del mismo. En el caso de que no se consiga elicitar la
estructura subyacente a un fenómeno, diremos que su nivel de abstracción es bajo. Ambos
conceptos, codificación y abstracción, se hayan interrelacionados, ya que la codificación facilita
la identificación de estructuras subyacentes a un fenómeno, e igualmente, un mayor nivel de
estructuración de un fenómeno facilita la identificación de sus categorías básicas. Ambas,
además, tienen como efecto la reducción de la complejidad cognitiva necesaria para el
procesamiento de la información proveniente del entorno. Ya que, por tratarse de información
explicitada y categorizada, minimizará, entre los agentes de la organización, las confusiones
propias de distintos contextos de interpretación. Se entenderá complejidad cognitiva, según la
definición de Gell-Mann (1995)35, como; “…el tamaño del menor programa necesario para
describir las regularidades de un fenómeno dado”. Tanto la codificación como la abstracción
reducen la complejidad cognitiva, facilitan la explicitación, y por tanto, la comprensión
compartida de la información proveniente del entorno por parte de los agentes procesadores de
información de la organización, aumentando, de este modo, las posibilidades de su posterior
difusión (ver Fig.11).

Fig.11 – (a) Curva de difusión de la información, a través de la organización, en función del


grado de codificación y abstracción de la misma, según Modelo I-Space. (b) Localización de las
6 fases del Modelo I-Space. Fuente: Boisot y Child (1999)

La difusión de la información, dentro la organización, se desarrolla a través de las estructuras


de comunicación, estructuras de transacción, por las cuales circulan los flujos de información
entre los agentes. El Modelo I-Space relaciona, de este modo, el grado de explicitación de la
información (codificación y abstracción: complejidad cognitiva) con el grado de difusión de la
misma, lo cual condiciona el número de posibles interacciones entre los agentes de la
organización. Boisot y Child (1999) también sitúan, respecto al marco I-Space, distintas formas
organizativas (estructuras de transacción) que mejor se ajustan a cada una de las
combinaciones de la terna codificación-abstracción-difusión, ver Fig.12:

35
Gell-Mann, M. 1995. The Quark and the Jaguar: Adventures in the Simple and the Complex. Abacus

28
Fig.12 – Posición de distintas estructuras de transacción respecto al marco I-Space, y sus
definiciones. Fuente: Boisot y Child (1999)

Diferentes estructuras de transacción, estructuras de conexiones de los agentes procesadores


de información de la organización, implican distintos grados de complejidad relacional. El
artículo de Boisot y Child (1999), aborda la complejidad relacional, de la estructura
transaccional de la organización, mediante el modelo NK de Kauffman. En concreto, el grado
de complejidad relacional de cada estructura transaccional, vendrá definido a través del grado
de conectividad (K) entre los agentes (N) de la organización. Además, haciendo una
interpretación del parámetro P del modelo NK (determina el sesgo en las funciones booleanas
dotando de mayor probabilidad a ciertas transiciones), como medida del grado de estabilidad-
estructuración de la función booleana, identifican al mismo, como medida equivalente a la
complejidad cognitiva. Como ya se sabe del modelo NK, valores altos del parámetro P (baja
complejidad cognitiva según la interpretación), desplazan la frontera de la transición al caos,
extendiendo así la región de orden, para valores altos de K. Boisot y Child (1999) traducen este
comportamiento del modelo NK en los siguientes términos; “…existe de una clara relación entre
complejidad cognitiva y complejidad relacional. Un nivel bajo de complejidad cognitiva (P alto)
permite altos niveles de complejidad relacional (K), y viceversa, sin que el sistema penetre en
una región de comportamiento caótico… en otras palabras, la codificación y la abstracción
facilitan el procesamiento ordenado de información para un alto número de agentes en
interacción”. La siguiente figura, Fig.13, muestra la traducción de los cuatro tipos de estructuras
de transacción, en términos del modelo NK, e identifica respecto del marco I-Space, de forma
intuitiva, las regiones que se identificarían con comportamientos de tipo más ordenado y más
caótico.

Fig.13 – Identificación orientativa de las regiones Orden-Comportamiento Complejo-Caos en el


marco I-Space, y traducción de las estructuras de transacción en términos del modelo NK.
Fuente: Boisot y Child (1999)

Siguiendo con el planteamiento de Boisot y Child (1999), tanto la Fig.12 como la Fig.13
muestran la relación existente entre distintas estructuras de transacción y la preferencia por

29
una información más o menos explicitada de los fenómenos del entorno. Un mayor grado de
explicitación, como hemos dicho, se identifica con un reducción de la complejidad cognitiva, y
por lo tanto, con una estrategia de reducción de la complejidad (parte superior del cubo).
Mientras que el manejo de información menos explicitada, más tácita, mayor complejidad
cognitiva, se identifica con la absorción de múltiples perspectivas de los fenómenos del entorno
(parte inferior del cubo). Preferencias culturales por uno u otro estilo, reducción ó absorción de
la complejidad del entorno, determinarán el tipo de instituciones, estructuras transaccionales,
dominantes respecto al marco I-Space.
En este sentido, los autores destacan la preferencia del mundo occidental por la
institucionalización, reducción de la complejidad (parte superior), y su evolución, en el contexto
de la globalización (mayor nivel de difusión), desde los modelos integrados y burocráticos,
hacia las estructuras de mercado – Capitalismo de Mercado. Y por otro lado, argumentan que
los mercados asiáticos, más concretamente, en culturas como la China, debido a una larga
tradición histórica de; inestabilidades políticas y de sistemas de gobierno central-local, bajos
niveles de institucionalización debido a las grandes diferencias entre las identidades locales y
sus lenguas, derivadas de su gran extensión geográfica, la arbitrariedad de la autoridad central,
ausencia de derechos claros, jurisdicciones y legislaciones firmes, ausencia de leyes
comerciales codificadas de forma clara, y un largo etcétera, hace que el tipo de relaciones
tiendan a ser intensivas y basadas en reglas no escritas (relaciones de lealtad y obligaciones
recíprocas, confianza y valores compartidos, que compensan los riesgos asociados con la
incertidumbre y las ambigüedades). Por todo ello, las formas organizativas relacionadas con la
absorción de la complejidad resultan ser las dominantes en China, evolucionando en su fase
actual de modernización (mayor nivel de difusión), hacia las estructuras tipo clan. Las cuales,
aunque requieren de mayor dedicación de tiempo en términos de relaciones sociales, ofrecen
también un mayor potencial de adaptación y renovación ante entornos cambiantes –
Capitalismo Red.
De este modo, Boisot y Child (1999) recomiendan a los países occidentales que están entrando
en China, tener en cuenta estos aspectos si no quieren verse frustrados en sus relaciones de
colaboración, y remarcan la necesidad de establecer entornos de confianza y de entendimiento
mutuo, así como prever posibles dificultades operativas a la hora de tratar de adaptar y poner
en marcha sus políticas, procedimientos y prácticas estándares, dentro de los sistemas de
negocio de dicho país.

3. ESTADO DEL ARTE DE LAS APLICACIONES DEL MODELO SMALL


WORLD, Y DERIVADOS

Históricamente, los modelos clásicos de redes han asumido que las conexiones entre los
múltiples elementos de una red se establecían de forma aleatoria. De este modo, un nodo
cualquiera de la red establecía conexión con otro según una cierta probabilidad. Este tipo de
redes son conocidas como redes homogéneas y aleatorias (tipo Erdos-Renyi), otro ejemplo de
las mismas es el modelo NK de Kauffman del tipo “redes booleanas aleatorias” (Bollobas,
1985). Este tipo de redes homogéneas presentan la característica de que la distribución de
conectividades de los nodos sigue una distribución de tipo Poisson; por lo tanto, existe una
conectividad promedio, para el conjunto de nodos de la red (Solé, 2005). Las propiedades y
aplicaciones de este tipo de redes, son las descritas en la sección anterior, a través del modelo
NK.

Recientes estudios, sin embargo, han señalado el hecho de que, los patrones de interacción de
multitud de sistemas complejos reales (redes eléctricas, internet, hipervínculos entre
documentos html de la WWW, redes de colaboración entre actores, redes de colaboraciones
científicas, redes sociales, ecosistemas, reacciones químicas, redes celulares y metabólicas,
redes neuronales, etc...: ver Fig.14) presentan patrones de interacción entre sus elementos
altamente heterogéneas (Strogatz, 2001; Solé, 2005).

30
Fig.14 – Ejemplos de redes heterogéneas reales: (a) relaciones de interdependencia entre las
especies de un ecosistema; (b) red eléctrica de NY; (c) mapa de las interacción moleculares de
un sistema regulador que controla el ciclo de una célula de mamífero. Fuente: Strogatz, 2001

Este tipo de redes heterogéneas se caracterizan por presentar una distribución de


conectividades, para sus nodos, que sigue la regla de que; existen unos pocos nodos
altamente conectados, y muchos nodos con una conectividad baja. Existiendo distintas
distribuciones de conectividad para sus nodos; desde las exponenciales, hasta las libres de
escala (Scale Free) que siguen una ley potencial (Amaral, 2000). Cada una de estas
distribuciones representan distintos tipos básicos de organización, así como de
comportamientos y propiedades. La principal importancia de esto, es el hecho de que, la
estructura condiciona el comportamiento. O dicho de otro modo, la topología de las redes de
interacción de los sistemas biológicos, sociales, económicos, y tecnológicos, influyen en
aspectos como puede ser la velocidad de transmisión de información-energía-materiales, la
robustez y fragilidad de la red frente a fallos, y ataques, etc, como se comentará más adelante.

Estas redes heterogéneas reales, presentan otra característica importante; el conocido como
efecto Small-World (Watts y Strogatz, 1998): las redes están altamente clusterizadas (cada
nodo está densamente conectado dentro de su grupo), y además, la distancia media entre dos
nodos cualesquiera de la red es pequeña (ésta es también una característica propia de las
redes aleatorias homogéneas). Pasamos, a continuación, a comentar el modelo Small World y
algunas de sus propiedades en mayor detalle.

3.1 Descripción del Modelo Small World y otras Propiedades

El modelo Small World, fue desarrollado por D. Watts y S.L. Strogatz (1998). Tradicionalmente,
los modelos de redes se dividían en dos categorías; los de redes regulares (elementos
agrupados por comunidades, clusters locales), y los de redes aleatorias (conexión aleatoria
entre los elementos del sistema). Las redes regulares son aquellas en que los nodos se hayan
conectados a sus inmediatamente próximos (Fig.15-a). Mientras que en las redes aleatorias los
nodos se hayan conectados entre sí al azar (Fig.15-b).

Fig.15 - Para un mismo número de nodos y conexiones por nodo: (a) Redes regulares; (b)
redes aleatorias. Fuente: http://www.americanscientist.org/template/AssetDetail/assetid/14717

31
Cada una de estas estructuras extremas proporciona a la red distintas propiedades. En
concreto vamos a fijarnos en un par de propiedades clave:

(1) Grado de Clusterización (C); mide la probabilidad de que dos nodos que tengan
conexión con un tercero, estén a su vez conectados entre sí (concepto de cliqué, que
da lugar al de comunidad en términos sociales). Se puede interpretar como una
medida de la modularidad, y se trata de una propiedad local. Cuanto mayor sea, más
redundancia local habrá, y por tanto, mayor robustez a la hora de mantener el
comportamiento global de la red ante posibles eliminaciones o fallos de uno de los
nodos.

(2) Distancia media entre dos nodos cualesquiera de la red (L); se trata de una
propiedad global. Cuanto menor sea, mayor accesibilidad global habrá entre un nodo
y otro de la red.

Las redes regulares (Fig.15-a) tienen un alto grado de clusterización, modularidad o


redundancia local, pero la distancia media entre dos nodos cualesquiera de la red es alta, por
lo tanto poseen una mala conectividad global (baja accesibilidad global). Por otro lado, las
redes aleatorias (Fig.15-b) poseen una distancia media entre dos nodos cualesquiera muy baja,
buena accesibilidad global, aunque carecen de estructura modular y redundancias. Las redes
Small World, a diferencia de las dos anteriores, poseen alta clusterización local y también alta
accesibilidad global.

El procedimiento que siguieron Watts y Strogatz para modelarlas es el siguiente:

• Se comienza con una red regular de n-vertices, y k-conexiones por vértice (Fig.15-a)
• Con una probabilidad p, se elimina, para un nodo tomado al azar de la red, una
conexión local y se sustituye por una aleatoria
• Se repite para distintos valores de p (0..1)
• Se cuantifican, para los distintos valores de p, las propiedades estructurales de las
redes resultantes a través de: el grado de clusterización de la red, y la distancia media
entre dos nodos cualesquiera.

El resultado fue el siguiente (ver Fig.16):

Fig.16 – Propiedades estructurales para distintos valores de p. Identificación de la región Small-


World. Fuente: Watts y Strogatz (1998).

Para un amplio rango de valores de p, de hecho, desde el momento que unas pocas
conexiones locales son convertidas en conexiones aleatorias, la distancia promedio entre dos
puntos cualesquiera de la red se reduce rápidamente (aumenta la accesibilidad global),
manteniendo a su vez valores de clusterización de la red similares a los de la red regular (alta

32
modularidad y redundancia local). El modelo Small World se caracteriza, por tanto, por poseer
grados de clusterización local (modularidad) equiparables a los de las redes regulares, debido
a conexiones redundantes entre sus vecinos, y a la vez, distancias promedio entre pares de
nodos cualesquiera bajas (alta accesibilidad global), equiparables a las de los modelos de
redes aleatorias:

C(small world) ≈ C(red regular) …modularidad, robustez local


L(small world) ≈ L(red aleatoria) … accesibilidad global

Este modelo explica el efecto conocido desde tiempo atrás como efecto “seis grados de
separación”, según el cual dos personas cualesquiera del mundo, elegidas al azar de entre los
6,000 millones, se hayan separadas entre sí tan sólo por 6 pasos de distancia (seis
personas)36. La curiosa historia de los seis grados de separación es la siguiente: En 1967,
Stanley Milgram, psicólogo social de la Universidad de Harvard, hizo un experimento para
investigar la estructura social de las comunidades de USA. Para ello, envió, desde su despacho
en Boston, una serie de cartas a personas elegidas al azar de los estados de Nebraska y
Kansas. Boston, Nebraska y Kansas se hayan, tanto geográfica, como culturalmente,
suficientemente distantes entre sí. A continuación pidió a los destinatarios que reenviasen
estas cartas hacia un amigo de Milgram en Boston, pero con la condición, de que no lo hicieran
directamente, si no, consecutivamente, a través personas conocidas por ellos, que
considerasen podía estar socialmente próximas al destinatario final de Boston. 42 de las 160
cartas enviadas por Milgram llegaron a su amigo de Boston. El recorrido que siguieron las
cartas no requirió cientos de reenvíos, si no tan sólo un promedio de 6. La población en ese
momento de USA era de 150 millones de personas37.

En el caso de que concibiéramos que las redes sociales, en las que nos encontramos
diariamente, son del tipo aleatoria, el hecho anterior no tendría demasiada trascendencia.
Imaginemos que una persona cualquiera conoce a otras 50 personas, y que cada una de estas
50 conocen a su vez a otras 50 personas distintas, y así sucesivamente (efecto venta
piramidal). En 6 pasos habríamos conseguido cubrir 15,625 millones de personas. Lo
realmente curioso, es que las redes sociales, en las que nos desenvolvemos diariamente, no
son de tipo aleatorio. Es más común que un par de buenos amigos míos, sean a su vez
amigos, o por lo menos conocidos entre sí, que el hecho de que no se conozcan en absoluto, y
que en cambio tengan conocidos, de forma habitual, en el otro lado del mundo. Las redes
sociales reales, por cuestiones geográficas y culturales son más bien de tipo regular. ¿Cómo
se justifica entonces la distancia de seis grados encontrada por Milgram?. La respuesta está en
el modelo Small World, y el mínimo número de relaciones a larga distancia que son necesarias
para que el diámetro total de una red, su distancia media entre dos elementos cualesquiera, se
reduzca de forma increíble.

Este modelo también explica el hecho de que la distancia promedio entre dos páginas web
cualesquiera de la WWW son tan sólo 19 pasos (19 páginas web), y lo mismo sucede para las
redes identificadas anteriormente; redes eléctricas, internet (4 terminales de distancia, 10 para
el caso de ordenadores con dificultades especiales de conexión), redes de colaboración entre
actores, redes de colaboraciones científicas, redes sociales (i.e., dos gerentes cualesquiera de
los 6724 que componen las firmas del Fortune 1000, se hayan tan sólo a 4,6 pasos de
distancia promedio entre sí), ecosistemas, redes neuronales, etc... Todas estas redes
presentan los valores característicos para C y L del tipo del modelo Small World38. Las

36
Milgram, S. 1967. The small world problem. Psychol. Today 2, 60–67
Kochen, M. (ed.). 1989. The Small World. Ablex, Norwood, NJ
Guare, J. 1990. Six Degrees of Separation: A Play. Vintage Books, New York
37
Buchanan, M. 2004. Small World Networks. Exystence working paper: www.complexityscience.org
38
Newman, M. E. J. 2001. The structure of scientific collaboration networks. Proc. Natl Acad. Sci. USA,
vol.98
Newman, M.E.J. 2000. Models of the small world. J Stat Phys, 101, 819–841.
Wagner, A. & Fell, D. 2000. The small world inside large metabolic networks. Preprint available at
http://www.santafe.edu/sfi/publications/Abstracts/00-07-041abs.html
Adamic, L. 1999. The small world web. Lect. Notes Comput. Sci. 1696, 443–452

33
consecuencias de las propiedades estructurales y dinámicas del modelo, clusterización local y
accesibilidad global, han sido ampliamente estudiadas en el campo de la difusión de
enfermedades contagiosas, difusión de rumores, difusión de la información y conocimiento,
difusión de la innovación, etc...

Otra aspecto importante, para este tipo de redes, es conocer el modo en que se hayan
repartidas las conexiones entre los distintos nodos. Esta propiedad es conocida como la
distribución de conectividades de los nodos. En concreto, para las redes reales identificadas
anteriormente, se han encontrado las siguientes distribuciones; distribuciones de tipo potencial
o libres de escala (i.e., topología de internet, de la WWW, de las redes sociales, redes
celulares, redes léxicas, etc.)39, potencial truncada en exponencial (i.e., redes ecológicas,
circuitos electrónicos)40, y exponencial (i.e., redes eléctricas, redes neuronales41) [Amaral,
2000; Albert y Barabasi, 2001; Newman, 2003]. Esto se traduce en que generalmente existen
unos pocos nodos con alto grado de conectividad (hubs-conectores) y muchos nodos con bajo
nivel de conectividad. Ver Fig.17:

Kogut, B. & Walker, G. Small worlds and the durability of national networks: ownership and
acquisitions in Germany. Am. Sociol. Rev. (in the press)
Amaral, L. A. N., Scala, A., Barthélémy, M. & Stanley, H. E. 2000. Classes of behavior of small-world
networks. Proc. Natl Acad. Sci. USA 97, 11149–11152
Stephan, K. E. et al. 2000. Computational analysis of functional connectivity between areas of primate
visual cortex. Phil. Trans. R. Soc. Lond. B 355, 111–126
Davis, G.F., Yoo, M., Baker, W.E. 2001. The Small World of the Corporate Elite. Preprint, University
of Michigan Business School
Faloutsos, M., Faloutsos, P., Faloutsos, C. 1999. On power-law relationships of the Internet topology.
Comput. Commun. Rev. 29, 251
Etc…
39
Albert, R.; Jeong, H.; Baraba´ si, A.-L. Error and attack tolerance of complex networks. Nature 2000,
406, 542.
Caldarelli, G.; Marchetti, R.; Pietronero, L. The Fractal Properties of Internet. Europhys Lett 2000, 52,
386–390.
Newman, M.E.J. The structure of scientific collaboration networks. Proc Natl Acad Sci USA 2001, 98,
404–409.
Ferrer-Cancho, R.; Sole´ , R.V. The small world of human language. Procs Roy Soc London B 2001a,
268, 2261–2266.
40
Solé , R.V.; Montoya, J.M. 2001. Complexity and fragility in ecological networks. Proc Roy Soc Lond
Ser B, 268, 2039–2045.
Dunne, J.A.; Williams, R.J.; Martinez, N.D. 2002. Food-web structure and network theory: The role of
connectance and size. Proc Natl Acad Sci USA, 99, 12917–12922.
Jordano, P.; Bascompte, J.; Olesen, J.N. 2002. Invariant properties in coevolutionary networks of plant-
animal interactions. Ecology Lett (in press).
Hartwell, L. H., Hopfield, J. J., Leibler, S. & Murray, A. W. 1999. From molecular to modular cell
biology. Nature 402, 47–52
Claffy, K., Monk, T. E. et al. 1999. Internet tomography. Nature Web Matters:
http://helix.nature.com/webmatters/tomog/tomog.html
Albert, R., Jeong, H. & Baraba´si, A.-L. 1999. Diameter of the World-Wide Web. Nature 401, 130–131
Kumar, R., Raghavan, P., Rajalopagan, S. & Tomkins, A. 2000. in Proc. 9th ACM Symp. on Principles
of Database Systems 1–10 (Association for Computing Machinery, New York).
Huberman, B. A. & Adamic, L. A. 1999. Growth dynamics of the World Wide Web. Nature 401, 131
Faloutsos, M., Faloutsos, P. &Faloutsos, C. 1999. On power-law relationships of the internet topology.
ACM SIGCOMM ’99. Comput. Commun. Rev. 29, 251–263
Wasserman, S. & Faust, K. 1994. Social Network Analysis. Cambridge Univ. Press
Jeong, H., Tombor, B., Albert, R., Oltvai, Z. & Baraba´si, A.-L. The large-scale organization of
metabolic networks. Nature (in the press).
Faloutsos, M., Faloutsos, P., Faloutsos, C. 1999. On power-law relationships of the Internet topology.
Comput. Commun. Rev. 29, 251
41
Albert, R., Barabasi, A.-L. (2001)

34
Fig.17 – Distribuciones exponenciales y potenciales de la conectividad de los nodos. Fuente:
Strogatz (2001)

Se han propuesto diversas explicaciones para este fenómeno, uno de los mecanismos más
aceptado hasta la fecha es el planteado por Barabási y Albert y sus Redes libres de Escala
(1999). Según estos autores, este tipo de distribución de conectividades puede producirse por
un simple proceso de crecimiento, según el cuál, a medida que se añaden nuevos nodos
(personas, páginas web, empresas a redes tecnológicas, etc) a una red, éstos tienden a
conectarse a aquellos nodos de la red que ya presenten una mayor conectividad. En el caso de
redes sociales, puede entenderse por un efecto de búsqueda de proximidad al nodo más
popular y las ventajas que ello confiere; caso de páginas web, para facilitar aparecer cuando se
hagan búsquedas de dichas páginas más “populares”; caso de aeropuertos, para evitar el
número de escalas que deban hacer los viajeros entre un origen y un destino (conectarse al
aeropuerto de Londres abre más líneas directas, a la mayoría de destino, que el de Biarritz, por
ejemplo), etc. Este simple mecanismo de crecimiento consigue reproducir las distribuciones de
tipo potencial (Redes libres de Escala) identificadas en numerosas redes reales40. Existen otras
variantes respecto a este proceso como son42; la de permitir a los nodos que “envejezcan” de
modo que a partir de cierto instante ya no se modifiquen sus conexiones (redes de
colaboración entre personas, redes sociales, o cualquier otra red compuesta por elementos
biológicos), incorporar un coste por conexión debido a una capacidad limitada de los nodos
(caso por ejemplo de las redes de líneas de transporte entre aeropuertos, redes eléctricas, etc).
Este tipo de variantes consiguen replicar el resto de distribuciones que suelen presentarse;
potenciales truncadas a exponenciales, y exponenciales.

La principal consecuencia de este tipo de distribuciones, en concreto las que siguen una ley
potencial (Redes libres de Escala) en la de conectividad de sus nodos (internet, WWW, redes
42
Albert, R. & Barabási, A.-L. 2000. Topology of evolving networks: local events and universality. Phys.
Rev. Lett. 85, 5234–5237
Dorogovtsev, S. N. & Mendes J. F. F. 2000. Evolution of networks with aging of sites. Phys. Rev. E 62,
1842–1845
Krapivsky, P. L., Redner, S. & Leyvraz, F. 2000. Connectivity of growing random networks. Phys. Rev.
Lett. 85, 4629–4632
Amaral (2000)
Newman (2003)

35
sociales, redes celulares, etc)40, es su extraordinaria robustez, en lo que se refiere a mantener
su comportamiento global, frente a la eliminación aleatoria, o fallo, de sus nodos
constituyentes, y también su alta fragilidad cuando el ataque va dirigido a sus nodos más
interconectados, los hubs-conectores (debido a que son estos los responsables de mantener
una distancia media baja global entre dos nodos cualesquiera de la red, son los puentes)
(Barabási, Albert, Jeong, 2000). Véase, a continuación (Fig.18), el efecto producido al eliminar
de forma aleatoria o bien por fallo, por un lado, y mediante ataque dirigido a los nodos más
interconectados, por otro, sobre la accesibilidad global (diámetro de la red), en el caso de redes
de internet y de WWW:

Fig.18 – Cambio en el diámetro de la red (número de pasos promedio entre 2 nodos


cualesquiera de la red) del sistema internet y WWW, ante eliminación de nodos, bien
seleccionados de forma aleatoria o por fallo, o bien mediante ataque dirigido a aquellos con
mayor grado de conectividad. Fuente: Barabási, Albert, y Jeong (2000)

Ejemplos de este tipo de comportamientos podemos encontrarlos en el caso de ataques


dirigidos a los hubs de internet (páginas más conectadas), o bien al error /fallo local de un
elemento hiperconectado de una red eléctrica que hace caer, desconectarse globalmente, a
gran parte del sistema (observado recientemente en Italia, y USA), o a la extinción de un
conjunto de especies cuando otra especie crítica (hiperconectada) del ecosistema es destruida
(Solé et al.2003; Solé, 2005).

Otro de los mecanismos propuestos para explicar el origen de este tipo de configuraciones
estructurales es el de la optimización (Guimerà, Danon, Díaz-Guilera, Giralt, Arenas, 2002;
Solé, Ferrer-Cancho, Montoya, Valverde, 2003). Autores como Ramón Ferrer-Cancho, Ricard
V. Solé, y Sergi Valverde (Ferrer-Cancho, Solé, 2001; Valverde, Ferrer-Cancho, y Solé, 2002)
han demostrado que un proceso de optimización que trate de minimizar, tanto la densidad de
conexiones en la red (coste por enlaces), como la distancia media entre dos nodos
cualesquiera de la red (accesibilidad global –optimización de la comunicación), es capaz de
reproducir tanto los resultados de distribuciones potenciales (Redes libres de Escala) en las
conectividades de los nodos (y sus propiedades de robustez a fallos y fragilidad a ataques),
como las propiedades de clusterización y accesibilidad global características de los modelos
Small World. Esto explicaría el por qué de la amplísima existencia de configuraciones
estructurales de este tipo, tanto en la naturaleza, como en los sistemas sociales y tecnológicos.
Y es que, las redes reales compuestas por múltiples nodos, relaciones, y restricciones, parece
que tienden, de forma natural, a evolucionar hacia este tipo de configuraciones estructurales
con el fin de encontrar un compromiso entre distintos aspectos como son la optimización del
coste por enlace, la optimización de la comunicación- transmisión de información-energía-
materiales (accesibilidad global), y la robustez ante perturbaciones (clusterización –
modularidad) (Shargel, Sayama, Epstein, Bar-Yam, 2003).

36
Fig.19 – Representación visual de distintas configuraciones estructurales respecto a un relieve
de utilidad. Fuente: S. Valverde, http://complex.upf.es/~sergi/ (abril 2005)

Vemos, por tanto, que el objetivo de los trabajos descritos ha tratado de cubrir tres aspectos
fundamentales en el estudio de los sistemas y redes reales; por un lado identificar una serie de
propiedades estadísticas fundamentales (grado de clusterización, distancia media entre dos
puntos cualesquiera de una red - diámetro, distribución de conectividades entre los nodos de
una red, etc) que permitan caracterizar la estructura de las mismas; por otro lado, el desarrollo
de modelos (Small World, Redes libres de Escala) que nos permitan comprender el significado
de estas propiedades y su interacción; y por último, las consecuencias que dichas propiedades
tienen sobre el comportamiento (robustez y fragilidad, comunicación, etc) de los sistemas en
función de las distintas configuraciones estructurales que se presentan en los sistemas
biológicos, sociales, y tecnológicos (Newman, 2003). En definitiva se trata de caracterizar y
modelar la estructura de las redes inherentes a los sistemas, para poder comprender su
comportamiento y procesos de evolución43.

Estos simples modelos, Small World y las Redes libres de Escala, abrieron un importante
puente entre las ciencias de la complejidad y la teoría de redes. Especialmente con el campo
del análisis de redes sociales y organizativas. Veamos a continuación una serie de ejemplos.

3.2 Ámbitos de Aplicación

La presente sección esta dividida en cuatro partes. En primer lugar, se reinterpretará el modelo
small world respecto de las teorías de las redes sociales, mostrando diferentes aplicaciones, y
aportaciones, en los campos de capital social, y la creación de conocimiento. En segundo
lugar, se comentará el potencial del modelo como marco respecto al cual interpretar el
desarrollo de formas organizativas capaces de combinar la estabilidad y el cambio; ciclo
exploración-explotación. En tercer lugar, se comentarán distintas aplicaciones de análisis de
redes organizativas, y el impacto que la estructura tiene sobre el comportamiento y desempeño
organizativo. Por último, se describirá el caso práctico de firma Oranje, donde se puede
observar, de forma progresiva, las consecuencias prácticas de los modelos presentados hasta
el momento, y su importancia como marcos de referencia, a la hora de plantear diseños
organizativos, y formas de gestión, para la mejora del desempeño en entornos cambiantes.

43
Los tres principales libros de divulgación sobre estos temas son; Linked de Barabasi (2002), Nexus de
Buchanan (2002), y Six Degrees de Watts (2003)

37
1. Redes Sociales

Introducción

Los estudios acerca de las redes sociales se han planteado tradicionalmente cuestiones del
tipo; ¿qué individuos se hayan mejor conectados respecto a otros (centralidad), y por lo tanto
tienen más influencia sobre la red?, ¿de qué forma los individuos se hayan conectados a los
demás a través de la red (estructura de conectividad y su distribución)?, ¿qué individuos son
los más críticos respecto a la conectividad de la red en caso de ser eliminados (centralidad-
conectividad y diámetro de la red)?, etc… Algunas de estas cuestiones, que como decimos,
han sido abordadas desde tiempo atrás en el ámbito del análisis de la redes sociales (Scott,
1998; Wasserman y Faust, 2000), también se han tratado en los modelos descritos
anteriormente. Para ello, el campo del análisis de redes sociales, se ha apoyado en diversas
herramientas de análisis y visualización, como por ejemplo; UCINET (www.analytictech.com), y
PAJEK (http://vlado.fmf.uni-lj.si/pub/networks/pajek/default.html), entre otras muchas.

En los trabajos de redes sociales, los nodos representan personas de una red social, y las
líneas que los unen, relaciones, de distinto tipo, entre dichos nodos. Tanto los nodos, como las
relaciones entre los nodos pueden representar distintas propiedades o características. En el
caso de los nodos puede representar aspectos como; la edad, el sexo, poder económico,
nacionalidad, etc. En el caso de las relaciones se puede especificar, además de su naturaleza
(relaciones de amistad, de confianza, de creatividad, de colaboración, de competición, de
negocio, etc), otros aspecto como; la direccionalidad de una relación (i.e., A → B; donde A
actúa sobre B, p.ej. llamadas de teléfono; grafos dirigidos), ó el peso asignado a distintas
relaciones (i.e., distintos grados de amistad, grado de conocimiento entre ambos, etc… en las
relaciones).

Fig.20 – Algunas representaciones de redes sociales; (a) nodos con las mismas características,
y relaciones bidireccionales de igual peso; (b) y (c) nodos con distintas características y
relaciones bidireccionales de distintos pesos; (d) nodos con características similares y
relaciones unidireccionales, o dirigidas, de igual peso. Fuente: Newman (2003)

Otra forma de representar las redes de relaciones entre agentes es a través de matrices de
adyacencia. Es el formato que emplean habitualmente las herramientas de análisis de redes
sociales (UCINET, PAJEK, etc...) para aplicar sus algoritmos de caracterización de la
estructura. Las matrices de adyacencia están compuestas por tantas filas y columnas como
agentes existen en la red. En el caso de relaciones no ponderadas (mismo peso), las
relaciones suelen expresarse en la matriz mediante 1s y 0s (en el caso de las ponderadas se
indicará para cada relación su peso); 1 para el caso de existir relación entre los agentes, y 0
caso de no existir. En el caso de relaciones no dirigidas, matriz resulta ser diagonalmente
simétrica. Para grafos dirigidos de relaciones, será no simétrica.

38
Fig.21 – Ejemplo simple de matriz de adyacencia para una red de relaciones (sin peso) y con
relaciones dirigidas entre 4 agentes. Fuente: Hanneman, R.A. 2001. Introducción a los métodos
del Análisis de Redes Sociales. Departamento de Sociología de la Universidad de California
Riverside.

Se citan, a continuación, algunas de las propiedades usualmente más empleadas para


caracterizar dichas redes sociales:

CENTRALIDAD

Centralización (Degree):

La centralidad de la red estudia los actores más centrales, más prominentes, más poderosos y prestigiosos. Se
utilizan varios indicadores y cada uno de ellos aporta una información específica sobre las dimensiones del prestigio y
del poder. Las redes asimétricas utilizan los indicadores: Outdegree y Indegree. Las redes simétricas utilizan el
indicador: Grado.

Outdegree: Indica el número de conexiones/relaciones directas iniciadas por cada actor. Refleja tanto la actividad
social de cada actor como su capacidad para acceder al resto de actores.

Indegree: Indica el número de actores que se relacionan de forma directa (que contactan) a cada actor. Permite
conocer a los actores más prestigiosos o de referencia para el resto de la red. Posiblemente es el indicador ideal para
el análisis de prestigio y poder (a nivel local).

Intermediación (Betweenness):

Para cada actor nos indica en qué medida está en una posición intermediaria en las comunicaciones geodésicas (es
decir, más cortas) entre el resto de actores. Los actores con mayor intermediación tienen un gran poder al controlar
los flujos de comunicación óptimos (lo que podríamos denominar “persona puente”).

Mediación general (Flow Betweenness): Indica la posición de intermediación de cada actor en todos los tipos de
contactos y comunicaciones entre los actores, tanto más cortas (geodésicas), como el resto

Cercanía (Closeness):

Mide la distancia media de cada actor con respecto al resto de actores de la red. Los indicadores mayores de
centralidad sugieren que hay una facilidad mayor de acceso al resto de los miembros de la red: mayor capacidad de
obtener información o de enviarla.

COHESIÓN (Clusters)

Una característica se puede observar en una red es que dentro de ella es posible identificar grupos o sub-grupos. Un
sub-grupo recibe el nombre técnico de clique si sus elementos constituyentes están completamente relacionados
(todos con todos).

Se puede hablar de dos acepciones de clique: en sentido “duro”, la expuesta, y en sentido “blando”. Un clique, en
sentido “blando”, es un grupo, tal que, un actor es miembro del mismo si está conectado con todos los miembros del
grupo a una distancia mayor que uno.

POSICIONES SOCIALES

La estructura social puede ser vista también en términos de posiciones sociales o papeles sociales. Con ello se
pretende identificar la existencia de posiciones sociales diferenciadas (bloques) y las relaciones entre las mismas.

Equivalencia estructural: Indica que dos o más actores siguen pautas idénticas de comportamiento en sus relaciones
con otros actores.

Equivalencia regular: Indica que dos o más actores siguen pautas similares de comportamiento en sus relaciones con
otros actores.

Tabla 4 – Estadísticas empleadas más frecuentemente en el Análisis de Redes Sociales.


Fuentes: NAGAR. 2005. Guía Práctica del Análisis de Redes (UCINET IV).
http://www.dste.ua.es/nagar/docencia.htm, y Quiroga, A. 2003. Taller de ARS con Ucinet 6 y
NetDraw avanzado. http://revista-redes.rediris.es/webredes/talleres/

39
No se trata en este momento de hacer una descripción exhaustiva de las teorías, metodologías
y herramientas propias del Análisis de Redes Sociales44, la Tarea 3 del presente proyecto
cubre ese objetivo, si no simplemente comentar una serie de elementos que nos permitirán
identificar la similitud de problemáticas abordadas, y puentes potenciales, que existen entre
dicha disciplina y los modelos presentados anteriormente.

Redes Sociales y el modelo Small World: La Importancia de los Vínculos Débiles, El


Capital Social, y la Creación de Nuevo Conocimiento

La Importancia de los Vínculos Débiles

Hace algo más de 30 años, el sociólogo Mark Granovetter, de la Universidad de Stanford, se


planteó una pregunta respecto a cuáles eran las características principales de aquellos
vínculos que hacían posible mantener conectadas distintas comunidades entre sí (Granovetter,
1973). A través de un primer trabajo de campo, sobre diferentes comunidades bostonianas que
se movilizaban para evitar las consecuencias del crecimiento urbano, identificó que los vínculos
que las mantenían unidas eran casi siempre vínculos de tipo débil. La fortaleza de los vínculos
entre las personas o comunidades, la fuerza de sus relaciones, depende de muchos factores,
i.e., tiempo dedicado a la relación, frecuencia con la cual interactúan, intensidad emocional de
la relación, similaridad entre los nodos, credibilidad y confianza mutua, servicios recíprocos,
etc… Así, a diferencia de las relaciones fuertes que suelen encontrarse dentro de grupos
cohesionados (cliques - clusters) tipo familia, grupo de amigos, etc…, en el caso de las
relaciones inter-grupos, éstas más bien entre “conocidos”, son de tipo débil. El título del artículo
de Granovetter (1973), “The strengh of weak ties”, pone de manifiesto la importancia de las
mismas a la hora de crear puentes entre comunidades diferenciadas, tanto geográfica como
culturalmente. Estos “puentes”, como vimos en el modelo Small World45, son en sí los
responsables reducir la distancia entre los elementos de una red y conferirle la propiedad de
una alta accesibilidad global, a la vez que se mantiene la cohesión local. Caso de desaparecer,
la red queda fragmentada en grupos aislados entre sí, de ahí la importancia de este tipo de
relaciones “débiles” entre conocidos.

Capital Social

1) Agujeros Estructurales de R. Burt:

Tiempo más tarde, Burt (1992, 1996, 2000) reconoció la capacidad de estos vínculos débiles
como elementos clave para el desarrollo del capital social en su papel de puentes entre
comunidades aisladas entre sí, cada una con su componente de diferenciación, y por tanto de
diversidad. La teoría expuesta por Burt se conoce como “Structural Holes” (agujeros
estructurales). Las personas que hacen de puente entre grupos aislados, uniendo así clusters
locales y creando caminos más cortos entre grupos de interés heterogéneos no redundantes,
son personas que crean nuevas oportunidades de negocio (ventaja competitiva), son agentes
de innovación, transmisores de nuevas ideas, fuente de nuevas ventajas competitivas, y
creación de valor para la organización. Su identificación y desarrollo, tanto a nivel de
organización formal como informal, resulta clave como elemento innovador y desarrollo de
nuevas capacitaciones dinámicas, novedad, diversidad, y creación de nuevas oportunidades de
negocio para la organización.

44
En http://www.redes-sociales.net/ se puede encontrar abundante material en castellano acerca de las
teorías, metodologías, herramientas, y aplicaciones propias del Análisis de Redes Sociales
45
Adaptación del modelo Small World para el caso de vínculos de distinta intensidad, fuerza: Latora, V.
Marchiori, M. 2003. Economic small-world behavior in weighted networks. Eur. Phys. J. B, 32, 249-263
Adaptación del modelo de Distribución de Conectividades (Scale Free) para el caso de vínculos de
distinta intensidad, fuerza: Yook, S.H., Jeong, H., Barabasi, A.-L. 2001. Weighted Evolving Networks.
Physical Review Letters, vol86, n25
Estudio general acerca del modelo Small World y Scale Free, para el caso de vínculos de distinta
intensidad, fuerza: Barrat, A., Barthelemy, M., Pastor-Satorras, R., Vespignani, A. 2004. The architecture
of complex weighted networks. Proc Natl Acad Sci USA. 101(11): 3747–3752

40
Fig.22 – Ejemplo de posicionamiento y ventajas de cubrir agujeros estructurales. Fuente: Burt
(1996)

2) Capital Social, Agujeros Estructurales y Small Worlds:

El trabajo de Verspagen y Duysters (2004)46 tiene especial interés a la hora de establecer una
relación entre la definición clásica de capital intelectual (Bourdieu, 1980; Coleman, 1990)47, la
planteada por Burt (1992, 1996, 2000) y sus agujeros estructurales, y el modelo Small World
como marco integrador de ambas, todo ello planteado en el contexto de las alianzas
estratégicas tecnológicas. Los autores comienzan destacando la creciente proliferación de este
tipo de redes de alianzas estratégicas tecnológicas en los últimos 20 años. La motivación
principal para este desarrollo lo sitúan en la necesidad, por parte de las firmas, de abrirse a
colaboradores externos, para ampliar así su capacidad, tanto de acceso a nuevas fuentes de
know-how y nuevas tecnologías, como a su desarrollo, en entornos de alto ritmo de cambio
tecnológico. A continuación se presentan las diferentes definiciones de capital social
contempladas:

1) Por un lado la de Bourdieu (1980) y Coleman (1990)47, que entienden el capital social
como “...la suma de recursos que posee un individuo, o un grupo, por el hecho de
disponer de una red duradera de relaciones de mutuo reconocimiento...”, lo cual sería
traducible, en el ámbito de las redes, a poseer una alta densidad de relaciones. A
mayor densidad de relaciones de la red, mayor capital social, y acceso potencial a
información;

2) La segunda perspectiva es la de Burt (1992, 1996, 2000) y sus agujeros estructurales.


En este caso, se plantea que para sacar el mayor partido a este tipo de alianzas, la
firma en cuestión debería posicionarse como puente entre redes altamente densas,
consiguiendo, de este modo, acceso a información y conocimiento no-redundante.

Cada una de estas estrategias lleva a distintas configuraciones finales de redes de alianzas
estratégicas. La primera de ellas, nos llevaría a redes con un número limitado de
colaboradores, con los cuales se establecen estrechas, y duraderas, relaciones de
colaboración: el resultado es una configuración estructural tipo red regular, altamente
clusterizada, y con largas distancias entre agentes de distintos entornos (baja accesibilidad
global). Por otro lado, la segunda, nos llevaría a configuraciones donde las redes locales
tendrían una menor densidad, y la propensión a cubrir huecos estructurales, proporcionaría
bajas distancias entre agentes de distintos entornos (alta accesibilidad global): redes de tipo
aleatoria. Ninguna de ellas por separado parece muy recomendable. Lo recomendable sería,

46
Verspagen, B., Duysters, G. 2004. The small worlds of strategic technology alliances. Technovation,
24, 563-571
47
Bourdieu, P. 1980.Le Capital Sociale: Notes Provisaires. Actes de la Recherche en Sciences Sociale 2-3
Coleman, J. 1990. Social Capital in the Creation of Human Capital. American Journal of Sociology 94,
S95-S120

41
por tanto, encontrar una configuración que permitiera tanto unos niveles altos de capital social
(clusterización mediante redes locales densas), como una alta accesibilidad a informaciones y
conocimientos no-redundante de otras redes (accesibilidad global mediante puentes,
colaboradores estratégicos, que cubran agujeros estructurales). Como vemos, la respuesta a
este dilema es el modelo Small World: combina alto capital social, por parte de los clusters, y
un flujo eficiente de información y conocimiento no-redundante, a través unos pocos puentes.
Tras un análisis de datos reales (base de datos CATI, periodo 1980-1996), los autores
verificaron que las redes de alianzas reales (alianzas tecnológicas del campo de la química, la
alimentación, y la electrónica), se organizan según esta estrategia mixta, y se configuran
alrededor de estructurales de relaciones tipo Small World.

Creación e Intercambio de Conocimiento

En el ámbito organizativo, la presencia de agentes “puente” (Burt, 1992, 1996, 2000), y su


actividad vaso comunicante entre grupos diversos (heterogéneos y no redundantes), tiene,
como hemos dicho, una especial importancia como elemento facilitador de la creación e
intercambio de conocimiento no-redundante, nuevo conocimiento. Tal como planteaba
Granovetter (1973), los grupos o cliques locales son grupos altamente cohesionados,
redundantes, y con relaciones entre sus miembros de tipo fuerte. Se trata de equipos que
presentan entre sus miembros una distancia cognitiva baja, ya que las relaciones fuertes
confiere a sus miembros similitudes de tipo cultural, un lenguaje común, y visiones del mundo -
modelos mentales compartidos. Estos elementos favorecen la “explotación”31 de las
competencias actuales del grupo, su especialización, codificación del conocimiento del grupo y
su estandarización y búsqueda productividad. Por otro lado, los vínculos débiles, propios de los
agentes “puente”, crean caminos más cortos entre grupos y visiones heterogéneas y no
redundantes (diversidad). La distancia cognitiva entre dichos grupos heterogéneos será
normalmente alta. De este modo, los vínculos débiles, característicos de los agentes que
cubren agujeros estructurales de la red, hacen de intermediarios, facilitando la comunicación
inter-grupo, posibilitando así la posterior creación de planteamientos novedosos (ideas,
productos, servicios, oportunidades de negocio). Se trata, por tanto, de elementos impulsores
de la “exploración”31 y el desarrollo de nuevas competencias, la innovación, la flexibilidad y el
cambio. El esquema de Nooteboom (2000)31, acerca del efecto de la distancia cognitiva sobre
la creación de conocimiento novedoso, pone de manifiesto este hecho de forma visual:

Fig.23 – Distancia cognitiva y creación de conocimiento. Fuente: Nooteboom (2000)31

A baja distancia cognitiva (grupos locales cohesionados por vínculos fuertes), mayor
comprensión de lo expuesto, pero también menor novedad de la información compartida. Para
alta distancia cognitiva, se dará una baja comprensión de lo expuesto, aunque la información
intercambiada tendrá un mayor potencial de novedad. Ambos extremos, como vemos en la
figura, resultan poco atractivos para la generación de nuevo conocimiento. La zona intermedia,
que es en la que se desarrollan las relaciones tipo vínculos débiles (característica de los
agentes “puente” de los agujeros estructurales), permiten un nivel de comprensión suficiente,
como para que cada grupo haga su propia interpretación de la información novedosa
(diversidad) intercambiada, y la adapte a su contexto en forma de creación de nuevo
conocimiento.

42
2. Balance entre Explotación y Exploración (Estabilidad vs. Cambio), Nuevas Formas
Organizativas, y el modelo Small World

En la definición de nuevos modelos organizativos más flexibles, modelos capaces de gestionar


la complejidad interna y externa de la organización, es decir dinámicos y flexibles frente a la
incertidumbre, que no necesite reestructurarse continuamente, y capaces de co-evolucionar
con su entorno industrial mediante una plataforma de revitalización, se identifica como punto
clave encontrar un balance adecuado entre la explotación (estabilidad) y la exploración
(cambio)31.

Se trata, por tanto, de ser capaz de conciliar la explotación de los recursos y capacitaciones
actuales (eficiencia y estabilidad – reducción de la complejidad mediante la especialización)
para el corto plazo, con la exploración de nuevos recursos y capacitaciones (innovación y
cambio – absorción de la complejidad mediante la variedad y flexibilidad) para asegurar la
supervivencia a medio y largo plazo31.

Según los trabajos presentados anteriormente (Granovetter,1973; Burt, 1992, 1996, 2000;
Nooteboom, 2000), vemos como la “explotación” en la organización se desarrolla a través de
grupos de trabajo altamente cohesionados (vínculos fuertes), homogéneos y redundantes
(cliques o clusters), donde predomina una lenguaje y modelos mentales comunes, y los
procesos estandarizados (baja distancia cognitiva). Mientras que la “exploración” se desarrolla
entre equipos heterogéneos no redundantes, con vínculos débiles, lo cual favorece la creación
de puentes entre ámbitos diversos, la accesibilidad global de la información, y contextos
apropiados para la creación de nuevo conocimiento, innovaciones, y explorar nuevas
oportunidades de negocio. Uzzi (1997)48, plantea en este sentido, que las organizaciones más
efectivas a la hora de desenvolverse en entornos de cambio, son aquellas que poseen un
balance adecuado entre relaciones fuertes (drivers de la explotación, la estabilidad y la
eficiencia a corto plazo) y relaciones débiles (drivers de la exploración, la innovación, y el
cambio).

Tabla 5 – Explotación y exploración en el ámbito de la organización. Fuente: Castellano


(2003)32

48
Uzzi, B. 1997. Social Structure and The Paradox of Embeddedness. Administrative Science Quarterly,
Vol. 42 (1)

43
Cada uno de estos aspectos está reflejado en el modelo Small World; los “clusters” como
elementos facilitadotes de la explotación, y los “puentes”, que facilitan la accesibilidad global y
crean las posibilidades de la exploración. Podemos argumentar, por tanto, que además de los
mecanismos descritos anteriormente como justificación a la existencia masiva de este tipo de
configuraciones tipo Small World en las redes reales, la necesidad de conciliar la estabilidad
mediante la explotación, y el cambio mediante la exploración, nos llevaría de nuevo, en el caso
de sistemas adaptativos como los organismos y las organizaciones, a la necesaria existencia
de configuraciones estructurales del tipo Small World.

El modelo Small World es una estructura hacia la cual evolucionan los sistemas, pero estos
sistemas están continuamente regenerando sus elementos y reconfigurándose, es por tanto,
una estructura de equilibrio dinámico. Lo mismo podemos decir en relación a las
organizaciones, y sus procesos de regeneración, y co-evolución con en entorno. Nooteboom
(2000)31, ha definido un modelo, un ciclo, que captura esta dinámica regenerativa, y que es
aplicable a distintas escalas; a nivel de mercados, de redes inter-organizativas, estructuras
organizativas, procesos y comunidades intra-organizativas. El modelo es conocido como ciclo
Explotación-Exploración, y consta de 5 fases: Consolidación (proceso de tipo convergente, que
busca la eliminación de redundancias para conseguir mayores eficiencias vía explotación);
Generalización (las prácticas exitosas de la consolidación, se aplican a contextos nuevos,
aunque próximos, donde es previsible que sigan siendo válidas. Es un proceso de inicio de
apertura y aumento de la variedad); Diferenciación (a medida que estas prácticas empiezan a
mostrar sus limitaciones, deben ser adaptadas y redefinidas para el nuevo contexto);
“Reciprocation” (intercambio de elementos de distintas prácticas para un contexto dado donde
resulten exitosas); Nuevas Combinaciones (a medida que las áreas de aplicación se expanden,
las prácticas se vuelven más y más diferenciadas según los contextos. Los elementos
incorporados de otras prácticas no resultan adecuados, y deben desarrollarse nuevos
elementos, y nuevas integraciones de los mismo, dando como resultado nuevas prácticas
particulares); tras mucha experimentación se irán seleccionando, entre esta gran diversidad de
prácticas, aquellas que resulten más adecuadas, hasta encontrarse unas cuantas óptimas
(locales o globales) que se conviertan mediante estandarización en dominante(s), reiniciándose
de nuevo el Ciclo a través de la fase de Consolidación.

Fig.24 – Ciclo Explotación-Exploración. Fuente: Nooteboom (2000)31

Cada una de las fases de este Ciclo tiene asociada una forma organizativa característica
(Fig.25): Formas organizativas de tipo desintegradas y descentralizadas para las fases más
turbulentas, donde se generan las innovaciones (exploración); y formas organizativas de tipo
más integradas y centralizadas para el caso de la consolidación (explotación):

44
Fig.25 - Formas organizativas características de cada una de las fases del Ciclo Exploración-
Explotación. Fuente: Adaptación en Castellano (2003)32 sobre Nooteboom (2000)31

Los trabajos acerca de nuevas formas organizativas para entornos dinámicos, tratan de
identificar estructuras organizativas, o plataformas de infraestructuras y condiciones, que sean
válidas para el conjunto del Ciclo de regeneración organizativa (Castellano, 2003)17. Tras las
distintas propuestas: La Organización Ambidiestra (Tushman, O’Reilly, 1996)49, La
Organización Flexible (Volberda, 1998)50, La Organización Modular (Sanchez,
Mahoney,1996)51, etc… está latente en concepto de Organización Red (Powell, 1990; Nohria,
Eccles,1992)52 y aspectos como la conectividad, interdependencia, tipos de configuraciones
estructurales que faciliten la accesibilidad global de la información, y el desarrollo de nuevas
relaciones de colaboración y cooperación, así como la explotación de los recursos y
capacitaciones actuales, herramientas para la caracterización de redes intra e inter-
organizativas (tanto formales como informales), prácticas y mecanismos para la gestión de las
relaciones en redes intra e inter-organizativas (mecanismos de comunicación, mecanismos de
negociación y decisión, mecanismos de coordinación, mecanismos de integración...), modelos
sobre la formación y evolución de redes intra e inter-organizativas de colaboración respecto de
sus entornos de negocio, etc. Aspectos, muchos de los cuales, se están abordando desde los
modelos NK y Small World descritos, así como a través de los posteriores Modelos Basados en
Agentes, y sus aplicaciones.

3. Redes Organizativas: Formales e Informales

Las redes intra e inter-organizativas han sido ampliamente analizadas a través de distintas
herramientas SNA (social network analysis) para capturar, caracterizar y analizar las
estructuras, patrones, y evolución de las redes intra e inter-organizativas, tanto formales como
informales (conectividad de los actores, rango, prominencia, proximidad, grado de aislamiento,
popularidad, centralidad, reciprocidad entre agentes, (a)simetría de las relaciones, transitividad,

49
Tushman, M. L., O’Reilly, C.A. 1996. The ambidextrous organization. California Management
Review, 38 (4): 8-30.
50
Volberda, H. W. 1998. Building the Flexible Firm. Oxford: Oxford University Press
51
Sanchez, R., Mahoney, J. 1996. Modularity flexibility, and knowledge management in product and
organization design. Strategic Management Journal, 17:63-76
52
Powell, W. W. 1990. Neither Market Nor Hierarchy: Network Forms of Organization. Research in
Organizational Behavior, Vol. 12, pages 295-336.
Nohria, N., Eccles, R. 1992. Networks and Organizations: Structure, Form, and Action. Harvard:
Harvard Business School Press.

45
densidad de la red, heterogeneidad de la red, grado de (des)centralización de la red...) [Scott,
1998; Wasserman y Faust, 2000].

Como resultado de estas investigaciones se han identificado diversas aplicaciones prácticas


sobre el campo de la organización:

• Cross, Parker, y Borgatti, (2000)53: Emplean el enfoque del análisis de redes sociales
(SNA) para: (1) Identificar el potencial de una red para apalancar su conocimiento
colectivo en respuesta a nuevas oportunidades o problemas; (2) Asesorar acerca de
las formas más eficientes de diseñar redes de colaboración inter-organizativas; (3)
Facilitar la integración tras una reorganización (reestructuración organizativa, fusión,
adquisición, etc), así como promover y mejorar la efectividad de las colaboraciones
estratégicas en grupos del tipo; unidades de negocio estratégicas, equipos para el
desarrollo de nuevos productos, equipos directivos de alto rendimiento, etc.

• Krackhardt (1992)54: En una gran compañía de electrónica, estructurada en forma de


red organizativa de múltiples unidades, se estudia el desempeño del desarrollo de
proyectos de diversa complejidad tecnológica inter-unidades. Llegando a la conclusión
de que la existencia de vínculos débiles entre las unidades, acelera el desarrollo de los
proyectos inter-unidades de baja complejidad tecnológica, mientras que los retrasa
cuando la complejidad tecnológica del proyecto es alta.

• Hutt, Stafford, Walker y Reingen (2000)55: Analizan la red social de una alianza
estratégica de 2 firmas del Fortune-500, que desarrollaban un producto compartido,
mediante análisis de redes sociales (SNA). Identificando, tanto a nivel operativo como a
nivel estratégico, los patrones de comunicación (configuración de las redes de los flujos
de comunicación) que cohesionaban los equipos colaboradores, así como aquellas que
los dividían.

• Judd y Massey (1997)56: Hacen un recorrido por las distintas técnicas del análisis de
redes sociales (SNA) que permiten modelar gráficamente las redes de comunicación
entre los empleados de una organización, y las formas de identificación de las
personas críticas respecto a los flujos de información que recorren la organización.

• Benassi, Greve, y Harkola, (1996)57: Presentan diez proposiciones para explorar la


forma ideal de las organizaciones-red (network organizations), poniendo el énfasis en
la relación entre, la configuración de estructura interna y los procesos, respecto a
ciertas propiedades de desempeño organizativas.

• Jones, Conway, y Steward, (1999)58: Emplean el enfoque del análisis de redes sociales
(SNA), para proporcionar comprensión acerca de la forma en que, la potenciación de la
creación de relaciones (networking), contribuye a la actividad innovadora en la gestión
organizativa, los procesos, y los negocios.

53
Cross, R., Parker, A., Borgatti, S. 2000. Strategic Collaboration: Using Social Network Analysis to
Integrate Human Networks. IBM Institute for Knowledge Management, Boston College WHITE PAPER
54
Krackhardt, D. 1992. The Strength of Strong Ties: The Importance of Philos in Organizations. In
chapter 8 of Networks and Organizations: Structure, Form, and Action. Eds. Nitin Nohria and Robert
Eccles. Boston: Harvard Business School Press.
55
Hutt, M.D., Stafford, E.R., Walker, B.A., Reingen, P.H. 2000. Case study: Defining the social network
of a strategic alliance, Sloan Management Review, 41(2), 51-62
56
Judd, M.H., Massey, J.G. 1997. Modelling the communication network in a sawmill. Forest Product
Journal, 47(9), 25-30
57
Benassi M., Greve A., Harkola J. 1999. Looking For a Network Organization: The Case of GESTO.
Journal of Market-Focused Management, vol. 4, no. 3, pp. 205-229
58
Jones, O., Conway, S., Steward, F. 1999. Social Interaction and Organisational Change: an analytical
review of innovation networks. Working Paper No: RP9934, Aston Business School, ISBN No 1 85449
339 6

46
Se muestra a continuación una breve selección de algunas aplicaciones, SNA, al campo de las
redes intra e inter-organizativas:

REDES INTER-ORGANIZATIVAS
Ahuja, G. (2000). Collaboration Networks, Structural Holes, and Innovation: A Longitudinal Study. Administrative
Science Quarterly, 45, (3).
Ebers, M. (1997). The formation of inter-organizational networks. New York : Oxford University Press.
Gulati, R. & Martin, G. (1999). Where Do Interorganizational Networks Come From?. American Journal of Sociology
104, 1439-1493.
Gulati, R. (1998). Alliances and Networks, Strategic Management Journal, 19, 293 - 317.
Koka, B. & Prescott, J. (2002) Strategic Alliances as Social Capital: A multi-dimensional View. Strategic Management
Journal
Oliver & Ebers. (2002). Networking network studies: An analysis of conceptual configurations in the study of inter-
organizational relationships. Cambridge Univ. Press
Podolny, J. M., Stuart, T. E. and Hannan, M. T. (1996). Networks, Knowledge, and Niches: Competition in the
Worldwide Semiconductor Industry, 1984-1991. American Journal of Sociology, 102, N3, 659-689.
Powell, W. E., Koput, K. W. and Smith-Doerr, L. (1996). Interorganizational Collaboration and the Locus of Innovation:
Networks of Learning in Biotechnology. Administrative Science Quarterly, 41, 116 -145.
Provan K. & Milward, B. (1995). A preliminary theory of interorganizational network effectiveness: A comparative study
of four community Mental Health systems. Administrative Science Quarterly, 40, 1 - 33.
Rowley, T., Behrens, D. and Krackhardt, D. (2000). Redundant Governance Structures: An Analysis of Structural and
Relational Embeddedness in the Steel and Semiconductor Industries. Strategic Management Journal, 21 (3), 369 - 386.
Salancik, G. R., (1995). Wanted: A good network theory of organization. Administrative Science Quarterly, 40, 345 -
349.
Stuart, T. (2000). Interorganizational alliances and the performance of firms: A study of growth and innovation rates in a
high technology industry. Strategic Management Journal, 21, 791-811.
Stuart, T. E. & Podolny, J.M. (1999). Positional Consequences of Strategic Alliances in the Semiconductor Industry. S.
161-182 in: Andrews, S. B. & Knoke A. (Eds.): Networks in and around Organizations. Research in the Sociology of
Organizations, Vol. 16. Stamford, Co.: JAI Press.
Uzzi, B. (1997). Social Structure and Competition in Interfirm Networks: The Paradox of Embeddedness. Administrative
Science Quarterly, 42, 35 - 67.
Walker,G., Kogut,B. and Shan,W. (1997). Social capital, Structural Holes and the formation of an industry network.
Organization Science, 8(2), 109 -125.
Zaheer, A., McEvily, B. y Perrone, V. (1998). Does trust matter? Exploring the effects of interorganizational and
interpersonal trust on performance. Organization Science, 9 (2)141-159.

REDES INTRA-ORGANIZATIVAS
Baker, W. (1992). “The Network Organization in Theory and Practice”. Networks and Organizations: Structure, Form
and Action. Nohria,N. & Eccles, R. Boston: Harvard Business School Press: 397-429.
Hage, J., Ed. (1988). Futures of organizations. Lexington, MA, Lexington Books.
Jarvenpaa, S. L. & Ives, B. (1994). "The global network organization of the future: Information management
opportunities and challenges." Journal of Management Information Systems, 10 (4), 25-57.
Miles, R. E. & Snow, C.C. (1986). "Organizations: New concepts for new forms." California Management Review, 28,
62-73.
Miles, R. E. & Snow, C.C. (1992). "Causes of failure in network organizations." California Management Review, 28, 53-
72.
Nohria,N. & Eccles, R. (2002) Networks and Organizations: Structure, Form and Action. Boston: Harvard Business
School Press
Ward, R. & Wamsley, G. et al. (2000). "Network organizational development in the public sector: A case study of the
federal emergency management administration (FEMA)." Journal of the American Society of Information Science, 51
(11), 1018-1032.

EFICIENCIA Y LAS REDES EN LAS ORGANIZATIVAS


Ahuja, M. & Carley, K. (1999). "Network Structure in Virtual Organizations". Organization Science,November-
December,741-747.(Also appeared in the Journal of Computer-Mediated Communication,3,4,1998.Available at
http://www.ascusc.org/jcmc/vol3/issue4/ahuja.html).
Burkhardt, M. & Brass, D. (1990). Changing patterns or patterns of change: The effect of a change in technology on
social network structure and power. Administrative Science Quarterly, 35, 104-127.
Doreian, P. D. and Stokman, F. N, editors, (1997). Evolution of Social Networks, New York: Gordon and Breach.
Doreian, P. D. and Stokman, F. N. (eds), (2001). Evolution of Social Networks. Part II. Special Issue of Journal of
Mathematical Sociology, 25 (1), pp.138.
Ibarra, H. & Andrews, S. B. (1993). Social Influence and Sense Making: Effects of Network Centrality and Proximity on
Employee Perceptions. Administrative Science Quarterly, 38, 277-303.
Kathleen M. C. (1999). "On the Evolution of Social and Organizational Networks." In Steven, B. A. & Knoke, D. (Eds.)
Vol. 16 special issue of Research in the Sociology of Organizations. on "Networks In and Around Organizations."
Greenwhich, CN: JAI Press, Inc. Stamford, CT, pp. 3-30.

47
Kathleen M.C. (1995). "Communication Technologies and Their Effect on Cultural Homogeneity, Consensus, and the
Diffusion of New Ideas." Sociological Perspectives, 38 (4),
547-571.
Kathleen, M.C., Ju-Sung, L. and Krackhardt, D. (2001). Destabilizing Networks, Connections 24(3), 31-34.
Monge, P. R. & Contractor, N.S. (1997). Emergence of communication networks. Handbook of Organizational
Communication. Jablin, F.M. & Putnam, L.L. Thousand Oaks, CA, Sage Publications.
Morselli, C. (2001). "Structuring Mr. Nice: Entrepreneurial Opportunities and Brokerage Positioning in the Cannabis
Trade". Crime, Law, and Social Change, 35, 203-244. (The paper may be downloaded for free at the Crime, Law, and
Social Change website)
Snijders, T. A.B, (1997). The Statistical Evaluation of Social Network Dynamics. Social Networks - special issue,
January 1997, 361-395 in Sociological Methodology (2001). edited by M.E. Sobel and M.P. Becker. Boston and
London: Basil Blackwell.
Wittek, R., van Duijn, M. and Snijders,T. (2002). "Informal networks and social escalation of conflicts in a management
team". Research in the Sociology of Organizations.

INNOVACIÓN Y REDES
Axelsson, B. & Easton, G. (Eds.) (1992). Industrial Networks. A New View of Reality. London/New York: Routledge.
Camagni, R. (Ed.). (1991). Innovation Networks: Spatial Perspectives. London: British Library Cataloging in Publication
Data.
Casper, S. (1996). The Development of Decentralized Supplier Networks in East Germany: A Challenge to the German
Model of Industrial Organizations.“ Pp. 20, Berlin.
Fountaine, J.E. (1998). Social capital: its relationship to innovation in science and technology, Science and public policy,
25 (2), 103-116, Beech Tree Publishing.
Håkan, H. & Johanson, J. (1993). "The network as a governance structure. Interfirm cooperation beyond markets and
hierarchies." The Embedded Firm. On the Socioeconomics of Industrial Networks, edited by Gernot Grabher.
London/New York., 33-55.
Jansen, D. (1991). Policy Networks and Change: The Case of High-Tech Superconductors. S. 137-174, in: Bernd Marin/
Renate Mayntz (Hrsg.): Policy Networks. Empirical Evidence and Theoretical Considerations. Frankfurt am Main.
Johansson, B. (1991). "Economic Networks and Self-Organization." Pp. 17-35 in Economic Networks, Innovation, and
Local Development in Industrialized Countries, edited by E.M. Bergman, G. Maier, and F. Tödtling. London: Mansell
Publishing Limited.
Powell, W. W., Kenneth W. K., and Smith-Doerr, L. (1996). "Interorganizational Collaboration and the Locus of
Innovation: Networks of Learning in Biotechnology." Administrative Science Quarterly 41, 116-145.
Pyke, F., Becattini, G. and Sengenberger, W. (1990). Industrial Districts and Inter-Firm Co-Operation in Italy. Geneva:
International Institute for Labour Studies.
Ross, R., Borgatti, S. and Parker, A. (2001). “Beyond Answers: Dimensions of the Advice Network”. Social Networks 23
(3), 215-35.
Sydow, J. (1992). "On the management of strategic networks." in Regional Development and Contemporary Industrial
Response – Extending, 113-131.
Valente, T. W. (1995). Network Models of the Diffusion of Innovations. Cresskill, NJ:Hampton Press. York: Belhaven
Press.
Valente, T.W. and Davis, R.L. (1999). “Accelerating the Diffusion of Innovations Using Opinion Leaders”. Annals of the
American Academy 566, 55-67.

Tabla 6 - Breve selección de algunas aplicaciones, SNA, al campo de las redes intra e inter-
organizativas. Fuente: Isidro Maya Jariego, REDES http://www.redes-sociales.net/ (2002)

Este tipo de herramientas son, por tanto, altamente valiosas para identificar la forma en que las
redes intra e inter-organizativas contribuyen en la actividad innovadora en los procesos de la
empresa, cómo promocionan la comunicación, integración, flexibilidad y novedad, y los
recursos intangibles de la organización los cuales son difíciles de copiar por los competidores
(Conway, 2000)59.

Una de las áreas de aplicación más interesantes de este tipo de herramientas (SNA) es la de
visualizar la relación entre la estructura de la organización formal y las redes organizativas
informales (Kleiner, 2002)60. Ver Fig.26:

59
Conway, S. 2000. Employing Social Network Mapping to Reveal Tensions Between Informal and
Formal Organisation. in Social Interaction and Organisational Change (2000) (eds) O. Jones and Fred
Steward and Steve Conway. Imperial Press, London.
60
Kleiner, A. 2002. Karen Stephenson’s Quantum Theory of Trust. Strategy+Business, Fourth Quarter,
2002 (http://www.strategy-business.com/)

48
Fig.26 – Ejemplos sobre la organización formal y la organización informal: (a) Fuente: John
Galloway (NETMAP); (b) Borgatti: http://www.analytictech.com/networks/topics.htm

El mapeo de las redes informales (vía cuestionario, mapeo de emails, etc…) proporciona una
visión clara de las dinámicas de trabajo de los intangibles humanos, lo cual facilita identificar
los agentes críticos en la creación y difusión del conocimiento y la innovación en la
organización (Doloff, 1999)61, comunidades de práctica y comunidades de interés emergentes
(Wenger, 1998)62, etc.

Fig.27 – Ejemplo de mapeo de redes informales de tipo (a) consulta técnica, y (b) creatividad.
Fuente: Borgatti, http://www.analytictech.com/networks/topics.htm

Además de poder mostrar (Krackhardt & Stern,1988: Krackhardt & Hanson,1993)63: la red de
consejo, la cual revela ha quién acuden las personas para realizar un trabajo; la red de
confianza, que describe quién comparte información delicada y con quiénes; la red de
comunicación, que muestra quién mantiene comunicaciones relativas al trabajo y cómo diseñar
una estructura de red social más efectiva para responder a los conflictos y crisis
organizacionales y facilitadora para procesos de cambio organizativo.

4. El Caso Oranje

El reto al que se enfrentó Herman Roose, en 1995, fue el de rediseñar la empresa Oranje en el
contexto de un entorno de cambio continuo y acelerado. Para ello, se planteó realizar un diseño
organizativo adaptativo, robusto y flexible, ante el cambio. Los puntos siguientes desarrollarán
las distintas fases por las cuales fueron pasando, así como los principales problemas que se
encontraron en cada una de ellas (Roose, 2003). Se comenta, en primer lugar, como
introducción, la naturaleza de esta organización así como el contexto en se hallaba. A

61
Doloff, P.G. 1999. Beyond the org chart. Across the Board, 36(2), 43-47
62
Wenger, E. 1998. Communities of Practice. Cambridge, Eng.: Cambridge University Press.
63
Krackhardt, D., Stern, R.N. 1988. Informal Networks and Organizational Crises: An Experimental
Simulation. Social Psychology Quarterly, Vol. 51, No. 2. , pp. 123-140.
Krackhardt, D., Hanson, J.R. 1993. Informal networks: The company behind the chart. Harvard
Business Review, vol. 71, pp: 104-111

49
continuación, las distintas reestructuraciones por las que fue pasando hasta alcanzar la
estructura organizativa definitiva. Cada una de estas reestructuraciones trajo consigo una serie
de problemas, los cuales, como se verá, son un claro reflejo de las propiedades de los distintos
modelos NK[C] y Small World presentados.

Oranje es una organización social sin ánimo de lucro, dedicada a la realización de proyectos de
carácter social. Forma una red de aproximadamente 50 proyectos, con una amplia gama de
servicios sociales muy diversos.

El escenario al que se enfrentaban era el siguiente: en los últimos 5 años Oranje se enfrentaba
a un rápido crecimiento (mas del 100%). Este crecimiento fue acompañado de una mayor
diversificación de los proyectos y servicios, una ampliación de la región de actuación,
incorporación de nuevos trabajadores, nuevos marcos de regulación, nuevas estructuras
consultivas a las que atender, etc. Se trataba, por tanto, de un problema de cambio cualitativo.

El reto, por tanto, era el de plantear un nuevo diseño organizativo que pudiera hacer frente a
dicho escenario de cambio. El tema principal, la búsqueda de un diseño de organización que
fuera robusto y flexible/ágil al mismo tiempo. Como primer paso se planteó una
reestructuración de la organización hacia un “diseño-horizontal”. Pero, como se vio que esto no
era suficiente, se acabó por desarrollar un diseño organizativo tipo “red”. Las fases del
desarrollo, según comenta Roose (2003), fueron las siguientes:

1) Primera Fase, 1995-1997; Fase de Creación de Conexiones y Horizontalización de la


Organización

En 1995, fecha de entrada de Herman Roose como nuevo CEO, los proyectos estaban
distribuidos sobre toda la región. Las diferentes unidades operacionales eran
conducidas por uno de los fundadores de una manera centralista y débil. El nivel
corporativo no estaba bien desarrollado. Las distintas unidades funcionaban, en la
práctica, cada una por su lado, con muy pocas conexiones horizontales entre ellas.
Dada la carencia de restricciones impuestas por la gerencia de la empresa, algunas
unidades se convirtieron en pequeñas “tribus” con un fuerte (a menudo implícito)
liderazgo de un jefe informal.

El primer objetivo que se planteó Roose (2003), ante esta situación, fue la de evitar el
aislamiento de las distintas unidades (tribus), a través de fomentar la creación de
conexiones entre las unidades, y entre los trabajadores, para facilitar así el intercambio
de conocimiento existente en cada una de ellas, y estimular un proceso de aprendizaje
y de emergencia de nuevas formas de pensar y de actuar.

Para ello, se creó una estructura consultiva con la forma de plataforma intermedia de
gestión. Se formo un grupo de alineamiento, donde todos los responsables de unidad
estaban juntos para facilitar el “engranaje” de unas con otras. Los procesos centrales
eran: Reunir conocimiento; Compartir e intercambiar experiencias; Alinear y sincronizar
visiones; y la Optimización a través de compartir recursos.

Fig.28 – Transición hacia una estructura conectada y horizontal. Fuente: Roose (2003)

50
Las primeras consecuencias fueron las siguientes: A cada unidad se le asignó un
coordinador; Los equipos fueron reconfigurados para evitar el freno a la velocidad del
cambio organizacional; Debido a que las tribus locales fueron desmanteladas, los
poderes locales se rompieron; Se produjeron muchas salidas de trabajadores que no
podían adaptarse al incremento de la conectividad horizontal; La entrada de nuevos
trabajadores significó nuevos “inputs”, nuevas formas de pensamiento, visiones, etc.;
Las unidades que proporcionaban la misma clase de servicios fueron agrupadas; Como
efecto de la conexión de distintos conocimientos, y expertises, aumentó el radio de
acción y resolución de problemas; Emergieron nuevos patrones, nuevos proyectos y
servicios. Se consiguió una alta productividad y alcanzar un buen posicionamiento en el
mercado.

Llevado al contexto de los modelos de redes (NK y Small World), las acciones
propuestas, en esta primera fase, se traducen en un impulso al aumento de la
conectividad global a distintos niveles; tanto entre coordinadores de las distintas
unidades, como a nivel de los trabajadores operativos entre las distintas unidades. Por
tanto, un claro aumento de la K y C (modelo NK[C]). También, la creación de nuevos
“puentes” entre las unidades-“clusters” (modelo Small World), nuevas relaciones
débiles que redujeron la distancia entre los trabajadores de Oranje, aumentaron la
accesibilidad global de la información, las experiencias, y visiones de distintos grupos,
con la consecuencia de facilitar la creación de nuevo conocimiento, así como de
nuevos productos y servicios.

2) Segunda Fase, 1997-1999; La Fase Simbiótica

Las consecuencias de las acciones anteriores tuvieron otros efectos paralelos, no tan
positivos. Se comenta, a continuación, cada uno de ellos, junto con una interpretación
de los mismos desde las propiedades de los modelos NK[C] y Small World.
Distinguiremos dos estadios en esta segunda fase; el de transición, al comienzo de la
reestructuración, y el de estabilización de la nueva estructura:

...En los primeros momentos tras la reestructuración (fase transitoria)

“La rápida transición hacia posiciones competitivas superiores, supusieron la creación


de nuevas unidades adicionales de negocio. El número de conexiones potenciales
entre los trabajadores creció de forma exponencial.” (Roose, 2003)

“Debido a la hiper-conectividad generada, se produjo un efecto de sobrecarga de


información, un stress-informativo o infoxicación.” (Roose, 2003)

Respecto a los dos puntos anteriores, el modelo Small World ya nos advierte de las
consecuencias de crear numerosos puentes. La accesibilidad global de la información
aumenta muy rápido, posibilitando un mayor volumen de información circulante entre
los nodos de la red organizativa. Por otro lado, el modelo NK[C] nos dice que, para
valores altos valores de C (conectividad inter-unidades), y aumento del número de
unidades (S), se producen largos bailes coevolutivos. Este es otro de los motivos del
estrés informativo de la organización, cuyos trabajadores describían un
comportamiento del tipo efecto “Reina Roja”, tratando de procesar la información
recibida y convertirla en acciones productivas, mientras que nueva información seguía
llegando y llegando: infoxicación.

...Una vez estabilizada la nueva estructura

“Debido también a la hiper-conectividad generada, un cambio cualquiera en una unidad


acababa por transmitirse y afectar, de forma considerable, a toda la organización.”
(Roose, 2003)

El modelo NK[C] nos dice al respecto de esto que, para K y C altas, el sistema entra en
estado “caótico” de modo que cualquier perturbación local se transmite a través del

51
todo el sistema (efecto mariposa; un pequeño cambio inicial puede tener
consecuencias a escala global del sistema).

“Debido a la hiper-conectividad generada, y la alta intensidad de los vínculos (alta


frecuencia de interacción) el efecto de sobrecarga de información, venía muchas veces
acompañado de una información redundante.” (Roose, 2003)

“Tras el periodo inicial de transición, las unidades empezaron a alinearse “demasiado”


bien, dando como resultado un claro descenso en el número, calidad, y diversidad de
nuevos proyectos y servicios.” (Roose, 2003)

Respecto a los dos puntos anteriores, el modelo Small World, interpretado en el


contexto de las redes sociales, ya indicaba que los “puentes” (vasos comunicantes), en
forma de vínculos débiles, eran una fuente potencial de creación de nuevo
conocimiento (nuevos productos, nuevos servicios) al unir clusters con distintas
visiones, no-redundantes. Pero, a medida que los vínculos aumentan (número de
puentes), y se van haciendo más fuertes (frecuencia e intensidad de las interacciones),
las distancias cognitivas entre los mismos se reduce, hasta que finalmente se llega a
un estado de equilibrio, donde la diversidad desaparece (información redundante,
descenso en el número de nuevos productos y servicios). Además, según el modelo
NK[C], un fuerte aumento de la conectividad (K y C) de un sistema, tiene como
consecuencia el aumento del número de restricciones conflictivas (conflicting
constraints), de modo que, los posibles óptimos alcanzables por cada uno por
separado, se reducen al interactuar entre sí, apareciendo óptimos locales de menor
tamaño. Este punto es aplicable al descenso en la calidad de los servicios.

“Apareció un problema de coordinación debido a la dificultad de encontrar un equilibrio


entre la auto-organización deseada para las unidades, y el alineamiento también
deseado con el resto de unidades. Algunas preguntas clave que surgieron fueron:
¿Qué debe gestionarse por separado para mantener la micro-diversidad entre las
unidades?, ¿Qué debe ser gestionado de forma conjunta para reducir redundancias en
recursos?.” (Roose, 2003)

“Se había impuesto la filosofía de “mejores prácticas”, lo cual actuaba en decremento


de la búsqueda de nuevos productos y servicios” (Roose, 2003)

Se está planteando el grado de centralización-descentralización en relación a encontrar


un balance entre la innovación (consecuencia de la diversidad), y la estabilidad
(alineamiento y búsqueda de eficiencias). En definitiva el dilema al que da respuesta el
ciclo explotación-exploración aplicado a las estructuras organizativas Nooteboom
(2000)31. El segundo punto hace referencia directa al dilema exploración-explotación;
exploración (innovación, nuevos productos y servicios) y explotación (mejores
prácticas). Los pasos que se dieron en Oranje, para solventar estas cuestiones, se
comentan a continuación.

3) Tercera Fase, 1999-2001; La Fase Co-Evolutiva

““Los procesos de intercambio de información y conocimiento se limitaron, dejando de


ser continuos, para realizarse ad-hoc según necesidades específicas... Se redujo la
conectividad interna, entre las unidades, en favor de conectividad externa con los
mercados locales y contexto de cada una de las unidades” (Roose, 2003)

“Se desarrollo una red organizativa compuesta por unidades semi-autónomas, cada
una de las cuales estaba orientada a su mercado, contexto. A cada unidad se le animó
para que desarrollara su propia micro-estrategia, a partir de las información de las
necesidades de sus clientes, así como sus propias visiones, formas de trabajo,
productos y servicios” (Roose, 2003)

52
“Se implantó, además, un plan de movilidad profesional que estimulara la rotación de
puestos, para buscar extender el radio de acción y el repertorio de técnicas para la
resolución de problemas” (Roose, 2003)

La reducción de conectividad entre las unidades (reducción de C según el modelo


NK[C], y reducción de “puentes” según el modelo Small Wolrd) tiene las siguientes
consecuencias: Se reduce la accesibilidad global de la información, se reduce por tanto
el volumen de información circulante por los nodos, se reduce, así, el estrés
informacional de temas que no tengan una necesidad específica, y el efecto Reina
Roja. La reducción de la conectividad entre unidades tiene también como efecto que el
sistema deje de estar en régimen caótico, y por tanto, un cambio puntual en una unidad
no se propague por toda la red.

Respecto a la creación de diversidad que permita creación de nuevo conocimiento,


servicios, etc..., la reducción de conectividad entre las unidades (tanto en número como
en frecuencia e intensidad), el hecho de impulsar relaciones externas, cada una con
sus contexto de mercado (orientación al cliente), así como la estimulación hacia la
creación de micro-estrategias y sus propias formas de trabajo, hace que se recupere de
nuevo una estructura tipo Small World para las relaciones inter-unidad, donde cada una
de ellas recupera su diversidad (aumenta la distancia cognitiva), y a través de
determinadas conexiones débiles – puentes (posibilidad de intercambio novedoso de
información), así como mediante la rotación esporádica de personal entre unidades,
cada cual con su expertise, se facilita el intercambio puntual de conocimiento, no-
redundante, orientado a resolver problemas del cliente, en la forma de nuevos
productos, servicios, o bien la identificación de nuevas oportunidades de negocio.

“Las unidades se conectaron de forma horizontal. El grupo de alineamiento se formalizó


como equipo de management.” (Roose, 2003)

“La capacidad de toma de decisión se puso en manos de quién estuviera más próximo
a la información relevante (cliente, mercado), y tuviera la capacidad de convertirla en
conocimiento y acciones. Estas personas podrían, en caso de necesitarlo, consultar su
decisión con otros. También, en caso de que la decisión implicara movilizar una gran
cantidad de recursos de la organización, será discutida junto con el equipo de
management” (Roose, 2003)

Roose y su equipo diseñaron un modelo organizativo tipo red, con un importante grado
de descentralización (micro-estrategias, toma de decisión local, etc.) combinado con un
componente centralizador (equipo de management para la gestión de los recursos
compartidos).

Fig.29 – Transición hacia una estructura tipo red. Fuente: Roose (2003)

Esta estructura organizativa, según el ciclo exploración-explotación (Nooteboom,


2000)31, les facilitaría desenvolverse en entornos cambiantes, manteniendo un

53
equilibrio entre estabilidad y cambio; co-evolución con los cambios del entorno
mediante regeneración. Un planteamiento similar al de Roose (2003) es el comentado
anteriormente acerca del trabajo de Caldart y Ricart (2003). Estos autores llegaban a
una conclusión similar apoyándose en el modelo NK. Recordemos: “…desarrollar
actividades estructuradas de forma flexible pero dotadas de estructura en puntos
críticos, una cultura de cambio frecuente en un contexto de reglas generales, y la
existencia de canales para una comunicación entre las distintas divisiones de la
empresa... superioridad de los procesos auto-organizativos, respecto al control, como
forma de crear nuevas oportunidades de negocio en entornos altamente dinámicos...
Entendidos estos procesos auto-organizativos como procesos de interacción a partir de
los cuales se genere innovación y emerjan nuevas direcciones estratégicas para la
organización... Dejándole al nivel corporativo, el papel de diseñar reglas simples que
sirvan de marco dentro del cual puedan desarrollarse dichos procesos auto-
organizativos, para la identificación de nuevas oportunidades entre las distintas
unidades de negocio, e implementar aquellas que se consideren más valiosas.”

Las conclusiones de Roose acerca de su experiencia como CEO de Oranje son las siguientes:

• “Un número bajo de conexiones lleva al aislamiento y ausencia de emergencia de nuevas


formas de trabajo, mientras que un número alto de conexiones lleva a procesos
simbióticos o incluso a comportamientos caóticos. La región de conectividad óptima se
encuentra en alguna región intermedio.” (Roose, 2003)

Fig.30 – Grado de conectividad deseable según la naturaleza de los procesos. Fuente:


Roose (2003)

• “La posición exacta, para el grado de conectividad más adecuado, es imposible de


determinar, ya que depende de una gran cantidad de factores en interacción; naturaleza
de los procesos, contexto del entorno, etc. Por lo tanto la única opción válida es moverse
como un péndulo alrededor de los extremos” (Roose, 2003)
• “Dependiendo exclusivamente de la naturaleza de los procesos, parece que existen
valores que pueden resultar más adecuados. Para el caso de los procesos lineales, lo
más adecuado parece ser un alto nivel de conectividad y alineamiento que permita
aprender las formas óptimas de trabajo lo antes posible. Mientras que para el caso de
procesos complejos, se requerirá un menor grado de conectividad” (Roose, 2003)

A pesar de que sus conclusiones son un tanto ambiguas, bajo el planteamiento de Roose se
puede ver claramente la sombra del ciclo exploración-explotación de Nooteboom (2000) e
implícitamente a las propiedades de los modelos NK y Small World, como marcos de
referencias muy válidos para el diseño de estructuras organizativas en entornos de cambio.

54
4. ESTADO DEL ARTE DE LAS APLICACIONES DE LOS MODELOS
BASADOS EN AGENTES (ABM)

4.1 Introducción a los Modelos ABM

El empleo de las simulaciones por ordenador en las ciencias sociales, y organizativas, es una
idea bastante reciente, a pesar de que los primeros ejemplos se remontan a los años 60, la
simulación sólo se empezó a aplicar de forma extendida a partir de los 90. La aplicación de la
simulación por ordenador a las ciencias sociales, y organizativas, tiene un tremendo potencial
dado que se trata de una herramienta excelente para el modelado y comprensión de los
procesos sociales y organizativos (Gilbert, Troitzsch, 1999).

La simulación introduce la posibilidad de una nueva forma de pensar acerca dichos procesos
sociales y organizativos, basada en ideas como la emergencia de comportamientos complejos
a partir de actividades relativamente simples (Waldrop, 1992) 64.

1. ¿Qué es una Simulación?

La simulación es una forma particular de modelado. La construcción de un modelo nos permite


la mejor comprensión del mundo que nos rodea. Un modelo es una simplificación – menor,
menos detallada, menos compleja – de alguna otra estructura o sistema (Conte, Hegselmann,
Terna, 1997; Gilbert, Troitzsch, 1999).

El hecho de preguntar a la gente por su tipo de comportamiento para una situación o escenario
concreto no resulta demasiado satisfactorio: pueden no estar siguiendo ninguna estrategia
conscientemente, o bien, no estar dispuestos a compartirla en el caso de que la tengan. Por lo
tanto, a veces resulta más conveniente realizar un modelo computacional que implemente
ciertas reglas de comportamientos plausibles, y ver que pasa al simular el modelo bajo esas
condiciones, comparando el comportamiento del modelo en la simulación, con los patrones de
comportamiento observados en la realidad. El proceso para realizar esta tarea pasaría por los
siguientes pasos (Conte, Hegselmann, Terna, 1997; Mitchel, 199765; Gilbert, Troitzsch, 1999):

- Una vez que tenemos una teoría acerca del comportamiento de la gente bajo un
determinado escenario, podemos expresarlo en forma de un procedimiento y en última
instancia en forma de un programa de ordenador.

- El programa es mucho más preciso que la forma textual del procedimiento, de modo que
la traducción de uno a otro permitirá refinar la teoría a implementar. Escribir el programa
que simule los agentes del sistema (reglas de acción e interacción).

- Una vez tengamos la teoría formalizada en un programa de ordenador y hayamos


implementado ciertas condiciones iniciales, el programa puede ser ejecutado y el
comportamiento en el tiempo observado. Para obtener resultados robustos y
representativos, deberemos ejecutarlo varias veces y obtener estadísticas.

- Tras comparar las salidas de la simulación con las observaciones de campo,


comprobaremos la validez del modelo y revisaremos, o no, las teorías iniciales sobre las
reglas y estrategias de comportamiento estudiadas. Trataremos de: Comprender las
relaciones entre las interacciones locales y los comportamientos globales; Cambiaremos
el valor de los parámetros para identificar las fuentes del comportamiento y los
parámetros y valores críticos; Simplificar, añadir nuevas reglas caso de ser necesario.

2. Los Usos de una Simulación

El estudio de ciertos comportamientos humanos para escenarios concretos, muestra uno de los
usos principales de la simulación. Se trata de obtener una mayor comprensión sobre ciertos

64
Waldrop, M. 1992. Complexity: The Emerging Science at the Edge of Chaos. Simon & Schuster Ed.
65
Mitchell, M. 1997. An introduction to genetic algorithms. MIT Press

55
fenómenos del mundo social. Podemos tener multitud de datos sobre comportamientos, pero
las estrategias individuales (estructuras) que la gente emplea, y que dan como resultado dichos
comportamientos, son mucho más difíciles de conseguir ya que éstas, muchas veces, resultan
inconscientes para el propio individuo. En estos casos la simulación puede resultar muy útil en
el diseño y testeo de hipótesis sobre la dinámica interna del comportamiento (Axelrod, 1997a66;
Axelrod, 1997b).

Otro uso clásico que se le ha dado a la simulación es el de la predicción. Si podemos


desarrollar un modelo que reproduzca fielmente la dinámica de cierto comportamiento,
podemos simular su evolución en el tiempo y así emplear el modelo para mirar lo que sucederá
en el futuro. Se pueden hallar multitud de aplicaciones de este tipo en áreas como la
investigación demográfica – tamaño y distribución de edades de una población, tasas de
natalidad y mortalidad, previsiones de cambio en la población, etc… – asimismo tenemos más
ejemplos en campos como el de la predicción de tendencias en los mercados, etc (Gilbert,
Troitzsch, 1999; Sterman, 200067).

Otro uso de las simulaciones es el desarrollo de nuevas herramientas para sustituir ciertas
capacidades humanas, sea el caso de los sistemas expertos. Estos sistemas pueden ser
usados por personas no expertas en una determinada área de conocimiento para llegar a
diagnósticos que de otra forma hubieran precisado de un experto en la materia (Hayes-Roth, et
al, 198368).

O bien como plataformas de entrenamiento para la realización de ciertas tareas como pueden
ser el pilotaje de una nave, o bien la toma de decisiones en entornos de empresa, mercado y
economía (Ritchie-Dunham, Rabbino, 200169; Warren, 200270).

Sin embargo, la razón principal que ha despertado el interés de los científicos sociales por la
simulación computacional es su capacidad potencial de asistencia en el descubrimiento y
formalización de teorías. Los científicos sociales pueden así construir modelos muy sencillos
que se centren en un aspecto concreto del mundo social y organizativo, y descubrir las
consecuencias de sus teorías en las ‘sociedades-organizaciones artificiales’ que han construido
(Langton, Taylor, 199171; Gilbert, Conte, 1995; Axelrod, 1997b; Casti, 1997). Para esta tarea,
se necesita traducir las teorías convencionales generalmente expresadas en términos de texto
y transformarlas en especificaciones que puedan ser programadas en un ordenador. El proceso
de formalización, debe ser preciso acerca de lo que la teoría significa y asegurarse de que esta
es completa y coherente (Gilbert, Troitzsch, 1999; Casti, 1997). En este sentido, la simulación
computacional en las ciencias sociales ocupa una posición similar a las matemáticas en las
ciencias físicas. Existen múltiples razones por las cuales la simulación resulta más apropiada
en la formalización de teorías en las ciencias sociales que las matemáticas; la programación en
lenguajes computacionales resulta más expresiva y menos abstracta que en lenguaje
matemático, los programas tienen mayor capacidad de procesamiento en paralelo y trabajo con
procesos sin un orden bien definido de actividades, los programas pueden crear sistemas de
simulación con agentes heterogéneos – personas con roles y visiones del mundo diferentes,
diferentes capacidades, etc. (Gilbert, Troitzsch, 1999).

En general, considerando los siguientes criterios para la clasificación de distintos tipos de


modelos:

• Fidelidad del modelo al representar su referente empírico


• Simplicidad en cuanto al número de variables empleadas, complejidad de las
interacciones, número de hipótesis a priori introducidas

66
Axelrod, R. 1997a. Advancing the Art of Simulation in the Social Sciences. In R. Conte, R.
Hegselmann y P. Terna (eds) Simulating Social Phenomena. Springer-Verlag, Lecture Notes in
Economics and Mathematical Systems 1997
67
Sterman, J.D. 2000. Business Dynamics. Irwin McGraw-Hill
68
Hayes-Roth, F., Waterman, D., Lenat, D. 1983. Building Expert Systems. Addison-Wesley
69
Ritchie-Dunham, J.L., Rabbino, H.T. 2001. Managing from Clarity. John Wiley & Sons Ed.
70
Warren, K. 2002. Competitive Strategy Dynamics. John Wiley & Sons
71
Langton, C.G., Taylor, J. D. (eds.) 1991. Artificial Life II. Addison-Wesley

56
• Claridad para la interpretación de los resultados de la ejecución
• Tratabilidad computacional del modelo, recursos necesarios
• Bias-free, grado en que el modelo está libre de los prejuicios del programador en
factores que no afectan directamente al modelo

Se observa una relación inversa entre la fidelidad de un modelo (grado de semejanza con su
referente empírico) y la simplicidad y tratabilidad computacional del modelo (Casti, 1997). La
simplicidad, en el caso de los modelos basados en agentes (ABM), es un punto clave. Como
dice Axelrod (1997b), el objetivo de este tipo de aplicaciones, no es tanto proporcionar una
representación de una aplicación empírica particular, si no la de mejorar nuestra comprensión
acerca de procesos fundamentales que pueda suceder en una alta variedad de aplicaciones.
En este sentido, dicho autor, hace referencia al principio KISS (keep it simple stupid), en pocas
palabras; a pesar que el aspecto que se esté analizando pueda ser complicado, las hipótesis
en que se sustente el modelo deberán ser lo más sencillas posibles para poder comprender así
los resultados del modelo y su relación con las hipótesis de partida. En este sentido,
representaciones demasiado realistas y plagadas de detalles pueden resultar, tanto
innecesarias como contraproducentes, a la hora de explorar propiedades fundamentales de los
procesos sociales y organizativos.

3. Algunas Aproximaciones en la Simulación en las Ciencias Sociales y Organizativas

Al comienzo de los años 90 la situación de la simulación en sistemas sociales y organizativos


cambió drásticamente, principalmente debido al desarrollo de los Sistemas Multiagente
(Jennings, Sycara, Wooldridge, 1998; Wooldridge, M. 1999; Jennings, N.R., 2000)72 que
ofrecían la posibilidad de simular agentes autónomos individuales y las interacciones entre
ellos. Esta vía vino de la mano de los estudios sobre dinámica no-lineal y las investigaciones en
inteligencia artificial.

Por otro lado, físicos y matemáticos tratando de comprender las propiedades de grandes
sistemas agregados de materia ya habían desarrollado los modelos de Autómatas Celulares
(Wolfram, 1984, 1994, 2002). Los autómatas celulares consisten en un gran enrejado regular
de celdas. Cada celda (agente muy simple) pueden hallarse en uno de un número de estados
posibles, y los cambios de estado se definen a partir de una serie de reglas que dependen del
estado de otras celdas del enrejado, generalmente de sus celdas contiguas. Los autómatas
celulares resultan ser una herramienta muy útil para ciertos modelos de interacción social a
nivel agregado, por ejemplo la transmisión de rumores entre grupos, la formación de
comunidades étnicas, etc (Wolfram, 1994).

La inteligencia artificial es un área de las ciencias de la computación relacionada con el


desarrollo de simulaciones de la inteligencia humana y con la construcción de herramientas
que exhiban ciertas características del comportamiento inteligente. Hasta finales de los 70, la
inteligencia artificial se había ocupado únicamente del modelado de la cognición individual,
pero a partir de los 80 apareció un interés creciente en la Inteligencia Artificial Distribuida
(Decker, 1987; Bond, Gasser, 1988)73, un campo en el cual se examinan las propiedades de la
interacción de programas de inteligencia artificial. Con el crecimiento de internet y del World
Wide Web, muchos investigadores del área de la inteligencia artificial se interesaron en los
‘agentes’ software, programas que pueden recibir o recoger información de otros ordenadores,
compararla a la luz de sus experiencias pasadas y decidir qué tipo de acción tomar (Doran,
199774). Tanto la inteligencia artificial distribuida como los agentes tecnológicos desarrollan

72
Jennings, N.R. 2000. On Agent-Based Software Engineering. Artificial Intelligence, 117(2)
Jennings, N.R., Sycara, K.P., Wooldridge,M. 1998. A Roadmap of Agent Research and Development.
Journal of Autonomous Agents and Multi-Agent Systems, 1(1)
Wooldridge, M. 1999. Intelligent Agents. In G. Weiss, (ed): Multiagent Systems. MIT Press
73
Decker, K. 1987. Distributed problem-solving techniques: a survey. IEEE Transactions on Systems,
Man, and Cybernetics, 17
Bond, A.H., Gasser, L. 1988. Readings in Distributed Artificial Intelligence. Morgan Kaufmann
74
Doran, J.E. 1997. Foreknowledge in artificial societies. In R. Conte, R. Hegselmann y P. Terna (eds)
Simulating Social Phenomena. Springer-Verlag, Lecture Notes in Economics and Mathematical Systems
1997

57
modelos de investigación basados en las interacciones entre agentes autónomos que pueden
ser fácilmente aplicados a la simulación de sociedades humanas y las organizaciones (Mataric,
199775; Resnick, 1997; JASSS, 2005).

Los investigadores del campo de la inteligencia artificial han dedicado gran atención también a
técnicas de aprendizaje para máquinas (Michalski et al., 1983)76, que permiten a los programas
de ordenador incrementar su conocimiento y procedimientos mediante el aprendizaje a partir
de la experiencia. Los modelos con capacidad de aprender son muy útiles tanto para la
simulación de procesos cognitivos de individuos como para el modelado de sociedades que se
adaptan a lo largo del tiempo a nuevas circunstancias. Dos vías de aproximación para el
modelado del aprendizaje han sido las Redes Neuronales (Krose, Van der Smagt, 1996)77
artificiales, y los Algoritmos Genéticos (Axelrod, 1987; Srinivas, Patnaik, 1994)78.

Al hablar popularmente de Modelado Basado en Agentes (Agent Based Modelling, ABM) se


suele hacer referencia al conjunto de estas técnicas, bien en su forma pura para algún caso, o
bien a través de variantes e híbridos generados a partir de las mismas. Son un complemento
muy interesante de los modelos conceptuales de referencia NK[C] y Small World presentados
anteriormente, ya que pueden añadir detalle y realismo a dichos modelos: a través de
versiones más complejas de los agentes implicados y sus capacidades cognitivas y de relación,
y transformar las conclusiones de tipo metafórico de los modelos NK[C] y Small World, en
conclusiones adaptadas a las realidades organizativas. Los ABM, por tanto, son capaces de
representar procesos de evolución, aprendizaje social e innovación mediante actores
heterogéneos con diferentes capacitaciones; grados de inteligencia, bases de conocimiento,
objetivos y percepciones cognitivas (Contractor, 2002). Los ABM tienen diversas plataformas o
entornos de modelado genéricos (Tobias y Hofmann, 2004)79 que permite el modelado de una
gran variedad de comportamientos dinámicos de diversas redes de relaciones, testeo dinámico
de hipótesis, y la simulación dinámica de procesos emergentes y co-evolutivos de las
diferentes redes organizativas (estructurales-culturales-técnicas) a diferentes niveles de detalle
(micro-actores, macro-procesos, organización). Estas características los hace especialmente
válidos para el modelado de organizaciones sociales complejas y para la exploración de
escenarios futuros alternativos (what-if), por ejemplo; la simulación del comportamiento no-
lineal de una red organizativa cuando un agente ha sido eliminado o insertado en un lugar
diferente de la estructura organizativa, y de esta forma estudiar las nuevas configuraciones que
se derivan de dicho cambio, o bien explicar la emergencia de comportamientos macroscópicos
de redes organizativas complejas a partir de reglas de interacción simples a nivel micro
(agentes).

El objetivo, por tanto, de la ABM es observar las consecuencias globales, comportamientos


complejos a nivel sistémico generados en el tiempo, cuyas propiedades dinámicas emergentes
no pueden ser explicadas mediante el mero análisis de las partes componentes, ya que las
interacciones locales de los individuos (actores del sistema social, organizativo, institucional,
etc), el conjunto de reglas que gobiernan sus comportamientos individuales son de tipo no-
lineal. Todo ello, para un espacio dado, y unas condiciones iniciales dadas (Tesfatsion, 2003;
Chang, Harrington, 2004).

Existen numerosos ejemplos de aplicaciones, cabe destacar para el ámbito organizativo la


recopilación realizada por Kathleen Carley (1998). Otras muchas aplicaciones para éste y otros
ámbitos pueden encontrarse en Tesfatsion (2005) y JASSS (2005). Una de las primeras, y más

75
Mataric, M. 1997. Learning social behaviors. In R. Pfeifer, and R. Brooks (eds.). Robotics and
Autonomous Systems, Special Issue on “Practice and Future of Autonomous Agents”, 191-204.
76
Michalski, R., Carbonell, J., Mitchel, T.M. 1983. Machine Learning: An Artificial Intelligence
Approach. Tioga Ed.
77
Krose, B., Van der Smagt, P. 1996. An Introduction to Neural Networks. Univ. de Amsterdam
78
Axelrod, R. 1987. The evolution of strategies in the iterated prisoner’s dilemma. In L.D. Davis (ed.).
Genetic Algorithms and Simulated Annealing. Pitman Ed.
Srinivas, M., Patnaik, L.M. 1994. Genetic algorithms: A survey. IEEE Computer, 27
79
Tobias, R., Hofmann, C. 2004. Evaluation of free Java-libraries for social-scientific agent based
simulation. Journal of Artificial Societies and Social Simulation vol. 7, no. 1

58
populares, es el modelo Sugarscape de Epstein y Axtell (1996) en relación a la simulación de la
evolución de organizaciones sociales:

“Mediante el diseño de este modelo se pretende que se desarrolle una estructura social
completa - mercados, economía, cultura - a partir de la interacción entre los agentes
(bottom-up)... En primer lugar las reglas empleadas son de sentido común en cuanto a
la supervivencia y reproducción, los comportamientos de los agentes son muy simples.
Para reglas más sofisticadas aparecen comportamientos más próximos a sus análogos
sociales, por ejemplo, el concepto de herencia facilita la supervivencia de individuos
con bajo nivel de habilidades; la influencia estacional en el alimento provoca
desplazamientos migratorios de la población; cuando se introduce un segundo tipo de
alimento emerge una primitiva economía de intercambio que hace aumentar la
supervivencia de la población... A través de este mundo artificial pueden ponerse a
prueba supuestos o hipótesis teóricas, tanto a nivel de estructuras sociales como por
ejemplo el de los mercados eficientes en economía... Para ello, se genera un entorno
de mercado y se comprueba las implicaciones, en el comportamiento global, de las
reglas de interacción locales de los agentes: i.e., ¿Cuáles son las consecuencias de
que los agentes tengan información limitada y capacidad limitada de procesamiento de
la información a la hora de alcanzar un equilibrio de mercado?... Se prueban, testan,
así reglas básicas de intercambio y se ve los efectos de tales hipótesis sobre la
evolución del mercado y el comportamiento socioeconómico de los agentes (evolución
de precios, distribución de la riqueza entre la población, …).” (Epstein y Axtell,1996)

4. Algunas Consecuencias: Explicación vs. Predicción

Uno de los temas principales de la investigación en simulación social y organizativa es el hecho


de que a pesar de que los agentes puedan estar programados con reglas muy sencillas, el
comportamiento que exhiben en conjunto puede resultar altamente complejo. Los métodos
estadísticos convencionales para el análisis de estos sistemas están, en su mayoría, basados
en hipótesis de relaciones lineales entre las variables. Esto es, el efecto registrado sobre una
variable será proporcional a la suma de acciones de un conjunto independiente de variables.
Esta es una hipótesis muy restrictiva. El campo interdisciplinar de las teorías de la Complejidad
(Waldrop, 199264; Kauffman 1995) está desarrollando resultados generales acerca de los
sistemas no-lineales. Como ejemplo los trabajos acerca de la Criticalidad Auto-organizada
(SOC) de Per Bak (1997)80, con su ejemplo simple de la pila de arena: “consideremos un
chorro de arena que cae sobre una superficie amontonándose en forma de pirámide. A medida
que pasa el tiempo, la cantidad de arena vertida hace que aparecerán avalanchas que se
deslizan por la superficie. Mientras que la forma piramidal de la pila de arena, y más en
particular su ángulo, es predecible y dependiente del tamaño medio de grano, el momento,
localización y tamaño o escala de las avalanchas son totalmente impredecibles y no-lineales, a
pesar de que la distribución del tamaño de las avalanchas, respecto de su frecuencia, sigue
una ley de tipo potencial de valor constante. Una vez que un grano de arena empieza a
deslizarse ladera abajo, empuja a otros consigo y aparece un fenómeno de retroalimentación
positiva que hace que se llegue a una avalancha masiva”. Se piensa que mecanismos similares
a éstos comportamiento no-lineales son los que producen, por ejemplo, los crashes en los
mercados financieros, efectos bullwhip en las cadenas de suministros, etc… (Bak, Chen,
Scheinkman, Woodford, 1993; Lux, 1998; Lux, Marchesi, 1999; Moss, Edmonds, Wallis, 2000;
Moss, 2001)81.

80
Bak, P. 1997. How Nature Works. Oxford University Press
81
Bak, P., Chen, K., Scheinkman, K., Woodford, M. 1993. Aggregate Fluctuations from Independent
Sectoral Shocks: Self-Organized Criticality in a Model of Production and Inventory Dynamics. Ricerche
Economiche, 47
Lux, T. 1998. The Socio-Economic Dynamics of Speculative Markets: Interacting Agents, Chaos, and
the Fat Tails of Return Distributions. Journal of Economic Behaviour and Organisation, 33
Lux, T. Marchesi, M. 1999. Scaling and Criticality in a Stochastic Multi-Agent Model of a Financial
Market. Nature, 397
Moss, S. 2001. Competition in Internal Markets: Statistical Signatures and Critical Densities. CPM
Report Number 01-79, Manchester Metropolitan University, UK.

59
Fig.31 – Ejemplo del modelo de pila de arena de Per Bak (1997)80 y su distribución de
frecuencia del tamaño de avalanchas para un flujo de entrada continuo.

En base a lo expuesto, desde el punto de vista matemático, los sistemas no-lineales son
difíciles de estudiar ya que no se los puede abordar de forma analítica. De este modo, una
forma efectiva de abordar el comportamiento no-lineal es mediante la simulación a partir de un
modelo. Pero, a pesar de que uno pueda adquirir cierto conocimiento de cómo funciona el
sistema, su comportamiento sigue siendo impredecible (Gilbert, Troitzsch, 1999). Esto nos da
algunas lecciones en relación a las explicaciones en las ciencias sociales. Y es que, según la
postura convencional, existía una conexión directa entre explicación y predicción. Se asumía,
por tanto, que la forma de testar finalmente una teoría era comprobando su capacidad de
predicción. Este criterio no resulta sin embargo conveniente cuando tratamos con sistemas no-
lineales, al menos a la escala micro. Las teorías de la Complejidad (Waldrop 199264; Kauffman
1995) nos muestra cómo a pesar de conocer casi completamente los factores que afectan una
acción individual, y unas condiciones iniciales aproximadas, esto no será suficiente para poder
predecir el comportamiento colectivo del grupo, organización o institución (dependencia
sensitiva a las condiciones iniciales5). El mensaje se vuelve todavía más restrictivo si asumimos
la hipótesis de que no sólo sea la acción social un sistema complejo sino también la propia
cognición individual (Conte, Castelfranchi, 1995)82.

Moss, S., Edmonds, B., Wallis, S. 2000. The Power Law and Critical Density in Large Multi-Agent
Systems. CPM Report Number 00-71, Manchester Metropolitan University, UK.
82
Conte, R, Castelfranchi, C. 1995. Understanding the functions of norms in social groups. In Gilbert, N.,
Conte, R. (eds). Artificial Societies: The Computer simulation of Social Life. UCL Press, 1995

60
Fig.32 – Técnicas de modelado y su posición respecto de los ejes; capacidad explicativa del
modelo vs. capacidad predictiva del modelo. Fuente: J.L. Casti (2004)83

5. Algunas Conclusiones

La simulación social y organizativa es un campo de investigación relativamente reciente y


todavía queda mucho trabajo por hacer. De todas formas, ya se han desarrollado algunos
trabajos importantes de los cuales se pueden extraer las siguientes lecciones (Gilbert,
Troitzsch, 1999):

• Si el objetivo es la comprensión, se puede usar la simulación para el desarrollo de


teorías. Incluso los modelos más complicados encuentran dificultades a la hora de
reproducir, en el tiempo, el comportamiento del mundo social particularmente bien, son
difíciles de construir y la complejidad se puede orientar en la dirección de descubrir
nuevas relaciones y principios (Casti, 1997).

• En el pasado, los científicos sociales se han decantado bien por el método deductivo
(testar un conjunto de hipótesis y sus consecuencias) o bien por el inductivo (desarrollo
de teorías a partir de la generalización de las observaciones). La simulación
proporciona una tercera vía, en la cual uno comienza con un conjunto de hipótesis,
pero luego se emplea un método experimental para generar datos que a continuación
serán analizados de forma inductiva (Axelrod, 1997a).

• Dado que bastantes modelos incorporan elementos aleatorios, el resultado de una sola
simulación no es concluyente. Resulta por tanto necesario correr sucesivas veces el
modelo hasta llegar a resultados robustos para diferentes valores aleatorios y
condiciones iniciales. Además, para numerosas simulaciones, resulta conveniente
realizar un análisis de sensibilidad en función de las hipótesis iniciales en que se basa
el modelo (Axelrod, 1997b).

• Por último, mientras un gran número de modelos tienen como objetivo simular un
aspecto específico del mundo social u organizativo, también es posible mediante
simulación desarrollar modelos de sociedades-organizaciones artificiales para
investigar no ya sólo nuestra sociedad u organización presente, sino también mundos
sociales u organizativos alternativos. Esta puede ser una forma de desarrollar nuevas
teorías que se apliquen a aspectos generales propios de la interacción entre agentes
(Langton, Taylor, 199171; Gilbert, Conte, 1995; Emmeche, 199884).

83
Casti, J.L. 2004. Contributions to the epistemology of modelling. EXYSTENCE Thematic Institute for
Complexity and Innovation, Working Group 3, Vienna, 6-8 Sept.
84
Emmeche, C. 1998. Vida Simulada en el Ordenador: La nueva ciencia de la inteligencia artificial.
Gedisa Ed. (título original: The Garden in the Machine: the emerging science of artificial life. Princeton
Univ. Press, 1994)

61
4.2 Ámbitos de Aplicación de los Modelos ABM

En el desarrollo de aplicaciones ABM en el ámbito organizativo-empresarial, la organización es


vista como una colección de agentes heterogéneos (unidad básica de procesamiento de
información, y toma de decisión en base a ciertas reglas de comportamiento, y con racionalidad
limitada) que interactúan entre sí de forma dinámica, y con el entorno (puede ser abstracto;
multi-dimensional y con diferentes grados de dinamismo, o bien concreto; competidores visibles
con los cuales co-evoluciona, o bien un conjunto de clientes identificados), produciendo como
resultado ciertos comportamientos y desempeños (beneficio u otras funciones de utilidad). Las
redes de interacción vendrán determinadas tanto de modo formal (organigrama), como informal
(red social, comunidades de emergentes, etc…); redes de comunicación de la información,
redes de toma de decisión y autoridad, redes sociales (cultura, normas, etc), redes de intereses
y conflictos, etc…

Las principales preguntas a las que tratan de dar respuesta este tipo de aplicaciones son del
tipo (Chang, Harrington, 2004): ¿Cuáles son los determinantes fundamentales del
comportamiento y desempeño organizativo?; ¿Cómo afecta la estructura organizativa al
comportamiento y desempeño resultante de las acciones de los agentes?; ¿Cuál es el balance
más apropiado entre explotación y exploración, centralización y descentralización?; ¿Cómo se
ve afectado el comportamiento y desempeño organizativo debido a la influencia de otros
competidores, o bien, a determinadas condiciones del entorno?; Etcétera…

A la hora de responder a estas preguntas nos encontramos dos líneas de trabajo


principalmente en la ABM. Una de ellas está enfocada en la búsqueda de mejores rutinas,
capacitaciones o diversos atributos organizativos, y aprendizaje de los mismos, para alcanzar
desempeños superiores. Es esta una perspectiva alineada con las teorías evolutivas de la firma
[evolutionary theory of the firm; Nelson y Winter (1982)28] y suele apoyarse en sus desarrollos
en modelos tipo NK[C], descritos anteriormente; múltiples agentes caracterizados por ciertos
atributos (N), en interacción (K), generando restricciones conflictivas, y buscando mejores
desempeños respecto a un relieve adaptativo que puede ser más o menos rugoso. La otra
línea principal de trabajo es aquella que ve la organización como una red de agentes
procesadores de información (Radner, 1993)85, siendo este procesamiento costoso debido a
las capacidades limitadas de los agentes para realizarlo, y siendo además éste uno de los
aspectos determinantes del desempeño resultante. Las preguntas que trata de responder esta
perspectiva se podrían resumir en algo así como; ¿Cuál es el mejor tamaño y estructura o
arquitectura de la organización (centralizada, descentralizada, jerárquica, no-jerárquica, etc),
para que agentes con distintas capacidades cognitivas puedan procesar la información de la
forma más rápida posible, y alcanzar desempeños superiores? Las aplicaciones y desarrollos
computacionales que hemos realizado para esta sección, se sitúan dentro de esta segunda
perspectiva de la organización.

A continuación se presentan distintos desarrollos computacionales ABM propios, realizados


para esta sección. En primer lugar se presentarán los más simples, del tipo autómatas
celulares, y posteriormente ABM con estructuras y modelos de comportamiento más complejos.
También se describirán, brevemente, distintos mecanismos para la búsqueda de estructuras
más eficientes, para las redes de procesamiento de información constituidas por los agentes de
una organización. Así como ciertos planteamientos para realizar modelos evolutivos en los
cuales son las propias redes de agentes las que de forma emergente identifican dichas
estructuras o arquitecturas más eficientes. Por último se comentarán algunas conclusiones y
futuras líneas de trabajo respecto a este tipo de desarrollos ABM.

1. Modelos de Autómatas Celulares

Como se ha dicho anteriormente, los autómatas celulares consisten en un enrejado regular de


celdas, cada una de las cuales puede verse como un agente muy simple. Estos agentes
simples pueden hallarse en uno de un número limitado de estados posibles (normalmente 2;
on-off, activo-inactivo, 1-0), definiéndose los cambios de estado, las transiciones de cada uno
en el tiempo, a partir de una serie de reglas que dependen del estado de otras celdas del

85
Radner, R. 1993. The Organization of Decentralized Information Processing. Econometrica, 61(5)

62
enrejado regular, generalmente celdas contiguas (Wolfram, 1984, 1994, 2002). A pesar de su
simplicidad, los autómatas celulares han resultado ser una herramienta muy útil en el estudio
de modelos simples de interacción social, tipo la transmisión de rumores entre grupos, difusión
de ideas y enfermedades, y también de modelos más ricos como por ejemplo; modelos de
migración, modelos acerca de la formación de comunidades étnicas, o bien, modelos sobre la
creación y evolución de alianzas (Wolfram, 1994; Gilbert y Troitzsch, 1999).

Comentaremos a continuación algunos de los modelos más simples y populares, los cuales
hemos implementado y simulado computacionalmente: Game of Life, Gossip model, y Majority
model.

Descripción

Game of Life

Es sin duda el más simple y popular de todos. Fue desarrollado por John Conway a finales de
los 60, y divulgado por Martin Gardner en 1970 a través de la revista Scientific American86.
Como todo automata celular, y la mayoría de ABM, consta de 4 partes fundamentales:

(1) Inicialización:

Se define el número de filas (N) y columnas (M) del enrejado; nº de agentes


simples
Se define el estado inicial de las celdas; % de celdas con estado inicial 1 ó 0

Fig.33 – Ejemplo; N=6, M=6, % celdas activas inicialmente 27%

(2) Estructura relacional:

Se define las relaciones de interdependencia entre las celdas;

Von Neumann – cada celdas cambiará su estado en función del estado de sus
4 contiguas que ocupen las posiciones N-S-E-O
Moore – cada celda cambiará su estado en función del estado de sus 8 celdas
contiguas en el entramado

Fig.34 – Entornos de interacción tipo Neumann y tipo Moore

86
Gardner, M. 1970. Mathematical Games. The fantastic combinations of John Conway’s new solitaire
game “life”. Scientific American, vol. 223, no. 4, p. 120-123

63
(3) Modelo de Comportamiento:

Se definen las reglas de comportamiento para cada celda. Define las transiciones
entre estados de las celdas en función del estado de sus vecinos (von Neumann,
Moore):

1. Una celda inicialmente viva (estado 1) permanece viva si tiene 2 o 3 celdas


en su entorno Moore que también estén vivas, en caso contrario muere
(estado 0)... En caso de menos de 2 se entiende que desaparece por
soledad, en el caso de más de 3 se entiende que desaparece por
sobrepoblación.
2. Una celda inicialmente muerta (estado 0) permanece muerta a no ser que
tenga 3 celdas vivas en su entorno Moore... Se considera 3 como número
suficiente para que haya reproducción y pase al estado vivo.

(4) Salidas:

Dadas unas condiciones iniciales, la estructura relacional (en este caso tipo
Moore), y las reglas de comportamiento, se simula el comportamiento de las celdas
viendo las distintas transiciones que se producen en el tiempo, y posibles
configuraciones patrones:

Tipo I – Patrones que no cambian


en el tiempo (estáticos) Block Tub Snake Integral

Tipo II – Osciladores que no se


desplazan (periódicos) t=0 t=1

Tipo III – Osciladores que se


desplazan (periódicos con
movimiento) t=0 t=1 t=2 t=3 t=4

Tipo IV – Patrones que


constantemente aumentan la
población de células vivas
(creadores de diversidad)

Tipo V – Patrones en continuo


cambio

Tabla 7 – Ejemplo de algunos patrones de comportamientos identificados en el


Game of Life. Fuente: Gilbert y Troitzsch (1999)

64
Modelo Gossip

El modelo Gossip es otro modelo muy simple, en este caso acerca de la difusión i.e, de
rumores, información, conocimiento, innovaciones, actitudes, infecciones por contacto, etc.
Supongamos que a una celda le llega un “rumor”, a través de las interacciones con otras
personas, el “rumor” se va extendiendo mediante una serie de reglas de transmisión.

Cada una de las celdas en este caso podrá estar inicialmente en dos estados; conoce el rumor,
o lo desconoce. La celda cambiará su estado, de desconocimiento a conocimiento del rumor,
con cierta probabilidad (probabilidad de transmisión que permite simular que surja en la
conversación el tema, o bien la frecuencia de conversaciones con los vecinos) cuando al
menos uno de sus vecinos (von Neumann) conozca el rumor. Una vez que la celda conoce el
rumor tendrá también una probabilidad de olvido del rumor. Las partes del modelo son las
siguientes:

(1) Inicialización:

Se define el número de filas (N) y columnas (M) del enrejado; nº de agentes


simples
Se define el % inicial de celdas que conocen el rumor
Se define la probabilidad de transmisión del rumor (una vez es conocido) a los
vecinos
Se define la probabilidad de olvido del rumor (una vez ha sido conocido)

(2) Estructura relacional:

Se define las relaciones de vecindad entre las celdas;

Von Neumann – cada celdas cambiará su estado en función del estado de sus 4
contiguas que ocupen las posiciones N-S-E-O (ver Fig.34)

(3) Modelo de Comportamiento:

Se definen las reglas de comportamiento para cada celda,

1. Si una celda no conoce el rumor, con 1 vecino que lo conozca, la celda


también lo conocerá con cierta probabilidad (probabilidad de transmisión)
2. Si una celda conoce el rumor, seguirá conociéndolo con una cierta
probabilidad (probabilidad de recordar el rumor)

(4) Salidas:

Dadas unas condiciones iniciales, estructura relacional (en este caso tipo von
Neumann), y las reglas de comportamiento, se simula el comportamiento de las
celdas viendo que para una única celda inicial que conoce el rumor este acaba por
transmitirse por todo en enrejado, a distintas velocidades, incluso para valores muy
pequeños de probabilidad de transmisión:

Fig.35 - Difusión de un rumor a partir de una única celda con conocimiento del mismo.
(a) 50 periodos - probabilidad de transmisión del 50% y de olvido 0%, (b) 250 periodos -
con una probabilidad de transmisión del 5% y de olvido del 0%, (c) 600 periodos - con

65
una probabilidad de transmisión del 1% y de olvido 0%, (d) 250 periodos - con una
probabilidad de transmisión del 10% y de olvido 5%. Fuente: Gilbert y Troitzsch (1999)

Majority Model

Este modelo simula comportamientos de tipo moda. Para ello se considera que una celda
cambiará su estado, de no adopción a adopción de una moda, en el caso de que la mayoría de
sus vecinos-amigos la hayan adoptado (i.e., teléfono móvil con cámara, ir a esquiar-golf,
tunning del coche, DVD en vez de video, etc, etc...).

Las partes del modelo son las siguientes:

(1) Inicialización:

Se define el número de filas (N) y columnas (M) del enrejado; nº de agentes


simples
Se define el % inicial de celdas que han adoptado la moda

(2) Estructura relacional:

Se define las relaciones de vecindad entre las celdas;

Moore – cada celdas cambiará su estado en función del estado de sus 8 contiguas
(ver Fig.34)

(3) Modelo de Comportamiento:

Se definen las reglas de comportamiento para cada celda,

1. Si la mayoría de los vecinos de una celda han adoptado la moda, la celda


adoptará la moda
2. Si la mayoría de los vecinos de una celda no han adoptado la moda, la celda
no la adoptará
3. Si una celda tiene tantos vecinos a-la-moda como no-a-la-moda, la celda
seguirá en el mismo estado que tenía

(4) Salidas:

Dadas unas condiciones iniciales, estructura relacional (en este caso tipo Moore), y
las reglas de comportamiento, se simula el comportamiento de las celdas viendo la
evolución de celdas que adoptan la moda y aquellas que no lo hacen. Se observa
que partiendo de una configuración inicial aleatoria (50% inicial de celdas que han
adoptado la moda) se forman, en el tiempo, grupos heterogéneos y estables. Ver
Fig.36:

Fig.36 – Evolución desde una posición inicial (a) a una posición estable (b) tras
unos pocos periodos de simulación. Fuente: Gilbert y Troitzsch (1999)

66
Existe una variación a las reglas de comportamiento de este modelo: Que ciertas celdas sean
más susceptibles a adoptar la moda y otras más conservadoras a las que les cueste más. En el
caso de las más susceptibles, con que el 50% de sus vecinos (4 vecinos - Moore) hayan
adoptado la moda, éstas también lo harán. En el caso de las conservadoras, necesitarán que el
75% de sus vecinos (6 vecinos - Moore) la hayan adoptado para que ellos también la adopten.
Supongamos ahora que el 50% de las celdas se inicialicen siendo susceptibles, y el 50% como
conservadoras. La distribución de susceptibles y conservadoras a lo largo del enrejado se hará
de forma aleatoria. Esta ligera variación en las reglas provoca que no se estabilicen tan
rápidamente los grupos, y que aparezcan grupos mayores. Ver Fig.37:

Fig.37 – Modelo majority con regla susceptibles-conservadores: (a) tras 5 periodos de


simulación; (b) tras 19 periodos; (c) tras 482 periodos. Fuente: Gilbert y Troitzsch (1999)

Otro modelo similar al Majority, pero situado en un contexto diferente es el modelo de


migraciones y segregación étnica de Schelling (1971)87. En este modelo se permite el
movimiento de los agentes a lo largo del enrejado reticular. Para ello se definen tres tipo de
celdas; las de la etnia-1, las de la etnia-2, y las celdas vacías-0. Con reglas de comportamiento
similares a las del majority model, se permite que un agente se desplace hacia una nueva
posición cuando el número de vecinos de su entorno de su misma etnia sea inferior a un cierto
porcentaje. Dicho agente se desplazará a la celda más próxima vacía, en que se cumpla su
nivel de tolerancia a la hora de mantener su vivienda, en un vecindario poblado por gente de
una etnia distinta. Con este modelo Schelling trataba de estudiar el nivel de tolerancia
necesario para reproducir la segregación territorial por etnias en grandes ciudades de EEUU.
Los resultados del modelo mostraron que para un nivel de tolerancia bastante alto; con que 3
de sus 8 vecinos fueran de su misma etnia no migraba (nivel de tolerancia del 62,5%), se
producían movimientos masivos de migración a nivel macro88, con la consiguiente segregación
territorial por etnias. Ver Fig.38:

Fig.38 – Ejemplo de distribución territorial final por etnias, a partir de una distribución inicial
aleatoria, para altos niveles de tolerancia. Fuente: O’Sullivan, Macgill, y Yu (2003)89

87
Schelling, T.C. 1971. Dynamic models of segregation. Journal of Mathematical Sociology, 1143-86
88
Schelling, T.C. 1978. Micromotives and Macrobehavior. Norton
89
O’Sullivan, D., Macgill, J., Yu, C. 2003. Agent-Based Residential Segregation: A Hierarchically
Structured Spatial Model. Pennsylvania State University

67
Para modelos más sofisticados de autómatas celulares tipo creación y evolución de alianzas,
etc, ver Axelrod (1997b).

Desarrollo Computacional Autómatas Celulares

Se presenta, a continuación, el desarrollo computacional realizado para la simulación de los


modelos de autómatas celulares anteriores; Game of Life, Gossip model, y Majority model. El
entorno desarrollado en Matlab (por sus aplicaciones gráficas y alta capacidad de tratamiento
de matrices) permite a través de una única ventana simular cada uno de los modelos
anteriores.

Fig.39 – Entorno de simulación de los modelos de autómatas celulares

Hay una serie de parámetros generales de inicialización, necesarios sea cual sea el modelo
seleccionado.

Fig.40 – Detalle de la ventana del entorno de simulación

Filas (N): número de filas


Columnas (M): número de columnas
% activos: porcentaje de todas las celdas que inicialmente están activas. Se utilizará
para inicializar aleatoriamente el estado de cada celda.

En relación a la estructura relacional...

Densidad: Número de celdas vecinas con las que está relacionado.

68
Para el caso Von Neumann; densidad = 4
Para el caso Moore; densidad = 8

Además hay otro parámetro general, Iteraciones, que indicará cuantas veces se debe aplicar la
regla durante la simulación.

Cuantas veces se debe aplicar la


regla seleccionada

Cuantas
veces se ha
aplicado

Fig.41 – Detalle de la ventana del entorno de simulación

Las reglas de comportamiento implementadas son:

Fig.42 – Detalle de la ventana del entorno de simulación

Además de los parámetros generales, hay otra serie de parámetros específicos para cada una
de las reglas. Estos parámetros particulares se presentan cuando se selecciona algún modelo
que los precisa. Se detallan a continuación:

• Game of Life: No tiene ningún parámetro particular.

• Gossip:

Probabilidad de transmisión (% transmisión)


Probabilidad de recordar el rumor (1 - % olvido)

Fig.43 - Detalle de la ventana del entorno de simulación cuando se selecciona el modelo


Gossip

• Majority normal: No tiene ningún parámetro particular.

• Majority con reglas susceptibles y conservadoras (Majority2):

Porcentaje de celdas en las que debe aplicarse la


regla conservadora (en el resto de celdas se
aplicará la regla susceptible)

69
Fig.44 - Detalle de la ventana del entorno de simulación cuando se selecciona el modelo
Majority2

Sobre una misma celda se aplicará en todas las iteraciones la misma regla,
conservadora o susceptible. La celda no irá cambiando de comportamiento para cada
iteración. Por lo tanto es un atributo de la celda cuál de las dos reglas se debe aplicar
sobre la misma. Este atributo se asignará a cada celda (aleatoriamente) durante la
inicialización.

Las salidas del entorno son del tipo:

Fig.45 – Ejemplo de salida visual del modelo para un instante dado, a partir de unas
condiciones iniciales, una estructura relacional dada, y modelo de comportamiento
seleccionado.

2. Hacia la Construcción de Entornos de Simulación más Completos

Nuevas formas de inicialización

Axelrod (1997b) describe, en su capítulo 7; “The Diseemination of Culture: A Model with Local
Convergence and Global Polarization”, un modelo de diseminación de la cultura entre una
comunidad de agentes con distintas características iniciales. La motivación de este trabajo es
estudiar la evolución de las comunidades: ¿Cómo se produce la diseminación de la cultura en
el desarrollo de grupos o comunidades heterogéneas?; ¿De qué depende que aparezcan más
o menos grupos heterogéneos?; ¿Cuánto tiempo tardan en conformarse, estabilizarse, dichos
grupos heterogéneos?.

La aproximación empleada es analizar la forma en que la gente tiende a influirse entre sí,
cambiando algunas de sus características iniciales, en un proceso de interacción dinámica. El
modelo define cultura como un conjunto de atributos individuales que están sujetos a la
influencia social.

Para definir las características de cada individuo, Axelrod (1997b) plantea un vector A
dimensional. Cada una de las celdas de este vector hará referencia a distintas dimensiones o
preferencias de la persona. Son los atributos. Cada uno de estos atributos podrá tomar
distintos valores. En el caso de que dos individuos, compartan los mismos valores para el
conjunto de sus atributos diremos que tienen una cultura común. El grado de similitud cultural
entre dos agentes vendrá determinado por el número de atributos coincidentes que tengan.

70
Fig.46 – Representación de un individuo: A (número de atributos) = 7; Valores posibles a
adoptar por atributo = 1..5. Entre el individuo (a) y el (b) existen dos atributos que comparten
valores idénticos, por tanto, la similitud cultural entre (a) y (b) es de 2/7.

El modelo de influencia social de Axelrod (1997b) es el siguiente:

• Inicialización:

Se define un enrejado de 10x10 = 100 agentes en total.


No se permite movilidad de los agentes a lo largo del enrejado.
Se inicializan los valores de los atributos para cada agente de forma aleatoria.

• Estructura Relacional:

Las interacciones posibles entre agentes estarán limitadas a sus vecinos inmediatos
tipo von Neumann (N, S, E, O)

• Modelo de Comportamiento:

1) Se parte de un agente cualquiera (A), y se elige uno de entre sus vecinos von
Neumann (B).
2) Con probabilidad igual al grado de similitud cultural entre ambos (A y B) se producirá
interacción entre ellos.
3) En caso de producirse interacción, ésta se modela de la siguiente forma: se elige
aleatoriamente una característica para la cual A y B tengan valores distintos, y se
asigna al agente A el valor que tiene el agente B para dicha característica.
4) Se repiten los pasos de 1) a 3) tantas veces como periodos vaya a simularse el
modelo.

• Salidas:

Se simula el modelo extrayéndose las siguientes conclusiones;

- Al aumentar la cantidad de atributos de los agentes, tienden a formarse un


menor número de regiones culturales estables (convergencia cultural). Ello es
debido a que a medida que aumenta el número de atributos hay más
posibilidades de que en alguno de ellos coincida un par agentes, posibilitando
así la interacción y el intercambio de valores para otros atributos, lo cual
posibilitará futuras interacciones y niveles de convergencia crecientes.
- Aumentar el rango de valores que pueden adoptar los atributos, hace que se
creen un mayor número de regiones heterogéneas. Cuantos más valores
puedan adoptar menor será la probabilidad de que dos cualesquiera coincidan,
y por lo tanto que se produzca interacción.
- Al aumentar el número de vecinos posibles con los cuales interactuar (en vez
de von Neumann, por ejemplo, se abre el número de posibles vecinos a 8, 12,
...), aumenta la convergencia y por lo tanto se llega a un menor número de
grupos estables y heterogéneos. Es un indicativo de que la densidad de
relaciones permitida por agente tiene un impacto sobre la convergencia. Si
además en vez de permitir únicamente interacciones locales, se permite

71
interacciones a distancia la convergencia es todavía mayor. Indicativo del
impacto de la estructura relacional sobre la convergencia.
- El tamaño del territorio (en vez de 10x10, que sea 15x15, etc), tiene un efecto
no-lineal respecto a la convergencia en regiones estables y heterogéneas;
tanto los territorios pequeños como los muy grandes dan lugar a un grado de
conergencia alto (pocas regiones finales, estables y heterogéneas), mientras
que para tamaños intermedios, el número de regiones finales estables y
heterogéneas se dispara. Para una explicación detallada de este efecto ver
Axelrod (1997b), en su capítulo 7.

Fundamentalmente, lo que más nos interesa de este modelo es el modo de inicialización de los
agentes. En vez de los valores 0 y 1 con que trabajábamos hasta ahora, hemos incorporado al
entorno de simulación la posibilidad de definir los agentes a través de distintos atributos y
valores para los mismos:

Con una sencilla sentencia; InicializacionAxelrod(15,15,4,0,10), se genera un enrejado


de 15x15, donde para cada uno de los nodos existirá un vector de atributos de
dimensión 4, y cada uno de estos atributos podrá tomar valores que van del 0 al 10.
Todo ello se puede introducir también a través del interface del entorno de simulación:

Fig.47 – Detalle entorno simulación para la inicialización de los agentes. Para número
de factores =1, y rango de valores = 0..1 obtendríamos un agente tipo autómata celular.

Nuevas formas de definición de Relaciones Estructurales

En el trabajo de Díaz-Guilera y colaboradores (2003), se realiza un estudio muy interesante


acerca de las propiedades dinámicas de distintas configuraciones estructurales (complex
networks) aplicado al campo del diseño de los procesos de comunicación, e intercambio de
información, en la organización (Radner, 199385; DeCanio y Watkins, 1998). Este tipo de
trabajos son de especial relevancia, ya que, como destacaba Radner (1993)85 a principios de
los 90, más de la mitad de los trabajadores de EEUU se dedicaba en ese momento a tareas
relacionadas con el procesamiento de información, más que a la fabricación y la venta.
Actualmente, por lógica, podemos suponer que la cifra es todavía superior, al igual que la
relevancia de esta cuestión.

Cuando entramos a analizar las redes de comunicación, e intercambio de información,


organizativas reales aparecen configuraciones estructurales tipo small world (Watts y Strogatz,
1998) y distribuciones de conectividad libres de escala para sus nodos (Barabási y Albert,
1999), descritas anteriormente. El trabajo de Díaz-Guilera y colaboradores (2003) aborda,
desde las herramientas de la mecánica estadística y la simulación, la relación entre las
propiedades topológicas de las redes de comunicación e intercambio de información
organizativas, y sus propiedades dinámicas y efecto sobre el desempeño, a medida que el
número de unidades de información a procesar aumentan y aparecen problemas de congestión
en determinados nodos, de ahí el título del trabajo; “Search and Congestion in Complex
Networks” (Díaz-Guilera et al, 2003). Según estos autores, la máxima cantidad de información
que puede gestionar una red da una idea de la calidad de su estructura organizativa. Su
objetivo, por tanto, es encontrar configuraciones que optimicen los flujos de información a
través de la red, para distintos niveles de información a procesar., i.e., para niveles bajos de
información a procesar, y pocos procesos de búsqueda en paralelo, una estructura totalmente
centralizada tipo estrella (todos los nodos conectados a un mismo nodo central) es la
configuración óptima respecto a búsquedas de información, ya que cualquier nodo de la red se
haya a tan sólo dos pasos de cualquier otro. Sin embargo, cuando el nivel de información a
procesar o bien los procesos de búsqueda en paralelo aumentan, esta estructura es altamente
ineficiente debido a la sobrecarga y el cuello de botella en que se convierte dicho nodo central.

72
Para estudiar las distintas configuraciones estructurales, los autores, diseñaron el modelo que
se presenta a continuación.

Fig.48 – Ejemplo de transición entre estructuras relacionales más eficientes al aumentar el


número de paquetes de información circulantes. Fuente: Díaz-Guilera y colaboradores (2003)

En este caso presentaremos en primer lugar el modelo de comportamiento (cómo se generan y


transmiten los paquetes de información, y la capacidad de procesamiento de información de los
agentes), y a continuación el modelo estructural o estructura relacional:

• Modelo de Comportamiento: el modelo de comunicación

Cada instante de tiempo, se crea con cierta probabilidad, ρ, un paquete de información


en cada nodo (agente). Un ρ bajo, significa baja densidad de paquetes de información
a ser procesados, y ρ alta, lo contrario.

Para un nodo (agente) elegido al azar, se selecciona un nodo (agente) de destino,


también al azar. El paquete deberá viajar, en los sucesivos instantes de tiempo
(periodos de simulación) a través de los nodos de la red hasta alcanzar su destino. Una
vez alcanzado el destino, el paquete de información se entrega y desaparece.

El tiempo que pasa un paquete en la red no solo depende de la distancia entre nodos,
también depende del número de paquetes que haya en su camino. Cada agente tiene
una capacidad de procesamiento, que decrece a medida que aumenta su carga de
paquetes de información acumulados. Nodos altamente cargados, tardarán más en
distribuir los paquetes. Esto provoca el efecto demora y congestión. Para modelar este
comportamiento se emplea una función denominada Calidad del Canal: Q=sqrt(Ci*Cj).
Donde Ci es la capacidad del nodo-i, y Cj es la capacidad del nodo-j. C se define como
una función, que adopta valores entre 0 y 1, y que depende del número de paquetes
que tiene para procesar el nodo en cuestión. Q (Calidad del Canal) se interpreta, a nivel
de simulación, como la probabilidad de que un paquete de información pase de un
nodo-i cualquiera a otro nodo-j.

Algunas consecuencias observadas: (1) Para densidades ρ bajas, tras un periodo de


transición se distribuyen todos los paquetes de información; (2) Para densidades ρ
altas, el número de paquetes en circulación es superior a la capacidad de
procesamiento de los nodos de la red, aparece la congestión, y el número de paquetes
que se va acumulando en la red crece de forma indefinida; (3) Existe un valor de la ρ
(ρc) para el cual se produce la transición entre estos dos regímenes.
La Pregunta Clave: ¿Cómo varía ρc en función de la estructura de la red?. Aquellas
topologías de estructura que maximicen ρc corresponderán a estructuras organizativas
eficientes en la gestión, procesamiento, de altos volúmenes de información.

• Modelo estructural, estructura relacional:

73
Para poder modelar distintas estructuras relacionales se parametriza la red (Díaz-
Guilera et al, 2003). Los parámetros definidos son los siguientes: densidad de
relaciones (m); grado local-global de las relaciones (φ); grado de centralización-
descentralización de las mismas (γ). Veamos el algoritmo diseñado por Díaz-Guilera y
colaboradores (2003), y así se entenderá mejor el significado de cada uno de ellos:

1) Se definen una serie de nodos; MxN


2) Se elige uno de esos nodos al azar, nodo-i
3) Se crean m links (relaciones) del nodo-i a m nodos de la red. m=4 significa que
cada nodo estará relacionado, al menos, con otros 4 nodos de la red. m deberá ser
menor que el número total de nodos de la red, MxN. Cómo se establecen las
relaciones destino (parámetros φ y γ):

- Con probabilidad φ las relaciones serán de tipo local-global. Para φ = 0 local,


para φ = 1 será 100% global (de larga distancia)
- En caso de que φ > 0 (no local puro), el parámetro γ determinará la
probabilidad de que el nodo destino para el link, nodo-j, sea elegido en función
de su grado de conectividad (kj):

Πj ∝ kjγ [Ec. 1]

Para γ = 0, el nodo destino se elegirá de forma aleatoria (random attachment);


Para γ = 1, el nodo destino se elegirá en función del grado de conexiones
(nodos con más conexiones tendrán mayor probabilidad de ser elegidos como
destino – mecanismo tipo pure preferential attachment de Barabási y Albert
(1999));
Para γ > 1, unos pocos nodos se llevan todos los links de destino (alta
centralización)

4) Se elige un nuevo nodo y se repite el proceso desde el paso 3).

Mediante estos 3 parámetros (m-φ-γ), por tanto, podemos definir multitud de tipos de
relaciones estructurales. Desde las típicas de los autómatas celulares (m=4 von
Neumann u 8 para Moore; φ = 0, local; γ = 0), a las tipo Small World (m, cualquiera; φ,
bajo aunque mayor que 0, γ = 0), o bien las tipo distribución Libres de Escala (m,
cualquiera; φ > 0, γ = 1), estructuras centralizadas, descentralizadas, etc...

• Salidas:

Tras simular el modelo de comportamiento, sobre los distintos tipo de estructuras


relacionales, se extraen las siguientes resultados (ver Fig.49):

74
Fig.49 – Capacidad de procesamiento de los paquetes de información en función de la
estructura de relaciones de la red. Fuente: Díaz-Guilera y colaboradores (2003)

Y algunas conclusiones:

- Para bajas densidades de paquetes de información circulando por la red (ρ


baja), propio de entornos estables, la configuración estructural que permite un
menor número de paquetes de información acumulados en la red es una
estructura de tipo estrella, altamente centralizada (Fig.49-e). De este modo se
minimiza la distancia media entre dos puntos cualesquiera, y debido a la baja
densidad de paquetes de información no se produce congestión y retrasos en
el nodo central.
- Para densidades mayores de paquetes de información circulando por la red,
propio de entornos turbulentos, la mejor configuración se corresponde con una
estructura altamente local (φ = 0,15) y en la que los links de larga distancia se
establezcan de forma aleatoria (γ = 0), o lo que es lo mismo, una estructura tipo
Small World (Fig.49-c). De esta forma, se obtienen distancias medias bajas
entre dos nodos cualesquiera de la red, alta accesibilidad global, y además,
dada su descentralización (γ = 0) permite que todos los nodos soporten cargas

75
de procesamiento de información similares y no haya congestión debido a
cuellos de botella.

Para nuestro entorno de simulación, lo más relevante del artículo, en este momento, es el
algoritmo definido para el diseño de múltiples estructuras relacionales a partir de unos pocos
parámetros; m-φ-γ. Este algoritmo ha sido incorporado al entorno de simulación, de modo que
cualquier modelo de comportamiento citado anteriormente (NK, NK[C], Gossip, Majority,
Modelo de Influencia Social de Axelrod (1997b), etc...) podría simularse respecto a cualquier
estructura de relaciones representable mediante los parámetros m-φ-γ. De este modo, podemos
observar el impacto que tienen distintas configuraciones de relaciones estructurales, entre los
agentes, respecto a los resultados de la simulación de los distintos modelos de
comportamiento, su desempeño.

Además, se ha diseñado una aplicación específica que permite simular dicho algoritmo por
separado, dando como resultado la matriz de adyacencia de relaciones entre los nodos de la
red (salida visual, más un fichero txt). Ello, nos permite volcar dicha matriz de adyacencia sobre
programas propios del Análisis de Redes Sociales tipo UCINET y PAJEK, y así visualizarlas, y
calcular de forma exhaustiva todas las propiedades estructurales (i.e., grado de centralización
(degree), grado de intermediación (betweenness) o distancia media, grado de cercanía
(closeness), grado de cohesión (clusters), robustez de los nodos ante perturbaciones, etc...),
tanto de la red como de sus nodos particulares, para el caso de configuraciones que han
mostrado mejores desempeños en relación a determinados modelos de comportamiento. De
esta forma se pueden buscar correlaciones entre los comportamientos de alto desempeño y las
características de las estructuras de relaciones.

Fig.50 – Interface para la creación de distintas estructuras relacionales a partir del algoritmo de
Díaz-Guilera y colaboradores (2003). Tras el cálculo de la estructura, a partir de los parámetros
de entrada, se genera como salida la matriz de adyacencia de las relaciones entre nodos.

Ejemplo de Aplicación: Cultural Model con Estructura Relacional más Compleja

A modo de ejemplo, se ha implementado el Modelo de Influencia Social de Axelrod (1997b),


presentado anteriormente, sobre distintas configuraciones estructurales desarrolladas a través
del algoritmo estructura-relacional presentado en Díaz-Guilera y colaboradores (2003).

76
Fig.51 – Ventana interface del entorno de simulación para la ejecución del Modelo de Influencia
Social de Axelrod (1997b) sobre distintas configuraciones estructurales desarrolladas a través
del algoritmo estructura-relacional presentado en Díaz-Guilera y colaboradores (2003). Eje x –
nº de periodos de la simulación; Eje y – Porcentaje de similitud promedio entre el conjunto de
nodos de la red.

Como resultado de la ejecución del modelo se obtiene una gráfica en la que se muestra la
similitud promedio de todos los nodos a lo largo del tiempo. Distintas configuraciones
estructurales dan lugar a distintas gráficas de salida. Estas gráficas nos dan información acerca
de la velocidad de convergencia hacia grupos culturalmente heterogéneos y estables, así como
del número de nodos que ocupan posiciones de mediadores, puentes, entre comunidades
culturalmente heterogéneas, una vez alcanzado el régimen estable, para distintos valores de
entrada (tanto relativos a las características de los agentes; nº atributos, nº valores por atributo,
como a los parámetros que determinan la estructura relacional entre los nodos).

3. Ejemplo de Desarrollo tipo Organization as a Collection of Information Processing Agents

Como hemos dicho anteriormente, una de las líneas principales de trabajo en el campo de los
ABM aplicados al ámbito organizativo es aquella que contempla la organización como una
colección de agentes procesadores de información (Radner, 1993)85. A continuación, y en
primer lugar, comentaremos el trabajo desarrollado por DeCanio y Watkins (1998) acerca del
efecto de las capacidades cognitivas de los agentes, así como de unas cuantas estructuras de
relaciones, sobre la eficiencia en la difusión y adopción de nuevos conocimientos,
innovaciones, por parte de los agentes de la organización. Las preguntas que busca responder
este articulo son del tipo: ¿Cuál es la mejor estructura o arquitectura de la organización
(centralizada, descentralizada, jerárquica, no-jerárquica, etc), para que agentes con distintas
capacidades cognitivas puedan difundir y adoptar nuevos conocimientos, innovaciones, de la
forma más rápida posible?. En segundo lugar, mostraremos el desarrollo computacional que
hemos realizado para implantar este modelo en nuestro entorno de simulación, y su extensión
a un abanico mayor de configuraciones estructurales para la red de relaciones entre los
agentes.

DeCanio y Watkins (1998) contemplan la firma como un conjunto de agentes, con diferentes
capacidades cognitivas y propósitos, que procesan e intercambian información entre sí. Según
estos autores, la organización se define por sus patrones de intercambio de información,
patrones de comunicación entre los agentes, que como en ocasiones anteriores, pueden

77
representarse en la forma de distintas configuraciones de redes de relaciones y comunicación,
tanto formales como informales. Distintos patrones de comunicación, configuraciones de la red,
darán lugar a distintos desempeños (tiempo necesario para que todos los agentes de la
organización hayan adoptado la innovación, nueva tecnología, o nuevo conocimiento).
Igualmente, los autores, en su visón y modelo de la firma, hacen referencia a las capacidades
cognitivas de los agentes como un elemento clave sobre este desempeño, debido a la
influencia que tiene la capacidad de procesamiento de información de los agentes sobre la
probabilidad de que la información se intercambie entre ellos. Su modelo, denominado por ellos
mismo como “A model of innovation by firms” es el siguiente. Para facilitar la comprensión del
modelo, se describe el Modelo de Comportamiento previamente a la Estructura Relacional:

• Inicialización:

Número de filas (N) y columnas (M); NxM = nº de agentes del modelo.


Estado inicial de los nodos; % de nodos que inicialmente tienen asimilada la innovación
o nuevo conocimiento (estado 1), los que no lo han adoptado o asimilado (estado 0)

• Modelo de Comportamiento:

La probabilidad de adopción de una innovación, el cambio de un agente del estado 0


(no asimilación o adopción de un nuevo conocimiento, innovación, tecnología) al estado
1 (asimilación o adopción de un nuevo conocimiento, innovación, tecnología), es
función (de tipo logística) del número de vecinos que tiene en estado 1 (información
disponible en el entorno del agente), y de su capacidad de absorción90 de nueva
información, C:

Fig.52 – Funciones de probabilidad de adopción de innovaciones. Fuente: DeCanio y


Watkins (1998)

A valores superiores de C, el agente necesitará menos vecinos que hayan asimilado la


innovación para asimilarla él mismo. Cuando el % de vecinos que la han asimilado es
superior al 50%, la asimilará o adoptará sea cual sea su capacidad de absorción. En
términos de March (1991)91, supondremos que agentes con C baja se corresponden
con “slow learners”, mientras que los que tiene C alta serán del tipo “quick learners”. De
la propia gráfica se pueden sacar unas primeras conclusiones. Debido a la
dependencia que tiene la probabilidad de adopción respecto al % de vecinos
necesarios para adoptar la innovación, para el caso de agente con C baja, lo más
adecuado serán las configuraciones tipo equipos con unos pocos miembros. De este
modo, con que unos pocos miembros del equipo adopten la innovación, en porcentaje
supondría un valor alto para el resto del equipo, y los demás se verán más obligados a

90
Cohen, W. M., Levinthal, D.A. 1990. Absorptive Capacity: A New Perspective on Learning and
Innovation. Administrative Science Quarterly, 35, 128–152.
91
March, J. 1991. Exploration and exploitation in organizational learning. Organization Science, 2
March, J.G, Levinthal, D. 1993. The myopia of learning. Strategic Management Journal, 14

78
adoptarla también. Llevado al extremo, para C muy bajas, lo más adecuado serían
relaciones uno a uno entre los agentes, así, con que uno de ellos la adopte, el otro la
adoptaría también. Esto tiene como contrapartida que el tiempo en difundir la
innovación por toda la red sería igual al número de agentes de la misma, muy alto. En
el otro extremo, para C muy altas, lo ideal sería una configuración de relaciones tal que
todos se hallasen relacionados con todos. De esta forma la velocidad de difusión de la
innovación por toda la organización sería casi inmediata.

Las siguientes preguntas que se plantean DeCanio y Watkins (1998) son las siguientes:
¿Qué sucede para valores intermedios de la C?; ¿Existe una estructura de relaciones
de comunicación que optimice el tiempo necesario para la difusión global de la
innovación, para distintos valores de C?. Para responder a ello, plantean,
fundamentalmente, 3 tipos de configuraciones estructurales.

• Estructura Relacional:

Los 3 tipos de configuraciones fundamentales sobre las cuales se simulará el modelo


de comportamiento son las siguientes;

1) Red Completamente Conectada: Todos con todos. Alto grado de conectividad y


alto grado de descentralización.

2) Jerarquía Simple. Ver Fig.53. Grado de conectividad bajo, grado de


descentralización bajo.

Fig.53 –Estructura relacional tipo Jerarquía Simple del Modelo de DeCanio y Watkins
(1998): Fuente: DeCanio y Watkins (1998)

3) Estructura aleatoria con grado de conectividad por agente igual a 5 (grafo dirigido).
Grado de conectividad bajo, grado de descentralización alto.

• Salidas: (simulación y conclusiones)

Para poder comparar la eficiencia de cada una de las configuraciones estructurales,


DeCanio y Watkins (1998) simularon su modelo para el caso de que inicialmente 1 sólo
agente conociera, hubiera adoptado la innovación, midiendo el tiempo necesario para
que esta se difundiera por toda la organización (128 agentes), para distintos valores de
C, y las 3 configuraciones estructurales. Debido a los componentes aleatorios del
modelo, para que los resultados fueran estadísticamente significativos, repitieron cada
simulación 500 veces, sacando el valor medio y desviación estándar de cada
combinación simulada. Se muestra, en la siguiente tabla, los resultados de la
simulación:

79
Tabla 8 – Salidas de la Simulación del Modelo de DeCanio y Watkins (1998): Fuente:
DeCanio y Watkins (1998)

Para visualizar mejor los resultados que presenta el artículo hemos graficado los datos
en escala logarítmica:

Fig.54 – Representación logarítmica de los datos de la tabla 7. ER-1(CC) corresponde


a la primera estructura relacional tipo Completamente Conectada; ER-2(JS)
corresponde a la segunda estructura relacional tipo Jerarquía Simple; ER-3(A5)
corresponde a la tercera estructura relacional tipo Aleatoria con grado de conectividad
5.

Vemos por tanto que:

(1) La eficiencia en la difusión de innovaciones varía en función de la estructura


organizativa.

(2) Para valores altos de C (C>9), alta capacidad de absorción, la estructura que
consigue mejores resultados es la Completamente Conectada: Las estructuras no
jerárquicas y planas obtienen mejores resultados que las jerárquicas para altas
capacidades de absorción de los agentes.

(3) En el caso de la Jerarquía Simple y la Aleatoria con grado de conectividad 5, a


partir de cierto valor de C (C>3), ya no se reducen más los ciclos necesarios para
la difusión total en la organización. De modo que cualquier esfuerzo en mejorar la
capacidad de absorción, por encima de ese valor, no tendría efecto en la reducción
del tiempo. Ello es debido a que existe un tiempo mínimo para que el primer
“grupo” adopte la nueva innovación, antes de transmitirla a los demás “grupos”.
Este tipo de configuraciones, a diferencia de la Completamente Conectada, reduce

80
el efecto de infoxicación global (Roose, 2003): La introducción de jerarquía (partir
en equipos) y limitar los canales de comunicación, reducen el efecto de
infoxicación sobre la organización.

(4) Para valores bajos de C (C<3), la Jerarquía Simple y la Aleatoria con grado de
conectividad 5 producen los mejores resultados: La introducción de jerarquía (partir
en equipos) y limitar los canales de comunicación, provocan mejores
comportamientos para rangos de capacidades de absorción bajas.

(5) La estructura tipo Aleatoria con grado de conectividad 5, es superior en todo


momento a las otras dos. Esto es debido a que, al igual que la Jerarquía Simple,
estructura a los agentes en forma de “grupos” reducidos, y por tanto, para valores
bajos de C, aumenta la probabilidad de adopción de los agentes de un mismo
“grupo”. Y además, debido a las conexiones aleatorias, reduce la distancia media
entre dos agentes cualesquiera de la red (efecto Small World), aumentando así la
velocidad de difusión respecto a la Jerarquía Simple: No es lo mismo estructura
(restringir el número de posibles relaciones como en el caso de Aleatoria-grado5)
que jerarquía.

A la hora de implementar el Modelo de DeCanio y Watkins (1998) en nuestro entorno de


simulación, hemos incorporado unas modificaciones. Por un lado permitimos que existan
agentes heterogéneos; dos tipos de capacidades de absorción, C1 y C2. De este modo
podemos simular el efecto que tienen distintas proporciones de “slow learners” (C baja) y “quick
learners” (C alta), según March (1991)92, sobre el resultado de las simulaciones de las distintas
estructuras de relaciones. Además, hemos aumentado el número de posibles estructuras de
relaciones a simular gracias a la incorporación del modelo de estructuras relacionales de Díaz-
Guilera y colaboradores (2003), presentado anteriormente. Por motivos de claridad del modelo
no hemos aumentado el número de atributos posibles por agente, aunque esta posibilidad está
totalmente disponible dentro del propio entorno de simulación.

El entorno de simulación desarrollado tiene los siguientes datos de entrada y funcionalidades:

Fig.55 – Imagen del interface del entorno de simulación para la adaptación del modelo de
DeCanio y Watkins (1998)

81
En el primer bloque, Nodos – Estado inicial, se indicarán tanto el número de filas como
de columnas y el porcentaje de nodos que inicialmente están activos (poseen el
conocimiento, estado = 1). En este ejemplo: 4 filas y 4 columnas, por tanto 16 nodos. El
75% de los nodos (12/16) poseen inicialmente el nuevo conocimiento.

En el siguiente bloque, Modelo Estructural, implementa el algoritmo de Díaz-Guilera y


colaboradores (2003) para el diseño de múltiples configuraciones estructurales a partir
de los parámetros m (densidad de enlaces por nodo), φ (grado local-global de las
conexiones), y γ (grado de descentralización-centralización de la estructura). Además,
se indica si durante la simulación se debe recuperar el modelo estructural generado, y
guardado, en la simulación anterior, o bien, si debe generar un modelo nuevo. Como la
generación del modelo estructural es una tarea que requiere bastante tiempo (sobre
todo si hay muchos nodos), se ha incluido esta opción para que, en distintas
simulaciones, se pueda aprovechar estructuras relacionales generadas previamente.
Como nota, decir que, hay que tener en cuenta que el modelo estructural es función,
tanto de los parámetros de este bloque (Modelo Estructural) como de los del bloque
anterior (Nodos-Estado Inicial), de modo que si se quiere realizar la simulación con
parámetros distintos a los de la simulación anterior, para cualquiera de estos dos
bloques, habrá que generar un nuevo modelo estructural. Si se selecciona la opción
Cargar Último Modelo, los parámetros de estos dos bloques serán los indicados en la
simulación anterior. En el ejemplo: Cada nodo está relacionado con otros 8 nodos; La
probabilidad de que las relaciones entre los nodos sean locales-globales es del 50%; El
grado de descentralización-centralización de las relaciones es 0. Como no se ha
seleccionado la opción Cargar último modelo, durante la simulación se volverá a
calcular la estructura de relaciones entre los nodos.

El tercer bloque, Modelo Comportamiento, permite introducir dos valores, C1 y C2, para
el parámetro Capacidad de absorción del modelo de DeCanio y Watkins (1998), así
como la proporción de agentes que implementará cada uno de ellos.

Fig.56 – Detalle del interface para el entorno de simulación que implementa el modelo
adaptado de DeCanio y Watkins (1998). Según los datos de la imagen un 70% de los
nodos tendrán una capacidad de absorción de 0.4, y el 30% restante una capacidad de
absorción de 0.8.

La opción Todo el rango permite, para una estructura relacional dada, realizar la
simulación para todos los valores de C (tanto para C1 como para C2) en el rango
[0.33...100], combinando todas las posibilidades de C1 y C2, pero respetando los
porcentajes asignados a cada uno de ellos.

Las salidas que ofrece el modelo son las siguientes:

(1) Simulación para un valor concreto de C1 y C2;

Para realizar este tipo de simulación se deberán introducir los valores y porcentajes de
C1 y C2, y no seleccionar la opción Todo el rango.

El resultado obtenido de esta simulación es el número de iteraciones, o ciclos,


necesarios para obtener la difusión total de la innovación por toda la organización, para
la estructura relacional especificada, y condiciones iniciales dadas. Este resultado se
muestra directamente en la pantalla.

82
Fig.57 – Imagen del interface del entorno de simulación del modelo adaptado de
DeCanio y Watkins (1998)

Durante la simulación se va mostrando el estado (activo – en azul / inactivo – en


blanco) de cada nodo. Tal y como aparece en la imagen al final todos los nodos
estarán activos (poseerán el conocimiento).

(2) Simulación para todo el rango de valores C1 y C2;

En la simulación para Todo el rango se realizan múltiples simulaciones, para las


distintas combinaciones posibles de C1 y C2. Calculándose, para una misma estructura
relacional, el número de ciclos necesarios para difundir totalmente la innovación, para
cada una de estas posibles combinaciones entre C1 y C2.

Para realizar la simulación de todo el rango deberán introducirse únicamente los


porcentajes de agentes que implementan C1 y C2 (porcentaje de nodos cuyo factor de
absorción C, es C1 o es C2).

Como resultado de la simulación se obtiene un array con la siguiente estructura

C1 0.4 0.4 0.4 ... 0.421 0.421 ...


C2 0.4 0.421 0.56342 ... 0.4 0.421 ...
Nº de Ciclos [R1] [R2] [R3] … [Rn] [Rn+1] …

Fig.58 – Estructura del array resultante de la simulación

Guardándose el resultado de las distintas simulaciones en un fichero de texto que tiene


la siguiente estructura:

83
Fig.59 – Estructura del fichero de texto que organiza en conjunto de simulaciones

De esta forma, se puede volcar la información fácilmente sobre una tabla Excel, y
realizar gráficos tridimensionales para visualizar los resultados de la simulación.

4. Optimización de Redes

En la sección anterior hemos hecho referencia al trabajo DeCanio y Watkins (1998), cuyo
principal objetivo era identificar aquellas estructuras relacionales, patrones de intercambio de
información, o arquitectura de la organización (centralizada, descentralizada, jerárquica, no-
jerárquica, etc), para que agentes con distintas capacidades cognitivas, capacidades de
absorción, pudieran difundir y adoptar nuevos conocimientos, innovaciones, de la forma más
rápida posible. Dichos autores presentaban un número muy limitado de estructuras posibles, en
concreto 3 tipos, de modo que la identificación de la más adecuada para distintos rangos de
capacidades de absorción resultaba sencilla. El desarrollo computacional que hemos
implementado, a través de nuestro entorno de simulación, extendía el abanico de posibles
configuraciones estructurales en varios órdenes de magnitud. En este sentido, puede resultar
hasta cierto punto tedioso mapear todas las posibles relaciones estructurales, respecto a las
salidas del modelo (número de ciclos para que la innovación haya sido adoptada por el
conjunto de los agentes), hasta encontrar estructuras relacionales óptimas para distintos
rangos de capacidades de los agentes.

Una forma de acelerar el proceso de identificación de la estructura óptima, para un rango de


condiciones iniciales (distribución de capacidades de absorción de los agentes principalmente),
y una función salida a optimizar (minimizar el número de ciclos necesarios para que el conjunto
de los agentes hayan adoptado la innovación), es a través de mecanismos que hagan
evolucionar la estructura relacional (matriz de adyacencia de la relaciones entre los agentes)
hasta alcanzar de forma convergente aquella que optimiza la salida deseada del modelo de
comportamiento. Existen algunos trabajos al respecto, comentaremos a continuación tres de
ellos, cada uno de los cuales propone distintas técnicas para este mismo fin:

• Ferrer-Cancho y Solé (2001) proponen el uso de un algoritmo evolutivo que tiene el


siguiente comportamiento: Se parte de una configuración estructural aleatoria. Esto
significa que la matriz de adyacencia A={aij}, para las realciones entre nodos, tendrá
distribuídos los 1s (existe relación entre dos nodos cualesquiera, aij) y 0s (no existe
relación entre dos nodos cualesquiera, aij) de forma aleatoria. Para esta configuración
inicial se obtendrá un valor para la función salida a optimizar. En un segundo paso, con
cierta probabilidad µ, cada elemento de la matriz de adyacencia (aij) modificará su valor
de 0 a 1, o bien de 1 a 0. La nueva matriz de adyacencia (relación estructural entre los
nodos) será aceptada como mejor, siempre y cuando, el valor obtenido para la función
salida a optimizar del modelo de comportamiento sea superior al anterior. Este proceso
se repetirá hasta que cierta configuración estructural no acepte sucesivas mejoras en
un numero (M), a especificar, de posteriores intentos.

• Carley y Svoboda (1996) realizan el siguiente planteamiento: Para dinamizar la


estructura definen 3 mecanismos principales de redefinición de la estructura relacional;
(i) eliminación de agentes, (ii) adición de agentes, (iii) reasignación de relaciones entre
agentes, cada una de ellas con cierta probabilidad de ocurrencia. A continuación,

84
mediante la técnica de recocido simulado (simulated annealing) identifican aquellas
configuraciones que optimizan el valor de la función salida del modelo de
comportamiento.

• Miller (1996, 2001) emplea la aproximación más popular para este tipo de tarea, los
algoritmos genéticos. En primer lugar se crea una población inicial de estructuras
relacionales (matrices de adyacencia de la relaciones estructurales entre los nodos,
An={aij}n) de forma aleatoria. Esta población inicial es simulada, y se ve qué estructuras
de la población son aquellas que logran mejores resultados para la función salida del
modelo de comportamiento. A continuación, se seleccionan aquellas mejores, y se
desechan las que han conseguido peores resultados. En una segunda generación, se
aplican los operadores genéticos de recombinación (cross-over), tipo explotación, y
mutación, tipo exploración. De este modo, las eliminadas en la primera vuelta son
reemplazas mediante combinaciones (cross-over) generadas a partir de parejas que
han pasado el primer filtro. También se añaden mutaciones aleatorias en ciertos
elementos (aij)n de las matrices de adyacencia, con el fin de evitar los óptimos locales,
y cubrir así regiones más amplias del espacio de posibles configuraciones. El proceso
se repite varias generaciones, seleccionándose finalmente, como mejor configuración
estructural, aquella que logre un mejor resultado para la función de salida del modelo
de comportamiento en esta última generación. Los resultados obtenidos mediante esta
técnica de algoritmos genéticos suelen ser superiores a los logrados mediante las otras
dos técnicas anteriores.

En nuestro caso, tenemos previsto aplicar la estrategia de los algoritmos genéticos para hacer
evolucionar, de forma automática, las estructuras relacionales generadas en el modelo
adaptado de DeCanio y Watkins (1998), que hemos implementado en nuestro entorno de
simulación. Dejamos esta tarea para un futuro trabajo.

5. Trabajos sobre evolución de Redes

En el apartado anterior, se han propuesto una serie de mecanismos para la identificación de


configuraciones de relaciones estructurales más eficientes para las funciones de salida de
diversos modelos de comportamiento. Estos mecanismos son de tipo exógeno, ya que las
configuraciones eficientes no son alcanzadas a través de acciones propias de los agentes, si
no a través de algoritmos de optimización que operan sobre distintas configuraciones
estructurales. No sigue por tanto una aproximación tipo bottom-up característico de los
modelos ABM (Chang y Harrington, 2004).

En un reciente trabajo, Epstein (2003) aborda esta aproximación bottom-up para la búsqueda
de configuraciones estructurales más eficientes. Para ello, define un modelo, en el cual, los
propios agentes individuales de la organización generan, de forma endógena, la jerarquía
interna, configuración estructural, necesaria para alcanzar comportamientos eficientes, en
respuesta a las condiciones (flujo de oportunidades) del entorno. El objetivo del modelo es
encontrar la combinación más adecuada (configuración estructural) para la asignación de los
agentes procesadores de información y toma de decisión, con el fin de poder dar respuesta, de
la forma más efectiva, a las oportunidades que presenta el entorno.

85
Fig.60 – Modelo de Epstein (2003). Fuente: Chang y Harrington (2004)

Como indica la figura anterior, el modelo de Epstein (2003) consta una serie de áreas (en el
ejemplo 8 áreas), a través de las cuales pueden llegar oportunidades desde el entorno. Cada
una de estas áreas podrá estar ocupada por un agente trabajador procesador de
oportunidades. En el caso de que una oportunidad llegue a por un área en la cual se encuentra
un agente trabajador (i.e., Mkt #1), éste la interceptará. En caso de no existir un agente
trabajador en esa posición (i.e., Mkt #2), se dice que la oportunidad penetrará, se
desaprovechará. En la figura anterior encontramos áreas en las cuales existen oportunidades y
agentes para interceptarlas (Mkt #1, Mkt #4, Mkt #7), áreas con oportunidades y sin agentes
para interceptarlas (Mkt #2, Mkt #5, Mkt #6), y áreas sin oportunidades y con agentes a la
espera (Mkt #3, Mkt #8). Existe, además, una primera línea de jerarquía, constituida por
agentes manager-1 (cada uno de los cuales supervisa, por un tema de capacidad, dos áreas),
que se ocupan de monitorizar las penetraciones de oportunidades, y a aquellos agentes
infrautilizados en áreas donde no se producen oportunidades. De un simple vistazo a la figura
se puede ver que al manager-1 que cubre las áreas #3 y #4 le sobra un agente trabajador, y
que al manager-1 que supervisa las áreas #1 y #2 le falta uno. Un movimiento lógico sería
mover al agente trabajador del área #3 al área #2. Debido a la visibilidad reducida de los
agentes manager-1 (dos áreas cada uno), y a que el modelo especifica que las reasignaciones
de trabajadores a nuevas áreas únicamente se pueden realizar por agentes de jerarquías
superiores, para realizar esta acción, se precisaría un agente manager-2 (segunda línea de
jerarquía), que monitorizara a los dos manager-1 anteriores, y autorizara la reasignación
agentes trabajadores entre las áreas bajo su influencia (#1, #2, #3, #4). Los niveles jerárquicos,
al igual que son creados si existe necesidad para ello, son, con cierta inercia, disueltos cuando
la necesidad desaparece. Básicamente, de esta forma, para distintos flujos de entrada de
oportunidades, y unos recursos limitados de agentes trabajadores, el modelo, de forma
endógena, va ajustando las distintas capas de jerarquía necesarias para interceptar el máximo
número de oportunidades que presenta el entorno. El artículo de Epstein (2003) presenta otras
posibilidades además de la creación de capas de jerarquía, como por ejemplo mecanismos de
tipo negociación. E indica, que dependiendo del objetivo de la organización, uno u otro tipo
resultará más eficiente. En este caso, simplemente queríamos mostrar un ejemplo de cómo
producir estructura de forma endógena, tipo bottom-up. Para más información consultar
directamente el trabajo de Epstein (2003).

6. Comentarios y futuras direcciones de trabajo en los ABM aplicados a las Organizaciones

Además de lo expuesto en la sección “4.1 Introducción a los Modelos ABM”, especialmente en


sus sub-apartados; “4) Algunas Consecuencias: Explicación vs. Predicción”, y “5) Algunas

86
Conclusiones”, en Chang y Harrington (2004), encontramos una reciente recopilación de las
principales críticas, comentarios, y futuras líneas de trabajo, en la aplicación de los ABM al
campo organizativo. En primer lugar, se destaca la proliferación de trabajos en la última década
al respecto, y las nuevas perspectivas que éstos han abierto a la hora de explorar las múltiples
dimensiones de la organización. A pesar, o precisamente debido a esta proliferación de
trabajos y nuevas perspectivas, se enfatiza en mantener altos nivel de auto-crítica para ser
rigurosos, tanto en el planteamiento y el desarrollo de los modelos y simulaciones, como en la
interpretación y reproducibilidad de los resultados (Axtell, Axelrod, Epstein, Cohen, 1996). Se
resume, a continuación, de forma esquemática, las principales críticas y futuras líneas de
investigación identificadas por Chang y Harrington (2004), para las aplicaciones ABM al área
de la organización:

Algunas críticas a los ABM:

• Relación entre los modelos ABM y sus realidades empíricas: A pesar de que siempre
ha existido, existe, y probablemente existirá, distancia entre ambos dominios, las
aplicaciones ABM al campo organizativo han sido criticadas algunas veces debido a
su excesiva simplificación de la realidad organizativa. Este punto ya fue comentado en
el apartado 4.1.4 a través del debate Explicación vs. Predicción (ver Fig.32). Según el
objetivo del modelo, por tanto, una u otra de las aproximaciones posibles resulta ser la
más adecuada. De todas formas no se debe olvidar nunca la cita de Einstein a este
respecto: “Everything should be as simple as posible, but not simpler”.

• Agentes con racionalidad limitada: El planteamiento de agentes con racionalidad


limitada, especialmente la forma en que es implementado este concepto en las
aplicaciones organizativas ABM, ha sido también criticado alguna vez desde foros
provenientes de los economistas neoclásicos. Su principal argumento al respecto es
que existen muchas formas de modelar dicha racionalidad limitada, y habitualmente, la
forma en que se hace, en las aplicaciones ABM, es hasta cierto punto arbitraría y
dependiente del objetivo de cada modelo (ad hoc).

• Explicación de los resultados del modelo y testeo de las hipótesis de partida: Algunas
veces se ha criticado que los resultados de los modelos, que fundamentalmente toman
la forma de valores, series numéricas, y estadísticas, no son debidamente explicados,
adaptados e interpretados en el contexto organizativo. Una razón de ello, es que, a
medida que la tecnología nos permite aumentar la velocidad de cálculo, tendemos de
forma natural a complicar nuestros modelos. De modo que, la actividad de relacionar
las hipótesis de partida, con los resultados de la simulación, puede resultar una tarea
muy complicada (modelo tipo caja negra), limitando así, tanto la capacidad de
contraste de las hipótesis de partida y su testeo y robustez respecto a los resultados,
como la comprensión real de los resultados y la debida extrapolación de los mismos al
ámbito organizativo, al dominio empírico.

Algunas futuras líneas de trabajo en los ABM:

• Desarrollar mejoras, en las implementaciones de racionalidad limitada de los agentes,


para hacerlas más verosímiles respecto a las realidades empíricas, i.e. con aprendizaje
on-line, ruido e incertidumbre en la información proveniente del entorno, etc... (Gavetti y
Levinthal, 2000)29.

• Darle un mayor grado de estructura a ciertos desarrollos, especialmente en el caso de


modelos tipo búsqueda de estrategias sobre relieves adaptativos (fitness landscape).
Tratar que las variables que hasta ahora representan de forma genérica distintas
dimensiones de la organización, tengan un mayor nivel de estructura, pudiendo
concretar así, de forma más realista, su correspondencia con prácticas organizativas
habituales, o bien permitir explorar, por ejemplo, no sólo el número de dimensiones que
deben gestionarse de forma centralizada-descentralizada, si no también cuáles de ellas
deben ser, y cuál es su referente empírico.

87
• Reproducibilidad de los resultados: Desarrollar metodologías model-to-model (M2M)
que faciliten la comparación y contraste entre modelos (hipótesis de partida, diseño, y
resultados). Y así ser capaces de reproducir y validar resultados obtenidos mediante
desarrollos de otros grupos (Axtell, Axelrod, Epstein, Cohen, 1996).

5. BIBLIOGRAFÍA PRINCIPAL

MODELO NK[C]

Altenberg, L. 1997. NK fitness landscapes, in: Back, T., Fogel, D. Michalewicz, Z. (eds.) The
Handbook of Evolutionary Computation (Oxford University Press).

Auerswald P., Kauffman S., Lobo J., Shell K. 2000. The production recipes approach to
modelling technological innovation: an application to learning-by-doing, Journal of Economic
Dynamics and Control 24, pp. 389-450.

Bak, P. 1997. How Nature Works: the science of self-organized criticality. OUP

Boisot, M., Child, J. 1999. Organizations as Adaptative Systems in Complex Enviroments: The
Case of China. Organization Science, Vol. 10, No. 3, pp. 237-252

Caldart, A.A., and Ricart, J.E. 2003. Setting the Rhythm of Evolution: Managing the Paradox
Between Innovation and Order Through Corporate Strategy. IESE WP. Una version adaptada
de este artículo se publicó en el European Management Review, Spring 2004, Vol.1, No1,
pp.96-104.

Contractor, N., Hyatt, A. & Jones, P. M. 1997. Computational organizational network modeling:
Strategies and an example. Computational and Mathematical Organizational Theory, 4, 285-
300

Derrida, B. and Pomeau, Y. 1986. Random networks of automata: a simple annealed


approximation, Europhys. Lett. 1, pp.45-49

Frenken, K. 2001. Modelling the organisation of innovative activity using the NK-model. Nelson-
and-Winter Conference, Aalborg

Kauffman, S. 1993. The Origins of Order: Self-Organization and Selection in Evolution. Oxford
University Press

Kauffman, S. 1995. At Home in the Universe: The Search for Laws of Self-Organization and
Complexity Investigations. Oxford University Press

Kauffman, S. 2003. Investigaciones. Tusquets Editores, Barcelona [título original: Kauffman, S.


2000. Investigations. Oxford University Press]

Levinthal, D.A. 1997. Adaptation on Rugged Landscapes. Management Science, Vol. 43, No. 7

Marion, R. 1999. The Edge of Organization. SAGE Publications

McCarthy, I.P. 2003. Technology management – a complex adaptive systems approach. Int. J.
Technology Management, Vol. 25, No. 8

McCarthy I. P. and Tan Y. K. 2000. Manufacturing Competitiveness and fitness landscape


theory. Journal of Materials Processing Technology - Special Issue on Agile/Responsive
Manufacturing on a Global Basis, 107/1-3, 347-352

McKelvey, B. 1999 Avoiding Complexity Catastrophe in Coevolutionary Pockets: Strategies for


Rugged Landscapes. Organization Science, Vol. 10 (3)

88
Mitleton-Kelly, E. 2003. Ten Principles of Complexity & Enabling Infrastructures. In Complex
Systems and Evolutionary Perspectives of Organizations: Applications of Complexity Theory to
Organizations, Eve Mitleton-Kelly (ed.), Elsevier

Mitleton-Kelly, E. and Papaefthimiou, M-C. 2000. IT Legacy Project Report prepared for the
EPSRC. LSE Complexity Research Programme

Oliver, D., Roos, J. 1999. From Fitness Landscapes to Knowledge Landscapes. Systemic
Practice and Action Research, Vol. 12.3

Rivkin, J.W. 2000. Imitation of Complex Strategies. Management Science, Vol. 46, No. 6

Valente, M. 2000. Evolutionary Economics and Computer Simulations. A model for the
evolution of markets. PhD thesis, Aalborg University, www.busines.auc.dk/~mv.

Watts, D.J. 1999. Small Worlds: The Dynamics of Networks between Order and Randomness.
Princeton Univ. Press

MODELOS SW Y DERIVADOS

Albert, R., Barabasi, A.-L. 2001. Statistical mechanics of complex networks. Rev Mod Phys, 74,
47–97

Amaral, L. et al. 2000. Classes of behaviour of small-world networks. Proc. Natl. Acad. Sci.
USA, 97, pp. 11149-11152

Barabási, L. and Albert, R. 1999. Emergence of Scaling in Random Networks. Science 286, 509

Barabási, L., Albert, R., Jeong H. 2000. Error and attack tolerance of complex networks. Nature,
406, 378-382

Barabasi, A.-L., 2002. Linked: The New Science of Networks. Perseus

Bollobas, B. 1985. Random Graphs. Academic Press

Buchanan, M. 2002. Nexus: Small Worlds and the Groundbreaking Science of Networks.
Norton

Burt, R.S. 1992. Structural Holes: The Social Structure of Competition. Harvard University Press

Burt, R.S. 1996. The Social Capital and Entrepreneurial Managers. Financial Times 5/10/96

Burt, R.S. 2000. Structural Holes versus Network Closure as Social Capital, chapter in Social
Capital: Theory and Research edited by N. Link, KS Cook and R. Burt. Aldine de Gruyter

Ferrer-Cancho, R., Solé, R.V. 2001. Optimization in complex networks. cond-mat/0111222

Guimerà, R., Danon, L., Díaz-Guilera, A., Giralt, F., Arenas, A. 2002. Self-similar community
structure in organisations. ArXiv:cond-mat/0211498v1

Granovetter, M.S. 1973. The strength of weak ties. American Journal of Sociology, Vol 78 (6)

Newman, M.E.J. 2003. The structure and function of complex networks. SIAM Review 45, 167-
256

Roose, H. 2003. Management of a networkorganisation. Garant Publishers Ltd.

Scott, J. 1998. Social Networks Analysis. A handbook. Sage

89
Shargel, B. Sayama, H., Epstein, I.R., Bar-Yam, Y. 2003. Optimization of Robustness and
Connectivity in Complex Networks. Physical Review Letters, Vol. 90(6)

Solé, R.V., Ferrer-Cancho, R., Montoya, J.M., Valverde, S. 2003. Selection, Tinkering, and
Emergence in Complex Networks. Complexity, Vol.8, No.1

Sole, R.V. 2005. ICREA - Complex Systems Lab; Web page about Networks:
http://complex.upf.es/~ricard/complexnets.html

Strogatz, S.H. 2001. Exploring complex networks. Nature, Vol.410

Valverde, S., Ferrer-Cancho, R., Solé, R.V. 2002. Scale-Free Networks from Optimal Design.
Europhys Lett (in press)

Wasserman, S., Faust, K. 2000. Social Network Analysis. Methods and Applications.
Cambridge University Press.

Watts, D.J., S. H. Strogatz. 1998. Collective dynamics of small world networks. Nature 393,
440-442

Watts, D. J. 2003. Six Degrees: The Science of a Connected Age. Norton

MODELOS ABM

Axelrod, R. 1997b. The Complexity of Cooperation: Agent Based Models of Competition and
Collaboration. Princeton Univ. Press

Axtell, R., Axelrod, R., Epstein, J.M., Cohen, M.D. 1996. Aligning Simulation Models: A Case
Study and Results. Computational and Mathematical Organization Theory, 1

Carley, K.M., Svoboda, D.M. 1996. Modeling Organizational Adaptation as a Simulated


Annealing Process. Sociological Methods & Research, 25

Carley, K.M., Gasser, L., Prietula, M.J. 1998. Simulating organizations. MIT Press.

Casti, J.L. 1997. Would-Be Worlds: How Simulation is Changing the Frontiers of Science. John
Wiley and Sons

Chang, M.H., Harrington, J.E. 2004. Agent Based Models of Organizations. In Tesfatsion, L.
and Judd, K.L. (eds) Handbook of Computational Economics II: Agent Based Computational
Economics, 2004

Conte, R., Hegselmann, R., Terna, P. (eds). 1997. Simulating Social Phenomena. Springer-
Verlag, Lecture Notes in Economics and Mathematical Systems

Contractor, N. 2002. BLANCHE ABM. University of Illinois at Urbana Champaign (USA)

DeCanio, S., Watkins, W. 1998. Information Processing and Organizational Structure. J. Econ.
Behavior and Organization 36, 275

Díaz-Guilera, A., Arenas, A., Cabrales, A., Guimerà, R., Vega-Redondo, F. 2003. Search and
Congestion in Complex Networks. ArXiv: cond-mat/0301124v1

Epstein, J.M., Axtell, R. 1996. Growing artificial societies. Social science from the bottom up.
Washington, D.C.: Brookings Institution Press; Cambridge, Mass.: MIT Press

Epstein, J.M. 2003. Growing Adaptive Organizations: An Agent-Based Computational


Approach. The Santa Fe Institute, Working Paper 03-05-029, February 2003 (forthcoming in

90
Generative Social Science: Studies in Agent-Based Computational Modeling, Princeton, N.J.:
Princeton University Press, 2005)

Gilbert, N., Conte, R. (eds). 1995. Artificial Societies: The Computer simulation of Social Life.
UCL Pres

Gilbert, N., Troitzsch, K.G. 1999. Simulation for the Social Scientist. Open University Press

JASSS, 2005: Journal of Artificial Societies and Social Simulation,


http://jasss.soc.surrey.ac.uk/JASSS.html

Miller, J.H. 1996. Evolving Information Processing Organizations. Carnegie Mellon University,
unpublished manuscript

Miller, J.H. 2001. Evolving Information Processing Organizations. in Dynamics


of Organizations: Computational Modeling and Organization Theories. A. Lomi
and E. R. Larsen, eds., Menlo Park, CA: AAAI Press/The MIT Press, 2001

Resnick, M. 1997. Turtles, termites, and traffic jams. Explorations in massively parallel
microworlds. MIT Press

Tesfatsion, L. 2003. Agent-Based Computacional Economics. ISU Economics Working Paper


No.1

Tesfatsion, L. 2005. Agent Based Computational Economics and Networks Repository:


http://www.econ.iastate.edu/tesfatsi/

Wolfram, S. 1984. Computation Theory of Cellular Automata. Commun. Math. Phys. 96, p. 15-
57

Wolfram, S. 1994. Cellular Automata and Complexity: Collected Papers. Perseus Books Group

Wolfram, S. 2002. A New Kind of Science. Wolfram Media, Inc

91