SERGIO MONSALVE SEMESTRE II DE 2011

1

Clase Magistral #1. JUEGOS DE SUMA CERO Clase Magistral #2. JUEGOS NO-COOPERATIVOS (I) NOClase Magistral #3. JUEGOS NO-COOPERATIVOS (II) NOClase Magistral #4. JUEGOS NO-COOPERATIVOS (III) NOClase Magistral #5. JUEGOS NO-COOPERATIVOS (IV) NOClase Magistral #6. JUEGOS REPETIDOS
Clase Magistral #7. JUEGOS COALICIONALES (I) Clase Magistral #8. JUEGOS COALICIONALES (II)

2

PROGRAMA DEL CURSO (Continuación) Clase Magistral #9. JUEGOS DE NEGOCIACIÓN (I) Clase Magistral #10. JUEGOS DE NEGOCIACIÓN (II) Clase Magistral #11. INFORMACIÓN ASIMÉTRICA (I) Clase Magistral #12. INFORMACIÓN ASIMÉTRICA (II) Clase Magistral #13. JUEGOS EVOLUTIVOS (I) Clase Magistral #14. JUEGOS EVOLUTIVOS (II) Clase Magistral #15. MODELOS DE COMPLEJIDAD
3

JUEGOS COALICIONALES (I)

4

Comienzo esta sesión con una historia aparecida www.lasillavacia.com (Marcela Eslava, U. de los Andes):

en

³En un pueblo costero de pescadores dedicados a recoger langostinos, un visitante foráneo se asombra al ver que los miembros de la comunidad que consumen este producto lo adquieren en el supermercado y a un precio tan alto como el que se paga en el mercado internacional. --¿Por qué no simplemente consumen lo que pescan? Les saldría gratis,-- interroga el visitante al sabio del pueblo. El viejo le explica que los pescadores están reunidos en una cooperativa, que exporta el producto al mercado en el que encuentra el precio más alto. Quien lo quiera comprar en el pueblo debe pagar ese precio, para que no se pierda la oportunidad de vender a ese nivel. -Pero, eso es absurdo-- dice el forastero, jalándose el pelo. ± No tiene ningún sentido que una comunidad que produce algo tan bueno lo tenga que pagar carísimo. Seguro que algunos ni siquiera lo pueden consumir a ese precio. ¡Y teniéndolo tan a la mano!.

5

Los más pobres de cualquier manera escogerían vender el langostino. que son la mayoría. en el mercado donde esté más caro. --Si vendemos el producto afuera. claramente salen ganando si en lugar de repartirnos el producto lo vendemos bien caro. Ellos. así fuera en el pueblo y a malos precios.El anciano sonríe y se da a la tarea de explicarle al forastero lo que los habitantes del pueblo hace rato entendieron. pues no se pueden dar el lujo de comerse la pesca y dejar de percibir los ingresos que les permiten consumir productos más básicos. 6 . podemos repartir los buenos ingresos entre todos.

-. Y ni los ricos ni los pobres podrían hacer la exportación de manera individual. y les toca pagarlo más caro que si nos consumiéramos lo pescado.El visitante se ríe de si mismo. no mirar los lados menos evidentes de la historia! Se alegra de que en el pueblo las decisiones las tomen representantes bien asesorados y elegidos por un mecanismo de voto popular. Pero como igual también compran otras muchas cosas.Los más ricos sí pierden algo con esta estrategia: ellos siempre consumen langostino. ¡Qué fácil dejarse engañar por lo que parecía tan obvio. pues recibir buenos ingresos por la venta cara del langostino al final también los beneficia. Así buscan buenas soluciones que favorecen a la mayoría.´ 7 .

Juegos Cooperativos o Coalicionales 8 .

JUEGOS COALICIONALES (II) 9 .

que obedece tres axiomas: 1.L.v) como una distribución de pagos ( i (v))i N (donde i (v) es el pago recibido por el jugador i N). que requiere que los nombres de los jugadores no tengan ningún rol al determinar sus pagos. El axioma de simetría. sino que éstos sean sensibles únicamente a cómo la función característica responde a la presencia de un jugador en una coalición. 10 . Shapley (1953) definió un valor para un juego coalicional (N.

que exige que la suma total de las asignaciones sobre los jugadores. que especifica cómo los valores de los diferentes juegos deben relacionarse unos con otros. el axioma de simetría requiere que los nombres de los jugadores que son tratados idénticamente por la función característica sean tratados idénticamente por el valor de Shapley. El axioma de eficiencia. es la verdadera fuerza conducente de la unicidad del valor de Shapley sobre el espacio de juegos coalicionales que satisfacen los otros dos axiomas. 2. Este axioma. 11 . sea igual al pago de la gran coalición. El axioma de aditividad. 3.En particular. que exige que el valor de Shapley sea ³aditivo´ entre diferentes juegos.

y n es el cardinal de N De hecho.Shapley demostró que estos pagos están dados por la fórmula i (v)= ™S N [(s-1)!(n-s)!/n!] [v(S)-v(S-i)] que muestra una suma ponderada de las contribuciones marginales del jugador i a todas las subcoaliciones. donde la distribución de coaliciones surge de una forma muy particular: 12 . Shapley (1953) probó que su valor podía ser interpretado como la contribución marginal esperada del jugador i. s es el cardinal de S. Aquí.

considere cualquier coalición S a la que pertenece i. es (s-1)!(n-s)!/n! pues: 13 . allí en el salón. y que todos los n! órdenes de los jugadores en N son igualmente probables. Entonces i (v) es la contribución marginal esperada por el jugador i cuando le corresponde entrar al salón. y notemos que la probabilidad de que el jugador i entre en el salón y encuentre exactamente a los jugadores de S-{i }. Para ver esto.Supongamos que los jugadores entran en un salón en cierto orden.

De las n! permutaciones de N. los jugadores S-i preceden a i. hay (s-1)! órdenes diferentes en los que los primeros s-1 jugadores pueden preceder a i. y (n-s)! órdenes diferentes en los que los restantes n-s jugadores pueden seguir después de i. un útil artificio computacional. 14 . normalmente. Pensar en el valor de Shapley en esta forma es. para un total de (s-1)!(n-s)! permutaciones en las que. precisamente.

000.000 y el segundo comprador en $300.000. esta situación puede modelarse como un juego coalicional. de la siguiente forma: 15 .Consideremos la interacción entre un vendedor potencial y dos compradores potenciales de cierto objeto que el vendedor (que es su actual propietario) valora en $100. el primer comprador valora en $200. Si los jugadores pueden transferir dinero entre ellos sin ningún problema y si son riesgo-neutrales.

v(1.3} v(1)=100.3)=300. v(2)=v(3)=v(2.000.000.2)=200.N={1. 16 . Una colección que contiene al jugador 1 es valorada en el máximo que el objeto en cuestión vale para los miembros de la coalición.000 Esto refleja el hecho de que solo las coaliciones que contienen al vendedor (jugador 1) y al menos a un comprador pueden llevar a cabo transacciones que cambien la riqueza colectiva.3)=v(1.2.3)=0.2. v(1.

000.000 . x+y+z = 300.x x+z • 300.000).000) y del segundo comprador ($300. calculamos el núcleo de esta economía: (x.000 .000.z) (•0 ) está en el núcleo si y solo si: x.z) x • 100.000 Esto corresponde a lo que se esperaría si los compradores compitieran uno con otro en una subasta: el vendedor le vende el objeto al comprador que más lo valora (el segundo comprador 2) a un precio entre la valoración del primer comprador ($200.y.y.000 Y esto nos lleva a que: x• 200.Inicialmente. x+y • 200. z=300. y=0. 17 .

2.Por su parte. el valor de Shapley de este juego lo construimos a través de la tabla siguiente: ¨1 1.2 2.2) v(1.1 v(1) v(1) v(12)-v(2) v(123)-v(23) v(13)-v(3) v(123)-v(23) ¨2 v(12)-v(1) v(123)-v(13) v(2) v(2) v(123)-v(13) v(23)-v(3) ¨3 v(123)-v(1. 1. significa que primero llega 1 al salón. 18 .3 2.1.3)-v(1) v(123)-v(12) v(2.2 3.1.3.3 en la primera columna.1 3.3 1.2. después 2 y luego 3.3)-v(2) v(3) v(3) Aquí. por ejemplo.3.2.

000 200.000 / 6 400.000 300.3.2 3.000 / 6 19 .1.000 0 0 0 0 0 2= ¨3 100.1 1= ¨2 100.2.1.2 2.3 1.3.000 200.000 100.1 3.000 / 6 100.000 0 0 0 3= 100.000 300.000 300.000 100.3 2.000 1¶300.Y así el valor de Shapley de este juego es: ¨1 1.2.

y la función característica V está definida así: V S ( N) V(S) ( X) Aquí. 20 .V. y i es una relación de preferencia del agente i sobre X. V(S) es el conjunto de posibles distribuciones de pagos de los miembros de S .2.«.n} es el conjunto de jugadores.Un juego coalicional sin utilidad trasferible (UNT) es una tripla (N. i ) donde N={1.

Cada juego coalicional UT (N. así: i) X= N ii) Para cada coalición S se tiene que V(S) = {x =(xi) N/ ™i S xi =v(S). i ) .V. y solo si. con xj=0 si j iii) x i y si. xi ” yi .v) se puede ver como un juego coalicional NUT (N. UNT UT N-S } 21 .

3)=300.Ejemplo En el juego de un vendedor y dos compradores v(1)=100.2. x2.x3 ) R3+ / x1+x3=300.3)=0. 0)} V(2) = V(3) = { (0.x3) R3+ / x1+x2+x3= 300.000} V(2.2)=200.000} 22 .3) = {(0.3) = {(x1.000.000 se tiene que: V(1) = {(100. 0)} V(1.3)=v(1.0) } V(1. v(1.000} V(1. v(2)=v(3)=v(2.000 .0.2. 0.3) = {(x1. 0.2) = {(x1 .0.000.x2. 0) R3+ / x1+x2=200. v(1.

000 x2 300.000 300.x3 300.000 x1 23 .000 x1+x2+x3= 300.

i ) .EL NÚCLEO El núcleo de un juego coalicional NTU.V. se tiene que y i x para todo i S. 24 . (N. no existe ninguna coalición S N en la que se puedan alcanzar pagos superiores (en términos de i ) para todos sus miembros que el que le ofrece x. Es decir. está definido por todas las asignaciones x V(N) tales que para ninguna coalición S N y y V(S).

000. x3=300.x2. y3) V(13).y2. Tomemos y = (y1.0) V(12). Entonces notemos que y1”x1 ó y3 ”x3.000. x2=0. 0.2} . por ejemplo.000 ± x1 i)Ilustremos que éstas satisfacen la condición anterior de núcleo para. Tomemos y=(y1.000. la coalición S={1. y1+y3 =300.EJEMPLO En nuestro ejemplo de un vendedor y dos compradores.x3) tales que: x1• 200.3 }. es decir. el núcleo está conformado por todas las triplas (x1. Entonces notemos que y1”x1. ii) También podemos probar con la coalición S={1. 25 .y1+y2=200.es decir.

000 x2 200. x3=300.000 x1 26 . x2=0.000 300.000 ± x1 (Núcleo) x1+x2+x3= 300.000.x3 x1• 200.

Una economía de intercambio (N. y solo si. Para cada agente i N. una función de utilidad U i: continua. un vector de dotación de mercancías i + donde ™i N i > 0. 27 . . ( i ). Ui (x) ” Ui (y) . y estrictamente cuasicóncava. (Ui)) consiste en: Un conjunto finito N de agentes. Para cada agente i N. Cabe aquí mencionar que esto induce inmedia-tamente una relación de preferencia i sobre + así: x i y si. Un entero positivo de bienes. no-decreciente en cada uno de + sus argumentos.

( i ). (Ui) ) como un juego coalicional sin pagos transferibles (N. de la siguiente manera: X = {x=(xi)i N / xi N} + para todo i V(S) = {x=(xi)i N X / ™i S xi = ™i S i xj=wj para todo j .Modelamos una economía de intercambio (N. X . V. . ( i )) . y sólo si. Ui (xi) ” Ui (yi ) 28 . N-S } x iy si.

2}) y dos mercancías ( =2). explicitemos el juego de una economía de intercambio con solo dos agentes (N={1. 2)} V(1. i=1.y) / x+y = 1+ 2} x i y si. 29 . y) / x. entonces.El núcleo de la economía de intercambio será. y sólo si. el núcleo del juego coalicional NTU asociado. Es decir: 2 } X = {(x. Ui (xi) ” Ui (yi ) .2) = {(x. y + V(1) = V(2) = {( 1. Para fijar ideas.2.

y) V(12) tales que para ninguna coalición S N y (z1.z2) tal que z1 1 x.2} no puede existir (z1.El núcleo está definido por todas las asignaciones (x. se tiene que z1 1 x. z2 2 y (Eficiencia Pareto). i) Para S=N={1. 1 30 . ii)Para S={1} debe tenerse entonces que iii) Para S={2} debe tenerse que 2 2 y. x.z2) V(S). 1 V(12). z2 2 y Es decir.

2 2 y Note que la eficiencia paretiana es. el núcleo está conformado por las asignaciones eficientes Pareto (x . 31 . y) tales que: x+y= 1 + 2 1 1 x . al menos . una condición que debe satisfacer una solución de núcleo.En resumen. pues en un óptimo de Pareto podrían venir ³protestas´ individuales aisladas con respecto a que no tienen incentivos para participar en el juego ya que sus utilidad deben ser . apenas.las obtenidas con las dotaciones iniciales.

Ejemplo Supongamos una economía de intercambio con dos agentes (1 y2) y dos mercancías (x y y).3) 1= Vamos a calcularle el núcleo y. U2(x2. vamos a calcularle el conjunto de óptimos de Pareto (que Edgeworth llamaba ³curva de contrato´). primero. (3.y2)=(x2)(y 2) . cuyas funciones de utilidad y dotaciones iniciales son: U1(x1. 32 .1) 2= (1. para ello.y1)=x1(y1)2 .

y1) sujeto a U2(x2.y1) = x1+x2=4 y1+y2=4 2 (fijo) ii) 1 (fijo) 33 .y2)= x1+x2=4 y1+y2=4 Maximizar U2(x2.Existe una forma marginalista de calcularla que consiste en resolver dos problemas: i) Maximizar U1(x1.y2) sujeto a U1(x1.

˜U2/˜x2 ˜U1/˜y1= . obtendremos que: L = U1(x1.Al resolver el primer problema mediante el método lagrangiano. (U2(x2.y1) ± Y así.y2)- 2) ˜U1/˜x1= .˜U2/˜y2 ó ˜U1/˜x1 /˜U1/˜y1 = ˜U2/˜x2 / ˜U2/˜y2 (igualdad de tasas marginales de sustitución) 34 .

y2) en la curva de contrato (óptimos de Pareto) que satifagan: x1(y1)2 • 3 . (x2)(y 2) • 3 35 .y1) y (x2. y1= 8x1 / (4+x1) (Curva de contrato) Finalmente. y1 / 2 x1 = (4-y1 ) / (4-x1) Y así. para encontrar el núcleo de esta economía de intercambio.Y así. obtenemos que (y1)2 / 2x1y1 = y2 / x2 o bien. debemos encontrar aquellos (x1.

y1)=3 y2 x1 Agente 1 36 .y2)=3 Núcleo 1· U1(x1.Caja de Edgeworth x2 y1 y1 = 8x1 / (4+x1) (Curva de contrato) Agente 2 U2(x2.

En una economía de intercambio (N. se tenga que: x*i i xi cuando p*xi = p* i 37 . . (x*i )i N ) donde p* + es un vector de precios (no todos nulos) y la asignación (x*i )i N es tal que ™i N x*i = ™i N i para cada agente i N. (Ui) ) definimos un equilibrio competitivo como un par (p*. ( i ).

en resolver dos problemas: i) Maximizar U1(x1. inicialmente.Calculemos el equilibrio competitivo para la economía de intercambio U1(x1.y1)=x1(y1)2 .y2) sujeto a p1x2+p2 y2= p1+3p2 ii) 38 .1) 2= (1. 1= (3.y1) sujeto a p1x1+p2 y1= 3p1+p2 Maximizar U2(x2.3) La forma marginalista de calcular que consiste. U2(x2.y2)=(x2)(y2) .

Las soluciones a estos dos problemas son: x1 = (3p1+p2 ) /3p1 y1 = 2(3p1+p2 ) /3p2 y x2 = (p1+3p2 ) /2p1 y2 = (p1+3p2 ) /2p2 Y ahora las colocamos para que satisfagan la condición de que su suma sea igual a las dotaciones disponibles en la economía: (3p1+p2 ) /3p1 + (p1+3p2 ) /2p1 = 4 2(3p1+p2 ) /3p2 + (p1+3p2 ) /2p2 = 4
39

Resolviendo la primera ecuación obtenemos que
p*2 / p*1 = 15/11

Y así,
x*1 = 16/11, x*2 = 28/11, y*1= 32/15 y*2 = 28/15

Pero resulta que esta asignación está en el núcleo de la economía porque:

40

i) Está en la curva de contrato
y1= 8x1 / (4+x1)

pues 32 /15 = 8(16 /11) / [4 + (16 /11)].
ii) Y satisface la condición de que x1(y1)2 • 3 ; (x2)(y 2) • 3 pues (16/11) (32/15) 2 = 6.62• 3 (28/11) (28/15) = 4.75 • 3

41

Caja de Edgeworth
x2 y1
y1 = 8x1 / (4+x1) (Curva de contrato)

Agente 2

U2(x2,y2)=3 ·
Núcleo

U1(x1,y1)=3 y2 x1

Agente 1
Equilibrio competitivo

42

Pero esto no es una casualidad, pues, en general:

Todo equilibrio competitivo de una economía de intercambio está en el núcleo.

43

el equilibrio competitivo y el núcleo coinciden (Principio de Equivalencia) . el núcleo no es vacío. y. vamos a ilustrar enseguida basán-donos en nuestro ejemplo. Sobre esto. 44 .Pero la relación va más allá: i) En primer lugar. por lo tanto. toda economía de intercam-bio tiene un equilibrio competitivo (Arrow y Debreu (1954)). en una economía de intercambio con ³muchos´ agentes. ii) En general.

3) 1= en donde los dos primeros y los dos segundos. son idénticos.y2)=(x2)(y2) .Supongamos ahora que nuestra economía de intercambio tiene cuatro (4) agentes: U1(x1.y1)=x1(y1)2 . 45 . U2¶(x2¶.1) 2= (1.1) 1= (3. U2(x2.y2¶)=(x2¶)(y2¶) .y1¶)=x1¶ ( y1¶)2 . A esto se le llama una 2-réplica de la economía original. U1¶ (x1¶. Vamos a observar que algunas asignaciones del núcleo original ya no son del núcleo de la 2-réplica.3) 2= (1. (3.

la coalición formada por 2 agentes tipo 1 y un agente tipo 2. en la 2-réplica. tomemos (ver la figura) la asignación A para el agente 1 que pertenece al núcleo de la economía original y tomemos la asignación B = (1/2) A + (1/2) 1 Entonces. 46 .4)-A .Por ejemplo. podrían mejorar. Y esto haría que A no fuera parte del núcleo de la 2-réplica ya que 2 agentes tipo 1 y un agente tipo 2. y el agente tipo 2 recibe (4. puede mejorar sus pagos con respecto a A: los dos agentes tipo 1 reciben B.

y2)=3 ·E A· Núcleo de la 2-réplica C B· 1· Núcleo U1(x1.y1)=3 y2 x1 Agente 1 47 .La asignación A no está en la 2-réplica 2de la economía x2 y1 Agente 2 y1 = 8x1 / (4+x1) (Curva de contrato) U2(x2.

sin recurrir a ningún concepto de convexidad de las curvas de nivel ni monotonicidad. es el equilibrio competitivo. entre otros. coinciden. En 1962.Lo anterior es una ilustración de que la única asignación del núcleo original que sobrevive a las réplicas. Y la idea central es que el excedente (surplus) que surge en la economía original se puede repartir entre nuevos agentes (similares) de la economía. hasta alcanzar mediante ofertas y contraofertas (ARBITRAJES). el núcleo y el equilibrio competitivo. Aumann probaría que en una economía competitiva con un continuo de agentes. la asignación del equilibrio competitivo (en donde no hay ya surplus alguno). Este es conocido como el ³Principio de Equivalencia´ 48 .

49 . el ³Principio de EquiEquivalencia´ afirma que la institución de los precios de mercado surge naturalmente a partir de fuerzas básicas al interior del mercado.Intuitivamente. sin (casi) importar qué asumamos acer-ca de la forma en que trabajan estas fuerzas.

Ejercicio tipo Cournot del parcial anterior.a) Calcular una asignación del conjunto estable del juego UT de un vendedor y dos compradores. p. libro azul de juegos (Monsalve y Arévalo (eds. 1.211). p.Ejercicios 0. b) En la economía de intercambio estudiada en el curso. Problema de asignación de costos (libro azul de juegos (Monsalve y Arévalo (eds. calcular dos asignaciones numéricas explícitas de núcleo.201) 50 . 4. 2. Discutir Aumann (1962) sobre convexidad.).Ejercicio 6.). 3.

2) 1= a) Calcular el núcleo y dibujarlo en una caja de Edgeworth. 51 .Supongamos una economía de intercambio con dos agentes (1 y 2) y dos mercancías (x y y).y2)=(x2)(y2) .y1)= (x1 )2(y1)2 .1) 2= (1. (2.5. U2(x2. cuyas funciones de utilidad y dotaciones iniciales son: U1(x1. b) Calcular el equilibrio competitivo y mostrar que está en el núcleo.

ii.6. cualquier grupo de m trabajadores puede producir output con valor f(m) donde f(.) es una función cóncava no-decreciente con f(0)=0. 52 . Encontrar el valor de Shapley y contrastarlo con las asignaciones de núcleo. Un juego coalicional que modela esta situación es (N. Demuestre que el núcleo de este juego es el conjunto de todos los perfiles de pagos x=(xi) tales que 0” xi ” f(w)-f(w-1) para i W y ™i N xi =f(w) donde w es el cardinal de W. siendo W el conjunto de los trabajadores y V(S) = 0 f(|S si c no pertenece a S W |) si c pertenece a S i. Un capitalista (notado por c) posee una factoría y cada uno de los w trabajadores solo posee su propia mano de obra. Los trabajadores solos no pueden producir nada. pero junto con el capitalista.v) donde N = {c} U W.

2 3.3 2.2 2.1.3.1 3.3 1.Sugerencia para la parte b) con |N|=3 (el jugador 3 es el capitalista) ¨1 1.3.2.1.1 0 0 0 f(2)-f(1) f(1)-f(0) f(2)-f(1) ¨2 0 f(2)-f(1) 0 0 f(2)-f(1) f(1)-f(0) ¨3 f(2) f(1) f(2) f(1) f(0) f(0) 53 .2.

JUEGOS DE NEGOCIACIÓN (I): NEGOCIACIÓN ESTÁTICA 54 .

TEORÍA DE JUEGOS CLÁSICA JUEGOS NONOCOOPERATIVOS JUEGOS COOPERATIVOS JUEGOS DE NEGOCIACIÓN 55 .

convexo (¿por qué?).d) donde . Además que Ui(d)” Ui(x) (i=1. 56 . que es un conjunto no-vacío.Un juego de negociación (de dos agentes) es un 2 es el conjunto de par ( .u2). inicialmente.d2) se le denomina ³punto de desadesacuerdo´.d) + asignaciones posibles de utilidad (o posibles acuerdos) de los dos jugadores (u1. Al punto d=(d1. compacto (cerrado y acotado).2) para todo x . cuerdo´ Se asume. Un ejemplo típico de un conjunto de negociación es el presentado en la siguiente figura. y comprehensivo (si x y y”x entonces y ).

u2 A la frontera superior de también la llaman la ³curva de contrato´ de la negociación o también ³frontera Pareto´ .d2) u1 Conjunto de negociación típico 57 . d=(d1.

d) un vector (o vectores) de la forma ( .d)= ( 1( . 2( .d)) Es decir.d).¿Qué es una solución de negociación? Es una regla que asigna a cada problema de negociación ( . una asignación en de los dos agentes. para cada uno 58 .

AXIOMAS SOBRE LAS SOLUCIONES DE LOS JUEGOS DE NEGOCIACIÓN 1. AXIOMAS DE EFICIENCIA PARETO u2 Solución eficiente débil · Solución eficiente fuerte · u1 Toda asignación eficiente fuerte también es eficiente débil. 59 .

AXIOMA DE SIMETRÍA u1=u2 Solución simétrica · Si el conjunto de negociación es simétrico con respecto a la recta u1=u2.2. entonces las soluciones de la negociación son iguales para ambos jugadores. 60 .

3. 61 . AXIOMA DE INVARIANZA ESCALAR Solución después de una transformación afín · Solución original · Las soluciones respetan las transformaciones afines.

AXIOMA DE INDEPENDENCIA DE ALTERNATIVAS IRRELEVANTES (IAI) Solución para · El axioma IAI afirma que también es la solución para 62 .4.

simetría. invarianza escalar e independencia de alternativas irrelevantes. 63 . SOLUCIÓN NASH DE NEGOCIACIÓN Es una solución que satisface los axiomas de eficiencia fuerte de Pareto.SOLUCIONES DE LOS JUEGOS DE NEGOCIACIÓN 1.

d2) es el punto de desacuerdo. u2) donde d=(d1. 64 . pues es la solución (u1.Sin embargo. u2) al siguiente problema: Maximizar (u1-d1)(u2-d2) sujeta a (u1 . Nash demostró que esta solución tiene un algoritmo muy particular para hallarla.

u2 Solución Nash de negociación · B(u1.u2) = (u1-d1)(u2-d2) Conjunto de negociación (d1.d2) u1 65 .

u2) = 0 . el problema que debemos resolver para la solución Nash es de la forma Maximizar (u1-d1)(u2-d2) sujeta a H(u1 . Y por lo tanto. una función suave H(u1. u2) = 0 Que nos lleva a la ecuación diferencial ˜H/˜u1 /˜H/˜u2 = (u1-d1) / (u2-d2) Ecuación para soluciones Nash 66 .Cuando la frontera Pareto (o conjunto de negociación) es suave podemos describirla mediante suave.

u2•0 cuya obvia solución es u1=u2= 1/¥2. (d1. Entonces el problema es: Maximizar u1u2 sujeta a (u1)2+(u2)2=1 u1•0. Sean ={(u1.d2)=(0.Ejemplos 1.u2) 2 + / (u1)2+(u2)2=1} .0). 67 .

68 . u2•0 cuya solución es u1= 1/¥6. (d1.2.u2) 2/ + 3(u1)2+(u2)2=1} . Sean ={(u1. u2= 1/¥2.d2)=(0.0) Entonces el problema es: Maximizar u1u2 sujeta a 3(u1)2+(u2)2=1 u1•0.

1/¥2) · · u1 69 . pues el conjunto inicial de acuerdos se contrajo en detrimento del agente 1. 1/¥2) (1/¥2 .u2 La nueva situación de negociación Nash perjudica al agente 1 en relación al agente 2. (1/¥6.

De hecho.0). 70 2 + . Sea 1 el conjunto de todos los (u1. la hipótesis IAI de la solución Nash lleva resultados contra-intuitivos como veremos en el siguiente ejemplo. y 1.u2) tales que 0”u1 ”1 .Pero la situación anterior no siempre ocurre.d2)=(0.(u1 /3) si u1 ”3/4 u2 = 3(1.u1) si u1 • 3/4 y supongamos (d1.

u2) tales que 0”u1 ”1 . 10/7] si u1 =1 2 + En la gráfica de enseguida se muestra que 1 2 pero. aunque el agente 1 mejora su asignación.Sea 2 el conjunto de todos los (u1. 71 . el agente 2 la empeora.(10u1/3) si u1 <1 u2 = [0. y 1.

75.7) 2 1 u1 Este resultado contra-intuitivo es consecuencia del axioma IAI. 0.Solución Nash para 1 u2 1 (0. 72 .75) · 1 2 · Solución Nash para (1. como veremos enseguida. 0.

Más específicamente: 73 . simetría. DE ¿Pero qué es monotonicidad individual ? Es precisamente un axioma que evita situaciones como la que acabamos de presentar. SOLUCIÓN KALAI-SMORODINSKY KALAINEGOCIACIÓN Es una solución que satisface los axiomas de eficiencia débil de Pareto.2. invaindividual rianza escalar y monotonicidad individual.

a2( .d).d).5.d) 74 . AXIOMA DE MONOTONICIDAD INDIVIDUAL Sea ai( .d)” i( .d)=a2( .d) a1( .d) · · a1( .d) la utilidad máxima posible del jugador i en el problema de negociación ( . Si y ai( )=ai ( ) entonces i ( .

o bien. u2) al problema: Maximizar Min {(a2 ±d2)(u1-d1).Kalai y Smorodinsky (1975) demostraron que esta solución tiene un algoritmo muy particular para hallarla.d2) es el punto de desacuerdo. (u1-d1) / ( u2-d2) = (a1±d1) / (a2±d2) 75 . pues es la solución (u1. u2) donde d=(d1. Pero esta complicada fórmula se resuelve en (u1.u2) tal que (a2 ±d2)(u1-d1) = (a1±d1)( u2-d2) . (a1±d1)( u2-d2)} sujeta a (u1 .

d2) u1 a1 u1 O (u1-d1) / ( u2-d2) = (a1±d1) / (a2±d2) 76 .u2 a2 Solución Kalai-Smorodinsky u2 · (d1.

d) O u1 Problema de optimización de la solución KS 77 .d) Solución Kalai-Smorodinsky u2 · (d1.u2 a2( .d2) u1 a1( .

67.618) · · Solución Nash (0. 0.618.57) 1 u1 ={(u1. (d1.u2) + 2/ (u1)+(u2)2=1} .EJEMPLO 1 u2 1 Solución KS (0. 0.0) 78 .d2)=(0.

u1) si u1 ”3/4 si u1 • 3/4 + 2 tales que 0”u1 ”1 .75. 0.75) = Solución KS · 1 Sea 1 u1 el conjunto de todos los (u1.EJEMPLO 2 u2 1 Solución Nash para = (0. y 79 .u2) u2 = 1.(u1 /3) 3(1.

y.es un caso particular de la solución KS. simetría. fuerte. Este axioma es un debilitamiento del de monotonimonotonicidad individual que mencionamos antes. aunque la solución igualitaria no exige el axioma de invarianza escalar. dades. 80 . precisamente en un re-escalamiento de las utilireutilidades. SOLUCIÓN IGUALITARIA DE NEGOCIACIÓN Es una solución que satisface los axiomas de eficiencia débil de Pareto. por ello.3. y monotonicidad individual fuerte.

d)=a2( . AXIOMA DE MONOTONICIDAD INDIVIDUAL FUERTE Sean ( .d)” i( .d) 81 .d) · · a1( .d) a1( . para i=1.5. Si entonces.d) a2( .d) . i ( .d) dos problemas de negociación. ( .2.

(u2-d2)} sujeta a (u1 . u2) u2 Solución igualitaria u2 · (d1. hallar la solución igualitaria de una negociación obliga a resolver el problema de optimización siguiente: Maximizar Min {(u1-d1). efectivamente.d2) u1 u1 82 O .Y.

u2 Solución KS · u2 Solución igualitaria · (d1.d2) u1 u1 83 O Comparación entre la solución KS y la solución igualitaria 83 .

618. 0.u2) + 2/ (u1)+(u2)2=1} .57) 1 u1 ={(u1.0) 84 .618) = Solución igualitaria · · Solución Nash (0.67.EJEMPLO 1 u2 1 Solución KS (0. 0. (d1.d2)=(0.

Para hallar la solución utilitaria de negociación debemos resolver el problema de optimización: Maximizar sujeta a u1 + u2 (u1 .4. SOLUCIÓN UTILITARIA DE NEGOCIACIÓN Es una solución que únicamente satisface los axiomas de eficiencia fuerte de Pareto y simetría.u2) 85 .

d2) u1 u1 86 O Solución utilitaria 86 .u2 Recta u1+u2= constante u2 · Solución utilitaria (d1.

67.EJEMPLO 1 u2 1 Solución KS (0.u2) + 2/ (u1)+(u2)2=1} . (d1. 0.57) Solución utilitaria (0.0) 87 .d2)=(0. 0.618) = Solución igualitaria · · · Solución Nash (0.75 . 0.5) 1 u1 ={(u1.618.

Soluciones de negociación y axiomas normativos Monotonicidad Individual Monotonici dad individual fuerte Eficiencia fuerte Nash KM Igualitaria Utilitaria Eficiencia débil Simetría Invarianza Escalar IAI  Sí Sí Sí  Sí Sí Sí Sí Sí  Sí  Sí Sí  Sí Sí 88 .

Soluciones de negociación y funciones de bienestar Solución de Negociación Función de Bienestar Nash Kalai-Smorodinsky Igualitaria -igualitaria Utilitaria -utilitaria Cobb-Douglas Leontief ampliada Leontief clásica Leontief generalizada Lineal clásica Lineal generalizada 89 .

90 .El Programa Nash ¿Es posible implementar las soluciones de negociación estudiadas. como equiliequilibrios de Nash perfectos en subjuegos de juegos no-cooperativos? noLa respuesta es: ¡Depende! Presentemos un ejemplo.

pero que por razones éticas quieren plegarse a las hipótesis normativas de una repartición ±igualitaria con función de bienestar B(u1. (1/(1+ ) ) u2} para cierto 0< <1 especificado previamente. 91 .u2) = Min{( /(1+ ) )u1.Implementación ±igualitaria Supongamos que dos agentes neutrales al riesgo van a repartirse 1millón de pesos.

u2 • 0 u2= /(1+ ) cuya solución ±igualitaria es: u1 = 1/(1+ ) .Entonces el problema de negociación estática es Maximizar Min{ ( /(1+ ) )u1. u2 1 u2 = u1 · 1 u1 92 . (1/(1+ ) )u2} sujeta a u1 + u2 =1 u1 .

que éste. puede aceptar o rechazar. Si el jugador 2 rechaza la oferta. Suponemos que cada oferta toma un tiempo que hace que la cantidades se deprecien y este parámetro está medido por . a su vez. el que le hará una oferta al jugador 1. 93 . etc.Ahora implementaremos esta solución como un ENPS de un juego extensivo muy particular (Rubinstein (1982): Supongamos que los dos jugadores alternan sus ofertas: primero el jugador 1 realiza una propuesta de repartición del millón de pesos. que el jugador 2 puede aceptar o rechazar. entonces es ahora él.

propiciar que la negociación dure poco). si esta entidad quiere beneficiar al jugador 1 (que va a recibir 1/(1+ ) del millón de pesos).Este puede ser colocado por una entidad centralizada: ³Si se demoran. en lugar de recibir x. Pero si lo que quiere es beneficiar al jugador 2. intentará hacer tender a 1 (es decir. por ejemplo. Así. hacer que la negociación se demore). recibirán x´. 94 . lo mejor que /(1 puede hacer es colocar un pequeño (es decir.

supongamos. primero. 95 . que el número de etapas de negociación es N=4. Para comprender el proceso.Supongamos que este proceso dura un número indefinido de períodos. y que este equilibrio de Nash es la solución ±igualitaria que acabamos de calcular. Veamos que Este juego no-cooperativo de forma extensiva tiene un único ENPS.

4.Si se llegara al cuarto período del juego. Sin embargo. 2A ·1 2R 1A ·2 1R 2A ·1 2R ·2 2 toma todo. la repartición propuesta por el 1 al 2 en el período 3. 4. 4). le hará una oferta al 2 en el período 3.1-x) tal que 2x= 3. es decir. Es decir.+ 2) y los pagos ya descontados serían ( 3. para sí.4 . entendiendo esto.4. le propondrá al jugador 1 una repartición de la forma (x.4. Es decir. sería (1. Pero el 1. al saber esto el jugador 2. en el tercer período. es decir. es decir. en el segundo período le hará una oferta al 1 que lo beneficie a él (al 2) pero que le dé al 1 lo mismo que va a recibir en el período 3.. 3. 1-x) tal que 3(1-x)= 4. el jugador 2 tomará todo. y dejará nada para 1. el jugador 1 aceptaría. 1. la repartición propuesta por el 2 al 1 en el segundo período. Obviamente.2. ) y los pagos ya descontados serían ( 3. 2 . el jugador 2 aceptaría. Obviamente. Así. 4 Fin del juego 96 . es decir.3 + 4). el jugador 1 le propondrá al jugador 2 una repartición de la forma (x. sería ( . que éste no pueda rechazar: ganar lo mismo que en el cuarto período .

Finalmente. sería de ( 3.1-x) tal que (1-x)= 2 . dado que la repartición propuesta por el 2 al 1 en el segundo período. los pagos propuestos por el jugador 1 en el primer período y aceptados por el 2 son ( 2 ·2 4 + 3- 4 . y esto nos lleva a que (1-x)= ± 2 + 3. y que en esas condiciones el jugador 1 aceptaría.4. con utilidad Fin del juego 97 .3 + 4 . 2 - 3 + 4 ) 2 toma todo. 2 . - 2 + 3) 2A ·1 2R Por lo tanto.3 + 4). Es decir. Esta oferta sería una repartición de la forma (x. a una distribución de la forma (1+ 2 2A ·1 2R 1A ·2 1R - 3. éste podría hacerle en el primer período una propuesta al 2 que lo beneficiara a él (al 1) y que le diera al jugador 2 lo mismo que recibiría en el segundo período.

de la forma x1 = 1/(1+ ) . x2= /(1+ ) que es igual a la solución ±igualitaria. - 2 + 3 - 4 +« - N «) Es decir. igualitaria. una repartición de la forma (1+ 2 - 3+« - N-1 « . en la primera etapa.¿Qué sucedería si el número de períodos N ’? Que el jugador 1 propondría. 98 .

Luego despeje x1 en cada ecuación e iguale. Así se obtiene la frontera Pareto. etc. al equilibrio competitivo.) de bienestar social conduciría allí? [Sugerencia Sugerencia: Recurra a la curva de contrato y evalúela en las curvas de utilidad.1. ¿Qué tipo de función (Cobb-Douglas. Indicar. ¿Por qué se llama ³curva de contrato´ a la curva frontera superior de un conjunto de nego-ciación? 2. (*) Construir algebraicamente el conjunto de * negociación para la economía de intercambio presentada en la clase magistral anterior. en esa frontera Pareto.] 99 . Leontief.

100 . c) Evalúe cuál solución ³premia´ más al agente amante al riesgo. p.u2) +2 / (u1) +u2=1} (d1.)). Ejemplo 2 (³Soborno y control del crimen´) del texto guía (Monsalve y Arévalo (eds. b) Grafique. Sean = {(u1. 4.d2)=(0.0) . >1 a) Calcule las cuatro soluciones (Nash. iguali-taria y utilitaria) de este problema. KS.233.3.

es posible implementar una solución KS como una igualitaria? c) Etc. 10 1 . es posible implementar una solución _______________ como una solución ____________ ? En cada uno de los espacios. Por ejemplo: a) ¿Bajo qué condiciones.5. coloque uno de los seis tipos de soluciones que estudiamos en esta clase magistral. si existen. es posible implementar una solución Nash como una KS? b) ¿Bajo qué condiciones. si existen. si existen. Bajo qué condiciones.

Suponga que dos agentes B y D pueden intercambiar manzanas por naranjas. ¿Se podrá implementar con una función KS? 9. 7.6. B tiene dos manzanas y no tiene naranjas. 8. pero lo deben hacer en cantidades enteras. y D tiene dos naranjas y ninguna manzana.u2)=(u1)(u2) ]. Sus cantidades y utilidades están regidas por la siguiente tabla: 10 2 . Lo mismo que en el ejercicio anterior pero ahora implementando con una función utilitaria generalizada. Implemente el equilibrio ENPS del modelo de Rubinstein como una solución Nash genera-lizada [Sugerencia: Optimice la función Cobb-Douglas B(u1.

como un juego de negociación y halle las soluciones Nash y KS. 10 3 .Manzanas 0 1 0 2 0 1 1 2 2 Naranjas 0 0 1 0 2 1 2 1 2 Utilidad de B 0 4 6 10 12 14 20 16 21 Utilidad de D 5 10 8 11 15 25 36 35 37 Describa la situación que enfrentan B y D.

En el Teorema de Imposibilidad de Arrow se afirma que no existe ninguna función de bienestar social. pero en esta clase hemos estudiado algunas. ¿Por qué este dilema? 10 4 .10.

JUEGOS DE NEGOCIACIÓN (II): NEGOCIACIÓN CON AGENDA 105 .

JUEGOS CON INFORMACIÓN ASIMÉTRICA (I) 106 .

en políticas de dividendos. 107 . Y también en problemas específicos como en subastas. Y este problema está en el corazón del análisis económico en la organización industrial. en estructuración de capital. la economía pública. etc. en educación. en seguros. en publicidad. y en muchos otros.Los problemas que surgen en presencia de información privada no-verificable ha sido de interés central para los economistas durante las últimas décadas pasadas.

Y aunque el problema de información privada noverificable es inherente a las limitaciones y posibilidades humanas.930 a. la verdadera madre le dijo a la otra mujer que. a juicio de Salomón. entonces ordenaría matar al niño. era suficiente para asegurar que la primera mujer era la verdadera madre.C. arguyendo cada una que era la verdadera madre. se llevara ella el niño. La historia es la de dos mujeres disputándose la custodia de un niño. A esto.C. Esto. La Biblia ³lo considera el hombre más sabio que existió en la Tierra´.). uno de los más interesantes ejemplos aparece en uno de los juicios del Rey Salomón de Israel (reinó en 970 a. 108 . a lo que el rey Salomón les dijo que si no se revelaba la verdadera madre.. mejor.

un agente puede no conocer las estrategias o los pagos de alguno de sus oponentes. 109 . (ui )] tiene información asimétrica (o incompleta) si el juego no es conocimiento común de los jugadores. Por ejemplo. Harsanyi (1967) encuentra una forma de aproximarnos a este problema sin abandonar la metodología de la teoría de juegos clásica. (Ci). inclusive. Sin embargo. puedo no saber con seguridad de la existencia de alguno de sus oponentes.Un juego en forma estratégica =[N. O.

En lo que sigue.La idea es resumir toda la información incompleta en dos elementos: a) La noción de tipo de jugador (es decir. 110 . nos concentraremos solo en la información asimétrica de los pagos. de las funciones de utilidad de los jugadores. es decir. cada jugador puede ser de varios tipos). b) Una distribución a priori de probabilidades sobre qué tipo de jugador se está enfrentando. Antes de presentar la definición veamos un ejemplo de un juego con información asimétrica.

aún después de haber expirado las patentes (Kodak. 111 . cuya posición monopolística inicial posiblemente tuvo su origen en alguna innovación o patente tecnológica.Ejemplo #1: Barreras a la entrada Muchas empresas. IBM. al menos durante un tiempo. Polaroid). consiguen conservar su posición domi-nante.

Los tres casos típicos de barreras a la entra-da son: i) Fijación depredadora de los precios: bajar los precios radicalmente (inclusive por debajo del costo de producción de la nueva empresa) para que las empresas competidoras no obtengan beneficios de la entrada. 11 2 . acaben quebrando. o que. ii) Exceso de capacidad: Construir instalaciones productivas mayores de lo que es necesario. como señal de que la empresa ya existente está dispuesta a una feroz competencia de precios y que puede hacerlo. si han entra-do.

al cobrar un precio inferior al monopolístico que haga que el volumen de ventas aumente y se vea como un negocio ³próspero´) y que. éste puede tratar de engañarlo haciendo pensar al potencial competidor de que sus costos son bajos (por ejemplo. 113 . por tanto. pero quizás no de los costos de producción del monopolista.iii) Fijación de precio límite: Una empresa que esté considerando la posibilidad de entrar al mercado de un monopolista. podría ser rentable entrar en el mercado. el competidor notará que ello no era así. sabe qué precio se cobra en el mercado y tiene una idea exacta de cuáles son sus propios costos de producción. Pero luego de entrar. A tal precio inferior al monopolístico se le conoce como ³precio límite´. Así. y acabaría quebrando.

Ejemplo #1: Barreras a la entrada Un monopolista tiene un potencial competidor que está intentando entrar a su mercado. pero el competidor potencial podría no saber con seguridad cuál de los dos tipos de costos realmente va a enfrentar el monopolista. Si lo hiciera. es que el monopolista amenace con ampliar su capacidad instalada de producción creando el rumor de que va a construir una nueva planta. 114 . el monopolista sabe en qué costos estaría obligado a incurrir (altos o bajos). Una de las estrategias típicas para impedir su entrada.

0 2. cuando el competidor decide no entrar.0 E C NC 2. Costo alto C= Construir.-1 3.2 NE 2. la creencia de que si le han amenazado entrar a competir a pesar de los altos costos. Por ejemplo. E= Entrar . el monopolista de costo bajo reciba menos que el costo alto.0 5.2 NE 4.-1 3.0 Una razón externa lleva a que. Costo bajo NC= No Construir NE= No Entrar 115 . en este caso. aumenta la valoración del negocio monopolista.Los pagos que reciben ambos jugadores en situaciones de costo alto y costo bajo son las siguientes: Potencial competidor Potencial competidor Monopolista Monopolista E C NC 0.

0 Costo alto Costo bajo 116 . Sin embargo. Y esto también lo sabe el potencial competidor. entre o no entre a competir.0 E C NC 2.0 5.0 2. esta decisión dependerá de la probabilidad de que el competidor potencial.Observemos que cuando el costo es alto. Es decir. cuando los costos son bajos. Potencial competidor Potencial competidor Monopolista Monopolista E C NC 0. el monopolista sabe que es mejor no construir cuando los costos son altos.-1 3.2 NE 4. la estrategia NC del monopolista domina a la estrategia C.-1 3.2 NE 2.

2 NE 4.-1 3.0 E C NC 2. y sólo si.-1 3. Potencial competidor Potencial competidor (q) Monopolista Monopolista E C NC 0.Sea entonces q la probabilidad de que el competidor entre al mercado cuando los costos son bajos. q< 2/3 2/3. Entonces el monopolista escogerá construir (C) si y sólo si 2q +4(1-q) >3q + 2(1-q) Es decir.0 Costo alto Costo bajo 117 .0 5.2 NE 2. si.0 2.

De esta manera. 2. entonces cons-truirá la nueva planta solo si la probabilidad de que el competidor entre al mercado sea menor que 2/3. Pero si enfrenta costos bajos. 118 . Si tiene que enfrentar costos altos. no cons-truirá la nueva planta. que la probabilidad de que entren a competir no sea demasiado alta. es decir. ya se sabe cómo se comportará el monopolista: 1.

0 2.0 Monopolista E NE (q) E C NC 2.0 5.-1 3.2 NE 4.0 119 Costo alto (p1) Costo bajo .2 2. el competidor entrará al mercado si. Entonces.-1 3. y sólo si: p1( valor esperado si entra cuando el costo es alto) + (1-p1 )( valor esperado si entra cuando el costo es bajo) • p1( valor esperado si no entra cuando el costo es alto) + (1-p1 )( valor esperado si no entra cuando el costo es bajo) Potencial competidor Potencial competidor Monopolista C NC 0. Asumamos que se sabe (es conocimiento común) que el monopolista tiene costos altos con probabilidad objetiva p1.¿Y cómo se comportará el competidor potencial? Aquí es donde aparece la distribución sobre los ³tipos´ de mono-polista: costos altos y costos bajos.

De esta manera: ` ` Valor esperado si entra cuando el costo es alto= 2 Valor esperado si no entra cuando el costo es alto=0 Y para determinar los otros dos valores esperados (Valor esperado si entra cuando el costo es bajo y Valor esperado si no entra cuando el costo es bajo) se requiere de una nueva probabilidad: 120 . en este caso entrará al mercado.Pero el competidor potencial sabe que. por dominancia. por tanto. el monopolista no construirá (NC) una nueva planta si el costo es alto y.

p= probabilidad de que el monopolista construya cuando los costos son bajos. 121 .2 Costo alto (p1) Costo bajo Valor esperado si el competidor entra cuando el costo es bajo= (-1)p + 2(1-p)= 2-3p.0 NE 4.0 (p) C NC 2.0 2.2 NE 2.-1 3.-1 3.0 5. Valor esperado si el competidor no entra cuando el costo es bajo = (0)p + 0(1-p)=0. Potencial competidor Potencial competidor (q) E Monopolista Monopolista E C NC 0.

y solo si. 2p1+(1-p1)(2-3p) • 0p1 + 0(1-p1) Es decir.Así. puesto que el competidor entrará al mercado si. y sólo si: p1( valor esperado si entra cuando el costo es alto) + (1-p1 )( valor esperado si entra cuando el costo es bajo) • p1( valor esperado si no entra cuando el costo es alto) + (1-p1 )( valor esperado si no entra cuando el costo es bajo) Entonces. y solo si. si. si. p ” 2 /3(1-p1) 122 . entrará al mercado.

que la probabilidad de que entren a competir no sea demasiado alta. entonces construirá la nueva planta solo si la probabilidad (q) de que el competidor entre al mercado sea menor que 2/3. ya se sabe cómo se comportarán el monopolista y el competidor potencial: 1. es decir. es menor o igual a (2/3)(1/(1-p1)). no construirá la nueva planta. El monopolista: a) Si tiene que enfrentar costos altos. b) Pero si enfrenta costos bajos. El competidor potencial: Entrará al mercado si la probabilidad (p) de que el monopolista construya la nueva planta cuando los costos son bajos.De esta manera. 2. 123 .

Toda la anterior información es conocimiento común por parte de los dos jugadores. y q sea óptima dada p. entonces: ¿Qué podría ser un equilibrio de Nash en esta nueva situación? No podría ser nada distinto a un comportamiento de expectativas auto-satisfechas. teniendo fija la probabilidad objetiva p1. La pregunta ahora es. es decir. 124 . encontrar unas creencias (p. que llamaremos aquí equilibrio de Nash bayesiano.q) tales que p sea óptima dada q.

ii) iii) Como vemos. puede ser que esta información privada del monopolista no prevenga al competidor de entrar al mercado. p1<1/3) El monopolista construye (sin importar los costos) y el competidor no entra en el mercado. q=1) El monopolista no construye (sin importar los costos) y el competidor entrará al mercado. 125 . Existe un tercer equilibrio mixto (ejercicio).Así. (p=1. tenemos estos dos equilibrios de Nash bayesianos en estrategias puras: i) (p=0. q=0. si es relativamente baja la probabilidad de que los costos sean altos.

2) participan en una subasta.Ejemplo #2: Las subastas como un juego con información asimétrica: El caso de sobre asimétrica: cerrado de primer precio Dos agentes (i=1. Los agentes entregan sus ofertas simultáneamente (o sin que ninguno se entere de la oferta del otro). El agente que tenga la mejor oferta se lleva el objeto y paga la cantidad ofrecida. Ambos agentes son neutrales al riesgo. se lanza una moneda al aire. 126 . Si hay empate.

2.Cada agente tiene una valoración vi [0.bj| vi)= 0 si bi < bj (vi-bi)/2 si bi = bj 127 .1] del bien y únicamente sabe su propia valoración. cada uno solo sabe que está uniformemente distribuida en el intervalo [0. es vi ± bi si bi >bj ui (bi.1]. Sobre las valoraciones vj del otro agente. lo que significa que Prob (vj ” x)=x La función de pagos del agente i=1.

128 . Vamos ahora a probar que existe un equilibrio simétrico y lineal. bi(v)=bj (v)= v para algún >0.Si cada agente j=1.2 tiene una función de oferta (puja) bj(vj) entonces la mejor respuesta del agente i estará definida por el problema de maximizar el pago esperado E(ui )= (vi-bi)Prob(bi>b j(vj )) + (0)Prob(bi <bj (vj)) + (1/2)(vi-bi)Prob(bi =bj (vj)) = (vi-bi)Prob(bi>bj(vj)) con respecto a bi. Es decir.

E(ui ) = (vi-bi)Prob( bi>bj(vj) ) = (vi-bi) Prob( bi> vi ) = (vi-bi) Prob( vi< bi / ) = (vi-bi) (bi / ) Derivando esta función cóncava estricta con respecto a bi obtenemos que: (vi-bi) .(bi ) = 0 bi = vi /2 Equilibrio simétrico 129 .

la oferta es bi = vi (1 .1/N) Equilibrio simétrico 130 .En el caso general con N jugadores.

second-best) 131 . adversa´ y ³riesgo moral´. así. el precio deja de ser una señal perfecta del valor de un bien. en el que uno de los agentes no puede observar una característica inalterable del bien que se comercia. modelos de mercado. a) Los de selección adversa son. en general (aunque no exclusivamente). además. puesto que a un mismo precio se pueden obtener bienes de diferente calidad. puede dar origen a eliminación de buenos productos o incluso a la ausencia de intercambio. y.Ejemplo #3: Selección adversa y riesgo moral Dos de los tipos de información asimétrica que más se estudian en la literatura son los de ³selección selección riesgo moral´. en donde los equilibrios no son óptimos de Pareto (second-best).

estudiaremos en la próxima sesión magistral. Sobre problemas de riesgo moral. En general. donde el principal es el individuo que ordena al agente efectuar una tarea estipulada en un con-trato. se estructura a través de modelos principal-agente principal-agente. 132 . El problema del principal reside en encontrar un incentivo para que el agente actúe de acuerdo con su interés).b) Por su parte los problemas de riesgo moral: son moral: los que implican una acción (o información) oculta. a la vez. pero que. enfrenta un problema de riesgo moral cuando observa de manera imperfecta la acción emprendida por el agente (acción oculta). Este es el origen de la teoría de contratos que es una sub-área de la teoría de diseño de mecanismos. mecanismos.

Un ejemplo sencillo de selección adversa: el mercado de carros usados
Consideremos un muy simple modelo de carros usados en que todos los compradores son idénticos y obtienen de su compra una utilidad U=Q-P (diferencia entre calidad y precio), y los vendedores una utilidad V=P-Q (diferencia entre precio y calidad). La mitad de los automóviles es de buena calidad (Q=20) y la otra mitad es de mala calidad (Q=10). Con información simétrica, los buenos carros serían comprados por 20 y los de mala calidad por 10.

133

Con información asimétrica (es decir, los compradores no conocen la calidad, sólo la información de que la mitad es buena y la otra mitad es mala, además de los niveles de Q, en cada caso), la utilidad esperada de un comprador al pagar un precio P es de

0.5(10-P)+0.5(20-P) = 15-P
y a este nivel de utilidad, los compradores no pagarán más de 10 por automóvil, y el vendedor, que sabe esto, solo ofrecerá carros de mala calidad; es decir, los carros de buena calidad son excluidos del mercado. ¡La selección adversa corresponde a un efecto perverso que eliminó el producto de buena calidad!

134

Otro ejemplo de selección adversa: el mercado de carros usados (II) (Akerlof (Akerlof (1970))
Consideremos un mercado de carros usados en el que, como antes, los propietarios tienen completa información sobre el estado del carro, pero no los compradores potenciales. Supongamos que es posible indexar la calidad de un carro usado mediante un número q, que es distribuido uniformemente sobre el intervalo [0,1], siendo entonces 1/2 la calidad promedio de los carros usados en el mercado.
135

Supongamos que hay un gran número de personas que están dispuestos a pagar qm por un carro (donde 0< <2 y qm es la calidad promedio), y que hay una gran cantidad de vendedores que están dispuestos a vender un carro de calidad q por un precio de q. Así, si la calidad fuera observable, cada carro de calidad q se vendería a algún precio entre qm y qm. ¿Cuál es el precio de equilibrio de los carros? Vamos a mostrar que es p=0.

136

En efecto; supongamos que un p>0 es el precio de equilibrio; entonces los únicos propietarios que querrán ofrecer sus carros para la venta son los de calidad menor que p, y la calidad promedio será q=p/2. Así, un comprador estará dispuesto a pagar (p/2) = ( /2)p. Pero como este es menor que p, no puede ser que p sea equilibrio. Por lo tanto, no se venderá ningún carro al precio p, y el único posible precio de equilibrio será p=0. A este precio no habrá ningún movimiento en el mercado. ¡Este es un ejemplo (muy) simple en el que la información asimétrica destruye un mercado!
137

P(T|M2)P(M2) P(M2| T)= P(T|M2)P(M2) + P(T|M1)P(M1) (1/4)(1/2) = (1/4)(1/2) + (3/4)(1/2) =1/4 138 .Por su parte. por la regla de Bayes. (en el que Fila jugó T ). la probabilidad (posterior) de que la verdadera matriz sea M2 es. después del primer período.

El ³juego esperado´ después de T en el primer período es: L C 1 -1 R 1 1 (¾)M1 + (¼)M2: T B 3 3 en el que jugar T le garantiza a Fila un pago de1 (pues columna jugaría C). 139 .

140 . (en el que Fila jugó B). la estrategia le garantiza al jugador fila un pago de 1.b) Después del primer período. por la regla de Bayes. la probabilidad (posterior) de que la verdadera matriz sea M2 es. P(M2|T)=1/4 y P(M2|B)=3/4 y el ³juego esperado´ le garantizaría también un pago de 1. Por lo tanto. que es mayor que revelar completamente la información o conciliándola con la del jugador Columna.

141 . y supongamos que M1 se escoge con probabilidad p.Pero ¿Cuándo ocurre cada caso? La respuesta general está en el siguiente magnífico resultado: Sean M1 y M2 dos juegos de suma cero de dos personas (ambas matrices de la misma medi-da). Sea G(p) pM1+(1-p)M2 el juego promedio y G*(p) el juego repetido en donde el jugador Fila sabe cuál matriz se escoge pero eso mismo no lo sabe el jugador Columna. y M2 con probabilidad 1-p.

Aumann y Maschler (1966) probaron que: La función (dependiendo de p) de valores minmax del juego repetido G* es igual a la convexificación de la función de valores minimax del juego G.Entonces. Minmax de G Minmax de G* p G G* p Ejemplo juego 3 142 .

Gráficamente. expliquemos este resultado: Minmax de G Minmax de G* 1 1 · ½ a priori 1 p 1/4 ½ a priori 3/4 1 p a posteriori Pago por revelación parcial de la información · Pago por revelación completa de la información p Pago por revelación completa de la información Pago si ignora su información 143 .

R) o (T.L). 1/2 2. 3/4 0. b.(Más información puede ser peor) L T B 1.M).0 0.3 R 1.3 T B L 1.0 R 1. El único equilibrio de Nash es (T. El único equilibrio de Nash es (B.0 0. 3/4 0.2 C 1.0 M1 (Probabilidad=1/2 para ambos jugadores) M2 (Probabilidad=1/2 para ambos jugadores) a. Supongamos que Columna supo cuál juego se va a jugar. 2 C 1. En ambos casos el pago de Columna es ¾: hubiera preferido ³no saber tanto´. 144 . 1/2 2. Fila y Columna obtienen 2.

Harsanyi probó que: Los equilibrios de Nash bayesianos de un juego al que se le ha perturbado ³un poco´ la información simétrica (para convertirlo en un juego con información asimétrica). 145 . simétrica.Equilibrios bayesianos y Equilibrios de Nash mixtos En 1973. coincidirán con los equilibrios de Nash mixtos del juego con información simétrica. tienen la característica de que a medida que va desapareciendo esa perturbación.

recíprocamente. z2 L Prob. t2 t2 R t1. pero no el del jugador 2 (t2). y es un número ³pequeño´. 146 .Consideremos el juego siguiente con un poco de información perturbada. 3 donde t1 y t2 son variables aleatorias uniformes iid sobre [0. -1 -1. tomado de Myerson (1991): Prob. La tabla de arriba sí es conocimiento común y también la distribución de los tipos. z1 T B t1. el jugador 2 conoce su tipo t2 pero no el del jugador 1 (t1).1]. Y. El jugador 1 conoce su tipo t1. 1.

-1 -1. z2= 1/2 14 7 .Notemos primero que si =0 entonces el juego es uno con información simétrica: Prob. z1 T B 0. 0 1. z2 L Prob. 3 y tiene un único equilibrio de Nash (mixto) z1=3/4. 0 R 0.

z1)( t2)> z1 (-1) + (1-z1 )(3) Es decir. si. z1 T B t1. y solo si.z2)( t1)> z2 (1) + (1-z2 )(-1) Es decir. 1. z2( t1) + (1. y solo si. t2 t2 R t1. z2 L Prob. el jugador 2 escoge L en lugar de R si y solo si z1( t2) + (1.Y ahora vamos a calcular el (único) equilibrio bayesiano del juego perturbado: Prob. -1 -1. sii t2 > (3 -4z1)/ 148 . 3 i) El jugador 1 escoge T en lugar de B si. t1 > (2 z2 ± 1)/ ii) Por su parte.

(4.Como t1 y t2 son uniformes iid.(3-4 z1)/ Y resolviendo simultáneamente para z1 y z2 obtenemos que: z1= 1 .(2 z2 ± 1)/ z2= Probabilidad de que el jugador 2 escoja L = 1.( +2)/( 2 +8) z2 = 1 .)/( 2 +8) Que son las probabilidades asignadas en el equilibrio de Nash bayesiano: 149 . entonces: z1= Probabilidad de que el jugador 1 escoja T = 1.

alcanzamos el equilibrio de Nash mixto del juego con información simétrica.)/( 2 +8) Note que si 0.)/( 2 +8) si t2< (4.T J1(t1)= B si t1> ( +2)/( si t1< ( +2)/( 2 +8) +8) 2 L J2(t2)= R si t2> (4. 150 .

151 . Myerson probó un simple pero profundo y útil resultado: Todo equilibrio de Nash bayesiano de un juego con información asimétrica puede implementarse como un equilibrio del mismo juego bayesiano pero en el que las estrategias de los jugadores son los mismos tipos y en el que cada uno de ellos revela su verdadero tipo.El Principio de Revelación En 1979.

Más adelante daremos una interesante aplicación del Principio de Revelación. se llama un mecanismo (juego) con compatibilidad de incentivos. como un mecanismo (juego) directo. 152 .Un juego bayesiano en el que las estrategias de los jugadores coincide con sus tipos se conoce directo. incentivos. Y un juego bayesiano en el que revelar su propio tipo conforma un equilibrio bayesiano.

Riesgo Moral Aunque este término proviene de la teoría de los seguros de vida. con respecto a los efectos adversos que la compañía de seguros puede tener sobre los contratos que firma con sus asegurados. Un caso importante. es el de un asegurado contra incendios que decide quemar su casa para reclamar el seguro. el riesgo moral es asociado con la existencia de acciones escondidas (³hidden actions´) en una relación contractual. En general. 153 . Veamos un ejemplo muy importante donde aparece el riesgo moral: la discriminación de precios. el término fue acuñado por Arrow (1971) en ³Essays in the Theory of Risk-bearing´. aunque extremo.

Por ello. normalmente.UNA APLICACIÓN: RIESGO MORAL Y PRINCIPIO DE REVELACIÓN EN LA DISCRIMINACIÓN DE PRECIOS ³Discriminar precios´ significa cobrar precios distintos a cada cliente o a cada mercado. Ejemplos de ello. 154 . son. son las líneas aéreas que tienen el monopolio de una determinada ruta: pueden cobrarle una tarifa más alta a los clientes que viajan por negocios (pues éstos no tienen más remedio que viajar) que a los que van de vacaciones (pues estos pueden tener otras alternativas). los vuelos de temprano en la mañana y a horas altas en la tarde de días regulares. el monopolista obtiene más beneficios que si cobrara un único precio en el mercado. los más costosos. Con estas prácticas.

Y esto da origen a los intermediarios que compran en un país y venden en el otro. En la gráfica se observan dos curvas de demanda distintas y.Otro ejemplo de esto es el monopolista que vende el mismo producto en dos países diferentes. cobra distintos precios en estos países. p2 Oportunidad para intermediarios ‡ p1 ‡ p1 155 . por lo tanto.

Aquí se incluyen negociaciones (y regateos) sobre el precio del bien. Por ejemplo. Discriminación de segundo grado (o colocación de precios nolineales (nonlinear pricing). Un médico rural es un caso típico. etc. promociones tipo ³Martes del Descuento para los que cumplan años´. que consiste en aplicarle distintos precios a distintos compradores. Por ejemplo. compras en grandes cantidades.C. la factura telefónica.El economista británico A. ³Happy Hour´. Discriminación de tercer grado. el aperitivo es gratis para mayores de 60 años´. que consiste en aplicarle al comprador un precio diferente dependiendo del número de unidades que compre. 156 . que consiste en aplicarle al comprador el máximo precio que esté dispuesto a pagar por unidad del bien. ³Los viernes. Pigou (1920) clasificó este fenó-meno en tres tipos: Discriminación de primer grado.

Un ejemplo sencillo de discriminación de tercer grado con información simétrica Un vendedor monopolista tiene dos tipos de compradores. Y=y1+y2. p2= 1-2y2.4y1-y2= 0. tipo 1 y tipo 2. derivando con respecto a y1 y y2 e igualando a cero: 1. obtenemos que: y*2= 2/22. . Entonces el vendedor maximizará su beneficio = p1 y 1 +p2 y 2 ± (y1+y2)2 = (2-3y1)y1 + (1-2y2)y2 ±(y1+y2)2 y obtendrá. p*2= 18/22 157 . 1-6y2-2y1=0 Resolviendo simultáneamente. Las curvas de demanda correspondientes son p1= 2-3y1. y*1=5/22 y así p*1= 29/22 . y la función de costos es C(Y)= Y2 .

158 . En efecto. Pero«¿por qué? La clave está en las elasticidades-precio de la demanda.Por lo tanto. al tipo de comprador que sea ³menos sensible´ a un cambio de precios. la elasticidad-precio de la demanda del tipo 1 es . lo que es lo mismo.29/15 y la elasticidad-precio de la demanda del tipo 2 es -[p2/(1-p2)] = .[p1/ (2-p1)] = . es decir.9/2 El beneficio que obtiene el monopolista es *= p1 y 1 +p2y 2 ± (y1+y2)2 = 0. le cobra menos al comprador de primer tipo que al de segundo tipo. Le cobrará más al que tenga menor elasticidad (en valor absoluto) o.2973.

5p/6]2 Derivando con respecto a p e igualando a cero. el beneficio será mayor si el monopolista discrimina ( =0. 159 .223. Es decir.Si el monopolista no discrimina. obtenemos que: p*= 22. entonces el problema será Maximizar p Y(p) ± Y 2(p) donde Y= y1(p) + y2(p). Así.223).2973) que si no discrimina ( =0.Y 2= 0.318 Y el beneficio será = p Y . Y* = y1 + y2 = 0.4 / 22 . Maximizar p[ 7/6 ± 5p/6] .[7/6 .

El monopolista solo sabe que = b con probabilidad p. con V(0)=0. y = a con probabilidad 1-p donde a> b. pero es información privada del consumidor. V¶>0. V¶¶<0 y T es la transferencia del consumidor al monopolista.T donde V(q) es su excedente bruto. El consumidor recibe U0 = V(q) .Discriminación de precios con información asimétrica Un monopolista produce un bien a un costo marginal de y vende una cantidad de este bien a un consumidor. V es conocimiento común. 160 .

Entonces el consumidor puede elegir entre aceptar el mecanismo.El juego procede como sigue: El vendedor ofrece una tarifa (quizás no-lineal) T(q) (con T(0)=0) que especifica cuánto pagaría el consumidor si escoge consumir q. cobrándole una tarifa T= V(q) y maximizando su utilidad u0= T-cq). escoger el consumo q y pagar T(q) o bien rechazar el mecanismo. 161 . En primer lugar. ¿qué sucedería si el monopolista conociera el verdadero valor de ? Le ofrecería una cantidad q de tal forma que V (q)=c ( es decir.

Entonces el beneficio esperado del monopolista será E(u0)= p(Tb ±cqb) + (1-p)(Ta ±cqa) 162 . el monopolista ofrecerá un plan diferente dependiendo del tipo de consumidor (de alta o baja valoración del bien).Tb) el plan destinado al consumidor de tipo b .Ta) el plan destinado al consumidor de tipo a. y (qa.Pero bajo información asimétrica la situación es distinta. Así. sea (qb . En este caso.

que indican los incentivos de éste a participar en el juego. Estas son: V(qb)-Tb•0 a V(qa)-Ta•0 b V(q b)-Tb • b V(qa)-Ta a V(qa)-Ta • a V(qb)-Tb b (RI 1) (RI 2) (CI 1) (CI 2) 163 .sujeta a restricciones de ³racionalidad individualidad´ (RI) por parte del consumidor. que obligan al consumidor a consumir lo indicado para su tipo. y restricciones de ³compatibilidad de incentivos´ (CI).

con respecto a qa y qb .Con algo de trabajo (ejercicio) se muestra que. bajo nuestras hipótesis.aV(q b) + bV(qb)-cqa) 164 . la expresión E(u0)= = p(Tb ±cqb) + (1-p)(Ta ±cqa) = p( b V(qb)-cqb)+(1-p)( aV(qa). este problema del monopolista se reduce a Maximizar E(u0)= p(Tb ±cqb) + (1-p)(Ta ±cqa) sujeta a b a V(q b)-Tb•0 V(q a)-Ta • a (RI 1) V(q b)-Tb (CI 2) Lo que nos lleva a maximizar.

Para obtener (asumiendo V¶(0)=0 y (1-p) < b/ (1que el equilibrio es: a p bV¶(qb) b =c p b -(1-p)( a ± b) (socialmente sub-óptimo) subaV¶(qa)= c (socialmente óptimo) 165 .

JUEGOS CON INFORMACIÓN ASIMÉTRICA (II) 166 .

n}.«. u) donde:  Un conjunto de jugadores N={1.Tn para cada jugador y T = T1 X T2 X « X Tn. p.Un juego con información asimétrica (o juego bayesiano ) G es una tupla de la forma G=(N.«.2. A.  Los conjuntos de acciones A1. 167 .  Los conjuntos de tipos T1.T.«. A2. T2.An para cada jugador y A = A1 X A2 X « X An.

168 . una conjetura (creencia) a priori (dada) pi: Ti ti ¨(T-i) pi (t-i | ti) que asigna a cada tipo ti de jugador i. Se asume que la distribución pi (t-i | ti) de probabilidades condicionadas a posteriori se calculan mediante la regla de Bayes: Bayes p(t-i | ti) = p(ti | t-i) p(t-i) p(ti) Aquí. una distribución de probabilidad pi (t-i | ti) ¨(T-i) y que representa la información que el agente i tiene sobre los tipos de los demás agentes dado su propio tipo.` Para cada jugador i. p=(pi)i N.

` Aquí.an) es un vector de acciones y t=(t1. ti) ui(a.Una estrategia del jugador i es una función ai: Ti Ai que asigna a cada uno de los tipos ti del jugador i.«. una acción ai(ti) Ai. ti) donde a=(a1. u=(ui)i N.t2.tn) un vector de tipos. ` Para cada jugador i.«. una función de utilidad ui: A x Ti (a.a2. 169 .

a2. a2(t2)«. a partir de las funciones ui. ati+1(ti+1). ti ) pi(t-i|ti) t-i T-i (Función de utilidad esperada) Un equilibrio bayesiano es un equilibrio de Nash de un juego bayesiano con funciones de utilidad definidas por Ui. ai. unas nuevas funciones de valor esperado Ui del juego. construimos.«. an(tn).Ahora: para definir la noción de equilibrio bayesiano. 170 .an) = ™ ui(a1(t1). así: Ui(a1. ati-1(ti -1).

Juegos Extensivos con información asimétrica y Equilibrio Bayesiano Perfecto Estáticos con información simétrica ³Dinámicos´ con información simétrica Estáticos con información asimétrica Dinámicos con información asimétrica Equilibrio de Nash Equilibrio de Nash Perfecto en Subjuegos Equilibrio de Nash Bayesiano Teoría de juegos No-cooperativos Equilibrio de Nash Bayesiano Perfecto 171 .

5) 172 .Primer Ejemplo (El Caballo de Selten (1975)) 1· I C 2 p D (2.6) · D (3.1) D (1.2) · 1-p I (-1.3) I (0.

5 Equilibrios de Nash puros: (I.6 0.D).3 D 2.6 3. todos los equilibrios de Nash coinciden con los ENPS.I). (C.En este juego.1 -1. 173 .2 1. I I C D 2. Basta entonces calcular los equilibrios de Nash del juego estratégico.

esto lo va a obligar a nunca escoger I pues solo para p•2 se tiene que p(1) + 3(1-p) • 2p + 5(1-p) 3(15(1(Pago por escoger I • Pago por escoger D) Por su parte.Supongamos que el jugador 2 sabe que tiene la posibilidad de jugar. sabe que el jugador 1 no jugó I. 174 . es decir. y va a escoger D con probabilidad 1-p. como el jugador 2 sabe que el jugador 1 va a escoger C con probabilidad p. el jugador 1 no va a jugar I al comienzo ya que eso le daría un pago de 2 que es menor que 3 que es su pago si juega C. Entonces.

Pero para que esto sea posible. el jugador 2 debe asumir que 1 va a jugar C. (es decir. 175 . debe asumir que p=1. es decir. si hay conocimiento común de las creencias).Pero«¿Cómo sabe el jugador 2 que tendrá la oportunidad de jugar? Solo si así lo cree y sabe que su oponente también lo cree. etc.

183 . daremos un ejemplo típico de esto. debido a que esto es conveniente para ellos. En lo que sigue.Juegos de Señales En problemas de información asimétrica. Es el caso de aquellos que prefieren enviar una señal que los identifique como algo que no son. modelando mediante un juego de señales. una de las claves es qué información privada se revela a partir de las acciones de los agentes (incluyendo allí la información que revelan aquellos que deciden no actuar).

el empleador buscará. Pero esto no lo sabe. en lo posible. el que lo contrata. Una estrategia típica es llevar a los trabajadores potenciales a realizar alguna actividad que no sea muy atractiva para el perezoso pero sí para el buen trabajador.El problema de contratar a un trabajador Aquel que solicita un trabajo puede saber si es un buen trabajador (capaz y con buena pro-ductividad) o un mal trabajador (perezoso y con baja productividad). Por ello. que los empleadores revelen la verdad mediante algún mecanismo. ¿Qué podría suceder en una situación así? 177 . de manera directa.

los trabajadores son de dos tipos (con problemas en la espalda y sin ellos). donde cada uno de ellos sabe qué tipo de trabajador es.Una forma de modelar este tipo de situaciones es mediante un juego de señales. Allí. 178 .

-1) (1.-1) Naturaleza (3.0) El empleador no entrena (0.9.9] · El empleador entrena (3.0) Trabajador con mala espalda [0.1) (2.(0.1] El empleador no entrena El empleador no entrena · Silla ejecutiva El empleador entrena · Silla ortopédica · El empleador entrena (2. 0) El empleador no entrena · El empleador entrena Silla ejecutiva Silla ortopédica · Trabajador con buena espalda [0.9.0) (1. 1) Juego de señales 179 .

El problema es cómo sacar ventaja competitiva o cooperativa a partir de la información que se revela. donde diferentes jugadores tienen diferente conocimiento de los parámetros relevantes del juego estático que se juega repeti-damente.Ejemplo #4: Una primera aproximación al problema del uso óptimo de la información Una de las más interesantes aplicaciones de la información asimétrica es al Folk Theorem (Teorema Popular). 180 .

En la interacción de una sola vez. si la situación se repite. 181 . y ya no tendría la ventaja del principio. el jugador informado recurrirá a su información tanto como sea posible. podría inferir cuál era la información privada. entonces el otro jugador. Sin embargo. observando las acciones tomadas por el jugador informado.Para fijar ideas. supongamos que un jugador (el ³jugador informado´) tiene información privada que el otro jugador no posee.

pero a la vez revelar cuanto menos sea posible. 182 . Y otro problema es que hay situaciones en donde el jugador informado querrá revelar información a otros de tal manera que las acciones de ellos le beneficien. fue parte del trabajo de Aumann y Maschler (1966. es encontrar el correcto balance: utilizar la información tanto como sea posible. El problema es cómo hacer que la información que se está revelando sea creíble al otro jugador. entonces. Entender estos problemas en el marco de los juegos repetidos de suma cero. 1967 y 1968) durante la Guerra Fría.Un problema.

es decir. En los tres juegos de suma cero (el jugador fila maximiza pagos y el columna minimiza) que presento a continuación. comenzaremos por determinar cuánto es lo mínimo que puede garantizarse el jugador informado.Primero. En cada caso estudiaremos la individualidad racional del jugador fila que es el jugador informado de cuál de las dos matrices del juego es la verdadera. sin importar lo que haga su opositor en el juego. solo hay dos jugadores que juegan repetidamente el juego. analicemos el problema de la individualidad racional. El jugador columna no sabe esto: cree que las dos matrices son igualmente probables. 183 . Después de cada etapa solo se saben las acciones que se tomaron en las etapas precedentes pero no los pagos.

JUEGO 1 L T B 4 0 R 0 0 T B L 0 0 R 0 4 T B L 2 0 R 0 2 M1 (Probabilidad=1/2) M2 (Probabilidad=1/2) (1/2)M1 + (1/2)M2 Fila juega T entonces Columna juega R Fila juega B entonces Columna juega L En el largo plazo. Fila obtiene 0 pues indicó cuál era la verdadera matriz Fila obtiene. un pago de 2 si ignora su propia información y opera ³conciliando´ con Columna Fila obtiene más ignorando su propia información 184 . mínimo.

Fila obtiene 4 indicando cuál era la verdadera matriz Fila obtiene un pago máximo de 3 si ignora su propia información y opera ³conciliando´ con Columna.JUEGO 2 L T B 4 4 R 4 0 T B L 0 4 R 4 4 T B L 2 4 R 4 2 M1 (Probabilidad=1/2) M2 (Probabilidad=1/2) (1/2)M1 + (1/2)M2 Fila juega T Fila juega B En el largo plazo. Fila obtiene más utilizando su propia información 185 .

JUEGO 3 L T B 4 4 C 2 -2 R 0 0 T B L 0 0 C -2 2 R 4 4 T B L 2 2 C 0 0 R 2 2 M1 (Probabilidad=1/2) Fila juega T entonces Columna juega R M2 (Probabilidad=1/2) Fila juega B entonces Columna juega L (1/2)M1 + (1/2)M2 Columna juega C En el largo plazo. Fila obtiene 0 pues indicó cuál era la verdadera matriz Fila obtiene un pago de 0 si ignora su propia información ¿Da lo mismo revelar completamente la información o ignorarla? 186 .

No. 3/4 187 . Sea la estrategia de Fila dada por: Jugar T por siempre con prob. 1/4 Si M2: Jugar B por siempre con prob. porque revelando parcialmente la información el jugador Fila puede esperar más. 1/4 Jugar T por siempre con prob. 3/4 Si M1: Jugar B por siempre con prob.

Veremos que la estrategia de revelación parcial de la información le garantizará a Fila un pago esperado de 1. Para que veamos lo que sucede. tenemos dos casos: a) Fila juega T siempre b) Fila juega B siempre 188 . que es mayor que el 0 (cero) que obtiene tanto revelando totalmente la información como ³conciliando´ con Columna.

por la regla de Bayes. la probabilidad (posterior) de que la verdadera matriz sea M1 es. (en el que Fila jugó T).a) Después del primer período. P(T|M1)P(M1) P(M1| T)= P(T|M1)P(M1) + P(T|M2)P(M2) (3/4)(1/2) = (3/4)(1/2) + (1/4)(1/2) =3/4 189 .

Por su parte. después del primer período. la probabilidad (posterior) de que la verdadera matriz sea M2 es. por la regla de Bayes. (en el que Fila jugó T ). P(T|M2)P(M2) P(M2| T)= P(T|M2)P(M2) + P(T|M1)P(M1) (1/4)(1/2) = (1/4)(1/2) + (3/4)(1/2) =1/4 190 .

191 .1.)). Identificar los elementos de un juego bayesiano en los ejemplos estudiados en esta clase magistral.)). 3. La subasta de segundo precio (ver M y A (eds. El problema de bienes públicos con información asimétrica (ver M y A (eds. Calcule los pagos del juego #3 con informa-ción simétrica. 5.)). 2. El problema de Cournot con información asimétrica en los costos (ver M y A (eds. 4.

(Para el parcial #2 (segunda serie de ejercicios)) Estudiar el Dilema del Prisionero repetido con ³un poco´ de información asimétrica (por ejemplo. ¿Llevará esto a que los dos agentes cooperen casi siempre como un ENPS? 192 . una probabilidad ³pequeña´ de que el agente 1 coopere siempre).6.

JUEGOS EVOLUTIVOS (I) 193 .

A esta matriz A se le llamará el juego de estado estado. Los pagos cuando el agente 1 juega la estrategia si S y el agente 2 juega la estrategia sj S. 194 . Así una sola matriz A con los pagos del jugador 1.sn} de estrategias puras.«.DEFINICIÓN DE UN JUEGO EVOLUTIVO Consideremos un juego en forma estratégica en el que ambos jugadores tienen el conjunto S={s1. representa el juego total pues la traspuesta AT representará los pagos del jugador 2.s2. Asumiremos que el juego es simétrico en pagos y en estrategias (no importa quiénes 1 o quién es 2). es ij para el jugador 1 y ji para el jugador 2.

iii) Si un agente juega la estrategia si. los agentes se encuentran por parejas a jugar el juego de estado A. evolutivo asumiremos lo siguiente: i) Una población grande de agentes. diremos que es de tipo i. ii) En cada período de tiempo t. iv) Si la proporción de agentes de tipo j es pj en un tiempo en particular. es = p1s1+p2s2+«+pnsn 195 .Continuando con la construcción de un juego evolutivo. diremos que el estado de la población. en ese tiempo.

12 10 8 Gen 1 Gen 2 Gen 3 Gen 4 Gen 5 Gen 6 Gen 7 6 4 2 0 Población en el tiempo t 196 .

v) El pago a un jugador de tipo i cuando el estado de la población es . 197 . está definido por: i Agente que entra a la población = ™p j j N Población que está ij . Un juego evolutivo (simétrico) lo conforma un juego de estado A.2. N={1.«n} Este mide la mejor o peor disposición al proceso de selección natural. bajo las condiciones i) a v) anteriores.

DEFINICIÓN DE UN A ESTRATEGIA EVOLUTIVAMENTE ESTABLE En primer lugar.2. si la población (entrante) está en estado .«n} y se ³mezcla´ con otra población (status quo) (status quo) que está en estado = ™ jpjsj N N={1.2.«n} 198 . = ™qNsj j j N={1.

j N ij . será = ™ pipj i. de la población .j N ij N={1.2. es decir.2.«n} 199 .i) Entonces el pago esperado de un jugador de la población mezclada será = ™ qipj i.«n} ii) Y el pago esperado por un jugador (aleatoriamente escogido) del status quo. N={1.

12 10 8 6 4 2 0 Población Población Población Población Gen 1 Gen 2 Gen 3 Gen 4 200 .

Pero dice algo más: que si estos dos últimos pagos esperados son iguales. 201 .DEFINICIÓN DE ESTRATEGIA EVOLUTIVAMENTE ESTABLE DE UN JUEGO EVOLUTIVO (J. Maynard Smith (1982)) Diremos que una población * es evolutivamente estable (EEE) si no puede ser ³invadida´ por ninguna población mutante . Es decir. si: i) ii) * * • * * Si = * para toda población mutante * entonces * > Esto significa que si * es invadida por entonces el pago esperado por un jugador (aleatoriamente escogido) del status quo * es mayor o igual que el pago esperado por un jugador de la población mezclada. entonces el status quo * puede invadir con éxito a la población mutante .

La población 12 10 8 6 4 2 0 Población Población * * * se ³defiende´ del mutante Gen 1 Gen 2 Gen 3 Gen 4 * Tiempo de Tiempo de Tiempo de Población interacción interacción interacción * * 202 .

Teoremas sobre EEE i) Toda EEE de A (como juego evolutivo) es un equilibrio de Nash de A (como juego estra-tégico): estra-tégico) Comentario1:¿Racionalidad como producto de la evolución? Comentario 2: Toda EEE es un equilibrio de Nash con cierta propiedad de ³estabilidad evolutiva´ que resiste a presiones de mutación (por ejemplo. 203 . experimentación y aprendizaje).

tener ninguna EEE. Es similar a cuando mostrábamos que un equilibrio de Nash no explicita ninguna dinámica hacia la racionalidad interactiva. EEE.Comentario 3: La definición de una EES no explicita ninguna dinámica de evolución. iii) Toda EEE es un equilibrio de Nash aislado iii) aislado. Sin embargo. puede no infinitos). 204 . ii) Todo juego evolutivo finito (finito número de ii) estrategias) tiene un número finito de EEE (a diferencia de los equilibrios de Nash que puepueden ser infinitos).

Una ³definición biológica´ equivalente de EEE, es la siguiente (Ejercicio1): Diremos que una población * es evolutivamente estable (EEE) si para toda población mutante y toda mezcla de estas dos, = con + (1- ) *

suficientemente pequeño, se tiene que:
*
La que entra

>
La que está

Esto significa que una población * es EEE si para vencer a cualquier población mutante (invasora) , basta con ³vacunarse´ con un poco de la población de ésta.

205

Ejemplos
1. El Juego de Coordinación
A= D 2 I 0 0 2

Los equilibrios de Nash son, dos puros (que son EEE) y uno mixto (que no es EEE): i) *=D es EEE pues:
(D,D) = 2 = ( =pD+(1-p)I, D) =p(2)+(1p)(0)=2p cuando p=1. Por lo tanto, no existe mutante (es decir,  *) que satisfaga (D,D)= ( , D) . Por lo tanto, la propiedad se satisface ³vacíamente´.
ii) Similarmente

*=I es EEE.
206

iii)

El equilibrio de Nash mixto *=1/2(D) + (1/2)I no es una EEE, pues aunque la condición 1= ((1/2)D+ (1/2)I , (1/2)(D) + (1/2)I )= (p(D) + (1-p)I , (1/2)D + (1/2)I )= p + (1-p)=1

siempre se da (es decir, para cualquier p), la condición 1= ((1/2)D + (1/2)I , p(D) + (1-p)I ) > (p(D) + (1-p)I , p(D) + (1-p)I ) = p(2p)+(1-p)(2(1-p)) = 2-4p+4p2 o, lo que es lo mismo, (1-2p)2<0 es siempre falsa.
207

2. El Juego de ³Halcón y Paloma´
A= D H -2 0 0 -1

Los equilibrios de Nash son, dos puros (que no son EEE) y uno mixto (que sí es EEE). Probaremos aquí esto último, dejando, como ejercicio, probar que los dos equilibrios de Nash puros no son EEE.

208

El equilibrio de Nash mixto *=(1/3)D+ (2/3)H es una EEE. En efecto, vemos inicialmente que la condición se da siempre: * * = *
* *

= 1/3[1/3(-2)+(2/30)] + 2/3[ 1/3(0) + (2/3(-1)] = -2/3 =(1/3)[q(-2)+(1-q)(0)] + (2/3)[ q(0) + (1-q)(-1)] = -(2/3)(q) ±(2/3)(1-q)=-(2/3)

y
*

209

es decir. 210 . qD+ (1-q)H) > (qD+ (1-q)H. qD+ (1-q)H) Y esto nos lleva a que: -2/3 > -3q2+2q-1 o.Entonces se prueba que * > . nos lleva a que (1+3p)2>0 . lo que es lo mismo. que es siempre cierta. ((1/3)D+ (2/3)H .

En efecto.3. vemos que la condición (con =q(C) + (1-q)NC ) * * = * se da solo cuando q=0 . pues: * * = -4 . El Dilema del Prisionero [q] A= C NC -1 0 -5 -4 El único equilibrio de Nash es *= 0(C)+(1)NC y es el único EEE. * =(-4)(1-q) Y así nunca puede ser mutante. 211 .

212 . o incluso formas institu-cionales o culturales más generales. una moda. una creencia. una estra-tegia. una conven-ción. Esta es una enti-dad que tiene replicador manera de hacer copias muy aproximadas de sí misma. Un replicador pue-de ser un gen. un organismo. una técnica.El actor central de un sistema dinámico evolutivo es el replicador.

Dinámica del Replicador Consideremos un juego evolutivo donde ca-da jugador sigue una de sus i=1.2. y it es el correspondiente pago esperado recibido.3.«.2. entonces la dinámica del replicador está definida por el sistema dinámico dpit /dt= pit ( it . Si pit es la fracción de jugadores que son de tipo i en el tiempo t.«.D t ) i=1. 2.n es-trategias puras y todos los periodos t=1.n 213 .3.«.

«. A un equilibrio asintóticamente estable de la dinámica del replicador se le llama un equilibrio evolutivo.donde D t = 7i=1.n pit it es el pago promedio de la población total. la frecuencia de una estrategia (gen) aumenta cuando está por encima del promedio. 214 . evolutivo. y disminuye cuando está por debajo. bajo la dinámica del replicador. Así.

Notemos que la dinámica del replicador no es una dinámica de mejor-respuesta dada la distribución de frecuencias en el período anterior: los agentes aquí tienen un conocimiento limitado y localizado del sistema. (1B = PB B + (1-PB ) C =D Y entonces surge la pregunta: ¿Será que la dinámica del pregunta: replicador representa una dinámica plausible de convergencia a los equilibrios de Nash? 215 . uno preguntarse: ¿Y cómo se transmite la señal agregada preguntarse: de la media de comportamiento al gen para que éste se reproduzca? De otro lado: Podemos ilustrar en el caso 2x2 (con estrategias B lado: y C). por ejemplo. que todo equilibrio de Nash del juego es un equilibrio de la dinámica del replicador pues si. podría sistema. Sin embargo. PB>0 entonces B = C y así (1-PB ) B = (1-PB ) C (1(1o bien.

nunca más lo estará: Si Pt=0 y Pt+1>0 entonces a partir de Pt+1 ±Pt = Pt( -D ) Se obtiene que pt+1=0. Por lo tanto la dinámica determinística del replicador no puede tratar problemas de mutación e innovación.) que permite la emergencia espontánea de replicadores 216 . Normalmente. Path Dependen-ce. pero si en un instante del tiempo no está representado por en una población.Notemos también que un replicador puede llegar a extinguirse. etc. lo que es una contra-dicción. esto se modela adicionando a la dinámica del replicador procesos estocásticos (cadenas Markov.

Dinámica del Replicador 12 10 8 6 4 2 0 Tiempo t=1 Tiempo t=2 Tiempo t=3 Tiempo t=4 Tiempo t=5 217 Gen 1 Gen 2 Gen 3 Gen 4 .

4 218 .Ejemplos 1. El Juego de ³El Dilema del Prisionero: El Prisionero: equilibrio de Nash puro *=NC (no cooperar) es la única EEE y. [PC] A= C NC -1 -5 0 -4 C = gen altruista NC = gen egoísta C = -PC -5(1-PC)= -5+4PC NC = 0PC + (-4)(1-PC) = 4PC . además. es el mismo equilibrio evolutivo del juego. En efecto.

PC ] [4PC .D ) = PC (PC -1) Dinámica del Replicador Equilibrios de la dinámica de replicador: PC =0 .4 dPC/dt = PC ( C .4 ] = 3 PC . 219 . PC =1 Equilibrio Evolutivo: 100% gen egoísta · PC =0 Diagrama de fase · PC =1 Note que si 1> PC >0 entonces PC (PC -1) < 0.D = PC C + PNC NC = = [PC ] [-5+4PC] + [1.

Dinámica del Replicador en el Dilema del Prisionero 14 12 10 8 6 4 2 0 Tiempo t=1 Tiempo t=2 Tiempo t=3 Tiempo Equilibrio t=4 evolutivo Gen altruista ( C ) Gen egoista (NC) 220 .

es el mismo equilibrio evolutivo del juego.1 D = PD = + PH H = [PD] [-2PD] + [1.2. En efecto. El Juego de ³Halcón y Paloma´: El equilibrio Paloma´: de Nash mixto *=1/3(D) + (2/3)H es una EEE y. además. PD A= D H -2 0 0 -1 D = gen pacífico H = gen agresivo D = -2PD -0(1-PD)= -2PD D H= 0PD + (-1)(1-PD )= PD .PD] [PD .1] = -3 (PD ) 2 + 2 PD -1 221 .

33% gen pacífico + 0. PD=1/3 . PD=1 Equilibrio Evolutivo: 0.66 % gen agresivo · PD=0 +++++++ ---------------PD=1/3 Diagrama de fase · · PD=1 222 .dPD/dt = PD( .D ) = PD( 3 (PD ) 2 .4 PD +1) D = PD( 3 PD -1 )( PD -1) Dinámica del Replicador Equilibrios de la dinámica de replicador: PD=0 .

Dinámica del Replicador en ³Halcón y Paloma´ Paloma´ 9 8 7 6 5 4 3 2 1 0 Tiempo t=1Tiempo t=2Tiempo t=3Tiempo t=4 Equilibrio evolutivo 223 Gen pacífico Gen agresivo .

3. Los equilibrios de Nash puros son los equilibrios evolutivos del juego.PD] [1-PD ] = 3 (PD ) 2 . En efecto. El Juego de ³Coordinación´ . PD A= D I 2 0 0 1 D = gen derecha H = gen izquierda D = 2PD -0(1-PD)= 2PD D I= 0PD + (1-PD )= (1-PD ) D = PD = + PI I = [PD] [2PD] + [1.2PD +1 224 .

dPD/dt = PD( D- D ) = PD( 1-3PD ) ( PD ....-· PD=0 ++++++++++++ · PD=1/3 Diagrama de fase · PD=1 225 .. PD=1/3 .. 0% gen pacífico +100% gen agresivo .. PD=1 Equilibrios Evolutivos: 100% gen pacífico + 0% gen agresivo.1) Dinámica del Replicador Equilibrios de la dinámica de replicador: PD=0 .

Dinámica del Replicador en el juego de ³Coordinación´ (Caso I) 14 12 10 8 6 4 2 0 Tiempo t=1 Tiempo t=2 Tiempo t=3 Tiempo t=4 EEE Gen derecho Gen izquierdo 226 .

Dinámica del Replicador en el juego de ³Coordinación´ (Caso II) 14 12 10 8 6 4 2 0 Tiempo t=1 Tiempo t=2 Tiempo t=3 Tiempo t=4 EEE Gen derecho Gen izquierdo 227 .

Equilibrios de la dinámica del replicador Equilibrios Nash Equilibrios estables de la dinámica del replicador Equilibrios evolutivos Estrategias evolutivamente estables 228 .

0 -2. Y un contraejemplo importante (van Damme (1991)) es el siguiente: S1 S1 S2 S3 0. En un juego 2x2. 1 4. 0 1. Sin embargo. una estrategia es EEE si y solo si es un equilibrio asintóticamente estable de la dinámica del replicador.0 229 . 4 S3 1. esto solo es cierto en este caso. 1 S2 1.1 0.Teorema . -2 0. 1 1.

1/3. *)=2/3 .cuyo único equilibrio de Nash es *=(1/3. )=7/6. Y así puede invadir a *. pero si tomamos =(0.1/3) que es asintóticamente estable en la dinámica del replicador. 230 . pero que no es una EEE pues nótese que ( *. ½) entonces tendríamos que ( . ½. )= 5/4 > ( *.

2. Sin embargo. si la probabilidad de error sea positiva. hará transiciones regulares de un equilibrio evolutivo a otro (ver Samuelson (1997)). 231 . se hace arbitrariamente pequeña con probabilidad arbitrariamente cercana a 1. bajo condiciones muy plausibles un sistema estocástico con dinámica del replicador.Dos notas finales 1. la diferencia de la dinámica estocástica con respecto a la dinámica del replicador. Cuando las mutaciones se hacen pequeñas.

pero sí lo es la estrategia en que la proporción de halcones es V/C. 232 . Pruebe que en el juego general ³Halcón y Paloma´ Halcón (H) Paloma (D) (V-C)/2 0 V V/2 donde V = valor de cierto recurso. C = costo de agredirse al tratar de obtener el recurso (C>V).Ejercicios 1. los dos equilibrios de Nash puros no son EEE.

¿Este contraejemplo arroja dudas sobre la consistencia de los equilibrios asintóticamente estables de la dinámica del replicador como comporta-mientos evolutivos estables de largo plazo? 233 . 3. Pruebe que el juego ³Piedra-Papel-Tijera´ no tiene EEE a pesar de tener un único equi-libro de Nash. Pruebe lo afirmado sobre el contraejemplo de van Damme (1991).2.

4.In). Pruebe que la estabilidad evolutiva dirige nuestra atención al equilibrio de Nash ³más plausible´. Considere el siguiente juego de alianza comercial (joint venture): In In Out 2. las EEE y los equilibrios evolutivos.0 0. a (In. ¿Podría justificar este equilibrio afirmando que resulta porque los agentes evitan las estrategias débilmen-te dominadas ya que es la única estrategia nodominada? 234 .0 Out 0. es decir.0 Y calcule los equilibrios de Nash.2 0.

5. Según lo visto en esta clase, ¿podría considerarse que la economía basada en modelos evolutivos es ³economía neoclásica´? En particular, ¿Existe algún proceso de optimización allí? ¿Es un modelo de economía con ³racionalidad acotada´? ¿Los equilibrios de Nash son alcanzados ³conscientemente´? Es decir, ¿son modelos con racionalidad consciente? 6. Pruebe que la dinámica del replicador elimina estrategias estrictamente dominadas. ¿Podría ser una de estas una EEE?

235

JUEGOS EVOLUTIVOS (II): DINÁMICAS ESTOCÁSTICAS
236

1.

El modelo de Kandori-Mailath-Rob (1993) Kandori-Mailath-

(Learning, Mutation and Long Run equilibrium in Games. Econometrica 61:29-56 (1993))
a)

Comenzamos con un juego simétrico en forma estratégica jugado por una población de N jugadores, cada uno caracterizado por una estrategia pura. En cada período los jugadores se encuentran por parejas a jugar el juego. Cada uno tiene la misma probabilidad de encontrarse con sus oponentes. Al final del período, todos los jugadores pueden ³aprender´, es decir, podrían cambiar su estrategia a una ³mejor-respuesta´ (condición de racionalidad) con respecto al estado actual de la población. Pero esto, como veremos, no es esencial.

b)

c)

237

d) Después del aprendizaje, ocurren las ³mutacio-nes´ (errores, experimentaciones, etc.) e)Cada jugador puede ser un ³mutante´ con probabilidad ; es decir, en cada período, una proba-bilidad de que un agente juegue una estrategia distinta de la ³mejor-respuesta´. f) Se modela la incertidumbre mediante un proceso de Markov con solo dos estrategia (X y Y), siendo el espacio-estado el conjunto de jugadores {1,2,«,N}, y donde el estado se identifica por el número de agentes que juega la estrategia X. Se asume que la matriz de transición (matriz de probabilidades) es estrictamente positiva.

238

Bajo estas hipótesis es bien sabido que existirá una distribución estacionaria que es única independiente de las condiciones iniciales y con probabilidad positiva en todos los estados. Pero entonces«¿cuál es resultado del modelo KMR? Inicialmente es este: Si es suficientemente pequeño, entonces la distribución estacionaria concentrará casi toda su probabilidad en sólo unos pocos estados. Pero dice algo más. Consideremos el juego simétrico de coordinación

239

9 7.7 8.X X Y 9.8 · 1 (todo X) 240 .0 Y 0. en donde el eje mide la proporción de la población que juega la estrategia X: · 0 (todo Y) · 0.8 Entonces el diagrama de fase sin choques estocásticos será el siguiente.

Está claro entonces que el sistema siempre se aproxima a un equilibrio. Si la proporción que juega X inicialmente.X)). La proporción 0. y la proporción convergerá al equilibrio 1. Pero si más del 80% juega X. es menos que el 80% (y así. entonces la proporción convergerá al equilibrio 0.Y)) hasta 1 (que corresponde al equilibrio (X. la mejor respuesta es Y). 241 . que es donde todos juegan Y.8 corresponde al equi-librio mixto. pero a cuál de ellos exactamente. donde todos juegan Y.Ésta va desde 0 (que corresponde al equilibrio (Y. depende de cómo esté distribuida la proporción inicial. entonces X es la mejor respuesta. es decir.

El diagrama de fase muestra que se necesitan más mutaciones (80% de la población) para hacer de X una mejor-respuesta en una po-blación donde todos juegan Y. Esto hace que la primera transición sea más probable. para una probabilidad de mutación suficientemen-te pequeña. el sistema gasta virtualmen-te todo su tiempo en el equilibrio (Y. sumergiendo este modelo de coordinación dentro de la estructura de KMR ellos prueban que. sin importar cuál sea la condición inicial. 242 . que llevar a cabo la transición inversa (que requiere solo de 20% de mutantes).Sin embargo.Y).

además de los anterior. La segunda tiene que ver.Cuando la probabilidad de mutación se hace pequeña. Aquí llegamos al concepto de equilibrio de largo plazo y de ultra-largo plazo muy común en modelos evolutivos. la primera transición se hace arbitrariamente más probable. con ³saltos´ aleatorios entre equilibrios. 243 . haciendo que toda la probabilidad de la distribución estacionaria se acumule en el equilibrio (Y. Surge entonces la pregunta del porqué la diferencia de resultados entre el modelo determinista y el estocástico. El primero consiste en la aproximación (y alcance) al equilibrio.Y).

para aplicarle toda la teoría anterior. podemos hacer de un juego asimétrico. Ahora veremos cómo. de proponentes y aceptantes. de empresarios y sindicalistas. etc. 244 . uno simétrico.2. Nota sobre juegos evolutivos asimétricos Los juegos asimétricos surgen debido a que diversas poblaciones juegan papeles diferen-tes. los agentes en una tran-sacción pueden tener roles de comprador y vendedor. Por ejemplo.

y una estrategia a ser jugada en el papel del jugador II en el mismo juego. Es decir.Las estrategias del juego simétrico es una elección de la estrategia a ser jugada en el papel del jugador I en el juego asimétrico. 245 . la estrategia del juego simétrico asociado es un ³plan de contingencias´ y los pagos asociados en el juego simétrico aso-ciado estarán determinados por los valores esperados del plan de contingencias.

3.1 0. El juego de ³El Ultimátum´ Consideremos el juego simplificado de El Ultimátum en forma normal y extensiva: Sí 2.2 No A · I B · B 3.2 A 2.0 2 2 Sí II No 0 0 3 1 246 .

respuesta: El jugador 1 hace una oferta alta (A) y el jugador 2 juega No con probabilidad de al menos 1/3. Sin embargo hay otros equilibrios de Nash identificados por correspondencias de mejor.Un equilibrio de este juego es el ENPS calculado por inducción hacia atrás: El jugador 1 hace una oferta baja y el jugador 2 la acepta. Note que ³No´ es una estrategia débilmente dominada para el jugador 2. recibiendo pagos respectivos de (3. intuitivamente. y podría creerse. que un proceso evolutivo ejercería suficiente presión constante sobre esta estrategia hasta eliminarla. 247 .1).

No) [X] [Y] A 2.1 0.1/3 (A. No) Equilibrios de Nash ordinarios ENPS Y (B.2 (B. Sí) · (A.0 248 .2 B 3. Sí) · X Sí No 2.

dY/dt= Y(1-Y)(3X-1) dY/dt= Y(1-Y)(3X1/3 (A.La dinámica del replicador es: dX/ =X(1-X)(YdX/dt =X(1-X)(Y-1) . Sí) (A. No) 249 . No) Equilibrios de Nash ordinarios ENPS Y (B. Sí) · X (B.

inicialmente. 250 .1( ½ ± X) X(1-X)(YdY/ dY/dt = 0. existe más presión evolutiva por X=1 (es decir.99 Y(1-Y)(3X-1) + 0. El valor 1/2 de arriba es una división igual de la población en X e Y.9 X(1-X)(Y-1) + 0. por población de dice ³No´ al trato inequitativo) que por Y=1 (es decir.01( ½ -Y) Y(1-Y)(3XEs decir. por población que ofrece B (oferta baja e inequitativa).Ahora consideremos una versión perturbada de la anterior dinámica del replicador: dX/ dX/dt = 0.

No) 251 . Sí) 1/3 (A. Sí) · X (B. parte de la población le dice ³No´ a la propuesta inequitativa.La nueva dinámica del replicador permite ver la aparición de un nuevo equilibrio evolutivo!!! En él. (A. No) Nuevo equilibrio evolutivo · Equilibrios de Nash ordinarios ENPS Y (B.

como nos lo enseña la literatura de teoría de juegos clásica sobre refinamientos de equilibrio? En particular. 3. en modelos de negociación. 2. ¿Acaso es este un ejemplo de la aparición de cierto ³sentido de justicia´ como producto de la presión evolutiva? Experimentos mostrarían que el ³contexto´ importa. ¿Acaso la teoría de juegos evolutivos nos enseña que no deberíamos ser tan rápidos en aplicar criterios de dominancia o de inducción hacia atrás. contratación e intercambio.Tres Comentarios y una Afirmación 1. es sustancial. 252 . estas sospechas sobre este tipo de selección de equilibrios.

desequilibrio. Sin beneficios. estoy casi seguro.4. 253 . Tam-bién lo hacemos equilibrio. embargo. la extrema mayoría de nuestra atención se concentra en modelos con equilibrios ya sea porque tenemos la esperanza de que el comportamiento de equilibrio es suficientemente persistente y que el comportamiento de desequilibrio es suficien-temente suficientransitorio como para que el com-portamiento comrobusto sea el de equilibrio. así como tampoco cree que la gente es siempre racional sobre la base de que maximiza utilidades o beneficios. cree que los mercados están siempre en equilibrio. Tamporque al estudiar el com-portamiento de equilibrio comcreemos alcanzar suficiente entendimiento del más efímero comportamiento de desequilibrio. ¿Justifica la evolución la noción de equilibrio de Nash? Ninguno de nosotros.

45 42. 45 35.Perspectiva principal de la Teoría de Juegos Evolutivos: Ligar la teoría al comportamiento observado. 45 40.8 · ·1 Todo X 254 . 0 Y 0.12 Es fácil mostrar que los tres juegos tienen similares equilibrios . Por ejemplo.20 X 45. Battalio. similares corresponden-cias de mejor respuesta y similares diagramas de fase bajo la dinámica del replicador (la misma del modelo KMR): 0 Todo Y · 0. con pruebas de laboratorio o de campo. 40 20. Samuelson y van Huyck (2001) estudian los tres juegos de abajo: X Y X 45. 0 Y 0.35 40.0 Y 0. 42 12.40 X 45.

Pero la teoría de juegos evolutivos sí permite distinguir entre ellos. 255 . muchos modelos basados en la racio-nalidad pura no distinguirían entre estos tres juegos.Así.

Economía Evolutiva Complejidad 256 . La biología evolutiva es su modelo epistemológico.Economía Neoclásica Economía § Incentivos Visión de la Economía como un organismo darwiniano.

MODELOS DE COMPLEJIDAD 257 .

³LA ERA DE LA ECONOMÍA NEOCLÁSICA HA FINALIZADO Y HA SIDO REEMPLAZADA POR LA VISIÓN DE UNA ECONOMÍA COMPLEJA. ROSSER Y COLANDER (2010)) 258 .´ (HOLT.