Algunas notas sobre fases

Diego Krivochen, UNLP. E-mail: diegokrivochen@hotmail.com Junio, 2010.

Introducción: La noción de economía es fundamental en tanto rectora de todos los procesos cognitivos. En la Facultad del Lenguaje, desde la perspectiva minimalista, economía es eliminación de: (a) elementos superfluos de las representaciones y (b) pasos superfluos en las derivaciones, es decir, eliminación de todos aquellos elementos que aumenten la complejidad computacional sin estar estrictamente motivados por requerimientos de interfaz. La búsqueda de mecanismos derivacionales menos costosos computacionalmente ha llevado, a lo largo de la historia de la Gramática Generativa, a proponer diferentes maneras de establecer un ámbito derivacional restringido (i.e, local) para la aplicación de operaciones sintácticas. En este trabajo hacemos una revisión crítica de las concepciones principales sobre el concepto de fase (y conceptos afines y derivados), la restricción de localidad más importante en el PM. Luego de presentar los enfoques, y ventajas y desventajas de cada uno, propondremos una teoría de las fases aplicable a todos los módulos mentales que intenta eliminar la mayor cantidad posible de estipulaciones, persiguiendo un modelo “más minimalista”.

Parte I: revisión de las propuestas vigentes
a) Chomsky (1998 “Minimalist Inquiries: The Framework”, 2001 “Derivation by Phase”, 2004 “Beyond Explanatory Adequacy”, 2005 “On Phases”, 2007 “Approaching UG from Below”) El concepto de fase se presenta por primera vez como tal en Chomsky (1998: 19 y ss.) como una forma de reducir la complejidad computacional de las derivaciones y establecer condiciones de localidad para las operaciones. Si la selección-de-una-vez de una Ordenación Léxica a partir de un lexicón implica que el sistema computacional no debe acceder al lexicón en cada punto de la derivación (con la consiguiente reducción del costo computacional), la complejidad se vería reducida aún más “(…) with each stage of the derivation accesing only part of the LA [OL].”, siendo que cada “parte” de la OL determinaría un “objeto sintáctico natural” con propiedades relevantes para las interfaces. (Chomsky, 1998: 20).

1

El concepto de fase le debe mucho a la noción de barrera1 (Chomsky, 1986), que establecía condiciones de localidad (junto con principios como Minimalidad o Subyacencia) en el modelo GB de los años „80. Definiciones: MI/ DbP: subconjuntos de la Ordenación Léxica seleccionados por C(HL), relativamente independientes en términos de las propiedades de interfaz (FF y FL). En términos de FL, la fase es una forma proposicional que puede constar de una v(*)P con todos los roles-θ asignados, o una CP con fuerza (ilocucionaria); en términos de FF, tiene propiedades tonales propias. Representaría una reducción de la carga computacional, ya que se mantienen menos elementos en la memoria activa. Una vez que el subconjunto con el que se trabaja se ha agotado, el sistema computacional transfiere el dominio del núcleo de fase (el cual pasa a ser inerte), se borran (delete) los rasgos no interpretables por FL (aunque permanecen en FF), se selecciona otro subconjunto léxico, y la derivación procede. OP/ AUG: Objetos sintácticos, formados mediante Merge, a los que se aplican las operaciones de Transferencia a las interfaces (Spell-Out sería la transferencia a FF). La fase es el locus en el que se dan las operaciones de cotejo, y establece un fuerte sentido de localidad: tanto el backtracking como el look ahead están prohibidos. La computación trabaja únicamente con la información disponible en el nivel de fase, de modo tal que una fase se construye sin prestar atención a la anterior (ver nota 26). Óptimamente, habría una sola operación de transferencia, por lo que las fases serían idénticas en ambas interfaces. En las concepciones más recientes, la motivación en las interfaces es una consecuencia de la condición de fase, ya que éstas se definen de acuerdo a las posibilidades de cotejo de rasgos no interpretables. Condición de Impenetrabilidad de Fase (CIF): Versión 1: (Chomsky, 1998: 108) “en una fase α con un núcleo H, el dominio de H no es accesible a operaciones fuera de α, sólo H y su periferia [especificador/es]” Versión 2: (Chomsky, 1999: 30) “el dominio de H [un núcleo de fase] no es accesible a operaciones en ZP [el siguiente núcleo fuerte], sólo H y su periferia”. La diferencia fundamental es que la segunda formulación de la CIF permite que un núcleo no-fase pueda efectuar operaciones en el dominio de su complemento fase. Así, por ejemplo, T puede cotejar caso Nominativo

1

Para una comparación crítica entre las nociones de fase y barrera, ver Boeckx y Grohmann (2004, 2005).

2

con el complemento de VP (que está a su vez dentro del dominio de la fase v*P) en las construcciones de “Caso Caprichoso” (Quirky Case), en las que el rasgo EPP en T es satisfecho por un elemento con caso Dativo. Si T puede cotejar rasgos con el complemento de un núcleo de fase, entonces quiere decir que este complemento no se ha transferido, porque si lo hubiera hecho, sería inerte a los efectos de cualquier tipo de operación. La transferencia del complemento de H, entonces, se retrasa hasta el ensamble del núcleo de ZP, y cualquier proyección que se encuentre en el medio puede efectuar operaciones en el complemento de H. En la primera versión de la CIF, la transferencia se da no bien el núcleo de fase se ensambla y los elementos que tengan rasgos que cotejar se han movido a su periferia. Las fases serían endocéntricas: núcleos de fase (fuertes) son v(*), el verbo liviano de las construcciones transitivas y C. Los núcleos débiles (que, a los efectos de C(HL) es como si no fueran núcleos de fase) serían V (v), el verbo léxico de las construcciones inacusativas, D (MI) y se deja abierto el panorama para A y P. Así, la estructura de una fase sería la siguiente (tomado de Chomsky, 2007: 15): {P, XP}, siendo P el núcleo de la fase y XP una proyección léxica (V o T, aparentemente. Tal vez, N) que hereda los rasgos-φ de P. Propiedades de los núcleos fuertes:  Son sondas para el cotejo/movimiento, teniendo acceso hasta el núcleo de la fase anterior (la derivación se da bottom-up). Las posiciones-A´ se definen, entonces, como las resultantes de la atracción a Spec-H motivada del EF del núcleo de fase correspondiente (C, v). El objeto atraído es siempre el más cercano en el dominio del núcleo (efectos de superioridad, CEM).  Seleccionan una CL como complemento, la que “hereda” sus rasgos-φ2. Así, T heredaría los rasgos-φ de C, y V, de v*. Las CCLL que no están seleccionadas por un núcleo fuerte serían defectivas (TPs pasivas, ECM, de ascenso (seleccionadas por V), VPs inacusativas (seleccionadas por T)), por tener un set incompleto de rasgos-φ (aparentemente, sólo persona) y carecer de EPP-feature (Chomsky, 2001: 15. Ver, no obstante, Chomsky, 1998: 26, “el PPE-rasgo de T podría ser universal. Para los NUs de fase v y C, varía paramétricamente (…)”). Los casos posibles son los siguientes: a) [V [TPdef]] (ECM, pasivas, ascenso) b) [T [VPdef]] (construcciones inacusativas) c) [C [TPfull]] (control, cláusulas matrices)
2

Gallego (2010) prefiere hablar de feature sharing en lugar de feature inheritance, por lo que los rasgos se mantendrían en el núcleo de fase además de pasar a la CL que seleccionan como complemento.

3

d) [v* [VPfull]] (estructuras transitivas)  Determinan la ocurrencia de efectos de reconstrucción cuando hay movimiento.  Tienen un Edge-feature no interpretable-no borrable, que permite el ensamble ilimitado de objetos a la periferia. Así, un objeto puede “escapar” de una fase mediante el ensamble a la periferia de H como un especificador extra, quedando fuera del dominio del núcleo.  Como todas las CCFF, tienen rasgos semánticos interpretables: v, agentividad-causatividad; C, fuerza ilocucionaria, modalidad oracional.

El ascenso de sujeto a Spec-T estaría dado por los rasgos de C, que actúan como sonda. Así, C tiene dos sondas: (a) su Edge Feature (aparentemente, junto con un wh- feature) que atrae un wh- a Spec-CP, y (b) sus rasgos-φ, que T hereda, y que provocan el cotejo de Caso de la DP sujeto. El ascenso de Spec-vP a Spec-TP estaría dado por la necesidad de satisfacer el rasgo EPP en T, aparentemente, también heredado de C (ejemplo (a)). Con v, ocurriría lo mismo, tendría dos sondas: (a) su rasgo [Tr.] (que busca una DP en su dominio que tenga un rasgo de Caso no valuado) y (b) sus rasgos-φ, que V hereda. v también provocaría el ascenso del sujeto de una cláusula ECM a Spec-VP, mediante el rasgo EPP que V heredaría (ejemplo (b)). Hemos omitido en los diagramas arbóreos detalles no pertinentes, como el movimiento de T a C. a) Wh C
[u-Wh] [φ-features] [EPP]

CP C´ TP DPi T Wh DPi v
[EF]

b) DP v

vP v` VP DPi P V V´ TP (ECM)

[Tr.]


[φ-features]

vP v´ v´ VP V Wh
Multiple Specs.

[EPP]

DPi

Tdef

Ej: What did she buy?

Ej: I saw her crossing the street.

4

Se ve que el argumento de las fases proposicionales se basa en gran medida en encontrar paralelismos entre los dos núcleos de fase. Si hay otros núcleos de fase (D, A, P, por ejemplo), éstos se determinan estableciendo similitudes con los núcleos ya propuestos: “Similarities between CP and DP suggest that DP too may be a phase (…)” (Chomsky, 2005: 10)3 Argumentos contra T como fase4: Hay que tener en cuenta que T/I es considerada una proyección “anómala” desde Chomsky (1986). En el modelo de Barreras, IP era una categoría bloqueante, siguiendo la siguiente definición: α es una CB para β ssi α no está marcada-L [i.e. no hay un núcleo léxico que le asigne Caso o rol-θ] y domina a β. Así, A es barrera para B ssi: a) A domina a la CB para B b) A es una CB para B y A≠Infl Por (a), CP es Barrera para VP por dominar a IP, CB para V, mientras que por (b), una PP o AdvP adjuntos lo son para sus complementos. Si tomamos la Split-VP Hypothesis, vP sería barrera para VP por (b), ya que no está marcada-l (I/T no es un predicado léxico). La condición especial de T/I se mantiene en el planteo de fases, al considerar que T no es un núcleo de fase fuerte, pero C sí lo es.  T no tiene rasgos-φ propios, sino heredados de (o “compartidos con”) C. El ascenso del sujeto a Spec-TP estaría coordinado también por C, y no por un [EPP feature] inherente a T.  Si bien los rasgos de [Tiempo] serían inherentes a T (para evitar que T sea meramente una Agrprojection), éstos recibirían una interpretación “residual” (Chomsky, 2007: 14) a menos que estén seleccionados por C ([Tdef], ver supra). No queda claro, no obstante, qué es exactamente una “interpretación residual”.

3

No obstante, Chomsky (2007) propone que las estructuras nominales son n(*)Ps, así como las verbales son v(*)Ps. Así, D heredaría sus rasgos-φ de n(*), que sería por consiguiente núcleo de fase, de manera idéntica a como V hereda los rasgos-φ de v*. La consecuencia es que, si los núcleos de fase seleccionan una CL (con la que formarían una “proyección extendida” –Cf. Grimshaw (2003)-, entonces D pasaría a ser una CL, contra lo que hay, creemos, suficiente evidencia. Ver Krivochen (2010).
4

Ver, sin embargo, Gallego (2007, 2010), Gallego y Uriagereka (2006)

5

Si T fuera fase, entonces su complemento (vP o VP) se transferiría, incluyendo a la DP “sujeto”. Esta DP tendría rasgos no interpretables no valuados (Caso), y la derivación colapsaría. T, además, mantendría rasgos-φ no valuados (inherentes a T, no ya heredados de C), con lo que habría colapso también al nivel de la fase siguiente (Chomsky, 2007: 13).

En una estructura como: i) [CP What [C did] [TP you [T t] [vP what [v´ you [v bring] [VP [V bring] what]]]]]?

El objeto debe moverse a Spec-vP para poder salir de la fase, ya que queda un rasgo [wh-] no interpretable por cotejar. Siendo que una sonda atrae a la meta más cercana en su dominio, si T fuera la sonda, entonces tendría que atraer a [what] a su Spec-, y no a [you]. C, con sus dos sondas, coordina los movimientos, el wh- va a Spec-CP y [you] se ensambla en Spec-TP (Chomsky, 2005a: 18-19). Derivaciones paralelas: Las derivaciones paralelas, a partir de subconjuntos léxicos, serían necesarias en el caso de los adjuntos (incluyendo las cláusulas relativas, adjuntas a NP o DP) y las cláusulas mínimas (small clauses) (Chomsky, 1998: 28 nota 55). La inserción de la estructura derivada en paralelo se daría por medio de una transformación generalizada, que inserta un marcador de frase en otro (Ver Chomsky, 1965). Problemas del enfoque Chomskyano (Boeckx y Grohmann (2004, 2005); Epstein y Seeley (2002), objeciones propias):  ¿Cómo sabe Spell-Out que vP y CP son los objetos relativamente independientes en términos de interfaz (es decir, fases) si no tiene acceso a las interfaces, siendo una mera operación?  vP no siempre es “proposicional” (puede contener cuantificadores vacuos o variables), asimismo, hay unidades que no son vP ni CP y son “proposicionales” (en términos de una relación predicadoargumento), como las small clauses.  Si las fases son el objeto que se transfiere, como sostiene Chomsky, entonces no puede ser que se envíe a las interfaces el complemento del núcleo de fase, ya que se transferirían non-phasal objects.  Raising/passive TP, Unaccusative VP: hay asignación temática, ¿por qué no son núcleos fuertes? ¿Qué pasa con v en las construcciones inergativas?5

5

Aparentemente, Chomsky tendría en mente el modelo de Morfología Distribuida (Halle y Marantz, 1993, Marantz, 1997, Fábregas, 2005, Marantz, 2006) en el cual las categorías son de la forma [X [√ROOT]], en la que X es un licenciador (a, n, v) que determina la categoría de una raíz a priori a-categorial. Toda VP sería, entonces, una [vP [VP]] en la que V “sube” a

6

¿El backtracking está restringido porque la PIC se aplica en “ambos sentidos” (es decir, bottom-up y topdown)? Entonces, sería conceptualmente posible que una vP (inacusativa / pasiva) pueda mirar atrás a una VP (o incluso que una TP tenga acceso al complemento de VP), por ejemplo, ya que en Chomsky (1999 en adelante) se restringe la CIF a los núcleos de fase fuertes. Un caso conflictivo sería una estructura de ECM con un verbo inacusativo subordinado (ej: [CP [TP I expect [TP them to [vPcome]]]]), donde lo anterior implicaría que T en la cláusula matriz puede acceder hasta la VP subordinada, lo cual parece ir en contra de los requerimientos de localidad estricta.

ECM TPs, small clauses, Passive TPs, etc. pueden ser unidades tonales autónomas, sin embargo, no son fases fuertes.

¿Por qué el mismo objeto debe ser legible en las dos interfaces simultáneamente? Es decir, no hay nada a priori que restrinja un Spell-Out “desparejo”, en el que lo que se transfiere a una interfaz no necesariamente debe corresponder con un objeto legible en la otra, si los sistemas de actuación no están conectados entre sí. La identidad de las fases en FF y FL es estipulativa, si bien parecería la opción óptima.

La segunda propiedad de los núcleos fuertes (seleccionar una CL) tiene la consecuencia indeseable de que T pasaría a ser una CL, lo cual es afirmado explícitamente por Chomsky (2001). Dado su carácter básicamente procedimental (Ver Escandell y Leonetti, 2000, Leonetti y Escandell, 2004, Krivochen, 2010), creemos esencial mantener a T como CF.

A nivel de fase, los rasgos se borran para FL (DbP), pero si es así, no están presentes en ninguna interfaz. La noción de transferencia, más reciente, parece sin embargo neutralizar la objeción. Ver Epstein y Seeley (2002).

Las estructuras que se ensamblan en la matriz desde una derivación paralela tienen, de acuerdo con Chomsky (1998: 55) sus propios subconjuntos léxicos (cláusulas mínimas, adjuntos, especificadores – ver Uriagereka, 1999-). ¿Por qué no se los considera fases?

¿Por qué las cláusulas mínimas requieren una derivación paralela? Si el Spec- de la cláusula debe recibir caso de la sonda v(*), ¿en qué punto de la derivación debe ensamblarse la CM para que se efectúe este cotejo?

v (por naturaleza, afijal), pero no toda v es transitiva y no toda vP es fase. Por eso, la diferenciación entre v y v*: el primero sería el licenciador funcional, con “rasgos categoriales”, el segundo tendría rasgos de transitividad que cotejan caso Acusativo con la DP más cercana en su dominio de mando-c. Ver especialmente Chomsky, 2005: 15 y 2007: 12. No obstante, la asimetría no queda clara, ¿por qué es la transitividad lo que determina la presencia de una fase? Al respecto, ver Marantz (2006) y Panagiotidis (2008, 2010)

7

La segunda formulación de la CIF implica que, en una oración transitiva, el dominio de v*P no se transfiere hasta el ensamble de C, en cuyo caso, la condición de fase de v*P es totalmente irrelevante, de hecho, se comportaría casi como un núcleo débil (Chomsky, 1999) ya que no sería el locus de transferencia, sólo de cotejo.

Una alternativa dentro del marco Chomskyano: Gallego (2010 “Phase Theory”): Ubicamos la propuesta de Gallego (2010) como dentro del marco Chomskyano porque asume como válidos algunos de los pilares del modelo, como el concepto de fase como el locus de la valuación de rasgos, la existencia de núcleos de fase y la identidad de esos núcleos (v* y C), y la herencia (en términos de “sharing”) de rasgos entre el núcleo de fase y su complemento. La primera asunción es explicitada en la llamada Phase Condition (Gallego, 2010: 77): Uninterpretable features (uFF) signal phase boundaries La identidad de los núcleos de fase se deriva del hecho de que son los que en realidad tienen los rasgos-φ y, de acuerdo con Gallego, un rasgo [TENSE]6. C tiene los rasgos de T y rasgos-φ por lo que, como dijimos más arriba, T sin C es Tdef, recibe una “interpretación residual”. Aparentemente, v* también tendría un rasgo T junto con un complejo de rasgos-φ, ya que el Caso Acusativo es también una forma de T: siguiendo a Pesetsky y Torrego (2004), el Caso es un [uT] en DP, y se valúa siempre en relación local con un nodo T, sea TS para Nominativo o TO para Acusativo (Objetivo en inglés, ya que no hay diferencia morfológica con el Dativo). TS hereda los rasgos de C, y TO, de v*. La estructura de la cláusula quedaría, entonces (omitiendo proyecciones intermedias y la TO, irrelevante para la argumentación que sigue): [CP C[T] [φ] [TP TS [T:NOM] [u-φ] [v*P EA[u-T][φ] v*[T] [u-φ] [VP V IA]]]] La variación fundamental en la estructura de la cláusula es el movimiento o no de V (v) a T, que ocurre en español pero no en inglés. Aparentemente, la variación depende de si v tiene o no rasgos de T. Gallego defiende esta postura a partir de las propuestas de Lasnik (1999) y Solà (1996). De acuerdo con Lasnik, sólo los verbos ingleses be y have están totalmente flexionados en el Lexicón, mientras que el resto de los verbos son bare forms. Por el contrario, los verbos del español estarían todos totalmente flexionados en el Lexicón. Esta asimetría se combina con la observación de Solà sobre las llamadas “multicategorial words”, elementos léxicos que contienen morfemas de “distinta categoría”. Así, una palabra como [cantaremos] será multicategorial, ya que
6

La motivación en las interfaces sería más una consecuencia que una causa de la condición de fase (Chomsky, comunicación personal con Ángel Gallego en Gallego, 2010: 54), que estaría determinada totalmente por cuestiones de reducción de la complejidad computacional.

8

contiene, de acuerdo con Gallego, morfemas verbales (la raíz), temporales (-re) y nominales (-mos). Según Solà, una copia del elemento léxico multcategorial debe insertarse en cada nodo del cual contiene rasgos, así, los verbos españoles, por contener morfemas temporales, se insertarían en V y en T, para que luego se materialice la copia más alta (la que quede en T, si no hay movimiento a C). Los verbos ingleses, por el contrario, no contendrían morfemas temporales, serían todos “bare forms”7. Como consecuencia, no habría inserción de una copia en T, el V queda “in situ”, V0. En realidad, entonces, no hablamos de movimiento, sino de Construal, inserción léxica y borrado de las copias más bajas. Gallego asume que C, T y v* en lenguas como el español comparten un rasgo [TENSE], supuesto fundamental para su argumentación. El mecanismo funcionaría de la siguiente manera: C debe valuar su rasgo [TENSE] con v* como objetivo (donde está el V, atraído por el verbo liviano afijal), pero T actúa como rector potencial para v* más cercano que C, por lo que la operación violaría Minimalidad. Por lo tanto, v* se mueve a T, proyectando un marcador de frase “híbrido” v*-TSP que valúa T en C. Incidentalmente, esta operación redefine los límites de la fase v*P por una suerte de “upstairs inheritance” (Gallego, 2010: 108) de la siguiente manera: toda la proyección v*-TSP pasa a ser fase, lo que equivale a decir que en las lenguas en las que hay movimiento de v(*) a T, TP se comporta como una fase fuerte, por lo que la cantidad de material transferida es mayor, no sólo VP sino toda la v*P. El proceso se denomina Phase Sliding, y se ilustra de la siguiente forma (adaptado de Gallego, 2010: 108):

TSP EA TS EA v* TS´
Edge

v*-TSP EA v*P v*
Complement

Edge

v*TS´ v*-TS v*P EA v* v*´ VP
Complement

Phase Sliding VP

Una vez movido v*, el problema de Minimalidad queda resuelto, ya que no hay rector potencial entre C y v*, y C puede valuar su rasgo [TENSE].

7

Formas como [love-s], que parece contener un morfema nominal son analizadas como si el morfema tuviera sólo rasgos de número, no de persona, por lo cual habría cierta defectividad. Con formas como [lov-ed], el argumento es diferente: aparentemente, serían formas participiales, sólo con un morfema de Aspecto (ver Gallego, 2010: 101).

9

Dado que las fases se construyen a partir de distintas LA, queda la pregunta de a qué LA pertenece TS, si a la de C o a la de v*. Dados los efectos de Phase Sliding, Gallego sostiene que T pertenece a la LA de v*. La conclusión, entonces, es que la cualidad de fase de TP depende de un parámetro, crucialmente, el que establece el movimiento de v* a T en la sintaxis, y que depende de que v* tenga rasgos de [TENSE]. Problemas: Los problemas que encontramos en la propuesta de Gallego son, en parte, los mismos que encontramos en la postura chomskyana. La crítica a la determinación de los núcleos de fase C y v* se mantiene. Creemos que ubicar rasgos [T] en C, T y v* es estipulativo, ya que reduciría a T casi a una proyección de concordancia cuando es “defectiva”, por lo que su motivación en las interfaces (y su valor procedimental) quedaría en duda. Además, encontramos un problema con las consecuencias de Phase Sliding para la materialización. Si aceptamos el Earliness Principle de Pesetsky (1995), las operaciones deben aplicarse tan pronto como sea posible. El mismo Chomsky sostiene en un primer momento de la teoría (MI) que el complemento de un núcleo de fase es transferido no bien se ensambla el núcleo pertinente, para respetar una estricta localidad y evitar de esta manera tanto el look ahead como el backtracking. En la propuesta de Gallego, la redefinición de la fase v*P implica esperar hasta el movimiento de v* a TS para efectuar la transferencia, lo cual consideramos estipulativo: el sistema debe “saber” de alguna forma que se ensamblará TS cuando ha terminado el ensamble de v*P para retrasar la transferencia, lo cual implica que C(HL) debe tener en cuenta un elemento que, en el punto de la derivación en el que estamos, aún no ha sido introducido. No hay razón a priori para que VP no pueda transferirse una vez ensamblado v*, que sería lo esperable. Otra opción implica apartarnos de la optimidad, lo que requiere fundamentación teórica y empírica. La proyección de un “marcador de frase híbrido” v*-TSP entra en conflicto con nuestra visión de labeling, como se verá más abajo. Tenemos dos categorías funcionales / procedimentales (v* y T), por lo que, desde nuestra teoría, el etiquetado a los fines de la explicatura sería imposible ya que no existe la relación de alcance (scope) entre CP y CL y la consecuente restricción de la referencia (eventiva tanto como nominal) que hace a la construcción legible para C-I. La FL (en términos de TR) generada siguiendo la propuesta de Gallego colapsaría a nivel de la explicatura. Gallego hace uso de dos proyecciones, TS y TO, extraídas de los trabajos de Pesetsky y Torrego. Estas proyecciones, a menos que estén dominadas inmediatamente por los núcleos de fase C y v*, serían defectivas (por lo que recibirían, según Chomsky, una “interpretación residual”. Ver supra.), y de por sí no contarían con rasgos interpretables, que serían heredados de los núcleos de fase. Consideramos que, ya que no hay rasgos interpretables en juego ([Tense] sería un rasgo de C, no de T, siguiendo la hipótesis más fuerte) en estos nodos, TS y TO son equivalentes a las proyecciones de concordancia (“Agr-projections”) AgrS y AgrO del GB tardío, y que fueron eliminadas en Chomsky (1995) por no ser más que receptáculos de rasgos-φ para el cotejo de Caso en 10

relación Spec-Head sin interpretación en las interfaces. En el PM, todo elemento presente en una representación debe estar motivado por requerimientos de interfaz, y la expresión debe ser totalmente legible para los sistemas de actuación (C-I y A-P). Creemos que estas dos proyecciones, TS y TO, no cumplen con los requerimientos del minimalismo sustantivo, por lo que deben ser asimismo eliminadas.

b) Uriagereka (1998 “Piez y Cabeza”, 1999/2002 “Multiple Spell-Out”) La idea de aplicar la operación Materialización de manera cíclica (Materialización Múltiple) aparece en Uriegereka (1998: 336 y ss.) en la forma de la regla: i) Dada una estructura {α {α, β}}, α puede linealizarse. Tal regla implicaba que, una vez generado un cierto tipo de estructura (una “unidad de comando”, ver infra), ésta puede enviarse a las interfaces si y sólo si el resultado de tal operación es la convergencia. El “cuándo” de Spell-Out está determinado por las condiciones de legibilidad de las interfaces: si un elemento que contiene rasgos no interpretables es enviado a las interfaces, entonces Spell-Out se habrá aplicado “demasiado pronto”. En términos de Uriagereka, “(…) Materialización se aplicará siempre que haya convergencia.” (1998: 340). Multiple Spell-Out (Uriagereka, 1999) representa un refinamiento y explicitación del modelo esbozado en Uriagereka (1998). La noción de unidad de comando (“command unit”) cobra vital importancia, y se define como sigue: Command unit: resultado de la aplicación continua de Merge a un objeto α, que proyecta. Puede linealizarse mediante ACL, ya que no hay puntos de simetría. α β α α γ

Non-command unit: resultado del ensamble de dos objetos generados separadamente (ej. Ensamble de especificadores o adjuntos). No puede linealizarse, ya que se genera un punto de simetría, mando-c mutuo entre dos XPs.

11

α α α  β γ γ δ

Materialización se aplica a command units, óptimamente, sólo una. El acceso a FF es en “cascadas derivacionales”. Cuando aparece una non-command unit formada por command units, se materializa cada una por separado, evitando la simetría.

Las CU serían los “dominios naturales” para los fenómenos de FF y FL (como las fases chomskyanas), ya que son las unidades que llegan a las interfaces en cada “cascada derivacional”. Complementos: igual CU que el núcleo, por lo tanto, se materializan en la misma “cascada derivacional”. Especificadores/Adjuntos: se materializan antes que el núcleo de la CU, el procesamiento es top-down (a diferencia del enfoque Chomskyano, tradicionalmente bottom-up).

α “cascada” I γ γ δ α β α β φ “cascada” II

Move α: se analiza por pasos. Movimiento se aplica a CU. 1. Copiar una de dos CU ensambladas separada y paralelamente. 2. Materializar la copia más baja como trace. 3. Ensamblar la trace a la estructura principal. 4. Ensamblar la copia más alta a la periferia de la probe. El movimiento requiere, entonces, que el espacio de trabajo mantenga elementos en derivaciones paralelas, ensamblando luego las distintas “partes” por transformaciones generalizadas. Según Uriagereka, los espacios derivacionales paralelos son una necesidad (Uriagereka, 1999: 121): en la derivación de [saw the man saw a 12

woman], [the the man] y [saw saw [a a woman]] se generan separadamente, y luego se ensamblan externamente por sustitución8. La derivación procedería como sigue: saw
CU 1, ensamblada en espacio derivacional α. “Cascada” I

the the man saw

saw a a woman
CU 2, ensamblada en espacio derivacional β. “Cascada” II

Si la derivación ocurriera sólo en un espacio, entonces [the] y [man] se ensamblarían a [saw a woman] secuencialmente, y no como un constituyente armado. Es decir, si suponemos que de todas formas [saw] proyectaría frase, el marcador final sería: *[saw the [saw man [saw saw [a a woman]]]].

Ventajas:  Se eliminan las estipulaciones con respecto a los núcleos de fase, la Materialización está determinada por la convergencia (sobre todo en la primera formulación de Materialización Múltiple).  La noción de command unit parece seguirse de las propiedades de Merge, no resulta tan estipulativa como concepto básico. Kayne y Chomsky, independientemente, habían llegado a la misma conclusión sobre las asimetrías entre Compl. y Specs./Adjuntos, pero sus resultados no parecen satisfactorios9. Problemas:  No se toma en cuenta el cotejo de rasgos en las CU, y no queda claro por qué la noción de command unit sería relevante en las interfaces en términos de convergencia. La CU sería el locus de las operaciones, con lo que la definición de fase se asemeja a la de Chomsky (2005, 2007).  El análisis de Movimiento es muy complejo, requiriendo derivaciones paralelas sin estar debidamente justificadas conceptual y empíricamente. Un problema, por ejemplo, es la ausencia de restricciones sobre
8

Nunes (1995) analiza los huecos parasíticos (parasitic gaps) utilizando un mecanismo derivacional muy parecido al de Uriagereka.
9

Kayne, en el marco del ACL, sostiene que los especificadores son sintagmas adjuntos para evitar la violación de antisimetría que se genera entre el núcleo del Spec- y el núcleo de la proyección a la que se adjunta, ya que se mandarían-c de manera asimétrica mutuamente. Kayne modifica la definición de c-command para restringirla a terminales, no a segmentos, de modo tal que un segmento (como una proyección intermedia) no puede entrar en relación de c-command con un núcleo.

13

el número de derivaciones paralelas posibles. Aparentemente, tanto argumentos como adjuntos se generarían en espacios derivacionales paralelos, por lo que la asimetría entre Compl. y Specs. / Adjuntos se vería oscurecida. En el ejemplo de Uriagereka, nada impide que [a a woman] se genere también en una derivación paralela, como el especificador: sólo una estipulación establece el orden de materialización y la pertenencia a la misma CU que el V o no.  No se habla sobre las condiciones de legibilidad de FL, sino sólo sobre el acceso cíclico a FF.

c) Epstein y Seeley (2002 “Rule Applications as Cycles in a Level Free Syntax”) Supuestos ineliminables en el Programa Minimalista: 1. Una expresión es una asociación de forma y contenido (FF y FL) 2. Los elementos léxicos son conjuntos de rasgos. Las Operaciones Sintácticas tienen como objetivo generar objetos legibles (i.e, totalmente interpretables) para las interfaces. La operación Spell-Out “elimina” los rasgos no interpretables para FL (Chomsky, 1999), que son aquellos que entran no valuados a la derivación. Para Chomsky, la fase es el locus en el que se da la valuación, y que luego será transferido a las interfaces. El problema que encuentran Epstein y Seeley es el siguiente: SpellOut no puede saber qué rasgos serían no interpretables por FL si no puede “mirar adelante” (look ahead) a la interfaz para conocer sus condiciones de legibilidad y “mirar atrás” (backtracking) para saber qué rasgos entraron no valuados a la derivación10. Problema: ¿Cuándo (i.e, en qué punto de la derivación) se aplica Spell-Out? a) Antes de la valuación: Resultado: colapso. Los rasgos no están valuados, por lo que no son legibles. b) Después de la valuación: Resultado: colapso. Spell-Out no tiene forma de saber qué rasgos entraron valuados a la derivación y cuáles no, por lo que no sabe qué es legible por FL y qué no.

10

Chomsky (2005) intenta neutralizar la objeción mediante la estipulación de que valuación y borrado de rasgos no interpretables se dan simultáneamente, como parte de la transferencia cíclica. No obstante, es precisamente su carácter estipulativo lo que hace que esta aparente “solución” en realidad no sea tal.

14

Epstein y Seeley se oponen a hablar de borrado de rasgos (“feature deletion”), ya que si los rasgos se eliminan, no están en ninguna interfaz, y aparentemente los rasgos (fonológicos) permanecen en FF. Spell-Out se aplica dentro de ciclos transformacionales, cuyo input es un objeto sintáctico con rasgos no interpretables y cuyo output es un objeto legible para las interfaces. Cada output es transferido dinámicamente, de acuerdo a las condiciones de legibilidad de cada interfaz. Idealmente, cada aplicación de una regla transformacional (como Agree) delimita un objeto transferible. La operación, entonces, es derivacional, no se aplica a una representación (ya que tanto la representación precomo post- regla transformacional generan colapso), sino dentro de un ciclo derivacional.

[α …u-F…]
Input

Regla (Move, Agree, etc.)

[α…+/- F…]
Output

Transferencia

Interfaces

Move α: regla transformacional. Operaría de manera estándar, como se asume en el Minimalismo chomskyano. Copias/huellas: “remanentes” de estadíos derivacionales previos. No tienen entidad real, sino que son ocurrencias “diacrónicas” del mismo elemento. El sistema podría hacer un backtracking al paso derivacional inmediatamente anterior, es decir, al input de la regla transformacional, para ver qué rasgo no tenía valor (y era, por lo tanto, no interpretable en FL). Ventajas:   Elimina las estipulaciones sobre los núcleos de fase. Fortalece la parte “derivacional” del PM, lo cual es una ventaja ya que la concepción representacional del sistema es muy propia de GB, y la caracterización de los niveles de representación y sus condiciones de buena formación se puede hacer difícil y overlapping.  Caracteriza Merge como una operación inherentemente “diacrónica”, hay un orden necesario en la derivación, resultado de las sucesivas aplicaciones de Merge y de las reglas transformacionales. Es necesario que el sistema tenga acceso tanto al input como al output de la regla. Problemas:

15

 

Sobregeneralización de la condición de fase (phasehood)11 (ver infra.) La definición de Spell-Out es cuestionable, ya que también podría decirse que la operación separa los rasgos interpretables por FF (fonéticos) y los manda a la interfaz, dejando el resto a FL. Preferimos mantener el término “transferencia”, usado por Chomsky (2005, 2007).

Si consideramos la versión fuerte de la teoría, entonces esto plantearía problemas para el movimiento de constituyentes: si cada aplicación de Ensamble (tomado como una regla transformacional) determina un objeto transferible, y el movimiento dentro de una proyección está vedado por restricciones de antilocalidad, entonces no habría forma, de acuerdo con Boeckx, de extraer un objeto del dominio de VP, ya que éste se transferiría al ensamblarse con el núcleo. El problema que Boeckx encuentra en la propuesta de Epstein y Seeley es que hay “demasiadas fases” y no se proponen “escape hatches” para el movimiento cíclico de constituyentes.

d) Grohmann (2003a “Prolific Domains. On the Anti-Locality of Movement Dependencies”, 2003b “Successive Cyclicity under (Anti-) Local Considerations”, 2004 “Prolific Domains in the Computational System”) Punto de partida: estructura de frase vigente desde Barreras (1986), es decir: [CP [TP [VP]]] Definición de Dominio Prolífico: (Grohmann, 2004: 212) “A Prolific Domain is a contextually defined part of the computational system, which provides the interfaces with the information relevant to the context and which consists of internal structure, interacting with derivational options”. CP, TP y VP son prolíficos en el sentido en que contienen más de una “capa”:   CP se expande en ForceP, TopP, FocP y FinP desde Rizzi (1997). TP se expande en AgrSP, AgrOP, sintagmas aspectuales, NegP desde Pollock (1989) y trabajos posteriores.  VP se expande en vP y VP desde Larson (1988) y Hale y Keyser (1993).

11

Una versión fuerte de la hipótesis de Epstein y Seeley implicaría, como sostiene Gallego (2010), que cada aplicación de Ensamble delimitaría un objeto transferible. Esto requiere, claro, que se considere que Ensamble es una operación transformacional, y que cuando se aplica se valúa un rasgo no interpretable (que podría ser el Edge Feature de Chomsky, 2005a; 2007, aunque esto no es afirmado por Epstein y Seeley). Gallego sostiene que un modelo tan “fuertemente derivacional” implica demasiadas operaciones de transferencia, sin que quede claro “demasiadas” respecto de qué criterio.

16

Dentro del dominio de V y sus proyecciones asociadas se establecen las relaciones temáticas, por lo que este dominio será denominado dominio-Θ. El dominio-Θ correspondería a la SEM1 de Chomsky (2005a). Dentro del dominio de T y sus proyecciones asociadas se licencian las propiedades de concordancia, por lo que este dominio será denominado dominio-Φ. Dentro del dominio de C y sus proyecciones asociadas se dan operaciones discourse-driven, correspondientes a la SEM2 de Chomsky (2005a). Este dominio será denominado dominio-Ω. Estructura revisada: [ΩΔ ForceP…TopP…FocP…FinP [ΦΔ AgrSP…TP/IP…AgrOP… [ΘΔ vP…VP]]] Spell-Out se aplica en cada dominio prolífico ΠΔ. La derivación procede cíclicamente de dominio en dominio, y cada ΠΔ es materializado una vez completado, ya que posee información relevante para FF y FL. En este sentido, el dominio prolífico es similar a la fase: es un objeto totalmente interpretable por las interfaces. Restricciones sobre el Movimiento:

Anti-localidad: el movimiento dentro de un mismo dominio prolífico cuenta como demasiado local, y provoca que la derivación colapse. La formulación de la anti-localidad es la siguiente (Grohmann, 2004):
Condition on Domain Exclusivity (CDE): An object O in a phrase marker must have an exclusive Address Identification AI per Prolific Domain ΠΔ, unless duplicity yields a drastic effect on the output. i. An AI of O in a given ΠΔ is an occurrence of O in that ΠΔ at LF. ii. A drastic effect on the output is a different realization of O at PF.

Es decir, no puede haber más de una ocurrencia de un objeto sintáctico por dominio prolífico, ya que una cadena existente dentro de un ΠΔ no sería interpretable por FF. Grohmann formula la operación “Copy Spell-Out”, que asigna a una copia una matriz fonológica diferente a la otra (en la forma de un “gramatical formative” como un reflexivo) como única excepción a la anti-localidad, un “efecto drástico en el output”. El objetivo de Grohmann es definir las operaciones aplicables dentro de y entre ΠΔ de acuerdo a las condiciones de legibilidad de las interfaces. La formulación de la CDE lleva a rechazar la postulación chomskyana de múltiples Specs- en vP como escape hatches para el movimiento de objetos dentro de VP o incluso adjuntos a VP, ya que contaría como movimiento interno a un dominio prolífico (el dominio Θ, en este caso), y, por lo tanto, demasiado local.  Localidad: La localidad en el movimiento depende del tipo de movimiento que se esté considerando. Grohmann (2003, 2004) distingue dos tipos:

17

a) Intra-Clausal Movement: se da entre diferentes dominios dentro de una misma cláusula. Un objeto sólo puede moverse al dominio prolífico inmediatamente dominante. La regla queda formulada como sigue (Grohmann, 2004: 214):
Intra-Clausal Movement Generalization [βΔ XP … [αΔ … XP … ] ], where β >> α

Así, por ejemplo: i) [CP What did [TP you did [AgrOP what [VP buy what]]]].
Dominio-Ω Dominio-Φ Dominio-Θ

b) Inter-Clausal Movement: se da entre dominios idénticos en cláusulas diferentes. Un objeto sólo puede moverse de un dominio en una cláusula al mismo dominio de la cláusula destino. La regla queda formulada como sigue (Grohmann, 2004: 215):
Inter-Clausal Movement Generalization [αΔ XP … ‡ … [αΔ … XP … ] ], where ‡ = clause boundary

Grohmann (2003a, 2004) compara su propia propuesta de dominios prolíficos con las fases chomskyanas:  Ambos modelos establecen condiciones de localidad para las computaciones sintácticas, pero los ΠΔ estarían motivados “contextualmente”, mientras que las fases están motivadas “proposicionalmente” en un primer momento y “computacionalmente” en un segundo momento.  Grohmann interpreta la aplicación de Spell-Out en el modelo chomskyano como si ocurriera una vez que el núcleo de fase siguiente al pertinente entra a la derivación, así, el dominio de v(*) se materializaría una vez que C entre en la derivación. Los ΠΔ, por su parte, se materializarían no bien completos. No obstante, Chomsky (1999: 28) sostiene “(…) An element to be extracted [out of a phase] can be raised to the edge, and the phonological component can Spell-Out the domain at once, not waiting for the next phase (…)” Destacado nuestro. La objeción de Grohmann vale únicamente si se acepta la versión 2 de la CIF, cuyas consecuencias hemos criticado arriba, pero la versión 1 neutraliza el problema.  TP no cuenta como fase fuerte, pero con sus proyecciones asociadas sí cuenta como dominio prolífico. DP está en duda en el modelo chomskyano, pero Grohmann (2003a) propone una estructura tripartita para DP: [DP [AgrP [NP]]], por lo que DP sería también un dominio prolífico.

18

Sólo se permite un especificador por ΠΔ (CDE) mientras que las fases chomskyanas requieren múltiples especificadores como escape hatches.

El Movimiento está regido por principios de localidad y anti-localidad, que reemplazarían a las condiciones tradicionales del PM: Minimalidad Relativizada, Shortest Move, Condición de Eslabón Mínimo, etc.

Ventajas:   Elimina las estipulaciones respecto de los núcleos de fase. Los dominios prolíficos se definen en términos de las propiedades de interfaz, por lo que estarían motivados por principio (Chomsky, 2005b).  Como consecuencia de lo anterior, Grohmann intenta proponer una base más firme para las propuestas de Split-Projections en términos estrictamente minimalistas. Problemas:  No se establece qué condición debe cumplir una proyección para ser parte de un dominio prolífico. En otras palabras, si bien los dominios-Θ, Φ y Ω estarían justificados por las condiciones de interfaz, ya que cada uno proporcionaría información de distinta naturaleza a los sistemas de actuación, no están igualmente justificadas las proyecciones que conforman cada dominio. Así, por ejemplo, Grohmann distingue una proyección AgrOP dentro del dominio-Φ, pero, siguiendo la argumentación de Chomsky (1995), las proyecciones de Agr no son más que receptáculos de rasgos-φ sin interpretación en las interfaces. Si un dominio contiene una proyección no interpretable, entonces el dominio mismo no es totalmente interpretable. Las proyecciones que se introduzcan deben estar justificadas en términos de las propiedades de interfaz, como se intenta hacer en Krivochen (2010) con ModP, AspP y TP.  La interacción entre intra- e inter-clausal movement resulta problemática. Siguiendo la Intra-Clausal Movement Generalization, un elemento sólo puede moverse dentro de una cláusula al dominio inmediatamente dominante. No obstante, esto conlleva una consecuencia indeseable, ya que, por ejemplo, en una interrogativa a larga distancia como [CP Where did [TP you [VP say [CP that [TP he would [VP [VP hide the money] where]]]]]]?, el Wh- debería moverse en primer término a una posición en el dominio-Φ, pero un adjunto no puede ocupar posiciones-A, y no hay proyección que pueda crear una posición para el elemento movido. Si, por el contrario, se sigue estrictamente la Inter-Clausal Movement Generalization, entonces el Wh- debería moverse al dominio-Θ de la cláusula destino, y el problema es el mismo. Si intentamos mover un argumento, como en [CP1 What did [TP you [VP say [CP2 that [TP he had 19

[VP bought what]?, entonces el problema es el siguiente: si el Wh- sube cíclicamente hasta Spec-CP2 por intra-clausal movement (es decir, pasando por el dominio-Φ), no podrá moverse a Spec-CP1 por interclausal movement hasta que la derivación haya alcanzado ese estadío, pero si es así, entonces quedará en Spec-CP2 con rasgos a cotejar. Si esto es correcto, entonces el Spell-Out de los dominios intermedios (es decir, entre CP2 y CP1) llevará al colapso de la derivación, ya que se estaría enviando a las interfaces un objeto no interpretable totalmente.

e) Fases en Morfología Distribuida: Panagiotidis (2009 “Four Questions on the Categorization of Roots”, 2010 “Categorial Features and Categorisers”); Marantz (2006 “Phases and Words”); Fábregas (2005 “La definición de la categoría gramatical en una morfología orientada sintácticamente: nombres y adjetivos”) Estructura de los elementos léxicos: raíz + “categorizador” (n, v) (+ otros afijos + categorizador12 + …). Los elementos léxicos (raíces categorizadas) son unidades de forma (FF) y significado (FL) que tienen que recibir una interpretación en las interfaces una vez que se ha establecido la categoría de la raíz, por lo tanto, corresponderían a fases. La condición de fase estaría determinada por los categorizadores, que tendrían rasgos [N] y [V], interpretables en FL. [N] correspondería a objetos y sustancias, mientras que [V] correspondería a eventos localizados en el tiempo, independientemente de Aktionsart. Cada rasgo determina los nodos funcionales con los que la raíz podrá luego ensamblarse: [N] con NumP y DegP, [V], con T, Asp y Voice; y hace a una raíz manipulable por C(HL). En palabras de Panagiotidis: “(…) That´s why we cannot have roots in syntax unless in the complement of a categorizer: the categorial feature [N] or [V] on n or v provides the necessary perspective for the root to be interpreted. (…)” Panagiotidis (2009: 8). Las raíces estarían subespecificadas semánticamente, por lo que no serían objetos legítimos en FL de no estar categorizadas. Panagiotidis (2010) distingue cuatro tipos de elementos en la gramática: a) Raíces, a-categoriales y semánticamente subespecificadas. b) Categorizadores (v, n), conjuntos de rasgos determinados por UG con valores para las dimensiones [N] y [V]. c) Nodos funcionales (D, Asp, T, Voice, Num), conjuntos de rasgos determinados por UG con con rasgos categoriales no valuados [u-N] y [u-V] que se valúan en el ensamble de estos elementos con las raíces categorizadas.
12

Por ejemplo, en derivaciones, verbos denominales (obtenidos mediante “conversión”), nominalizaciones deverbales, etc.

20

d) Morfemas internos (inner morphemes: –ee, de-), conjuntos de rasgos determinados por UG sin rasgos categoriales, por lo que tienen con las raíces una relación menos restringida que los nodos funcionales. Las fases dentro de la estructura léxica determinarían el alcance relativo de ciertos morfemas (inner morphemes): Ej: el prefijo [des-], que puede dominar a v o no. i) Reversativo: [CAUSAR [NO X]] v domina a [des-] ii) Privativo: [NO [CAUSAR [X]]] [des-] domina a v Así, los afijos pueden o no afectar directamente a una raíz. Pese a que Marantz sostiene que los categorizadores determinan fases (y Fábregas lo sigue) Panagiotidis (2009) sostiene que, en una estructura verbal, el núcleo de fase no sería el categorizador (v) sino una proyección funcional VoiceP que estaría relacionada con la transitividad. Así, la causativización de verbos ergativos (estructuras “causativas léxicas”) implicaría añadir una VoiceP a la estructura [vP [ROOT]], que sería meramente eventiva.13 Si v fuera una fase en inacusativos y ergativos sin argumento externo, entonces al añadir la VoiceP para “causativizar” el ergativo habría una “doble fase”, lo que Panagiotidis quiere evitar.

a) VoiceP Voice v vP

b) vP v ROOT Argument Ej: The window broke Phase domain √ROOT Argument ROOT

√ROOT

Ej: John broke the window

Ventajas:  Permite unificar los procesos derivacionales, al utilizar el concepto de fase dentro de la estructura de los elementos léxicos. Problemas:
13

Podemos, provisoriamente, establecer cierta correspondencia entre VoiceP y vP con los nodos R y T en las ESR de Mateu Fontanals. Ver infra y Mateu (2000a, b)

21

No queda claro, más allá de la estipulación, por qué VoiceP, y no vP, debe determinar la presencia de una fase. Si la idea es que todos los elementos léxicos son unidades de forma y significado, entonces los verbos inacusativos y ergativos (vPs) tendrían que ser asimismo fases. ¿Por qué no es v el que determine la fase, en lugar de Voice (con lo que también se evita la doble fase en transitivos)?

Los verbos inergativos no son explícitamente considerados dentro del planteo de la VoiceP. ¿VoiceP es igual a Transitividad o a Causatividad?

De las representaciones anteriores (a) y (b) se desprende que en las estructuras morfológicas está codificada la estructura argumental (ya que las raíces tomarían argumentos14), pero no se explicita de qué manera, ni tampoco qué rasgos se descargan al ensamblar la raíz con el argumento, rasgos que causarían que la derivación colapsara de no saturarse la valencia de la raíz.

Boeckx critica el hecho de que una concepción que considere los elementos léxicos como fases implica tener un sistema con “demasiadas fases”: si cada palabra determina un objeto transferible, la reducción del costo computacional quedaría puesta en duda. Además, las operaciones de reconstrucción posttransferencia se complican ya que no se contempla en el modelo la inclusión de instrucciones (procedimentales) sobre cómo relacionar los elementos transferidos.

Parte II: Nuestra propuesta
Definición de fase: P es una fase en un nivel15 LX ssi P es el mínimo término totalmente interpretable en (i.e, manipulable por) LX+1 (es decir, en el nivel siguiente). Se reemplaza el concepto de fase por el de fase en L. En relación a los enfoques anteriores, nuestra propuesta se alinea con los que delimitan las fases en términos de convergencia (Uriagereka, en cierta medida Grohmann, ya que define los dominios prolíficos en términos de las propiedades de interfaz) y se aparta de la concepción de Chomsky (fases proposicionales en un primer momento, luego definidas como el locus de la valuación de rasgos, siempre en torno a dos núcleos determinados a priori), por considerarla estipulativa. Resulta neutral con respecto a Epstein y Seeley, ya que no se mencionan operaciones transformacionales como delimitadoras de objetos transferibles. La transferencia a FF (Spell-Out) se aplica a un término que es, en todo caso, resultado de la aplicación de una operación, pero no se aplica dentro del ciclo transformacional. No obstante, se evita la
14

Ver, por ejemplo, Embick y Noyer (2004).

15

No debe confundirse nuestro uso del término “nivel” con el que tenía en el modelo Chomskyano de los 80, en el que “niveles” eran D- y S-Structure, FL y FF.

22

dificultad señalada por Epstein y Seeley respecto del “momento derivacional” de la aplicación de Spell-Out ya que no se afirma que su función sea eliminar rasgos no interpretables para FL, sino que se toma el concepto de transferencia, que es más amplio y menos estipulativo. Transferencia implicaría solamente enviar un objeto a los sistemas externos, sin la estipulación añadida de la eliminación de rasgos no interpretables por FL. Nuestra definición tiene la ventaja de que es aplicable a cualquier módulo mental, no sólo a lo lingüístico. Teniendo en cuenta los paralelismos entre la capacidad lingüística y la matemática, la musical16, o el sistema visual, esto es, creemos, una consecuencia deseable. Niveles: Ya que se trabaja con el concepto de fase en L, se hace necesario definir cuáles son los niveles relevantes. Creemos que la definición que damos es compatible con cualquier arquitectura de las facultades mentales con que trabaje el lector, provisoriamente, nosotros proponemos la siguiente arquitectura: Elementos mínimamente requeridos para una derivación lingüística:  Un sistema computacional (que combine mediante ensamble elementos discretos, que establezca relaciones de licenciamiento de dimensiones en un dominio local, y que permita el movimiento de términos si así fuera requerido17)    Un conjunto no necesariamente ordenado de elementos con propiedades (dimensiones) distintivas. Un sistema (módulo) extralingüístico conceptual-intencional Un sistema (módulo) extralingüístico articulatorio-perceptivo

Puntos de partida:  El cerebro-mente en su totalidad se rige por principios de economía18. En Facle, economía es, por ejemplo, localidad en las operaciones (Movimientos más cortos, efectos de Superioridad, Subyacencia, Barreras, etc.). El cerebro-mente es un conjunto de módulos, sistemas computacionales relativamente

16

Ver, por ejemplo, Jackendoff y Lerdahl (2004).

17

La explicitación de las motivaciones del movimiento no es algo que vayamos a hacer aquí. Para Chomsky (ver, p. ej. 1998), los elementos se mueven en la sintaxis para cotejar rasgos no interpretables (con lo que reduce dos “aparentes imperfecciones” a una), mientras que para Moro (2000), siguiendo los pasos de Kayne (1994), el movimiento es una operación de FF que se realiza para crear asimetrías ya que, si bien los puntos de simetría (i.e: mando-c mutuo entre categorías) son “tolerables” en la sintaxis, no son linealizables.
18

Ver, por ejemplo, Krivochen (2010).

23

autónomos con base biológica y pautas de desarrollo específicas, cada uno de los cuales tiene sus aplicaciones particulares de los principios de economía. La anterior definición de fase es válida para cualquier sistema.  Los módulos están interconectados. La interconexión implica operaciones de transferencia, en las que un sistema proporciona información a otro en una forma que sea legible. La transferencia sigue dos principios de economía: el Earliness Principle (Pesetsky, 1995: las operaciones se aplican tan pronto como sea posible) y el Principio de Interpretación Plena (Chomsky, 1995: no debe haber elementos superfluos/no interpretables en las representaciones que llegan a los niveles de interfaz). Si esto es así, no bien se forme un objeto en el nivel L1 que éste sabe totalmente interpretable por L2, el objeto se transfiere.  Una condición necesaria para que la definición sea aplicable es la siguiente: cada sistema tiene acceso, al menos, a las condiciones de legibilidad del sistema siguiente. Esto es incompatible con la estricta localidad del PM chomskyano, ya que no se permite el look ahead ni el backtracking. No obstante, sostenemos que es necesario que un sistema sepa qué debe presentarle al siguiente para que la derivación sea más económica. De lo contrario, nada impide que un sistema produzca infinidad de outputs ilegibles hasta dar con el correcto. Tengamos en cuenta que nuestra definición no sólo pretende aplicarse a Facle, sino potencialmente a cualquier sistema que deba presentar información a otro, por lo que la condición no es trivial como puede parecer en un principio. Teniendo en cuenta los principios anteriores, explicitemos el funcionamiento de nuestras fases en la derivación de una expresión lingüística. Partimos, siguiendo a Stamboni (2008) y Krivochen (2010) de una instancia pre-sintáctica del módulo C-I. En este componente ubicamos primitivos semánticos, conceptos genéricos pero delimitados que pueden combinarse mediante Ensamble19 dado su “formato común” (Boeckx, 2010) para formar objetos conceptuales más complejos, estructurados. Estos objetos conceptuales deben poder ser leídos por la sintaxis para generar una expresión lingüística, de modo que, siguiendo los principios anteriores, el sistema C-I debe: (a) tener acceso a las condiciones de legibilidad de la sintaxis y (b) producir un objeto que cumpla mínimamente con estas condiciones. La sintaxis, consideramos, lee estructuras jerárquicas compuestas de ramificaciones binarias (binary-branched hierarchical structures), y C-I lo sabe. Consiguientemente, C-I construye un objeto semántico “sintácticamente pertinente”, que identificamos con las ESR de los trabajos de Jaume Mateu Fontanals (1999, 2000a, 2000b): “(…) our main proposal concerning the interface between
19

Nosotros consideramos que la operación Ensamble es pertinente a todos los módulos del cerebro-mente, no sólo a la sintaxis en sentido restringido (ver infra). Siempre que hablemos de combinación, entonces, estaremos hablando de Ensamble, independientemente del módulo en el que estemos trabajando. Esta operación no tendría costo computacional, y sería resultado de una mutación aparentemente repentina, un “recableado” del cerebro, que habría determinado la diferencia cualitativa entre humanos y no-humanos (Chomsky, 2005b).

24

Conceptual Semantics and Syntax is that there is a syntactically relevant conceptual structure, which can be represented in a meaningful tree structure (…)” (Mateu, 2000b, énfasis nuestro). Las ESR son estructuras arbóreas que representan los tres constructos semánticos básicos posibles: el inergativo, el (di)transitivo y el inacusativo. Estos constructos semánticos se generan a partir de la proyección de tres nodos: R (un nodo causativo presente en estructuras inergativas y (di)transitivas en cuyo Spec- se genera el iniciador o agente y cuyo complemento es T), T (un nodo transicional, sin especificador y con un complemento, sea la proyección relacional r en el caso de los inacusativos y (di)transitivos o un núcleo no relacional en el caso de los inergativos) y r (un nodo relacional dentro del cual se establecen relaciones espaciales entre en términos de Figura y Fondo). Cada nodo estaría asociado con rasgos estructurales (de acuerdo con Mateu, elementos como “eventivo”, “relacional”, “no relacional”, rasgos que pueden leerse de la estructura y son pertinentes a la proyección sintáctica de los argumentos) y rasgos con contenido (“contentful”), como central-terminal coincidence, BE, GO, etc., que no serían pertinentes para la proyección sintáctica de la ESR (Mateu Fontanals, 2000a: 7). Las ESR no contendrían otros elementos que los primitivos semánticos y los argumentos, sin dimensiones funcionales-procedimentales. Estas estructuras conceptuales representadas en diagramas arbóreos, jerárquicos y binarios, deberían ser legible por la sintaxis, ya que cumplen con sus condiciones de legibilidad. Por lo tanto, proponemos provisoriamente establecer la instancia pre-sintáctica de C-I como el primer nivel, y la ESR como el output de ese nivel (de acuerdo con Mateu, de hecho, las ESR se ubican en la interfaz entre la semántica conceptual y la sintaxis). Así, en la composición de la ESR, un término (por ejemplo, el nodo r completo con su figura y fondo) será una fase en C-I si es el mínimo término totalmente interpretable por la sintaxis, lo que significa que es manipulable y no contiene elementos superfluos. Asumimos que la composición en todos los niveles se da en un tiempo, por lo que no se pasa de la nada a una estructura completa (como correspondería a un modelo más representacional) sino que los primitivos (en este caso) se van combinando secuencialmente y la transferencia se aplica en tiempo real, no bien sea posible. No obstante, se presenta un problema: el módulo C-I no puede contener sino conceptos genéricos (sólo entidades conceptuales, no procedimentales20), primitivos semánticos que no son per se entidades lingüísticas21 ya que Facle no es el único módulo con el cual interactúa: C-I sería, consideramos, fundamental en la ordenación de la información proveniente de la percepción y la construcción de conceptos, que son requeridos por otras facultades aparte de la lingüística, como la visual: al enfocar un objeto, por ejemplo, se lo aísla automáticamente de su entorno (lo cual

20

J. L. Stamboni, P.C.

21

Ver, por ejemplo, Panagiotidis (2010: 12): “(…) it seems that roots are elements coming from outside FLN (the Faculty of Language in the Narrow sense) which however FLN has to manipulate (…)” La categorización, supone Panagiotidis, es la forma de hacer que FLN pueda manipular esos objetos extralingüísticos. Nosotros consideramos, como se verá más abajo, que los objetos que provienen de fuera de Facle no son exactamente raíces, aunque coincidimos en afirmar que hace falta una “transducción” que los haga manipulables. Hacemos también referencia a la propuesta de Boeckx (2010) de distinguir concepts (nuestros conceptos genéricos) de conceptual addresses (nuestras raíces). Ver nota 22.

25

no es trivial, ya que normalmente no hay límites claros entre “figura” y “fondo” en el mundo fenomenológico) y se evoca ipso facto el concepto genérico correspondiente, sin que medie la facultad del Lenguaje. Si un determinado módulo interactúa con otros varios, como parece ser el caso, entonces su output debe estar lo suficientemente “subespecificado” como para poder ser compatible con las condiciones de legibilidad de diversas facultades, ya que, según nuestras asunciones básicas, un objeto no puede transferirse si contiene elementos “superfluos” (i.e, no interpretables). La noción misma de “categoría” es estrictamente pertinente a Facle y no a otras facultades, por lo que no puede estar presente en un módulo que provee información a otros sistemas verticales. El objetivo, metodológica y sustantivamente, es “empobrecer” lo más posible al módulo en cuestión (C-I, en nuestro caso particular), en términos de elementos y operaciones, sin perder ni en adecuación descriptiva (descripción de las interacciones concretas entre los módulos) ni en adecuación explicativa (descripción de la arquitectura del módulo, su estado inicial y su desarrollo). En términos de Chomsky (2007), restringido a Facle:
“(…) Throughout the modern history of generative grammar, the problem of determining the character of FL has been approached “from top down”: How much must be attributed to UG to account for language acquisition? The MP seeks to approach the problem “from bottom up”: How little can be attributed to UG while still accounting for the variety of I-languages attained (…)?” Chomsky (2007: 3) Destacado nuestro.

C-I, entonces, debe manipular conceptos genéricos, pero delimitados, entidades pertinentes a varios módulos (como el visual y los relacionados con la percepción en general) y, por lo tanto, entidades no lingüísticas. La sintaxis no puede leer estos conceptos genéricos desprovistos de categoría (una versión de la Categorization Assumption que se maneja en MD), por lo que un nivel intermedio parece necesario, considerando las herramientas con las que contamos en un framework minimalista estándar. Ese nivel podría, de manera provisoria, identificarse con lo que se denomina Lista A en los trabajos de Morfología Distribuida (Halle y Marantz, 1993, Marantz, 1997, Embick y Noyer, 2004, Panagiotidis, 2010). Esta Lista sería una versión minimalista del lexicón del modelo GB: contendría, consideramos, raíces léxicas pre-categoriales22 (que instanciarían los conceptos genéricos de C-I en una forma compatible con las condiciones de Facle),

22

La diferencia entre “conceptos genéricos” y “raíces” puede parecer difusa, y de hecho está actualmente en investigación. Los conceptos genéricos son entidades a-categoriales (es decir, no admiten categoría) puramente conceptuales, que se combinan mediante ensamble para formar las ESR. Son, en algún sentido, “más abstractos” que las raíces y están severamente subespecificados, ya que son pertinentes, como hemos dicho, a un gran número de módulos. Las raíces, por su parte, son entidades lingüísticas pero defectivas semánticamente: si bien contienen información semántica, no es suficiente para la manipulación de estos elementos en el sistema computacional por carecer de categoría (ver Panagiotidis, 2010 e infra, esp. nota 25) ni para la asignación de referencia en el módulo inferencial por carecer de dimensiones procedimentales. No obstante, las raíces pueden (y, de hecho deben) categorizarse para ser manipuladas.

26

categorizadores23 (que se combinarían con las raíces para darles categoría, serían elementos con contenido conceptual, interpretables a nivel de la explicatura) y dimensiones sintácticamente pertinentes, como Número, Caso, Definitud, Referencialidad24, etc., propias de distintas categorías y distintos nodos, léxicos o funcionales, elementos con contenido procedimental25. No podemos prescindir de las raíces, ya que aportan el significado conceptual (más allá del significado que tenga la configuración, al modo de Hale y Keyser), y las dimensiones funcionales-procedimentales no son en sí “rasgos semánticos” en el sentido de “semas” ni nada semejante, sino dimensiones muy básicas, óptimamente, muy escasas pero con gran peso procedimental (como [± perfectivo], por ejemplo, que tiene injerencia en la interpretación tanto de los nominales como de los verbos, ver p. ej, Krivochen, 2010). En cuanto a los categorizadores, mantenemos el concepto de Panagiotidis (2010), tendrían rasgos interpretables en FL y establecerían con qué dimensiones funcionales podrá ensamblarse la raíz (ver supra). Estos elementos se agrupan siguiendo el mismo criterio que hemos estado usando: una raíz se ensambla con la mínima cantidad de elementos necesaria para: (a) ser manipulada por el sistema computacional y (b) mantener el “contenido semántico” de acuerdo con el output de C-I, de lo contrario, dado un número X de raíces y categorizadores, nada restringiría a priori que cualquier raíz se ensamble con cualquier categorizador (pudiendo generarse en la sintaxis nodos terminales en los que no puede insertarse un ítem de vocabulario. Ver infra). La Lista A trabaja con estructuras jerárquicas (syntactic hierarchical structure all-the-way-down, de
23

Respecto a los categorizadores, Fábregas (2005: 32) sostiene: “En MD, una raíz del español, como /bax–/, BAJ–, está asociada a una información fonológica y a una semántica conceptual determinadas. Al contrario que en los modelos lexicistas, dicho formante no manifiesta categoría léxica alguna, por lo que carece de etiqueta categorial. No obstante, en la sintaxis puede ser un nombre, un adjetivo o un verbo, dependiendo de la naturaleza de la matriz de rasgos con la que se haga el ensamble. Si este núcleo funcional es algo que llamaremos n pequeña, la categoría será el nombre; si es a pequeña, será el adjetivo, y si es v pequeña, será un verbo.” Para nosotros, esto lleva a una proliferación excesiva de CCFF. Krivochen (en preparación) presenta la hipótesis de que habría un solo nodo categorizador posible en la estructura morfológica, compuesto por tres dimensiones: [evento], [entidad] y [causa]; la fijación de sus valores daría como resultado, composicionalmente, la categoría. Así, por ejemplo, un verbo inergativo como “correr” estaría formado, en el nivel que nos interesa, por una raíz √CORR- y un categorizador c [+ evento], [- entidad] y [+ causa]. No obstante, aquí mantendremos el concepto “tradicional” de categorizador que se maneja en MD.
24

Para un análisis de estas dos últimas dimensiones, ver Krivochen (2010).

25

La distinción que mantenemos entre categorizadores y nodos funcionales es cuestionable. Puede argüirse que no hace falta un categorizador v (o c [+ evento], el valor de [± causa] dependerá de si el V es inacusativo, inergativo o transitivo) que determine que una raíz se comportará como un V en la sintaxis, ya que T puede cumplir esa función (como se sostenía en los primeros artículos de MD, ver, p.ej. Noyer, 1998 y artículos allí citados). Nosotros consideramos, por el contrario que no es que una raíz X sea un V porque se ensambla con T sino que un objeto X se ensambla con T porque es un V. La justificación para una categorización en la Lista A (previa a la sintaxis en sentido restringido) es la misma que la expuesta en el cuerpo del texto: nada impide, de otro modo, que cualquier raíz se ensamble con cualquier nodo funcional en el espacio de trabajo, pudiendo generarse estructuras agramaticales, “dummy merges” (una raíz como √MESA ensamblándose con T, por ejemplo) que generen colapso a nivel de la interfaz FL. El tema está, desde luego, abierto a discusión, ya que la existencia de categorizadores es una complicación sustantiva que se justifica exclusivamente por la falta de una opción más económica en el estado actual de la teoría generativa. No obstante, nuestra definición y la arquitectura que proponemos podrían fácilmente adaptarse a un sistema sin categorizadores, posibilidad que está en investigación.

27

acuerdo con los planteos de MD) como la sintaxis (estrictamente, la separación entre “sintaxis” y “Lista A” no sería lícita, ya que en MD se argumenta en contra de la existencia de una “interfaz morfología-sintaxis” en el sentido tradicional ya que, en realidad, todo es sintaxis.26). La Lista produce una representación arbórea con raíces conceptuales, categorizadores y dimensiones procedimentales que es, ahora sí, legible para la sintaxis, y la transferencia se da siguiendo el concepto de fase que se definió arriba: una vez que la raíz se ha ensamblado con los mínimos elementos necesarios para que la sintaxis la identifique y manipule, la estructura jerárquica resultante se transfiere al espacio de trabajo. Resumiendo, el output de la primera instancia de C-I es una estructura conceptual (ESR) para la que utilizamos diagramas arbóreos para representar binariedad y jerarquía, los que consideramos principios rectores de toda representación simbólica. Estamos de acuerdo en lo general con Mateu (2000b: 13) en cuanto a que:
“(…) Notions like “structure dependency”, “binary branching”, “unambiguous projection”, “specifier/complement/head positions”, “dominance” or “sisterhood” (among others), which have been thought to be only syntactic or purely formal, can also be argued to be meaningful notions when applied to relational semantics . In other words, it is important to note that, although these notions can be argued to be relevant to RSSs [Relational Semantic Structure], this does not mean that syntax is relevant to these conceptual configurations. Rather, the conclusion that must be drawn is that these notions cannot be reduced to be purely syntactic (i.e. non meaningful) primitives, but they are more general notions that can also be applied to other non-syntactic levels of mental representation (…)”. Destacado nuestro.

Sin embargo, creemos necesario hacer algunas salvedades, ya que nuestra postura es ligeramente diferente. La sintaxis, entendida en un sentido amplio como un mecanismo generativo que permite combinatoria infinita a partir de un número limitado de elementos con un mismo formato (la operación básica de Ensamble) es relevante para todas las representaciones simbólicas manipulables por la mente, sea el módulo que sea. La sintaxis, entendida en un sentido restringido, como el sistema computacional de la Facultad del Lenguaje, estaría circunscripta tal y como Mateu sostiene. Las relaciones configuracionales/estructurales que Mateu cita son relevantes en la representación de la ESR porque son, de una forma u otra, relevantes para todo proceso cognitivo que implique representaciones simbólicas, en nuestro caso, la ESR es el output del sistema C-I. Está claro que debe tenerse mucho cuidado al aplicar a la descripción general de las representaciones simbólicas ciertos conceptos (como “especificador” o “complemento”), que tienen una larga historia dentro de los estudios generativos, a representaciones no lingüísticas, pero, en tanto rótulos descriptivos, el uso no estaría vedado por principio.

26

Embick y Noyer (2004: 2) sostienen: (…) In respect to the interface between syntax and morphology, this architecture has a clear consequence: since the only mode of combination in the grammar is syntactic, it follows that in the default case, morphological structure simply is syntactic structure. (…). Énfasis nuestro.

28

Los diagramas arbóreos de la ESR, pese a ser representaciones jerárquicas, endocéntricas y ramificadas binariamente, no son representaciones manipulables por la sintaxis, ya que están compuestos por elementos conceptuales genéricos, no categorizados y sin dimensiones funcionales27, elementos no lingüísticos (o, mejor, pre-lingüísticos). Enriquecidos con los categorizadores y las dimensiones funcionales/procedimentales de la Lista A, estos elementos conceptuales complejos ingresan a la sintaxis de forma que puedan ser identificados y manipulados por C(HL). En el espacio de trabajo, se produce el ensamble de un predicado con sus argumentos, teniendo como base la representación de la ESR y los elementos extraídos de la Lista A, que pasan al espacio de trabajo en “cascadas”, por fases. En el espacio de trabajo, el sistema computacional también valúa las dimensiones no valuadas para que sean interpretables en los módulos siguientes, A-P y un acceso post-sintáctico a C-I. Nuestro enfoque estará puesto en la derivación a C-I, ya que nos interesa la representación sintáctica como input para un proceso de interpretación inferencial. Sostenemos que el acceso post-sintáctico a C-I representa el módulo inferencial con el que se trabaja en Teoría de la Relevancia (Sperber y Wilson, 1986a, 1986b, Wilson y Sperber, 2003, Leonetti y Escandell, 2000, 2004, Yus, 2010), y en el que cobran importancia los rasgos “procedimentales”. Lo que en TR se denomina “Forma Lógica”, una forma proposicional incompleta que representa el input para los procesos inferenciales (extracción de explicaturas e implicaturas), nosotros lo tomamos como el output de la sintaxis, y consideramos que el acceso al módulo inferencial se da, una vez más, por fases. Así, cuando en la sintaxis se genera mediante Ensamble un objeto al que el módulo inferencial puede manipular, éste se transfiere a C-I, coincida o no con un objeto interpretable en A-P (por ejemplo, con “curva tonal propia”): si bien la idea de una transferencia uniforme de las fases (es decir, la identidad o isomorfismo entre lo enviado a FF y lo enviado a FL) parece, según Chomsky, la “opción óptima”, no creemos que sea la hipótesis nula, sino que debe probarse empíricamente. Por lo pronto, asumiremos que no tiene por qué ser así, siendo que hay encapsulamiento informativo entre los módulos. Siguiendo el modelo de valuación de los rasgos de DP explicado en Krivochen (2010), una vez que las dimensiones [Referencialidad] y [Definitud] en D han recibido valor en el espacio de trabajo entrando en relación de cotejo con nodos de T, Asp y Mod, una DP particular podría resultar un objeto manipulable por C-I en el proceso de extracción de explicaturas proposicionales (pre-sub determinado por [los rasgos presentes en] la representación sintáctica, ver Krivochen,

27

Es decir, para nosotros el mapping entre ESR y Estructura Sintáctica no es directo, aunque pueda haber un cierto homomorfismo entre ESR y estructura sintáctica con ciertos tipos de verbos. Hay que establecer también claramente una distinción entre la ESR y la Estructura-P: la estructura-P era un nivel de representación que funcionaba como “interfaz interna” entre la sintaxis y el léxico, la expresión pura de las relaciones temáticas presentadas en formato de X-barra con nodos funcionales como T y C. Las ESR carecen de dimensiones funcionales, ya que son el resultado de las computaciones con primitivos semánticos pre-categoriales dentro de CI (en su “primera instancia”), por lo que el nivel es, además, preléxico.

29

2010), ya que éstas son las dimensiones procedimentales claramente inherentes a D28 que más decisivamente contribuyen a la asignación de referente, por ejemplo. Por lo tanto la DP en cuestión, una fase en C(HL), siguiendo nuestra definición, se transfiere a C-I. Intentaremos hacer explícita nuestra concepción de la arquitectura del sistema tal y como la hemos presentado hasta ahora mediante el siguiente esquema (la “transferencia” entre los niveles, indicada por flechas, es siempre por fases):

Extracción de explicaturas e implicaturas

C-I
Transferencia

C-I

Lista A

Espacio de Trabajo (C(HL))

Lista B (Inserción léxica) / Linealización (ACL)

Output: ESR (jerárquicas y endocéntricas), puramente conceptuales, construidas con concepts en términos de Boeckx (2010)

Output: Estructuras jerárquicas con raíces (conceptual addresses para Boeckx) categorizadas enriquecidas con dimensiones procedimentales

Output: Estructuras arbóreas con todas las dimensiones pertinentes valuadas y la “estructura argumental” de los predicados, saturada. Nodos terminales: sin rasgos fonológicos (ver infra)

A-P

En cada caso, el output de un nivel debe ser totalmente interpretable para el nivel siguiente, por lo que no puede contener elementos superfluos (que no reciban interpretación), dimensiones no valuadas, etc. ni tampoco presentarse en un formato ilegible, aunque los elementos estén legitimados. El Principio de Interpretación Plena se aplica al output de cada nivel, y, por hipótesis, en todos los módulos. Fases y labeling: Un sistema generativo requiere de una operación combinatoria recursiva, que permita operar con elementos discretos y generar representaciones simbólicas estructuradas. En el marco del PM, esta operación es Ensamble.

28

Con respecto a los rasgos-φ y el Caso, no queda claro si son inherentes a D o a N, ya que hay concord (concordancia que depende de Ensamble) y doubling en la Materialización. Son, aclaramos, también procedimentales.

30

La operación de Ensamble toma dos objetos, α y β, los une, y proyecta uno de ellos, generando bien {α, {α, β} o {β,{α, β}, sin modificar internamente a ninguno, y motivado, aparentemente, por una propiedad presente en todos los ítems léxicos (exceptuando vocativos e interjecciones), un Edge Feature (Chomsky, 2005a, 2007). Filogenéticamente, esta operación habría surgido de una mutación, un “recableado del cerebro” que puso la infinitud discreta al servicio de la mente en general. Esta operación básica, entonces, no es exclusiva de Facle, sino que está disponible en varios módulos (como la capacidad matemática o la musical), y es la responsable en gran medida de la diferencia cualitativa entre humanos y no-humanos en cuanto a las posibilidades de pensamiento abstracto: la infinitud discreta nos permite componer conceptos, juicios, percibir y estructurar información eventiva, etc. Esta operación de Ensamble, consideramos, sería no obstante una estipulación teórica si no se justifica en términos de interfaz. Lo que intentaremos hacer será derivar Ensamble a partir de las condiciones de legibilidad de C-I, para lograr un sistema más uniforme y una teoría más elegante. Nuestro análisis de Ensamble nos llevará también a rever la teoría de las “etiquetas” (labels) y su pertinencia para la transferencia por fases. Partamos de la consideración de un ensamble como el de (i): i) {, {, {α}}} Este ensamble es resultado de aplicar la operación a un elemento, lo que es, consideramos, trivial. Pero ¿en qué nivel? Para nosotros, la trivialidad de (i) se da en C-I, ya que este módulo no puede operar con ese objeto. Supongamos que α es una CL. Sin una CF que le otorgue referencia29, la derivación colapsa a nivel de la explicatura, post-sintácticamente. Para nosotros, entonces, la motivación en las interfaces tiene que ver especialmente con la pertinencia para la extracción de explicaturas en el caso de Facle (que es el que nos interesa particularmente). A partir de este supuesto, podemos también simplificar la teoría de las etiquetas, derivándolas del constructo semántico generado en la primera instancia de C-I que “alimenta” a la sintaxis y de requerimientos de interfaz. Ensamble es una operación que permite que los objetos que entran a la sintaxis sean manipulados de tal forma que se los pueda presentar de forma totalmente legible a los sistemas externos. Ensamble va creando relaciones diacrónicamente (es decir, en una secuencia, es lo que lo diferencia sustancialmente de la operación Satisfacer, que daba cuenta de la formación de frases en el modelo GB) y la identificación de etiquetas se va dando tan pronto como sea posible, independientemente de los “núcleos de fase” (Cf. Gallego, 2010). Entendemos que las etiquetas se identifican, no se crean, ya que esto último violaría la
29

Stamboni (2008) sostiene que las CCFF/PP “(…) Participan de relaciones de significado específicas, dependientes del

contexto sintáctico en que aparecen, y se limitan por lo general a definir la referencia de las entidades denotativas (…)”, siendo que “entidades denotativas” incluye denotación de objetos tanto como de eventos. Para que esta relación tenga lugar, la CF/P debe tener alcance sobre la capa léxica.

31

condición de Inclusividad, pero nos parece pertinente aclarar que, para nosotros, las etiquetas son significativas exclusivamente en C-I, no en la sintaxis. Como dijimos anteriormente, si tenemos un ensamble como (ii) ii) {α, {α, β}} En el que α = CL y β = CF, la proyección de α resultaría en un colapso a nivel de la explicatura, estaríamos tratando con un ente (“eventivo” o “nominal”) genérico, al que no se le puede asignar un referente. Las proyecciones se van identificando de acuerdo a la interpretación en la interfaz pertinente. Por ejemplo, supongamos que estamos ensamblando una ESR en la instancia pre-sintáctica de C-I. Si la derivación procede bottom-up, entonces empezaremos desde el ensamble de un elemento no relacional X con el elemento relacional r: 1. {r, X} En este caso, si proyecta X, entonces la derivación colapsa al nivel siguiente, ya que r es una categoría procedimental que establece una relación espacial entre dos términos en términos de coincidencia central o terminal. Si r no es el núcleo de la construcción, su valor procedimental se pierde, ya que los elementos no relacionales no serían ya sus argumentos y la derivación colapsaría. Con base en las condiciones de interfaz, entonces, proyectamos r. Tenemos ahora un nuevo ensamble, el del otro elemento no relacional: 2. {X, {r, X}} r tiene ahora sus dos argumentos, a los cuales vincula en términos espaciales. El término completo se interpreta como una relación espacial entre dos argumentos no relacionales, y esto ya es totalmente interpretable por el nivel siguiente, supongamos, la Lista A o la interfaz que se inserte entre C-I y C(HL). Por lo tanto, el nodo r será una fase en la instancia pre-sintáctica de C-I. Vemos que la determinación de etiquetas puede justificarse perfectamente en términos de interfaz sin agregar algoritmos ni estipulaciones (como el hecho de que se identifiquen a nivel de fase, como sostiene Gallego, 2010). Si bien es cierto que el etiquetado de una proyección permite que se la tome como una unidad a efectos de computaciones futuras, el etiquetado en sí es un requerimiento de interfaz. En cuanto a la transferencia, podemos preguntarnos qué nos impide transferir {r, X}, el primer ensamble, antes de que se ensamble el otro argumento no relacional. Para esto debemos volver a nuestra definición de fase, el mínimo término totalmente interpretable en el nivel siguiente al que estemos considerando. En un marco de Xbarra, simplemente diríamos que {r, X} es una proyección intermedia (r´), por lo que es invisible para el componente computacional y por eso no puede transferirse. No obstante, queremos simplificar la teoría, no agregar estipulaciones, por lo que también tendremos que justificar el locus de transferencia en términos de interfaz. La explicación retoma lo que venimos diciendo: si transferimos {r, X}, el valor procedimental de r se 32

pierde, ya que no estaría vinculando argumentos, y el nivel siguiente no podría manipular este objeto. De esto se desprende que solamente proyecciones máximas pueden ser transferidas, ya que las propiedades de predicación de un elemento se saturan en su proyección máxima (o, dicho en otros términos, la proyección máxima de un predicado léxico puede ser definida como aquella en la que sus propiedades de predicación se ven saturadas, siendo así pertinente para la extracción de explicaturas). Así, por ejemplo, no podemos transferir {v(*) {VP}} porque el argumento externo, licenciado por el primitivo de [CAUSA] en v(*) quedaría fuera de la transferencia, el objeto no sería legítimo a nivel de la explicatura por no ser totalmente interpretable. Debemos pensar qué objeto semántico estamos transfiriendo, es decir, qué contribución a la explicatura hará la fase que consideremos. El nodo r completo denota una relación conceptual espacial (física o metafórica) entre dos elementos, figura y fondo. El ensamble del nodo T no denota una relación espacial ampliada, sino un evento que incluye una relación espacial, por lo que la etiqueta correspondiente será T en {T, {r}}. En cuanto a R, introduce un primitivo de [CAUSA] que licencia la presencia de un argumento externo, un iniciador del evento denotado por la estructura etiquetada como T, y vista por lo tanto como una unidad a los efectos de las computaciones subsiguientes. La Causa, entonces, se introduce como un elemento que tiene alcance sobre todo lo eventivo, y la proyección se cierra cuando se ensambla el elemento no relacional que se interpretará como iniciador. Tenemos, así, los tres nodos con sus etiquetas, justificadas en términos de interfaz: {R, {T, {r}}}. Cada uno de ellos puede ser una fase en C-I si cumple con la definición, pero no podemos determinar eso a priori. Debemos considerar el constructo específico, las propiedades de los elementos (a las que los espacios derivacionales pueden ser insensibles, pero ciertamente no las interfaces), entre otras variables. Por eso, la composicionalidad es una noción central en nuestro modelo, en contraposición a la versión más estipulativa con núcleos de fase predeterminados. Después de la Transferencia: Una pregunta relevante en este punto de la argumentación es qué pasa en C-I una vez que la derivación se ha transferido por fases, cómo se da la reconstrucción. La cuestión es abordada en Gallego (2010) y referencias allí citadas, aunque nosotros la trataremos de una forma diferente. En primer lugar, la pregunta es: ¿existe una reconstrucción en las interfaces? La pregunta no es trivial, ya que si una fase P se construye a partir de una sub-ordenación léxica, y sin acceso a los complementos de otros núcleos de fase30, como se sostiene en la versión chomskyana del planteo, el hecho de que existan relaciones entre las cascadas derivacionales no es algo que se siga lógicamente. Nuestra respuesta es que efectivamente hay procedimientos de reconstrucción que permiten construir juicios a partir de las fases que llegan cíclicamente a la

30

De hecho, Chomsky (comunicación personal con Ángel Gallego) sostiene una versión fuerte de esta afirmación: “(…) [a phase] P´ can be constructed without paying any attention to [the previous phase] P (…)” (Gallego, 2010: 71). Esta afirmación, consideramos, no es incompatible con el sistema fuertemente derivacional de Epstein y Seeley (de hecho, puede avalarlo), y creemos que puede recibir las mismas críticas.

33

interfaz. No es cierto que una fase se construya sin prestar ninguna atención a la fase anterior (ver nota 29), ya que, incluso dentro de la propuesta chomskyana, P2 frecuentemente se construye con elementos extraídos de P1, como en el caso del movimiento cíclico de constituyentes (que requiere ensamble a la periferia del núcleo de fase, a posiciones de Spec-externo). Lo mismo vale para la propuesta de Grohmann (tanto en inter- como en intra-clausal Movement), por lo que las fases o dominios son claramente interdependientes. Esta dependencia es la que justifica la importancia del phase edge en la teoría chomskyana como escape hatch, aunque su status sea incierto: ¿la(s) posición(es) de especificador de v*P, por ejemplo, forman parte de la fase v* o de la fase C, con la que se transfieren? La respuesta no es obvia, ni escapa a la estipulación. Nosotros prescindimos de los núcleos de fase, por lo que el concepto mismo de edge se vuelve innecesario. Un segundo problema es la naturaleza del procedimiento de reconstrucción. La opción más simple sería la mera yuxtaposición, es decir, las fases se ordenan por orden de transferencia y el resultado es una forma “lineal” de sub-derivaciones que se lee como un todo. Nosotros creemos que esta opción no puede ser correcta. En primer lugar, de existir espacios derivacionales paralelos (como se argumenta en Uriagereka, 1999), esto implicaría también operaciones de transferencia posiblemente paralelas, por lo que no sería posible pensar en un orden lineal de transferencia. Además, hemos visto que la organización jerárquica es una característica de las representaciones manipuladas por C-I, por lo que la linealidad quedaría descartada. Nuestra propuesta es que cada sistema de actuación (A-P y C-I) efectúa operaciones post-transferencia por su cuenta con los objetos que le hayan sido transferidos, que, como hemos dicho, no tienen por qué ser idénticos en ambas interfaces. En el sistema que nos interesa particularmente, C-I, hay operaciones que se aplican a las unidades transferidas que van mucho más allá de la mera yuxtaposición, de hecho, hay una reestructuración necesaria de los fragmentos de información para la construcción de la explicatura que vincula elementos pertenecientes a distintas fases. Algunos ejemplos de fenómenos que avalarían nuestra postura son los siguientes:     Las relaciones Operador-variable. Los principios de Ligamiento (en su versión “interpretativa”, ver Chomsky, 1995: 151) Los fenómenos de Control (incluso dentro de la Movement Theory of Control de Hornstein) Las elipsis de elementos nominales

Estos ejemplos pueden subsumirse a fenómenos de coindización, en los que se asigna el mismo índice referencial a dos elementos incluso a través del límite de lo que en el nivel de la sintaxis en sentido restringido era una fase. Lo mismo sucede con la teoría del movimiento como copia, cualquier movimiento que traspase el límite de una fase requerirá una operación en FL que vincule las copias y las reconozca como ocurrencias del mismo elemento (ver infra). Esta operación de relación se simboliza por medio de índices. C-I, entonces, crea relaciones estructurales, no lineales, mediante los procedimientos “sintácticos” con los que cuenta (la sintaxis en 34

sentido amplio de la que hablábamos más arriba) a partir de las instrucciones dadas por la sintaxis (la FL de TR). En ocasiones, las instrucciones no son lo suficientemente específicas como para generar una estructura única, y tenemos, por ejemplo, casos de ambigüedad en el alcance relativo de elementos cuantificados. Analicemos la siguiente oración en estos términos: a) Tres terroristas realizaron cinco atentados La propuesta de Hornstein (1999) para estos casos es que hay movimientos en FL que establecen relaciones de alcance (“scope”) relativo entre los cuantificadores. Estos movimientos, que se efectúan independientemente de la forma materializada de la oración total (ya que ocurren en FL, no tienen efecto en FF), dejan copias, y las relaciones que se establezcan entre los elementos movidos y las copias determinan la interpretación. En principio, la elección de la copia pertinente no estaría restringida en el modelo (para nosotros, desde luego, la restricción es la relevancia óptima). Las estructuras posibles de (a) son las siguientes: i) [TP Tres terroristas [vP cinco atentados [vP tres terroristas [VP realizaron cinco atentados]]]] ii) [TP Tres terroristas [vP cinco atentados [vP tres terroristas [VP realizaron cinco atentados]]]] En (i), la interpretación sería distributiva, ya que [tres terroristas] tiene alcance sobre [cinco atentados]. Una paráfrasis posible sería: “para cada terrorista X, X cometió cinco atentados”. En (ii), por el contrario, la configuración determina que [cinco atentados] tiene alcance sobre [tres terroristas], por lo que la interpretación es conjuntística: “Hay cinco atentados en total, tales que tres terroristas los cometieron”. El modelo de movimiento de cuantificadores de Hornstein es un ejemplo de las operaciones de reconstrucción que deben efectuarse. Si bien creemos que es una propuesta objetable por varias razones31, no deja de ser un buen ejemplo de que C-I crea relaciones estructurales entre los “fragmentos derivacionales” (entre las fases) guiado por la búsqueda de la relevancia óptima, y no lee lineal y pasivamente los fragmentos transferidos sin operar sobre ellos.

Por el lado del sistema A-P, también habría operaciones post-transferencia basadas en ciertos rasgos presentes en la sintaxis. Sin entrar en el marco de la Antisimetría dinámica (Moro, 2000), hay movimientos y afijaciones determinados por la presencia de rasgos de naturaleza procedimental. Así, por ejemplo, en la siguiente “estructura de frase escueta” (bare phrase structure):

31

Por ejemplo, Hornstein sostiene que el desplazamiento de constituyentes a la posición de Spec- de una CF que domine a VP (vP o TP) se da para que éstos cotejen un rasgo de Caso en relación Spec-Head, lo cual es propio del primer Minimalismo pero no es compatible con Matching Theory, en la que las relaciones relevantes no son Spec-Head sino Sonda-Objetivo, y el cotejo puede darse a distancia.

35

like like it

Hay un punto de simetría entre el nodo terminal [like] y el nodo terminal [it], por lo que la estructura debería colapsar en FF, ya que no puede linealizarse mediante ACL. Uriagereka (1998: 318) propone la existencia de una especie de elemento [Top] (en realidad, una categoría abstracta F que codifica énfasis) en la OL, “asociado al pronombre”, que puede proyectar un sintagma que mande-c al pronombre y sea complemento del V, creando la relación de mando-c asimétrico requerida para la linealización mediante ACL. Cuando este rasgo está ausente y se da la relación de mando-c mutuo, la única forma de salvar la derivación es cliticizando [it] a [like] en FF, con lo que la pronunciación sería “like‟t”, que, según Uriagereka, es lo que sucede en inglés coloquial. Cuando el pronombre debe ser enfatizado, se incluye en la OL el elemento procedimental [F], que proyectaría frase y se crearía la asimetría requerida para la linealización normal: like like F F it

En este caso, la pronunciación correspondiente sería “like IT”. El énfasis codificado en [F] tendría efectos también en la extracción de inferencias (“I like IT (not THAT)”) a nivel de las implicaturas. En cuanto a la elipsis de elementos nominales, creemos que es una operación compleja, en la que se involucra tanto a la interpretación en FF como en FL y que requiere computaciones en ambos niveles. Esta operación consiste en el borrado de los rasgos fonológicos de un elemento si hay otro elemento nominal con la misma referencia (relevante en FL) y la misma matriz fonológica (relevante en FF) en la estructura. Por ejemplo: a) Juan anotó un gol y Juan lo festejó. No podemos sostener que hay Movimiento, sino que hay dos ocurrencias coindizadas de [Juan] en la estructura de coordinación. Los rasgos fonológicos de la segunda ocurrencia (en orden lineal) pueden borrase (es decir, quedar como una CV) si hay un elemento en una fase posterior con los mismos rasgos, una “repetición” del elemento léxico (en otras palabras, otro token –“muestra”- del elemento). El borrado de los rasgos fonológicos del segundo elemento estaría legitimado por la ocurrencia del mismo elemento léxico en una fase posterior en tiempo derivacional. Es importante no confundir esta operación de borrado, que sería post-transferencia, con el borrado de las copias resultado del Movimiento de constituyentes. En este caso, estamos hablando de ocurrencias del mismo elemento, no de distintas ocurrencias de distintos tokens de un elemento léxico con los 36

mismos rasgos. En el caso del borrado de copias, habría un solo token, y la relación entre las ocurrencias de ese elemento están regidas por determinados principios de la gramática (en GB, el PCV y el criterio temático, por ejemplo). En cuanto a la elipsis, habría rasgos procedimentales de tópico en juego: no necesitamos materializar el segundo [Juan] porque el elemento es tópico (en el sentido de tema) en ambas cláusulas, y la aparición de una CV [Juan] en la segunda cláusula facilita la manutención del tópico a nivel inferencial en la recepción e interpretación del mensaje. Nótese que si se materializan ambos tokens, la búsqueda de la relevancia óptima lleva a interpretar una referencia disjunta, por lo que cada cláusula tendría su propio tópico, y los elementos no tendrían los mismos rasgos, no serían, entonces, tokens de un mismo elemento sino distintos elementos en todos los respectos pertinentes a la construcción de la explicatura. En resumen, la transferencia no es el fin de la derivación ni de las operaciones computacionales, sino que cada sistema externo efectúa determinados procedimientos sobre las cascadas derivacionales que le llegan, a partir de rasgos (desde nuestro punto de vista, procedimentales) presentes en la sintaxis que de alguna forma presub determinan estas operaciones, al tiempo que las licencian. Procesos análogos se darían luego de toda operación de transferencia. Se ve que componencialidad y licenciamiento, junto con economía, son conceptos centrales en nuestra teoría no sólo del funcionamiento de la Facultad del Lenguaje, sino, en un sentido más amplio, de las interacciones entre los módulos mentales. Una “nota tardía” sobre Late Insertion: Las reformas de la arquitectura de la gramática aquí esbozadas permiten dar cuenta de un fenómeno que ha sido observado desde las perspectivas de descomposición léxica32: aparentemente, la agrupación de los rasgos en nodos terminales (“morfemas”, en términos de Morfología Distribuida) está de alguna forma “limitada” por la disponibilidad en una lengua de ítems de Vocabulario para insertar en esos nodos33. Así, por ejemplo, la ausencia de incorporación de Manera en Movimiento en español o Dirección sobre Movimiento en inglés estaría dada por la ausencia de ítems de Vocabulario que puedan insertarse en el nodo terminal pertinente. El parámetro que determina esta tipología lingüística estaría relacionado con la Lista B, de naturaleza socio-histórica. El hecho de
32

J. L. Stamboni, P.C

33

La propuesta se contrapone a los primeros planteos de Morfología Distribuida, ver, p.ej. Halle y Marantz (1993: 121): “(…) We assume that the Vocabulary of a language plays no role in the creation of terminal nodes at DS. That is, the particular set of universal and/or language-particular semantic and syntactic features chosen for a terminal node is not constrained by whether or not that set of features appears in any Vocabulary entry in the language. The bundles of morphosyntactic and semantic features that constitute morphemes at DS, SS, and LF are more or less freely formed.(…)”. Stamboni (P.C) sostiene: “The availability of Vocabulary items in a particular language does not affect the array (i.e. the selection) of morphosyntactic and semantic features that constitute morphemes at DS, SS, and LF (which are more or less freely formed), but it must affect the configuration (i.e. the position) these morphemes assume in the syntax with respect to each other, i.e. the operations/processes (e.g. movement, incorporation) they can/cannot undergo in the course of the syntactic derivation.”

37

que los ítems de Vocabulario, que se insertan tardíamente (Late Insertion) condicione la formación de clusters de rasgos sería una violación a la estricta localidad del sistema computacional Chomskyano, ya que implicaría un evidente look ahead: el componente que agrupe los rasgos en morfemas terminales tendría que “mirar adelante”, a la Lista B, y ver si hay un ítem que, aunque subespecificado (underspecified), pueda insertarse y materializar el nodo en cuestión. En nuestro modelo, esto es perfectamente lícito. Nosotros consideramos que, si una lengua permite la materialización de un determinado rasgo, el rasgo debe materializarse, sea en el nodo que compone originalmente o en el nodo más cercano que cuente con un correspondiente elemento en la Lista B lo suficientemente especificado como para insertarse y materializar la mayor cantidad posible de rasgos. Un componente (cualquiera sea), hemos afirmado explícitamente, debe tener acceso a las condiciones del componente siguiente, para así producir un objeto legible. Por lo tanto, si la sintaxis ha de presentar al componente fonológico una serie de nodos “materializables”, y si además consideramos la condición anterior (que bien podría considerarse un “principio”), el componente computacional debe necesariamente tener acceso a la Lista B para agrupar los rasgos de forma tal que puedan materializarse. Suponemos que los rasgos pueden presentarse en clusters, o bien dispersos (scattered) (Giorgi y Pianesi, 1996), dependiendo de las posibilidades de materialización y de consideraciones globales de economía en la derivación: un determinado conjunto de rasgos puede proyectarse como un único nodo o bien aparecer distribuidos en proyecciones diferentes. El número de proyecciones se define “(…) according to economy considerations, that is, the shortest derivation compatible with the initial array is selected. (Giorgi y Pianesi, 1996: 141-142). En otras palabras, si en una lengua determinada existe una forma fonológica sintética (i.e, un solo ítem de vocabulario) y una analítica (i.e, perifrástica) para materializar un cierto número de rasgos (por ejemplo, [Movimiento] y [Manera] o [Movimiento] y [Dirección]), la derivación más económica será la sintética, que será, por lo tanto, la preferida por defecto. Los rasgos, además, pueden materializarse en nodos diferentes de aquellos en los que surgen, si las posibilidades de materialización lo requieren. Así, podemos dar cuenta no sólo de la diferencia tipológica entre lenguas de marco verbal y de marco satelital sino otros fenómenos, más específicos de ciertas lenguas, como el selosismo en español: a) Lesj envié el paquetei a mis parientesj. b) Sej losi envié. En este caso, dado que [se] es incapaz de manifestar flexión de número, y hay un rasgo [plural] en el nodo terminal, este rasgo actúa como un afijo débil, buscando al host más cercano (en una Configuración Mínima, en términos de Rizzi, a nivel de fase en nuestros términos, pero siempre respetando Minimalidad) al que corresponda un ítem de la Lista B que permita materializarlo. El clítico [lo] es un elemento que permite materializar la flexión de número, por lo que podemos pensar en un feature scattering, o más bien, feature

38

migration (Stamboni, p.c) a nivel de FF para respetar el principio de Materialización enunciado más arriba. Estos fenómenos entran en nuestro marco de trabajo de forma natural, sin estipulaciones adicionales.

Ventajas:  Se cambia el concepto de fase por el de fase en un nivel, lo que permite utilizar el concepto de fase (por lo tanto, el de “reducción de la carga computacional” y “localidad en las operaciones”) en potencialmente cualquier módulo mental que esté en interacción con algún otro sistema al que tenga que proveer información. Si consideramos que el cerebro-mente está compuesto por módulos relativamente independientes pero interconectados, todos regidos por principios de economía, nuestra concepción de fase podría llevar a una concepción más uniforme de la estructura y el funcionamiento del cerebro-mente en el marco de la modularidad masiva. Recuperamos, mediante el concepto de fase, la noción de frugalidad en las computaciones, lo cual es provechoso tanto a nivel computacional como biológico, ya que aumenta la plausibilidad neuronal del modelo (ver Krivochen, en preparación). En tanto está determinada por las condiciones de legibilidad de los sistemas que interactúan, nuestra definición de fase puede calificarse incluso de “principled”, siguiendo a Chomsky, (2005b: 10): “We can regard an explanation of properties of language as principled insofar as it can be reduced to properties of the interface systems and general considerations of computational efficiency and the like.”. Intentamos, mediante nuestra propuesta, ganar un cierto insight respecto del tercer factor en el diseño de las facultades cognitivas (Chomsky, 2005b): principios no específicos a la facultad del lenguaje. Este factor incluiría:
“(a) principles of data analysis that might be used in language acquisition and other domains;( b) principles of structural architecture and developmental constraints that enter into canalization, organic form and action over a wide range, including principles of efficient computation (…)” Chomsky, 2005b: 6. Destacado nuestro.

Se evita la necesidad de postular “reglas de correspondencia” para dar cuenta de la interacción entre módulos mediante representaciones simbólicas (Jackendoff, 1997: 83). Si bien estamos de acuerdo con que cada módulo posee sus propios primitivos (aunque algunos sean pertinentes a más de una facultad), sostenemos la universalidad de los principios de combinación (Jackendoff, Op. Cit: 41), básicamente, la operación Ensamble. Las interacciones (i.e, la transferencia de información) entre los módulos están únicamente restringidas por las respectivas condiciones de legibilidad.

Se elimina la discusión sobre cuáles sean los “núcleos de fase”, lo que permite evitar muchas de las objeciones que se le han hecho al concepto de fase (ver supra) y simplificar el sistema al eliminar 39

también la necesidad de recurrir a la parametrización para dar cuenta del comportamiento desigual de determinadas proyecciones (como TP) en distintas lenguas. (Ver Gallego, 2007, 2010)  Se elimina, por consiguiente, la adjunción a la periferia del núcleo para extraer un objeto de una fase y demás artilugios teóricos (que vienen desde Barreras, 1986), que consideramos altamente estipulativos.  Se evita la sobregeneralización de la condición de fase (phasehood) de Epstein & Seeley (2002) cuando sostienen que “(…) there is no need for an independent account of which categories are phases (i.e, vP and CP) and which are not, and why. All syntactic objects are phases (…)” (destacado nuestro), ya que no todo OS es una fase, sólo aquel que sea totalmente interpretable en el siguiente nivel. Digamos que, a priori, no podemos anticipar nada, salvo, quizás, que un OS dado (un término) es una fase potencial en un nivel L, pero si lo es o no depende de la derivación en la que se inserte, del Construal en el que aparezca en un caso particular. La condición de fase es, en nuestro modelo, composicional y dinámica.

40

Bibliografía:

Abney, S.P. (1987) The English Noun Phrase and its Sentential Aspect, PhD. dissertation, MIT. Boeckx, C. (2010) Defeating Lexicocentrism. Ms. LingBuzz. Boeckx, C. y K. Grohmann (2004a) Barriers and Phases: Forward to the Past? En Tools in Linguistic Theory, 2004. Budapest. (2004b) Putting Phases in Perspective. En Tools in Linguistic Theory, 2004. Budapest. Chomsky, N.:(1965) Aspectos de la Teoría de la Sintaxis. Barcelona, Gedisa. (1986) Barriers. Cambridge, Mass. MIT Press. (1995) The Minimalist Program. Cambridge, Mass. MIT press. (1998) Minimalist Inquiries. The Framework. MIT Occasional Papers in Linguistics 15. (1999) Derivation by Phase. Manuscrito comentado por Juan Uriagereka. (2002) Indagaciones minimalistas. En Chomsky, Catalá, Piera, et al. (2002). El lenguaje y la mente humana. Barcelona, Ariel. (2004) Beyond Explanatory Adequacy. En Belleti (ed.) “Structures and Beyond”, Oxford, OUP. (2005a) On Phases. En C. Otero et al. (eds.), Foundational Issues in Linguistic Theory, Cambridge (Mass.): MIT Press. (2005b) Three Factors in Language Design. Linguistic Inquiry Vol. 36 n° 1. MIT press. (2007) Approaching UG from below. Ms. MIT. Embick, D. y R. Noyer (2004) Distributed Morphology and the Syntax-Morphology Interface. Borrador del 25 de Octubre de 2004. Impreso en Ramchand, G. y Reiss, C. eds., “The Oxford Handbook of Linguistic Interfaces”, Oxford University Press. Escandell Vidal, M.V. y M. Leonetti (2000), Categorías conceptuales y semántica procedimental. En “Cien años de investigación semántica: de Michél Bréal a la actualidad” Tomo I, Madrid, Ediciones clásicas, 363-378. Epstein, S. y T. Seeley (2002) Rule Applications as Cycles in a Level Free Syntax. En “Derivation and Explanation in the Minimalist Program”, ed. S.D. Epstein & T.D. Seeley, 65-89. Oxford: Blackwell. Fábregas, A. (2005) La definición de la categoría gramatical en una morfología orientada sintácticamente: nombres y adjetivos. PhD Thesis, Universidad Autónoma de Madrid. Gallego, A. (2007) Phase Theory and Parametric Variation. PhD Thesis, Universitat Autónoma de Barcelona. (2010) Phase Theory. Amsterdam, John Benjamins. 41

Gallego, Á. y J. Uriagereka (2006) Sub-Extraction from Phase Edges, paper presented at Edges in Syntax, Cyprus College, Nicosia (Cyprus). Giorgi, A. y F. Pianesi (1996) Verb Movement in Italian and Syncretic Categories. En “Probus”, 8, 137-160. Grohmann, K. K. (2003a) “Prolific Domains. On the Anti-Locality of Movement Dependencies”. Amsterdam: John Benjamins. (2003b) Successive Cyclicity under (Anti-)Local Considerations. Syntax 6, 260-312. (2004) Prolific Domains in the Computational System. En Actas de JEL 2004: Domains. Nantes: AAI, 211-216. Hale, K. y J. Keyser (1993) On Argument Structure and the Lexical Expression of Syntactic Relations. En Hale y Keyser (1993) “The View from Building 20”. Cambridge, Mass. MIT Press. Hornstein, N. (1999) Minimalism and Quantifier Raising. En Epstein y Hornstein (eds.) “Working Minimalism”, Cambridge, Mass. MIT Press. Jackendoff, R. (1997) The Architecture of the Language Faculty. Cambridge, Mass. MIT Press. Jackendoff, R. y F. Lerdahl (2004) The Capacity for Music: What Is It, and What´s Special About It? En Cognition, 2004. Kayne, R (1994). The Antisymmetry of Syntax, Cambridge, Mass. MIT Press. Krivochen, D. (2010) Referencialidad y Definitud en D. Un análisis desde la convergencia entre el Programa Minimalista y la Teoría de la Relevancia. Inédito. (en preparación) Prolegómenos a una teoría de la Mente. Larson, R. (1988) On the Double Object Construction. Linguistic Inquiry 19: 335-391. Leonetti, M. y M. V. Escandell Vidal (2004) Semántica conceptual, semántica procedimental, en Actas del V congreso de Lingüística General, Madrid, Arco. Mateu Fontanals, J. (2000a) Why Can´t We Wipe The Slate Clean? A Lexical Syntactic Approach to Resultative Constructions. Universitat Autónoma de Barcelona. Departament de Filología Catalana. (2000b) Univesals of Semantic Construal for Lexical Syntactic Relations. Universitat Autónoma de Barcelona. Departament de Filología Catalana. Marantz, A. (1997) No Escape from Syntax: Don’t Try Morphological Analysis in the Privacy of Your Own Lexicon. En A. Dimitriadis, L. Siegel, C. Surek-Clark, and A. Williams, eds., Proceedings of the 21st Penn Linguistics Colloquium, UPenn Working Papers in Linguistics, Philadelphia. (2006) Phases and Words. Ms. MIT.

42

Moro, A. (2000). Dynamic Antisymmetry. Movement as a Symmetry Breaking Phenomenon, Cambridge (Mass.): MIT Press. Noyer, R (1998) Frequently Asked Questions about DM. University of Pennsylvania. Nunes, J. (1995) The Copy Theory of Movement and Linearization of Chains in the Minimalist Program. PhD Thesis, Universidad de Maryland. Panagiotidis, P. (2008) Categorial Features of Functional Heads. Universidad de Chipre. (2010) Categorial Features and Categorisers. Borrador del 31 de marzo de 2010. Universidad de Chipre. Pesetsky, D. (1995) Zero Syntax. Experiencers and Cascades. Cambridge (Mass.): MIT Press. Sperber, D. y D. Wilson (1986a) Sobre la definición de Relevancia. En Valdés Villanueva, Luis Ml. (Comp.) (1991) En búsqueda del significado. Madrid, Tecnos. (1986b/1995) Relevance: Comunication and Cognition. Oxford. Blackwell. Stamboni, J. L. (2008) Las oraciones existenciales. Su significado y su realización sintáctica en inglés y en castellano. Tesis de Maestría. Facultad de Humanidades y Artes, UNR. Uriagereka, J. (1998) Piez y Cabeza. Madrid, Visor. (1999) Multiple Spell-Out. En N. Hornstein & S. Epstein (eds.), Working Minimalism, Cambdridge (Mass.), MIT Press, 251-282. Reprinted in Uriagereka (2002) Derivations. MIT Press. Varas San Vicente, M. A. (2008) Categorías funcionales, categorías léxicas y rasgos. Un intento de simplificación. En DICENDA, Cuadernos de Filología Hispánica, vol. 26. Webelhuth, G. (ed.) (1995) Government and Binding Theory and the Minimalist Program. Oxford. Blackwell. Wilson, D. y D. Sperber (2003) La teoría de la Relevancia, en Revista de Investigación Lingüística, Vol. VII2004. Págs. 237-286. Yus, F. (2010) Relevance Theory. In: The Oxford Handbook of Linguistic Analysis. Eds. B. Heine and H. Narrog. Oxford: Oxford University Press, 679-701.

43

Sign up to vote on this title
UsefulNot useful

Master Your Semester with Scribd & The New York Times

Special offer for students: Only $4.99/month.

Master Your Semester with a Special Offer from Scribd & The New York Times

Cancel anytime.