You are on page 1of 131

Universidad Nacional de Córdoba Facultad de Ciencias Exactas, Físicas y Natur ales

Proyecto integrador
Ingeniería Electrónica
Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Alumno: Podetti Ramiro Javier

Director: Ing. Parlanti, Gustavo Codirector: Dr.Ing. Molina, Germán Rodrigo

Mayo 2012

Ing. Ramiro Javier Podetti

e-mail: ramiropodetti@gmail.com

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Contenido
Agradecimientos 7

Resumen

8

Abstract

9

Glosario

10

1. Capitulo 1 Presentación 1.1. Introducción 12 1.2. Objetivo 13 1.3. Motivación 13 1.4. Objetivo Comercial 14 1.5. Esquema del Prototipo 15 1.6. Organización del informe

16

2. Capitulo 2 Marco Teórico 2.1. Introducción 18 2.2. Audio Digital 18 2.3. Audio Digital Vs Audio Analógico 19 2.3.1. Ventajas del Audio Digital 19 2.3.2. Desventajas del Audio Digital 20

Página 2

Ing. Ramiro Javier Podetti

e-mail: ramiropodetti@gmail.com

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

2.4. Conceptos básicos del Audio Digital 20 2.4.1. Muestreo y Aliasing 21 2.4.2. Cuantificación 23 2.4.3. Codificación 23 2.4.4. Modulación por impulsos codificados (MIC o PCM) 23 2.4.5. Códec de audio 24 2.5. Rango Dinámico y Dither 24 2.6. Número de canales 26 2.7. Formatos digitales de audio 27 2.8. Procesamiento de señales digitales 27 2.9. Procesador digital de señal o DSP y representación aritmética 29 2.10. Clasificación de sonidos según la Tecnología utilizada para su reproducción 2.10.1. Sonido Monoaural 31 2.10.2. Sonido Estereofónicos 31 2.10.3. Sonido Cuadrafónico 32 2.10.4. Sonido envolvente o sonido 3D 32 2.10.5. Sonido Dolby AC3 y E-AC-3 34 2.10.6. Sonido Digital Dinámico Sony o SDDS 34 2.10.7. Sonido Teatro Digital o DTS 35 2.11. Técnicas para lograr Sonidos Envolventes. 36 2.11.1. Técnicas en sistemas de sonido 3D 37 2.11.2 Técnica Holofónica 4D 37

30

3. Capitulo 3 Correlación del sistema auditivo en seres humano con técnicas de sonido envolvente 3D. 3.1. Introducción 38 3.2. Entendiendo el sistema auditivo humano 38 3.3. Detalles de las Técnicas de Sonido 3D. 40 3.4. Conceptos fundamentales de un sistema de sonido 3D 41 3.5. Mecanismos de localización del sonido en los seres humanos 42 3.5.1. Sistemas de Coordenadas 43 3.5.2. Dirección de una fuente sonora 44 3.5.2.1. Localización en el plano horizontal, ángulo lateral 45 3.5.2.1.1. Diferencias Interaurales de Intensidad o DII 45 3.5.2.1.2. Diferencias Interaurales de tiempo o DIT 46

Ing. Ramiro Javier Podetti

e-mail: ramiropodetti@gmail.com

Página 3 Ing.com . Ramiro Javier Podetti e-mail: ramiropodetti@gmail.

3.1.3. Propuesta de Solución 57 4. Introducción 78 5. Distancia de una fuente sonora 50 3.5.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 3. Hardware 60 4.1. Estructura del dato a transmitir por la interfaz 77 5.2. Capítulo 5 Programación del sistema 5. Bloque 2 o Microcontrolador 71 4.1.4.3.3. Localización en el plano medio .1.com .1. Características de Conversión A/D. Módulo de Memoria 68 4.3.3.6.3.3.3.2.2.1.1.3. Introducción 57 4.7.2.1.3.3.2.2. Esquema general de la programación del sistema 5.1.1.3.1. Características del Módulo TWR-ELEV 74 4.1.2.2.3.Ángulo de elevación 48 3. Características del Módulo MCF52259 72 4.3.3.3.2.1.3.1.3. Características del Módulo TWR-SER 73 4.1. Bloque 3 o Interfaz de comunicación entre DSP y MCF52259 75 4.3.3. Módulo Core 66 4.1.3.2.3.2. Módulo Interfaz serie mejorada de audio (ESAI) 68 4.1.1. Módulo Interfaz para depuración de la programación 67 4. Ramiro Javier Podetti 78 79 Página 4 e-mail: ramiropodetti@gmail. salidas de propósito general(GPIO)71 4.2. Bloque 1 o DSP 60 4.1. Conclusiones sobre las técnicas de sonido envolvente para el desarrollo de nuestra aplicación 53 4. D/A 63 4.1.5.2. Estructura de la interfaz 75 4.1. Programación DSP56371 80 Ing.1.3. Capitulo 4 Implementación del Prototipo 4. Características generales Freescale Symphony 60 4. Características del Procesador Digital de Señales DSP56371 65 4.1. AKM AK4584 63 4.3. Fuente de alimentación 62 4.5.3.3.3. Conector de Expansión (CON1) 62 4.3. AKM AK4556 63 4. Descripción por bloques del Esquema general 5.1.2.3. Función de Transferencia relativa a la cabeza o HRTF 52 3.2.1.1. Módulo de entradas.3.3.3.2.2.

Diagramas de Flujo 81 5.1. Búferes Circulares 84 5.1.3.1. sección servicio para control de la Consola 110 6.2. MQX RTCS 98 | 5.2.4.1. Procesamiento del Audio Digital 89 5.1. Tecnologías incluidas en Ajax 100 5. Lógica Programación 109 5.1.3.2. Navegadores que permiten Ajax 102 5.3.2.1.2. Ramiro Javier Podetti 118 Página 5 e-mail: ramiropodetti@gmail.4. Conexiones de entradas de audio analógicas 118 6.3.4.2. AJAX 100 5. Conexiones del Sistema 116 6.5. Costos 115 6. Archivos Principales 87 5.4.3. Archivos y funciones 105 5. Programación pagina web.1.2.1.4.2. Conexiones de salida al Sistema de Audio Cuadrafónico Ing.3.3. Control de Volumen y Mute 91 5.3. Diagrama general de conexionado 117 6.3. Diagrama de flujo 103 5.1.4.2.4.1. Introducción 113 6.1.4.3.1.2.1. Programación de la Interfaz MCF52259-DSP56371 106 5.4.2. Patrón de interacción asíncrono 101 5.4. Asignación de Memoria 83 5.2. Diagrama de flujo de la programación 108 5.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 5. MQX 3.5.1 96 5.4. Archivos de Comunicación con MCF52259 88 5.2.4 y Code Warrior 7.5.3.1.2.5.1.2.4.2.3.3.2.3.5.5.2.5.3.2. Mezcla de Audio de entrada 90 5. Programación de tareas y prioridades en MCF52259 usando MQX RTOS 103 5.5. Control de Posicionamiento Horizontal 92 5.3.2. Inconvenientes de Ajax 102 5. Instalación y calibración del Sistema de audio cuadrafónico 115 6. Herramientas de Programación 95 5.4.3.3. Características Técnicas 113 6. Archivos y Rutinas 85 5.1.1.3.com .2. Programación del TWR-MCF52259 95 5.2. Capítulo 6 Prototipo final 6. MQX RTOS 97 5.5.

119 6.5.4.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 6.com .6. Conexiones y configuración IP del cliente (ordenador portátil) 118 6. Modos de funcionamiento 120 7.5. Capítulo 7 Conclusiones 121 Apéndice I: Software 124 Referencias 125 Página 6 Ing. Modo de acceso y dirección web del servicio de control remoto de la consola de audio.5. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.

haciendo posible el descuento del 100 % de los kit de desarrollos que se utilizaron en el prototipo. Agradecer en especial a los profesores Ing. Agradezco a la empresa Freescale que mediante el programa de apoyo a estudiantes “Freescale Student Project Sponsorship” aprobó ser sponsor del proyecto. Ignacio y Giuliana. quien me acompaño por este camino. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Gustavo Parlanti y Dr. suegros. Rodrigo Molina. y me regalo dos hijos llenos de luz.com . por haberme prestado incondicionalmente su tiempo y apoyo para poder realizar este proyecto. para ellos también mi agradecimiento.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Agradecimientos Quiero agradecer a todos mis compañeros. abuelos. ellos desde muy pequeños y casi sin saberlo me guiaron como dos faros durante los momentos más difíciles. Además Agradezco muy especialmente a mis Padres quienes me dieron el apoyo para comenzar este camino y el mismo aliento permaneció durante todo el trayecto. cuñados. amigos y profesores que durante estos años en estuvieron presentes a lo largo de mi formación como profesional. Por último agradecer al amor de mi vida Gisela.Ing. madrina y compadre. no quiero olvidar a nadie mi hermano. Página 7 Ing. al igual que el resto de mi familia.

El combo de las tecnologías empleadas en este proyecto dan como resultado un consola de audio digital capaz de conectarse a los más variados dispositivos portátiles actuales del mercado. pudiendo controlar los efectos de sonidos envolventes 3D. Se demuestra el funcionamiento de la consola en tiempo real.. posibilita usar el protocolo de redes Ethernet.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Resumen Para lograr efectos dinámicos de la ubicación virtual de una fuente sonora como es el caso de los sonidos envolventes o 3D (3 dimensiones). traduciéndose en un ahorro de diseño y fabricación del hardware de control remoto. Este prototipo intenta ser la base de partida para que Músicos. creando una experiencia única en la interacción del Artista. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. En este prototipo los controles de la consola están accesibles desde una página web que es servida por el mismo microcontrolador. con comandos simples para su manejo. dicha consola es capaz de digitalizar y procesar señales de audio. con el público. son la mejor opción. Su construcción está basada en un DSP56731 de la marca FreescaleTM. Músico o DJ. La consola de audio será el medio por el cual los efectos podrán ser ejecutados con total espontaneidad. En este trabajo se construyo un prototipo de consola de audio digital para efectos de sonidos envolventes 3D.com . se interesen en este tipo de efectos en “vivo”. El objetivo fue obtener a la salida una posición espacial virtual de la fuente sonora de entrada a la consola.. a través de la utilización de tecnologías analógicas se tornan inviables. provistos de ciertos algoritmos de procesamiento digital de señales. Smartphone. las distintas posiciones virtuales de la fuente sonora son seleccionadas por el usuario a través de los comandos de la consola. DJ. Notebook. Artistas. como lo son Tablets. la utilización de sistemas digitales de audio. haciendo que los sonidos interpretados cambien de lugar entre los espectadores. logrando posicionar sus ejecuciones musicales en distintos espacios del auditorio. Página 8 Ing. etc. estos comandos fueron implementados con un microcontrolador MCF52259 también de la marca FreescaleTM. La tecnología incorporada en este microcontrolador. Ante estos casos.

the use of digital audio systems. This prototype is intended to be the starting point for musicians. Notebook. In this paper we built a prototype digital audio console for 3D surround sound effects. making the sounds played to move among the audience. this console is able to scan and process audio signals. is the best option.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Abstract To achieve dynamic effects of the virtual location of a sound source such as surround sound 3D (three dimensional). through the use of analog technologies become unviable. creating a unique experience in the interaction of the Artist. The audio console is the means by which the effects may be performed with complete spontaneity.. Its construction is based on a brand FreescaleTM DSP56731. In this prototype console controls are accessible from a web page that is served by the same microcontroller. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. such as Tablets. making positioning their musical performances on different areas of the auditorium. etc. Smartphone. controlling the 3D surround sound effects . In these cases.com . The goal was to get out a virtual spatial position of the sound source input to the console. provided with certain algorithms of digital signal processing. resulting in savings of hardware design and manufacture of remote control. We demonstrate the operation of the console in real time with simple commands for handling. The technology built into the microcontroller. DJ electronic music artists are interested in this type of effect "in-live". Página 9 Ing. The combo of the technologies employed in this project result in a digital audio console can connect to the most varied current market portable devices. Musician or DJ with the public. these commands were implemented with a microcontroller also MCF52259 FreescaleTM brand. possible to use the Ethernet protocol. the positions of the virtual sound source are selected by the user through the console commands.

Frame = Marco. ESAI = Enhanced serial audio interface (Interfaz de audio serial mejorada). D/A = Conversión de señales. HTTP fue desarrollado por el World Wide Web Consortium y la Internet Engineering Task Force. MSB = Most significant bit (Bit más significativo). Fue creado entre los años 1973 y 1974 por Vint Cerf y Robert Kahn. IDE = entorno de desarrollo integrado. IP = Protocolo de Internet ( IP ) es el principal protocolo de comunicaciones utilizado para retransmitir datagramas (también conocido como los paquetes de red ) a través de una red interna utilizando el conjunto de protocolos de Internet.com . LSB = Less significant bit (Bit menos significativo). colaboración que culminó en 1999. IDE (sigla en inglés de integrated development environment). Conversión A/D. Hypertext Transfer Protocol (HTTP)= protocolo de transferencia de hipertexto es el protocolo usado en cada transacción de la World Wide Web. Ethernet = es un estándar de redes de área local para computadores con acceso al medio por contienda CSMA/CD. analógicas a digitales / digitales a analógicas. TCP = Transmission Control Protocol (en español Protocolo de Control de Transmisión) o TCP. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. es uno de los protocolos fundamentales en Internet. Códec = abreviatura de codificador-decodificador. CSMA/CD (Acceso Múltiple por Detección de Portadora con Detección de Colisiones). Página 10 Ing. DSP = Digital signal processing/processor (procesador/procesamiento digital de señales). Bit depth = resolución en bits. Puede dedicarse en exclusiva a un solo lenguaje de programación o bien poder utilizarse para varios. es un programa informático compuesto por un conjunto de herramientas de programación.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Glosario Aliasing = Término utilizado para referirse a la generación de frecuencias no deseadas producto de un sub muestreo o un filtrado incorrecto de una señal digital.

creado para redes locales inalámbricas. es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Sampling = Muestreo. Página 11 Ing.11b). SPDIF = Sony-Philips digital interface. pero que también se utiliza para acceso a internet. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. World Wide Web (WWW) = Red informática mundial. donde un individuo es plenamente capaz de escuchar la mezcla de audio de la forma en que fue pensado para ser escuchado llamado también “punto dulce”.11 (especialmente la 802. Sweet spot = punto focal entre los altavoces. El término fue acuñado por la Wi-Fi Alliance. Wi-Fi = (Wireless Fidelity) Conjunto de estándares para redes inalámbricas basado en las especificaciones IEEE 802.com . S/H = Sampling and hold (Muestreo y retención).

1. provistos de ciertos algoritmos de procesamiento digital de señales. permitirá a la consola de audio digital nutrirse de los beneficios que la misma red proporciona. estadios. Este control remoto se implementa a través de una página web servida por la misma consola. con el objeto de que las bandas musicales o sonidistas. Introducción En la ingeniería de sonido. De esta manera es posible lograr diferentes efectos de sonido relacionados con la ubicación de las fuentes sonoras. En este capítulo presentamos el prototipo de la consola de audio para efectos de sonido envolventes.. para aquellos casos en donde se busca lograr efectos de la ubicación virtual sonora dinámicamente como es caso de los sonidos 3D (3 dimensiones). ubicados en diferentes lugares dentro del ambiente a sonorizar. se utilizan sistemas de audio y consolas analógicas y digitales de múltiples canales de audio. Sin embargo.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet CAPITULO 1 Presentación 1. simulación de rebotes del sonido para armonizar los materiales de los diferentes escenarios o lugares donde se desarrollan las actividades musicales amplificadas electrónicamente. junto con el control remoto de la consola. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. la utilización de sistemas digitales de audio. dando como Página 12 Ing. son la mejor opción. convirtiendo a la consola de audio digital en un dispositivo electrónico con la capacidad de formar parte de una red de computadoras.com . teatros. la utilización de tecnologías analógicas se tornan costosas. La ambientación de estos escenarios se realiza mediante configuraciones especiales de fuentes de sonidos. etc. Ante estos casos. Esta característica denominada como control vía Ethernet. puedan recrear los ambientes musicales buscados. retardos en el tiempo de la señal. para la ambientación de diferentes escenarios como por ejemplo salones.

podremos ampliar el alcance o distancia de control. Este recuerdo me acompaña y conforma en mi mente una fotografía que no se ha borrado con el paso del tiempo.com .Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet resultado el ahorro del hardware en el control remoto y aprovechando las distintas infraestructuras de redes de computadoras Ethernet. ejemplo de ello son los dispositivos. Esta característica de control de la consola vía Ethernet será aprovechada para posicionarnos comercialmente en un mercado muy exigente como lo es el del audio digital. El prototipo a desarrollar será capaz de ser accedido por la variedad de dispositivos hoy presentes en el mercado que sean compatible con el protocolo Ethernet. Netbook. Durante mi carrera he dirigido el enfoque de mis trabajos prácticos al campo del sonido y al interesante funcionamiento de la red de internet o su significado en ingles Word Wide Web (Red de Informática Mundial). Smartphone. La idea motivadora del trabajo es poder integrar estas dos áreas Página 13 Ing. en especial sus placas de red Ethernet. 1. Este fue el detonante de mi inquietud por este tipo de efectos que nos dan una sensación de la posición en el espacio de una fuente de sonido. el primer manual de usuario que recuerdo haber leído he interpretado.2. Tablets. Notebook. fue el manual de uso de un equipo de audio estereofónico. Navegadores web. 1. tarjetas inalámbricas Wi-fi (compatible con el protocolo Ethernet). al punto de poder ser controlada desde cualquier parte del mundo en el que tengamos acceso a Internet. los dos transductores electro acústicos (parlantes) y la ubicación del “punto dulce” (lugar donde se debe situar el auditor) dentro del ángulo de audición formado por los parlantes. Dicha consola tendrá la particularidad de ser controlada a través de una red Ethernet y de esta manera ser controlada por cualquier dispositivo que use este protocolo de red. corriendo sobre su sistema operativo. aprovechando las características que estos dispositivos nos brindad. donde explicaba como posicionar en una sala. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Motivación Desde mi infancia tuve cierta atracción por los fenómenos electromagnéticos y en particular por cualquier dispositivo electrónico que hubiere dando vueltas. a los fines de poder apreciar los efectos de sonido estereofónicos grabados en distintas obras musicales. etc. Objetivo En este trabajo se desarrollará el prototipo de una consola de Audio Digital.. para realizar efectos sobre la ubicación espacial de fuentes de sonidos utilizando técnicas de procesamiento digital de señal en tiempo real. etc.3.

pensemos en la posibilidad de configurar el servidor para que forme parte de la Word Wide Web. Nuestra consola de audio será capaz de ser controlada a distancia. donde es muy común querer hacer ajustes en los efectos. mezclado. Artistas. por cuestiones estéticas. debe situarse en el “punto dulce” o su traducción al inglés “sweet spot”. etc. que quieran innovar en la forma de ejecutar su música. dando lugar a interminables idas y vueltas desde la consola de sonido al “sweet spot”. 1.4. Página 14 Ing. Objetivo Comercial Se presentan 3 casos a los cuales apuntamos comercialmente en este desarrollo. estos efectos son previamente grabados. esta Consola de Audio estaría accesible desde cualquier parte del mundo que se pueda accedera a Internet. perdiendo así la creatividad espontanea del artista. • Caso2: Diseñadores de efectos especiales de sonido. este sonido debe ser grabado.com . donde un individuo es plenamente capaz de escuchar la mezcla de audio de la forma en que fue pensado para ser escuchado. de esta forma estamos eliminando el concepto de distancia o limitaciones que tiene un control remoto vía Radio Frecuencia. apuntando a esta característica novedosa en consolas de audio y de esta manera facilitar el trabajo de los diseñadores de efectos especiales de sonido. sino dependiendo de una coordinación con el sonidista. • Caso 1: Apuntamos a Músicos. De esta forma los Ingenieros de sonido prueban sus diseños de efectos y comprueban que se ejecuten realmente como los ha diseñado. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Desde el escenario la distancia a la consola de sonido es inevitable. Cantantes. Por lo general las consolas son manejadas por sonidistas y el interprete o artista esta en el escenario. este es el punto focal entre los altavoces. sin poder poner sus efectos en el “VIVO”.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet tecnológicas para conformar un nuevo dispositivo de Audio que incorpore la capacidad de poder ser controlado a distancia para realizar los efectos de sonido envolventes. desde cualquier lugar. y luego ejecutado para su análisis. apuntamos a un control a distancia de comandos simples para aumentar la creatividad en los artistas a la hora de interactuar con su público. Imaginemos que se quiere representar el efecto de sonido de una motocicleta recorriendo la pantalla del cine de izquierda a derecha. Hoy en día es imposible operar la consola para colocar en “VIVO” un efecto de posicionamiento de sonido. infraestructuras.

aplicando algunos efectos de posicionamiento controlando. pero es complicado ejecutar un efecto de variación de posicionamiento de una fuente de sonido. y continuar con su rutina. el DJ. apuntamos a introducirnos en el mercado de los espectáculos públicos con un nuevo dispositivo electrónico que capte la atención de los espectadores. y una página web de control. Esquema del Prototipo A modo de introducción se muestra el prototipo a desarrollar en la figura 1. ya que la mayoría de los dispositivos portátiles que se podrán usar para su control tienen integrados módulos de Radio Frecuencia Wi-Fi que son compatibles con Ethernet. de música electrónica. poder controlar en el “VIVO” o para nosotros los ingenieros “en tiempo real” efectos de sonido 3D no pregrabados. o tambores que den vuelta por el lugar donde se sitúa el público.. volumen. Intentaremos apuntar a la espontaneidad. Se pueden observar en la figura 1. y luego las reproduce cuando están tocando en vivo. mientras se están tocando las pistas en una rutina. La técnica que utilizan hoy en día los DJ. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. En este caso la persona se encuentra cerca de la consola. dos elementos principales conformados por los Kits de desarrollo de la empresa Freescale. 1. es grabar previamente al espectáculo sus mezclas de audio.com . en este proyecto se intentará hacer el control de movimientos de fuentes de sonido de una forma simple y en tiempo real.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet • Caso 3: Apuntamos comercialmente a los DJ. etc. la pagina web estará alojada en la misma consola. Imaginemos el sonido de una sirena. un interface de comunicación. • Kit de audio Freescale Symphony SoundBite (contiene el DSP56371) • Kit FreescaleTWR-MCF52259 (contiene el microcontrolador MCF52259) • Interface de comunicación • Pagina Web de control Página 15 Ing. la interface de comunicación se implementara atreves de software usando los puertos de comunicación de propósito general de ambos kits. balance.5. debería ser una especie de pulpo para ejecutar tal efecto. ¿Porque se elije el estándar Ethernet para el control de la consola a distancia? La Consola de Audio es concebida para que pueda ser conectada a estándares Ethernet.

Organización del informe de los conceptos básicos del audio digital y procesamientos de eseñales digitales. se describen Página 16 El capítulo 2 hace un repaso Ing. y exponemos sobre la interface de comunicación entre ambas tecnologías. con técnicas de sonido envolvente.com . Posteriormente. Vista Lateral Prototipo Consola de Audio controlada vía Ethernet 1.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet uPrototipo de la Consola de audio digital para efectos de sonido 3D controlada via Ethernet. El capítulo 4 expone los bloques de diseño para la solución del prototipo.6. la elección del hardware y características del mismo para la 5implementación. el capítulo 3 presenta la correlación del sistema auditivo en dseres humano. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. El capítulo 6 está dedicado a las características técnicas del prototipo. El capitulo 5 expone los procedimientos empleados para escribir el software Sdel microcontrolador y del DSP. Pagina Web de control Kit Freescale TWR-MCF52259 Interface de comunicación Kit de audio Freescale Symphony SoundBite (contiene el DSP56371) Figura 1.

Junto con el informe se adjunta un CD-ROM con toda la información adicional del proyecto (software. hojas de datos. Por último. Página 17 Ing.com . Ramiro Javier Podetti e-mail: ramiropodetti@gmail. en el capítulo 7 se exponen las conclusiones obtenidas.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet las conexiones.). calibración y modos de funcionamiento del prototipo. etc.

1. bit depth y sample rate. Un convertidor analógico-digital se encarga de transformar en unos y cero la señal original. los mismos que hicieron tan populares a las técnicas de digitalización de audio. hacen posible este tipo de proyectos y además que la ecuación costo-beneficio no solo sea viable sino tentadora. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet CAPITULO 2 Audio Digital 2.com . Audio Digital Es la representación digital mediante un conjunto de datos binarios de una señal de audio. resolución en bits y la frecuencia de muestreo o sus expresiones en ingles. llamado “Cadena de digitalización” como se muestra en la figura 2. comienza por un transceptor (micrófono) que convierte la onda de presión acústica. Página 18 Ing. a una señal eléctrica analógica. El proceso para llegar a tener la señal de audio digitalizada. 2.2. Estos concepto junto con los avance de integración de hardware que dio lugar a los procesadores de señales digitales. Introducción Capítulo dedicado a exponer los conceptos teóricos del audio digital. en inglés Digital Signal Processor o sus siglas DSP.4. La fidelidad de la representación digital dependerá de. profundizáremos sobre los procesos básicos del audio digital en la sección 2.

Página 19 Ing. es conveniente usar técnicas digitales o analógicas. El procesamiento en el dominio discreto es más sencillo. 2.com . filtros con respuesta de frecuencia arbitraria y fase lineal) • Facilidad para implementar filtros adaptivos.3.3. Ventajas del Audio Digital • • • • • • Menor cantidad de componentes electrónicos. Audio Digital Vs Audio Analógico qSegún la aplicación que se quiera desarrollar.1. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. (nivel industrial).Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet Figura 2. Alta inmunidad al ruido. la mejor opción es combinarlas para sacar el mejor provecho de ambas tecnologías. Facilidad para la transmisión y el almacenamiento de datos digitales. cada equipo de procesamiento analógico agrega ruido y distorsión a la señal de manera inversamente proporcional a la calidad del mismo. Es posible realizar acciones imposibles de obtener utilizando el procesamiento oanalógico (por ejemplo. • La información digital se puede transferir un número ilimitado de veces desde un sistema a otro sin ningún tipo de degradación. No requieren calibración. pero en particular la aplicación que se desarrolla en este proyecto sería inviable en un esquema de audio analógico. permitiendo la repetición a gran escala. Cadena de digitalización [1] 2.

Desventajas del Audio Digital • • Imposibilidad de implementar con exactitud ciertos efectos que tienen origen en equipos analógicos. para estos casos de muestro los codecs de audio se elevan en precio traduciéndose en una desventaja al menos por los tiempos que corren. en un futuro cercano esta desventaja puede dejar de serlo.4. La conversión de una señal analógica en digital.3 dB hecha con micrófonos B&K 4135. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. se puede observar una toma de Cimbales (instrumento musical de percusión). James BoyK. Es importante notar que nuestro equipo de audio digital para reproducir la energía generada por este instrumento debería tener una frecuencia de muestreo cercano a los 200Khz.3. Muestreo). corregido hacia 100 kHz.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet • Mejor aprovechamiento energético. produce una distorsión que nos impide la reconstrucción de la señal analógica original en su “real totalidad” a partir de muestras cuantificadas. y que a 100 kHz se mantiene todavía muy por encima del fondo.1. 2. Conceptos básicos del Audio Digital A Continuación profundizaremos sobre los procesos que se utilizan para obtener audio digital. Página 20 • • Ing. distorsiones logradas con sistemas valvulares. El trazo superior indica los cimbales sumado el fondo (background) o piso de ruido ambiental en ausencia de sonido. En un sistema de audio digital.2.com . 30 y 40 KHz es mayor a la de 2. 3 y 4 KHz respectivamente. Nótese que la energía en 20. Por ejemplo. Existen efectos indeseados debidos a la precisión finita que deben ser considerados en el procesado digital de las muestras cuantificadas. menores perdidas por disipación de calor (ejemplo menores perdidas que en equipos valvulares). a 108. En la figura 3. aproximadamente a cuarenta y cinco centímetros de distancia realizada por el Ing. obtenida muestreando la señal y cuantificando las muestras. 2. aun así es en ejemplo que nos permite introducirnos en una características muy importante del audio digital de alta fidelidad. siendo la frecuencia de muestro fmáximo no se podrán reproducir sonidos generados a frecuencias mayores a la mitad de fmáximo (ver sección 2. El trazo inferior representa solo el fondo.4.

Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Este teorema fue formulado en forma de conjetura por primera vez por Harry Nyquist en 1928 [2]. Muestreo Consiste en tomar muestras (medidas) del valor de la señal. con lo que podrá obtener hasta n niveles de tensión en un segundo. del Instituto de Tecnología California. es un teorema fundamental de la teoría de la información. Página 21 Ing. y fue demostrado formalmente por Claude E.1. de especial interés en las telecomunicaciones.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet • Muestreo • Cuantificación • Codificación • Modulación por impulsos codificados (MIC o PCM) • Códec de Audio Figura 3 Medición realizada por el Ing. n veces por segundo. El teorema de muestreo de Nyquist-Shannon. 2. James Boyk.com . Derechos 19921997 James Boyk. criterio de Nyquist o teorema de Nyquist.4. también conocido como teorema de muestreo de Whittaker-Nyquist-Kotelnikov-Shannon. Shannon en 1949 [3].

El teorema demuestra que la reconstrucción exacta de una señal periódica continua en banda base a partir de sus muestras es matemáticamente posible si la señal está limitada en banda y la tasa de muestreo es superior al doble de su ancho de banda. Específicamente.. El tiempo de separación entre muestras (125 μs) podría ser destinado al muestreo de otros canales mediante el procedimiento de multiplexación por división de tiempo (TDM). si una sinusoide de frecuencia f Hz es muestreada s veces por segundo. si: ωs > 2. Este tren de impulsos luego es procesado por un filtro pasa bajo ideal con ganancia T y frecuencia de corte > ωM < (ωs . Luego x(t) queda unívocamente determinada por sus muestras x(nT).. se puede reconstruir x(t) generando un tren de impulsos en el cual los sucesivos impulsos tengan amplitudes correspondientes a los valores de las ωs. Por ejemplo teniendo una frecuencia de muestreo de 8 kHz (período 125 μ). y s ≤ 2*f. La señal resultante a la salida es exactamente igual a x(t)”. la señal original no puede ser reconstruida de forma unívoca a partir de la señal digital. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. entonces las muestras resultantes también serán compatibles con una sinusoide de frecuencia fm .2) (2. con n= 0. si se toman muestras de una señal eléctrica continua de banda limitada a intervalos regulares y con una frecuencia doble a la frecuencia máxima que se quiera muestrear.1) Dadas estas muestras.. (Oppenheim 1975) “Sea una señal x(t) de banda limitada con X (ω)= 0. donde la frecuencia más alta a transmitir es de 3. para |ω|> ωM. o.000 muestras por segundo. lo que es lo mismo.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Teorema del Muestro.com .f. dichas muestras contendrán toda la información necesaria para reconstruir la señal original. ωM donde: ωs=2π/T (2. donde fm es la frecuencia de muestreo. En la jerga inglesa de procesamiento de señales.-2. Esto es así porque. suficiente para el canal telefónico de voz. Aliasing: En el campo del procesamiento de señales el aliasing es el efecto que causa que señales continuas distintas se tornen indistinguibles cuando se les muestrea digitalmente.ωM ). sería posible transmitir hasta 4 kHz llamando a este parámetro la “respuesta en frecuencia del sistema”. una muestra cada 125 μs.-3. cada una de las sinusoides se Página 22 Ing.4 kHz. Para un canal telefónico de voz es suficiente tomar 8. Cuando esto sucede. de acuerdo con el teorema de muestreo.-1.

Las muestras pueden tener un número de valores infinito. a cada nivel de cuantificación se le asigna un código binario distinto. En una señal discreta en tiempo y amplitud.4. sería un canal telefónico que es de aproximadamente de 60 dB. lo que es lo mismo. la señal analógica se ha dividido en el tiempo en un número finito de muestras (el valor de éstas aún no ha sido limitado en precisión). Una trama o stream PCM es una representación digital de Ing. con lo cual ya tenemos la señal codificada y lista para ser transmitida. un ejemplo de los conceptos expuestos anteriormente es la “Modulación por impulsos codificados (MIC o PCM)” 2. Modulación por impulsos codificados (MIC o PCM) Modulación por impulsos codificados.com . que sigue al de muestreo y precede al de codificación (ver Figura 2) Un ejemplo de cuantificación en la gama de intensidad de la voz.4. por sus siglas en inglés PCM. en el proceso de convertir una señal en tiempo discreto. este método es el que usa el formato de audio digital tan popular como lo es el formato CD de Audio. se denomina cuantificación. este método fue inventado por Alec Reeves en 1937.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet convierte en un "alias" para la otra. consecuencia del ajuste a un número finito y determinado de niveles. 2. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Cuantificación En la cuantificación se asigna un determinado valor discreto a cada uno de los niveles de tensión obtenidos en el muestreo. Codificación En la codificación.2.4.4. expresando cada muestra por medio de una precisión finita y conocida.3. Pulse Code Modulation. una relación de tensión de 1000:1. Se denomina proceso de cuantificación. al proceso que intervienen en la cadena de digitalización. Estos alias son eliminados por un filtro antialiasing o pasa bajo. es un procedimiento de modulación utilizado para transformar una señal analógica en una secuencia de bits (señal digital). 2.

Rango Dinámico y Dither El rango dinámico es un concepto propio de los procesadores. un códec de audio es un códec que incluye un conjunto de algoritmos que permiten codificar y decodificar los datos auditivos.com . 2. consiguiendo una buena calidad final. Figura 4 Codificación PCM de 4 bits [4] 2. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Se implementa en software.5. lo cual significa reducir la cantidad de bits que ocupa el archivo de audio. cada muestra puede tomar un conjunto finito de valores. hardware o una combinación de ambos. En un formato de coma flotante éste viene determinado por el número de niveles del exponente. En la figura 4.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet una señal analógica en donde la magnitud de la onda analógica es tomada en intervalos uniformes (muestras). Sirve para comprimir señales o archivos de audio con un flujo de datos (stream) con el objetivo de que ocupan el menor espacio posible. se muestra una codificación PCM de 4 bits la cual discriminara entre 16 niveles de señal. Códec de audio Códec es la abreviatura de codificador-decodificador.4. y descomprimiéndolos para reproducirlos o manipularlos en un formato más apropiado. Si Página 24 Ing. los cuales se encuentran codificados. Se define como la relación existente entre el máximo y mínimo valor (distinto de cero) representables.5.

no es necesario añadir dither a la señal analógica de entrada. en el mejor de los casos.) quedan por debajo del error que Introducen los propios conversores. de 19 ó 20. En la Figura 5. El número de bits efectivos siempre será. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. registra o almacena ruido en sus cuatro bits menos significativo: sus valores en las muestras resultan del más puro azar (y. En un formato en coma fija este depende del tamaño de palabra de datos según la relación: RD [dB] = 6 * Tamaño de palabra (2.3) Así para el caso típico de un exponente de 8 bits el rango dinámico es de 1530. redondeos. Si consideramos el ruido blanco gaussiano de valor eficaz (RMS) 16 a 20 veces mayor que el error de cuantificación teórico de un cuantificador de 24 bits. de hecho. en el mejor de los casos. se emplean en el estudio de fenómenos estocásticos). Página 25 Ing. Figura 5 Valores típicos de Rango Dinámico [5] Actualmente. los mejores convertidores comerciales disponibles de audiofrecuencia ofrecen niveles de ruido térmico que permiten relaciones señal a ruido (SNR) máximas sobre los 115120 dB. Un sistema o formato que emplea 24 bits en la cuantificación es un sistema o formato que. Este último viene determinado por los conversores A/D y D/A utilizados.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet expresamos esta relación en dB: RD [dB] = 6 *(Niveles del exponente) (2. etc. De esta forma se garantiza que los errores introducidos durante el procesamiento (debidos a truncamientos.com .4) El rango dinámico del procesador debe ser superior al de la aplicación. se muestra un grafica de los valores típicos de rango dinámico.

6. saturando el sistema. llamado ruido blanco. Esta técnica trabaja de manera que la salida cambia de un nivel continuo a valores representativos de la señal original. En la figura 6 se muestra la técnica de muestreo con Dither. Dos (2) canales son usados para sistemas de sonido estéreo. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Cualquier señal que se encuentre por debajo del nivel de cuantización del conversor analógico digital. de no ser así esta señal producirá una salida de continua. Smith.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Dither Técnica que agrega ruido por lo general en audio. debe utilizar esta técnica. The Scientist and Engieneer´s Guide to Digital Signal Processing) 2. canal derecho y canal izquierdo. son comúnmente llamados. Figura 6. Cuatro (4) canales son utilizados en los sistemas de sonido cuadrafónico.com . En algunos casos se usan efectos de audio en saturación donde esta técnica no se aplica para lograr el efecto buscado. Número de canales También llamado numero de pistas. (el ruido blanco está formado por todas las frecuencias audibles). Un (1) Canal es usado para sistemas de audio mono. Muestreo con Dither (Steven W. Ing.

Página 26 Ing.com . Ramiro Javier Podetti e-mail: ramiropodetti@gmail.

esta ventana temporal la define la frecuencia de muestro y es el intervalo que tendremos para realizar la cadena de digitalización. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Esto ventana temporal nos debe permitir trabajar cada uno de los canales que use nuestro sistema. 2. En audio digital a mayor cantidad de canales. imágenes. aumenta el caudal de información binaria a procesar y a transmitir en un tiempo determinado o ventana temporal. Procesamiento de señales digitales El Procesamiento Digital de Señales (DSP por sus siglas en inglés) es un área de la ingeniería que se dedica al análisis y procesamiento de señales (audio. mejorar la presencia de determinados matices (como los graves o los agudos). aunque también existen casos en que éstas son digitales. 2007). etc. etc. Formatos digitales de audio En la figura 7 se observan los distintos formatos de audio digitales. posterior procesamiento de las muestras digitalizadas y vuelta a la conversión D/A. aumentando así el parámetro bit rate. Smith. distorsión.) en el dominio del tiempo discreto.com . Si trabajamos en tiempo real. el estado de una válvula en el tiempo (abierta/cerrada). (Steven W.8. o sea mayor número de canales mayores exigencias de hardware y software para mantener el proceso en tiempo real. Página 27 Ing. video. Comúnmente las señales en la naturaleza nos llegan en forma analógica. El objetivo de procesar digitalmente una señal de audio puede ser obtener una disminución del nivel de ruido. generar efectos tales como los que necesitamos en nuestra aplicación “efectos de posicionamiento” o los más usados como lo son los efectos de eco.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet La cantidad de canales influye directamente en la cantidad de información a procesar por segundo (tasa de bit o en inglés “Bit rate“) este será un dato a tener en cuenta para nuestro desarrollo. reverberación. como por ejemplo: las edades de un grupo de personas.7. voz. 2.

com . Tabla Formato de audio digital Página 28 Ing. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet Figura 7.

c) Formato número coma flotante. Procesador digital de señal o DSP y representación aritmética Es un sistema basado en un procesador que posee su propio hardware y software optimizados para aplicaciones que requieren operaciones numéricas a muy alta velocidad. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Un número de coma flotante se representa mediante una mantisa y un exponente siendo su valor: Valor = mantisa ∙ 2exponente (2.com . b) Formato número coma fija.9. Es especialmente útil para el procesado y representación de señales analógicas en tiempo real. Representaciones numéricas comunes en los DSP comerciales a) Formato numero entero.5) Figura 8.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 2. [5] Página 29 Ing. Representaciones Aritméticas en DSP [5] A continuación exponemos sobre las representaciones aritméticas más comúnes en DSP.

El DSP56317 posee una arquitectura interna de 24 bits de datos y la aritmética de punto fijo es complemento a 2 con signo. el rango de valores será diferente al de una representación binaria habitual. Clasificación de sonidos según la Tecnología utilizada para su reproducción En los años 1930. Una de las primeras producciones en incorporar sonido envolvente fue Fantasía (Walt Disney.com . y sumarle 1 al número obtenido. En estos procesadores es el propio hardware de la CPU. Los números negativos deberemos invertir el valor de cada una de sus cifras. quedando reflejada la posición del punto binario en el exponente. En ese entonces. el sonido viene desde todas direcciones. la banda sonora de una película se reproducía en un solo altavoz (sonido monoaural). Ramiro Javier Podetti e-mail: ramiropodetti@gmail. de las representaciones numéricas más comunes en los DSP. Figura 9.192*10-7 (2. se hicieron grabaciones Página 30 Ing. Registro 24 bits Cualquier número real Xq puede ser aproximado por la suma finita Xq= −b0 + −b(−i) ∗ 2-i (2. es el que realiza los escalados mencionados anteriormente. es decir realizar el complemento a uno. se muestra un resumen.10. o en varios altavoces reproduciendo el mismo sonido detrás de la sala.7) 2. es lo que se conoce como sonido envolvente. El cálculo del complemento a dos es muy sencillo mediante puertas lógicas. Cabe recordar que debido a la utilización de un bit para representar el signo.6) Resolución es límite inferior a los números fraccionarios que se pueden representar en este caso 2-23 = 1.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet La mantisa es un número fraccionario. mientras que el exponente determina la posición del punto binario. En una sala de cine moderna. los números positivos se quedarán igual en su representación binaria. el rango de valores decimales para n bits será -2n-1 < Rango < 2n-1 . En la Figura 8. Esto facilita enormemente la programación de las aplicaciones. 1941).

La idea de esta sección es presentar las tecnologías más usadas para reproducir diferentes tipos de sonidos envolventes tanto en cines como en el hogar. Los diferentes tipos de sonidos envolventes de la actualidad se logran en combinación de equipamientos hardware y algoritmos de programación en el ámbito del audio digital. Los sistemas de sonido estéreo cubren a lo sumo unos 120 grados del auditorio. según la cadena de equipamiento electrónico que utilizan para su reproducción (ya sean equipos analógicos o digitales). Las tecnologías que presentamos en este informe se exponen de forma breve a modo de ejemplos. Las diferentes fuentes de sonidos a reproducir por estos equipamientos pueden haber sido generadas por técnicas de grabación que buscan simular la tridimensionalidad del espacio donde se ubica la fuente sonora.1. 2. transmiten.10. y reproducen el sonido por múltiples canales. La combinación de equipamiento para la reproducción y técnicas de sonido.10. A continuación clasificaremos algunos de los tipos de sonido según equipamientos asociados para su reproducción. Sonido Estereofónico El estéreo o estereofónico. dan como resultado sensaciones auditivas espectaculares.2. procesan. esta técnica consiste en grabar todo el sonido mediante un único canal y reproducirlo normalmente mediante un solo altavoz. Esta tecnología hace referencia a grabaciones multicanal que se reproducen desde dos altavoces situados a derecha e izquierda. está hoy en día presente en la gran mayoría de nuestros televisores y radios. 2. Página 31 Ing. Sobre estas técnicas de sonido nos ocuparemos en la sección 2.com . dando como resultado sonidos envolventes o 3D. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Sonido Monoaural El más sencillo es el sonido mono o monoaural.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet separadas de cada sector de la orquesta y luego se mezclaron a través de 4 pistas de audio óptico analógico.11. estos equipamientos. Se clasificaran diferentes tipos de sonidos.

Sonido envolvente o sonido 3D Sonido envolvente o sonido 3D conocido por su traducción al inglés como surround [6]. Situado en una posición central con respecto al canal izquierdo y derecho. estos sistemas fueron una de las primeras propuestas de venta en los sistemas de múltiples canales. en el mismo eje se encontraría el “punto dulce” o su traducción al idioma inglés “sweet spot” punto ideal en el que el oyente debería estar colocado. se refiere al uso de múltiples canales de audio para provocar efectos envolventes a la audiencia. Hoy por hoy. consolas de videojuegos preparados para este sistema. de modo que produzcan una percepción psicoacústica de 3D o 3 dimensiones. Esta tecnología ha llegado hoy a nuestros hogares. Precursor de los sistemas de cine en casa 5. por sus siglas en ingles ITU (International Telecomunications Union) para colocación de altavoces para lograr una respuesta óptima cuando se utiliza dicho formato. La norma ITU-R BS 775-1 es el estándar emitido por la Unión Internacional de Telecomunicaciones. como parte fundamental de los sistemas de cine en casa. también muchos equipos de audio poseen sistemas de sonido multicanal. Sonido Cuadrafónico Se dice que un sistema de sonido es cuadrafónico cuando este posee cuatro canales discretos de información de audio. el concepto de sonido surround fue acuñado por Laboratorios Dolby [7] Dolby es el nombre comercial para una serie de tecnologías de compresión de audio desarrollado por el mismo laboratorio. La forma más simple de Surround es lo que se conoce como formato estéreo 3/2.10. En el año 1982.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 2. esta tecnología resulta común en la actualidad. entre otros. 2.1.com .3. El sonido Surround se puede conseguir mediante la colocación física de un conjunto de altavoces y el agregado de efectos al procesar la señal de audio. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Técnicamente. El formato estéreo 3/2 como lo muestra la figura 10. Este sistema es usualmente utilizado en audio automotriz. Página 32 Ing. está compuesto por un total de 5 altavoces: • Canal central. este laboratorio lanzan el "Dolby Surround Sound" como primer sistema de sonido envolvente para cine.4.10. codificando las dos pistas de cualquier fuente estéreo en sonido envolvente de cuatro canales. en definitiva. ya sea proveniente de una película o de una banda sonora.

al mismo tiempo. es posible que el ángulo de separación sea aún mayor. la presencia de obstáculos. Es la misma posición que ocupan en el formato estéreo 2/0. Cuando esto no es posible. distanciados del centro una longitud equivalente al radio del círculo. a nivel práctico. hace que a veces se tengan que situar por encima o por debajo de esta altura ideal. de forma que el punto dulce es el centro de la circunferencia. sin ellos. Figura 10. En algunas ocasiones. por ello. A una distancia de 30º. teniendo como límite máximo los 35º. Los canales Surround no presentan demasiadas exigencias en cuanto a su colocación. a la hora de colocar los altavoces. Esta equidistancia se logra considerando el sistema como un círculo imaginario. Sin embargo. preferentemente a nivel del oído. es decir. son los que permiten hablar de sonido envolvente. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. se introducirá un retardo electrónico en aquellos altavoces situados más próximos al oyente. pues la percepción humana no es muy buena cuando se enfrenta a sonidos procedentes desde la parte posterior. los altavoces deben estar situados equidistantes con respecto al punto dulce. hasta cuadrar el tiempo y que todas las señales lleguen al oído "en fase".Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet • Canal izquierdo y canal derecho. sería formato estéreo sin más. el oído debe recibir la información procedente de cada uno de los 5 canales al mismo tiempo. Para poder crear correctamente la imagen sonora. Colocados en un ángulo de 110º con respecto al eje central. por lo que mantiene la compatibilidad. Lo que hay que tener en cuenta en ese Página 33 Ing. habría que tener en cuenta que todos deberían estar situados a la misma altura. y los altavoces se ubican todos en el borde de la misma. Ángulos para la ubicación de los parlantes en sistemas de sonidos de múltiples canales [6] En el plano teórico.com . • Dos canales traseros. con respecto al eje central que va del canal central al “punto dulce”.

El formato Digital Dolby soporta también el uso de mono y estéreo. a partir de ese límite. no sea superior a los 15º. en muchas televisiones por cable y satélite y es una opción en muchos Dvd). o subwoofer”. Dolby AC-3.5 Mbps en los discos ópticos de HD.6.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet caso es que la desviación con respecto al eje horizontal. los sonidos son percibidos como procedentes de arriba o abajo.com . Ahora conocido como Dolby Digital.1 para las aplicaciones actuales de los medios. Sonido Digital dinámico Sony o SDDS (Sony Dynamic Digital Sound) Es un sistema de sonido digital lanzado en 1993 por Sony [8].10.5. que son diversos nombres para el mismo códec. de 256 Kbps para la difusión en línea. Este códec tiene varios alias. este proporciona unas altas prestaciones de audio multicanal para la proyección de películas en salas de cine. Dolby AC3 y E-AC-3 En 1991 fue mejorado el Sonido Dolby Surround [7] Se presenta el nuevo sistema de codificación de audio de canales múltiples. escalables. cuya referencia son los oídos del oyente. Cuyas principales características son: • • Canales: 1. extensibles a 16 canales discretos.0 a 7. cuatro canales para cinco altavoces. • Frecuencia de muestreo: 48 kHz • Profundidad de bits: 20 bits 2. Es el sistema de audio 3D casero más extendido en la actualidad (se emplea en los vídeos VHS. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.10. centro. AC-3.20 kHz para los altavoces de rango-normal (frente derecho. Ing. Sólo está disponible su uso en salas comerciales y no en el ámbito doméstico. El heredero de este sistema es E-AC-3 (Enhanced AC-3) o Dolby Digital Plus [7]. 2. parte posterior derecha y parte posterior izquierda) y un canal de salida exclusivo para los sonidos de baja frecuencia conocida en el idioma inglés como “low frecuency effect. Es decir. es la versión más común que contiene hasta un total de 6 canales de sonido. frente izquierdo. Velocidad de datos: 32 kbps-6 Mbps. su primera aplicación es en formato de sonido para películas. con 5 canales de ancho de banda completa de 20 Hz . por lo general 768 kbps-1.

muchos reproductores mediante software soportan la decodificación en DTS. de hecho las bandas sonoras SDDS de 35mm se pueden oír en cualquier tipo de sala. aunque actualmente muchas de las películas de la empresa Columbia Pictures. Las pistas SDDS se alojan en los márgenes de las películas estándar de 35 mm. Izquierdo Trasero y Derecho Trasero). Izquierdo Central. Para la reproducción en el PC. Para dispositivos de audio cine en el hogar. Los 6 canales que ofrece se corresponden en nombre y localizaciones con los del sistema Dolby Digital.com . con unas frecuencias de 20 Hz a 20 kHz en todos los canales (izquierdo. Derecho Central. Derecho. el cual es la primera implementación libre del DTS.1” (Izquierdo. Subwoofer. pudiendo sincronizar varias señales para conseguir un número ilimitado de canales totalmente independientes. El proyecto Video LAN creó un módulo decodificador para DTS llamado libdca (antes libdts). DTS también se utiliza en "sitios especiales" como parques temáticos o simuladores virtuales. Sonido Teatro Digital o DTS (Digital Theater System / Sound / Surround) [9] Sonido de Teatro Digital o por sus siglas en inglés DTS (Digital Theater System / Sound / Surround) es un sistema digital de codificación de sonido que permite la existencia de 6 canales independientes de audio en una sola señal comprimida. sin ser incompatibles con las pistas ópticas analógicas de sonido analógico que permanecen donde siempre. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. el SDDS no está disponible en todas las salas. derecho. Además de usarse para el cine. Central. se suelen grabar con este sistema. Mientras la mayoría de los reproductores más modernos ofrecen soporte para DTS. En velocidad de transferencia de 1536kbit/s ofrece una muy buena calidad. Ya que el formato DTS no es el códec por defecto de la generación actual de reproductores DVD. Debido al uso preponderante de los sistemas de sonido digital Dolby Digital o DTS en las salas de cine. Tiene una frecuencia de muestreo de 48 kHz a 96 kHz. DTS utiliza velocidades de transferencia de 768 o 1536 Kb/s en sus variantes más simples. muchos dispositivos no lo soportaron inicialmente. Página 35 Ing. central y surrounds) y 20 Hz a 120 Hz en el canal central “LFE”.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet El sistema SDDS se caracteriza por el uso de hasta 8 canales independientes de sonido denominado “7. la mayoría de los usuarios eligen un reproductor de DVD con un decodificador integrado de DTS o un procesador separado que soporte esta tarea. Todos los receptores modernos soportan DTS.7. 2. caso en que puede albergar hasta 8 canales independientes en una sola señal. propiedad de Sony.10.

DTS es el único sistema digital utilizado en 70 mm. Técnicas para lograr Sonidos Envolventes Aquí nombramos dos técnicas diferentes de simulaciones ambientales bien diferenciadas. Dolby Digital (zona gris entre los agujeros dentados).De Izquierda a derecha. “Sistemas de sonido 3D” y otro técnica por grabación de sonido “Holofonía 4D” (Hugo Zucarelli. SDDS (área azul a la izquierda de los agujeros grandes). por ejemplo. Gracias a la versatilidad de este código de tiempo.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet En el cine DTS no incorpora los datos impresos en la cinta a proyectar. sino que vienen grabadas en un CD-ROM aparte. una señal impresa de sincronización que permite a la imagen y al sonido reproducirse simultáneamente. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. sonido analógico (las dos líneas blancas a la derecha de la pista Dolby Digital).11. Fotografía de un segmento de cinta de audio impreso. nos muestra los cuatro formatos de audio (o "pista cuádruple"). En el caso de usar parlantes amplificados. en el caso de la holofonía se necesitan parlantes especiales.com . ambas técnicas están diseñadas para dos canales de salida obteniendo la mejor performance en un sistema de sonido tipo estereofónico con la utilización de auriculares. los efectos de sonido 3D son menos resaltados que si se usan auriculares. Página 36 Ing. aún cuando una cinta de 24 fotogramas por segundo es proyectada a 25 f/s. Figura 11. Lo que sí incluye en la cinta es un "código de tiempo". 1980) [10]. Ambas técnicas graban y procesan las señales de entrada para logra a la salida los efectos de sonidos envolventes deseados. [9] 2. ya que soporta variaciones de hasta ±10 % en la velocidad. y el código de tiempo para DTS (la línea punteada a la derecha de la pista analógica). En la figura 11 observamos impresos los diferentes formatos de audio.

Ramiro Javier Podetti e-mail: ramiropodetti@gmail.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Es en estos dos puntos es donde nuestro proyecto se hace más fuerte ya que planteamos la necesidad de poder lograr los efectos 3D con sistemas de altavoces comunes y sin el uso de auriculares. El lector interesado puede escuchar muestras de audio grabadas con esta técnica en: http://www.acousticintegrity. A Esta técnica se le dedica el Capítulo 3. el sonido holofónico aún no está preparado para nuestros sistemas de sonido del hogar. 2. Debido a que el autor no ha publicado la teoría.com/acousticintegrity/Sound_Samples/Sound_Samples.com .” la holofonía es un sistema 4D ya que se le agrega a las 3 dimensiones espaciales una más correspondiente a los desplazamientos temporales de la fuente. Página 37 Ing. es utilizada para simular una fuente de sonido mono/monoaural en un ambiente tridimensional o 3D. Es de destacar que el álbum de estudio “The Final Cut” perteneciente a la banda británica de rock Pink Floyd está grabado con esta técnica.11. conformando la 4ta dimensión”. La escucha debe realizarse mediante auriculares. Técnica en Sistemas de sonido 3D Es una técnica aplicada atreves de algoritmos de programación. consiste en un sistema de grabación que utiliza una técnica de exposición múltiple. Técnica Holofónica 4D Las Holofonías son marca registrada por Hugo Zucarelli 1980 [10]. Su inventor expone. Las holofonías fueron desarrolladas en 1980 usando la misma premisa de "múltiple exposición" que se usa en las imágenes holográficas (hologramas).1. se presento el tema a modo de exponer variedad en las técnicas para lograr sonidos envolventes y además se presento esta técnica por la gran claridad del producto final.2.html . El sonido holofónico se produce al grabar el patrón de interferencia generado cuando la señal de grabación original se combina con una señal de referencia digital inaudible produciendo un sonido totalmente envolvente y nítido. Ahora trataremos de explicar con más detalles ambas técnicas para lograr los sonidos envolventes. con motivo de correlacionar las técnicas usadas en sonido 3D con el funcionamiento del sistema auditivo de los seres humanos. lo que sigue demostrando que en el campo del sonido aún hay mucho por trabajar. 2.11. o a través del uso de altavoces especialmente diseñados para ello.

Antes de meternos de lleno a las técnicas 3D. se elegió presentar con más detalles las técnicas de sonido 3D. El sentido del Página 38 Ing. Una de las cosas más notables de este proceso es que es completamente mecánico. Introducción Capítulo dedicado a comprender el sentido auditivo de los seres humanos. Recogen todos los sonidos a su alrededor y luego traducen esta información en una forma que su cerebro puede entender.com . Entendiendo el sistema auditivo humano Para que podamos comprender el sistema auditivo de los seres humanos.1. Nuestros oídos son órganos extraordinarios. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. presentamos el fenómeno físico de la audición humana.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet CAPITULO 3 Correlación del sistema auditivo en seres humano con técnicas de sonido envolvente 3. Los conceptos básicos de un “sistemas de sonidos de 3D” son a mí entender los más explicativos del fenómeno físico real.2. se explica la teoría y fundamentos del desarrollo. en base a estudios previos que dieron lugar a los “Sistemas de sonido 3D “al final se expone cuales serán las variables a tener en cuenta para nuestro desarrollo. En este capítulo expondremos el fenómeno físico que estamos queriendo reproducir y controlar. 3.

esto no siempre es algo que usted piense o sea consciente.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet olfato. en el que se mueve físicamente la membrana timpánica. Ser capaz de decir de dónde provenía el sonido también le ayuda a decidir si alguien lo está siguiendo y si un golpe está en tu puerta o la de su vecino. El cerebro también utiliza un montón de señales auditivas para ayudarle a averiguar de dónde viene. implican reacciones químicas. El cerebro interpreta los impulsos como sonido. Esta reflexión de sonido altera el patrón de la onda sonora. el cerebro reconoce patrones distintos y determina la posición del sonido. El proceso de interpretación de su cerebro le permite entender el significado del sonido.com . empujando y tirando del aire junto a él. las vibraciones de la onda de presión lleguen a su nervio coclear. Un altavoz es esencialmente un dispositivo que convierte impulsos eléctricos en sonido. Esta onda crean zonas de alta y baja presión que llegan a su oído. Este proceso pone en marcha una reacción en cadena que implica muchas pequeñas estructuras dentro de su oído. estos pliegues le ayudan a determinar la dirección de un sonido. el gusto y la visión. o sea la parte externa de la oreja. [12] Página 39 Ing. este sonido también viaja en el canal auditivo. traduciéndose en una onda longitudinal. Con el tiempo. evitar a los depredadores y encontrar a otros de su especie. que las lleva al cerebro en forma de impulsos nerviosos. esta capacidad ayuda a los animales encontrar comida. o el cono externo del oído. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. o tímpano (se puede observar en la figura 12). Para ello. Las ondas sonoras. El pabellón de la oreja. utiliza un diafragma en forma de cono que se mueve rápidamente hacia atrás y hacia adelante. la onda se refleja en el pabellón auricular. Su oído externo está apuntando hacia adelante y tiene una serie de curvas. sirve para "atrapar" las ondas sonoras. además de que le permite interpretar el sonido. aunque ser capaz de localizar la fuente de un sonido es una habilidad importante. La percepción del sonido virtual en un sistema de sonido envolvente aprovecha las propiedades mecánicas básicas de los altavoces. rebotan en el pabellón de una manera diferente si viene de frente o por debajo. Estas señales y las propiedades físicas de las ondas de sonido son esenciales para un sonido envolvente virtual o sonido 3D. pero el sistema auditivo se basa únicamente en el movimiento mecánico. compresiones y dilataciones son el resultado del movimiento de las partículas del aire.

También será un poco más fuerte en el oído izquierdo que en la oreja derecha. Los ingenieros buscaban poder experimentar como los sonidos que se transmitían por un par de altavoces.com . Ingeniero Industrial Alejandro García. llegará a su oreja izquierda un poco antes de lo que llega a su oído derecho. A continuacion nos enfocamos en estos detalles de las técnicas de sonido 3D.3. Diagrama del Oído [11] Su cerebro determina la posición horizontal de un sonido mediante la comparación de la información proveniente de las dos orejas. los podíamos percibir como si la fuente de sonido estuviera en un lugar distinto al de los parlantes (altavoces) que ejecutaban el sonido.4. Si el sonido está a su izquierda. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. 3. de ahora en adelante referencia [13].Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Figura 12. generar sonido en tres dimensiones. uno de los objetivos que se propusieron los ingenieros de sonido era conseguir mediante un par de transductores acústicos. o sea que ese sonido se situara en el entorno del auditor y que no tenia porque corresponder al lugar físico donde se encontraban los transductores Página 40 Ing. Antes de la aparición del sonido envolvente.5. inclusive hacen referencia al trabajo sobre electroacústica “Sistemas de Sonido 3D” presentado en junio de 2005 a la escuela superior de ingenieros de Bilbao en la Universidad del País Vasco EUSKAL HERRIKO UNIBERTSITATEA por el Dr. Detalles de las Técnicas de Sonido 3D Esta sección del informe y hasta la sección 3.

se debe al uso del procesado de señal. en vez de dar una sensación de que estás en un espacio tridimensional. mediante funciones dependientes de la dirección de la fuente de sonido. en el caso del sonido 3D se crearán sensaciones espaciales que no se experimentan con los sistemas de sonido estéreo. La clave del desarrollo en el sonido 3D. Con parlantes o altavoces se espera la posibilidad de situar sonidos fuera de los límites de los altavoces pudiendo situar el sonido a 360 °. El modelo científico del sonido 3D se puede dividir en tres disciplinas para llegar a un entendimiento del mismo. En nuestro ambiente natural percibimos los sonidos en tres dimensiones y podemos localizarlos en cualquier instante.com . La percepción que un oyente puede experimentar con un simple sistema de altavoces y un sistema capaz de generar sonido 3D.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet acústicos. 3. Conceptos fundamentales de un sistema de sonido 3D. es más.4. En el ámbito de la música grabada. En realidad. se espera que el sistema sitúe los sonidos 360 ° fuera del espacio de nuestra cabeza. y tiene memorizados una serie de parámetros basados en la experiencia y personalizados para cada uno. o funciones llamadas de transferencia relativas a la cabeza. en el caso de usar auriculares.Neuropsicología auditoria. ya que podemos tener la sensación de estar escuchando sonidos diferentes. la reproducción por altavoces da la sensación que estas en frente de la fuente de sonido. Página 41 Ing. puede recrear una sensación de especialidad. escuchar los coches que se circulan por una avenida. pero no lo suficiente para recrear que estamos en una habitación escuchando un concierto en directo con la banda instalada en nuestra habitación. podemos concluir que habrá tantas diferencias al escuchar la misma fuente de sonido. podría ser por ejemplo. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.Psicoacústica . Si bien el sonido estéreo. el estéreo tradicional nos da algo de información espacial. mientras a un costado escucha los pasos de los peatones.Acústica física . el cerebro se ha entrenando toda la vida. como personas la estén escuchando. Esto es parte del campo del estudio de la Psicoacústica. . por sus siglas en inglés HRTF (Head Relative Transfer Function).

se explicará como nosotros. y estos planos son representados en distintos sistemas de coordenadas. no considera verdadero el anterior postulado . Psicoacústica. es decir. Neuropsicología auditoria. los humanos. Sin el afán de querer desviar la atención del lector es a modo de comentario para que usted tome conocimiento de las distintas posturas sobre el mismo tema. Mecanismos de localización del sonido en los seres humanos. por lo general en Sistemas de Sonidos 3D.5. Ahora sí.com . Primero veamos el significado de localización del sonido. Su estudio se centra en las ondas sonoras que alcanzan al receptor desde el pabellón auditivo y el fenómeno acústico que determina sus propiedades específicas. la localización sólo es posible a partir de la audición biaural.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Acústica física. retomando el tema. Aquí vale aclarar que la técnica de la Holofonía (Hugo Zuccarelli 1980) [14]. Trata la comprensión de las estructuras neuronales que dan sentido a la sensación del sonido. 3. teniendo dos oídos [13]. ya que su inventor. se establecen tres planos característicos en los experimentos destinados a estudiar la localización por parte del ser humano. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. o sea la necesidad de tener dos canales auditivos para detectar ubicación de la fuente. Los planos y el sistema de coordenadas son presentados en la figura 13 y 14. localizamos el sonido en un ambiente para comprender los trucos que se utilizan en el proceso de la señal para sistemas de sonido 3D. La localización del sonido define la capacidad del individuo de determinar la ubicación de una fuente sonora en el espacio. los conceptos de técnicas en Sistemas de Sonido 3D. propone experimentos en los cuales con un solo canal auditivo puede establecerse la posición de la fuente. tenga en cuenta y recuerde que se eligió para explicar y comprender el fenómeno complejo de la audición humana. Estudia la relación entre las ondas acústicas en el pabellón auditivo y la percepción de la imagen espacial que experimentan los receptores. Antes de analizar en profundidad cómo se emite el sonido envolvente por un par de altavoces. por su extenso contenido teórico y posibilidad de acceso a la información. Página 42 Ing. que nos ocupa la atención.

como el sistema que se muestra abajo. Definiendo. Los tres ejes coordenados definen tres planos testándar x-y el plano horizontal. elevación y radio como lo muestran las figuras 15 y 16 eFiguran 13 y 14. x-z el plano frontal.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet 3. delante/atrás y derecha/izquierda respectivamente como se observa en la figura 13. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. y el y-z el plano mediano. Sistemas de Coordenadas Para especificar la localización de un sonido en el entorno tridimensional.1. Pero como la cabeza es como una esfera se utilizan coordenadas esféricas. donde tenemos azimut.5. Sistemas y planos para localización del sonido [13] Página 43 Ing.com . se necesita un sistema de coordenadas que nos ayude a localizar los sonidos en la cabeza del oyente. arriba/abajo.

cuando azimut varía entre (-180º. Dirección de una fuente sonora oLa dirección de una fuente sonora. La localización se realiza a partir de la determinación de una dirección y una distancia. Este se utiliza para ádescribir las fuentes que están en el plano horizontal. se establece a partir de un Angulo Lateral y de un Angulo de Elevación.2. Página 44 Ing. Los dos últimos dibujos. son los dos sistemas de coordenadas que se emplean oen las funciones HRFT. Sistema de coordenadas Interaural-polar. En la figura 16 observamos el sistema de coordenadas Interaural-polar.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet Figura 15. Sistema de coordenadaas vertical-polar. +180º). Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Con este sistema el azimut esta siempre entre -90º y +90º. es 0 para superficies en el plano horizontal y 180 para las superficies en la parte de atrás del plano ihorizontal. a su vez.com . Figura 16.5. 3. La distinción entre adelante y atrás. eEn la figura 15 observamos el sistema de coordenadas vertical-polar.

Por el contrario. al menos.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 3. pero también por la sombra acústica producida por la cabeza del individuo (difracción de la onda). Localización en el plano horizontal. Figura 17.1. Angulo lateral Para la ubicación lateral de una fuente sonora el sistema auditivo utiliza pistas provenientes principalmente de las diferencias de intensidad y tiempo con que las ondas sonoras llegan a cada uno de nuestros oídos.com . Las DII como se muestra en la figura 17 se dan principalmente a partir de las diferentes distancias que deben recorrer las ondas para llegar a uno y otro oído. 3.5. ésta se difracta fácilmente y no se genera una “sombra acústica” (o.1. Diferencias Interaurales de Intensidad o DII Las diferencias interaurales de intensidad o DII representan el tiempo que tarda de más un sonido proveniente del lado izquierdo de una persona en llegar al oído derecho. Diferencias Interaurales de Intensidad o DII [13] Los sonidos de bajas frecuencias tienen longitudes de onda relativamente grandes con respecto a las dimensiones de la cabeza.1. Unas y otras son más efectivas para distintos rangos de frecuencia. El estudio de la difracción determina que cuando la longitud de la onda es suficientemente grande con respecto al obstáculo que encuentra la onda. Esto se debe a que el sonido se difracta alrededor de la cabeza hasta llegar al oído derecho. unas Página 45 Ing. Para frecuencias de 500 Hz la longitud de onda del sonido es de unos 69cm.5. se produce poca difracción y por lo tanto existe una sombra acústica mayor. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. se produce una sombra acústica pequeña).2. y por lo tanto tienen que viajar más. cuando las longitudes de onda son pequeñas.2.

5.1. como se puede observar en la figura 19. Las DII son prácticamente despreciables para frecuencias inferiores a los 500 Hz. a partir del cual.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet tres veces el diámetro promedio de la cabeza humana.2. Para frecuencias de 4 KHz (la longitud de onda del orden de los 8. Figura 18. no se diferencia un sonido de otro. lo anterior expuesto se puede observar en la figura 18 que muestra para distintas frecuencias según el ángulo de azimut de la fuente sonora la intensidad correspondiente en dB. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Diferencias Interaurales de Tiempo o DIT Este parámetro refiere a la diferencia de tiempos de llegada entre los oídos.com . Mediante este parámetro se puede localizar una fuente de sonido. Página 46 Ing.2. pero pueden ser de hasta 20 dB para frecuencias mayores de 5 KHz. DII para distintas frecuencias según ángulo azimut [13] 3. la difracción es poca. Este efecto es útil hasta una frecuencia en la que la longitud de onda del sonido se aproxima al doble de la distancia entre los dos oídos.5 cm) la sombra acústica es importante.

69 ms para fuentes sonoras con un ángulo de 90º (ver figura 20). DIT vs azimut [13] Las Diferencias interaurales de Tiempo pueden calcularse a partir de las diferencias en las distancias que deben recorrer las ondas. el sonido llega primero a la oreja derecha que a la izquierda. Si una onda llega a una superficie esférica con un ángulo azimut θ. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. hasta cerca de 0.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Figura 19. Las Diferencias interaurales de Tiempo. Según el MÉTODO DE LORD RAYLEIGH (JOHN William Strutt 1842-1919-Inglaterra). pues tiene que viajar una distancia superior para llegar a la oreja izquierda. el sonido se propaga a una velocidad de “c” igual a 343 m/s en el aire. se obtiene la formula: Página 47 Ing. Si lo dividimos por la velocidad del sonido. van de 0 segundos para fuentes sonoras con un ángulo de 0º (exactamente delante del sujeto). Diferencias Interaurales de Tiempo o DIT [13] Figura 20.com .

DII y las DIT son cero.2.7ms para un tamaño típico de cabeza. Ángulo de elevación Experimentos han mostrado la importancia de la cabeza. Localización en el plano medio. Esto representa una diferencia de 0.2. pero también auditivo en la localización de sonidos que se encuentran en el plano medio. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Cabeza de muñeco dumy con micrófonos incorporados [13] Página 48 Ing.5.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet DTI = (θ + sen θ).1) eAsí. y tiene un máximo cuando la fuente está en un lado. El registro de los sonidos para estos experimentos medio de micrófonos colocados dentro de los pabellones artificiales de udumy como lo muestra la figura 22. ver figura 21 Figura 21. dado que ambas ondas llegan al mismo tiempo y intensidad a los oídos. DTI es cero cuando la fuente esta directamente en frente.1 [13] a3. Esquema de datos para ecuación 3. del pabellón En tal caso las con la misma se realiza por un muñeco o Figura 22. -90º ≤ θ ≤ +90º (3.com .

es importante que el sonido tenga energía espectral a lo largo de un amplio rango de frecuencias. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Dicho de otra forma.com . su respuesta en frecuencia depende de la dirección. En ambos casos vemos los caminos que siguen las ondas. Las frecuencias superiores a los 6 Khz son particularmente importantes. Los distintos picos de resonancia en las HRTF corresponden a diferentes slocalizaciones de las fuentes sonoras en el plano medio. dado que es en esa región en la que las longitudes de onda se hacen suficientemente pequeñas como para interactuar eficazmente con el pabellón. pero principalmente el pabellón auditivo. oFigura 23 Intensidad sonora medidas en dB vs las respuestas en frecuencia de dos sdirecciones distintas según geometría del pabellón auditivo. Las modificaciones espectrales producidas por el épabellón y la cabeza también son usadas por el sistema auditivo para determinar la nlocalización de una fuente sonora. Página 49 Ing. Las diferencias espectrales entre el sonido original y el sonido medido junto al tímpano dieron slugar a las funciones de transferencia relativas a la cabeza o por sus siglas en inglés HRTF c(Head-Related transfer Function).Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet pTanto la cabeza. El pabellón auditivo actúa como una cavidad de resonancia. y su geometría genera ciertos efectos de interferencia que atenúan otras rfrecuencias. En este caso. donde amplifica algunas frecuencias. modifican el espectro de los ásonidos en dependencia del ángulo de incidencia del sonido con respecto a la cabeza. En la figura 23 se observan las mediciones de intensidad sonora medidas en dB según las drespuestas en frecuencia de dos direcciones distintas.

La mayor interferencia ocurre. ver figuras 23 y 24. donde: V=adelante. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. H=atrás 3.3 Distancia de una fuente sonora Este parámetro es uno de los más difíciles de calcular. O= arriba. Entre los parámetros están: • Loudness: Intensidad de sonido Ing.com . Ubicación de la dirección sonora según frecuencia de la fuente Figura 24. Y si la frecuencia central es de 1 o 10 khz la imagen se formará siempre detrás. Si la frecuencia central es de 8 KHz la imagen estará siempre arriba. Si se presenta un sonido de banda limitada con frecuencias centrales de 300 Hz o 3 KHz. Por ejemplo : F= (3.2) Como el pabellón auditivo es mucho más efectivo con sonidos que vienen de la parte delantera. la imagen sonora siempre se formará delante del sujeto. la señal directa esta en desfase con la señal que llega más tarde. Figura 23.5. Hay ciertos parámetros que se pueden tener en cuenta para calcular la distancia. este efecto es por lo tanto mucho más pronunciado. cuando la diferencia de recorrido D es la mitad de la longitud de onda.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet A frecuencias elevadas. Representación de la dirección sonora según la frecuencia.

y estos son dependientes de lo lejos que esté de la fuente. la energía de una densa reverberación será más o menos constante. Reverberación: otra característica que el oído utiliza para localizar los sonidos es la razón de reverberación con la fuente el sonido directo. pero cuando existen reverberaciones las cosas cambian. Balance espectral: las habitaciones actúan como filtros. modificando el espectro de las señales acústicas. para fuentes cercanas. mientras que en distancias largas la energía que un sonido directo (seco. El espectro de la respuesta al impulso de una habitación buena. Página 51 Ing. la intensidad del sonido cae con el cuadrado de la distancia.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet • Motion parallax: esto se refiere a los movimientos de la cabeza. Proporcionalidad entre reverberación y sonido seco: En habitaciones cerradas. el ILD aumentará. El mover la cabeza cambian los parámetros de azimut. Amplitud de señal directa y posteriores reflexiones representadas en el tiempo. se puede observar un cambio grande en las variables azimut. normalmente las frecuencias altas caen más rápidamente • • • • Figura 25. debe ser lo suficientemente plana en todo el ancho de banda de la señal. A distancias cortas la reverberación es bastante grande. Difusión: tiene que ver con la absorción de los materiales. Así para fuentes sonoras que están cercanas al receptor. es inapreciable. sin reverberación) caerá con la distancia. mientras que a distancias largas este ratio es más pequeño. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Así mismo. mientras que para fuentes lejanas. Esto tiene que ver con la reflexiones del sonido en las paredes de una habitación.com .

Función de Transferencia relativa a la cabeza o HRTF Figura 26. es necesario conocer la respuesta al impulso h(t) de la fuente en el pabellón rauditivo correspondiente. a estas se llaman Head Related Impulse Response (HRIR). La HRTF captura muchas cualidades que zutilizamos a la hora de localizar un sonido. Para encontrar la presión sonora que una señal x(t) produce en el pabellón auditivo. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. y su transformada de Fourier se llama Head Related Transfer Function (HRTF). Una vez conocido para ambos oídos. para el canal derecho es hXR(t) y el izquierdo hXL(t).6.com . Funciones HRTF Estas funciones son las que está presente en el software de infinidad de sistemas de saudio que utilizan las siglasAudio 3D (por 3 dimensiones) para su comercialización haciendo referencia a que el equipo es capaz de reproducir sonidos envolventes virtualizando ambientes sonoros o fuentes de sonido según la posición en espacio que es generada. Página 52 Ing.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet a3. se puede sintetizar las señales biaurales a partir de una señal monoaural como lo muestra la figura27. uEste dibujo figura 26 es el que se utiliza para encontrar la presión sonora en alguno de anuestros oídos.

Notamos que. Por lo tanto deberemos tomar solo algunos aspectos que consideran estas funciones como veremos a continuación. pero en la práctica es algo distinto.com . son capaces de simular elevación. que en equipos no Página 53 Ing. Conclusiones sobre las técnicas de sonido envolvente para el desarrollo de nuestra aplicación La mayoría de los sistemas de audio 3D se basan en las funciones de transferencia HRTF. pero si tener presente la síntesis mostrada en el cuadro de la figura 27. deberíamos manejarnos en el campo de respuesta lejana al oído. no es el objetivo de este trabajo presentar las ecuaciones matemáticas que dan lugar a estas funciones HRTF.7.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Figura 27. 3. Para implementar estas funciones en nuestro prototipo. y este es susceptible a condiciones del ambiente a sonorizar o a los movimientos de la cabeza. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. en cambio en respuestas cercanas al oído esto no ocurre ya que se utilizan sistemas de audífonos. tiempos de delay deben contemplarse para que sus algoritmos funcionen en relación a la realidad buscada. En esta figura observamos que para repuestas lejanas al oído deberá utilizarse sistemas de parlantes. Esquema de la síntesis de señales biaurales a partir de una señal monoaural. debido a las diferencias entre las personas y las limitaciones que tiene el sistema de ser reproducido en ambientes controlados acústicamente a tal punto. en este caso la interacción con el medio. En principio mediante este sistema se puede crear sonido 3D. distancia y azimut de la fuente sonora.

Página 54 Ing. sino modificar una fuente de sonido en tiempo real y poner el efecto de posicionamiento deseado.4. estas son técnica de grabación. Para nuestra aplicación.11. Ambos parámetros varían en los distintos lugares donde se pretende usar la aplicación.com . denominados activos a los transductores de audios con amplificador individual incorporado • Utilizar algoritmos propios de programación para diseñar los distintos efectos. deberemos plantear la solución a través de sistemas de reproducción que minimicen estas variables. otra forma (la cabeza en movimiento) mediante el uso de auriculares. • Cantidad de auditores. es otro parámetro que no se podrá controlar ya que el público no es representativo de una cabeza.2 del Capítulo 2. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. orientada comercialmente según se vio en la sección 1. que no es el fin que se persiguen nuestras aplicaciones. se trabajará en este desarrollo con la respuesta lejana a los Oídos y las variables son: • Las diferencias constructivas de materiales y dimensiones. planteadas anteriormente sección 2. del auditorio. En cuanto a las técnicas Holofonicas. dimensiones del spot. sino un montón de cabezas expectantes de un efecto de audio. el desarrollo de una Consola de Audio Digital para efectos de sonido envolvente . queda descartado el uso de técnicas de sonido 3D basados en las funciones HRTF. La dirección de la cabeza en los seres humanos influye sobre varios parámetros en las funciones HRTF es por ello que siempre en estos sistemas 3D se aconseja usar auriculares o situarse en posición estática. que no son aplicables a este proyecto ya que no queremos grabar.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet profesionales la única forma de escuchar las sensación de sonido envolvente es que la persona se mantenga inmóvil. En cuanto a las técnicas de sonido envolvente 3D. Propuesta para nuestra implementación: • Sistema cuadrafónico de parlantes activos . Las distancias a la fuente sonora según el ángulo de ataque de la fuente. Por tales motivos para nuestro desarrollo tomaremos algunas pautas de todo lo expuesto.

Eje Z. Plano Horizontal La sensación del desplazamiento en el plano horizontal de una fuente sonora. controlando las posiciones en el plano horizontal y vertical. realiza un procesamiento matemático sobre la misma obteniéndose a la salida el resultado del procesamiento (Oppenheim. enmascarando todos los efectos indeseados. se propone a través del proceso de mezcla y ruteo del audio de entrada. En este sistema cuadrafónico se controlaran las variables espaciales x. 1975). Página 55 Ing. la disposición de los 4 transductores activos equidistantes del spot de audición. Estos filtros digitales serán implementados en el procesador digital de señales.com . a través del manejo de la ganancia individual de cada transductor acústico activo.2.Z. y será menos ponderables a las cuestiones físicas de la sala como lo son las características de la construcción. Las muestras de audio de entrada serán ruteadas y mezcladas para cada uno de los canales de salida del sistema cuadrafónico según la posición horizontal elegida para cada entrada. dependiendo de las variaciones de las señales de entrada en el tiempo y amplitud. formas del lugar. Altura La sensación de la altura de una fuente sonora se controlará a través de filtros digitales.5. Se proponen diseñar un filtro digital “pasa bajos” y un filtro digital de “banda angosta” de 8Khz. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. materiales.3. Ejes X-Y.Y. acústica de la sala. El proceso de mezcla será realizado con todas las entradas de audio que correspondan salir por los canales del sistema cuadrafónico..Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet El sistema de Sonido Cuadrafónico. ambos implementados en el procesador digital de señales. etc. según se vio en la sección 3. a través de algoritmos de procesamiento de señales creados exclusivamente para este desarrollo. Un filtro digital es un sistema que. e ITD. Esta correspondencia será implementada a través de un algoritmo específico de programación que desarrollamos en el capítulo 5 “Programación del Sistema” Se controlará la profundidad o distancia en este mismo plano horizontal. atenuará las variables DTI. debemos ubicaremos en un sistema de ejes cartesianos X. Para comprender las variables a modificar propuestas para la solución.y. vale decir. estos son simuladores de altura natural al sistema auditivo de los seres humanos.z (referidas en un sistema de ejes cartesianos).

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Con todo lo expuesto en este capítulo.com . Ramiro Javier Podetti e-mail: ramiropodetti@gmail. el fenómeno auditivo en los seres humanos ha sido planteado. Página 56 Ing. En los capítulos siguientes. También se plantearon conclusiones y una propuesta de solución para nuestra aplicación. se muestra como se implemento en nuestro prototipo la solución propuesta.

se deberá convertir esta señal nuevamente a señal analógica para que esta pueda ser amplificada y reproducida por los transductores electroacústicas (parlantes). Mp3.2. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. este proceso formara parte de la primera etapa o “Bloque 1”. Este bloque se implementara con un DSP. 4. reproductores de audio CD. que sea capaz de recibir comandos de usuario para ejecutar diferentes procesos. El usuario podrá elegir el efecto dentro de un abanico de posibilidades diseñadas. una vez procesada la señal digital. placas de sonido de computadoras. Página 57 Ing. Estas señales serán provenientes de fuentes de sonido que generan señales eléctricas analógicas. Estas señales analógicas deben ser convertidas a señales digitales y procesadas según los efectos de sonido envolvente que quiera producir el usuario.com . etc.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet CAPITULO 4 Implementación del Prototipo 4. Propuesta de Solución Necesitamos un dispositivo electrónico capaz de convertir y procesar señales digitales de audio. Introducción En el siguiente capítulo presentamos la implementación del hardware que dará solución al diseño del prototipo propuesto en el Capítulo I.1. consolas de sonido. Las fuentes sonoras podrán ser provenientes de micrófonos. AUDIO-DVD. guitarras eléctricas.

Ambos servidor y dispositivo portátil utilizarán el protocolo de red Ethernet. Esta interfaz deberá ser el puente que posibilite informar los comandos respectivos seleccionados por el usuario al procesador de señales (DSP). se presenta el diagrama de bloques esquemático de la solución a implementar. el servidor se encontrará alojado dentro de la consola de audio digital. Página 58 Ing. A continuación en la figura 28. El DSP será el encargado de aplicar los algoritmos de programación establecidos para tal selección.a]. Bloque 1: Se implementará con un DSP y sus características principales deben ser: • Conversor de señales analógicas a señales digitales (Conversor A/D) • Procesador de señales digitales Conversor de señales digitales a analógicas (Conversor D/A) Bloque 2: Se implementará con un microcontrolador que nos permita programar servicios web y los ítems principales a desarrollar serán: • Servidor Web • Pagina de Control web • Cliente Web Bloque 3: Se debe desarrollar una interfaz específica para la necesidad de interconexión entre los bloques 1 y 2. Por otro lado es necesario que el servidor web tenga una interfaz de comunicación con la consola de audio a los fines de poder hacer de puente entre estas dos tecnologías. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Los distintos efectos a reproducir por la consola deberán ser seleccionados a través de una página web que se alojara en un servidor web y será accesible desde ordenadores móviles o portátiles.com . Este servidor web conformará la segunda etapa o “Bloque 2” y se implementara con un microcontrolador que contenga módulos embebidos con capacidades Ethernet. Específicamente el microcontrolador nos permita implementar el “protocolo de transferencia de híper texto” conocido por sus siglas en inglés HTTP [14. La Interfaz entre “Bloque 1” y Bloque 2” conforma el “Bloque 3”.

com .Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet Figura 28. Diagrama de bloques esquemático de la solución a implementar Página 59 Ing. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.

Kit Freescale Symphony SoundBite. Esta versión posee una arquitectura de datos de 24 bits con periféricos orientados específicamente al procesamiento de audio. Hardware Se presentara en esta sección el hardware que se eligió para los respectivos bloques. Se dividirá esta sección en 3 partes para seguir la correspondencia del planteamiento anterior sobre la solución por bloques y sus interacciones.3.1. Estas características resuelven por completo las necesidades del Bloque 1 y son presentadas en tres grupos. siguiendo el esquema planteado en la propuesta de solución en la sección anterior. D/A • Características del Procesador Digital de Señales (DSP) Figura 29.com .Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 4. 4. 4. la cual originalmente estaba orientada al área de las comunicaciones.1. • Características Generales Freescale Symphony SoundBite • Características de Conversión A/D. Bloque 1 o DSP Se seleccionó para este Bloque.3.3. el Kit de la empresa Freescale “Symphony SoundBite” representado en la figura 29. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. la selección del mismo está basado en sus características técnicas que serán presentadas en las sub-secciones 4.1. Características Generales Freescale Symphony Es un kit basado en el DSP56371 que utiliza un núcleo heredado de la conocida familia 56300 de Motorola. Entre ellos se pueden nombrar los módulo Ing.3.1.

El kit se puede observar en la figura 30. uno para la señal izquierda y otro para la señal nderecha). lo hace una opción emuy recomendable para tareas de procesamiento de audio digital. El audio procesado se puede obtener en cualquiera de las 4 salidas estéreo: J2. J3. Kit Symphony SoundBite [15] Ing. lo que equivale a un canal estéreo. J4. Para la conversión analógica-digital y digital-analógica se utilizan 4 circuitos integrados (códec) equipados con conversores de 24 bits de resolución y una capacidad de muestrear señales analógicas a una frecuencia de hasta 192KHz.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet DAX (Transmisor de audio digital) y EFCOP (Coprocesador de las prestaciones de un DSP de 24 bits. Este kit es capaz de procesar 8 entradas de audio independientes agrupadas en cuatro fichas estéreo: J1. El kit eposee un preamplificador de micrófono que también se encuentra montado. J6 y J8. J5 y J7 (cada ficha estéreo agrupa dos canales. Todo esto. ESAI (Interfaz serie de audio).com . sumado a Figura 30. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. filtros). Cada códec es capaz de utrabajar con dos canales de audio individuales.

Ramiro Javier Podetti e-mail: ramiropodetti@gmail.com .Página 61 Ing.

3.3. CON1. ya que no hay regulador en la línea de alimentación para aislar y filtrar el ruido.1mm. b.Alimentación Externa.1. ver figura 30. se proporciona para permitir la expansión fuera de la placa. es alimentación externa tipo fuente conmutada. El conector denominado en la figura 30 como PWR_JACK de 2.El ruido del puerto USB se puede transmitir a través del códec AK4584. Proporciona.1mm cuyas características de salida son. las mismas son seleccionadas a través del jumper número 3 (ver figura 30. La alimentación externa debe estar en el intervalo de 68 VAC o 8-10 VCC. por esta fuente se puede degradar el rendimiento de audio debido a que: a.1.1.2.75V. Power Select) estas dos formas de alimentación son: 1. 9 VCC y 1000mA. Fuente de alimentación El kit Symphony SoundBite puede ser alimentada de dos formas. propiedad de la empresa JD Audio. En nuestro prototipo se usa el conector de expansión CON1 para conectar las líneas GPIO con los puertos de propósito general del micro MCF52259 y de esta forma implementar la interfaz que dará solución al bloque3 planteado en la sección 4.5 * 2. el suministro de 5V y 3. 4. Conector de Expansión (CON1) El kit Symphony posee un conector de expansión. esto puede suceder debido a caídas de tensión en los cables USB y en la alimentación del puerto. modelo: 9010. la polaridad en el PWR_JACK no es importante debido a la presencia del puente rectificador integrado G1 [16].Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 4.2. es el ingreso para alimentación externa. La fuente de alimentación seleccionada para nuestro prototipo en el Kit Symphony. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Página 62 Ing.1.3 V así como todas las líneas para entradas salidas de los puertos de propósito general o GPIO. 2.1.com .La tensión de suministro al códec AK4584 no puede estar por bajo del límite mínimo especificado de 4. con conector 5.Puerto USB.

AKM AK4556 En total se utilizan 3 de estos integrados.1.1. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Su frecuencia de corte se ajusta automáticamente a la frecuencia de muestreo utilizada. los cuales proveen gran atenuación en la banda rechazada con la ventaja de ocupar una muy pequeña superficie en el silicio.com . A continuación en las figuras 31 y 32 se muestran las estructuras internas de estos integrados.3. AKM AK4584 Es similar al AK4556 con el agregado de la posibilidad de adquirir una señal digital óptica.1.3.2.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 4.3.2. 4. Página 63 Ing.1. Este tiene importancia destacada en el funcionamiento de Symphony ya que funciona como maestro. Características de Conversión A/D. • Interfaz para transferir datos desde y hacia el DSP • Dos conversores D/A de 24 bits (uno para cada canal de la señal estéreo) 4. marcando el tiempo de sincronización a los restantes códecs AK4556 y el DSP. Cada uno integra dos conversores A/D de 24 bits para digitalizar la señal de audio estéreo (canal R y canal L) y dos conversores D/A para realizar el proceso inverso.2. para sincronizar las transferencias de audio analógico a audio digital y viceversa. ambos contienen en una sola pastilla de silicio los siguientes elementos: • Dos conversores A/D de 24 bits (uno para cada canal de la señal estéreo) • Filtros anti-aliasing y reconstructivos de capacitores conmutados. Los filtros anti-aliasing y reconstructivos se implementan utilizando la tecnología de capacitores conmutados o sus siglas en inglés SCF.2. D/A Los códecs integrados en el kit y utilizados en este trabajo son AKM AK4556 y AKM AK4584 [15].

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Figura 31. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Estructura interna del códec AK4556 (Códec AK4556 hoja de datos) Figura 32.com . Estructura interna del códec AK4584 (Códec AK4584 hoja de datos) Página 64 Ing.

Figura 33. receptores de audio / vídeo. reproductores DVD.3. sistemas de altavoces virtual. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. En la figura 33 mostramos el diagrama de bloques del integrado DSP56371. Características Técnicas del chip DSP56317 Página 65 Ing. TV.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 4. receptores de radios y amplificadores de coches.3. Características del Procesador Digital de Señales DSP56371 Este integrado fue diseñado para aplicaciones de efectos de audio.com .1. mini sistemas de auriculares virtuales.

familia de DSP56300 • Alto rendimiento 150. modos de bajo consumo en espera. • Permite una fácil migración desde Dispositivos de la familia DSP56000. • Compatibilidad de código con el core DSP56000.25V.1. esto sucede cuando hayan transcurrido 7 ciclos de reloj desde el arranque del DSP.000 instrucciones por segundo (MIPS) utilizando un reloj interno de 150 o 180 MHz en 1. diseño full CMOS. • Mejora el rendimiento al permitir que múltiples instrucciones puedan ejecutadas en un solo ciclo de reloj. hacen de este chip una de las características más importantes.000 o 180. Beneficios: • Diseñado para proporcionar un alto rendimiento necesario para muchas aplicaciones de audio.1. • Datos de unidad lógica aritmética (ALU). Módulo Core Características: • Alta -Performance 24-bit.com .000. ser Funcionamiento del pipeline Su estructura interna de 24 bits en punto fijo. • Programa de control de posición independiente código de soporte y apoyo caché de instrucciones. Ing.000.3. en conjunto con una estructura de pipeline de 7 etapas que le permite ejecutar la mayoría de las instrucción en un solo ciclo de reloj. Para diferentes instrucciones estos pasos se van ejecutando en forma paralela se puede lograr que efectivamente cada instrucción se concluya en un solo ciclo de reloj. • Set de Instrucciones paralelas.3. • Permite un movimiento independiente de los datos desde el núcleo. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. • Muy bajo consumo de energía. • Modos de parada y espera. • Permite la aplicación de doble precisión (48-bit) para las operaciones aritméticas. con 24 x 24-bit multiplicador acumulador y registros de operación de 56-bit. • Seis canales de controlador DMA. El pipeline es una arquitectura muy utilizada en microprocesadores y consiste en ir ejecutando simultáneamente las diferentes etapas requeridas para una instrucción completa.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 4. • Flexibilidad en el desarrollo de código.

La unidad MAC es la que permite realizar la operación de multiplicación acumulación en un solo ciclo de reloj.3. Esto se conoce como ejecución paralela de instrucciones. Figura 34. Módulo Interfaz para depuración de la programación Características: • Dirección interna de seguimiento y apoyo del software. es la que le permite acceder a cada memoria mediante buses independientes lo que aporta la ventaja de poder realizar una operación matemática y dos movimientos de datos en memoria simultáneamente. Estructura Pipeline.com . operaciones. ciclos por instrucción 4. como muestra la instrucción n3 de la figura 34. Este tipo de instrucciones. estas son instrucciones con un modo de direccionamiento que requiere más de un ciclo para calcular la dirección. La arquitectura Harvard. Un ejemplo de esto es la instrucción “jump” del lenguaje ensamblador “jmp”. Página 67 Ing. las instrucciones que requieren de más de un ciclo son las instrucciones de doble palabra. limpiando el pipeline. mediante el chip de emulación (ONCE) • Puerto JTAG Beneficios: • Permite el desarrollo de software en tiempo real. generan un cambio en la dirección del flujo de programa.1.3.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Dentro del set de Instrucciones. ya que todas las instrucciones que se cargaron en el pipeline deben ser desechadas. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.2.

Beneficios: • Códecs con conexión al estándar de la industria (I2S. con Ing. Módulo Interfaz serie mejorada de audio (ESAI) Características: • Dos líneas dedicadas a Transmisión y 4 seleccionables Transmisión/Recepción de señales. • 16K-48K x 24-bits de Y-RAM datos. como I2S.4. códec. Los módulos ESAI proveen una interfaz simple para vincular conversores A/D y D/A.3. todo accesible al usuario. 32K x 24-bits de datos X-ROM • 4K-44K x 24-bit RAM de programa • 64 K x 24-bit de arranque del programa y ROM Beneficios: • Proporciona la flexibilidad al usuario a la hora de particionar la memoria según el diseño de programa para la aplicación.1. • Puede ser configurado como maestro o esclavo • Compatible con muchos protocolos programables. AC97. y la interfaz de audio serial “SAI” diseñada específicamente para aplicaciones de audio profesional. entre otros. red. • Brinda la capacidad de puntos de interrupción y la capacidad de modificar el software. 4.com . registros de memoria y los periféricos. AC97) • Multiplexado por Hardware (multiplexado por división de tiempo por sus siglas en inglés TDM) La interfaz de audio serial mejorada por sus siglas en inglés “ESAI” es una integración de las múltiples capacidades que poseen tanto la interfaz serial sincrónica “ESSI” común a muchos de los procesadores de la familia DSP56300.3.3. 32K x 24-bits de datos Y-ROM • 28K-36K x 24 bits de X-RAM datos.1.3. Módulo de Memoria Características: El chip DSP56731 permite configurar distintas particiones de la memoria RAM. • Permite correr el software y la depuración con el total de velocidad de operación.3. En las primeras familias de procesadores Motorola Symphony ya se hace presente esta interfaz. Sony.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet • Descarga el software para el chip en la RAM. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. 4.

com . Es así como cada par de slots transmite dos muestras de audio. por lo que se encargará de enviar las muestras a los conversores D/A de los códecs. Ambos módulos se programan para trabajar con el protocolo I2S. por lo tanto se encarga de recibir las muestras digitalizadas por los códecs. con la particularidad de que el módulo “ESAI” completo funciona como receptor únicamente utiliza cuatro de sus 6 receptores. conformando una señal de audio estéreo. Cada uno tiene 2 receptores y 4 receptores/transmisores que se configuran de una manera u otra según las necesidades. Figura 35. El DSP56371 posee 2 módulos ESAI denominados “ESAI” y “ESAI_1”. El slot 0 contiene la muestra del canal izquierdo.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet un DSP dando la posibilidad de utilizar diferentes protocolos de comunicación. Comportamiento en el tiempo de los módulos ESAI Protocolo I2S (Inter-IC Sound Format) El protocolo I2S fue especialmente desarrollado por Philips para ser utilizado en dispositivos de audio digital. el slot 1 transporta la muestra del canal derecho. El diagrama de tiempos de la figura 35 muestra el comportamiento en el tiempo de las líneas utilizadas en ambos módulos. Un bus I2S consiste de 3 líneas: Página 69 Ing. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. mientras que el módulo “ESAI_1” se configura como transmisor ocupando los 4 transmisores disponibles.

El dispositivo maestro en este trabajo es el códecs AK4584. en la Symphony un solo dispositivo que se encarga de generar los relojes de sincronismo y todos utilizan el protocolo I2S para la transmisión de datos. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Los datos son detectados en el flanco ascendente del reloj. Todos los otros dispositivos acoplados funcionan como esclavo. Primero se transmite el canal izquierdo y luego el canal derecho (Figura 34).com . La línea de selección de palabra indica qué canal se está transmitiendo y su duración es de 32 ciclos de reloj. los cuales son transferidos utilizando multiplexado por división de tiempo (TDM). Si por ejemplo el receptor soporta una longitud de palabra de 24 bits y el transmisor solamente 16 bits. mientras que todos los demás (DSP y códecs AK4556) funcionan como esclavos. FSR: Frame receiver) • Una línea de reloj (SCKR: Serial clock receiver.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet • Una línea de datos. El MSB siempre es transmitido un ciclo de reloj más tarde que la transición de la línea de selección de palabra. SCKT: Serial clock transmitter) Los datos son transmitidos en complemento a 2. sync Figura 36 Estructura del protocolo I2S [17] El dispositivo maestro es. • Una línea de selección de palabra (FST: Frame sync transmitter. Ing. entonces el dato transmitido se trunca y rellena con ceros. comenzando desde el bit más significativo ya que los dispositivos acoplados pueden soportar diferentes longitudes de palabra.

1.2. El Hardware que se adapta a nuestras necesidades es el Kit TWR-MCF52259. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. para lectura o escritura respectivamente. estos datos deben ser trasmitidos al Bloque 1 o Kit Symphony. Módulo de propósito general de entrada y salida (GPIO) Características: • Cada uno de los pines de este puerto pueden ser programados como. Este Kit TWR-MCF52259 consta de tres módulos principales.3. la posibilidad de ingresar las decisiones de usuario por una página web. El kit integra un paquete de soluciones de software llamado Freescale MQX con librerías y herramientas para implementar nuestro servidor HTTP. herramientas y software en tiempos cortos. “Programación del TWR-MCF52259”. Proponemos para ello un esquema con un Servidor Web. entrada o salida.3. reconfigurable de desarrollo que permite a los diseñadores llegar al mercado más rápido con placas de evaluación. Beneficios: Los pines de los distintos puertos GPIO que no tienen un uso específico por las transmisiones de audio u otras funciones en el hardware de la Symphony. Selección Bloque 2 o Microcontrolador La premisa para resolver la selección de este bloque es el control. 4. Página 71 Ing. que proporcione a través de los protocolos de híper texto o por sus siglas en inglés HTTP (Hyper text Transfer Protocol). Este kit es parte del Sistema de Freescale Tower. ya que se determinará el hardware que va a permitir introducir las decisiones o comandos del usuario. es una herramienta de desarrollo de bajo costo para el microcontrolador MCF52259 Ethernet.com .Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 4. • Este integrado presenta 47 pines que corresponden a los distintos puertos GPIO. pueden ser utilizados para una variedad de funciones por ejemplo en nuestra aplicación implementaremos a través de estos puertos GPIO.3. una plataforma modular. programada para tal fin. a continuación se muestra en la figura 37 el Kit completo Tower. para que pueda tomar las acciones correspondientes a las decisiones del usuario.5.3. Estas librerías y herramientas serán detalladas en la sección 5. la interfaz MCF52259-DSP56371 de comunicación.

Kit Tower MCF 52259 4. y la tarea se transforma en hacer uso de las funciones que nos proveen los drivers correspondientes. nos facilitan la tarea de programar a bajo nivel. que nos permite manejar a cada módulo embebido dentro del integrado a través de sus drivers correspondiente y funciones asociadas.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Módulo microcontrolador MCF52259 Modulo TWR-ELEV Modulo TWR-SER Figura 37. • Controlador Ethernet 10/100 MB • Externo Mini-Flex Bus Página 72 Ing. CAN y funciones de encriptación. que es en su conjunto un Sistema Operativo en Tiempo Real. constan de dispositivos altamente integrados dentro del mismo.2. Características del Módulo microcontrolador MCF52259 Este módulo está diseñado para ser una herramienta de depuración independiente. Además nos ofrece el software compatible de Freescale ™ MQX RTOS.0 de alta velocidad Host / Device • Controlador de FlexCAN. Ethernet. como lo son dispositivos USB. El conjunto de librerías que conforman el sistema operativo Freescale ™ MQX RTOS.com . El módulo incorpora: • Núcleo ColdFire V2 con una velocidad de 80 MHz • Compatible con la solución de software Freescale MQX ™ • Conectividad: USB 2.3. La familia de microcontroladores de 32 bits MCF5225x.1. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.

Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet • La unidad de aceleración criptográfica • a512 KB de memoria flash • 64 KB de SRAM • 96 Pines I/0 DFigura 38. se debe combinar con el módulo microcontrolador MCF52259 y el Módulo TWR-ELEV. todos ensamblados conforman el sistema de torre.3. también permite implementar soluciones de transmisión serie a través de los mprotocolos RS232/485. Diagrama en Bloques de la familia MCF5225x [18] 4.com . Página 73 Ing. Características del Módulo TWR-SER El módulo TWR-SER ofrece varias formas de comunicación como lo son puertos USB. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.2. Este módulo periférico está diseñado para ser parte del sistema de Torre de Freescale.2. mEthernet.

3. Figura Módulo Freescale TWR-SER.2.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet sSus características principales son: • • • • Módulo RS232 y RS485 Módulo Ethernet Módulo CAN Módulo USB Este módulo será utilizado como la interfaz Ethernet que proporcionara a nuestro servidor web la capacidad de poder conectarse físicamente con ordenadores o dispositivos aportátiles y puedan controlar la consola de audio.com . será el encargado de unir el módulo del microcontrolador. Características del Módulo TWR-ELEV El módulo TWR-ELEV conforma los dos pilares del Kit Tower. sSus características principales son: Página 74 Ing. Interfaz Ethernet del Servidor Web 4. En nuestro proyecto integrador este módulo será el equivalente a una placa de red Ethernet para un PC.3. está conformado para eensamblar el sistema de torre. con el módulo periférico TWR-SER. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. A continuación se cpuede observar la placa mencionada en la siguiente figura “módulo Freescale TWR-SER”.

4.3. • Cuatro conectores PCI Express • Dos conectores de 80-pines en el exterior para apoyar la depuración o la expansión de módulos LCD.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet • Soporta interfaces de comunicación externa • Incluye un circuito de regulación de la potencia para alimentar vía USB el sistema de la Torre.3. ver figura 39.com . El DSP recibirá dos byte de datos. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. 4. Los datos se transmitirán de forma asíncrona. En esta interfaz será el MCF52259 es el encargado de: • Servir la pagina web para control de la consola de audio • Conocer las decisiones del usuario a través de la lectura de la página web • Informar al DSP para que este pueda realizar la acción correspondiente. Las mismas líneas serán implementadas a través de los puertos de propósito general de entrada y/o salida por sus siglas en inglés GPIO (General Prupose Input/Ouput). de ahora en adelante el primer byte de dato será llamado SoundByteA y el segundo byte será llamado SoundByteB. esto lo podrá hacer valiéndose de la interfaz MCF52259-DSP56371. Estructura de la interfaz La comunicación entre el DSP y el MCF52259. para ello es necesario enviar un paquete de datos al DSP. Bloque 3 o Interfaz de comunicación entre DSP y MCF52259 La Comunicación entre el DSP56371 y el MCF52259 se realizará a través de la interfaz de comunicación denominada “Interfaz MCF52259-DSP56371” que será la encargada de conectar el Bloque 1 con el Bloque 2 según la solución planteada en la sección 4.1.2. Los mismos datos serán recibidos por el DSP de acuerdo a los tiempos disponibles entre muestra y muestra ingresada por los códecs de audio. conformadas por 8 líneas de datos y 4 líneas de señalización.2. en ambos integrados.3. Página 75 Ing.1. el contenido de cada byte de datos se detalla en la sección 4.3.3. conformando una instrucción completa del tamaño de 16 bits. A continuación presentamos en la sección siguiente la estructura de esa interfaz.3.3. La ventana temporal para recibir los datos por el DSP estará enmarcada por la frecuencia de muestreo que comanda el códec AK4584 como se vio en la sección 4.3. se basa en una interfaz compuesta por 12 líneas direccionales. 4.

la llamaremos Bandera 2. aFigura 39.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet Configuraremos el GPIO del Bandera 1. r• Una línea de escritura para informar si el byte de datos tipo SounByteB fue orecibido. lo llamaremos Byte de dato. llamaremos Byte de dato. que será comandada por el MCF52259. la llamaremos Bandera 3. Configuraremos el GPIO del DSP de la siguiente manera: r• Una línea de escritura para informa si el byte de datos tipo SounByteA fue orecibido. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. la llamaremos a• Una línea de escritura para informar el tipo de dato a transmitir (SounByteA o eSounByteB). u• Ocho líneas de escritura para pasar los datos al DSP. • Una línea de lectura para leer la Bandera 4 que será comandada por el DSP. • Una línea de lectura para leer la Bandera 1. • Una línea de lectura para leer la Bandera 2. MCF52259 de la siguiente manera: r• Una línea de escritura para informa si hay datos disponibles. Si bien la interfaz está contemplada para transferencias de datos en forma bidireccional. en este trabajo solamente se envían datos desde el MCF52259 En la figura 39 se muestran las líneas de comunicación entre el DSP y el MCF52259.com . hacia el DSP. que será comandada por el MCF52259. la llamaremos Bandera 4. Líneas de comunicación entre el DSP y el MCF52259 Ing. • Ocho líneas de lectura para tomar los datos del MCF52259. • Una línea de lectura para leer la Bandera 3 que será comandada por el DSP.

Ing. Ramiro Javier Podetti

e-mail: ramiropodetti@gmail.com

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

CAPITULO 5
Programación del Sistema

5.1. Introducción En este capítulo presentamos la lógica de programación correspondiente al prototipo desarrollado, a continuación presentamos un plano general de programación y herramientas de desarrollo para cada bloque de hardware del prototipo. Además en este capítulo se comentara cada uno de los bloques independiente de programación y sus interconexiones. Comentaremos las tecnologías empleadas para desarrollar la programación de cada bloque. El código completo de programación de cada bloque se adjunta en el Apéndice de este Informe.

5.1.1. Esquema general de la programación del Sistema Se plantea un esquema general de programación del sistema a los fines de facilitar el entendimiento. En el esquema se pueden observar bloques diferentes a programar dependiendo del hardware asociado, también se presentan las herramientas de desarrollo y lenguajes de programación utilizados para cada parte del prototipo. A continuación en la figura 41, se muestra el esquema general de programación del prototipo.

Página 78

Ing. Ramiro Javier Podetti

e-mail: ramiropodetti@gmail.com

Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

mFigura 41. Esquema de programación del prototipo Consola de Audio 3D controlada via ethernet

5.1.2. Descripción por bloques del Esquema general n• Bloque “Programacion DSP56371” cPara lograr la programacion de este bloque, usaremos la plataforma de Hardware Symphony SoundBite, la herramienta de desarrollo de programacion será Eclipse eStudio Symphony 1.1, y lenguage de programacion es ensamblador.
Página 79

Ing. Ramiro Javier Podetti

e-mail: ramiropodetti@gmail.com

4 y Code Warrior 7. además admiten en general ser programados en lenguaje de alto nivel como C. etc. usando los complementos MQX RTOS Y RTCS. La aplicación cliente correrá en un navegador web. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. en el DSP56371 podemos hacer uso de esta información para calcular el tiempo de cada rutina de programación y tomar decisiones sobre la programación en tiempo real.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet • Bloque “Programación Servidor HTTP ” Se utilizara la plataforma de hardware. • Bloque “Programacion Interfaz DSP56371 . la herramientas de desarrollo será Code Warrior 7. la pagina web incorporada en nuestro servidor. leer. Utilizaremos lenguaje C de programación. y MQX 3.1. Bloque “Programacion Interfaz DSP56371” Este bloque será una rutina del Bloque de “Programacion DSP56371” • Bloque “ Programación Pagina Web ” La programación de la página se lograra usando la tecnología AJAX. se ejecuta a mayor velocidad. TWR-MCF52259. podrá ser accedida desde cualquier ordenador portátil con una placa de red Ethernet y un navegador web corriendo sobre el sistema operativo correspondiente al ordenador portátil. con la desventaja de ser menos eficientes y más lentos para su ejecución ya que no aprovecha todos los recursos específicos del DSP. En nuestro caso Página 80 Ing. El lenguaje ensamblador es más eficiente. Programación DSP56371 Los DSP utilizan un lenguaje de programación ensamblador. La cantidad de ciclos de reloj para cada instrucción por lo general está determinada para el lenguaje ensamblador en el set de instrucciones de los DSP. 5. depurar y es independiente del hardware.2.MCF52259” Este se divira en dos bloques cada uno referido a su correspondiente hardware. usando lenguaje C de programacion. esta tarea se programará con MQX 3. documentar. y se describe en “Programación Página Web”.1. sera implementada en el mismo TWR-MCF52259 a traves del sistema operativo RTOS MQX.com .4. La página web correrá en cualquier navegador web siendo este el cliente de nuestro servidor. Bloque “Programacion Interfaz MCF52259 ” Este bloque lo conforma una tarea independiente del sistema operativo MQX RTOS. requiere menos memoria y aprovecha al máximo las prestaciones del DSP. el cual resulta fácil de usar. aunque son más difíciles de programar. Debemos programa el servidor con sus correspondientes bloques para responder al cliente.

Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet particular la ventana temporal para poder trabajar sin pérdida de información estará dada .com . Interrupciones generadas en los procesos de entrada y salida Página 81 Ing. 5.2. Este software es parte de un paquete de programas Open Source gratuitos que se pueden descargar en www. El propósito de esta decisión es aprovechar mejor los recursos disponibles. Para la programación se mutiliza el entorno “Eclipse Symphony Studio” el cual ha sido desarrollado sobre plataforma Java.org. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. se puede observar el diagrama de flujo de la programación del DSP56371. Diagramas de flujo eEn la figura 42. donde se observan los procesos de entrada y salida de muestras de audio y las interrupciones generadas en cada proceso.por la frecuencia de muestreo.eclipse. Figura 43.1. nLas interrupciones que l aman a las diferentes rutinas de interrupción o RTI se muestran a sen la figura 43. oEn este trabajo se elige programar el DSP utilizando lenguaje ensamblador.

Ramiro Javier Podetti e-mail: ramiropodetti@gmail.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet rDiagrama de flujo de la programación del DSP56371 rFigura 42.com . Diagrama de flujo de la programación del DSP56371 Página 82 Ing.

Ramiro Javier Podetti e-mail: ramiropodetti@gmail.2.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 5.RAM X:.2.com . Programa P:.RAMY: Página 83 Ing. Asignación de Memoria Figura 44. Asignación de Memoria en DSP56371.

• Dos para las muestras de salidas que se guardan en X:RAM e Y:RAM. correspondientes a las muestras de cada canal estero. que corresponde a una salida única de cada códec como se muestra en la figura 44. cuyo puntero es R0 . R4. R3. En la configuración determinada. que a continuación describimos. donde el registro Nx tiene el incremento correspondiente y Mx el final del búfer. A continuación se podrá observar en la figura 45. correspondientes a las muestras de cada canal estero.3. El registro R0 se utiliza como puntero del bloque actual en el buffer de entrada. Los registros modificadores Nx. Esta es la distribución de memoria usada en nuestra programación y además se presentan las variables utilizadas. como se indica en figura 44. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. R3. además de la muestra actual de entrada de cada canal y los datos de salida. creando así buffers circulares. cada uno correspondiente a su puntero. los punteros se incrementan en un desplazamiento de 4 (con el correspondiente registro de desplazamiento Nx) para que apunten al bloque siguiente dentro del búfer. cuyos punteros son R2.com . Los cuatro punteros correspondientes a los registros R2. Además se presenta cada códec con su correspondiente entrada o salida Jx. cada búfer contiene 3 bloques de 4 muestras.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet En la figura 44 observamos la asignación de memoria RAM X: RAM Y: y memoria de programa P: para el DSP56371. están configurados para hacer que los punteros salten automáticamente.2. R4 y R5. • Dos son para las muestras de entrada que se guardan en X:RAM e Y:RAM. Cada búfer circular contiene los datos de la muestra en bloques de cuatro muestras. Página 84 Ing. • Uno para el stack de programa que es R7. Búferes Circulares El proyecto presenta 5 búferes circulares. Cada bloque ofrece dos muestras anteriores. R5. son cada uno dedicado a una sola salida ESAI. 5. observar que cada Jx se corresponde con su códec asociado. de la placa Symphony SoundBite. Después de cada muestra. Este tamaño de búfer permite fácilmente la aplicación de filtros de segundo orden. los punteros a registro que guardan las muestras de los códecs de entradas y salidas en la memoria.

Estos archivos a su vez se dividen en dos grupos. Un grupo representan la columna vertebral del procesamiento de audio de ela Symphony Soundbite denominado “Archivos Principales” y un segundo grupo denominado “Archivos de Comunicación con MCF52259” que integrarán la comunicación bcon el TWR-MCF52259. Punteros a registro que guardan las muestra de los códec entrada y salida 5.com .4.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet sFigura 45. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Archivos y Rutinas El proyecto programado para correr en la Symphony Soundbite.2. También en el proyecto se encuentran archivos de librerías que hacen más fácil la programación de los registros del DSP y que son usados por el Página 85 Ing. se basa en 6 archivos de programación principales en el lenguaje ensamblador.

com . Archivos del Proyecto Consola de Audio 3D “POSISONICA” en IDE Eclipse Symphony Studio. Página 86 Ing. A continuación presentaremos un breve resumen de cada archivo. y nos detenemos a Figura 46. Lo antes dicho se puede observar en la figura 46.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet compilador. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.

com . en las rutinas de interrupciones correspondientes cambiaran los estados de las banderas COMENZAR_PROCESAR y RECIBIR_CODIGO. es manejada en la rutina de interrupción “esai_1_rx_even” esta ocurre una vez que se recibieron todos las muestras para procesar desde los codecs y ocurre en la misma frecuencia que la transmisión de datos hacia los codecs o sea cada 10 microsegundos.asm” El archivo contiene las subrutinas que permiten configurar un grupo de pines de propósito general de entrada salida (GPIO) del DSP para que comanden el enlace de comunicación serie entre el DSP y el AK4584 códec. el AK4584 es programado para llevar la frecuencia de muestro en 96 KHz.2. Archivo “sb_codecs. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.4. es manejada en la rutina de interrupción “esai_tx_isr” esta es llamada cada vez que se terminan de transmitir las muestras procesadas. también se definen las funciones y variables globales.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 5. Las configuraciones iníciales de cada modulo del integrado DSP56371 ocurren en esta parte del código. lo que nos permite que en la frecuencia de muestro programada trabajemos con ocho entradas y ocho salidas cada una de las salidas Página 87 Ing.asm contiene el código de inicio para la aplicación. según la frecuencia de muestreo programada a 96 KHZ esto ocurre aproximadamente cada 10 microsegundos. Archivos Principales Archivo “main. La bandera COMENZAR_PROCESAR. se enmascaran las interrupciones. Cada códec maneja dos entradas y dos salidas. y el bucle principal de la aplicación. antes que ingrese la próxima. este bucle se repite eternamente y solamente será interrumpido por las rutinas de interrupción que se dedican a muestrear las señales analógicas (conversión A/D) y sacar las muestras procesadas (conversión D/A) . La bandera RECIBIR_CODIGO. ejemplo velocidad de trabajo del PLL.asm” El archivo main. inicio de módulos ESAI.1. este es el tiempo para lograr el procesamiento de las muestras. El bucle principal contiene dos consultas. se inician los registro del Core del DSP y los registros de cada Códec. este sincronizará las llamadas a interrumpir al DSP y comandara los tres códec restantes para lograr un sincronismo en el hardware.

asm” El archivo sb_isr_esais.asm” Este archivo es el encargado de procesar las muestras de audio de entrada según las decisiones del usuario. Si process_sample se retrasa demasiado ocurrirá un rebasamiento de los búferes de entrada o salida. En este archivo sucede el posicionamiento de la fuente de sonido en el plano horizontal y vertical. además extraer los datos de audio de los búferes de salida para la transmisión de los codecs. Archivos de Comunicación con MCF52259 Archivo “driver_gpio. las rutinas de servicio de interrupción hacen todo el trabajo en lo que respecta a recibir.asm” En este archivo se configura el puerto de propósito general de entrada salida GPIO. Esto debe ser manejado cuidadosamente para asegurar que son suficientes los MIPS disponible para que el DSP realice el procesamiento deseado dentro del período de tiempo de una trama de datos.2. transmitir y llamar a procesar el audio digital. Dedicaremos la sección 5. además controlamos el volumen de cada una de las entradas y el mute. La bandera es interpretada en el bucle principal y se traduce en habilitar la llamada de la rutina process_sample.asm contiene las rutinas de servicio de interrupción ESAI and ESAI_1 que reciben las señales de audio digital de entrada de los codecs y llenan los búferes de entrada. alcanzando la calidad de respuesta en frecuencia del formato AUDIO-DVD. Una vez enmascaradas las interrupciones de los módulos ESAI.4.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet con una respuesta en frecuencia de 48 KHZ. Archivo “posi_esai_interrup. para manejar 8 líneas de recepción de datos y 4 banderas que son los requerimientos de la Página 88 Ing.3 a los detalles del procesamiento de las muestras de audio digital. Todos estos datos decididos por el usuario ya están ingresados en variables globales por la rutina COMANDO en el archivo “comando. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. 5. Archivo “procces_sample.asm”.com .2. El trabajo de llamar a procesamiento se realiza mediante la bandera “COMENZAR_PROCESAMIENTO” dentro de la subrutina esai_tx_isr.

asm”.asm” cEste archivo contiene la lógica para el traspaso de datos del TWR-MCF52259 al DSP.asm”.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet Interfaz MCF52259-DSP56371 Archivo “comando. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. En esta sección nos ocuparemos Página 89 Ing.asm. Es maquí donde se produce el manejo de las banderas y se colocan los tipos de datos a transmitir por la interfaz.5.2. d5. La lógica de la comunicación asíncrona de la interfaz se detalla 4más adelante. Figura 47. Esta información se guarda en variables globales que serán tomadas luego por la rutina PROCESAR_AUDIO en el archivo “procces_sample. Esta información se guarda en variables globales que serán tomadas luego por la rutina PROCESAR_AUDIO en el archivo “procces_sample.asm En la rutina comando sucede lo siguiente: o• Si el tipo de dato es SoundByteA (note que en esta instancia el DSP no sabe a qué entrada corresponde el dato) salta a la rutina SOUNDBYTE_A y extrae la información que contenga el dato. Procesamiento del Audio Digital uEn la sección anterior se expuso un planteo general de la programación del DSP56317 que epermite el funcionamiento de la consola de audio digital. En la figura 47 se presenta la estructura de datos que espera recibir la lrutina comando ubicada en el archivo comando. s• Si el tipo de dato es SoundByteB salta a la rutina SOUNDBYTE_B y extrae la información que contenga el dato.com . Tipos de datos esperados por la rutina comando en comandos.

estos datos como vimos en la sección anterior son recibidos y procesados en el archivo “comando.asm”. Selección del Usuario en página web de control. eCuatro entradas puede ser seleccionadas en la página de control web. las decisiones del usuario ingresan al DSP a través de la Interfaz MCF52259DSP56371. Mezcla de Audio de entrada. • Control de Volumen o Mute. cada canal correspondientes a los canales estero izquierdo y derecho. A la salida provocaran los dos canales los mismos efectos 3D. Los distintos comandos de usuario darán lugar a los siguientes procesos: • Mezcla de Audio y Ruteos. 5. De esta manera logramos manejar 8 entradas de audio y cuatro posicionamientos diferentes para cada una de las entradas.5. cada una de estas entradas posee dos canales.com . • Posicionamiento en el Plano Horizontal.1. Página 90 Ing. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. • Posicionamiento en el Plano Vertical rTodos estos procesos ocurrirán según lo decidido por el usuario en la página web de control. En nuestro proyecto estos dos canales izquierdos y derecho de cada entrada son controlados de igual manera en cuanto al volumen y posicionamiento virtual de sonido.2.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet exclusivamente de los procesos o algoritmos de programación que la consola de audio tejecutara para lograr los efectos de sonido envolvente o 3D deseados por el usuario. J5 y J7 de la placa symphony soundbite. Un ejemplo de ello se puede observar en la figura 48 que dcorresponde a una selección del usuario en la página de control. J3. Figura 48. cada una de estas óentradas corresponde a los códec J1.

mas control de atenuación para entrada. add Y1.5. Esta decisión de usuario es pasada a la variable Ing.asm.---. move X: IN_DER_J1.------------------------------------------VOLUMEN_J1 move move mpy A. add Y0. entrada uno clr A . Control de Volumen y Mute. GAN_J5. Para implementar este proceso es necesario sumar las entradas correspondientes a los canales.VOLUMEN DE ENTRADA 1 ----RAMIRO JAVIER PODETTI . Debemos cuidar de no saturar la ganancia. donde se observa la suma de canales Izquierdo y derecho.ENTRADA_UNO RAMIRO JAVIER PODETTI . Ambos controles volumen y mute fueron implementados en las muestras de audio de entrada.------------------------------------------. La interfaz de control coloca esta información en el bit 2 del dato tipo SoundByteA (ver figura 47).com .Y1 .Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet En este ejemplo de código la entrada uno correspondiente a J1 tendrá disponibles dos canales de entrada para ser posicionados en el espacio 12 con altura media y volumen 9.A Nota: La selección de la entrada es detectada por el DSP a través de la información contenida en el dato tipo SoundBiteA. para ello la señal sumada es reducida en ganancia un medio de su valor. .A .A . izquierdo más derecho de la entrada J1.X0 Y: GAN_J1. Las variables globales GAN_J1.* ** * .asm. 5. los valores del volumen seleccionado son ingresado a la rutina por el dato tipo SoundBiteB en el cual sus primeros cuatro bits bit [0-3] representan la magnitud del volumen.2.Y0. que se sitúa sobre cada entrada correspondiente (ver figura 48).Y0 . Ramiro Javier Podetti e-mail: ramiropodetti@gmail.2. El comando de usuario Mute se refleja en la decisión del usuario a través de la tilde que se observa en la página de control web (ver figura 48). GAN_J7 toman su valor en la rutina COMANDO del archivo comando. Los mismos controles a la salida serán comandadas automáticamente por los algoritmos de posicionamiento.se componen entrada J1 move X: IN_IZQ_J1.*** * . GAN_J3.Y0 X0. A continuación presentamos una parte del código de la rutina Procesar_Audio en el archivo proceses_sample.

un esquema guía para introducirnos en la programación.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet global soundbyteA_X. Este valor será tomado en la rutina de procesamiento de audio.2. efectuando el control de ganancia =0 para la entrada correspondiente.VOL_1 .com . Ramiro Javier Podetti e-mail: ramiropodetti@gmail.3.*** ENTRADA_1_B .pregunto si el bit 2 es cero apago entrada 1. CHECK BOX pagina web (ENTRADA 1 ) brset #2. dentro de la variable global “GAN_J1” para la entrada 1. .Y: GAN_J1 jmp RECIBIR_A .5.Y0.*** 5. como lo hace para el control de volumen.asm donde representa lo antes dicho. Se presenta en la Tabla 1. tenemos la posibilidad de elegir entre 25 posiciones diferentes dentro del área de audición para cada una de las 4 entradas. Para ello presentamos la tabla 1 que representa las distintas ubicaciones espaciales en una sala de audición y la posición de los transductores o parlante del sistema de sonido cuadrafónico.Y0 move Y0. el spot de audición en este caso área de audición y la ubicación de los 4 transductores. estos conceptos serán ampliados en el capítulo 6.asm. GAN_J1 =0 move #$0000. guardando el valor del volumen=0. esto sucede en el archivo comandos. Control de Posicionamiento Horizontal Esto se logra a través del control de ganancia para cada una de las salidas correspondientes al sistema de sonido Cuadrafónico. El área de audición estará delimitada de acuerdo a la potencia de los amplificadores de audio utilizados. fin rutina comando ENTRADA UNO APAGADA . ahora lo importante es concentrarnos en la programación. A continuación se presenta un extracto del código del archivo comando. esto se corresponde con las selecciones en la en el campo espacio de la página web de control. como se observa en la figura 49. como se puede observar en la Tabla 1. para ello es necesario enumerar las salidas de la consola correspondiente a cada transductor y enumerar el lugar correspondiente a la posición horizontal del sonido que se pretende simular. en el cual se puede observar.*** *MUTE *** move Y: soundbyteA_x.Y0 . La posición en el plano horizontal donde se pretende escuchar la fuente de sonido será seleccionada a través del control “Espacio” de pagina web. Ing.

com .Página 92 Ing. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.

com .Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet TABLA 1. para control de posición. Página 93 Ing. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Figura 49. Área de audición y la ubicación de los 4 transductores. Selección del espacio en el Plano horizontal para la entrada 2 en página web de control. Sala de Audición Tabla 1. pVista del control espacio en página web.

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

La implementación del código ocupa su lógica principal a saltar a la rutina correspondiente de la posición elegida. Una vez detectada la posición se efectuara un salto a la rutina correspondiente a la posición, donde se controlarán las ganancias de salida para cada transductor según la tabla 2. Las muestras afectadas serán guardadas en variables auxiliares de salidas correspondiente a cada entrada, esto se repite para cada una de las entradas, al final se sumaran todas las variables auxiliares de salidas correspondiente produciendo la mezcla final por cada canal (ver archivo “process_sample.asm”). A continuación se presenta la tabla 2 con los porcentajes de ganancia que serán afectadas las salidas finales de audio correspondientes a cada transductor según la posición elegida.
Tabla 2. Porcentajes de control de ganancia para las salidas correspondientes a cada transductor según posición seleccionada.

Página 94

Ing. Ramiro Javier Podetti

e-mail: ramiropodetti@gmail.com

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

5.3. Programación del TWR-MCF52259 Para lograr el software de control de la consola de audio, se programó el Microcontrolador MCF52259 para que atienda dos procesos o tareas independientes, estas son: • Programación de tareas y prioridades en MCF52259. -Deberá programarse el microcontrolador MCF52259 para prestar servicios HTTP y poder ofrecer la pagina web de control a sus clientes. -Deberá programarse el microcontrolador para poder recibir el tipo de dato enviado por la página web. • Programación Interfaz MCF52259 -DSP56371 Deberá acomodar los datos recibidos desde la pagina web de tal forma sean entendibles para el DSP y se enviarán a través de la interfaz MCF52259-DSP56371 en el formato requerido por la misma interfaz.

5.3.1. Herramientas de Programación Para programar estas rutinas se usó un conjunto de herramientas de desarrollo compatibles con el TWR-MCF52259, este conjunto de herramientas de desarrollo de software está conformado por: • Conjunto de soluciones Freescale MQXTM versión 3.4. o MQX RTOS o MQX RTCS • Entorno de desarrollo integrado “Code warrior 7.1.” Para poder comprender la tecnología MQX presentamos en la figura 50, una imagen, propiedad de la empresa Freescale donde presenta el esquema de soluciones de software MQX. Para nuestra aplicación se utilizaron las librerías de software que componen los bloques MQX RTOS y el complemento MQX RTCS, además de las librerías BSP (board support package) y PSP (processor suport package) correspondiente al Tower Kit TWRMCF52259, estas dos últimas librerías permiten abstraerse del hardware utilizado y además proporcionan la portabilidad del software.

Página 95

Ing. Ramiro Javier Podetti

e-mail: ramiropodetti@gmail.com

Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 50. Soluciones de software Freescale MQXTM

5.3.1.1. MQX 3.4 y Code Warrior 7.1 Con el conjunto de soluciones “MQX, versión 3.4” que utilizamos en este proyecto se logra una estrecha integración con el entorno de desarrollo integrado o IDE (por sus sigla en inglés (integrated development environment) “Code Warrior Studio, versión 7.1 “ este uprograma informático compuesto por un conjunto de herramientas de programación, nos permite utilizar el lenguaje C de programación para lograr la programación del MCF52259. El Code Warrior 7.1 nos permitió importar las librerías MQX RTOS (Real Time
Ing. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.com

importadas para nuestro proyecto. el conjunto de esta batería de software de desarrollo permitieron realizar el control vía Ethernet de la consola de audio digital.1. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. MQX RTOS Este bloque está conformado por un conjunto de librerías que dan origen al sistema operativo en tiempo real o por sus siglas en inglés RTOS (Real Time Operative Sistem) Página 97 Ing. con una vista ampliada de las carpetas contenedoras donde se ubican las librerías MQX. Entorno de desarrollo integrado Code Warrior con librerías MQX 5. En la figura 51 presentamos una vista del entorno Code Warrior 7.3.1.com .2.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Operative Software) y las librerías RTCS (Real time communication suite sockets) que dieron solución a la programación de las tareas y periféricos Ethernet respectivamente. Figura 51.

según asignación de prioridad programada • Manejo de Interrupciones • Permite centrarse en la lógica de diseño de aplicaciones. 5. para armar nuestro servidor web. en lugar del manejo de periféricos y asignaciones de memoria para los mismos. Permite dar un tiempo de ejecución a cada tarea y cuando este tiempo se termina . HTTP. Página 98 Ing.1. o Ethernte. MFS. más allá de los disponibles en el sistema operativo. • Integra a la perfección el “Middleware” TCP/IP.com . Ramiro Javier Podetti e-mail: ramiropodetti@gmail. y permite centrarse en el objetivo específico de la aplicación. USB. estas librerías nos permite crear nuestra aplicación sin preocuparnos por la programación de diferentes periféricos de comunicación como lo son RS232. USB. en nuestro proyecto usaremos los paquetes dedicados a el manejo de Ethernet y haremos uso de los protocolos IPCFG.3.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet MQX RTOS se utilizo para la configuración y programación del Modulo MCF52259. automáticamente pasa a la siguiente tarea.3. El middleware en el los RTOS hace más fácil. etc. BSPs (I/O drivers). MQX RTCS Es un conjunto de librerías de software llamado Complemento de Comunicaciones de Tiempo Real por sus siglas en ingles RTCS (Real time communication suite sockets). • Permite reutilizar aplicaciones de procesadores o periféricos diferentes compatibles. las principales características de este sistema son: • Trabajo en Multitarea • Asignación de prioridades a cada una de la tareas • Sincronización y asignación de recursos para cada tareas • Comunicación entre tareas • Planificación Round-Robin. El “Middleware” es un software informático que proporciona servicios a las aplicaciones de software. para los desarrolladores de software llevar a cabo la comunicación de entrada y/o salida de periféricos. La figura 52 presenta un esquema del complemento MQX RTCS.

Esquema MQX RTCS [19] sA continuación presentamos protocolos disponibles . Ramiro Javier Podetti e-mail: ramiropodetti@gmail.com . Los protocolos disponibles a través del paquete Freescale MQX RTCS.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet Figura 52. P Ing.paquete Freescale MQX RTCS. en la figura 53 los a través del Figura 53.

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 5.2. texto plano. es una técnica de desarrollo web para crear aplicaciones interactivas o por sus siglas en inglés RIA (Rich Internet Applications).1. en el navegador de los usuarios mientras se mantiene la comunicación asíncrona con el servidor en segundo plano. velocidad y usabilidad en las aplicaciones. etc. aunque cualquier formato puede funcionar. es decir.3.1. acrónimo por sus siglas en ingles de Asynchronous JavaScript And XML (JavaScript asíncrono y XML).1. Ajax. Estas aplicaciones se ejecutan en el cliente.4. sin esperar que la página se vuelva a recargar. 5. • El objeto XMLHttpRequest para intercambiar datos de forma asíncrona con el servidor web. incluyendo HTML pre formateado. De esta forma es posible realizar cambios sobre las páginas sin necesidad de recargarlas. Página 100 Ing. Ajax [20] no constituye una tecnología en sí. para mostrar e interactuar dinámicamente con la información presentada. AJAX Es importante hacer un breve repaso de Ajax. A pesar de que el término «Ajax» fue creado en 2005 por Jesse James Garrett. especialmente implementaciones ECMAScript como JavaScript y JScript. Ajax nos permite utilizar menos recursos del servidor que en sitios web tradicionales. Esto se debe a que.com . Tecnologías incluidas en Ajax Ajax es una combinación de cuatro tecnologías existentes: • XHTML (o HTML) y hojas de estilos en cascada (CSS) • Document Object Model (DOM) accedido con un lenguaje de scripting por parte del usuario. la historia de las tecnologías que permiten Ajax se remonta a una década antes.3. Un buen ejemplo de Ajax es “Google Maps”. al usar el cursor para agarrar el mapa y navegarlo o hacer un zoom de algún área. • XML es el formato usado generalmente para la transferencia de datos solicitados al servidor. este fue la clave que nos permitió implementar el control remoto de nuestra consola de audio a través del servidor web sobre el microcontrolador MCF52259. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. sino que es un término que engloba a un grupo de éstas que trabajan conjuntamente. se podrá observar que todo sucede casi instantáneamente. lo que significa aumentar la interactividad.

3. no es necesario que el contenido easíncrono esté formateado en XML. Figura 53: El patrón de interacción sincrónica de una aplicación Web tradicional (arriba) en ccomparación con el patrón asincrónico de una aplicación AJAX (abajo). En la figura 54. propiedad de Jesse James Garrett.1. se muestra el patrón de interacción sincrónica de una aplicación Web tradicional (arriba) en comparación con el patrón asincrónico de una aplicación AJAX (abajo).Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet 5.com . [21] Página 101 Ing. Patrón de interacción asincrónonico Ajax es una tecnología asíncrona.1.com”. objeto disponible en los navegadores actuales. En cualquier caso. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. empresa “adaptivepath.2. en el sentido de que los datos adicionales se solicitan al servidor y se cargan en segundo plano sin interferir con la visualización ni el comportamiento de la página. es el lenguaje interpretado en el que normalmente se efectúan las funciones de llamada de Ajax mientras que el acceso a los datos se realiza mediante XMLHttpRequest. JavaScript del inglés scripting language.

• No se debe desarrollar todo el sitio en AJAX. 5. • Navegadores basados en Gecko como Mozilla. sólo se deben usar las peticiones necesarias en Ajax. El modelo tradicional de aplicaciones Web (izquierda) en comparación con el modelo de Ajax (derecha) [21]. Galeon y Netscape versión 7. Flock.2.3. Inconvenientes de Ajax • Las páginas con AJAX son más difíciles de desarrollar que las páginas estáticas. Navegadores que permiten Ajax Ha de tenerse en cuenta que ésta es una lista general.3. SeaMonkey.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 5.com . Figura 54. La información en la página dinámica no se almacena en los registros del buscador.3. Con esto garantizamos menos recursos del servidor que en sitios web tradicionales. Epiphany. Mozilla Firefox.1. Eso es una función de seguridad. Hay problemas usando Ajax entre nombres de dominios.1 y Página 102 Ing.2. • • Los motores de búsquedas no entienden JavaScript. Camino. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. IceWeasel.1. y el soporte de las aplicaciones Ajax dependerá de las características que el navegador permita. Esto se representa en la figura 54. K-Meleon.4.

incluyendo Opera Mobile Browser versión 8.1 Diagrama de flujo A continuación se presenta en la figura 55 el diagrama de flujo de la programación multitareas del MCF52259 bajo el sistema operativo en tiempo real MQX. 5. Este enfoque.2. los hilos se ejecutan en orden de prioridad. incluyendo Konqueror versión 3. permite a las tareas de alta prioridad cumplir con sus plazos de forma consistente. Navegadores con el API KHTML versión 3.com . Microsoft Internet Explorer para Windows versión 5.2. Si un subproceso de prioridad alta se convierte en listo para funcionar.2 y superiores implementado. se puede.2 y superiores y el Web Browser for S60 de Nokia tercera generación y posteriores. conocido como el establecimiento de prioridades basado en la programación preventiva. Navegadores basados en WebKit como Google Chrome de Google o Safari de Apple. hacerse cargo de la CPU.3.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet • • • • superiores.3. sin importar cuántos subprocesos están compitiendo por tiempo de CPU.0 y superiores. Página 103 Ing.0 y superiores. antes que cualquier tema de baja prioridad se pueda ejecutar. dentro de un intervalo de tiempo pequeño y acotado. 5. Programación de tareas y prioridades en MCF52259 usando MQX RTOS La programación de las distintas tareas en el TWR-MCF52259 se hace en base a las prioridades multi-hilo preventivo a través de MQX RTOS. y los navegadores basados en él. Opera versión 8. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.0. El subproceso de prioridad alta se puede ejecutar sin interrupción hasta que haya terminado lo que tiene que hacer.

Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Diagrama de flujo programación MCF52259 MQX RTOS multitarea Página 104 Ing.com .Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet dFigura 55.

entrega la IP al cliente automáticamente. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.com . manejaran las banderas 1. Las funciones Flag_sendTower_biteAOK(). Si no hay ningún error en el servidor se inicializa con la dirección raíz especificada con el "\\mqx. particiona la memoria interna para alojar la pagina web a través de la inicialización del sistema de archivos trivial o por sus siglas en ingles TFS. el archivo tfs_data contiene la información de la pagina web. Archivo “Security_IO.c” Configura el driver GPIO de la interfaz MCF52259-DSP56371. crea y asigna las prioridades a cada tarea.2. Archivo “Security_Utility. La tabla cgi_lnk_tbl contiene una lista de los diferentes servicios CGI disponibles.3y 4 de la interfaz planteada en la sección 4. corriendo la página alojada en el servidor MCF52259.3.html".Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 5. mascara de red. Este archivo está reservado para futuras implementaciones. En nuestro caso el cliente es el navegador web de cualquier dispositivo portátil.3. Antes de que el servidor se ejecute. se utiliza para esperar las conexiones con el servidor HTTP y servirlos. este será configurado con la información “Common Gateway Interface”. La función Ing.c” Realiza la llamada a inicializar el driver GPIO a través de la función Sec_Initialize_IO(). espera se conecte el cable de red y mediante el uso del protocolo DHCP. este se hace a través de la función _io_tfs_install ().c” Es el archivo principal. Archivo “Security_Network. hace uso del protocolo de configuración IPCFG. Archivos y funciones Archivo “Webserver_demo. asignando el numero de ip.2. La función httpd_server_poll (). este archivo será la página de índice. que da lugar a las configuraciones del driver de la placa Ethernet del TWR-MCF52259. puerta de enlace al servidor.2.3. una tecnología que se usa en los servidores web denominada por sus siglas en ingles CGI (Tecnología Perljax)[22] y que en nuestra aplicación es el medio que posibilita traer el dato desde el cliente al servidor. y Flag_sendGetDSP_BiteAOK(). luego se quedara escuchando al cliente.c” Inicia el Packete MQX RTCS.

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Set_ByteOutput().4 Programación de la Interfaz MCF52259-DSP56371 Antes de introducirnos en la lógica de programación de la interfaz MCF52259-DSP56371 es importante observar el grafico de la figura 56.4.) y la programación en el microcontrolador se hace mediante la tarea “transfer_dsp”. será la encargada de transmitir los datos en grupos de 8 bits.2. La programación de la interfaz del lado de la Symphony.com . que presenta un esquema general de cómo se manejan los datos dentro de la interfaz.2. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Página 106 Ing. estos datos se irán cargando con una secuencia determinada ya que el canal de datos de la interfaz es de solo 8 bits. se hace en la rutina “comando” (sección 5. 5.

2. que es quien envía los datos. Estos paquetes llevan la etiqueta correspondiente a sla entrada o canal de la consola de audio que pertenecen. con 8 bits datos se explico en la sección tenida en cuenta solo por el puede observar en la figura entrada que pertenece cada Esta característica hace que comunicación asíncrona de la disponible para transmisión 2El microcontrolador MCF52259 armará paquetes de cada canal correspondiente a la aconsola de audio. Del lado del receptor o DSP. el contenido de estos 5. Ramiro Javier Podetti . esta secuencia se 57. Transmisión de datos MCF52259 al DSP56371 correspondiente. se extraeré del dato que trae el mismo paquete. así para la entrada 1 (uno) armará el paquete de 16 bits de SounByteA y 8 bits SoundByteB. por lo tanto la secuencia es MCF52259. este problema es resuelto a través de la e-mail: ramiropodetti@gmail. la correspondencia a la paquete.4. el DSP se independice de un sincronismo y da lugar a la Interfaz.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet Figura 56.2. Tenemos un paquete de dato de 16 bits y un canal de datos de 8 bits.com Ing.

4.1. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Secuencia de envió de datos del MCF52259 a5. Diagrama de flujo de la programación lA continuación se presenta el Diagrama de flujos correspondiente a la programación de la 1interfaz MCF52259-DSP56371 Página 108 Ing. la secuencia de transmisión de datos que debe cumplir el SMCF52259 cuando envía al DSP SFigura 57.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet lógica de la programación en A continuación se presenta la sección siguiente.com .

2. programación de la interfaz MCF52259-DSP56371 5. en el Página 109 e-mail: ramiropodetti@gmail.com .4. Ramiro Javier Podetti interfaz. Diagrama de flujo.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet Figura 58. Lógica de Programación En la figura 58 sección se presento el diagrama de la programación de la Ing.

mientras que la velocidad de refrescos de datos en la rutina de comunicación en el MCF52259 es del orden de los 150 milisegundos. El navegador web correrá sobre el sistema operativo del ordenador o dispositivo portátil utilizado para acceder a la misma. Esta implementación de comunicación sin una base de tiempo que comande el sincronismo. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.4. luego pondrá la “Bandera 3” si recibió el SounByteA o “Bandera 4” si recibió el SounByteB.html”.4. ver sección 5. La comunicación entre el DSP y el MCF52259 se realizara de manera asíncrona. de esta forma el DSP guardara el dato en las variables globales correspondientes. una vez que el MCF52259 levante la “Bandera 1” informando que hay datos. en este prototipo la segunda tarea del MCF52259 es la de Servidor Web.com . este dato será cargado según la secuencia de envió de datos por parte del MCF52259. la misma secuencia se puede observar en la figura 41.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet mismo se pueden observar los siguientes aspectos a destacar. 5. ya que se puede traducir en cortes del audio a la salida. esto se explico en la sección 5.. el DSP recibirá el byte de datos dentro de la rutina correspondiente.2. sección servicio para control de la Consola Las distintas tecnologías usadas en la programación de la pagina tienen sus bases en AJAX. La página web correrá en cualquier navegador web compatible con Ajax. Los datos Página 110 Ing. Un dato importante es la velocidad de la rutina del DSP estará en el orden de los 20 microsegundos o equivalente según tiempo de muestreo programado. Aun cuando el MCF52259 pareciera estar en bucles infinitos. además para aliviar la tarea de recibir comandos en le DSP se usa la Bandera 1.5. Este portátil con interfaz Ethernet compatible se transforma en el Cliente. tiene su sustento en que el DSP no puede demorarse en esperar un dato. este nunca queda trabado en esta tarea de comunicación. lo que nos asegura que el DSP nunca perderá un dato. de esta manera el que se queda esperando para transmitir el próximo dato es el MCF52259. haciendo uso del sistema operativo multitarea MQX RTOS. para informar al MCF52259 El MCF52259 podrá seguir avanzando en la rutina de transmisión cargando el dato siguiente. La figura 59 muestra una vista de “sound. el DSP leerá la “Bandera 2” para saber si el dato es el SoundByteA o el SounByteB.1. esto se repite infinitamente. el mismo micro puede continuar con sus tareas.3. La misma se programo utilizando el editor HTML “Notepad ++” [23]. que es la sección de la pagina web programada para control remoto de la Consola de Audio 3D. el DSP recibirá varias veces los mismos datos hasta que suceda un refresco de datos por parte del MCF52259. Programación pagina web.2.

Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet transmitidos por el cliente a través de la pagina web “sound. Figura 59.html” conforman un mapa de ldatos que serán recibido por la función “strcpy (parametros.html”.c” del servidor. session->request. Vista de página de control “sound.urldata)” en el archivo “cgi_index.html” corriendo en cliente web browser Página 111 Ing. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. mEn la figura 60 se observa el mapa del dato “SID” enviado por el cliente al servidor a través lde la pagina web “sound.com .

cuestión que hemos analizado a lo largo de este capítulo. Estas variables serán usadas por la interfaz MCF52259-DSP56371 upara transmitir estos datos. la pagina web Como se comento anteriormente.html”. pagina web DFigura 60.Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet Mapa del dato “SID” enviado por el cliente al servidor a través de la “sound. Mapa del dato “SID” enviado por el cliente al servidor a través de “sound. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. este dato “SID” es tomado por el servidor y guardado ven variables globales.html”. Página 112 Ing.com .

2. Introducción En el presente capitulo presentaremos las características técnicas del prototipo final.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet CAPITULO 6 Prototipo Final 6. Canales de entrada de Audio analógico • • 8 Canales de Entradas mono de audio analógico muestreados a 96Khz. 6.1. Configuraciones de los Canales de entrada para posicionamiento 3D • 4 Canales mono de posicionamiento 3D independientes. las calibraciones necesarias para su correcto funcionamiento. Ramiro Javier Podetti Página 113 e-mail: ramiropodetti@gmail. los costos para su realización.com . Ing. y por ultimo presentaremos las funciones del sistema. Cada canal puede manejar hasta 2 entradas mono a posicionar sobre el mismo espacio. Características técnicas Las capacidades técnicas de la consola de audio para efectos de sonido 3D controlada vía Ethernet se presentan a continuación. El Nivel de señal aceptado por cada canal de entrada. es equivalente al nivel de audio analógico.

1 mm. Opciones de control En cada canal de posicionamiento 3D independiente se puede controlar: • 25 áreas diferentes de posicionamiento horizontal. Página 114 e-mail: ramiropodetti@gmail. 4 Canales de salida para sistema de Auriculares cuadrafónicos o refuerzo de parlantes activos del sistema cuadrafónico. • 3 Opciones de posicionamiento en altura. Alimentación La alimentación del prototipo es externa. • Modulo Servidor web debe ser alimentad por una fuente externa de alimentación. Ramiro Javier Podetti . Configuraciones de salida para sistemas de sonido cuadrafónico • • 4 Canales de salida para sistema cuadrafónico de parlantes activos. • Control de Mute. Las características de salida de la fuente deben ser: 9V DC/AC 400mA. accesible desde cualquier dispositivo portátil con interfaz Ethernet y navegador web compatible. Control de la Consola • Servidor de Pagina Web incorporado (Protocolo HTTP. Cada canal estéreo puede manejar hasta dos entradas estero a posicionar sobre el mismo espacio. Las fuentes de alimentación no forman parte del proyecto integrador. DHCP) • Pagina Web HTML servida para control total de la consola • Placa de red Ethernet 10/100MB para conexión de dispositivo portátil • Control remoto de la consola. salida con conector tipo mini USB.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet • 2 Canales estero de posicionamiento 3D independientes.com Ing. • 8 Canales de salidas mono de audio (calidad de audio superior al formato CD) • Nivel de señal de Salida es equivalente al nivel de línea. • Modulo “Consola de audio” debe ser alimentado por una fuente conmutada externa. Las características de salida de la fuente deben ser: 5V DC 400mA. con alimentación independiente de cada modulo. Canales de salidas de Audio analógico. • Control de Volumen de 10 pasos.5*2. el tipo de conector debe ser de 5.

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

6.3. Instalación y calibración del Sistema de audio cuadrafónico El sistema de audio para amplificación y reproducción de sonido no son parte de este prototipo, pero es imprescindible para el funcionamiento de nuestro prototipo seguir los pasos de instalación y calibración del sistema de audio cuadrafónico para su amplificación. Se debe contar con cuatro parlantes activos y un decibelímetro para que la instalación y calibración sea exitosa. En nuestros ensayos se usaron parlantes activos de una potencia de salida de 25W RMS cada uno, estos nos permitieron definir un área de audición de 6 metros de largo por 6 metros de ancho. Esta área de 36 metros cuadrados será nuestra referencia. Cada uno de los transductores irá ubicado en los vértices definidos por este cuadrado y apuntaran cada uno levemente hacia el “Sweet Spot”, ángulo máximo de inclinación 30 grados (Ver figura 10 en sección 2.10.4.). Calibración del Sistema de audio cuadrafónico Antes de poner en funcionamiento el Sistema de Consola de Audio 3D, se debe proceder a la calibración del sistema de audio cuadrafónico destinado a la amplificación del audio. Partiendo del área de referencia planteada y con el uso del decibelímetro se podrán variar las dimensiones del área de audición, siempre y cuando se tengan en cuenta los pasos de calibración que presentamos a continuación: • Trazar dos diagonales dentro del cuadrado definido como área de audición, y una vez definido el centro por el cruce de las diagonales o sea el centro del área, se colocara en dicho punto central un decibelímetro para medir intensidades de sonido. • Colocar los cuatro controles de volumen de la consola de audio en el valor 10. • Seleccionar el tipo de escala dBA en el decibelímetro a utilizar. • Reproducir una frecuencia de 1 KHZ y regular el volumen de cada parlante activo hasta que el decibelímetro marque el mismo valor para los cuatros parlantes. Este paso se repetirá para cada uno de los parlantes activos por separado. El valor máximo a registrar en el decibelímetro dependerá de los niveles de intensidad sonora permitidos según las reglamentaciones Municipales o Regionales.

6.4. Costos Si bien los kit de desarrollo fueron ambos donados por la empresa freescale se pone los valores del mismo para tener una magnitud general.
Ing. Ramiro Javier Podetti Página 115 e-mail: ramiropodetti@gmail.com

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Los costos generales involucrados en una posible consola de audio para el manejo de efectos de sonido 3D construida a partir del prototipo se pueden ver en la Tabla 3. En este presupuesto se contemplan los kits completos y no los componentes individuales que se requieren de cada uno. Presupuestando únicamente los componentes específicos que se necesitan de cada kit, el costo final sería todavía menor. En cuanto a las horas de programación solo se ponen a los efectos de dimensionar el trabajo realizado. Como el prototipo no está pensando, en un solo producto sino que se apunta a un producto comercial, este valor equivalente a horas de programación se debe prorratear con la cantidad o volumen de consolas a fabricar. Se opto por no poner un valor equivalente en los campos “Horas de Programación” y si incluirlo en el campo “Costo total estimado de comercialización”.

TABLA 3 Detalles Kit Symphony Soundbite Kit TWR-MCF52259 Horas de diseño Interfaz Horas de Programación DSP Horas de Programación TWR-MCF52259 Costos de fabricación Costo total del hardware y fabricación Costo total estimado de comercialización Horas u$s 150 119

50 150 50 250 519 1000

6.5. Conexiones del Sistema Las distintas actividades posibles a realizar con este prototipo están basadas en los objetivos comerciales planteados en la sección 1.4. Cualquiera de estos usos del prototipo tiene un solo objetivo que es el posicionamiento de sonidos en 3D, es por ello se presenta en la figura 61 un diagrama general de conexiones para el prototipo. Para poder realizar las conexiones adecuadamente deberá tomarse como referencia la figura 30 del capítulo 4 donde están numeradas las entradas y salidas del Symphony Soundbite.

Página 116 Ing. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.com

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

6.5.1 Diagrama general de conexionado

Figura 61. Diagrama general de conexionado

Ing. Ramiro Javier Podetti

Página 117 e-mail: ramiropodetti@gmail.com

J7.3.5. mediante la interfaz física RJ-45 (fichas).5.2 Conexiones de entradas de audio analógicas Las distintas entradas de audio podrán ser conectadas directamente a las entradas de la placa Symphony J1. J6. lo mismo ocurre con el par de salidas J8 y J2. Conexionado de las salidas J4 Frente Derecho Frente Izquierdo Trasero Izquierdo Trasero Derecho 6. In 2. por lo que no requiere instalación. In 4.4. In 3.com . el ordenador por defecto asignará una dirección IP automática en la misma subred que el TWR-MCF52259 (169. J5.5.3 Conexiones de salida al Sistema de Audio Cuadrafónico Los 4 parlantes activos que conforman el sistema de de audio cuadrafónico podrán ser conectados directamente a las salidas de la placa Symphony J4. cada una de estas entradas acepta dos canales mono controlados de por las entradas In 1.254. Configuración IP del ordenador portátil La dirección IP por defecto de la placa de red del TWR-MCF52259 es 169. cuando se conecte el ordenador portátil directamente a la placa de red del TWR-MCF52259.x). TABLA 4 Izquierdo Transductor 1 Derecho Transductor 2 J6 Izquierdo Transductor 3 Derecho Transductor 4 Tabla 4. J3. cada una de estas salidas acepta dos canales de salida izquierdo y derecho.3. Ramiro Javier Podetti Página 118 e-mail: ramiropodetti@gmail. en la tabla 4 se muestra el conexionado de salidas. Esta conexión se hará usando un cable Ethernet categoría E5 de 8 hilos (4 pares) en configuración directo. 6. al modulo de red TWR-SER del TWR-MCF52259.x.254. Normalmente. respectivamente de la pagina web. La ubicación de los mismos transductores en la sala será uno en cada vértice del cuadrado definido para la calibración. Ing.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 6. Conexiones y configuración IP del cliente (ordenador portátil) Deberá conectarse un dispositivo portátil destinado a ser el cliente que controlará nuestra consola de audio digital.

5.0.5. 6.3/sound. también se podrá controlar el volumen o desactivar la entrada.254. también puede configurar la dirección IP del ordenador portátil de forma manual. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.254.254.html”. Necesitará establecer la dirección IP a 169.com . Si lo prefiere. A continuación se presenta la figura 62 donde se pueden observar dichos comandos Figura 62.4 y la máscara de subred de 255. Comandos de la consola accedidos a través de http://169.0.255.3. Para ello es necesario escribir en la barra del navegador web del ordenador portátil la dirección del servidor web “http://169.3.3/sound. realizando distintas selecciones sobre la pagina web de control. una vez accedida la pagina se podrá probar el funcionamiento seleccionando distintos espacios de posicionamientos para las entradas de audio correspondientes.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Nota: El ordenador puede tardar unos minutos en detectar la dirección IP automática y puede informar que la conexión es limitada o nula.html Ing.3. Modo de acceso y dirección web del servicio de control remoto de la consola de audio. Una vez realizadas todas las conexiones correspondientes se podrá comenzar a probar el funcionamiento.

Ramiro Javier Podetti Página 120 e-mail: ramiropodetti@gmail. Ing. el ultimo modo de funcionamiento es una combinación de los anteriores. • Modo Estéreo. Modos de funcionamiento Los modos de funcionamiento son tres. cada canal independiente acepta hasta dos entradas mono. un canal estéreo y los dos restantes tipo mono. estos modos de operación son: • Modo Mono. Cada par de entradas mono que ocupen el mismo canal serán susceptibles a los mismos efectos de posicionamiento. se pondrán los efectos 3D y se controlará su volumen en cuatro canales independientes. la consola de audio digital puede funcionar en diferentes configuraciones. se podrán utilizar 4 entradas de audio estéreo. se podrán utilizar 8 entradas de audio mono. Cada par de entradas estéreos que estén en el mismo canal serán susceptibles a los mismos efectos de posicionamiento. de esta forma tendríamos tres canales independientes susceptibles de ser posicionados en distintos lugares.6. explicaremos este modo con un ejemplo práctico.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet 6. se pondrán los efectos 3D y se controlará su volumen en solo 2 canales estéreo independientes.com . supongamos queremos utilizar dos canales de entradas independientes para formar una salida estéreo y los dos restantes para dos entradas mono independientes. • Modo Combinado. cada canal estéreo independiente acepta hasta dos entradas estéreo.

la conexión Ethernet al microcontrolador. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. si se pretendía que fuera apreciable para un auditorio conformado por más de una persona. El prototipo construido supero ampliamente las expectativas de funcionamiento y control en varios aspectos. interfaz MCF52259-DSP56371. y por último el procesador digital de señales. Teniendo en cuenta el camino que recorren los datos por los distintos bloques de hardware y protocolos de programación nos da una velocidad de transmisión de datos de control excelente. Este retardo es comparable con cualquier retardo programable de teclado. Cuando se comenzó este proyecto integrador se pensaba en posicionar el sonido en un lugar fijo y no se pensaba en la fluidez del sonido en cuanto al cambio de posicionamiento de la fuente sonora.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet CAPITULO 7 Conclusiones El objetivo principal planteado al comenzar el trabajo fue poder posicionar una fuente de sonido virtualmente por un espacio determinado y controlar su ubicación especial vía Ethernet. o sea. demostrando además la posibilidad de interconexión en tiempo real de dos tecnologías diferentes como lo son el audio digital y las redes de computadoras.com . está en el orden de los 250 milisegundos. La coordinación del traspaso del dato de control. Página 121 Ing. se logró con retardos de tiempos muy cortos. entre las distintas interconexiones. Esta velocidad de comunicación alienta el desarrollo de dispositivos que trabajan en tiempo real y que podrán ser controlados vía Internet. Este objetivo fue alcanzado. los cuales se traducen en una sensación de movimiento de una fuente de sonido por un espacio horizontal. El retardo temporal desde que el usuario indica algún cambio en la página web hasta que ese comando es procesado por el DSP.

El desafío de poder trabajar en la interconexión y manejo de dos tecnologías diferentes Ing.com . Una vez restablecido el canal el prototipo retomara el sincronismo automáticamente.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Las interfaz Ethernet no pierde sincronismo si se desconecta el cable Ethernet. Cuando se cambia de área local a la red de Internet es muy probable estar expuestos a cortes por parte del proveedor del acceso a Internet. El micro MCF52259 en conjunto con los periféricos acoplados a través del sistema Tower. es por ello se deja para futuras implementaciones los siguientes ítems: • En el del DSP56371. debido a las diferentes tecnologías asociadas. El conjunto TWR-MCF52259 demostró la gran capacidad que tiene como “micro servidor web” y lo que asombra es la estabilidad que tiene con respecto a esta función. De esta forma nos asegura que ante cortes en el servicio de redes. se excedió el tiempo de este proyecto integrador. En lo personal este proyecto integrador ha sido una experiencia emocionante. • En el Kit Tower. ambos para simulaciones de altura de la fuente de sonido. el sistema de audio seguirá reproduciendo la última orden hasta que se vuelva a establecer el canal Ethernet. la programación de los filtros pasa bajo de 3 Khz y pasa banda de 8 Khz. dando flexibilidad a la programación de tareas independiente. y el paquete de software MQX nos permitieron manejarnos en el entorno de un sistema operativo en tiempo real. se pudo observar que el mismo supera todas las expectativas de la programación en tiempo real esperadas y alienta a seguir avanzando en aplicaciones que necesiten correr en tiempo real. se invirtió gran cantidad de tiempo para poder comenzar a operarlo una vez pasada la barrera del aprendizaje inicial. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. esto es una ventaja importante ya que en futuras aplicaciones nos permitirá pasar de una conexión de área local a conectarnos con la rede de internet. La interfaz MCF52259-DSP56371 no pierde el sincronismo si se desconecta el cable cinta de interconexión GPIO. Esta experiencia puede ser interesante para aplicar en otras áreas de desarrollo que necesiten dispositivos electrónicos controlados a través de Internet. Mantener el sincronismo a pesar de las desconexiones es una característica que alienta a seguir trabajando en el control vía Ethernet. se propone cambiar la interfaz Ethernet por wifi Ethernet de modo de poder acceder sin cables a la consola de audio. Esto nos da la posibilidad de separar el módulo de control ante algún desperfecto y la consola de audio no alterará su funcionamiento. Por cuestiones de la complejidad del proyecto. En cuanto al DSP56371.

Página 123 Ing. si bien queda camino por recorrer para lograrlo hoy siento que ese sueño ha empezado a convertirse en realidad. ha sido el motivo de aliento constante durante el transcurso de todo el proyecto. Desde muy pequeño he soñado con poder manejar el sonido con el movimiento de mis manos.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet como lo son el audio digital y las tecnologías de redes de computadoras. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.com .

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Apéndice I Software Ver el CD-ROM adjunto con el informe Página 124 Ing. Ramiro Javier Podetti e-mail: ramiropodetti@gmail.com .

Ing.wikipedia. Junio de 2005. Claude E.dolby.html [14] Características de la Holofonía http://www.wikipedia.ar/documentos/Introduccion_DSP. http://www.howstuffworks. UNIVERSIDAD DEL PAÍS VASCO.org/wiki/Modulaci%C3%B3n_por_impulsos_codificados [5 ] Introducción a los DSP http://www.efn.com/nuestroshijoshablaran/images/diagrama_del_oido.html [11] Diagrama del oído http://compugente. Bilbao. Universidad Nacional de Córdoba [2] Certain topics in telegraph transmission theory.acousticintegrity.unc.buenastareas.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Referencias [1] Proyecto integrador Consola de Audio Digital.com/ensayos/Sonido-3D/2602948.org/wiki/Surround http://electronics.dsp.wikipedia. Manuel José Peirone. EUSKAL HERRIKO UNIBERTSITATEA.htm [7] Sonido Dolby http://www.elotrolado.org/wiki/SDDS [9] DTS http://es.pdf [6] Sonido envolvente http://es. Ramiro Javier Podetti Página 125 e-mail: ramiropodetti@gmail.htm [13] Sistemas de sonido 3D.wikipedia.jpg [12] Sistema auditivo.edu.com/us/en/about-us/who-we-are/dolby-history/index. Córdoba 2009.com .howstuffworks.html] [8] SDDS http://es.com/environmental/life/human-biology/hearing1. Shannon en 1949 Communication in the presence of noise. [4] PCM http://es. Alejandro García. biología humana http://science.com/acousticintegrity/Hugo_Zuccarelli.org/wiki/Digital_Theater_System] [10] Hugo Zuccarelli http://www.com/virtual-surround-sound1.net/wiki/Holofon%C3%ADas Ing. Harry Nyquist en 1928 [3] Communication in the presence of noise.

11/2006. DSP56371 User Manual. Rev. Rev.pdf [16] Integrado “puente rectificador” G1 SoundBite schematics. 1. Ing.com [22] Tecnología Perljax http://cpan. DSP56371UM.pdf [17] Estructura del protocolo I2S Nota Freescale AN1848 [18] Diagrama en Bloques del microcontrolador MCF52259 http://www. 05/2000. 2. 1/2007. DSP56300FM. 5.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet [14.wikipedia.uwinnipeg.org/ Freescale Semiconductor Application Note AN1848.wikipedia.1.html] [23] Note pad ++ http://notepad-plus-plus. ASAHI KASEI Codec AK4556 Data Sheet. MS0559-E-00. ESAI: Enhanced serial audio interfaz.freescale. DSP56371 Data Sheet. DSP56300 Family Manual. Rev.com/webapp/sps/site/prod_summary.3/2005.08/2006. 11/2001. Rev. ASAHI KASEI Codec AK4584 Data Sheet.adaptivepath.jsp?code=MCF5225X [19] MQX RTCS Nota Frescales VFTF09_AE130 [20] Ajax http://es. Ramiro Javier Podetti Página 126 e-mail: ramiropodetti@gmail. 24-Bit Digital Signal Processors.org/wiki/Hypertext_Transfer_Protocol [15] Kit Symphony Symphony SoundBite referente manual. 24-Bit Digital Signal Processors.ca/htdocs/CGI-Ajax/Changes.1. MS01118-E-00.a] Protocolo HTTP http://es. 4.org/wiki/AJAX [21] Jesse James Garrett www.com .

07/2008. 1. Buenos Aires 2010. 08/2009 Freescale Semiconductor Application Note Writing Your First MQX Application_AN3905. DSPSTUDIOUG. Task Example Lab. SCH-26008 PDF: SPF-26008.4 Demo Guide web_hvac. Freescale Semiconductor User Manual TWR_MCF5225X_UM. Rev. 2 8/2009 Freescale Semiconductor MQX 3. 1. Rev. Página 127 Ing. Rev. 11/2009 Freescale Semiconductor Laboratorios. RTCS Lab.1. 0. Rev.07/2009 Freescale Semiconductor MCF52259RM.0 Freescale Semiconductor TWR_MCF5225X_SCH. Ramiro Javier Podetti e-mail: ramiropodetti@gmail. Freescale Semiconductor Application Note How to Develop IO Drivers for_AN3902. 1.com . Rev.Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Symphony Studio Eclipse for Symphony DSPs.