Professional Documents
Culture Documents
Informe Tesis
Informe Tesis
Facultad de Ingeniería
Ingeniería de Sistemas e Informática
En el Perú, surgió en el año 1999 cuando en el país los propietarios de los medios de
comunicación coludieron junto al gobierno corrupto y autoritario de Alberto Fujimori para
cambiar, exagerar o crear información falsa que luego era presentada al público creándose la
Veeduría Ciudadana de la Comunicación Social.
“Escaso monitoreo de radios que no permiten tener una contexto objetivo de la realidad”
Causas: pocas empresas especializadas, falta de recursos, procesos lentos para obtener la
información.
Consecuencias: información sesgada de la realidad, desinformación de personas.
A nivel mundial se empezó a utilizar el reconocimiento de voz en los años de 1970 con el
reconocimiento de palabras aisladas , el desarrollo de reconocimiento de grandes vocabularios
por parte de IBM, el proyecto SUR (Speech Understanding Research) que era parte de
DARPA cuyo objetivo era obtener un léxico mediano, con pocos errores semánticos y poco
costo computacional, el sistema HARPY de la universidad de Carnegie-Mellon que utilizaba
una red de estados finitos. En los años 80 se empezó a dar mas importancia a los métodos
estadísticos “Los Modelos ocultos de Markov” que se basan en una matemática robusta y un
aprendizaje automático a partir de muestras vocales, algunos sistemas que emplean estos
metodos son: Sphinx de la universidad Carnegie-Mellon y Byblos de Bolt Beranek and Inc.
En los años 90 se desarrollan los modelos neuronales que tiene como base el perceptrón
desarrollado por Frank Rosenblatt en 1959 donde se trata de imitar el comportamiento
neuronal del cerebro humano, tienen una gran capacidad de adaptación y aprendizaje. El
monitoreo de medios surge a nivel mundial en la época de la guerra fría, donde se tenía como
finalidad fiscalizar la influencia cultural que tenían los medios de comunicación masivas en
los países en vías de desarrollo, el poder que ejercían las grandes potencias en distorsionar la
información que se brindada al público.
En Latinoamérica algunos de los proyectos que se basaron en los modelos de Markov usando
el sistema Sphinx son el proyecto DIME que se inicio en el año de 1998 en la UNAM
(Universidad Nacional Autónoma de México) y el proyecto CIEMPIESS en el año 2012 de la
misma universidad.
Así mismo en el Perú existen pequeños proyectos que se desarrollaron para un contexto en
específico como: reconocer algunas palabras para instrucciones dentro de una casa, respuestas
en el proceso de compra de boletos. En el caso particular del monitoreo de las estaciones de
radios, los procesos que realizan para obtener información es rudimentaria. Designan a un
persona que se sienta en un computador y empieza a oír un programa grabado de una emisora
seleccionada para luego escribir un informe de dicho programa escuchado. Este es el proceso
para obtener información de un solo programa de radio de una emisora, ahora imaginemos que
necesitamos obtener información de muchos programas de radios de distintas emisoras, es un
proceso que demanda mucho tiempo y recursos.
Lo que podríamos hacer para reducir o evitar este sesgo al momento de recopilar la
información es desarrollar una herramienta que analizara cada programa radial que se le
asigne, nos brindara información sobre las palabras que más mención tienen en cada programa
radial y con ello se obtendrá reflejo más fiel de nuestra realidad en la localidad.
Requerimientos
• Reconocer y analizar las palabras del audio obtenido de la señal de radio por
streaming.
1.3 Justificación
El presente proyecto tiene la finalidad de obtener información de los programas radiales para
saber que temas de interés local o nacional le dan importancia, para ello se va a desarrollar un
algoritmo que obtenga el audio de los programas de las emisoras y luego lo analice para
obtener las palabras que son las más concurrentes, siendo pertinente porque lograría hacer una
comparación de los temas que tratan cada emisora en sus programas radiales y con ello
obtener un análisis mucho más real de la coyuntura que vive una ciudad o el país.
CAPÍTULO II: MARCO TEÓRICO
Monitoreo de Medios
La investigación de Willian Ignacio Gándara Hernández y Hugo Vladimir Pineda Perez (2015)
en la que desarrollaron un proyecto sobre: Diseño e Implementación del Sistema de monitoreo
de medios para Komunikarte, explican que “el monitoreo de radio se lo realizaba con las
principales radios de Quito (Democracia, Visión, Quito) y las de Guayaquil (Sucre, Centro,
Caravana), se revisaban, ingresaban y digitalizan todas las notas periodísticas emitidas en los
programas de noticias, deportivos, de opinión y de variedades de las emisoras radiales
monitoreadas, tanto de los programas de la mañana, medio día, como de la noche, cubriendo
así todas las emisiones generadas por las distintas estaciones de radios.”(1)
En otra parte de la investigación añaden que “Años más adelante debido a la demanda de
inmediatez de los clientes y al lógico desarrollo tecnológico surgió la necesidad de reemplazar
esta metodología por sistemas tecnológicos administrativos de información que permitan
realizar actividades de seguimiento de información mediática que provean a la misma de
herramientas de gestión para una efectiva administración.”(2)
Reconocimiento de voz
Concepto
Teorías
2.2 Bases teóricas
El de Inteligencia artificial: Es un método híbrido que explota ideas y conceptos del método
acústico fonético y del de reconocimiento de patrones. Involucra conceptos como el de redes
neuronales.()
La inteligencia artificial se define como maquina inteligente que realiza el proceso de analizar,
organizar, y convertir los datos en conocimiento, donde el conocimiento del sistema es
información estructurada adquirida y aplicada para reducir la ignorancia o la incertidumbre
sobre una tarea especifica a realizar por esta. (citar)
Traducción automática
Recuperación de la información
Extracción de Información y Resúmenes
Resolución cooperativa de problemas
Tutores inteligentes
Reconocimiento de Voz
Según Carles Mateu(2004) define a las aplicaciones web como “un método para confeccionar
páginas dinámicas que permitiesen que lo mostrado fuese dinámico(generado o calculado a
partir de los datos de la petición). Dicho método fue conocido como CGI(common gateway
interface) y definía un mecanismo mediante el cual podíamos pasar información entre el
servidor HTTP y programas externos. Los CGI siguen siendo muy utilizados, puesto que la
mayoría de los servidores web los soportan debido a su sencillez. Además, nos proporcionan
total libertad a la hora de escoger el lenguaje de programación para desarrollarlos. El esquema
de funcionamiento de los CGI tenía un punto débil: cada vez que recibíamos una petición, el
servidor web lanzaba un proceso que ejecutaba el programa CGI. Como, por otro lado, la
mayoría de CGI estaban escritos en algún lenguaje interpretado (Perl, Python, etc.) o en algún
lenguaje que requería run-time environment (VisualBasic,Java, etc.), esto implicaba una gran
carga para la máquina del servidor. Además, si la web tenía muchos accesos al CGI, esto
suponía problemas graves. Por ello se empiezan a desarrollar alternativas a los CGI para
solucionar este grave problema de rendimiento. Las soluciones vienen principalmente por dos
vías. Por un lado se diseñan sistemas de ejecución de módulos más integrados con el servidor,
que evitan que éste tenga que instanciar y ejecutar multitud de programas. La otra vía consiste
en dotar al servidor de un intérprete de algún lenguaje de programación (RXML, PHP,
VBScript, etc.) que nos permita incluir las páginas en el código de manera que el servidor sea
quien lo ejecute, reduciendo así el tiempo de respuesta. A partir de este momento, se vive una
explosión del número de arquitecturas y lenguajes de programación que nos permiten
desarrollar aplicaciones web. Todas ellas siguen alguna de las dos vías ya mencionadas. De
ellas, las más útiles y las que más se utilizan son aquellas que permiten mezclar los dos
sistemas, es decir, un lenguaje de programación integrado que permita al servidor interpretar
comandos que “incrustemos” en las páginas HTML y un sistema de ejecución de programas
más enlazado con el servidor que no presente los problemas de rendimiento de los CGI.” (3)
Por otra parte Adobe System Software explica que “una aplicación Web es un sitio Web que
contiene páginas con contenido sin determinar, parcialmente o en su totalidad. El contenido
final de una página se determina sólo cuando el usuario solicita una página del servidor Web.
Dado que el contenido final de la página varía de una petición a otra en función de las
acciones del visitante, este tipo de página se denomina página dinámica.”(4)
Son muchas las formas en las que se puede presentar la voz y los investigadores que trabajan
en el problema del ASR suelen poner restricciones respecto a la cantidad de formas en las que
esta se puede presentar para así limitar el problema del reconocimiento.”(6)
Para Oscar Fernando Castellanos Domínguez, Aida Mayerly Fúquene Montañez y Diana
Cristina Ramírez Martínez(2011) tendencia “está asociada técnicamente al análisis de
mercado, con el objetivo de detectar y medir el comportamiento del precio y así determinar
acciones de compra-venta para participar en él. La tendencia no se limita a los mercados
financieros; en un sentido más amplio, una tendencia es un patrón de comportamiento de los
elementos de un entorno particular durante un período. En este sentido, el término análisis de
tendencia se refiere al concepto de recoger la información y de evidenciar un patrón, dinámica
o comportamiento a partir del procesamiento de esa información.”(7)
Para Alejandro Méndez Hoyos, Carlos Montiel Del Pino, Alberto Moreno González, Laura
Yanina Muñoz Azcurrain, Jorge Ayllón García, Sergio Castañeda Puche, Manuel de los Reyes
Del Valle García, Alejandro Jaime Núñez, José Pablo García López y Ángel López Martínez
(2013) radio online “Consiste en la transmisión de audio dotado de las características propias
del medio radiofónico(tales como su guión y su lenguaje) a través de la red mediante
streaming. El streaming es la posibilidad de distribuir recursos multimedia (texto, audio,
video) mediante el uso de una red de ordenadores en tiempo real, es decir, el usuario puede
consumir el producto al mismo tiempo que lo está descargando.”(8)
CAPÍTULO III: RESULTADOS ESPERADOS Y METODOLOGÍA
• Tener una aplicación que realice un reconocimiento del audio de los programas de
radios.
• Mejorar y optimizar el análisis de tendencias en las radios.
• Diseño conceptual.
• Diseño navegacional.
• Diseño de interfaz abstracta.
• Implementación.
CAPÍTULO IV: ASPECTOS ADMINISTRATIVOS
4.1 Presupuesto
4.2 Cronograma
Cronograma 2017-2018
Setiembre Octubre Noviembre Diciembre Enero Febrero Marzo
Descripción
1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4
Definición del problema
Análisis de los requerimientos
Diseño conceptual
Diseño navegacional
Diseño de interfaz abstracta
Implementación de la aplicación web
REFERENCIAS BIBLIOGRÁFICAS
5) GONZÁLES LÓPEZ, José Andrés. Reconocimiento robusto de voz con datos perdidos o
inciertos [en línea]. Tesis doctoral. Universidad de Granada, Granada, 2013. pp.1.[consulta:10
de setiembre del 2017]. Disponible en web: http://digibug.ugr.es/handle/10481/29507