You are on page 1of 35

DEPARTAMENTO DE ENERGÍA Y MECÁNICA

INGENIERÍA MECATRÓNICA

INSTRUMENTACIÓN MECATRÓNICA

INSTRUMENTACIÓN BASADA EN COMPUTADOR

Ing. Marco Singaña


INTRODUCCIÓN
En la instrumentación tradicional un instrumento actúa totalmente aislado, con
capacidades predefinidas por el fabricante, con un conjunto de entradas y salida fijas,
interfaz con el usuario basada en botones, perillas, led y displays que permiten
controlar o cambiar algunas de las características del instrumento, que en el fondo es
un dispositivo electrónico que contiene amplificadores de instrumentación, filtros,
conversores A/D microprocesadores, memorias, y buses de comunicación para poder
convertir y representar una señal eléctrica en formas numérica o a través de un display
o un gráfico; es por esto que el Instrumento tradicional representa una arquitectura
cerrada, impidiendo realizar algún cambio en su funcionalidad y necesariamente
cualquier modificación pasa por realizar cambios en la circuitería interna del equipo, lo
que evidentemente es muy poco factible.

INSTRUMENTACIÓN VIRTUAL

La rápida adopción de la PC en los últimos 20 años generó una revolución en la


instrumentación de ensayos, mediciones y automatización. Un importante desarrollo
resultante de la presencia del PC es el concepto de instrumentación virtual, el cual
ofrece variados beneficios en aplicaciones que requieran mayor productividad,
precisión y rendimiento.

El término "virtual" nace precisamente a partir del hecho de que cuando se utiliza el
PC como "instrumento" es el usuario quién, a través del software, define su
funcionalidad y "apariencia" y por ello se dice que "virtualizamos" el instrumento, ya
que su funcionalidad puede ser definida una y otra vez por el usuario y no por el
fabricante.
El PC comienza a ser utilizado para realizar mediciones de fenómenos físicos, como
temperatura, presión, caudal, etc.; representados en señales de corriente y/o voltaje.
Sin embargo, el concepto de "instrumentación virtual" va más allá de la simple
medición de corriente o voltaje, sino que también involucra el procesamiento, análisis,
almacenamiento, distribución y despliegue de los datos e información relacionada con
la medición de una o varias señales específicas. Es decir, el instrumento virtual no se
conforma con la adquisición de la señal, sino que también involucra la Interfaz
Hombre-Máquina, las funciones de análisis y procesamiento de señales, las rutinas
de almacenamiento de datos y la comunicación con otros equipos.

Un instrumento virtual es definido entonces como una capa de software y hardware


que se le agrega a un PC en tal forma que permite a los usuarios interactuar con la
computadora como si estuviesen utilizando su propio instrumento electrónico "hecho a
la medida".

Para construir un instrumento virtual, se requiere de un PC del tipo industrial, o una


estación de trabajo, una tarjeta de adquisición de datos con acondicionamiento de
señales (PCMCIA, ISA, XT, PCI, etc.) y el software apropiado; teniendo un sistema de
acondicionamiento de señales como elemento opcional.
2
Se dice que el "acondicionamiento de señales" es opcional, porque dependiendo de
cada señal y/o aplicación, se puede o no requerir amplificación, atenuación, filtraje,
aislamiento, etc. de cada señal. Si la señal está en el rango de los +/- 5Vdc y no se
requiere de aislamiento o filtraje, la misma puede ser conectada directamente la tarjeta
de adquisición de datos.

En el instrumento virtual, el software es la clave del sistema, a diferencia del


instrumento tradicional, donde la clave es el hardware. Con el sistema indicado
anteriormente, se podría construir un osciloscopio "personalizado", con la interfaz
gráfica que uno desee, agregándole inclusive más funcionalidad. Sin embargo, este
mismo sistema puede también ser utilizado en la medición de temperatura, o en el
control de arranque/parada de una bomba centrífuga. Es allí donde radica uno de los
principales beneficios del instrumento virtual, su flexibilidad. Este instrumento virtual no
sólo me permite visualizar la onda, sino que a la vez me permite graficar su espectro
de potencia en forma simultánea.

La Tabla 1 indica algunas de las principales diferencias entre el instrumento


convencional o tradicional, y el instrumento virtual:

Instrumento Tradicional Instrumento Virtual

Definido por el fabricante Definido por el usuario

Funcionalidad específica, con Funcionalidad ilimitada, orientado a


conectividad limitada. aplicaciones, conectividad amplia.

Hardware es la clave. Software es la clave

Alto costo/función Bajo costo/función, variedad de funciones,


reusable.

Arquitectura "cerrada" Arquitectura "abierta".

Lenta incorporación de nuevas Rápida incorporación de nuevas


tecnología. tecnologías, gracias a la plataforma PC.

Baja capacidad de Alta capacidad de escalamiento, bajos


escalamiento, alto costo de costos de mantenimiento.
mantenimiento.

Tabla 1: Instrumentos Tradicionales vs. Virtuales

Por ejemplo, las técnicas utilizadas normalmente para evaluar las características de
medición de un multímetro digital (DMM) pueden ser utilizadas para evaluar las
características de medición de un instrumento virtual (VMM). Entre dichas
características se encuentran las siguientes (Tabla 2):

3
DMM VMM con tarjeta VMM con tarjeta de
especializada propósito general

Hardware utilizado HP 34401 A DMM DAQCard 4050 PCI-MIO-16XE-10


No. de Canales 1 1 16 (Diferencial)

Conversión AC True RMS True RMS True RMS (por software)


Resolución (convertidor 61/2 - 41/2 dígitos 51/2 dígitos 41/2 dígitos
de 16-bits)
Rango de entrada 100 mV - 750V 20 mV - 250V 100mV - 250V
(ACV) (con acondicionamiento
SCXI)
Sensibilidad (ACV) 0.1 uV 0.1 uV 1.5 uV
Rango de Entrada 100 mV - 1000 V 20 mV - 250 V 100 mV - 250 V
(DCV)
Sensibilidad (DCV) 0.1 uV 0.1 uV 1.5 uV
NMRR 60 dB 80 dB variable (80-120 dB)
CMRR 70 dB (AC) 90 dB (AC) Variable:
140 dB (DC) 30 dB (DC) 80-120 dB
Velocidad de medición 5-1 K lecturas/seg 10, 50, 60 100 K lecturas/seg
(lecturas/seg.) Klecturas/seg
Fuente: National Instruments Corp.
Tabla 2. Características de comparación entre instrumentos

La flexibilidad, el bajo costo de mantenimiento, la reusabilidad, la personalización de


cada instrumento, la rápida incorporación de nuevas tecnologías, el bajo costo por
función, el bajo costo por canal, etc. son algunos de los beneficios que ofrece la
instrumentación virtual.

La instrumentación virtual puede también ser implementada en equipos móviles


(laptops), equipos distribuidos en campo (RS-485), equipos a distancia (conectados
vía radio, Internet, etc.), o equipos industriales (NEMA 4X, etc.).

Existe una tarjeta de adquisición de datos para casi cualquier bus o canal de
comunicación en PC (ISA, PCI, USB, serial RS-232/485, paralelo EPP, PCMCIA,
CompactPCI, PCI, etc.), y existe un driver para casi cualquier sistema operativo (WIN
3.1/95/NT, DOS, Unix, MAC OS, etc.).

4
VENTAJAS DE LA INSTRUMENTACIÓN VIRTUAL

Flexibilidad

A excepción de los componentes especializados y los circuitos de los instrumentos


tradicionales, la arquitectura general de los instrumentos tradicionales es muy similar a
la hallada en un instrumento virtual basado en PC.

Ambos requieren uno o más microprocesadores, puertos de comunicación (serie y


GPIB) y capacidad de mostrar resultados, así como también módulos de adquisición
de datos. Lo que diferencia uno del otro es su flexibilidad y el hecho que se pueda
modificar y adaptar el instrumento a sus necesidades particulares.

Los diseñadores de sistemas, cuyas necesidades, aplicaciones y requerimientos


varían muy rápidamente, necesitan flexibilidad para crear sus propias soluciones. Se
puede adaptar un instrumento virtual a las necesidades particulares sin necesidad de
reemplazar todo el instrumento, dado que posee el software de aplicación instalado en
la computadora y al amplio rango disponible de hardware para instalar en ella.

Portabilidad

Los instrumentos tradicionales también adolecen frecuentemente de falta de


portabilidad, en tanto que los instrumentos virtuales que corren en las computadoras
portátiles automáticamente incorporan esta naturaleza portátil.

Reducción de Costos

Utilizando soluciones basadas en la instrumentación virtual, se puede reducir los


costos de inversión, desarrollo de sistemas y mantenimiento al mismo tiempo que
mejora el tiempo de comercialización y la calidad de sus propios productos.

Hardware para insertar y de Red

En la Instrumentación basada en la PC, los instrumentos virtuales aprovechan


inherentemente los beneficios de la última tecnología de las PCs corrientes. Estos
avances en tecnología y rendimiento, que están cerrando rápidamente la brecha
existente entre los instrumentos autónomos. Los PCs incluyen poderosos
procesadores, y sistemas operativos y tecnologías. Además de incorporar
características importantes, esas plataformas también ofrecen un acceso sencillo a
herramientas como la Internet.

Existe una amplia variedad disponible de hardware que se puede o bien insertar en la
PC o bien acceder a través de una red. Estos dispositivos ofrecen un amplio rango de
capacidades de adquisición de datos a un costo significativamente inferior que el
correspondiente a dispositivos dedicados. A medida que la tecnología de circuitos
integrados avanza y los componentes comunes se vuelven más baratos y poderosos,
5
también lo hacen las placas que ellos utilizan. Junto con estos avances tecnológicos
viene un incremento en las velocidades de adquisición de datos, precisión de las
mediciones y mejor aislamiento de las señales.

Dependiendo de la aplicación en particular, el hardware podría incluir entradas o


salidas analógicas, entradas o salidas digitales, contadores, temporizadores, filtros,
muestreo simultáneo y capacidades de generación de ondas. La amplia gama de
placas y hardware podría incluir cualquiera de es as características o una combinación
de ellas.

Aplicaciones Distribuidas

Un instrumento virtual no está limitado a estar confinado en una computadora


autónoma. Con los recientes desarrollos en tecnologías de redes y la Internet, es más
común utilizar la potencia de conectividad de los instrumentos con el fin de compartir
tareas. Ejemplos típicos incluyen supercomputadoras, monitoreo distribuido y
dispositivos de control, así como también datos o visualización de resultados desde
múltiples sitios.

LA INSTRUMENTACIÓN VIRTUAL DENTRO DEL PROCESO DE INGENIERÍA

Los instrumentos virtuales brindan significativas ventajas en cada etapa del proceso de
ingeniería, desde la investigación y el diseño hasta el ensayo de manufactura.

Diseño e Investigación

En la investigación y el diseño, se demandan capacidades de rápido desarrollo y


realización de prototipos. Con los instrumentos virtuales se puede desarrollar
rápidamente un programa, tomar mediciones desde un instrumento para ensayar un
prototipo y analizar resultados, todo ello en una fracción del tiempo requerido para
ejecutar ensayos con instrumentos tradicionales. Cuando se necesita flexibilidad es
esencial tener una plataforma ajustable y abierta, desde la computadora de mesa a los
sistemas embebidos y redes distribuidas.
Los exigentes requerimientos de las aplicaciones de Investigación y Desarrollo (I&D)
requiere una integración ininterrumpida de software y hardware. Con los instrumentos
virtuales también se puede automatizar un procedimiento de ensayo, eliminando la
posibilidad de error humano y asegurando la consistencia de resultados al evitar
introducir variables desconocidas o inesperadas.

Manufactura

Las aplicaciones de manufactura requieren que el software sea confiable, de alto


rendimiento e interoperable. Los instrumentos virtuales ofrecen todas estas ventajas
mediante la integración de características tales como: manejo de alarmas, tendencias
de datos históricos, seguridad, redes, E/S industriales y conectividad empresarial.

6
Debido a esta funcionalidad, se puede conectar fácilmente muchas clases de equipos
industriales, tales como PLCs, redes industriales, E/S distribuidas y placas de
adquisición de datos insertables.

PRÓXIMA GENERACIÓN DE LA INSTRUMENTACIÓN VIRTUAL

La próxima generación de herramientas de instrumentación virtual necesita incluir


tecnología de redes para lograr una rápida y fácil integración de Bluetooth, Ethernet
inalámbrica y otras normas. Además de utilizar esas tecnologías, el software de
instrumentación virtual requiere una mejor manera de describir y diseñar las relaciones
de temporizado y sincronización entre sistemas distribuidos de una manera intuitiva
para ayudar a lograr un más rápido desarrollo y control de estos sistemas que son, a
menudo, embebidos.
Los conceptos de software y hardware integrados de instrumentación virtual,
herramientas modulares flexibles y la utilización de tecnologías comerciales se
combinan para crear un marco de trabajo sobre el cual usted puede completar
rápidamente el desarrollo de sus sistemas y también mantenerlos en el largo plazo.
Puesto que la instrumentación virtual ofrece tantas opciones y capacidades en el
desarrollo embebido tiene sentido que los desarrolladores de sistemas embebidos
comprendan y revean esas herramientas.

HERRAMIENTAS COMPUTACIONALES PARA CREAR INSTRUMENTOS


VIRTUALES

El software es el componente más importante de un instrumento virtual. Con la


herramienta de software apropiada se pueden crear eficientemente sus propias
aplicaciones, diseñando e integrando las rutinas que requiere un proceso en particular.
También pueden crear las interfaces de usuario que mejor satisfagan el objetivo de la
aplicación y de aquéllos que van a interactuar con ellas. Pueden definir cómo y cuándo
la aplicación adquiere datos desde el dispositivo, cómo los procesa, manipula y
almacena los datos y cómo se presentan los resultados al usuario.

Contando con un software adecuado, se puede dotar a sus instrumentos con


capacidades de inteligencia y de toma de decisiones de manera tal que se adapten
cuando las señales medidas varíen inadvertidamente o cuando se requiera mayor o
menor potencia de procesamiento.

Una importante ventaja que provee el software es la modularidad. Cuando se trata de


grandes proyectos, generalmente se abordan la tarea dividiéndola en unidades
funcionales. Estas tareas subsidiarias son más manejables y más fáciles de probar
dadas las menores dependencias que podrían causar comportamientos inesperados.
La facilidad con la cual se puede realizar esta división de tarea depende en mayor
medida de la arquitectura subyacente en el software.

7
SOFTWARE LABVIEW

LabVIEW es una parte integral de la instrumentación virtual dado que provee un medio
ambiente de desarrollo de aplicaciones que es fácil de utilizar y está diseñado
específicamente para aplicaciones industriales. LabVIEW ofrece poderosas
características que facilitan la conexión a una gran variedad de hardware y otros
softwares.

Programación Gráfica

Una de las características más poderosas que LabVIEW ofrece, es que es un medio
de programación gráfico. Con LabVIEW se puede diseñar instrumentos virtuales a
medida, creando interfaces gráficas de usuario en la pantalla del PC, con la cual se
puede:
 Operar el programa de instrumentación
 Controlar el hardware seleccionado
 Analizar datos adquiridos
 Visualizar los resultados

Se puede personalizar paneles frontales con perillas, botones, diales y gráficos a fin de
emular paneles de control de instrumentos tradicionales, crear paneles de ensayo
personalizados o representar visualmente el control y operación de procesos. La
similitud existente entre los diagramas de flujo y los programas gráficos acorta la curva
de aprendizaje asociada con lenguajes tradicionales basados en texto.

Figura 1. Panel Frontal de un Instrumento Virtual hecho con LabVIEW


8
Figura 2. Diagrama de Bloques de un Instrumento Virtual hecho con LabVIEW

Se puede determinar el comportamiento de los instrumentos virtuales conectando


íconos entre sí para crear diagramas de bloques, que son notaciones de diseño
naturales. Con el lenguaje gráfico se puede desarrollar sistemas más rápidamente que
con lenguajes de programación convencionales mientras que conserva la potencia y
flexibilidad necesarias para crear una variedad de aplicaciones.

Conectividad y Control de Instrumentos

Diseñado para crear ensayos, mediciones y control de sistemas, el software de


instrumentación virtual incluye una extensa funcionalidad para entradas y salidas
prácticamente de cualquier tipo.

LabVIEW posee bibliotecas listas para ser utilizadas con el objeto de integrar
instrumentos autónomos, equipos de adquisición de datos, productos para el control
de movimientos y de visión, instrumentos GPIB/IEEE 488 y serie RS-232 y PLCs,
entre otros. LabVIEW también tiene incorporadas las más importantes normas de
instrumentación, tal como VISA, una norma que permite la operación entre
instrumentos GPIB, serie y VXI; PXI y software y hardware basados en la norma PXI
Systems Alliance CompactPCI; manejadores de instrumentos virtuales intercambiables
IVI y VXIplug&play, que es un manejador para la norma que rige la instrumentación
VXI.

Ambiente Abierto

Aunque LabVIEW provee las herramientas para la mayoría de las aplicaciones,


también constituye un ambiente de desarrollo abierto. El cumplimiento de normas por
parte del software se basa principalmente en la habilidad del paquete de trabajar con
otros sistemas de software y hardware de medición y control, y normas abiertas, que

9
definen la capacidad de interactuar entre múltiples fabricantes. Además, ajustándose a
normas comerciales abiertas, se reduce el costo total del sistema.

Un gran número de fabricantes de hardware y software desarrollan y mantienen


centenares de bibliotecas de LabVIEW y manejadores de instrumentos que ayudan a
utilizar fácilmente esos productos con LabVIEW.

LabVIEW también ofrece maneras simples de incorporar programas en ActiveX,


bibliotecas dinámicas (DLLs) y bibliotecas compartidas de otras herramientas.
También se puede compartir código hecho en LabVIEW como un DLL, construir un
programa ejecutable o utilizar ActiveX. LabVIEW también ofrece un rango completo de
opciones para comunicación y manejo de datos tales como TCP/IP, OPC, SQL, y
formatos de datos XML.

Reducción de Costos y Preservación de la Inversión

LabVIEW es un software versátil dado que se puede utilizar una sola computadora
equipada con LabVIEW para innumerables aplicaciones y propósitos. No sólo es
versátil sino también extremadamente efectivo desde el punto de vista del costo. La
instrumentación virtual con LabVIEW demuestra ser económica, no sólo por los
reducidos costos de desarrollo sino también porque preserva la inversión del capital a
lo largo de un extenso período. A medida que cambian sus necesidades, fácilmente se
puede modificar los sistemas sin necesidad de adquirir nuevo equipamiento y crear
bibliotecas enteras de instrumentación a costo menor que el correspondiente a un solo
instrumento comercial tradicional.

Plataformas Múltiples

La mayoría de los sistemas computacionales utilizan alguna variante del sistema


operativo Microsoft Windows; no obstante ello, existen otras opciones que ofrecen
claras ventajas para ciertos tipos de aplicaciones. El desarrollo de sistemas operativos
de tiempo real y embebido continúa creciendo rápidamente en la mayoría de las
industrias a medida que la capacidad de cálculo es incorporada en paquetes más
especializados y pequeños. Es importante minimizar las pérdidas resultantes del
cambio hacia nuevas plataformas y la elección del software correcto para dicho
objetivo es un factor clave.

LabVIEW minimiza esta preocupación ya que corre en Windows 2000, NT, XP, Me, 98,
95 y NT embebido así como también sobre Mac OS, Sun Solares y Linux. Con
LabVIEW también se puede compilar código que corra en el sistema operativo de
tiempo real VenturCom ETS a través del módulo LabVIEW Real-Time. LabVIEW es
independiente de la plataforma seleccionada: los instrumentos virtuales que se pueden
crear en una plataforma pueden ser transportados de manera transparente a cualquier
otra plataforma LabVIEW simplemente abriendo el instrumento virtual.

10
Desarrollo Distribuido

Con LabVIEW se puede desarrollar aplicaciones distribuidas, aún entre diferentes


plataformas. Con herramientas de servidores fáciles de usar, se puede descargar
rutinas que hacen un uso intensivo del procesador a otras máquinas para lograr una
ejecución más rápida, o crear aplicaciones de monitoreo y control remoto. Una
tecnología de servidores poderosa puede simplificar la tarea de desarrollar
aplicaciones grandes y que requieran de múltiples computadoras. Además de ello,
LabVIEW incluye tecnologías normalizadas de redes, tales como TCP/IP e incorpora
protocolos robustos de publicación y suscripción.

Capacidades de Análisis

El software de la instrumentación virtual requiere de complejas herramientas de


análisis y procesamiento de señales ya que la aplicación no se detiene justo cuando el
dato es recogido. Además de las bibliotecas de análisis avanzado incluidas en
LabVIEW, National Instruments provee software adicional, tal como el LabVIEW Signal
Processing Toolset (Paquete de Herramientas para el Procesamiento de Señales
LabVIEW) a fin de complementar las ofertas de análisis.

Capacidades de Visualización

LabVIEW incluye un kit de herramientas de visualización para presentar datos en la


interface del usuario de la instrumentación virtual, tanto para gráficos continuos como
también para visualización de gráficos 2D y 3D. Se puede reconfigurar de manera
instantánea los atributos de la presentación de los datos, tales como: colores, tamaño
de fuentes, tipos de gráfico y más, así como también efectuar rotación, enfoque
(zoom) y desplazamiento dinámico en estos gráficos.

Flexibilidad y Escalabilidad – Ventajas Clave

Con los instrumentos virtuales basados en LabVIEW, se puede diseñar un ambiente


de trabajo abierto que se integre de modo ininterrumpido con el software y el
hardware. Esto asegura que las aplicaciones no sólo funcionarán bien, sino que se
podrán fácilmente integrar nuevas tecnologías en el futuro a medida que ellas se
hallen disponibles, o extender sus soluciones más allá de su alcance original a medida
que se identifiquen nuevos requerimientos.

11
SOFTWARE INTOUCH

El software InTouch es una herramienta computacional que permite crear aplicaciones


de interfaz entre hombre y computadora para los sistemas operativos de Microsoft.

Figura 3. Panel Frontal de un Instrumento Virtual con InTouch

Consta de dos componentes principales:

WindowMaker: Es el entorno de desarrollo donde los gráficos orientados a objetos se


utilizan para crear ventanas de visualización animadas y se pueden conectar a
sistemas industriales.

WindowViewer: Es el entorno de ejecución que se utiliza para mostrar las ventanas


de gráficos creadas en WindowMaker

Permite tener en aplicaciones: sistemas de alarmas distribuidas, sistema de


tendencias históricas distribuidas, conversión de resolución de pantalla, desarrollo de
aplicaciones en red, etc.

Con InTouch, un diseñador puede crear aplicaciones con características completas y


potentes que utilizan las características de Windows al máximo, incluyendo el
Intercambio dinámico de datos (DDE), Enlace de objetos e incrustaciones (OLE),
gráficos y más. InTouch también se puede ampliar agregando asistentes
personalizados, objetos genéricos y extensiones de script.

12
Las aplicaciones InTouch abarcan una multitud de mercados verticales incluyendo
procesamiento de alimentos, semiconductores, petróleo y gas, automotores, químicos,
farmacéuticos, pulpa y papel, transporte, servicios públicos y otros.

Características especiales de InTouch

InTouch incluye las siguientes características:

Sistema de alarmas distribuidas

El nuevo sistema distribuido soporta múltiples servidores de alarma o


“suministradores” de forma concurrente, proporcionando a los operadores la capacidad
de visualizar y reconocer simultáneamente información de alarmas desde múltiples
ubicaciones remotas.

Historial distribuido

El sistema de tendencia histórica distribuida le permite especificar de forma dinámica


una fuente de datos de archivos históricos diferente para cada pluma de un gráfico de
tendencia.

Conversión de resolución dinámica

Ahora puede desarrollar aplicaciones con una resolución de pantalla y ejecutarlas en


otra sin afectar a la aplicación original. Las aplicaciones también se pueden ejecutar
con una resolución definida por el usuario, en lugar de la resolución de visualización.

Direccionamiento de referencia dinámico

Las referencias de fuente de datos se puede modificar de forma dinámica para


direccionar múltiples fuentes de datos con una única etiqueta.

Desarrollo de aplicación en red

Las nuevas características de desarrollo remoto dan cabida a grandes instalaciones


multinodo, incluyendo la actualización de todos los nodos de una red desde una única
estación de desarrollo.

FactoryFocus

FactoryFocus es una versión sólo de visualización de la ejecución de InTouch 5.6 o


posterior. Permite a los administradores y supervisores visualizar un proceso continuo
de aplicación MMI en tiempo real. La seguridad del sistema se incrementa con la
capacidad de sólo visualización, ya que no se puede cambiar ningún dato. No es
necesario realizar modificaciones en las aplicaciones de InTouch para utilizar InTouch
FactoryFocus.

13
Las características tales como enlaces de animación, etiquetas, tendencias históricas
y en tiempo real son sólo de visualización.

CONTROL DE PROCESOS POR COMPUTADOR

Hoy en día, ante la complejidad creciente de los procesos industriales y el aumento en


la producción de estos, resulta necesario desde el punto de vista financiero lograr una
producción óptima; que sea capaz de reducir sus costos y de proporcionar una calidad
buena en sus productos, lo cual puede lograrse con un adecuado control industrial
asistido por PC.

Con el control digital asistido por computador se puede:


 Lograr mayor rendimiento de los procesos y por lo tanto una mejor producción
con menores costes gracias a la utilización eficiente del material y del equipo.
 Mayor calidad en los productos fabricados a costos muy reducidos.
 Mayor seguridad, ya que la acción de corrección y activación de alarmas es
casi inmediata.
 Proporciona una gran cantidad de información a la dirección de control, en
forma simultánea y en tiempo real.

A pesar de la potencialidad de este sistema, debe quedar claro que el control digital
asistido por ordenador no hace milagros y que las ventajas anteriormente
mencionadas solo se logran desarrollando un buen modelo que refleje exactamente el
sistema de balance de materia y energía, además de incluir complejos algoritmos que
le ayuden a minimizar los errores propios de sus unidades de adquisición de datos
(para ello hay que analizar física, analítica y matemáticamente nuestro proceso en
cuestión de forma minuciosa).

1. CONTROL SUPERVISORIO (supervisor).

Sistema de control en el cual los lazos de control operan independientemente, sujetos


a acciones de corrección intermitente a través de sus puntos de consigna.

La siguiente Figura muestra este esquema de control, el cual por orden histórico fue el
primero en utilizarse. En este esquema la computadora juega solamente el papel de
un supervisor, ya que no tiene acceso a ningún lazo de control y su única función es
monitorear las variables controladas del proceso o bien, modificar las referencias de
control (setpoint).

Los lazos de control en este esquema se siguen realizando mediante controladores


analógicos.

14
Figura 4. Control Supervisorio

2. CONTROL DIGITAL DIRECTO (DDC).

Sistema de control que realiza un aparato digital que establece directamente las
señales que van a los elementos finales de control.

En la siguiente Figura se muestra el esquema de una computadora trabajando en


control digital directo. En este esquema la computadora ejecuta uno o varios
algoritmos de control para realizar directamente el control de una o varias variables de
un proceso.

Figura 5. Control Digital Directo (DDC)

3. CONTROL DISTRIBUIDO.

En los años 70, dentro de los esfuerzos de investigación dedicados a la resolución del
problema del control de fábricas con un gran número de lazos y teniendo en cuenta el

15
estado de la técnica de los microprocesadores y la característica conservadora de la
industria, se llegó a las siguientes conclusiones generales:

1.- Descartar el empleo de un solo ordenador (control directo digital) por razones de
seguridad y de capacidad de éstos (se colapsaban, congelaban o sufrían espasmos
térmicos que fusionaban ciertos componentes) y sustituirlo por varios controladores
digitales capaces de controlar un cierto número de variables, para así distribuir el
riesgo del control único; así mismo se optó por el empleo de unidades de respaldo y la
conexión de computadores paralelos.

2.- Cada control digital debía ser universal, es decir disponer de algoritmos de control
seleccionables por software, que permitieran resolver todas la situaciones de control y
dieran así versatilidad al sistema (de este modo, un solo controlador digital podría
efectuar un control P, PI, PID, o de relación o en cascada...)

3.- La velocidad en la adquisición de datos y su salida hacia los actuadores, debía ser
en tiempo real, lo que obligaba a utilizar microprocesadores de 16 bits (que en
aquellos tiempos eran una novedad y que hoy se considera obsoletos frente a los de
64 o 128 bits).

4.- Para comunicar entre si los transmisores electrónicos de campo, los controladores
y las interfaces para la comunicación con el operador de la planta, se adoptó el empleo
de una vía de comunicaciones, en forma de cable coaxial instalado en la planta, con
un recorrido paralelo a los edificios y a la sala de control.

5.- Para eliminar el espacio de panel requerido por el control clásico, se adoptó el uso
de uno o varios monitores TRC (actualmente son LCD, TFT o plasma), en los cuales,
el operador, a través del teclado, debía examinar las variables de proceso, las
características de control, las alarmas, etc., sin perturbar el control de la planta, y con
la opción de cambiar cualesquiera características de control de las variables del
proceso.

Como resultado de estos esfuerzos, el primer control distribuido para la industria


apareció en Noviembre de 1975 (TDC 2000 de Honeywell).

En esencia, la diferencia entre el control distribuido y el control digital radica en que el


primero necesita se configurado manualmente nodo a nodo y el segundo puede ser
codificado electrónicamente.

El ordenador personal también ha incorporado al control distribuido. Permite la


visualización de las señales de múltiples transmisores, el diagnostico de cada lazo de
transmisión, el acceso a los datos básicos de calibración y a los datos de configuración
de los transmisores.
En este esquema, que es el más difundido a nivel industrial en la actualidad se utilizan
computadoras o microcontroladores para reemplazar los lazos de control individuales
que en el esquema antiguo se implementaban con controladores analógicos. Además
16
se usa una computadora de gran capacidad para realizar la función de supervisora
que ya se describió en el esquema supervisor anterior, con la diferencia que en el
nuevo esquema dicha computadora se auxilia de subsistemas que controlan una red
local que sirve de interfaz de comunicación con cada controlador funcionando en
control digital directo.

Figura 6. Control Jerárquico o Distribuido

El controlador básico del sistema es un microprocesador que proporciona los clásicos


controles PID y otros algoritmos de control. Es apto para el manejo de 8 lazos que
proporciona, entre otros, los siguientes algoritmos de control:

- Salida manual
- PID normal
- PID con ajuste externo del punto de consigna
- PID con control anticipado (feedforward)
- Adelanto-retardo
- Sumador
- Multiplicador - Divisor
- Relación
- Extracción de raíz cuadrada
- Rampas programadas (temperatura en procesos dinámicos)
- Contador

Los algoritmos anteriores pueden configurarse de tal forma que se define cual es el
ultimo modo de control a retener en caso de avería, las unidades de ingeniería (tipo de
termopar, termorresistencia), la acción de control (directa, inversa), las alarmas, el tipo
de señal, asignación de bandas portadoras de señal, etc.

17
COMPONENTES DEL CONTROL DISTRIBUIDO.

- El controlador multifunción que, al utilizar en su programación un lenguaje de alto


nivel, se asemeja a un ordenador personal, proporciona las funciones de control lógico
que permiten regular un proceso discontinuo (Bach control), y el manejo de procesos
complejos, en las que el control básico está limitado.

- El control secuencial enlaza el control analógico (modulante con posiciones que


varían continuamente en la válvula de control) con el control lógico. El control
secuencial se realiza con un conjunto de instrucciones o sentencias, parecidas a
programas de ordenador, que establecen en el tiempo los puntos de ajuste de cada
elemento para que tenga lugar la secuencia deseada.

- En el control discontinuo (Bach control), debido a que se fabrican muchos


productos diferentes en la misma unidad de fabricación, es necesario que el equipo de
control sea versátil para satisfacer la gran variedad de fórmulas que pueden
presentarse. La práctica usual es disponer de un programa de la formula principal, y
modificar ésta dinámicamente de acuerdo con los datos de la fórmula, las fases del
proceso discontinuo y el tiempo estimado de ejecución de la operación.

- Los controles programables sustituyen a los relés convencionales utilizados en la


industria. En lugar de disponer de pulsadores y relés para los circuitos de
enclavamiento y para el accionamiento de los motores de la planta, con el
correspondiente panel o cuadro de mandos y con los consiguientes cables de
conexión, voluminosos y caros, el controlador programable aporta la solución versátil,
practica y elegante del software en un lenguaje especial, basado en la lógica de los
relés.

- La estación de operación proporciona la comunicación con todas las señales de la


planta para el operador de proceso, el ingeniero de proceso y el técnico de
mantenimiento. La presentación de la información a cada uno de ellos, se realiza,
mediante programas de operación. La tendencia del computador es a generar cada
vez más información, la que debe ser transmitida rápidamente dentro de la planta, y
en tiempo real. Esta información es manejada por los periféricos del ordenador.

- Las alarmas son importantes en el control de procesos. Existen alarmas de alto y


bajo valor de la variable (LPV, HPV), alarmas de desviación entre el punto de consigna
(SP) y la variable controlada (PV), alarmas de tendencia que actúan si la variación de
la variable excede de un valor prefijado, alarmas de estado de la señal de entrada o de
salida, alarmas de situación crítica, alarmas que indican que el proceso está fuera de
control y que se acerca un desastre inminente, alarmas que indican el restablecimiento
del control, etc.

El control distribuido tiene una seguridad mejorada con relación a los sistemas
convencionales de control. Los transmisores disponen de un sistema de auto

18
calibración y diagnostico de averías que permite al personal de mantenimiento,
localizarlas y repararlas rápidamente, en caso de que se produzcan.

El sistema es redundante y puede considerarse como una inteligencia distribuida que,


en forma parecida a la humana, limita las consecuencias de un fallo, manteniendo el
control del sistema.

Desde el punto de vista de la fiabilidad del equipo, el número de horas/fallo de los


elementos de control distribuido es considerable y varia en régimen permanente y a la
temperatura de 25°C desde 10,000 horas/fallo en los controladores básicos hasta
220,000 horas/fallo en la vía de comunicaciones (cable coaxial), y este tiempo sigue
creciendo con las nuevas técnicas de fabricación que se van incorporando a la
industria.

Otro parámetro es la llamada disponibilidad, es decir, la fracción de tiempo que el


sistema es operable. En los sistemas de control distribuido, la disponibilidad típica
varía desde 99.2 hasta 99.9%, dependiendo de la bondad del equipo, de la
disponibilidad de piezas criticas y del mantenimiento.

Lo anterior pone de manifiesto que los sistemas de control distribuido son hoy en día
los que logran el mejor desempeño. Se mostrará a continuación los elementos que
integran el control distributivo.

Figura 7. Esquema generral de un control por computadora

CONTROL EN TIEMPO REAL


Un aspecto muy importante en el Control Automático de Procesos es “Tiempo Real”
usado en sistemas de instrumentación y HMI/SCADA, y se define como:
“Capacidad de un sistema de monitoreo de desplegar sus variables con un
retardo mínimo de tiempo con respecto a la adquisición de datos”1.

1
MINCHALA I. Automatización Industrial y Sistemas HMI – SCADA. State-Of-The-Art
Technologies for Automation and Control, High Lights -National Instruments. Ecuador, Cuenca
– Ecuador. Enlaces: www.highlights.com.ec, www.ni.com/academic, www.ni.com/latam

19
Por ejemplo, un gráfico que va desplegando los datos adquiridos con retrasos de entre
milisegundos hasta algunos segundos.
Cuando se emplean computadoras, controladores o cualquier dispositivo que funciona
en base a un algoritmo, para procesar información de datos de campo, aparece un
desfase o retardo en el tiempo que puede incidir en la exactitud instantánea del valor
mostrado. Este problema, puede pasar desapercibida, particularmente en la medición
de variables lentas, como temperatura; o puede ser considerable cuando se trata de
variables rápidas.
Desde el punto de vista de sistemas de control estricto:
“Respuesta de Tiempo Real, es la capacidad de responder a un evento o
realizar una operación de modo confiable, sin falla, dentro de un período de
tiempo garantizado”. Este concepto está más ligado con la idea de “A Tiempo”,
antes que “Muy Rápido”.

En Tiempo Real se deben considerar conceptos como:

 Determinismo, que es la capacidad de responder a eventos o ejecutar acciones


dentro de un período de tiempo determinado. La definición del determinismo es
importante ya que está relacionado con Control (garantiza estabilidad, requerida
para el funcionamiento apropiado de un controlador); con Interrupciones y
respuestas (garantiza una respuesta a tiempo) y con Reducción de datos
(requerido para garantizar que no se pierdan datos).

 Tiempo de Lazo de Control, que es la cantidad de tiempo utilizado en ejecutar el


algoritmo de control completo (incluye, lectura de entradas y parámetros, ejecución
de algoritmo on/off, PID, Fuzzy Logic, etc., y refrescamiento de salidas). El tiempo
de lazo de control varía según la complejidad del sistema.

• Jitter (fluctuación), que se define como la diferencia de tiempo entre el Tiempo de


Lazo teórico o deseado, y el Tiempo de Lazo real. En sistemas de control en
tiempo real, el Jitter es de pocos microsegundos, o incluso nanosegundos. En
sistemas que no trabajan en tiempo real, el Jitter puede ser muy largo o indefinido.
En la siguiente Figura se presenta un gráfico que describe de mejor manera el
Jitter.

Figura 8. Tiempos de lazo de Control

20
En lo relacionado con el PC, para conocer si el sistema operativo Windows puede
trabajar en Tiempo Real; se debe considerar:
• El tiempo de procesador compartido entre programas
• Los programas corriendo en segundo plano (protectores de pantalla, antivirus,
utilitarios de disco, etc.)
• El Servicio de interrupciones siempre activo (teclado, ratón, red)
• Los Drivers no diseñados para actuar determinísticamente.

Se concluye que Windows puede acercarse a “Tiempo Real”, pero no garantiza la


ejecución en Tiempo Real.

En lo relacionado con el software para control de procesos en tiempo real, existen


muchas plataformas, las cuales se caracterizan por:

 Dificultad para la integración del software


 Programación muy limitada
 Poca capacidad para conectarse a la red
 Los ambientes de desarrollo son diferentes, tediosos, complicados, lentos y
costosos.

SISTEMA DE ADQUISICIÓN DE DATOS

El propósito de adquisición de datos es medir un fenómeno eléctrico y físico como


voltaje, corriente, temperatura, presión o sonido. La adquisición de datos basada en
PC utiliza una combinación de hardware modular, software de aplicación y una PC
para realizar medidas. Los sistemas de adquisición de datos incorporan señales,
sensores, actuadores, acondicionamiento de señales, dispositivos de adquisición de
datos y software de aplicación.

En la adquisición de señales, se debe identificar el tipo de señal:


Analógica, dividida en:
 Señal Continua, como Temperatura, Presión, Voltajes DC, Lazos de Control
 Señal en Dominio del Tiempo; tales como, Voltajes AC, LVDT, Video,
Generación de funciones.
 Señal en Dominio de la Frecuencia; tal es el caso de Armónicos, Sonido,
Vibración, Resonancia Magnética.
Discreta, dividida en:
 On/Off, como el encendido y apagado de cargas industriales, estado de
máquinas, etc.
 Tren de Pulsos, generadas por Contadores, Temporizadores, Comunicaciones.
Para la adquisición de señales, se pueden utilizar dispositivos como:

21
 Tarjetas DAQ, que son de bajo costo, alta velocidad, alta flexibilidad. Las
señales que va adquirir, necesitan acondicionamiento previo.
 PLC, que es un dispositivo compacto, resistente, confiable; incluye
acondicionamiento de señal; tiene varias formas de comunicación con PC. Son
de baja velocidad, tienen poca capacidad de análisis, etc.
 Compact PCI, que es un Computador Industrial, que se caracteriza por ser
robusto y tiene la capacidad de contener varios instrumentos. Es costoso.

Para el diseño del Sistema de Control se puede utilizar:


 Toolkit de desarrollo, para modelar el sistema con señales reales adquiridas del
proceso.
 Toolkit para diseñar y simular diferentes algoritmos de control y seleccionar el
más adecuado.

Figura 9. Sistema de Adquisición de Datos

Un sistema de adquisición de datos es un equipo que permite tomar señales físicas del
entorno y convertirlas en datos para procesar y presentar. A veces el sistema de
adquisición es parte de un sistema de control, y por tanto la información recibida se
procesa para obtener una serie de señales de control.

ESTRUCTURA DE UN SISTEMA DE ADQUISICIÓN DE DATOS

Un Sistema de Adquisición de Datos no es más que un equipo electrónico cuya


función es el control o simplemente el registro de una o varias variables de un proceso
cualquiera. De forma general puede estar compuesto por los siguientes elementos:

1. Sensores.
2. Amplificadores operacionales, Amplificadores de instrumentación.
3. Aisladores.
4. Multiplexores analógicos.
5. Multiplexores digitales.
6. Circuitos Sample and Hold.
7. Conversores A-D
8. Conversores D-A.
22
9. Microprocesadores.
10. Contadores.
11. Filtros.
12. Comparadores.
13. Fuentes de potencia.

Figura 10. Estructura de un Sistema de Adquisición de Datos

Sensores o Transductores
Los sensores tienen un rol vital en todo sistema de adquisición de datos, tienen la
función de convertir la variable física que se desea registrar en una magnitud eléctrica
(voltaje, corriente, resistencia, capacidad, Inductancia, etc.). Entre las magnitudes
físicas más importantes a registrar están: temperatura, humedad, presión,
concentración, iluminación, flujo, posición, nivel, peso, etc. Diversas pueden ser las
variables ambientales, industriales, biológicas, químicas, etc. que en un momento
determinado se puede necesitar controlar, esto provoca que sean también numerosos
los tipos de sensores así como su principio de funcionamiento, lo cual determina
generalmente el costo de sensor que será necesario utilizar.

Amplificación

Es el tipo más común de acondicionamiento. Para conseguir la mayor precisión


posible la señal de entrada deber ser amplificada de modo que su máximo nivel
coincida con la máxima tensión que el convertidor pueda leer.

La etapa acondicionadora está formada básicamente por amplificadores operacionales,


comparadores de nivel y amplificadores de instrumentación, etc.
Amplificadores operacionales
En sus configuraciones básicas (inversora, no inversora, amplificadora,
conversor de corriente a voltaje, etc.), son usados para garantizar que al
23
conversor A/D le sea suministrado el rango máximo de voltaje y así el mismo
pueda dar el mayor número de combinaciones posibles.

Amplificador de instrumentación
Puede alternadamente sustituir al amplificador operacional, siempre que la
aplicación lo exija, pues los mismos tienen prestaciones superiores a los
amplificadores operacionales normales, lo cual hace que sean más costosos.
Entre las características de los amplificadores de instrumentación se tiene una
impedancia de entrada infinita y una ganancia ajustable en ocasiones mediante
una red resistiva de precisión externa o mediante resistores internos de
precisión por interruptores o por software.

Multiplexado

El multiplexado es la conmutación de las entradas del convertidor, de modo que con


un sólo convertidor se puede medir los datos de diferentes canales de entrada. Ellos
permiten que para registrar varias señales diferentes se pueda utilizar un único
conversor A/D y con ello disminuir de forma considerada el costo del sistema de
adquisición de datos. Generalmente los multiplexores se pueden dividir por el tipo de
salida en simples y diferenciales, o por el número de entradas de 2, 4, 8 ó 16 entradas.

Puesto que el mismo conversor está midiendo diferentes canales, su


frecuencia máxima de conversión será la original dividida por el número de
canales muestreados.

Los multiplexores diferenciales de mayor costo que los de salida simple, son usados
normalmente cuando son utilizadas para multiplexar señales de naturaleza diferentes
por ejemplo: temperatura, presión, concentración, etc.

Los amplificadores de salida simple se recomiendan cuando se multiplexan señales de


naturaleza semejante: por ejemplo cuando se registra la temperatura en diferentes
puntos. En esencia la diferencia entre los multiplexores de salida simple y diferencial
está en que para los últimos, la señal de referencia (tierra) es también multiplexada lo
cual no ocurre para los multiplexores de salida simple. En la medida que aumenta el
número de entradas de un Multiplexor también aumenta su costo y el número de
terminales de control que el mimo necesita, por lo cual es también muy necesario
utilizar en una aplicación un Multiplexor con el número de entradas que se requiera.

Aislamiento

Otra aplicación habitual en acondicionamiento de la señal es el aislamiento eléctrico


entre el transductor y el ordenador, para proteger al mismo de transitorios de alta
tensión que puedan dañarlo. Un motivo adicional para usar aislamiento es el garantizar
que las lecturas del convertidor no son afectadas por diferencias en el potencial de
masa o por tensiones en modo común.

24
Cuando el sistema de adquisición y la señal a medir están ambas referidas a masa
pueden aparecer problemas si hay una diferencia de potencial entre ambas masas,
apareciendo un "bucle de masa", que puede devolver resultados erróneos.

Filtrado

El fin del filtro es eliminar las señales no deseadas de la señal observada. Por ejemplo,
en las señales cuasi-continuas, (como la temperatura) se usa un filtro de ruido de unos
4 Hz, que eliminará interferencias, incluidos los 50/60 Hz de la red eléctrica.

Las señales alternas, tales como la vibración, necesitan un tipo distinto de filtro,
conocido como filtro antialiasing, que es un filtro pasabajo pero con un corte muy
brusco, que elimina totalmente las señales de mayor frecuencia que la máxima a
medir, ya que se si no se eliminasen aparecerían superpuestas a la señal medida, con
el consiguiente error.

Excitación

La etapa de acondicionamiento de señal a veces genera excitación para algunos


transductores, como por ejemplos las galgas extensométricas, termistores o RTD, que
necesitan de la misma, bien por su constitución interna, (como el termistor, que es una
resistencia variable con la temperatura) o bien por la configuración en que se conectan
(como el caso de las galgas, que se suelen montar en un puente de Wheatstone).

Linealización

Muchos transductores, como los termopares, presentan una respuesta no lineal ante
cambios lineales en los parámetros que están siendo medidos. Aunque la linealización
puede realizarse mediante métodos numéricos en el sistema de adquisición de datos,
suele ser una buena idea hacer esta corrección mediante circuitería externa.

Sample and Hold

Dispositivo electrónico con dos posibilidades de trabajo, modo Sample y modo Hold.

Modo Sample: La señal pasa a la salida del dispositivo, tal y como está en la
entrada del mismo.

Modo Hold: La salida se mantiene en el nivel de voltaje que existía en la


entrada en el momento que la señal hold fue activada.

El sample and hold debe ser utilizado cuando la señal de voltaje que ingresa a un
conversor A/D varia en un nivel suficiente como para que el conversor cambie 1/2 bit
menos significativo en un tiempo menor que el que el conversor necesita para hacer la
conversión.

25
Figura 11. Modelo Sample-Hold

Conversor Analógico Digital A/D

Es un sistema que presenta en su salida una señal digital a partir de una señal
analógica de entrada, (normalmente de tensión) realizando las funciones de
cuantificación y codificación.

La cuantificación implica la división del rango continuo de entrada en una serie


de pasos, de modo que para infinitos valores de la entrada la salida sólo puede
presentar una serie determinada de valores. Por tanto la cuantificación implica
una pérdida de información que no se puede olvidar.

La codificación es el paso por el cual la señal digital se ofrece según un


determinado código binario, de modo que las etapas posteriores al convertidor
puedan leer estos datos adecuadamente. Este paso hay que tenerlo siempre
en cuenta, ya que puede hacer que obtengamos datos erróneos, sobre todo
cuando el sistema admite señales positivas y negativas con respecto a masa,
momento en el cual la salida binaria del convertidor nos da tanto la magnitud
como el signo de la tensión que ha sido medida.

Figura 12. Conversor Análogo Digital

Lógica de control: Los terminales de la lógica de control de conversor A/D


generalmente determinan e inician el estado de las operaciones que el mismo
realiza. Entre estos terminales están: Inicio de conversión, fin de conversión,
Chip Select, Chip Enable, WR, RD, señales para la selección de varios
canales, etc.

Lógica de funcionamiento: Mediante estos terminales se puede establecer el


tipo de codificación que el conversor realizará (unipolar o bipolar), las
referencias de voltaje que utiliza, el rango de voltaje de entrada, ajuste de off
set, etc.

26
Existen fundamentalmente dos métodos de codificación, bipolar y unipolar,
estos métodos establecen la relación existente entre el código de salida y el
voltaje de entrada al conversor.

Características básicas del conversor A/D


Las características del conversor son:
 Impedancia de entrada
 Rango de entrada
 Número de bits
 Resolución
 Tensión de fondo de escala
 Tiempo de conversión
 Error de conversión

Número de bits [n]: Es el número de bits que tiene la palabra de salida del
convertidor, y por tanto es el número de pasos que admite el conversor. Así un
conversor de 8 bits sólo podrá dar a la salida 2 8=256 valores posibles.

Resolución [Vi]: Es el mínimo valor que puede distinguir el convertidor en su


entrada analógica, o dicho de otro modo, la mínima variación, Vi, en el voltaje de
entrada que se necesita para cambiar en un bit la salida digital. En resumen, se
tiene que:

Donde:
Vi = Resolución del conversor
n = Número de bits del convertidor
Vfe = Tensión de fondo de escala, es decir, aquella para la que la salida
digital es máxima.

La tensión de fondo de escala depende del tipo de convertidor, pero el


diseñador normalmente lo fija, en forma de una tensión de referencia externa,
(aunque en algunos casos, como el del convertidor ADC 0804 la tensión de
fondo de escala es el doble de la tensión de referencia).Por ejemplo, un
convertidor de 8 bits con una tensión de fondo de escala de 2V tendrá una
resolución de:

En cambio, para el mismo convertidor, si cambiamos la tensión de referencia, y


por tanto la de fondo de escala, la resolución será de:

27
Para 8 bits y un Vfe de 10 Voltios, Vi = 39 mV
Para 12 bits y un Vfe de 10 Voltios, Vi = 2.44 mV

Si aumenta el número de bits aumenta la efectividad del conversor, la exactitud


del sistema y por tanto el precio del conversor.

Tiempo de conversión:

Es el tiempo que tarda en realizar una medida el convertidor en concreto, y


dependerá de la tecnología de medida empleada. Evidentemente da una cota
máxima de la frecuencia de la señal a medir.

Este tiempo se mide como el transcurrido desde que el convertidor recibe una
señal de inicio de conversión (llamada SOC, Start of Conversión) hasta que en
la salida aparece un dato válido. Para tener un dato válido existen dos caminos:
 Esperar el tiempo de conversión máximo que aparece en la hoja de
características.
 Esperar a que el convertidor nos envíe una señal de fin de conversión.

Si no se respeta el tiempo de conversión, en la salida se tendrá un valor, que


dependiendo de la constitución del conversor será:
 Un valor aleatorio, como consecuencia de la conversión en curso
 El resultado de la última conversión

Errores en los conversores analógico/digital.


Un conversor no es un circuito perfecto, sino que presenta una serie de errores
que se debe considerar. Algunos de importancia son los siguientes:

Error de offset:
El error de offset es la diferencia entre el punto nominal de offset (cero)
y el punto real de offset. Concretamente, para un convertidor A/D este
punto es el punto central de todos aquellos valores de la entrada que
nos proporcionan un cero en la salida digital del convertidor. Este error
afecta a todos los códigos de salida por igual, y puede ser compensado
por un proceso de ajuste.

28
Figura 13. Error de offset

Error de cuantificación:
Es el error debido a la división en escalones de la señal de entrada, de
modo que para una serie de valores de entrada, la salida digital será
siempre la misma. Este valor se corresponde con el escalonado de la
función de transferencia real, frente a la ideal. Podemos verlo en esta
figura: Como vemos, cada valor digital tiene un error de cuantificación
de +- ½ LSB (Bit menos significativo). Por tanto, cada código digital
representa un valor que puede estar dentro del ½ LSB a partir del punto
medio entre valores digitales continuos.

Error de linealidad (linealidad integral):


Este error es la manifestación de la desviación entre la curva de salida
teórica y la real, de modo que para iguales incrementos en la entrada, la
salida indica distintos incrementos.

Error de apertura:
Es el error debido a la variación de la señal de entrada mientras se está
realizando la conversión. Este error es uno de los más importantes
cuando se están muestreando señales alternas de una frecuencia algo
elevada, (como por ejemplo el muestreo de voz) pero tiene poca
importancia cuando medimos señales cuasi-continuas, como
temperatura, presión, o nivel de líquidos. Para minimizar este tipo de
error se usan los circuitos de muestreo y retención.

Este error es importante, ya que si no se tiene en cuenta, raramente se


podrá digitalizar adecuadamente señales alternas.

Si se considera un error que no afecte a la precisión total de la


conversión, (por lo que habrá de ser menor que ½ LSB), la frecuencia
máxima de muestreo deberá ser:

29
Donde:
Ta = Tiempo de apertura del circuito de muestreo y retención, o
el tiempo total de conversión si el anterior no existe
n = Número de bits del convertidor.

El circuito de muestreo y retención puede estar a veces integrado dentro


de la misma cápsula del convertidor, lo que puede simplificar el diseño
enormemente.

Conversor Digital Analógico D/A


Dispositivo que convierte un código digital en una señal eléctrica correspondiente
(voltaje o corriente). Su función dentro de un sistema de adquisición de datos es
proporcional un nivel de voltaje o corriente deseada a un elemento que permitirá variar
la variable que se controla hasta llevarla al valor deseado. Este tipo de dispositivo
también se puede utilizar como generador de señales.

Figura 14. Conversor Digital Analógico

Etapa de salida es el conjunto de elementos que permiten conectar el sistema de


adquisición de datos con el resto del equipo, y puede ser desde una serie de buffers
digitales incluidos en el circuito convertidor, hasta un interfaz RS-232, RS-485 o
Ethernet para conectar a un ordenador o estación de trabajo, en el caso de sistemas
de adquisición de datos comerciales.

MUESTREO DE SEÑALES

El muestreo de la señal implica pérdida de información respecto a la señal de entrada,


ya que de un número infinito de valores posibles para la entrada sólo tenemos un valor
finito de valores posibles para la salida. Por tanto es fundamental saber cuántas
muestras hay que tomar.

30
La respuesta a esta pregunta depende del error medio admisible, el método de
reconstrucción de la señal (si es que se usa) y el uso final de los datos de la
conversión.

Independientemente del uso final, el error total de las muestras será igual al error total
del sistema de adquisición y conversión más los errores añadidos por el ordenador o
cualquier sistema digital.

Para dispositivos incrementales, tales como motores paso a paso y conmutadores, el


error medio de los datos muestreados no es tan importante como para los dispositivos
que requieren señales de control continuas.

Para ver el error medio de muestreo en los datos, consideremos el caso en el que se
toman dos muestras por ciclo de señal sinusoidal, y la señal se reconstruye
directamente desde un convertidor D/A sin filtrar (reconstrucción de orden cero). El
error medio entre la señal reconstruida y la original es la mitad de la diferencia de
áreas para medio ciclo, que es un 32% para una reconstrucción de orden cero, o del
14 % para una reconstrucción de orden uno.

De cualquier modo, la precisión instantánea en cada muestra es igual a la precisión


del sistema de adquisición y conversión, y en muchas aplicaciones esto puede ser
más que suficiente.

La precisión media de los datos muestreados puede mejorarse con estos métodos:
 Aumentar el número de muestras por ciclo
 Filtrado previo al multiplexado
 Filtrar la salida del convertidor digital / analógico

La mejora en la precisión media se produce con un pequeño aumento en el número de


muestras por ciclo, como se puede ver en la siguiente Figura.

Figura 15. Precisión de los datos muestreados

Para una reconstrucción de orden cero, se observa que con más de 10 muestras por
ciclo de señal, se puede conseguir precisiones del 90 % o mejor. Normalmente se
usan entre 7 y 10 muestras por ciclo.

31
Teorema de Nyquist o Teorema de muestreo

El objetivo fundamental de la adquisición es el poder reconstruir la señal muestreada


de una manera fiel.
El teorema indica:
La frecuencia mínima de muestreo (fm) para poder reconstruir la señal
ha de ser el doble de la frecuencia de la señal (fseñal) a medir. Más,
para que la reconstrucción sea fiable, se deberá tomar muestras a una
frecuencia unas 10 veces superior a la de la señal a evaluar.

En la Figura siguiente se observa una señal sinusoidal, que es muestreada con dos
medidas por ciclo y su reconstrucción mediante los dos métodos que más se usan
(reconstrucción de orden cero y reconstrucción de orden uno)

La reconstrucción de orden cero, es la salida


directa de un conversor analógico digital;
mientras que la de orden uno es la
interpolación simple mediante rectas, de
modo que la señal se aproxima más a la
original.

Como se observa en la Figura anterior, aplicando el teorema de Nyquist se puede


saber al menos la frecuencia de la señal medida, aunque no su tipo, ni si el muestreo
es eficaz o no.

Efectos de Aliasing

El aliasing se produce cuando la frecuencia de muestreo (fm) es menor que la


frecuencia de la señal (fseñal), y se refiere al hecho de que se puede interpretar de
una manera no exacta la señal, apareciendo un "alias" de la señal (de ahí el término).
Este efecto se pone de manifiesto en la siguiente figura:

Figura 16. Efectos de Aliasing

Como se aprecia, al tomar varias muestras con un periodo de muestreo superior al de


la señal medida, se llega a creer que la señal tiene una frecuencia mucho menor de la
que realmente tiene. En este efecto también influyen los armónicos, señales que
32
interfieren con la señal a medir, de modo que pueden aparecer señales de alta
frecuencia superpuestas, como ruido y otras senoidales (armónicas), que
aparentemente no son ruido, pero que también afectan a la señal bajo medida. Por
tanto, cualquier frecuencia de muestreo excesivamente baja nos da información falsa
sobre la señal.

OTROS CONCEPTOS DE ADQUISICIÓN DE SEÑALES

Estabilidad de la tensión de referencia.

Los conversores usan varios métodos para digitalizar la señal, pero siempre respecto
a una tensión de referencia. En los casos en los que la señal de referencia sea
externa, se deberá tener en cuenta los siguientes aspectos:
 Usar un elemento que de una tensión con poca deriva térmica.
 Adecuar la impedancia de salida de la referencia a la impedancia de entrada
del convertidor.
 Filtrar adecuadamente la salida de la referencia, así como la tensión de
alimentación que se le aplica.

Filtrado de las líneas de alimentación.

Es imprescindible que las líneas de alimentación estén debidamente desacopladas


con el uso de condensadores. Además del típico condensador electrolítico, que es
adecuado para atenuar las fluctuaciones de la alimentación debidas al rizado de red,
es imprescindible añadir condensadores cerámicos de unos 100 nF próximos al
convertidor, para evitar los transitorios de alta frecuencia.

Trazado adecuado y separado de la alimentación analógica y digital.

Este aspecto, que muchas veces no se tiene en cuenta, es fundamental y puede llegar
a dar muchos problemas, sobre todo cuando se mide tensiones del orden de 1 o 2 mV.

El problema se debe a que los conductores de alimentación tienen una resistencia no


nula, y si hay microcontroladores aparecerán en la alimentación picos de intensidad de
la misma frecuencia. Estos picos generarán caídas de tensión al circular por las pistas
de la placa, y estas tensiones harán que el nivel de masa fluctúe, con el consiguiente
efecto en la circuitería analógica. En resumen, se puede indicar lo siguiente:
 Las pistas de masa han de ser anchas y ocupar la mayor extensión posible
(planos de masa).
 Debe haber dos planos de masa separados, uno para los circuitos digitales y
otro para los analógicos.
 Los planos de masa deben conectarse en un sólo punto, que habitualmente es
la masa del conector de alimentación.
o Si es posible, usar dos reguladores separados para cada uno de los
bloques (analógico y digital).

33
o Tanto si se usa un regulador, como si se usan dos es necesario dividir
las líneas de alimentación del mismo modo que las de masa, esto es,
con una conexión en estrella.

DISPOSITIVOS DE ADQUISICIÓN DE DATOS

Hoy en día, muchas compañías en la industria de la manufactura usan PC personales


en sus plantas y laboratorios para probar sus productos, tomar mediciones y
automatizar procesos. Al crear sistemas basados en una PC, los usuarios están
aprovechando las ventajas de las tecnologías de la computación más recientes como
tarjetas de adquisición de datos (DAQ) insertables, almacenamiento de datos a disco
duro, ActiveX e Internet. A medida que los técnicos adoptan la PC para resolver un
mayor número de aplicaciones, éstas se han vuelto más exigentes; tal es el caso de
los sistemas en tiempo real. Si bien es cierto que un sistema de adquisición de datos y
control en tiempo real no es fácil de lograr con una computadora personal, lo ideal
sería contar con las mismas ventajas que ofrece una PC (interfaz gráfica, sistemas
abiertos, conectividad, bajo costo) y la habilidad de crear aplicaciones lo
suficientemente confiables para desempañar el control de un sistema crítico.

En una primera aproximación, se puede dividir las tarjetas de adquisición de datos


genéricas en los bloques básicos indicados en la siguiente Figura.
• Entradas analógicas: Se realiza la conversión a valores discretos de las señales
analógicas de entrada.
• Salidas analógicas: Se convierten valores discretos en señales analógicas. En la
figura se puede observar dos canales de salida analógicos.
• Entradas/salidas digitales: Para la adquisición/generación de señales digitales.
• Control: Circuitería encargada de controlar todo el flujo de datos entre los distintos
bloques incluyendo la temporización de las conversiones A/D y D/A.
• Interfaz con el bus: Se encarga de realizar las tareas de comunicación entre la
tarjeta y el bus del ordenador.

Figura 17. Diagrama de bloques de un dispositivo de adquisición de datos


34
Entradas Analógicas
Esquema básico de entrada analógica de una tarjeta DAQ:

Figura 18. Diagrama de bloques de Entradas Analógicas

MULTIPLEXADO ANALÓGICO

Los equipos de instrumentación que constan de varios canales incluyen en su mayoría


multiplexores analógicos que permiten abaratar el coste por canal.

Figura 19. Multiplexado Analógico

• El A/D toma una muestra de un canal e inmediatamente el multiplexor se encarga de


conmutar la entrada del conversor para capturar la señal del siguiente canal.
• Esto significa que la velocidad de muestreo hay que dividirla entre el número de
canales multiplexados.
Por ejemplo: Tarjeta de adquisición, 8 canales, frecuencia de muestreo
máxima 100KHz. Si se desea muestrear los 8 canales, la máxima
frecuencia por canal será de 12,5 KHz.

Bibliografía
 http://www.monografias.com/trabajos17/sistemas-adquisicion-dato/sistemas-
adquisicion-dato.shtmldato.shtml
 Texas Instruments: "Understanding Data Converters Application Report", 1997, ref
nº SLA013
 Pallás Areny, Ramón: "Adquisición y Distribución de Señales". Editorial Marcombo.

35

You might also like