You are on page 1of 8

La visión artificial Una mirada hacia el futuro

Para producir sus productos de manera más eficiente, los fabricantes automatizar muchas de las
funciones que ahora delegadas a operadores humanos
Andrew Wilson , Editor
Imagina un mundo en el que las tareas laboriosas y repetitivas, una vez llevadas a cabo por el
hombre son reemplazados por máquinas autónomas. Un mundo en el que los cultivos se cosechan de
forma automática, clasificar, procesar, inspeccionados, embalados y entregados sin la intervención
humana. Aunque este concepto parece ser el reino de la ciencia ficción, muchos fabricantes ya
emplean sistemas de inspección automatizados que incorporan componentes OEM, como la
iluminación, cámaras, digitalizadores de vídeo, robots y software de visión artificial para aumentar la
eficiencia y la calidad de sus productos.
Si bien es efectivo, estos sistemas sólo representan una pequeña fracción de un mercado de visión
artificial que se ampliará para abarcar todos los aspectos de la vida a partir de cultivos de cosecha y
minerales para la entrega de los productos fabricados a partir de ellas directamente a las puertas de
los consumidores. En un futuro que exige una mayor eficiencia, los sistemas de visión artificial se
utilizan en sistemas que automatizan los procesos de producción enteras, eliminando efectivamente
la mano de obra y los errores que ello conlleva.
Sistemas de visión robótica guiada por visión desempeñarán un papel cada vez más importante en
este tipo de sistemas a medida que se capaz de tareas tales como la agricultura automatizado, la cría
de animales, y el seguimiento y el análisis de los cultivos. Vehículos autónomos que incorporan la
visión, IR y cámaras de ultrasonido serán entonces capaces de suministrar estos productos a ser
tratados posteriormente. Máquinas de clasificación automatizadas y sistemas de carne de corte A
continuación, preparar el producto para su posterior procesamiento. Después de que muchas de las
máquinas que están en uso hoy en día será aún más el proceso y envasar estos productos para la
entrega, una vez más por los vehículos autónomos. En este futuro, los clientes de los supermercados
no encontrarán personal de pago, ya que serán reemplazados por sistemas de visión automáticos que
escanean, pesar y comprobar cada producto.
Ambientes sin restricciones
Sistemas de visión artificial de hoy en día a menudo se implementan en entornos restringidos donde
la iluminación puede ser controlada con cuidado. Sin embargo, el diseño de sistemas de robótica
guiada por visión para las tareas agrícolas como siembra, cuidado y cosecha de los cultivos exige
que tales sistemas deben operar en ambientes sin restricciones, donde la iluminación y las
condiciones meteorológicas pueden variar dramáticamente. Para ello, requiere que los sistemas que
incorporan una serie de diferentes técnicas de imagen dependiendo de la aplicación a realizar.
Actualmente el tema de muchos proyectos de investigación, estos sistemas actualmente dividen a las
tareas agrícolas en los sistemas automatizados de esa planta, tierna y cosecha. Puesto que cada tarea
será dependiente de la aplicación, también lo hará los tipos de sensores que se utilizan en cada
sistema. Para la recolección de cultivos, por ejemplo, es necesario para determinar el color de cada
fruta para determinar su grado de madurez. Para la cosecha de cultivos como el trigo, puede que sólo
sea necesaria para guiar un sistema autónomo a través del terreno.
En tales sistemas, los sistemas de visión artificial que utilizan los sistemas de visión estéreo, LIDAR,
el INS y los sistemas GPS y software de visión artificial se utilizarán para la ruta de la planificación
de la cartografía y la clasificación de los cultivos. Estos sistemas están actualmente en desarrollo en
muchas universidades e institutos de investigación de todo el mundo (véase "Visión Artificial en
Robótica Agrícolas - Una breve visión general" - http://bit.ly/19MHn9M ), por Emil Segerblad y
Björn Delight, de la Universidad Mälardalen ( Västerås, Suecia; www.mdh.se ).
En muchos de estos sistemas, los sistemas de visión 3D juegan un papel clave. En el desarrollo de un
sistema de planificación de ruta, por ejemplo, John Reid, de Deere & Company (Moline, IL,
EE.UU.;www.deere.com ) ha utilizado una cámara estéreo 22 cm de línea de base a partir de Tyzx
(Menlo Park, CA, EE.UU.; www . tyzx.com ) montado en la parte delantera de un vehículo utilitario
Gator de Deere con capacidades de dirección automática para calcular la posición de los posibles
obstáculos y determinar un camino que para el regulador de la dirección de a bordo del vehículo
(http://bit.ly/1bRFQAX ).
Orientación Robótica
Mientras que los sistemas 3D se pueden utilizar para ayudar a la orientación de los vehículos
autónomos, la cartografía 3D también puede ayudar a la fumigación de cultivos, realizar análisis de
rendimiento y detectar daños a los cultivos o enfermedad. Para llevar a cabo estas tareas de mapeo,
Michael Nielsen y sus colegas en el Instituto Tecnológico Danés (Odense, Dinamarca; www.dti.dk )
utilizado un GPS de Trimble, un telémetro láser SICK (Minneapolis, MN, EE.UU.; www.sick.com )
una cámara estéreo y un sensor de inclinación del VectorNav Tecnologías (Richardson, TX,
EE.UU.;www.vectornav.com ) montados en un vehículo equipado con una luz de inundación del
halógeno y un encargo de xenón estroboscópico. Después de escanear filas de árboles de durazno, la
reconstrucción 3D de un huerto se realizó mediante el uso de sensores de inclinación corregido
posiciones GPS interpoladas a través de pasos de encoder ( http://bit.ly/1fxp36W ).
Mientras que la cartografía en 3D puede determinar trayectorias de ruta, campos y huertos del mapa,
también puede ser clasificar las frutas y plantas. De hecho, este es el objetivo de un sistema
desarrollado por Ulrich Weiss y Peter Biber en Robert Bosch (Schwieberdingen,
Alemania;www.bosch.de ). Para demostrar que es posible distinguir múltiples plantas utilizando un
sensor láser de baja resolución 3D, un sensor de FX6 de Nippon de señal (Tokio,
Japón; www.signal.co.jp ) se utilizó para medir la distancia y la intensidad de reflectancia de las
plantas utilizando una luz infrarroja láser pulsado con una precisión de 1 cm. Después de la
reconstrucción 3D, aprendizaje supervisado se utilizaron técnicas para identificar las plantas
( http://bit.ly/19ALVMM ).
Cosecha Mecanizada
Una vez identificados, los robots y los sistemas de visión se emplearán para la cosecha de forma
automática este tipo de cultivos. Tal sistema de cosecha las fresas, por ejemplo, ha sido desarrollado
por Guo Feng y sus colegas de la Universidad Jiao Tong de Shanghai (Shanghai,
China;www.sie.sjtu.edu.cn ). En el diseño del sistema, un sistema de imágenes de dos cámaras se
montó sobre un robot de recolección diseñado para recoger fresas. A 640 x 480 DXC-151A de Sony
(Park Ridge, Nueva Jersey, EE.UU.; www.sony.com ) montado en la parte superior del marco de
robot capta imágenes de 8-10 fresas. Otra cámara, un 640 x 480 EC-202 II de Elmo (Plainview, NY,
EE.UU.;www.elmousa.com ) se instaló en el efector final del robot a la imagen de una o dos fresas.
Mientras la cámara Sony localiza la fruta, la cámara captura imágenes de Elmo de fresas en una
resolución más alta. Imagen de ambas cámaras fueron capturados luego de una tarjeta de adquisición
PCI FDM-MULTI de Photron (San Diego, CA, EE.UU.; www.photron.com ) interfaz con un
PC. Una lámpara fluorescente en forma de anillo se instala alrededor de la cámara local proporcionó
la iluminación estable requerida para la ubicación de frutas ( http://bit.ly/16mWhmq ).
Aunque muchos de tales sistemas robóticos están todavía en las primeras etapas de desarrollo, las
compañías como Wall-Ye (Mâcon, Francia; http://wall-ye.com) han demostrado la utilidad práctica
de este tipo de sistemas. Energía solar robot de poda de vid de la empresa Wall-Vosotros incorpora
cuatro cámaras y un sistema de GPS para realizar esta tarea (Figura 1). Un video del robot en acción
se puede ver en http://bit.ly/QDFy1q .

Figura 1: Wall-Ye es un robot de la poda de la vid con energía solar
que incorpora cuatro cámaras y un sistema GPS.
Clasificación de cultivos
Sistemas de visión artificial también están desempeñando un papel cada vez más importante en la
clasificación de los cultivos, una vez cosechados. En muchos sistemas, esto requiere el uso de
análisis de imagen multiespectral. De hecho, este es el enfoque adoptado por Olivier KLEYNEN, y
sus colegas en el Universitario de Ciencias Agronómicas de Gembloux (Gembloux,
Bélgica;www.gembloux.ulg.ac.be ) en un sistema para detectar defectos en las manzanas
cosechadas.
Para lograr esto, un MultiSpec Agro-Imager desde ópticas Insights (Santa Fe, Nuevo México,
EE.UU.;www.optical-insights.com ) que incorpora cuatro interferencia filtros de paso de banda de
Melles Griot (Rochester, NY, EE.UU.; www.cvimellesgriot. com ) se acopló a una cámara digital
CV-M4CL 1280 x 1024 píxeles monocromo de JAI (San Jose, CA, EE.UU.; www.jai.com ). En la
operación, los proyectos de Agro-Imager multi-Spec en un solo sensor CCD cuatro imágenes del
mismo objeto que corresponde a cuatro bandas espectrales diferentes. Equipada con una lente
Schneider Cinegon de Óptica (Hauppauge, Nueva York, EE.UU.; www.schneideroptics.com ,
imágenes de la cámara a continuación, fueron adquiridos utilizando un capturador de Camera Link
marco Grablink Valor de Euresys (Angleur, Bélgica; www.euresys.com .) Hyper- imágenes
espectrales se utilizaron luego para determinar la calidad de la fruta ( http://bit.ly/19nGkdG ).
Otros métodos tales como el uso de cámaras SWIR también se han usado para propósitos
similares.Renfu Lu de la Universidad Estatal de Michigan (East Lansing, MI,
EE.UU.: www.msu.edu ), por ejemplo, ha demostrado cómo un conjunto de cámaras área de InGaAs
UTC Aerospace Systems (Princeton, NJ, EE.UU.; www.sensorsinc.com ) que cubre el rango
espectral de 900-1700nm montado a un espectrógrafo de imágenes del Specim (Oulu,
Finlandia; www.specim.fi ) puede detectar contusiones en las manzanas ( http://bit.ly/zF8jlN ).
Mientras que los robots de picking de cultivos aún no han sido plenamente efectivos, los que se
utilizan para clasificar y ordenar las frutas ya no son el reino de trabajos de investigación
científica.De hecho, numerosos sistemas ahora Productos de calidad y clasificación van desde las
papas, las fechas, las zanahorias y naranjas. Si bien muchos de estos sistemas utilizan productos
basados en la luz visible para estas tareas, otros incorporan análisis de imágenes multiespectrales.
El año pasado, por ejemplo, Com-N-Sense (Kfar Monash, Israel; www.com-n-sense.com ) se asoció
con Lugo Ingeniería (Talme Yaffe, Israel; www.lugo-engineering.co.il ) para desarrollar un sistema
capaz de clasificación automática de las fechas ( http://bit.ly/KN2ITf ). El uso de las luces del techo
difusas de la metafase (Bristol, PA, EE.UU.; www.metaphase-tech.com ) y cámaras de color
Prosilica 1290C GigE Vision de Allied Vision Technologies (Stadtroda,
Alemania; www.alliedvisiontec.com ), el sistema es capaz de clasificar fechas a velocidades tan
rápido como 1.400 fechas / min.
Análisis de imágenes multiespectrales también está siendo utilizado para llevar a cabo tareas de
clasificación. En Insort (Feldbach, Austria; www.insort.at ), por ejemplo, una cámara multiespectral
de EVK DI Kerschhaggl, Raaba, Austria; www.evk.co.at ) se ha utilizado en un sistema para
clasificar las patatas, mientras que Odenberg (Dublín , Irlanda; www.odenberg.com ) ha desarrollado
un sistema que puede ordenar las frutas y hortalizas utilizando un espectrómetro NIR
( http://bit.ly/zqqr38 ).
Empaque y embalaje
Después de la clasificación y la clasificación, estos productos deben ser empacados y envueltos para
su envío. A menudo, esto requiere que los cultivos se embalan y se envuelven por los operadores
humanos manualmente. Alternativamente, se pueden transferir a otros sistemas automatizados que
pueden realizar esta tarea. Una vez lleno, estos bienes podrán ser inspeccionados por último, los
sistemas basados en la visión. En cualquier caso, se requieren varios pasos antes de que dichos
productos pueden ser enviados a su destino final.
En un esfuerzo por automatizar todo el proceso de clasificación, el envasado y la comprobación, la
Unión Europea ha anunciado un proyecto conocido como PicknPack ( www.picknpack.eu ) que
pretende unir a toda la cadena de producción (Figura 2). Iniciado en noviembre pasado, el sistema
constará de un sistema de detección para evalúa la calidad de los productos antes o después del
envasado, un sistema de manejo robótico controlado visión que recoge y separa el producto de un
contenedor o sistema de transporte de la cosecha y lo coloca en la posición correcta en un paquete y
un sistema de empaquetado de adaptación que puede acomodar varios tipos de envases. Cuando se
haya completado, la intervención humana se reduce a un mínimo.

Figura 2: Unir a todo el proceso de clasificación, el envasado y la
comprobación, la Unión Europea ha anunciado un proyecto conocido
como PicknPack.
Los vehículos no tripulados
Después de embalaje, por supuesto, estos productos deben ser transportados a su destino final. Hoy
en día, los vehículos tripulados se utilizan para realizar esta tarea. En el futuro, sin embargo, estas
tareas serán relegados a los vehículos autónomos. En la actualidad, dice el profesor William
Covington, de la Universidad de Washington Escuela de Derecho (Seattle, WA,
EE.UU.;www.law.washington.edu ) vehículos totalmente independientes que operan sin recibir
instrucciones de un servidor basado en datos de los mapas actualizados permanecen en el prototipo
de investigación etapa.
En 2020, sin embargo, Volvo espera que los coches sin accidentes y los "trenes de carretera" guiadas
por un vehículo plomo esté disponible. Otros fabricantes de automóviles como GM, Audi, Nissan y
BMW todos esperan coches totalmente autónomos, sin conductor que se encuentran disponibles
durante este período de tiempo. ( http://bit.ly/1ibdWxv ). Estos estarán equipados con sensores como
radar, lidar, cámaras, sistemas de infrarrojos y GPS para realizar esta tarea.
Retail automatizada
Mientras que los supermercados de hoy, se basan en gran medida en los lectores de códigos de
barras tradicionales a precio de objetos individuales, los futuros sistemas de check-out dará empleo a
la exploración sofisticada, con un peso y reconocimiento de patrones para revivir los operadores
humanos de dichas misiones.
Ya, Toshiba-TEC (Tokio, Japón; www.toshibatec.co.jp ) ha desarrollado un escáner de
supermercado que utiliza el reconocimiento de patrones para reconocer objetos sin el uso de códigos
de barras (http://bit.ly/18KCRXp ). Otros, como Wincor Nixdorf (Paderborn,
Alemania; www.wincor-nixdorf.com ) ha desarrollado un sistema totalmente automatizado conocido
como el Portal de escaneado que la compañía afirma que es el primer sistema totalmente automático
sea posible en el mundo de barrido (Figura 3). Un video del escáner en el trabajo se puede encontrar
en http://bit.ly/rSG5HB .

Figura 3: Wincor Nixdorf ha desarrollado un sistema totalmente
automatizado conocido como el Portal de escaneado que la compañía
afirma que es el primer sistema totalmente automático de escaneo
posible en el mundo.
Ya se trate de la clasificación de cultivos, recolección, clasificación, empaque, o el envío, los
sistemas robóticos automatizados afectará a la producción de cada producto hecho por el hombre, el
aumento efectivo de la eficiencia y la calidad de los productos y servicios a lo largo del
camino. Aunque la evolución en curso pueden hacer ese futuro una realidad, algunas de las
tecnologías necesarias todavía necesitan ser perfeccionados para esta visión a emerger.
Las empresas mencionadas
Allied Vision Technologies
Stadtroda, Alemania www.alliedvisiontec.com

Com-N-Sense
Kfar Monash, Israel www.com-n-sense.com

Tecnológico Danés Instituto
Odense, Dinamarca www.dti.dk

Deere & Company
Moline, IL, EE.UU. www.deere.com

Elmo
Plainview, NY, EE.UU. www.elmousa.com

EVK DI Kerschhaggl
Raaba, Austria www.evk.co.at

Euresys
Angleur, Bélgica www.euresys.com

Insort
Feldbach, Austria www.insort.at

JAI
San Jose, CA, EE.UU. www.jai.com

Lugo Ingeniería
Talme Yaffe, Israel www.lugo-engineering.co.il

Mälardalen Universidad
Västerås, Suecia www.mdh.se

Melles Griot
Rochester, NY, EE.UU. www.cvimellesgriot.com

Metafase
Bristol, PA, EE.UU. www.metaphase-tech.com

Michigan State University
East Lansing, MI, EE.UU. www.msu.edu

Nippon señal
Tokio, Japón www.signal.co.jp

Odenberg
Dublín, Irlanda www.odenberg.com

Optical Insights
Santa Fe, Nuevo México, EE.UU. www.optical-insights.com

Photron
San Diego, CA, EE.UU. www.photron.com

Robert Bosch
Schwieberdingen, Alemania www.bosch.de

Schneider Óptica
Hauppauge, NY, EE.UU. www.schneideroptics.com

Universidad de Shanghai Jiao Tong
de Shanghai, China www.sie.sjtu.edu.cn

ENFERMO
Minneapolis, MN, EE.UU. www.sick.com

Sony
Park Ridge, Nueva Jersey, EE.UU. www.sony.com

SPECIM
Oulu; Finlandia www.specim.fi

Toshiba TEC-
Tokyo, Japón www.toshibatec.co.jp

Tyzx
Menlo Park, CA, EE.UU. www.tyzx.com

Universitaire des Sciences
Agronómicas de Gembloux
Gembloux, Bélgica www.gembloux.ulg.ac.be

Universidad de Washington Escuela de Derecho de
Seattle, WA, EE.UU. www.law.washington.edu

UTC aeroespacial Sistemas de
Princeton, Nueva Jersey, EE.UU. www.sensorsinc.com

VectorNav Tecnologías
Richardson, TX, EE.UU. www.vectornav.com

Wall-Vosotros
Mâcon, Francia
http://wall-ye.com
Wincor Nixdorf
Paderborn, Alemania www.wincor-nixdorf.com