You are on page 1of 58

1­ TOUCH SIGHT.

Los últimos avances de la tecnología en la medicina casi permiten devolverles la vista a los no videntes. Ahora con
los avances tecnológicos en el área de equipos prácticamente se les ha devuelto el privilegio de la vista a las
personas que por a o b motivo perdieron la vista y así mismo a las personas que nacieron con esa limitación y que
han luchado toda la vida esa limitación.

Las personas no videntes por el simple hecho de no poseer los 5 sentidos han desarrollado en mayor proporción los
sentidos que poseen por ejemplo las personas ciegas desarrollan mucho mas el sentido del tacto, y en menor
proporción los restantes 3 sentidos pero si en mayor grado que una persona normal. Tomando como base lo anterior
expuesto los avances tecnológicos se basan en las oportunidades o características sobresalientes de la rama en la
que se está trabajando.

En el caso particular de las personas con vista limitada o nula se trabaja mucho lo que es el sentido del tacto y por
ello se han desarrollado muchas tecnologías basadas en esta característica por ejemplo podemos listar los
siguientes:

 Sistema de lectura braille.


 Impresora en braille.
 Teclado braille.

Se podría preguntar ¿Qué es el sistema Braille?

Cuando tenía 15 años, el joven Louis Braille (1809-1852), quien a tierna edad había quedado ciego como
consecuencia de un accidente, inventó un sistema de lectura y escritura por medio del tacto que consistía de puntos.

El braille, un verdadero alfabeto, consiste en leer moviendo la mano de izquierda a derecha, pasando por cada
línea. Los lectores de braille pueden leer un promedio de 104 a 125 palabras por minuto, aunque algunos pueden
alcanzar a leer 250 palabras por minuto utilizando ambas manos.

El tamaño y distribución de los 6 puntos que forman el llamado Signo Generador no es un capricho sino fruto de la
experiencia de Braille. Las terminaciones nerviosas de la yema del dedo están capacitadas para captar este tamaño
en particular.

El Signo Generador sólo permite 64 combinaciones de puntos, siendo insuficientes para la variedad de letras,
símbolos y números de cada idioma.

Esta limitación obligará a la invención de los llamados "símbolos dobles". Se intentó utilizar un símbolo braille de
8 puntos (lo que aumentaría considerablemente el número de combinaciones posibles), pero resultaba incómodo
para la lectura.

Los puntos negros pequeños son los puntos del signo generador que no están en relieve, sólo se dibujan para una
mejor comprensión de cada símbolo.

signo
mayúsculas

Mayúsculas (Símbolo Doble).- Precedidos del signo de mayúsculas, las mayúsculas se forman utilizando las letras
del alfabeto. Por ejemplo:

Conociendo cómo funciona el sistema braille se dará a conocer una de las más novedosas tecnologías llamada Vista
de Toque.

Touch Sight es un concepto bastante interesante creado por Chueh Lee, un diseñador de Samsung China. Se trata
de una cámara especialmente diseñada para no videntes. Aunque este concepto pueda sonar un poco extraño al
principio, casi cruel, la idea es bastante factible. Para hacer posible esta cámara se usaría una pantalla táctil, es
decir, una pantalla en los cuales los píxeles que la forman se elevan y se hunden para formar la imagen en
bajorrelieve.

Además de su pantalla única, Touch Sight incluiría otras características especialmente adaptadas para facilitar su
uso a los no videntes. Una sería su sencillez de uso, con pocos botones grandes capaces de hacer todo el trabajo.
Además, al tomar cada foto, además de la imagen, la cámara capturaría 3 segundos de audio. Esto les permitiría a
los usuarios reconocer rápidamente las fotos y navegar entre ellas sin necesidad de verlas.

Las cámaras podrían pasar su contenido a un ordenador y pasárselo unas a otras por Internet. Según el diseñador,
que estuvo haciendo estudios en un centro para ciegos en Israel, son muy buenos en fotografía, a diferencia de lo
que se podría esperar. Esto se debe a que usan sus otros sentidos para calcular distancia e iluminación de una
manera bastante precisa. Esperamos que esta cámara se desarrolle y les permita a los no videntes entretenerse con
la fotografía como todos nosotros.

Aunque técnicamente no usa braille, sino que más bien un sistema de pixeles en relieve,
este concepto de cámara desarrollado por el diseñador Chueh Lee de Samsung China, usa
una idea similar al del sistema de escritura para ciegos para lograr su cometido. Como para
los no videntes una pantalla LCD es completamente inútil, en la Touch Sight su lugar es
ocupado por una superficie flexible llena de pequeños puntos. Al encuadrar una escena,
estos puntos forman una imagen en relieve, la cual le permite al fotógrafo sentir con su
frente lo que desea capturar.

CÓMO UTILIZARLA

Chueh descubrió en su investigación que la posición óptima para la cámara, era sujetarla
contra la frente, como si se tratara de un tercer ojo. El hallazgo lo realizó al analizar a un
instructor de fotografía en el Beit Ha’iver (Centro para el Ciego) en Herzliya, Israel.

El profesor de una clase de fotografía para no videntes enseñaba que al poner la cámara en
la frente, se podía estabilizar el objetivo de la máquina. Además descubrió que, como los
ciegos agudizan sus otros sentidos, no tenían mayor inconveniente para estimar distancias,
utilizando el oído o determinar fuentes de luz, a través del calor, con lo cual crean
una imagen mental de su entorno y que la Touch Sight es capaz de captar a través de sus
relieves.

Actualmente Touch Sight no está a la venta por efectos de prueba se espera su próximo lanzamiento mundial
dentro de unos meses, y de la cual se espera un gran impacto por lo que significa una oportunidad para las personas
no videntes.
2­ MICROPROCESADORES MULTINÚCLEOS
La fuerte competencia en el mundo de los procesadores, especialmente entre Intel y AMD, ha producido que la
tecnología actual de fabricación de procesadores esta llegando a sus límites. Cada vez la miniaturización de los
componentes del procesador es más difícil (el límite de construcción del silicio ronda los 15-20nm, donde el silicio
empieza a ceder por falta de consistencia, ya se ha llegado a los 45nm), el problema de la generación de calor a
aumentado, produciendo que sea más difícil aumentar la frecuencia principal del procesador.

Antecedentes de los procesadores multinúcleo: Los procesadores multinúcleo se basaron en los sistemas
distribuidos, la computación paralela, y las tecnologías como el Hyperthreading; que mostraban como dividir el
trabajo entre varias unidades de ejecución. Procesamiento en Paralelo El procesamiento en paralelo es la división
de una aplicación en varias partes para que sean ejecutadas a la vez por diferentes unidades de ejecución. Sistemas
distribuidos: Aplicaciones cliente – servidr HyperThreading Esta tecnología fue creada por Intel, para los
procesadores Pentium 4 más avanzados. El Hyperthreading hace que el procesador funcione como si fuera dos
procesadores. Esto fue hecho para que tenga la posibilidad de trabajar de forma multihilo (multithread) real, es
decir pueda ejecutar muchos hilos simultáneamente. El primer procesador multinúcleo en el mercado fue el IBM
Power 4 en el año 2000. Una alternativa a los procesadores multinúcleo son los sistemas multiprocesadores, que
consisten en una placa madre que podía soportar desde 2 a más procesadores. El rendimiento es bastante bueno,
pero también es bastante caro.

Los procesadores multinúcleo son un procesador que contiene dentro de su empaque a varios núcleos o "cerebros”,
un procesador multinúcleo puede repartir los procesos entre sus varios cerebros para su posterior ejecución; por eso
las aplicaciones que sacan más provecho de estos procesadores multinúcleo son aquellas que pueden generar
muchos hilos de ejecución (thread) como las aplicaciones de audio/video, cálculo científico, juegos, tratamiento de
gráficos en 3D, etc Las aplicaciones que no se dividen en hilos de ejecución, no aprovechan por completo estos
procesadores. Pero estos procesadores pueden ejecutar varias de estas aplicaciones al mismo tiempo.

Los Pentium D están conformados por dos procesadores Pentium 4 Prescott sin Hyperthreading. Luego Intel sacó
el Pentium Extreme Edition (No confundir con el Pentium 4 Extreme Edition) que era un procesador que tenía los
procesadores P4 Prescott, con la tecnología Hyperthreading, lo que hacia que el software viera( simulara) cuatro
procesadores. Contaban con arquitectura Netbust que proviene de los procesadores de la rama de los Pentium 4. El
procesador que contiene dos núcleos Prescott se llama Smithfield con Velocidad desde 3.20GHz Se fabricaron
luego otros procesadores de doble núcleo Pentium D llamados Presler, con tecnología de fabricación mas pequeños
y van hasta 3.73Ghz.

Intel Core Duo es un microprocesador lanzado en enero del 2006 por Intel con dos núcleos de ejecución,
optimizado para las aplicaciones de subprocesos múltiples y para multitarea. Puede ejecutar varias aplicaciones
exigentes simultáneamente, como juegos con gráficos potentes o programas que requieran muchos cálculos, al
mismo tiempo que puede descargar música o analizar su PC con su antivirus en segundo plano, por ejemplo. Un
modelo anterior a Core 2 Duo y posterior a los Pentium D es el 'Dual Core Inside' que es un Core Duo pero le fue
puesto ese nombre (Dual Core inside). Se diferencia de los Core 2 Duo por que su caché es de sólo 1 mb con un
bus frontal de 800 Mhz, mayor al Core Duo . Velocidad va hasta 2.33Ghz(pionero en arquitectura core) Intel Core
Duo es el primer microprocesador de Intel usado en las computadoras Apple Macintosh. Gasto de energía va desde
9.0w hasta 31w lo cual es relativamente poco. Implementa un nuevo juego de instrucciones para multimedia
(SSE3) y mejoras para las SSE y SSE2. Existe también una versión con sólo un nucleo denominada Core Solo.

Core2 Duo: Lanzada en julio del 2006 esta familia de procesadores de Intel esta basado en la microarquitectura
Core, que reemplaza a la antigua microarquitectura Netburst. La arquitectura Core proviene de la arquitectura que
produjo al Pentium M (utilizado por los Intel Centrino), que destaca por el gran rendimiento que obtiene de la poca
energía que gasta. El Pentium M además proviene del Pentium III, y este del Pentium Pro (Los Pentium 4 son una
rama genealógica aparte). Existen 3 subfamilias dentro de los Core2 Duo: Meron(Centrino), Conroe para equipos
de escritorio y WoodCrest para servidores. Los Core2 Duo corren a frecuencias más bajas que los Pentium 4; pero
ofrecen un excelente rendimiento por su arquitectura mas eficiente y su particular facilidad para aplicar
overclok.(comparando los 3.2Ghz del Core2 Duo con los 3.8 de un Pentium 4). Una característica de estos
procesadores es la “macrofusion” que permite el procesamiento y carga de pares de instrucciones como si fueran
una sola. Una diferencia es la forma como trabajan sus núcleos es que: en el dual core sus núcleos trabajan de
manera alterna, mientras que en el core 2 dúo sus núcleos trabajan de manera simultánea dando un mayor
rendimiento.

Intel Pentium Dual Core: fue Introducido a principios del 2007 fue diseñado para trabajar en entornos moviles
(Laptops) y en equipos de escritorio (Desktops) , permitiendo la ejecución de aplicaciones múltiples, a un bajo
costo, un bajo consumo energético y sin sacrificar el desempeño de la computadora. Este procesador es un Core 2
Duo, pero en su lanzamiento se le puso ese nombre (Pentium Dual Core) Los procesadores Pentium Dual Core se
pueden considerar procesadores de gama baja (y menor rendimiento: velocidades hasta 2.0 Ghz) basados en la
arquitectura de Core 2 ademas tienen un caché reducido comparado con los core2 Duo.

Intel Celeron Dual-Core: Es un procesador de la familia Dual –Core introducido en enero de 2008, cuenta con
características similares a los Pentium Dual core y Core2 Duo, aunque con un precio accesible.

El Athlon 64 X2: El Athlon 64 tuvo gran éxito, por lo que fue tomado como base para la construcción de su
procesador de doble núcleo Athlon 64 X2. Bus HyperTransport de 2000 Mhz, esta tecnología HyperTransport:
proporciona comunicacion de E/S de alta velocidad. Soporte de memoria DDR2 a partir de los modelos AM2 y
conjunto de instrucciones SSE3.

AMD Turion 64 X2: El procesador AMD Turion 64 X2 es la versión de doble núcleo del Turion y por tanto la
versión de bajo consumo para portátil del AMD Athlon 64 X2 y constituye la respuesta comercial de AMD a la
plataforma Centrino Core Duo de Intel. Fue la primera CPU para portátiles en combinar doble núcleo y 64 bits.
Bus de HyperTransport de 800 – 1600 Mhz. Menos pines que el Turion 64 por eso es físicamente mas pequeño. Al
igual que en los Turion y a diferencia de la plataforma Centrino, AMD favorece la utilización de chips de terceros
para chipset (NVIDIA nForce Go 4x0, ATI Radeon Xpress 1100) o WiFi.

Intel Core 2 Quad o Intel Quad Core: Este procesador se desarrollo al incluir 2 núcleos Conroe bajo un mismo
empaque y comunicarlos mediante el Bus del Sistema, para así totalizar 4 núcleos reales. Los 2 modelos que se
desarrollaron donde se incluyeron los núcleos conroe y sus caracteristiczas son las siguientes: Núcleo Kentsfield:
65nm, 3.0Ghz, 1333Mhz y 8MB L2. Núcleo Yorkfield: 45nm, 3.2Ghz, 1600 Mhz y 12MB L2. Con la introducción
del núcleo Penryn, Intel tiene planeado introducir un modelo Quad Core para el mercado movil en conjunto a la
plataforma móvil Centrino 2.

Xeon Dual Core(servidores) con tecnología de doble núcleo. Intel afirma que este procesador brinda un 80% más
de rendimiento por vatio y 60% más rápido que la competencia. Este procesador es altamente preferido por los
jugadores de videojuegos de computadoras. Intel fue altamente criticado por esto. Este procesador sustituyó al
veterano y caluroso PowerPC en las estaciones de trabajo MacPro y los servidores XServe de Apple.

El AMD Quad Core: es un microprocesador con tecnología de cuatro núcleos. Esta


disponible en las siguientes versiones: Barcelona: 1.7 -2.0 Ghz, para servidores. Phenom:
Versión de 4 núcleos para equipos de escritorio y pretende ser la competencia de los Core 2
Duo y de los Quad Cores. Phenom(series FX), Phenom de cuádruple núcleo (series 9)y Phenom de triple
núcleo (series 7). Esta familia también esta relacionada con los procesadores Athlon de doble núcleo (series 6).
AMD Quad FX: AMD saca al mercado los procesadores de Plataforma AMD Quad FX con
Arquitectura de Conexión Directa de Doble Socket. Cuenta con 3 enlaces de tecnología
HyperTransport (buses).

AMD K10: generación reciente de los microprocesadores AMDx86.(tercera generación de Opteron) salieron
meses después de que AMD presentara sus microprocesadores Phenom. Soporta 3 – 4 Cores.
Otros procesadores Microprocesador Cell: La PlayStation 3 utiliza microprocesador Cell diseñado por IBM
como su CPU, de los 8 "Synergistic Processing Elements” (a menudo abreviado SPE) 7 son utilizados en la
consola. La octava SPE se deshabilitó para reducir costes. Sólo seis de las siete SPEs son accesibles a los
desarrolladores, una está reservada para el sistema operativo. El PPE es el núcleo principal, este se encarga de
coordinar el trabajo de todos los demás núcleos (SPEs), la velocidad a la que llega es de 4.8Ghz

Actualmente Intel y AMD están ofreciendo sus procesadores de 4 núcleos,. En los siguiente años saldrán sus
procesadores 8 núcleos , etc. Intel prevé llegar a construir un procesador de 32 núcleos para el 2010.

IBM esta desarrollando el procesador Kilocore, un procesador que tiene un núcleo principal PowerPC que maneja
a 1024 núcleos auxiliares pequeños de 8 bits.

IBM ha fabricado, en experimentos, chips con la tecnología SiGe (tecnología que añade al silicio, mediante
procesos nanotecnológicos, capas de germanio, para mejorar sus propiedades electrónicas) que pueden alcanzar
500GHz con el cero absoluto, previendo que pueden llegar a 350 Ghz a temperatura ambiente.
Procesador de silicio híbrido láser: detecta, enruta y modula la luz, pero no la produce está en fase
de prueba.
3­ RESUMEN DE ROBOTS AGRICULTORES

La Robótica es una tecnología multidisciplinar, ya que hace uso de los recursos que le proporcionan
otras ciencias, ya que en el proceso de diseño y construcción de un robot intervienen muchos
campos pertenecientes a otras ramas de la ciencia (Mecánica, Electrónica, Informática,
Matemática).

Los robots comienzan a fabricarse para tareas muy específicas después de la Segunda Guerra
Mundial. Como por ejemplo los que se necesitaban en las investigaciones espaciales

(Como el Surveyor que aterriza en la Luna, en 1966, o el Viking, que aterriza en Marte diez años
después) para aquellas funciones en las que se exigían ciertas destrezas para resolver situaciones
no completamente definidas, o las que se requerían para trabajar en ambientes altamente nocivos
para la vida humana como las centrales nucleares, en condiciones térmicas no soportable o ciertos
ambientes químicos o biológicos de alta toxicidad.

CLASIFICACION DE LOS ROBOTS

Generaciones

• Robots Play-back
• Robots controlados por sensores
• Robots controlados por visión
• Robots controlados adaptablemente
• Robots con inteligencia artificial

Nivel de Inteligencia

• Dispositivos de manejo manual


• Robots de secuencia arreglada
• Robots de secuencia variable
• Robots regeneradores
• Robots de control numérico
• Robots inteligentes

Los programas en el controlador del robot pueden ser agrupados de acuerdo a

• nivel de control
• nivel del lenguaje de programación

DIVISIONES DE LA ROBOTICA

Según el desarrollo histórico comentado, los ayudantes mecánicos del hombre se pueden dividir en
los siguientes dos grupos:

• Tradicionales: centradas básicamente en la industria manufacturera


• Innovadores: cuya mayoría está centrada en el sector servicios
Industrial: su mayor parte es asistida por ordenador, para así poder reprogramarse cuando se desee
cambiar la función de dicho robot

Servicios: son aquellos que realizan servicios en beneficio de los humanos o para el mantenimiento
de infraestructuras y equipos, excluidas las operaciones de fabricación

Militar: proporciona un aliado importante puesto que puede añadir funciones de vigilancia o
combate sin representar un coste de vidas humano

APLICACIONES

Aplicaciones industriales

• Limpieza industrial
• Agricultura
• Transporte de mercancías

Aplicaciones de Innovación y Servicio

• Medicina
• Domésticos y de oficina
• Ocio y de entretenimiento

PARTES DE UN ROBOT

Los componentes de los robots, desde un punto de vista general, y desde un punto de vista
industrial. Como todo dispositivo funcional, los robots tienen una estructura formada por diferentes
sistemas o subsistemas y componentes.

Si observamos la forma y el funcionamiento de los diferentes tipos de robots podemos deducir que
todos tienen algo en común:

• La estructura o chasis
• Las fuentes de movimiento
• Los medios de locomoción
• Mecanismos especiales para sostener herramientas o piezas
• La fuente de alimentación
• Los sensores
• Los circuitos de control son el "cerebro" del robot

En los sistemas automáticos de manipulación de piezas u objetos podemos distinguir tres partes
estructurales muy bien definidas.

• La primera es la máquina propiamente dicha, o sea todo el sistema mecánico y los motores o
actuadores y el sistema de agarre o sujeción de los objetos.

• Los sensores de fuerza, visión y sonido son detectores necesarios para que la máquina sepa
exactamente el estado de todas las variables que precisa para una correcta actuación.
• El sistema de control y el lenguaje de programación forman el sistema de toma automática
de decisiones, que incluye la planificación, el control de los movimientos y la interpretación
de los datos que aportan los sensores.

ROBOTS AGRICULTORES

La robótica agrícola es la proliferación lógica de la tecnología de la automatización aplicada a


biosistemas tales como la agricultura, la silvicultura, las industrias pesqueras y otras afines.

Estos robots pueden detectar plantas enfermas, alertar a otros robots de la existencia de una plaga
y reunirlos a todos para combatirla en equipo con ayuda de satélites. Nuevas generaciones de estos
robots podrán sembrar y fumigar.

EJEMPLOS DE ROBOTS AGRICULTORES

Tractor Autónomo

La idea de un tractor autónomo surgió debido al peligro asociado a la fumigación de los


cultivos al que se exponen los agricultores. Además, si dicho tractor fuese capaz de
desenvolverse en la noche, momento el en cual se incrementa la actividad de los bichos e
insectos, se reduciría la cantidad de productos químicos fumigados produciendo el mismo
efecto.

Cosechadora Autónoma

La siguiente cosechadora basa su posicionamiento y navegación en un sistema GPS diferencial


basado en la técnica teach/playback (enseñanza/repetición). El GPS diferencial se basa en dos
receptores, uno de ellos es estacionario, mientras el otro deambula realizando mediciones de
posicionamiento. La clave reside en el receptor estacionario, enlaza la información proveniente del
satélite con una referencia local.

Lawnbott lb3500: robot que corta el cesped automaticamente


El Lawnbott LB3500 (LawnBott Robotic Lawn Mower) es impresionante; es un robot que corta
césped.

Recolector de champiñones

Un recolector de champiñones que dispone de una cámara que ayuda a selecciona los mejores
champiñones

Máquina que esquila a la ovejas

La trayectoria del cortador sobre el cuerpo de las ovejas se planea con un modelo geométrico de la
oveja. Para compensar el tamaño entre la oveja real y el modelo, se tiene un conjunto de sensores
que registran la información de la respiración del animal como de su mismo tamaño, ésta es
mandada a una computadora que realiza las compensaciones necesarias y modifica la trayectoria
del cortador en tiempo real.

Robot recolector de fresas


Está equipado con una cámara de colores sensibles que no solo puede identificar las bayas en el
follaje, sino que también detecta que tan maduras están las fresas y después el brazo con
delicadeza tijeretea la baya, colocándola sobre una bandeja.

Robot aurora

La agricultura intensiva bajo plástico genera problemas de salud laboral muy importantes. Se
pretenden sustituir los trabajos dentro de invernadero que implican riesgo para la salud, para ello
se ha diseñado un robot móvil autónomo que realiza las funciones que normalmente llevan a cabo
los agricultores.

Rofor

El objetivo del proyecto es el diseño, desarrollo e implantación del sistema de control de una
máquina procesadora forestal

Se ha diseñado e implantado un sistema de control distribuido con elementos en la cabeza


procesadora y en la cabina, que se comunican mediante radio-modem.

La cosecha de naranja

La compañía Vision Robotics, con sede en San Diego, California, está trabajando en dos tipos de
robots agrícolas para la recolección de la naranja que utilizan tecnología de imagen digital. "El
primer tipo, llamado 'Scout', escanea los árboles para localizar las naranjas, contarlas y averiguar
su tamaño exacto. El segundo robot, llamado "recolector" y provisto de varios brazos mecánicos,
procesa la información enviada por el "Scout" y retira las naranjas sin dañarlas.

El sistema de visión se utilizó por primera vez para explorar e identificar las naranjas dentro de un
escaneo de un bosquecillo, este se encuentra al final de multi-eje donde se usan cámaras
estereoscópicas para crear una imagen virtual 3D de todo el árbol de naranja. Las posiciones y
tamaños de las naranjas se almacenan y se aprueban en la recolección.

Recolector de espinacas

Ramsay Highlander se enorgullece de presentar el Mini BL, su más reciente recolector de espinacas.
El BL Mini es duradero, asequible para el servicio y compacto para el transporte. La construcción
de acero inoxidable mediante máquina de larga vida y mejor seguridad de los productos.
Reconfigura la máquina para su transporte a un esbelto 102 pulg. de ancho, por lo que no se
requieren permisos para el transporte.

Recolector de espinacas

Ramsay Highlander se enorgullece de presentar el Mini BL, su más reciente recolector de espinacas.
El BL Mini es duradero, asequible para el servicio y compacto para el transporte. La construcción
de acero inoxidable mediante máquina de larga vida y mejor seguridad de los productos.
Reconfigura la máquina para su transporte a un esbelto 102 pulg. de ancho, por lo que no se
requieren permisos para el transporte.

Headraiser, Colector de cosecha romana

El Headraiser es una cosechadora mecánica. Diseñado para la cosecha romana, hojas verdes. Esta
máquina reduce sustancialmente su trabajo y manipulación de productos. El Headraiser realiza
mecánicamente los cortes y, a continuación, ayuda a eliminar la basura las hojas antes de llegar a
la clasificación y al cinturón de embalaje. La parte trasera de la máquina se puede configurar para
bolsas o recipientes para satisfacer sus necesidades.

Recolector de manzanas

Se utilizó por primera vez para explorar e identificar las manzanas en un huerto. Cámaras
colocadas al final del largo escaneo se usaron vectores de cámaras estereoscópicas para crear una
imagen virtual 3D de todo el manzano.

Podadora de uvas

Al final de cada temporada, los trabajadores deben salir en un viñedo y recortar meticulosamente
todos y cada uno de las vides en un ángulo preciso y el lugar a fin de preparar a las viñas para que
crezcan y sean de las mejores uvas del año siguiente

Robots ordeñan

Con ayuda de robots y un poco de entrenamiento, 150 vacas de la granja de H.E. Heindel & Sons
prácticamente se ordeñan solas. Uno de siete establecimientos de todo el país que experimentan
con los sistemas de robot, Heindel & Sons ha entrenado a la mayoría de sus vacas para que se
acerquen a la ordeñadora y pasen unos minutos comiendo cereal mientras las partes móviles del
robot se ocupan de la ubre.
4­ SPEEDO LZR RACER: TRAJE DE NADO CON 
TECNOLOGÍA DE LA NASA

Introducción
Analizada desde la actualidad, parecería ridícula la época en que los nadadores se
rasuraban completamente, y hasta se untaban crema para bebés con el objetivo de
disminuir la resistencia de sus cuerpos en el agua.
Sin dudas, la historia de la natación ha cambiado. Y como en otras disciplinas deportivas, la
evolución pasó imprescindiblemente por su vínculo con las nuevas tecnologías, que cargan
cada vez más con la responsabilidad de establecer récords y asegurar victorias.

Como punto de partida de esta irrupción tecnológica pudieran tomarse los pasados Juegos
Olímpicos de Atenas, cuando la compañía Speedo, líder mundial en indumentaria para
deportes acuáticos, «lanzó» al mercado el traje FastSkin FS II, que pretendía imitar en su
diseño —tomando como referencia estudios biológicos y mecánicos— la estructura de la
piel de los tiburones.

El éxito logrado fue una motivación para los investigadores de la empresa, que en marzo
del pasado año introdujo el FastSkin FS PRO, un modelo mejorado a partir de la nueva joya
salida de sus laboratorios: el tejido LZR Pulse.
Aquel descubrimiento aportaba ligereza, repelencia al agua, rápido secado y una mayor
compresión, algo que fue muy bien aprovechado por los atletas para quebrar la
impresionante cifra de 21 récords mundiales en apenas un año.
Pero pocos imaginaron lo que vendría después, hasta que a mediados del pasado febrero,
durante una conferencia de prensa con motivo de su aniversario 80, Speedo utilizó al
multilaureado nadador estadounidense Michael Phelps como plataforma para la
presentación del FastSkin LZR Racer, que en menos de un mes ha sido protagonista de
nada menos que ¡19 nuevas plusmarcas universales!
Para algunos puede ser un hito tecnológico, otros lo consideran tan sólo una elaborada
campaña publicitaria, lo cierto es que el bañador con tecnología espacial ha sacudido el
mundo de la natación y de los récords mundiales.
En los últimos meses, luego de la presentación del traje y del rompimiento de 19
plusmarcas en las pruebas en Manchester, incluidos los Juegos Olímpicos de Beijing, un
buen número de récords mundiales han sido batidos por nadadores que llevaban el traje de
alta tecnología LZR Racer, que según Speedo, puede reducir hasta un dos por ciento los
tiempos de los deportistas.
Sin embargo, el bañador, desarrollado con la ayuda de la NASA, ha llevado a la natación a
aguas inciertas, con los competidores cerrando jugosos contratos para usarlos y disputas
en torno a la legalidad de los materiales empleados.
Speedo sostiene que el LZR ayuda a la aerodinámica, reduce la vibración de la piel y la
oscilación de los músculos, pero muchos críticos afirman que utilizar el bañador es
equivalente a un “dopaje tecnológico” porque confiere cierta ventaja sobre sus adversarios
y que nunca debería haberse aprobado. Seguiremos abordando estas y otras
características en la siguiente sección.

¿Qué es el LZR RACER?


Ahora para ser un nadador de clase internacional no alcanza con entrenar duro, para pulir
centésimas de segundo la indumentaria también es importante. Conscientes de ello,
Speedo ha lanzado una nueva línea con costuras realizadas con ultrasonido, lo que reduce
la fricción con el agua El traje de nado LZR RACER es el resultado de 3 años de
investigación y desarrollo de Aqualab, el Centro de Investigación Global de Speedo.
Aqualab trabajó con un número de socios globales incluyendo la NASA, ANSYS, la
Universidad de Otago en Nueva Zelanda, y el Instituto Australiano del Deporte.

Speedo presentó sus trajes de natación de cara a la competencia de Beijing donde


fueron todo un éxito: la línea LZR Racer, pronunciado como “laser raser o corredor láser”.
De acuerdo a lo que Michael Phelps pudo comentar en la conferencia de prensa al usarlos
en la piscina se sentía como un cohete expulsado desde el trampolín de arranque.

Como su fabricante lo indica, simplemente es el traje de nado con tecnología de la NASA


más rápido del mundo.
Los LZR Racer están diseñados con solo 3 piezas, en lugar de las 30 actuales, fabricadas
con nylon del groso de un papel, y que están unidas por ultrasonido en lugar de costuras.
Con este método de fabricación Speedo asegura haber reducido el “arrastre pasivo” que es
como se conoce a la fricción del nadador con el agua, en un 10%.

Suficiente para ayudar a batir nuevos records en las competencias de natación, de acuerdo
a Phelps, el gran candidato para quedarse con muchas de las medallas en las pruebas de
velocidad.

Durante la presentación, Phelps estuvo acompañado por seis nadadores que también
integran el equipo olímpico norteamericano: Katie Hoff, Amanda Beard, Natalie Coughlin,
Kate Ziegler, Dara Torres y Ryan Lochte. Y justamente Torres, la nadadora más veloz de
EEUU, ha admitido que se ven un tanto ridículos con esos trajes, pero afirmó que eso no
importa ya que están en una piscina para nadar rápido, no para verse bien.

Pruebas y Tecnología Aplicada


Durante casi dos años, Michael Phelps y su preparador Bob Bowman cooperaron con
Speedo para desarrollar el nuevo traje. Los investigadores de AQUALAB, el departamento
de investigación y desarrollo para competencias de la prestigiosa empresa, establecieron
características estándares a través del estudio del cuerpo de cerca de 400 nadadores de
élite, y con el uso del software CFD —un sofisticado modelo computacional para el análisis
del flujo de fluidos— identificaron las áreas de mayor fricción con el agua en la anatomía de
los nadadores en movimiento. Esa información fue utilizada por los diseñadores para
colocar el innovador tejido, desarrollado con ayuda de expertos de la Agencia Aeroespacial
estadounidense (NASA) y de otras instituciones, en los puntos señalados para conseguir un
traje con un diez por ciento menos de resistencia al agua que el FastSkin FS II, y un cinco
por cientomenos con respecto a su predecesor, según las consideraciones del fabricante.
Los especialistas opinan que, por cubrir en gran medida los músculos del torso y el
abdomen —donde ubican el punto de flotación—, las nuevas fibras ayudan a los nadadores
a mantener la mejor postura dentro del agua, y conservar durante el nado una posición
hidrodinámica para el cuerpo. El nuevo bañador, cuyas partes están unidas por métodos de
ultrasonido para eliminar las costuras, aporta además una mayor compresión al cuerpo que
reduce ostensiblemente la oscilación de los músculos y la vibración de la piel en el agua.El
estudio computacional de los fluidos dinámicos usado por la alta tecnología de la industria
aeroespacial y en deportes como la F1 identifica el flujo del agua en las partes más
calientes del cuerpo humano alrededor del cuerpo del nadador virtual. Esto hace que
Speedo pueda entender cómo y dónde eliminar la fricción con el agua más efectivamente y
mantener mejor sujetas o “apretadas” esas partes del cuerpo humano.

No solo se hizo la prueba del CFD, se realizaron algunas más como las siguientes:

Pruebas de arrastre de superficie o de fricción superficial


Speedo ha utilizado tecnología de la era del espacio en su investigación y pruebas en sus
esfuerzos para diseñar el traje de baño más rápido que jamás se han creado a través de
consultas con la NASA.
La NASA cuenta con algunos de los más precisos en los túneles de viento del mundo, que
utiliza para probar la superficie de fricción de los materiales - como la que actúe en un
avión o una nave espacial vuelva a entrar en la atmósfera terrestre a gran velocidad.
Speedo probó la superficie de arrastre de más de 60 tipos de tejido (actuales y
desarrollados) para ver cuáles ofrecen los mejores resultados en términos de ultra rápida
velocidad a través de la piel de fricción menor resistencia.

Pruebas de agua saetín


Se realizaron pruebas en maniquíes de nadadores con saetines de agua y se llevó a cabo
por uno de los principales biomecánicos, David Pease, en la Universidad de Otago en Nueva
Zelanda. La prueba consistía en someter al maniquí a una gran presión de agua que era
arrojada desde el saetín y sirve para ver cómo se comporta con la presión que ejerce el
agua sobre el cuerpo y cómo puede ayudar a mantener la mejor postura para el nado a
pesar de la fuerte presión, movimiento y oleaje.
Las de saetín de agua se utilizaron para evaluar los efectos de arrastre pasivo en una
variedad de trajes y arrastre total se determinó en toda la gama de velocidades se
encuentra en la natación de élite competitiva.

Escaneo del cuerpo


El Aqualab de Speedo ha llevado a cabo un programa de escaneo en 3D de ejercicios de
unos 400 atletas de élite para descubrir más sobre la forma de sus cuerpos. Esta
información se ha utilizado para desarrollar el modelo más eficiente y para la construcción
Speedo LZR RACER. Gracias a este estudio, se logró determinar también la forma de las
costuras ultrasónicas, el neopren con lo que está construido el traje y las partes del cuerpo
en donde se debe eliminar más la fricción del cuerpo con el agua.

Datos generales y técnicos


Detalles del Traje:
• Estará disponible para su entrega la última semana de octubre de 2008.
• Es el traje de baño más rápido del mundo - resultado de la mayoría de la investigación y
desarrollo extensa del funcionamiento en la historia del traje de baño.
• Primer traje completamente cerrado del mundo. Las costuras consolidadas integrales
soldadas con autógeno ultrasónico crean la silueta del perfil y reducen la fricción de fricción
de piel.
• Tres cortes de patrón único del pedazo 3D para la forma del cuerpo.
• Dirigido para crear un sistema hidráulico de compresión. El estabilizador interno de la
base apoya y detiene al nadador que mantiene una buena posición de cuerpo en el agua.
Las ayudas en la realización de la aerodinamizaron dan un funcionamiento más rápido.
• Hecho de propio material del LZR Pulse de Speedo - desarrollado especialmente para el
juego de Fastskin FS-PRO de Speedo.
• La tela tejida más ligera del mundo. Altamente compresivo, impermeable, resistente al
cloro, y secado rápido.
• Los paneles de las características LZR, un corte ultrafino de la precisión de la membrana
por el laser en los paneles entonces encajados en la base de la tela en los puntos
estratégicos para crear la “compresión hidráulica.” Forma aerodinámica y reducción de
fricción óptimas.
• El cierre relámpago ultrabajo del perfil enlazó en juego y ocultado adentro para mantener
forma superficial lisa

Precio
$550.00. Disponible para el público a partir del mes de octubre de 2008.
5­ RECONOCIMIENTO FACIAL

INTRODUCCION
En la actualidad las personas como entidades necesitan métodos cada vez mas únicos para su
seguridad por que al ir evolucionando la tecnología también con lleva muchos peligros sobre todo los
peligros que ahora Internet tiene gracias a su amplia red mundial y a las técnicas que se han
encontrado para manejar esta tecnología. Por eso el reconocimiento facial se vuelve una tecnología
muy única para lograr este cometido.

BIOMETRICA
La biometría es el estudio de métodos automáticos para el reconocimiento único de humanos basados
en uno o más rasgos conductuales o físicos intrínsecos. El término se deriva de las palabras griegas
"bios" de vida y "metron" de medida.
La "biometría informática" es la aplicación de técnicas matemáticas y estadísticas sobre los rasgos
físicos o de conducta de un individuo, para “verificar” identidades o para “identificar” individuos.
En las tecnologías de la información, la autentificación biométrica se refiere a las tecnologías para medir
y analizar las características físicas y del comportamiento humanas con propósito de autentificación.

RECONOCIMIENTO FACIAL
Un sistema de reconocimiento facial es una aplicación dirigida por computadora para identificar
automáticamente a una persona en una imagen digital, mediante la comparación de determinadas
características faciales a partir de una imagen digital o un fotograma de una fuente de vídeo.
La tecnología de reconocimiento de caras se basa en el análisis de ciertas características faciales para
reconocer a un individuo dentro de una base de datos previamente confeccionada. Existen varios
métodos de reconocimiento basados en la caracterización de ciertos rasgos que no cambian en una
cara:
La sección alta de las cavidades oculares.
La zona o sea alrededor de las mejillas.
Laterales de la boca.

METODOS PARA LLEVAR ACABO EL RECONOCIMIENTO FACIAL.


El proceso de reconocimiento facial consta de las fases normales de una aplicación de visión:

Captura de imagen.
Extraer características matemáticas de la misma.
Realizar una comparación con patrones de referencia.

El reconocimiento de caras como método de autenticar a una persona no requiere acción alguna por
parte del usuario. Incluso las cámaras que se emplean tienen generalmente la posibilidad de tracking
con el movimiento de la cara.
Los cuatro métodos principales que se emplean para identificación y verificación de usuarios son:

Eigenfaces: Tecnología desarrollada por el Instituto Tecnológico de Massachusets que utiliza


una escala de grises bidimensional para representar una imagen facial. Es una técnica de
representación para reducción de dimensionalidad y generalización. Normaliza y selecciona una
región del rostro en varias imágenes, trata cada sub-imagen del rostro como un vector de
intensidad y encuentra momentos de los vectores en una base de datos.

análisis de características: Técnica que absorbe más fácilmente cualquier tipo de cambio de
aspecto que el individuo presente en su rostro. El análisis por características se deriva del
método eigenface y resuelve los problemas de sensibilidad a las deformaciones y cambios en las
poses y la luz. Esta técnica considera características individuales en vez de la representación
global de la cara. El sistema selecciona una serie de bloques que mejor definen una cara
concreta. Estos bloques forman los elementos constructivos de todas las caras posibles.

redes neuronales: Realiza un análisis de característica tanto de la cara que inspecciona como
de las almacenadas y comprueba si existe una concordancia entre ellas.
El siguiente desarrollo en la tecnología de reconocimiento de caras pretendió solucionar los 2
grandes inconvenientes con que se encontraban las implementaciones hasta ese momento:
Localizar una cara dentro de un fondo complejo y la variabilidad de las condiciones luminosas.
Una imagen puede tener un fondo con diferentes texturas y objetos diversos, más de una cara e
incluso todo ello en movimiento. El primer paso es aislar una cara del fondo si aquella existe en
la imagen. Esto se consigue con una red neuronal que se especializa en aprender la apariencia
de una cara con diferentes estilos de peinados, condiciones de luz, color de la piel, tamaños,
orientaciones y posiciones de los rostros. El aprendizaje requiere un número alto de muestras y
ejemplos diversos. Las funcionalidades de tracking se implementan ejecutando de forma iterativa
el proceso de aislamiento de caras.

procesamiento automático de caras.


El uso de técnicas biométricas de reconocimiento de caras transforma la identificación de
personas en un procedimiento transparente y no intrusivo para el sujeto pasivo. Todas las
tecnologías convierten las características faciales en modelos matemáticos que son procesados
por ordenador. Se ha evolucionado desde los "eigenface" a la red neuronal, pasando por el
análisis local de características.

USOS DEL RECONOCIMIENTO FACIAL


Sistemas de reconocimiento facial tienen una amplia gama de usos comerciales, como
gubernamentales y aplicaciones militares. Algunos ejemplos de estos son cuando el gobierno mexicano
hizo uso de sistemas de reconocimiento facial a la altura de sus votantes de su base de datos para
verificar la identidad y minimizar el fraude electoral. El sistema también está programado para su uso en
los aeropuertos para acelerar la verificación de la identidad y los procesos para aumentar la seguridad.
El sistema también se puede utilizar en cajeros automáticos para garantizar que la toma es la retirada
de la tarjeta.
Existen muchos usos para el reconocimiento facial desde simples organizadores de fotografías hasta
control de acceso para personal en una empresa. A continuación se desglosan algunas de las utilidades
que más están causando auge en el mundo.
Control de acceso
Seguridad en computadoras
Paginas Web

CONCLUSION
A pesar de su reciente aparición, el reconocimiento de caras representa un método de autenticación
que se impone a pasos agigantados en el mundo de la seguridad. Existen ya instalaciones en
aeropuertos, cajeros automáticos, teléfonos celulares, etc.
Existen métodos matemáticos y muy bien realizados para llevar a cabo el reconocimiento facial, pero al
pasar el tiempo se van mejorando estas técnicas para que poco a poco las limitaciones de esta
tecnología vayan desapareciendo y sea más eficiente y más rápido el uso para las personas.
Los costos de esta tecnología aun tienden a ser elevados porque aun muchos de los dispositivos
existentes son escasos y siguen siendo objeto de estudio, por ejemplo las computadoras portátiles solo
dos marcas (Lenovo y TOSHIBA) reconocida comienzan a implementar esta tecnología.
6­ NANOTECNOLOGÍA
La nanotecnología es un campo de las ciencias aplicadas dedicados al control y manipulación
de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas
(nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre
uno y cien nanómetros. Nano- es un prefijo griego que indica una medida, no un objeto, de
manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar,
y cohesionado exclusivamente por la escala de la materia con la que trabaja.

Definición

La nanotecnología promete mejores beneficios, nuevos y más eficientes para solucionar los
problemas ambientales como muchos otros usados en esta humanidad. Las nanotecnologías
prometen beneficios de todo tipo, desde aplicaciones médicas nuevas o más eficientes a
soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de
nanotecnología aún no es muy conocido en la sociedad. Un nanómetro es la mil millonésima
parte de un metro (10^ (-9) metros). Para comprender el potencial de esta tecnología es clave
saber que las propiedades físicas y químicas de la materia cambian a escala nanométrica, lo
cual se debe a efectos cuánticos. La conductividad eléctrica, el calor, la resistencia, la
elasticidad, la reactividad, entre otras propiedades, se comporta de manera diferente que en
los mismos elementos a mayor escala.

Ensamblaje interdisciplinario

La característica fundamental de la nanotecnología es que constituye un ensamblaje


interdisciplinar de varios campos de las ciencias naturales que están altamente especializados.
Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado
para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica.
Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen
jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a
nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha
alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han
empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se
refiere a ser una tecnología convergente.

Una posible lista de ciencias involucradas sería la siguiente:


Química (Moleculares y computacional);
Bioquímica;
Física;
Electrónica;
Informática;
Matemáticas.

NANOTECNOLOGÍA E INFORMÁTICA [2] Nuevos avances en nanotecnología pone a tiro a las


supercomputadoras del mañana. Dentro de unos años, las computadoras serán bastante
diferentes de las actuales. Los avances en el campo de la nanotecnología harán que las
computadoras dejen de utilizar el silicio como sistema para integrar los transistores que la
componen y empiecen a manejarse con lo que se llama mecánica cuántica, lo que hará que
utilicen transistores a escala atómica.
Aproximadamente para el año 2010, el tamaño de los transistores o chips llegará a límites de
integración con la tecnología actual, y ya no se podrán empaquetar más transistores en un
área de silicio, entonces se entrará al nivel atómico o lo que se conoce como mecánica
cuántica. Las computadoras convencionales trabajan simbolizando datos como series de unos y
ceros –dígitos binarios conocidos como bits.

El código binario resultante es conducido a través de transistores, switches que pueden


encenderse o prenderse para simbolizar un uno o un cero. Las computadoras cuánticas, sin
embargo, utilizan un fenómeno físico conocido como “superposición”, donde objetos de tamaño
infinitesimal como electrones o átomos pueden existir en dos o más lugares al mismo tiempo, o
girar en direcciones opuestas al mismo tiempo.

Esto significa que las computadoras creadas con procesadores superpuestos puedan utilizar
bits cuánticos –llamados qubits- que pueden existir en los estados de encendido y apagado
simultáneamente. De esta manera, estas computadoras cuánticas pueden calcular cada
combinación de encendido y apagado al mismo tiempo, lo que las haría muchísimo más
veloces que los actuales procesadores de datos a la hora de resolver ciertos problemas
complejos de cálculos matemáticos. La investigación de la computación cuántica está ganando
terreno rápidamente en laboratorios de investigación militares, de inteligencia y universidades
alrededor del planeta.

Entre otros, están involucrados gigantes como AT&T, IBM, Hewlett-Packard, Lucent and
Microsoft. En electrónica, miniaturización es sinónimo de éxito. Reducir el tamaño de los
circuitos integrados implica una respuesta más rápida y un menor consumo de energía. Y en
esta escalada hacia lo extremadamente pequeño, la nanotecnología se convierte en un aliado
imprescindible.

Otras empresas como IBM o Intel le siguen de cerca. En concreto, en el marco de la First
Internacional Nanotechnology Conference celebrada el pasado mes de junio, Intel desvelaba
por primera vez públicamente sus planes para el desarrollo de chips de tamaño inferior a 10
nanómetros, combinando el silicio con otras tecnologías que están aún en sus primeras fases
de investigación. Tan importante como la velocidad de procesamiento es la capacidad de
almacenamiento.

Eso lo sabe bien Nantero, una empresa de nanotecnología que trabaja en el desarrollo de la
NRAM. Se trata de un chip de memoria de acceso aleatorio no volátil y basada en nanotubos.
Sus creadores aseguran que podría reemplazar a las actuales memorias SRAM, DRAM y flash,
convirtiéndose en la memoria universal para teléfonos móviles, reproductores MP3, cámaras
digitales y PDAs. Por su parte, investigadores de la Texas A&M University y del Rensselaer
Polytechnic Institute han diseñado un tipo memoria flash de nanotubo que tiene una capacidad
potencial de 40 gigas por centímetro cuadrado y 1000 terabits por centímetro cúbico. Y la
compañía Philips trabaja en una nueva tecnología de almacenamiento óptico que permite el
almacenaje de hasta 150 gigabytes de datos en dos capas sobre un medio óptico similar a los
actuales DVDs.

Computadoras casi invisibles [3]

La nanotecnología será un salto importante en la reducción de los componentes, y ya hay


avances, pero muchos de estos adelantos se consideran secretos de las empresas que los
están desarrollando.

El tamaño de las computadoras del futuro también podría sorprender, ya que podría ser la
quincuagésima parte (cincuenta veces menor) de una computadora actual de semiconductores
que contuviera similar número de elementos lógicos. La reducción del tamaño desemboca en
dispositivos más veloces; las computadoras podrán operar a velocidades mil veces mayores
que las actuales.

Algunos estudios pronostican que la técnica híbrida, que conjuga microcircuitos


semiconductores y moléculas biológicas, pasará bastante pronto del dominio de la fantasía
científica a las aplicaciones comerciales. Las pantallas de cristal líquido ofrecen un espléndido
ejemplo del sistema híbrido que ha triunfado. Casi todas las computadoras portátiles utilizan
pantallas de cristal líquido, que combinan dispositivos semiconductores con moléculas
orgánicas para controlar la intensidad de la imagen en la pantalla. Son varias las moléculas
biológicas que se podrían utilizar con vistas a su utilización en componentes informáticos.

NANOTUBOS [4]

En química, se denominan nanotubos a estructuras tubulares cuyo diámetro es del orden del
nanómetro. Existen nanotubos de muchos materiales, tales como silicio o nitruro de boro pero,
generalmente, el término se aplica a los nanotubos de carbono. Los nanotubos de carbono
son una forma alotrópica del carbono, como el diamante, el grafito o los fulerenos. Su
estructura puede considerarse procedente de una lámina de grafitos enrollados sobre sí misma.

Dependiendo del grado de enrollamiento, y la manera como se conforma la lámina original, el


resultado puede llevar a nanotubos de distinto diámetro y geometría interna. Estos tubos
conformados como si los extremos de un folio se uniesen por sus extremos formando un canuto
se denominan nanotubos monocapa. Existen, también, nanotubos cuya estructura se asemeja
a la de una serie de tubos concéntricos, incluidos unos dentro de otros, a modo de muñecas
matrioskas y, lógicamente, de grosores crecientes desde el centro a la periferia. Estos últimos
son los nanotubos multicapa Se conocen derivados en los que el tubo está cerrado por media
esfera de fulereno, y otros que no están cerrados.

Propiedades Y Aplicaciones De Los Nanotubos

En general las propiedades de los nanotubos dependen principalmente de los siguientes factores: el
número de capas concéntricas que posee, la manera en que es enrollado y del diámetro del
nanotubo.

Propiedades Electrónicas: Transportan bien la corriente eléctrica. Pueden actuar con


característica metálica, semiconductora o también superconductora.

Propiedades Mecánicas: Uno de los materiales más “duros” conocidos (Similar a los diamantes)
Presenta una altísima “resistencia mecánica”. Presenta una altísima flexibilidad.

Propiedades Elásticas: Por su geometría, podría esperarse que los nanotubos sean
extremadamente duros en la dirección del eje, pero por el contrario son flexibles a deformaciones
perpendiculares al eje. La curvatura causa aumento de la energía: los nanotubos son menos
estables que el grafito, y cuanto menor es el diámetro menor es la estabilidad. Para grandes
deformaciones radiales, los nanotubos pueden ser inestables (colapso).

Esto ocurre principalmente para nanotubos de gran diámetro. Las características mecánicas de los
nanotubos son superiores a las fibras de carbono; resistencia a deformaciones parciales,
flexibilidad, etc. Las cuales las hacen idóneas para muchas aplicaciones posibles.

Propiedades Térmicas: Presenta altísima conductibilidad térmica en la dirección del eje del
nanotubo.
Nanotecnología: mejorará nuestra calidad de vida [5]

La nanotecnología -la ciencia que permite manipular la materia al nivel del átomo- mejorará
nuestra calidad de vida a medio plazo. Según un estudio, su aplicación a la industria,
especialmente en la electrónica, los transportes o la sanidad será en la próxima década el
motor de la próxima revolución industrial. Neumáticos más resistentes a la abrasión, medios de
locomoción propulsados por energías limpias o pruebas diagnósticas hospitalarias que
permitirán detectar patologías desde sus comienzos son algunas de estas aplicaciones, que
serán visibles antes de 2020.

Según el estudio, efectuado por la Fundación OPTI (Observatorio de Prospectiva Tecnológica


Industrial), la nanotecnología aplicada al transporte permitirá el uso de vehículos con menor
peso, ya que la aleación de materiales empleados para su fabricación serán más ligeros,
especialmente en chasis y carrocería. Prevista para 2015, permitirá reducir el peso de
automóviles y aviones en un 30%.

En la energía y el medio ambiente, los nanomateriales resultan cruciales en la implementación


de las pilas de combustible y en el control de la captura y liberación de hidrógeno.

En la diagnosis de enfermedades, la nanobiotecnología permitirá detectar patologías como el


cáncer y enfermedades cardiovasculares o neurológicas en su estado más inicial.

También regulará la toma de medicamentos mediante la administración continuada e


inteligente de las dosis.

El estudio destaca también la aplicación de esta tecnología en sectores como la construcción,


la cerámica, el textil o los envases de alimentos. En el primero de estos campos, los
nanoaditivos permitirán cementos con propiedades autolimpiantes, antimicrobianas y
descontaminantes y nanomateriales avanzados nos protegerán contra incendios y responderán
a estímulos como la temperatura, la humedad o la tensión para ofrecer mayor confort. Los
nanosensores controlarán la seguridad y el buen estado de las estructuras.

Las cerámicas incorporarán funciones antideslizantes, autolimpiables, antirrayado,


antimicrobianas o efectos térmicos.

En el sector textil están previstas fibras más ligeras pero con gran aislamiento térmico, más
resistentes al desgaste, a la suciedad, al agua o a las radiaciones ultravioletas.
Por último, en el sector del envasado, se conseguirán envases activos que conservarán el
producto e informarán al consumidor sobre su estado.
7­ ¿QUÉ ES LA INGENIERÍA DE TEJIDOS?

La Ingeniería de tejidos, también conocida como medicina regenerativa, es la rama de la bioingeniería


que se sirve de la combinación de células, métodos de ingeniería de materiales, bioquímica y
fisicoquímica para mejorar o reemplazar funciones biológicas. Mientras la mayoría de definiciones de la
ingeniería de tejidos cubre un amplio rango de aplicaciones, en la práctica el término está íntimamente
relacionado con las aplicaciones de reparar o reemplazar parcial o totalmente tejidos (por ejemplo
hueso, cartílago, válvula cardiaca, vejiga, etc.). A menudo, los tejidos implicados requieren ciertas
propiedades mecánicas y estructuras para su propia función.

Las especies normalmente implicadas en la ingeniería de tejidos son células vivas, así como sus
componentes extracelulares que participan en el desarrollo de dispositivos que permitan y estimulen o
favorezcan la reparación o restauración de un órgano o tejido dañado. La idea de utilización de
sustitutos de componentes o tejidos biológicos para reparar o reemplazar elementos dañados es tan
antigua como la historia misma.

La gran mayoría de los andamios desarrollados para aplicaciones en el campo de la Ingeniería de


Tejidos está constituida por estructuras elaboradas a partir de materiales poliméricos.

La alquimia de la ingeniería de tejidos -término acuñado en 1987 que hace referencia a la manipulación
biológica para generar nuevas estructuras vivas- explota el poder de las células madre o stem cells para
convertirse en cualquiera de las estirpes celulares que integran nuestro organismo, desde una célula
del riñón hasta una neurona. La estrategia consiste en fabricar una especie de andamio de plástico
biodegradable y biocompatible con la forma del órgano o tejido deseado y verter en él una sopa de
nutrientes con las stem cells del propio paciente. De alguna manera que aún no se ha logrado explicar,
las células madre, tanto de adulto como embrionarias, reconocen la forma de la matriz; se comunican
con ella siguiendo señales químicas desconocidas y se organizan por sí mismas como hormigas en una
colonia para fabricar los tejidos del órgano deseado. Operan como si fueran una cuadrilla de albañiles.

Cada año, miles de pacientes esperan el trasplante de un órgano vital, pero no hay donantes suficientes
y muchos mueren antes de que llegue. Esta disciplina podría resolver la falta de donaciones.

Corazones, riñones y otros órganos fabricados a la carta serían la solución ideal, porque los sustitutos
artificiales tienen sus limitaciones: los implantes prostéticos no crecen a la par en los pacientes jóvenes,
y los órganos de cadáveres o cerdos humanizados fallan con el tiempo y sentencian al paciente a una
vida de fármacos inmunosupresores para combatir el posible rechazo. La ingeniería de tejidos promete
soluciones a todo esto. Y de paso, ayuda a entender cómo funcionan las células madre.

Los primeros beneficiados con los éxitos de esta ciencia son aquellos que necesitan nueva piel, como
los quemados. La piel se fabrica y comercializa desde hace décadas: en EE UU, su venta mueve 56
millones de euros anuales.

El otro objetivo de la ingeniería de tejidos es que el órgano en cuestión sea portador de medicamentos.
Ya existe un armazón que permite liberar lentamente un agente antitumoral para combatir una forma de
cáncer cerebral.

Uno de los principales lugares de desarrollo de esta tecnología es el laboratorio de Langer en


Massachusetts parece un muestrario de partes del cuerpo para algún experimento poco ortodoxo.
Placas y platos de cristal exhiben trozos de piel. Forman parte de una investigación en colaboración con
la NASA para estudiar si la ingravidez afecta al crecimiento y organización de las células.

Para empezar, se tiene:

Colocar un recipiente con fragmentos de capilares, vasos sanguíneos que crecen sobre un laberinto de
formas vasculares en un chip plástico." Se opera a escala microscópica y casi nano para crear redes
sanguíneas. Es temprano, pero ya se ha logrado que funcionen bastante bien".

El siguiente reto es obtener el grosor que necesitaría un órgano como el hígado o el riñón. "Hay que
cultivar varias capas de tejido vascular y colocarlas unas sobre otras. La idea es lograr que la sangre
fluya entre ellas, igual que lo haría de verdad. Antes de fabricar un órgano sólido debemos resolver el
problema de llevar a su interior oxígeno y sangre constantemente y en cantidades suficientes".

No obstante, diseñar polímeros que funcionen bien con células vivas no es tan fácil como parece. Hay
que superar numerosos obstáculos. Por un lado, es necesario crear los materiales correctos, altamente
biocompatibles y que estimulen el crecimiento y comportamiento de las células. Por otra parte, hay que
descubrir cuáles son las condiciones perfectas y el medio de cultivo óptimo para fabricar un tejido
dentro de un tubo de ensayo. “Cualquier cambio supone una diferencia enorme". Por ejemplo, es
indispensable agitar las células del tejido vascular. Los capilares están conectados al corazón y, por
tanto, las células necesitan acostumbrarse a recibir y aguantar la presión arterial. En los ensayos, se
conectan a una bomba que hace las veces de corazón. Por su parte, las células de tejido cardíaco han
de ser estimuladas eléctricamente para simular las mismas condiciones que se registran en el
organismo.

Antes de sembrar células sobre un andamio de polímeros es preciso encontrar la matriz perfecta, algo
así como idear los cimientos de un edificio"Lo espectacular es que se ha descubierto que con distintos
factores de crecimiento, es decir, con diferentes nutrientes y sustancias químicas, podíamos empujar a
las células en distintas direcciones". Según la composición de la papilla, una stem cell se convierte,
pongamos por caso, en una célula ósea o en una renal.

Y no es sólo cuestión de química, sino también de física. "El armazón de polímeros es crucial", ya que
"Determina las claves físicas para la orientación de las células y la forma en que estas se extienden. Y
los poros del andamio ofrecen espacio para remodelar las estructuras de los tejidos. Si el armazón es
demasiado blando, por ejemplo, se colapsará por las fuerzas mecánicas de las células".

La ingeniería de tejidos usa fundamentalmente células cultivadas y/o modificadas genéticamente en el


laboratorio como material de ingeniería.

El objetivo principal en este sentido sería obtener un biopolímero:

• Biocompatible
• No presente ningún tipo de reacción biológica adversa.
• Reabsorbible.
• Que se degrade de forma paulatina a medida que se forma el nuevo tejido, transfiriendo así las
cargas de forma progresiva.
• Productos de degradación fácilmente eliminables y no-tóxicos.

La creación de tejidos y estructuras biológicas in vitro requiere un considerable conocimiento de la


célula para garantizar su supervivencia, crecimiento e incentivar su funcionalidad.

Técnicas de elaboración de andamios poliméricos para ingeniería de tejidos:


1) Gel Casting
Este método consiste en disolver el polímero en un solvente orgánico como la acetona. La solución
polimérica es colocada en un molde hasta alcanzar consistencia de gel.

2) Disolución y colada con liberación de partículas


En este método, se incorpora a la solución polimérica una proporción determinada de partículas
minerales (cloruro de sodio) u orgánicas (sacarosa). La mezcla es luego colada en un molde donde el
solvente se evapora y se procesa.

3) Laminación de membranas
Consiste en la utilización de diferentes films porosos generalmente obtenidos a partir de la técnica de
disolución y colada con liberación de partículas, y colocados uno sobre otro unidos con la ayuda de la
impregnación con cloroformo en la superficie, para obtener estructuras tridimensionales de forma
compleja.

4) Separación de fases
El polímero se disuelve en un solvente a una temperatura baja. La separación líquido-líquido y luego
sólido -líquido es inducida al bajar la temperatura de la solución.

5) Saturación con gas


Para esto se utilizan especímenes poliméricos sólidos previamente prensados, los cuales son
expuestos a altas presiones de CO2 permitiendo así la saturación del polímero con el gas.

6) Liofilización
Esta técnica es similar a la separación de fases, consiste en separar o en la eliminación del agua
mediante el secado al vacío y a muy bajas temperaturas las soluciones congeladas del polímero con
ácido acético glacial.

7) Unión de fibras
Consiste en la elaboración de redes interconectadas mediante la unión de fibras. Para esto se utilizan
dos polímeros diferentes.

Algunos ejemplos de tecnologías de la ingeniería de tejidos

 Hígado Bioartificial
 Páncreas artificial
 Vejigas
 Cartílago

La ingeniería de tejidos inyectables

Surge como una solución para sustituir a los tradicionales trasplantes de órganos. Se trata de la
aplicación de un método por el que se inyecta articulaciones con mezclas diseñadas de polímeros,
células y estimuladores de crecimiento que solidifiquen y formen tejidos sanos. Se están desarrollando
métodos para inyectar en las coyunturas mezclas especialmente concebidas de polímeros, células y
estimuladores de crecimientos que se solidifican y crean tejidos sanos.
Su meta esencial consiste en diseñar en laboratorio alternativas al transplante tradicional de órganos y
tejidos. En las últimas tres décadas, los investigadores se han dedicado a generar en laboratorio
nuevos tejidos sobre grillas o matrices poliméricas.

Si bien este procedimiento ha logrado producir pequeñas cantidades de cartílagos y piel, sigue
habiendo dificultades para mantener vivas las células, cuando se multiplican en contenedores más
grandes. Aun si estos problemas pudieran resolverse, los cirujanos deberían continuar implantando
tejidos cultivados en el laboratorio. Pero como bien es cierto aún siguen en fases de prueba. No
obstante, la mayoría de pacientes actuales o potenciales necesita implantes limitados y seguramente se
beneficiará de tecnologías que estarán disponibles mucho antes.
8­ DISPOSITIVOS DE ALMACENAMIENTO 
EXTERNO

1. Dispositivos de almacenamiento externo

Son todos aquellos dispositivos de almacenamiento masivo de información que nos permiten almacenar
grandes volúmenes de datos de una manera externa a nuestro ordenador. Entre los dispositivos de
almacenamiento externo o memoria secundaria se incluyen las unidades de disco duro y memorias usb.

2. Causas del surgimiento de los dispositivos de almacenamiento externo


 La gran cantidad de información que se maneja actualmente.
 El espacio de almacenamiento en los ordenadores es insuficiente.
 El riesgo de perder información.
 La necesidad de las copias de seguridad de la información.
 La necesidad de transportar la información de un lugar a otro.
3. Las primeras soluciones

Allá por el año 2002, IBM lanzó un curioso dispositivo que planeaba ser el reemplazo definitivo del
cada vez más molesto disquete, se trataba de una memoria Flash que podía ser reescrita cientos de
miles de veces, con una pequeña capacidad de 8 MB y una cómoda interfaz USB.

Asimismo, otros fabricantes presentaron sus discos duros externos, que en verdad no eran más que
un gran disco interno con una carcasa especial, un traductor de IDE a USB y una fuente de
alimentación.

4. El disco duro

El Disco Duro, en los ordenadores o computadoras son unidad de almacenamiento permanente de gran
capacidad, en los cuales se pueden guardar todo tipo de información.

5. Tecnología utilizada en la creación de discos duros

La tecnología magnética: utilizada en el almacenamiento de datos consiste en la aplicación de campos


magnéticos a ciertos materiales cuyas partículas reaccionan a esa influencia, generalmente orientándose en
unas determinadas posiciones que conservan tras dejar de aplicarse el campo magnético.

6. Conceptos necesarios para entender las características específicas de los diferentes


dispositivos de almacenamiento

 Capacidad de almacenamiento (GB): La capacidad se refiere al tamaño o volumen que el


dispositivo permite almacenar. Es medido en GB o MB.
 La velocidad (MB/s): La velocidad media o sostenida es aquella que puede mantener de forma
más o menos constante durante lapsos apreciables de tiempo. Se mide en MB/s.

 El tiempo (ms): El tiempo medio de acceso se trata del tiempo que por término medio tarda el
dispositivo en responder a una petición de información. Se mide en milisegundos (ms).

7. Tipos de discos duros

 Discos duros internos: Dispositivos de almacenamiento masivo que se encuentran en el interior


de nuestro ordenador. Podrían ser de tres tipos principalmente: IDE, SATA y SCSI.

 Discos duros externos: Dispositivos de almacenamiento masivo externos al ordenador que


podemos trasladar de un lugar a otro. Básicamente suelen ser una caja donde se encuentra alojado
el HD con un toma de corriente y un interfaz de conexión USB. Según su conexión podemos tener
principalmente dos tipos de HD, el IDE o el SATA.

8. Ventajas de los discos duros externos


 Eliminación de la fuente externa.
 Ideales para realizar backups de computadoras.
 Altísima capacidad de almacenamiento desde 40GB hasta 500GB, los discos convencionales
de 3.5 pulgadas tienen capacidades de hasta 1 TB.
 Mejoramiento en el tamaño actualmente 1.8 y 2.5 pulgadas.
 Mejoramiento en la movilidad.
 Tiene una relación capacidad/precio sumamente tentadora.
 Disponen de un puerto USB 2.0.

9. Desventajas de los Discos Duros Externos


 Son de naturaleza mecánica.
 Al hacerlos mas pequeños su velocidad decae.
 Les afecta los golpes, la humedad y las altas temperaturas.
 Les afecta los campos magnéticos.
10. La memoria flash

La memoria flash es un dispositivo de almacenamiento masivo externo al ordenador que utiliza la memoria
flash para guardar todo tipo de información permitiendo el funcionamiento a velocidades muy superiores
cuando los sistemas emplean lectura y escritura en diferentes puntos de esta memoria al mismo tiempo.

11.Tecnología utilizada en la creación de memorias flash

La tecnología flash: La memoria flash es una forma evolucionada de la memoria EEPROM que permite que
múltiples posiciones de memoria sean escritas o borradas en una misma operación. Dicho proceso de lectura y
escritura se lleva a cavo mediante pulsos magnéticos.

12. Tipos de memorias flash

 El llavero USB: Un llavero USB (Universal Serial Bus - USB flash drive) es un pequeño dispositivo
de almacenamiento que utiliza la memoria flash para guardar la información sin necesidad de pilas.
Teóricamente, la memoria flash puede retener los datos durante unos 10 años y escribirse un millón de
veces.

 Las Tarjetas de Memoria Flash: son utilizadas para su integración como memorias
embebidas en equipos informáticos como cámaras digitales, PDAs, teléfonos móviles de última
generación o reproductores mp3. Actualmente su capacidad de almacenamiento va desde los
64 MB a 4GB.

13. Formato de las tarjetas de memoria Flash


 Secure Digital SD: muy utilizadas en los teléfonos celulares y sus variantes SD de 4GB, miniSD,
microSD, SDHC de 32GB.
 Compact Flash CF: el pionero utilizado en las cámaras digitales profesionales y su versión I y II con
una capacidad de 64GB.
 Memory Stick: el formato exclusivo de productos fabricados por Sony y sus variantes Pro, Duo, Pro
Duo, Pro-HG con una capacidad máxima de 32GB.
 XD-Picture: Algunas cámaras de Olympus y Fujifilm siguen usando el formato xD, desarrollado por
ambas compañías, que tiene una capacidad actual de 2 GB.
 Multi Media Card MMC: utilizadas en las cámaras fotográficas y sus variantes Multi media Card
Plus y la de tamaño reducido RS-MMC.
14. Ventajas de las memorias flash
 Bajo consumo de energía eléctrica.
 Reducido tamaño hasta 1 cm2.
 Mayor velocidad de lectura y escritura de hasta 20 MB/s.
 Son dispositivos de estado sólido.
 Bajo tiempo de acceso.
 Son más resistentes a los golpes.
15. Desventajas de las memorias flash
 Tamaño máximo de almacenamiento aceptable que va desde 64 MB hasta 16GB.
 La relación capacidad/precio es un poco elevada.
 Les afecta la humedad y las altas temperaturas.
16. ¿Qué nos conviene utilizar?

La respuesta puede variar de una persona a otra, y tiene mucho que ver con la cantidad de
información que se desea transportar.

 Si queremos un dispositivo para realizar backups de computadoras completas, en este caso un


disco duro viene como anillo al dedo, ya que hoy en día tenemos unidades relativamente
pequeñas de 1.8 pulgadas con capacidades de hasta 160 GB, y su desempeño es bastante
aceptable.

En caso contrario, si lo que deseamos es tener una memoria portátil que sea tan pequeña como un
llavero y que posea una gran velocidad (tanto de escritura como de lectura), seguramente una memoria
Flash de 4 u 8 GB será más conveniente debido a su bajo precio, buen desempeño y capacidad aceptable.
9­ EL ROBOT DA VINCI UN ASISTENTE 

QUIRÚRGICO

INTRODUCCION

La informática se ha convertido en parte fundamental de la tarea clínica diaria y habitual.


Actualmente siguen desarrollándose las nuevas disciplinas (p.ej. telecirugía, cirugía asistida
por ordenador y por la robótica, cirugía guiada por imágenes, nanotecnología, teleconsultas
médicas, teleseguimiento postoperatorio, etc.,) y no podemos menos que comenzar a
preguntarnos cuáles serán las indicaciones futuras de la medicina asistida
informáticamente. Lo que es cierto es que la revolución digital en medicina nos conduce al
desarrollo de nuevas modalidades de tratamiento operatorio, simulaciones de cirugía y
mejor enseñanza quirúrgica.

En la década de 1990, la cirugía laparoscópica modificó totalmente el estilo de las


intervenciones quirúrgicas. A medida que avance el siglo XXI, esta modalidad está en
demanda por parte de los pacientes que desean cirugía mínimamente invasiva por sus
enormes ventajas con relación a la cirugía abierta.

ASISTENTE QUIRÚRGICO Y SUS INICIOS

Las técnicas complejas como la sutura y la ligadura, son difíciles para los cirujanos en el
curso de la laparoscopia debido a la carencia del sentido del tacto, a la imagen
bidimensional (2-D) que da el monitor, a la pérdida de coordinación de la mano (Fig.1) y la
vista, puesto que los instrumentos han de moverse en la dirección opuesta de la que se
desea en el monitor (es decir, el efecto de la imagen en el espejo) (Fig. 2) y de la limitación
de las posibilidades motrices de la mano, la muñeca y los dedos. Todo esto hace que
aumente la tensión mental y física a que está sometido el cirujano. Lo fundamental es que
las intervenciones quirúrgicas han ido evolucionando a lo largo de los años sobre la base de
los ojos entrenados y las manos hábiles del cirujano.

Figura No. 1 Figura No. 2


Estas limitaciones quedan superadas con las tecnologías informáticas avanzadas como los
robots quirúrgicos y las imágenes tridimensionales (3-D). Los robots quirúrgicos como el Da
Vinci Surgical System proporcionan al cirujano técnicas manuales y visuales
tecnológicamente avanzadas que han revolucionado muchos campos de la cirugía
mínimamente invasiva, superando claramente a la laparoscopia convencional sobre todo
en cirugías delicadas y complejas al proporcionar al cirujano un mapa detallado para ver los
tejidos sanos y para la preservación nerviosa, como es la prostatectomía radical, por su
excelente visión (3D), la maniobrabilidad de sus instrumentos articulados y la precisión
quirúrgica, que contribuyen a realizar cirugías de mayor calidad y extraordinaria
ergonomía.

El Robot Da Vinci Surgical System

El Da Vinci Surgical System es un sistema robótico asistido informáticamente (Fig. 3) que


amplía la capacidad del cirujano de operar el interior del cuerpo humano de forma menos
invasiva.

Figura No. 3 Da Vinci® Surgical System


1. Monitor del asistente.
2. Robot quirúrgico.
3. Los instrumentos intercambiables con tecnología Endo-
Wrist siguen al mismo tiempo los movimientos de la mano y
la muñeca del cirujano.
4. El cirujano en la consola operatoria.
5. El cirujano aplica movimientos manuales de cirugía
abierta, que los instrumentos duplican con precisión en el
campo operatorio.
El sistema consta de tres partes principales:

1. La consola del cirujano, que está controlada por el mismo cirujano sentado en una
posición cómoda y ergonómica (Figs. 4 y 5).

Figura No. 4 Figura No. 5


2. El Robot Quirúrgico, que se sitúa junto a la mesa de operaciones en la que está el
paciente y del que salen dos brazos que realizan directamente el procedimiento (Fig.
6).

Figura No. 6

3. El sistema de visión, que es el tercer brazo del Robot Quirúrgico, sostiene una cámara
endoscópica en 3-D de alta calidad (Fig. 6).

Un cuarto brazo puede emplearse para reemplazar a un asistente. La consola del cirujano
consiste en un visualizador que presenta imágenes 3-D obtenidas a partir de la cámara
endoscópica que está dentro del cuerpo del paciente. El término «manipulación amo-
esclavo» se refiere a la consola del cirujano, equipada con manipuladores «amos» que
controlan:

1) los movimientos de los manipuladores quirúrgicos correspondientes («manipulador


esclavo») que sostienen los instrumentos quirúrgicos Endo Wrist; y

2) el manipulador de la cámara endoscópica durante el procedimiento.

Este manipulador amo-esclavo permite al cirujano la realización de procedimientos más


precisos en comparación con la cirugía laparoscópica convencional. Los instrumentos Endo
Wrist® (Fig. 7) otorgan al cirujano siete grados de libertad en comparación con los cuatro
grados que proporciona la cirugía laparoscópica convencional y son comparables al
movimiento de la mano humana en cuanto a aumento de la destreza.

Figura No. 7

Por lo tanto, el resultado es: 1) un traslado intuitivo del asa del instrumento al movimiento
de la punta, eliminando así el efecto de imagen en el espejo y mejorando la coordinación
mano-vista; 2) el escalado de los movimientos del instrumento (desde 1:1 a 1:3 y a 1:5), lo
que permite una disección precisa y delicada (Fig. 8); 3) eliminación del temblor del
cirujano gracias a los filtros informáticos, y 4) la alineación coaxial de los ojos, la mano y la
imagen de la punta de la herramienta. Hasta ahora se han realizado muchos tipos de
intervenciones quirúrgicas con el sistema quirúrgico Da Vinci®, en los campos abdominal,
cardíaco, toracoscópico, ginecológico y urológico.
Figura No. 8

Tipos de cirugías de cánceres asistida por el Robot Da Vinci

• Cirugía abdominal

• Cirugía ginecológica

• Cirugía cardíaca

• Cirugía toracoscópica

• Cirugía Urológica

CONCLUSIONES
La cirugía robótica es un avance técnico mínimamente invasivo que está fascinando a los
cirujanos. El uso de robots como el Da Vinci® indudablemente ha colocado al futuro de la
cirugía urológica en situación de velocidad multiplicada, ha eliminado los principales
inconvenientes de la laparoscopia convencional: la visualización, la coordinación manos-
ojos y las limitaciones del movimiento manual. Estos avances han hecho disminuir la curva
de aprendizaje y el tiempo operatorio y la convierten en un procedimiento quirúrgico
atractivo e inimaginable para los cirujanos.
10­ CLOUD COMPUTING
Consiste en el desarrollo y el uso de la tecnología de computación basado en

Internet (que es la Nube). La Nube es una metáfora para el Internet, basado en como se

dibuja en diversos diagramas de redes, y es una abstracción de la compleja estructura

que oculta.

Cloud Computing es un estilo de computo en donde las capacidades relacionadas con TI

(Tecnología Informática) se proveen como servicio, permitiendo a los usuarios acceder a

estos sin el conocimiento experto, o control sobre la infraestructura de tecnología que

soporta a los mismos (servicios).

De acuerdo con la IEEE Computer Society, Cloud Computing es:

“El paradigma en el que la información se almacena de manera permanente en

servidores en Internet, y luego se almacena de manera temporal (usando un cache)

en clientes que incluyen: computadoras de escritorio, laptops, tablet pc, móviles,

centros de entretenimiento, etc.”

Cloud Computing es también un concepto que incorpora SaaS (Software as a Service),

web 2.0 y otras tendencias tecnológicas bien conocidas, en donde el tema principal o

común, es la confianza en los servicios de Internet para satisfacer las necesidades

computacionales de los usuarios.

Por ejemplo: Google Apps provee una plataforma común de negocios en linea, que se

acceda desde un navegador, mientras que el software y los datos se almacenan en los

servidores de Google.

Historia:

El concepto principal, surge cuando John McCarthy opino (en 1960) que “La

computación podría ser organizada algún día como una utilidad publica”. El termino Cloud

ya se usaba de manera comercial en 1990 para las grandes redes ATM. Para principios

del siglo 21, las soluciones basadas en Cloud Computing comenzaron a aparecer, sin
embargo, se enfocaron en su mayoría al SaaS.

Amazon.com juega un papel importante en el desarrollo de Cloud Computing al

modernizar sus centros de datos (la arquitectura de nube resulto en mayor eficiencia

interna de la compañía) después del efecto de la “burbuja puntocom” (dotcom bubble).

El año 2007, presento un aumento acelerado en esta área, grandes compañías como IBM

y Google, y varias universidades, comenzaron a invertir millones de dolares y a

embarcarse en proyectos de investigación del uso de estas tecnologías. Para mediados

de 2008, Cloud Computing se convirtió en el tema de conversación general, tanto para los

grandes negocios, como para los internautas en general. Para Agosto de 2008, se puede

observar que varias organizaciones están migrando de un modelo de compañía que

posee hardware y software, a modelos de infraestructura tecnológica basada en el uso de

servicios (que brinda la Nube). El crecimiento de Cloud Computing, va íntimamente

relacionado con el crecimiento y la evolución de los proveedores de Internet (Internet

Service Providers).

Características Principales:

Los gastos de capital se minimizan, ya que la “infraestructura” tecnológica se

obtiene mediante el arrendamiento de los proveedores.

Independencia de Hardware y de ubicación, lo que permite que los usuarios

accedan a los sistemas a pesar de la ubicación o del dispositivo de hardware que

usan (PC, móvil).

Multilatencia, que permite compartir recursos (y costos) entre muchos usuarios.

El Rendimiento es monitorizado y consistente, pero puede ser afectado por


insuficiente ancho de banda y cargas elevadas en la red.

Confiabilidad al permitir tener varios sitios redundantes, que permiten recobrarse

rápidamente de desastres.

La Escalabilidad permite adaptarse rápidamente a las demandas de los usuarios.

La Seguridad mejora al encapsular las amenazas, y permitir respaldos periódicos

de contenedores virtuales. Sin embargo, puede ser una piedra de tropiezo, al ser

administrado por terceras personas, y no por la compañía misma.

Es Sostenible, porque se mejora la reutilización de recursos.

Componentes de Cloud Computing:

Hay que recordar que Cloud Computing es un concepto que acuña varias tecnologías o

componentes. Los componentes de Cloud Computing los podemos clasificar en:

Aplicaciones, Clientes, Infraestructura, Plataforma, Servicio y Almacenamiento.

Aplicaciones:

No existe la necesidad de instalar o implantar el software en la maquina cliente, lo que

alivia en cierto grado la cerca del mantenimiento de software. Por ejemplo: Google Maps,

Google Documents.

Clientes:

Un cliente de Cloud Computing puede ser cualquier equipo de hardware y/o cualquier

software que se apoya en la nube para mostrar la aplicación. Por ejemplo: Los clientes

pueden ser dispositivos móviles como Android o el iPhone, o un navegador web como

Firefox o Safari.

Infraestructura:

La infraestructura computacional de la nube, se otorga, arrienda o alquila típicamente


como un ambiente virtualizado, en forma de servicio. Un ejemplo de esto: Amazon Elastic

Compute Cloud (Paravirtualization).

Plataforma:

Al igual que la infraestructura, la plataforma en una nube, se brinda como un servicio. La

forma mas familiar en la que podemos pensar, en es un Web Framework, es decir, una

plataforma de desarrollo web, que brinden el API adecuado para solicitar los servicios de

la nube, lo que nos libera de la complejidad de manejar las capas de software y hardware

que la nube oculta, o que de alguna otra manera, tendriamos que considerar. Ejemplo de

una Plataforma es: Django (Google App Engine), Ruby on Rails (Heroku).

Servicio:

Un servicio en la nube puede ser un Web Service, es decir: Sistema(s) de software

diseñado para soportar una interaccion interoperable entra maquinas sobre una red, que

se puede accesar por otros Web Services alojados en la nube. Por ejemplo: OpenID

(identidad), Amazon Simple Queue Service (Integracion), Google Maps y Yahoo Maps

(mapas).

Almacenamiento:

El almacenamiento en la nube se brinda como un servicio, no solo para almacenar

archivos(como se suele hacer en un servidor FTP), sino que también incluye el

almacenamiento en una base de datos. Usualmente se cobran utilidades por demanda

(gigabytes por mes). Por ejemplo: Amazon SimpleDB (Bases de Datos), Amazon S3 (Web

Service).

Arquitectura:

La arquitectura del Cloud Computing esta basada tanto en elementos de hardware

como de software. La Arquitectura de un proveedor de Cloud Computing, la podríamos

dividir en tres elementos o “capas”: Grid Engine, Contenedor de Servidores Virtuales y el

Hardware. Estos elementos se complementan y comunican mediante un concepto


llamado Cloud Integrador (Integrador de Nube). Incluye típicamente muchos componentes

de la nube, que se están comunicando entre si mediante interfaces web, usualmente Web

Services.

La idea de los componentes de la nube, es similar a la filosofía de los sistemas de familia

Unix, que tienen múltiples programas haciendo solo una cosa, y haciéndola bien,

trabajando entre si mediante interfaces universales. La complejidad se controla y así

resultan sistemas muchos más manejables que sus contrapartes. Recuerde que la

facilidad de Cloud Computing radica en que esta tecnología se extiende hacia los clientes

en donde los simples navegadores web, o algún otro tipo de software se usa para accesar

las aplicaciones de la nube.

Roles:

Los roles que se adquieren en un ecosistema de Cloud Computing pueden ser:

Habilitadores, Proveedores y Consumidores (también se les puede encontrar como

Proveedores, Vendedores y Consumidores).

Habilitadores:

Son las compañías que poseen los bloques elementales de tecnología (con respecto al

Software usualmente) que permiten (habilitan) a terceras personas el diseño o

implementación de las capas (de software) fundamentales para que una empresa se

convierta en un proveedor de Cloud Computing. Por ejemplo: VMWare/EMC, Citrix, Dell,

HP, RedHat, Intel, Sun Microsystems, IBM, etc...

Proveedores:

Son las empresas que brindan los servicios basados en la nube a todos sus clientes,

usualmente son empresas que tiene el poder adquisitivo para invertir millones de dolares

en infraestructura. Por ejemplo: Amazon Web Services, Rackspace, Google y Microsoft.

Consumidores:

Son las compañías que se construyen o mejoran sus aplicaciones web (SaaS) encima de

los proveedores existentes, sin la necesidad de invertir en centros de datos o hardware


exclusivo o caro.
11­ MICROCHIPS BAJO LA PIEL
Históricamente las tecnologías han sido usadas para satisfacer necesidades esenciales
(alimentación, vestimenta, vivienda, protección personal, relación social, comprensión del mundo
natural y social), para obtener placeres corporales y estéticos (deportes, música, etc) y como
medios para satisfacer deseos (simbolización de estatus, fabricación de armas y toda la gama de
medios artificiales usados para persuadir y dominar a las personas).

Las tecnologías no son ni buenas ni malas. Los juicios éticos no son aplicables a las tecnologías,
sino al uso que hacemos de ellas: un arma puede usarse para matar a una persona y apropiarse de
sus bienes o para salvar la vida matando un animal salvaje que quiere convertirnos en su presa.

Ni el habla cotidiana ni los tratados técnicos establecen claramente la diferencia entre


tecnologías y técnicas. Las tecnologías simples tienden a ser llamadas. Las tecnologías
complejas usan muchas tecnologías previas simples estableciendo una amplia gradación
de complejidad en uno de cuyos extremos están las tecnologías más complejas, como las
electrónicas y las médicas, y en el otro las técnicas, generalmente manuales y artesanales,
más cercanas a la experiencia directa de las personas. En algún punto intermedio
desaparece o se hace borrosa la distinción entre tecnologías y técnicas. En el lenguaje
técnico es frecuente denominar tecnologías a los saberes prácticos más racionales y
transmisibles con mayor precisión (generalmente a través de textos, gráficos, tablas y
representaciones varias y complejas), mientras que a las técnicas se les asigna un carácter
más empírico que racional.

Algunas de las tecnologías actuales más importantes, consisten en la aplicación práctica de


las ciencias, sin embargo, no todas las tecnologías son ciencias aplicadas. Tecnologías
como la agricultura y la ganadería precedieron a las ciencias biológicas en miles de años, y
se desarrollaron de modo empírico, por ensayo y error sin necesidad de saberes científicos.
La función central de las ciencias es caracterizar bien la realidad, aunque no sea visible o
vaya contra el "sentido común": describir y categorizar los fenómenos, explicarlos en base
a leyes o principios lo más simples posibles y tal vez (no siempre) predecirlos.

Una nueva tendencia para abrirse paso bajo la piel: la de llevar injertada en forma de microchips
información personal que va desde lo financiero, información médica o bien, datos que permitan la
localización satelital podría ya ha sido lanzada con muy buenos resultados en Europa y México, por
lo que se espera que pueda ser lanzada pronto en otros países de Latinoamérica.

En Londres, uno de cada diez adolescentes aseguró que estaría dispuesto a que le implanten un
microchip con información de sus cuentas bancarias, para poder realizar compras sin tener que
llevar dinero en efectivo o una tarjeta de crédito.
Según esta encuesta, realizada por el Instituto Británico para el Estudio del Sector de la
Alimentación (Institute for Grocery Distribution, IGD), los adolescentes son más abiertos a este tipo
de prácticas, que entre los adultos serían aceptadas sólo por uno de cada veinte. Las ventajas para
el usuario serían disponer siempre de efectivo y de mayor seguridad a la hora de realizar cualquier
tipo de transaccion, ya que el chip no puede ser simplemente arrebatado; y para el comercio, saber
instantáneamente quién es el cliente y de cuánto dinero dispone para pagar la compra.

El mecanismo funcionaría injertando bajo la piel el microchip, que tiene entre 5 y 7 mm de largo, el
tamaño equivalente al de un grano de arroz. El mismo podrá ser leído por un escáner de
radiofrecuencia que recupera los datos. Para poder emitir la señal, el microchip debe estar provisto
de una pila de litio especial, constantemente recargada por las variaciones de temperatura del
cuerpo humano. Más de un millón y medio de dólares se invirtieron en averiguar en qué lugar del
cuerpo la temperatura varía más rápidamente. Se hallaron dos lugares posibles propicios para
implantar el chip y recargar la pila: la frente, en la raíz del cabello, y en el dorso de la mano
derecha.

El procedimiento de implantación es indoloro, aunque puede provocar algunas molestias después


de injertado. Según una publicación de Europa Press, este sistema ya funciona en la discoteca
catalana Baja Beach Club, en Barcelona, España. En esta discoteca el chip permite a sus portadores
no tener que mostrar documentos o tarjetas de crédito para pagar el consumo. Se espera que en un
futuro sirva incluso para sacar dinero de los cajeros automáticos sin necesidad de tarjeta de crédito.

El uso de estos chips ya tienen múltiples aplicaciones, que van desde su colocación en perros y
gatos para evitar que se pierdan, hasta su colocación en las zapatillas de los corredores de
maratones para impedir que hagan trampa. En Estados Unidos se evalúa la colocación de chips en
los pasaportes, que podrían contener datos tales como nombre, sexo, lugar de nacimiento,
fotografía digital e incluso, imagen de la huella dactilar.

Las dudas en contra de los mismos se centran en la seguridad individual, dado que mediante una
antena capaz de captar la microfrecuencias del chip podría robar la información personal del
portador y utilizarla para la falsificación de identidad.

Sin embargo, también pueden aplicarse a cuestiones más vitales: por ejemplo, en Estados Unidos
también se estudia su posible implementación para guardar datos de la historia clínica de las
personas, para que ante una urgencia, con sólo pasar un lector por el chip injertado los médicos
cuenten con los antecedentes del paciente. En relación a este uso, una encuesta de D'Alessio IROL
en Argentina develó que siete de cada diez personas estarían dispuestas a llevar estos chips.

Siguiendo en Latinoamérica, comienza a surgir la implantación subcutánea de tecnología para el


rastreo satelital de la localización de un individuo. Por ejemplo, en la ciudad de San Pablo en Brasil
esta técnica está disponible para los empresarios que temen ser víctimas de un secuestro. Según el
semanario Carta Capital, la demanda se circunscribe actualmente a un sector que tan sólo
representa el 0.3% de los más de veinte millones de habitantes de esa ciudad.

La inseguridad parece ser una buena propulsora del avance de los mecanismos personales de GPS
(Global Position System o Sistema de Posicionamiento Global, por sus siglas en inglés). En Buenos
Aires, la empresa HAWK GPS Solutions promociona un dispositivo para que los padres puedan saber
en todo momento y con exactitud dónde están sus hijos.

Quienes contraten el servicio, podrán acceder desde una página web a una localización precisa de
los menores y seguir sus movimientos. El servicio también se ofrece como ventajoso para utilizar
con ancianos y equipos de trabajo. En este caso, no se utiliza bajo la piel, sino que puede llevarse,
por ejemplo, en un bolsillo. Chips, GPS y otras tecnologías simplifican la identificación, ahorran
tiempo y permiten el seguimiento de las personas, pero está latente el riesgo de que la comodidad
que brindan se pague con la pérdida de la privacidad.

VERICHIP

VeriChip es una empresa pionera en el desarrollo de chips RFID (Radio Frecuency Identification o
Identificación por Radiofrecuencia, por sus siglas en inglés) para seres humanos, cuyo dispositivo
lleva el mismo nombre de la empresa. Este dispositivo de radio frecuencia se implanta en el cuerpo
humano con fines de identificación. Esto lo hace útil en una variedad de aplicaciones médicas
como:
• Identificación de dispositivos médicos como marcapasos, válvulas coronarias o articulaciones
artificiales.
• Integración y consulta del historial médico de pacientes que requieren cuidados especiales.
• En casos de emergencia, permite la identificación rápida y segura de una persona, sin
necesidad de recurrir a técnicas biométricas como el estudio de huellas dactilares,
reconocimiento de voz u otras más sofisticadas.
Esta empresa saltó a la fama recientemente cuando se hizo público su acercamiento al presidente
de los Estados Unidos con una propuesta para implantar un chip a inmigrantes, el cual vale
recordar, sólo puede ser quitado mediante métodos quirúrgicos. El debate generado fue tal que
según voceros hasta el mismo presidente de Colombia manifestó su interés en la aplicación de esta
tecnología para controlar que los inmigrantes colombianos en Estados Unidos regresaran a su país
al finalizar sus contratos de trabajo temporal.

Asimismo, se encuentra en periodo de pruebas y diseño su aplicación en Solusat Médica, para


utilizarse como expediente electrónico incluyendo imágenes como ultrasonidos, radiografías, etc.
Un solo dispositivo es suficiente para proporcionar todas las aplicaciones descritas.

Se realiza un rastreo corporal por medio de un escáner externo, el cual emite ondas
electromagnéticas de radiofrecuencia que traspasan la piel y activan el Verichip después de ser
insertado en el cuerpo. Una vez activado, emite una señal de radiofrecuencia que contiene el
número único de identificación del Verichip.

El número de identificación, no es superior a 128 caracteres y es captado por el escáner que a su


vez está conectado a través de una línea telefónica o red LAN, a una base de datos almacenada en
un servidor de Internet. Desde ahí se puede tener acceso a toda la información disponible sobre
cada usuario. Como es de suponer, el sitio tiene acceso restringido.

Sin embargo, con anterioridad a este suceso se había propuesto ya la implantación de


chips en seres humanos con fines de identificación. La empresa Applied Digital Solutions,
de cuya empresa Verichip Corp. es subsidiaria, reza en su slogan "the power of
identification techonology" (el poder de la tecnología de identificación). Hace años había ya
patentado un chip similar en tamaño a una pastilla que una vez dentro del organismo
enviaba señales a un scanner con información acerca del tipo de sangre, historial médico y
otros datos de interés sobre el portador que permitirían su identificación frente a una
eventual guerra o catástrofe. Actualmente esta empresa comercializa el chip a través de
Verichip Corporation bajo el slogan "Locate. Identify. Protect" (Localizar. Identificar.
Proteger).
12­ DANCE CHARGE

QUE ES LA ENERGÍA CINÉTICA

En física, energía se define como la capacidad para realizar un trabajo. Dentro de las formas de
generar energía se encuentran las renovables que son las que se obtienen de fuentes naturales y
dentro de esta categoría esta la energía cinética.

La energía cinética de un cuerpo es una energía que surge en el fenómeno del movimiento, es la
parte de la energía mecánica de un cuerpo y corresponde al trabajo de las transformaciones que un
cuerpo puede producir, debido a su movimiento y por tanto es un recurso renovable y autóctono.
Esta capacidad de realizar cambios, que poseen los cuerpos en movimientos, se debe
fundamentalmente, a dos factores: la masa del cuerpo y su velocidad. Un cuerpo que posee una
gran masa, podrá producir grandes efectos y transformaciones debido a su movimiento. Para poner
un cuerpo en movimiento es necesario aplicarle una fuerza. Cuanto mayor sea el tiempo que esté
actuando dicha fuerza, mayor será la velocidad del cuerpo y, por lo tanto, su energía cinética será
también mayor. Un ejemplo de la generación de esta energía se puede observar cuando una bala,
de apenas unos gramos, puede penetrar en gruesos troncos, al ser disparada a gran velocidad con
un fusil.

BENEFICIOS DE LA ENERGÍA CINÉTICA

Habiendo descrito y entendiendo lo que es la energía cinética podemos preguntarnos que


beneficios ha traído a la humanidad las tecnologías desarrolladas con energía cinética,
aprovechando que la energía cinética se puede encontrar en todas partes, existen diversos
tipos de aplicaciones que han ayudado al desarrollo tecnológico de la humanidad para la
satisfacción de necesidades básicas, entre estas se pueden mencionar las que aprovechan
la transformación energía cinética del viento para hacer trabajo mecánico o para generar
electricidad como en molinos y pozos, llamada energía eólica, además del beneficio
tecnológico la generación de electricidad a partir del viento evita la producción de gases
tóxicos que contribuyan al efecto invernadero y a la lluvia ácida. Se considera, energía
limpia, pues para generar esa electricidad no origina productos secundarios y peligrosos
para el hombre, tierra y atmósfera.

EL CUERPO HUMANO COMO FUENTE DE ENERGÍA

El ser humano es en definitiva un generador de energía, la realización de actividades físicas


cotidianas como caminar, correr, etc. generan energía cinética y esta puede ser utilizada para
generar electricidad, existen varias empresas europeas que han analizado este hecho como la
empresa GotWind, una empresa con 25 años de experiencia en el diseño y la fabricación de
proyectos de energía renovable a pequeña escala, que hasta hace unos cuantos años se centraba
en especial en la energía eólica y la energía solar, ha ganado prestigio por el desarrollo de este tipo
de proyectos por ello generó un gran interés en diferentes tipos de empresas, una de ellas es la
empresa proveedora francesa de telecomunicaciones móviles Orange, dicha organización se asocio
con Gotwind en el 2007 con el propósito de crear mecanismos útiles para recargar dispositivos que
provee Orange.
La primera creación de Gotwind para Orange es el prototipo de una tienda cargadora para
ipods llamada “RechargePod”, que utiliza energía eólica y solar, la cual puede cargar hasta
100 unidades del reproductor por hora. Juntamente a RechargePod, esta asociación ha
desarrollado otra tecnología similar llamada “Dance Charge”, un cargador portátil que se
basa en el hecho de aprovechar que el cuerpo humano esta continuamente en movimiento
y como tal es una fuente de energía, y es capaz de recoger la energía cinética que genera
mientras esta en movimiento continuo, y convertirla en la energía necesaria para cargar
algunos tipos de dispositivos tales como teléfonos móviles, mp3, etc.

¿QUE ES DANCE CHARGE?

Dance Charge es un brazalete similar a los que se utilizan para transportar ipod o mp3, la
idea del diseño del brazalete nace básicamente en crear un producto innovador,
entretenido e interactivo que alenté al usuario a mantenerse activo mientras carga su
dispositivo portátil y al mismo tiempo aprovechar la energía cinética que puede generar el
cuerpo humano en beneficio del avance de la tecnología, es por eso del nombre “Dance
Charge” y del lema que simboliza al dispositivos “Cargá tu móvil bailando”, pero la
asociación está buscando adaptarlo para que la generación de energía no se limite a
cuando se está bailando o corriendo si no también pueda hacerlo al realizar otras
actividades mas simples como caminar, aun en los quehaceres domésticos como aspirar,
limpiar, etc. que siempre requieren del movimiento de los brazos aunque sea de una
magnitud menor.

El Dance Charge aprovecha el movimiento específicamente del brazo, en donde se ajusta para
transformar el trabajo que se realiza en electricidad, esto se logra por la integración de un sistema
de contrapesos en dicho brazalete. El material empleado para la fabricación del brazalete en si es
el neopreno, material que se caracteriza por ser impermeable, además de que es no transpirable y
aislante térmico. La densidad es de 4mm de espesor, Su cara interior forrada en tejido hipoalérgico,
proporciona confort, produce un efecto antideslizante y los bordes están remallados para aumentar
su durabilidad, además posee una banda elástica para ajustar el brazalete a varias medidas con un
sistema de apertura y cierre rápido de velero.

Dance Charge cuenta con un dispositivo interno que es el que encarga de transformar la
energía, es de una escala pequeña, posee una medida de 11 cm de alto por 5 cm de ancho
y un peso de 180 gramos similar al de un paquete de naipes.

CARACTERÍSTICAS TÉCNICAS

Característica Descripción
Nombre Dance Charge
Diseñador Orange
Fabricante GodWind
Año de creación 2007
Material Brazalete Esta hecho de Neopreno
material impermeable,
Posee una Banda elástica
con Velcro para su ajuste.
Color Negro
Dimensiones del cargador interno 11 X 5 cm.
Ancho x Alto
Peso del cargador 180 gramos
Mecanismo transformador Sistema de contrapesos
Dispositivos compatibles No disponible
Accesorios Batería recargable

FUNCIONAMIENTO

Mientras el usuario mueve sus brazos al correr o al ritmo de la música, un sistema especial de
pesas e imanes, el sistema de tecnología cinética creado para Dance Charge
utiliza el principio de Faraday, que indica que el movimiento de un conductor a
través de un campo magnético produce voltaje en el conductor
proporcional a la velocidad del movimiento. En este caso, el conductor es una
bobina del alambre. El sistema utiliza un imán que se mueve alrededor de
una bobina cada vez que el portador realiza algún movimiento,
generando una carga que se almacena en una batería recargable (ver
figura).

Viéndolo de una forma más sencilla el sistema de tecnología cinética convierte la energía mecánica
generada por el a electricidad y esta es almacenada en una batería recargable, que posterior se
utilizará para cargar el dispositivo móvil deseado.

De acuerdo a GotWind, luego de varias revisiones lograron alcanzar una eficiencia en la conversión
de 85%. Esto permite que, según datos provistos por la empresa, una hora bailando puede proveer
suficiente carga para llevar el indicador de batería a dos barras, suficiente para hablar
continuamente por un período de 15 minutos. Orange y Gotwind realizaron pruebas para medir
tanto la capacidad de recarga del dispositivo así como también el interés que genera a las personas
y la aceptación del mismo, esto se realizó en un festival efectuado en Inglaterra en Glastonbury o
Glasto, que es la celebración más grande a nivel mundial de música y artes, la prueba se hizo
empleando un “cargador danzante”, cuyo trabajo consistía en bailar gratis para todos aquellos que
necesitaran recargar sus aparatos celulares durante el festival

VENTAJAS Y DESVENTAJAS

Ventajas:

•Contribuye al cuidado del medio ambiente porque su fuente de alimentación es natural.


•Por el hecho de ser un instrumento portátil se puede generar energía en cualquier lugar,
media vez se realicen movimientos con los brazos.
• Es ajustable a cualquier tipo de persona debido al material con el que se creó el exterior
del cargador.
• El sistema trabaja con una fuente inagotable de energía ya que es energía renovable.
Desventajas

• La generación de energía solo se lleva acabo al realizar ejercicios como el baile o


ejercicios en donde el movimiento es más fluido.
• No permite cargar cualquier tipo de dispositivo.
• El usuario debe de ejercitarse o bailar varias horas para generar energía suficiente para
cargar el dispositivo completamente.

Tecnologías similares

Sustainable Dance Club


El club de baile sostenible de París: Una discoteca que se sirve del baile de la gente para producir
energía. En Francia se construyó una discoteca en la que la pista de baile está construida con un
mecanismo piezoeléctrico que produce electricidad al ser pisado, haciendo que la gente al bailar
produzca energía. Según informan los creadores de 'Sustainable Dance Club' (SDC), la discoteca
bautizada como 'Watt' abrió sus puertas el mes de septiembre.

La idea consiste en producir electricidad mientras la gente se divierte bailando, gracias a una pista
diseñada con 'materiales inteligentes' para transformar el movimiento en energía. Como detallan
los impulsores de la SDC, 65 cm2 de pista producirían entre 5 y 10 vatios, dependiendo de la gente
que estuviera bailando, y su coste rondaría los 3.500 euros. Eso sí, aún no está claro hasta qué
punto esta fuente de energía puede abastecer todo un local, y SDC reconoce que aún no tienen
todas las respuestas. De igual manera hay planes de construir gimnasios diseñados para producir
energía a través de las bicicletas o ejercicios aeróbicos.

Relojes cinéticos

En 1988 surgió el reloj de Seiko Kinetic, que no se lanzaría comercialmente hasta 1992. El
movimiento humano, en lugar de dar cuerda a un módulo mecánico, mueve un péndulo que
alimenta a un mecanismo eléctrico.

Laptop que funciona a pedales

Este es otro ejemplo de cómo la fuerza motriz del ser humano puede generar energía. El
proyecto, lanzado por un equipo de la Universidad Politécnica de Madrid, permite el
funcionamiento de un portátil con el simple movimiento del pedaleo de una persona como
única fuente de energía. De esta forma, a la vez que la persona hace ejercicio, está
trabajando con una energía totalmente limpia y renovable.
13­ ERA DEL DIAGNOSTICO NO INVASIVO: LA 
TOMOGRAFIA COMPUTARIZADA

1. LA MEDICINA NUCLEAR

La medicina nuclear es un área especializada de la radiología que utiliza cantidades muy


pequeñas de sustancias radioactivas, o radiofármacos, para examinar la función y
estructura de un órgano. La generación de imágenes en la medicina nuclear es una
combinación de muchas disciplinas diferentes, entre ellas la química, la física, las
matemáticas, la tecnología informática y la medicina. Esta rama de la radiología se utiliza a
menudo para ayudar a diagnosticar y tratar anomalías muy temprano en la progresión de
una enfermedad, como el cáncer.

Debido a que los rayos X atraviesan los tejidos blandos como intestinos, músculos y vasos
sanguíneos, es difícil visualizarlos con rayos X convencionales, salvo que se utilice un
agente de contraste para facilitar la visualización del tejido. El método de imágenes
nucleares permite la visualización de la estructura y la función órganos y tejidos.

Durante el procedimiento se utiliza una pequeña cantidad de sustancia radioactiva que


facilita el examen. Una vez que el paciente ha ingerido la sustancia y que el tejido del
cuerpo la absorbe, se emitirá la radiación, la cual será captada por un detector de
radiación.

Las áreas en las que la sustancia radioactiva se concentra en mayor cantidad se


denominan “zonas calientes”, las áreas que no la absorben aparecen con menor brillo en la
imagen y se denominan “zonas frías”.

2. LA TOMOGRAFIA COMPUTARIZADA

En las radiografías convencionales, se dirige un rayo de energía (rayos X) a la parte del


cuerpo que se está estudiando. Una placa situada detrás de la zona del cuerpo captura las
variaciones del rayo de energía después de que éste pasa a través de la piel, el hueso, el
músculo y otros tejidos. Aunque puede obtenerse mucha información de las radiografías
regulares, no se consiguen muchos detalles específicos de los órganos internos y otras
estructuras.

Es aquí en donde la Tomografía Computarizada (CT Scan o CAT Scan) mejora el uso de los
Rayos X, debido a que éstos se mueven en círculo alrededor del cuerpo, para obtener
imágenes radiológicas del cuerpo por secciones longitudinales, a distancias de media
pulgada. Es el equivalente fotográfico de cortar un pedazo de una fruta en varias
rebanadas y mirar en la parte interior de las superficies que se han cortado. Sin embargo,
para esto no se corta a nadie, y en efecto, es un proceso indoloro. Luego la información
obtenida es enviada a una computadora que interpreta los datos de los rayos X y los
presenta en forma tridimensional en un monitor. Además los estudios mediante TC se
pueden realizar con o sin contraste. El término "contraste" se refiere a una sustancia
administrada oralmente o inyectada por vía indo venosa (IV) que hace que se vea más
claramente el órgano o tejido en particular que se está estudiando.

"El CT scan", sin embargo, no se puede usar para todo, aunque con su ayuda se pueden
detectar ahora muchos más problemas médicos y más rápidamente. Por ejemplo, un "CT
scan" es muy útil para encontrar hemorragia o tumores del cerebro, así como otros
problemas en otras partes del cuerpo. Por otra parte, no es la mejor prueba para detectar
un ataque al corazón o para hallar una úlcera estomacal.

3. EL EQUIPO BRILLIANCE TC

El Brilliance TC, es un equipo de tomografía computarizada fabricado por la compañía holandesa


Philips. Esta máquina toma un gran número de imágenes de rayos X y las combina con la ayuda de
un programa informático, que permite ver dichas tomas de rayos X como imágenes
tridimensionales, haciendo que los médicos las pueden rotar para verlas desde diferentes
direcciones.

El Brilliance TC genera las imágenes a una velocidad mucho mayor que los demás aparatos de TC:
escanear un cuerpo completo toma menos de un minuto. Esto es posible porque el aparato que
emite los rayos X (la parte gigante en forma de anillo que rodea al paciente) puede rotar cuatro
veces por segundo, un 22% más rápido que los sistemas actuales.

3.1 EL SISTEMA BRILLIANCE CT. WORKSPACE

Es el primer entorno de usuario diseñado específicamente para los estudios de Tomografía


Computarizada, y resulta de gran utilidad para ayudar a los usuarios a gestionar los conjuntos de
datos que se generan de la adquisición de imágenes mediante el Brilliance TC.

WorkSpace ayuda a los usuarios a trabajar de forma más sencilla y rápida, pues permite
cambios de vista, con un solo clic. Los menús contextuales le indican al usuario donde está
y hacia dónde se dirige, además permite la generación de informes, incluso cuando se
está fuera del Scanner TC.

Es un sistema creado como plataforma escalable para que en el futuro pueda crecer e
implementar otras aplicaciones, por lo que se vuelve una inversión a largo plazo.

4. OTRAS APLICACIONES DE LA TOMOGRAFIA COMPUTARIZADA


La Tomografía Computarizada se ofrece como una posible alternativa a la autopsia
convencional, especialmente en el caso de las personas que fallecen tras sufrir un
accidente de automóvil o de moto. El escáner puede identificar la causa de la muerte o
ayudar a encontrar las claves de la misma, por lo que ya no se trata de saber qué le ocurre
al paciente, sino conocer qué le ha provocado la muerte.

Un atropello, un accidente de auto o moto, un tiro o incluso una cuchillada. Este tipo de
causas mortales, que en la mayoría de los casos provocan un fallecimiento instantáneo,
son las que más pueden beneficiarse por el citado escáner. Éste complementa a las
autopsias tradicionales, e incluso podría llegar a evitar la apertura del cadáver.

La mencionada técnica ahorra tiempo y, consecuentemente, dinero, ya que tarda unos 30


minutos en realizar un examen completo del fallecido, en comparación con las varias horas
que puede requerir una necropsia completa.

Al no ser invasivo, el escáner impide que se dañen o destruyan evidencias clave en el


diagnóstico forense. Y puede ser de gran utilidad en los casos en los que las creencias
religiosas o culturales de la víctima, o de sus familiares, impidan ‘abrir’ el cadáver.

Realizar primero una TC puede acelerar una autopsia convencional, especialmente cuando
se trata de localizar fragmentos de bala, que son de vital importancia en las
investigaciones criminales, no así en muertes que no sean causadas por traumatismos.
14­ ETIQUETAS TRANSMISORAS

En la actualidad, la tecnología más extendida para la identificación de objetos son los códigos
de barras. Sin embargo, presentan algunas desventajas, como son la escasa cantidad de datos
que pueden almacenar y la imposibilidad de ser modificados (reprogramados). La mejora obvia
que se ideó, y que constituye el origen de la tecnología RFID, consiste en usar circuitos
integrados de silicio que pueden transferir los datos que almacenan a un lector, sin entrar en
contacto físico (de forma equivalente a los lectores de infrarrojos utilizados para leer los
códigos de barras). Así es como surge una de las tecnologías que está cambiando a pasos
agigantados, la producción y el servicio que presta una empresa hoy en día.

Qué es RFID?
Es un sistema de almacenamiento y recuperación de datos remotos que usan dispositivos
denominados etiquetas, transpondedores o tags RFID. El propósito fundamental de la
tecnología RFID es transmitir la identidad de un objeto (similar a un número de serie único)
mediante ondas de radio. Una etiqueta RFID es un dispositivo pequeño, similar a una pegatina,
que puede ser adherida o incorporada a un producto, animal o persona. Contienen antenas
para permitirles recibir y responder a peticiones por radiofrecuencia desde un emisor-receptor
RFID. Una de las ventajas del uso de radiofrecuencia (en lugar, por ejemplo, de infrarrojos) es
que no se requiere visión directa entre emisor y receptor. El modo de funcionamiento de los
sistemas RFID es simple. La etiqueta RFID, que contiene los datos de identificación del objeto al
que se encuentra adherido, genera una señal de radiofrecuencia con dichos datos, esta señal
puede ser captada por un lector RFID, que se encarga de leer la información y pasársela, en
formato digital, a la aplicación específica que utiliza RFID, generalmente un ordenador.

Elementos de la Etiqueta
Un sistema RFID está basado en los siguientes elementos:

Transpondedor: Está compuesto por una antena, un transductor radio y un material


encapsulado o chip. El propósito de la antena es permitirle al chip que contiene la información,
transmitir la información de identificación de la etiqueta. El chip posee una memoria interna
con una capacidad que depende del modelo y varía de una decena a millares de bytes.

Transceptor: Compuesto por una antena, un transceptor y un decodificador. El lector envía


periódicamente señales para ver si hay alguna etiqueta en sus inmediaciones. Cuando capta
una señal de una etiqueta (la cual contiene la información de identificación de ésta), extrae la
información y se la pasa al subsistema de procesamiento de datos.

Subsistema de procesamiento de datos: Proporciona los medios de proceso y


almacenamiento de datos.

Clasificación de Etiquetas
SEGÚN SU MEMORIA

Existen varios tipos de memoria:

Solo lectura: El código de identificación que contiene es único y es personalizado


durante la fabricación de la etiqueta.

De lectura y escritura: La información de identificación puede ser modificada por el


lector.

Anticolisión. Se trata de etiquetas especiales que permiten que un lector identifique


varias al mismo tiempo (habitualmente las etiquetas deben entrar una a una en la zona
de cobertura del lector).

SEGÚN SU FUENTE DE ENERGÍA

Dependiendo de la alimentación que tengan las etiquetas (tags) se pueden clasificar en:

Tags Pasivos: No poseen ningún tipo de alimentación. La señal que les llega de los
lectores induce una corriente eléctrica mínima que basta para operar el circuito integrado
del tag para generar y transmitir una respuesta.

Tags Activos: A diferencia de los tags pasivos, los activos poseen su propia fuente
autónoma de energía, que utilizan para dar corriente a sus circuitos integrados y
propagar su señal al lector. Estos tags son mucho más fiables (tienen menos errores) que
los pasivos debido a su capacidad de establecer sesiones entre el lector. Son capaces de
transmitir señales más potentes que las de los tags pasivos, lo que les lleva a ser más
eficientes en entornos difíciles para la radiofrecuencia como el agua (incluyendo
humanos y ganado, formados en su mayoría por agua), metal (contenedores, vehículos).

Tags semipasivos: Se parecen a los activos en que poseen una fuente de alimentación
propia, aunque en este caso se utiliza principalmente para alimentar el microchip y no
para transmitir una señal. La energía contenida en la radiofrecuencia se refleja hacia el
lector como en un tag pasivo.

EPC, Internet de los objetos


EPC, Electronic Product Code, es un tag RFID capaz de identificar, con un código unívoco a nivel
mundial, cualquier objeto fabricado o comercializado. Con una primera aproximación se puede
considerar un equivalente del código de barras, en versión electrónica y con capacidad de
transmisión radio. El sistema no define tan sólo el tipo de vehículo de identificación, sino
también las necesarias tecnologías de red, parecidas a las de Internet, que aseguran la
trazabilidad de dichos productos a lo largo de toda la cadena del suministro.

Aplicaciones
Las etiquetas RFID de baja frecuencia se utilizan comúnmente para la identificación de
animales, seguimiento de barricas de cerveza, y como llave de automóviles con sistema
antirrobo. En ocasiones se insertan en pequeños chips en mascotas, para que puedan ser
devueltas a su dueño en caso de pérdida.
Las etiquetas RFID de alta frecuencia se utilizan en bibliotecas y seguimiento de libros,
seguimiento de productos, control de acceso en edificios, seguimiento de equipaje en
aerolíneas y seguimiento de artículos de ropa.

Un uso extendido de las etiquetas de alta frecuencia como identificación de insignias,


substituyendo a las anteriores tarjetas de banda magnética. Sólo es necesario acercar estas
insignias a un lector para autentificar al portador.

Las etiquetas RFID se ven como una alternativa que reemplazará a los códigos de barras,
puesto que tiene un número de ventajas importantes sobre la arcaica tecnología de código de
barras. Quizás no logren sustituir en su totalidad, debido en parte a su costo relativamente más
alto. Para algunos artículos con un costo más bajo la capacidad de cada etiqueta de ser única
se puede considerar exagerado, aunque tendría algunas ventajas tales como una mayor
facilidad para llevar a cabo inventarios.

También se debe reconocer que el almacenamiento de los datos asociados al seguimiento de


las mercancías a nivel de artículo ocuparía muchos terabytes. Es más probable que las
mercancías sean seguidas a nivel de distribución usando etiquetas RFID, y a nivel de artículo
con producto único, en lugar de códigos de barras únicos por artículo. Los códigos RFID son tan
largos que cada etiqueta RFID puede tener un código único, mientras que los códigos UPC
actuales se limitan a un solo código para todos los casos de un producto particular.

La unicidad de las etiquetas RFID significa que un producto puede ser seguido individualmente
mientras se mueve de lugar en lugar, terminando finalmente en manos del consumidor. Esto
puede ayudar a las compañías a combatir el hurto y otras formas de pérdida del producto.
También se ha propuesto utilizar RFID para comprobación de almacén desde el punto de venta,
y sustituir así al encargado de la caja por un sistema automático que no necesite ninguna
captación de códigos de barras.

Beneficios

Combinación de diferentes tecnologías integrables: RFID e Internet.

Lecturas más rápidas y más precisas (Eliminando la necesidad de tener una línea de visión
directa).

Niveles más bajos en el inventario.

Mejora el flujo de caja y la reducción potencial de los gastos generales.

Reducción de roturas de stock.

Capacidad de informar al personal o a los encargados de cuándo se deben reponer las


estanterías o cuándo un artículo se ha colocado en el sitio equivocado.

Disminución de la pérdida desconocida.

Ayuda a conocer exactamente qué elementos han sido sustraídos y, si es necesario, dónde
localizarlos.
Integrándolo con múltiples tecnologías: video, sistemas de localización, etc. Con lectores de
RFID en estanterías ayudan a prevenir el robo en tienda.

Mejor utilización de los activos.

Seguimiento de sus activos reutilizables (empaquetamientos, embalajes, carretillas) de una


forma más precisa.

Luchar contra la falsificación (Esto es primordial para la administración y las industrias


farmacéuticas).

Retirada del mercado de productos concretos inservibles.

Reducción de costos y en el daño a la marca (averías o pérdida de ventas).


15­ IPHONE

ANTECEDENTES DEL IPHONE TELÉFONO CELULAR

Las tecnologías han tenido mucho auge y desarrollo en estos últimos años siendo una de
estas el desarrollo de la telefonía celular.
El teléfono fue inventado por Alexander Graham Bell en 1876 cuyo primer modelo fue
lanzado al mercado con el nombre de Motorola DynaTAC 8000X en 1983 cuyas
características son:
Analógico
Peso 28 onzas
Medidas: 13” x 1.75” x 3.5”
A pesar de que la telefonía celular fue concebida estrictamente para la voz, la tecnología
celular de hoy es capaz de brindar otro tipo de servicios, como datos, audio y video con
algunas limitaciones
Las generaciones de la telefonía inalámbrica
Generación (1G)
La 1G de la telefonía móvil hizo su aparición en 1979; se caracterizó por se analógica y
estrictamente para voz; la calidad de los enlaces era baja
Generación (2G)
Se caracterizó por ser digital aplicando tecnologías como: GSM (Global System por Mobile
Communications), IS-136 (TIA/EIA136 o ANSI-136), CDMA (Code Division Multiple Access) y
PDC (Personal Digital Communications) ofreciendo servicios de datos, fax y SMS (Short
Message Service)
Generación 2.5 G
Ofrece características con más capacidades adicionales que los sistemas 2G como: GPRS
(General Packet Radio System), HSCSD (High Speed Circuit Switched)
Generación 3G
La 3G se caracteriza por contener a la convergencia de voz y datos con acceso inalámbrico
a Internet, multimedia, videoconferencia y acceso rápido a Internet
iPod
Apple lanzo el primer iPod el 23 de octubre de 2001 es un reproductor de música digital con
pantalla en color y disco duro, o en el caso de iPod nano, iPod shuffle y iPod touch con
memoria flash, es uno de los reproductores de audio digital más vendidos en el mundo.
Actualmente, la línea de productos iPod se compone de cuatro series:
• iPod classic reproducción de vídeo y equipado con un disco duro de 80 o 160 GB, 40
horas de reproducción de sonido, tiene un delgado diseño metálico.
• iPod nano tiene una memoria flash de 4 GB u 8 GB cuya batería tiene 24 horas de
duración, vídeo de hasta 5 horas de duración, pantalla con una resolución de 320 por
240 con el mayor número de píxeles por pulgada
• iPod shuffle sin pantalla y con una memoria flash de 1 y 2 GB siendo lanzado al
mercado en febrero de 2008; teniendo una capacidad de 500 canciones.
• iPod touch equipado con memoria de 8GB y 16G contando con una red inalámbrica
vía Wi-Fi, pantalla multitáctil con una resolución 320x480 píxeles de 3.5 pulgadas
similar a la del iPhone, reproducción de audio pudiendo ser descargado de internet
y vídeo cuyas dimensiones son de 11 cm alto, 6.2 ancho, 8 mm de fondo, peso de
120 gramos. Su batería ofrece 22 horas en reproducción de audio y 5 horas en
reproducción de vídeo, con un tiempo de carga de 3 horas.

ESPECIFICACIONES
Dimensiones y peso:
Alto: 4.5 pulgadas (115.5 mm)
Ancho: 2.4 pulgadas (62.1 mm)
Profundidad: 0.48 pulgadas (12.3 mm)
Peso: 4.7 onzas (133 gramos)
Color:
Modelo de 8GB: Negro
Modelo de 16GB: Negro o Blanco
Pantalla:
Pantalla ancha de 3.5 pulgadas con Multi-Touch
Resolución de 480x320 pixeles
Soporte para mostrar múltiples lenguajes y caracteres simultáneamente
Capacidad:
Disco flash de 8GB o 16GB
Conectores y entradas/salidas:
Conector para dock de 30 pin
Minijack para auriculares estéreo de 3.5 mm
Parlante incorporado
Micrófono
Bandeja para tarjeta SIM
Sensores:
Acelerómetro
Sensor de proximidad
Sensor de luz ambiente
Tiempo de conversación: 5 horas con 3G
10 horas con 2G
Reproducción de Video: 7 horas
Reproducción de Audio: 24 horas
Teléfono celular GSM de cuatro bandas cuyos rangos son:
• 850 MHz
• 900 MHz
• 1800 MHz
• 1900 MHz

BOTONES
Botón de reposo/activación: Si no se va a utilizar el iPhone pero se desea poder recibir
llamadas y mensajes de texto se puede bloquear. Cuando el iPhone está bloqueado no
sucede nada al tocar la pantalla; pero se puede escuchar música, ajustar el volumen,
utilizar el botón del auricular manos libres estéreo incluido para reproducir o poner en
pausa una canción y responder o terminar una llamada
Botones de volumen:
Cuando se está hablando por teléfono, escuchando canciones, películas u otros archivos
multimedia los botones laterales del iPhone permiten ajustar el volumen del sonido. En el
resto de los casos estos botones controlan el volumen del timbre, las alertas y otros efectos
de sonido
Botón de tono/silencio
Cuando está ajustado en el modo de tono el iPhone reproduce todos los sonidos y cuando
está ajustado en el modo silencio no suena ni reproduce ninguna alerta o efecto de sonido;
no obstante, las alarmas ajustadas con el Reloj sí que suenan. Por omisión al recibir una
llamada el iPhone vibra tanto en el modo de tono como en el modo silencio. Si el iPhone
está ajustado en el modo de tono se puede silenciar una llamada pulsando el botón de
reposo/activación o uno de los botones de volumen una vez. Púlselo una segunda vez para
enviar la llamada al buzón de voz
Pantalla táctil
Los controles de la pantalla táctil del iPhone cambian de forma en función de la tarea que
esté realizando
• Apertura de aplicaciones
Abrir una aplicación: Pulsar un icono
• Desplazamiento
Se puede arrastrar hacia arriba o hacia abajo para desplazarse, en las páginas web también
se puede desplazarse lateralmente
• Auricular manos libres
El auricular manos libres incluido con el iPhone incluye un micrófono y un botón integrado
que permite responder y terminar llamadas con facilidad, así como controlar la
reproducción de audio y vídeo
APLICACIONES

Teléfono
Para marcar un número de teléfono se presionan las teclas virtuales y al final se presiona el
botón de "Call"; si el contacto ya está almacenado en memoria solo se selecciona de un
listado que sale en la pantalla y se presiona el botón de llamada cuenta con un
"speakerphone" o altavoz el cual puede utilizarse en modalidad de manos libres lo que
facilita su uso en el carro
Al entrar una llamada sale en pantalla el número o Caller-ID de donde están llamando y en
dado caso la foto de la persona que está llamando si esta almacenada, esto hace muy fácil
identificar quién está llamando; con un click del botón lateral se puede silenciar el ring y
con dos clicks se manda la llamada directamente al correo de voz lo cual resulta práctico;
se puede hablar con varias personas a la vez permitiendo a su vez pasar de una llamada a
otra u organizar una conferencia

Mail
El correo se ve y funciona como un ordenador siendo compatible con los servidores y
proveedores de correo más comunes entre ellos: Exchange de Microsoft, Yahoo Mail, Google
Gmail y con casi todos los sistemas de correo estándar IMAP y POP también es compatible
con correo electrónico en HTML; además los documentos adjuntos se ven en su formato
original no en versión reducida se puede girar, ampliar y reducir documentos en formatos
de archivo e imagen como: Word, Excel y PowerPoint de Microsoft y PDF

Safari
Es el navegador web más avanzado que tiene un dispositivo portátil, mediante las
tecnologías 3G y Wifi se puede navegar por la Red a toda velocidad.
Se puede ver cualquier página web con más detenimiento ampliando o reduciendo su
tamaño con un par de toques ya sea de manera horizontal o vertical teniéndose que girar
iPhone 90 grados para que la página se adapte

Ipod
Gracias a su pantalla panorámica de 3,5 pulgadas y a sus controles Multi-Touch, también es
un fantástico iPod recorre canciones, artistas, álbumes, listas de reproducción con un solo
toque, navega por la biblioteca musical, se puede ver las letras de las canciones que hayas
añadido a tu biblioteca de iTunes. Y si se recibe una llamada de teléfono mientras se
escucha música; se pulsa el micrófono de los auriculares del iPhone y la canción se
detendrá para que se pueda contestar

Tecnologías

3G: La tecnología 3G (3G-324M) aplicada a la video llamada le permite al usuario iniciar


una comunicación de audio y video en tiempo real de manera tan fácil como marcar un
número de teléfono asociado al servicio y seleccionar la opción de video llamada un
diseño abierto que permitirá pensar únicamente en el contenido que se desea ofrecer
ya sea directo, diferido o Video Call Center.
La tecnología 3G provee al iPhone acceso rápido a Internet y al correo electrónico a
través de redes celulares en todo el mundo permitiendo navegar la Web, descargar
correos electrónicos, recibir coordenadas y mirar videos, incluso cuando estás
atendiendo una llamada.

Multi-Touch: Con pantalla Multi-Touch y software innovador el iPhone permite


controlar todo con sólo usar los dedos, permitiendo escribir por medio del teclado
predictivo, desplazarse través de álbumes de música y fotos con un toque ligero de
los dedos; además amplía y reduce una sección de una página web

GPS: La tecnología GPS y el software del iPhone se juntaron para crear una nueva
dimensión en mapas móviles fija rápidamente tu posición sigue su recorrido de forma
interactiva a medida que avanzas y usa aplicaciones que aprovechan al máximo la
velocidad y precisión del GPS

Acelerómetro
El iPhone responde al movimiento a través de un acelerómetro incorporado, cuando
se rota el iPhone de la posición vertical a horizontal el acelerómetro detecta el
movimiento y cambia la pantalla según sea el caso de esta forma se podrá ver todo
el ancho de una página web, visualizar una foto en las proporciones adecuadas, etc.

Sensores
El iPhone incluye dos pequeños sensores que recogen señales del ambiente y ajustan
la pantalla según sea el caso; permitiendo maximizar la duración de la batería:

• Sensor de luz ambiental


El sensor de luz ambiental del iPhone aclara la pantalla automáticamente cuando se
encuentra a luz del sol o en una habitación luminosa y la atenua en lugares más
oscuros
• Sensor de proximidad
Cuando acercas el iPhone a tu oído el sensor de proximidad apaga inmediatamente
la pantalla para ahorrar energía y prevenir toques accidentales

Teclado
El teclado inteligente y basado en software de iPhone hace más de lo que un teclado
físico puede hacer aparece sólo cuando se necesita y se adapta a cualquier aplicación
y cambia sus teclas para que puedas escribir en 21 idiomas
Protocolos
El iPhone puede conectarse a redes VPN que empleen los protocolos L2TP, PPTP o Cisco
IPSec operando tanto en conexiones Wi-Fi como en conexiones a redes de datos de
telefonía móvil. Las VPN se utilizan en empresas para poder comunicar información privada
de forma segura a través de una red no privada; por ejemplo puede necesitar configurar
una VPN para acceder al correo electrónico de su trabajo en el iPhone
El iPhone funciona con servidores VPN que admiten los siguientes protocolos y métodos de
autenticación:
Tipo de VPN Autenticación por usuario / Métodos de autenticación admitidos
máquina
Contraseña MSChapV2
RSA SecurID
L2TP / IPSec Usuario CRYPTOCard
Máquina Shared Secret
Contraseña MSChapV2
PPTP Usuario RSA SecurID
CRYPTOCard
Contraseña
RSA SecurID
Cisco IPSec VPN Usuario CRYPTOCard
Certificado
Shared Secret
Máquina Certificado

You might also like