You are on page 1of 25

UNIVERSIDAD DE ORIENTE

NUCLEO NUEVA ESPARTA

Interacción hombre máquina y la Agilidad como


nuevo paradigma.

Pfra.: Gladys Benigni.

Por: Guerra, Juan y Rosa, Claudio.

Guatamare, Febrero 17/02/2011


Índice

I. Evolución a través del tiempo de la Interacción Hombre y Maquina…. 4-7

II. Estudios y disciplinas de la IHM………………………………………..…8-15

III. Paradigmas que han surgido durante la Evolución de IHM………….15-19

IV. Relevancia que ha ido adquiriendo IHM o HCI………………………….20

V. Paradigma Ágil……………………………………………………….……21-22

VI. Conclusiones…………………………………………………………………23

VII. Bibliografía………………………………………………………………24-25
Introducción

La investigación está destinada a la recopilación y análisis sobre la


interacción del hombre y la máquina, desde sus principios y como ha ido
evolucionando a través del tiempo, también se destacaran sus puntos relevantes
mediante los cuales permitieron la evolución constante y como el termino Ágil se
ha vuelto un nuevo paradigma en la actualidad, referente a la interacción hombre
máquina.

Con la finalidad de realizar una recopilación actual y funcional con la cual de


aprecien los diversos cambios y evolución referente a la interacción hombre y
máquina.

Para emprender los objetivos a investigar se recopilaron datos a través


información de páginas de internet, libros de distribución libre en internet, también
contando con la plataforma Google Books se pudo encontrar material que permitió
realizar esta monografía.

La investigación cuenta con una organización, y ordenación dividida en


cuatro capítulos, a fin de ser:

I. Evolución a través del tiempo de la Interacción Hombre y Maquina.


II. Estudios y disciplinas de la IHM.
III. Paradigmas que han surgido durante la Evolución de IHM.
IV. Relevancia que ha ido adquiriendo IHM o HCI.
V. Paradigma Ágil
VI. Conclusiones
VII. Referencias Bibliográficas
I. Evolución a través del tiempo de la Interacción Hombre y
Maquina.

Por medio de un extenuantemente largo y pasmoso proceso, la Naturaleza fue


dando forma a toda una inmensa variedad de nuevas criaturas, modificando
progresivamente su información genética. Es por eso que se necesita muchísimo
tiempo antes de que se produzcan variaciones perceptibles, tanto favorables como
desfavorables, en una determinada especie animal. En consecuencia, y si bien la
evolución biológica lo perfecciona inexorablemente, no se puede hablar con propiedad
de un nuevo diseño. Está más allá de su alcance hacer cambios fundamentales de
origen porque habría que modificar correctamente muchos parámetros a la vez.

El ser humano no se aparta de este proceso natural. Como animal biológico, ha


evolucionado durante millones de años a fin de adaptarse adecuadamente dentro del
entorno en que le tocó vivir. Su cuerpo cambió apenas levemente en el último millón
de años y su cerebro es casi exactamente el mismo -al menos en tamaño y peso- que
el de un antepasado de hace 100 mil años..., aunque intelectualmente su progreso
haya sido impresionante. Es probable que la organización encefálica interna haya
mejorado a lo largo de ese período, pero es limitada la cantidad de información que se
puede introducir y el "cableado" que se puede desarrollar en un cráneo de
dimensiones acotadas. No obstante, la senda evolutiva de los humanos se aceleró
bruscamente, no ya por la lenta evolución biológica, sino por la más rápida evolución
cultural. El desarrollo cerebral le permitió, por medio del ejemplo y de la tradición,
almacenar más información que la de sus genes. Asimismo, la invención de la
escritura lo capacitó para guardar mucha más información que la que podía retener en
su materia gris; primero en papel, luego en libros, más tarde en bibliotecas, después
en computadoras y, más recientemente, en Internet.
Esta evolución cultural trajo aparejada consigo otra nueva evolución, la
tecnológica, que acelera -una vez más- el rápido progreso de los humanos hacia la
dominación del planeta, hacia la cima de la creación. Primero surgieron las
herramientas: las piedras afiladas, las ruedas, las flechas, entre otras, con el fin de
compensar las carencias o las restricciones del ser humano o, lo que es equivalente,
para aumentar y potenciar sus capacidades corporales. Más tarde aparecieron las
máquinas, aparatos más complicados y una forma más avanzada de herramientas.
Con ellas, el Homo Sapiens amplió y extendió su "alcance" al poder recorrer grandes
distancias por tierra, mar y aire, levantar o trasladar enormes pesos, o percibir objetos
más allá de sus capacidades naturales.

Pero surge un nuevo fenómeno. El inventar y utilizar herramientas produjo cambios


en algunos circuitos de su cerebro que mejoraron posteriormente la precisión
sensomotriz manual. Al disponer de esta capacidad, el ser humano fue capaz de
construir y usar herramientas cada vez más complejas, lo cual perfeccionó aún más
los circuitos cerebrales, en un proceso sinérgico co-evolutivo. Con el paso del tiempo,
dicho proceso se vio notablemente acelerado con la invención de las máquinas, por lo
que fue capaz de dar otro paso fundamental: aprendió a modificar su propio entorno.
De esta manera, se establece algo novedoso en el reino biológico: la lenta y
armoniosa evolución conjunta del ser humano con su entorno, sus herramientas y sus
máquinas. Ya no debe adaptarse pasivamente al medio, sino que adapta el medio a sí
mismo según su propia conveniencia (por supuesto, y por ahora, dentro de ciertos
límites). Se trata, en realidad, de una adaptación mutua.

La interacción hombre maquina surgió como un campo de raíces entrelazados en


gráficos por computadora, sistemas operativos, factores humanos, ergonomía,
ingeniería industrial, la psicología cognitiva y la parte de sistemas de informática.
Infografía nació de la utilización de dispositivos CRT y lápiz muy temprano en la
historia de los equipos. Esto condujo al desarrollo de varias técnicas de la interacción.
Muchas técnicas datan Sketchpad tesis de Sutherland (1963) que esencialmente
marcaron el comienzo de gráficos de computadora como una disciplina. Ha seguido
trabajando en gráficos de computadora desarrollar algoritmos y hardware que permite
la visualización y manipulación de objetos cada vez más con realistas (por ejemplo,
piezas de la máquina de CAD/CAM o imágenes médicas de partes del cuerpo).
Gráficos de ordenador tiene un interés natural en HCI como "gráficos interactivos" (por
ejemplo, cómo manipular modelos sólidos en un sistema CAD/CAM). Un conjunto
correspondiente de los acontecimientos fueron intentos para perseguir "simbiosis"
(Licklider, 1960), el "aumento del intelecto humano" (Engelbart, 1963) y el "Dynabook"
(Kay y Goldberg, 1977). De esta línea de desarrollo surgió una serie de importantes
bloques de construcción para la interacción. Algunos de estos bloques de
construcción incluyen el mouse, pantallas de mapa de bits, computadoras personales,
Windows, la metáfora del escritorio y editores de point-and-click (véase Baecker &
Buxton, 1987, capítulo 1). Trabajo en sistemas operativos, mientras tanto, había
desarrollado técnicas para interfaces de dispositivos de entrada/salida, para ajustar el
tiempo de respuesta del sistema a veces de la interacción humana, para
multiprocesamiento y para apoyar la animación y los entornos de ventanas.
Actualmente, esta línea de desarrollo ha dado lugar a "sistemas de gestión de interfaz
de usuario" y "kits de herramientas de interfaz de usuario".

Factores humanos, como una disciplina, se deriva de los problemas de diseño de


equipos operable por los seres humanos durante la Segunda Guerra Mundial
(Sanders & McCormick, 1987). Muchos problemas que enfrentan las personas que
trabajan en factores humanos tenían fuertes de sensorial-motor características (por
ejemplo, el diseño de controles y pantallas de vuelo). El problema de la explotación
humana de equipos fue una extensión natural de las preocupaciones de la clásica de
factores humanos, excepto que los nuevos problemas tenían aspectos sustanciales
de cognitivos, comunicación e interacción no previamente desarrollados en factores
humanos, obligando a un crecimiento de factores humanos en estas direcciones.
Ergonomía es similar a factores humanos, pero surgió de los estudios de trabajo.
Como con factores humanos, las preocupaciones de la ergonomía tendían a ser a
nivel sensorial-motor, pero con un sabor fisiológico adicional y un énfasis en el estrés.
Interacción humana con los equipos también fue un tema natural para la ergonomía,
pero una vez más, una extensión cognitiva para el campo fue lo necesario que la
actual "ergonomía cognitiva" y "ingeniería cognitiva". Debido a sus raíces, estudios
ergonómicos de equipos destacan la relación con el lugar de trabajo y los efectos de
los factores de estrés, tales como la rutinización de trabajo, sentado postura, o
muestra el diseño de la visión de CRT. Ingeniería Industrial surgió de los intentos de
aumentar la productividad industrial a partir de los primeros años de este siglo. Fue de
los primeros énfasis en ingeniería industrial en el diseño de métodos eficaces de
manuales para el trabajo (por ejemplo, un método a dos manos para la colocación de
ladrillos), el diseño de herramientas especializadas para aumentar la productividad y
reducir la fatiga (por ejemplo, paletas de ladrillo a la altura de la cintura para albañiles
no tengan que inclinarse) y, en menor medida, el diseño del entorno social (por
ejemplo, la invención de la caja de sugerencia). Interacción con ordenadores es un
tema natural para el ámbito de la ingeniería industrial en el contexto de cómo el uso
de equipos apropiado en el diseño más grande de los métodos de trabajo. Psicología
cognitiva deriva de intentos para estudiar la sensación experimentalmente a finales
del siglo XIX. En la década de 1950, una infusión de ideas de ingeniería de
comunicaciones, lingüística, ingeniería y computación condujo a una disciplina
orientada a experimentalmente preocupada con el rendimiento y el procesamiento de
información humana. Psicólogos cognitivos se han concentrado en el aprendizaje de
sistemas, la transferencia de ese aprendizaje, la representación mental de sistemas
por los seres humanos y el rendimiento humano en dichos sistemas. Por último, el
crecimiento de la informática discrecional y los mercados de equipo de computadoras
personales y estaciones de trabajo masivos han significado que las ventas de equipos
están más directamente vinculadas a la calidad de sus interfaces que en el pasado. El
resultado ha sido la evolución gradual de una arquitectura de interfaz estandarizado
de compatibilidad de hardware de ratones para sistemas de ventana compartida a
"capas de administración de aplicación". Junto con estos cambios, los investigadores
y los diseñadores han comenzado a desarrollar especificaciones técnicas para las
interfaces de usuario y técnicas de pruebas para la producción práctica de interfaces.
II. Estudios y disciplinas de la IHM
II.A Estudios de la IHM

Las áreas de estudio de la Interacción Hombre y Maquina son las siguientes:

 El hardware, el software y la repercusión de ambos en la interacción.


 Los modelos mentales de los usuarios frente al modelo del sistema.
 Las tareas que desempeña el sistema y su adaptación a las necesidades del
usuario.
 El diseño dirigido al usuario, no a la máquina (user-centered design).
 El impacto organizacional.

Con estas anteriores, se vuelve evidente que no es una ciencia sencilla, debido a
que incluye muchísimos factores y áreas a considerar cuando se hace una
investigación al respecto y a mejorías. A su vez es bastante completa y no limitativa,
debido a que muchísimos expertos hoy en día, no teniendo relación directa con el
área pueden dar grandes aportes, ya que se trata de englobar todos los ámbitos que
sean necesarios, dar respuestas asertivas y lograr una eficiencia y entendimiento
primordial, como una mala organización puede afectar gravemente el desempeño en
una empresa, o lugar, etc.

II.B Disciplinas

Para poder diseñar interfaces, además del aspecto informático, hace falta
tener en cuenta otras disciplinas. Necesitamos trabajar los aspectos psicológicos
del usuario, la ergonomía del equipamiento, los aspectos sociales, temas de
diseño, etc. Como vemos, hemos de tener en cuenta muchas disciplinas para
comprender toda la problemática que supone el desarrollo de interfaces. Esto
supone que, a menudo, tengamos que pensar en un equipo interdisciplinario para
el desarrollo de sistemas interactivos, cuando el problema a tratar es de la
suficiente envergadura. En otros casos, no obstante, cuando el equipo de trabajo
sea reducido, las mismas personas deberán jugar los diferentes papeles y tratar
de hacerlo bien por sí mismos.
Psicología

La psicología es la ciencia que estudia el comportamiento y los estados de


la conciencia de la persona humana, considerada individualmente o bien al mismo
tiempo como miembro de un grupo social. Cabe distinguir entre:

Psicología cognitiva. Trata de comprender el comportamiento humano y los


procesos mentales que comporta. Psicología social. Trata de estudiar el origen y
las causas del comportamiento humano en un contexto social.

La psicología contribuye a la IPO mediante conocimientos y teorías acerca


de cómo los sujetos se comportan, procesan la información y actúan en grupos y
organizaciones, pero también proporciona metodologías y herramientas para
evaluar y determinar el grado de satisfacción de éstos a nuestros diseños. De este
modo, la psicología proporciona una manera de comprobar que nuestros
interfaces son tan efectivos como deseamos.

Diseño

Actividad encaminada a conseguir la producción en serie de objetos útiles y


bellos. Tal como se entiende actualmente, pretende actuar sobre el entorno físico
del hombre con tal de mejorarlo en su conjunto. Esta es una disciplina muy
importante dentro de la IPO, tal como podemos ver en su definición para conseguir
programas usables.

Etnografía - Sociología

Es la ciencia que estudia las costumbres y las tradiciones de los pueblos.


En los últimos años, algunas de las mayores compañías americanas están
reclutando antropólogos para comprender mejor a sus clientes y a sus
trabajadores y para diseñar productos que reflejen mejor las tendencias culturales
emergentes. Estas compañías están convencidas que las herramientas de
investigación etnográfica — observación detallada, entrevistas sutiles,
documentación sistemática—, pueden responder a aquellas cuestiones sobre
organizaciones y mercados que otros métodos no pueden.

Ergonomía o factores humanos

Su propósito es definir y diseñar herramientas y artefactos para diferentes


tipos de ambiente: trabajo, descanso y doméstico. Su objetivo es maximizar la
seguridad, la eficiencia y la fiabilidad para simplificar las tareas e incrementar la
sensación de confort y satisfacción. Las radiaciones de las pantallas, por ejemplo
han sido un tema de trabajo importante en los últimos años. La ergonomía o
factores humanos se centran el estudio de las características físicas de la
interacción, por ejemplo el entorno físico donde se produce esta y la forma y las
peculiaridades físicas de la pantalla. Describir completamente la ergonomía podría
ocupar casi un curso completo, tanto como para hacer una disciplina aparte.
Algunos de los aspectos que se podrían considerar son los siguientes: 1)
Organización de los controles y pantallas. Los aspectos físicos de cómo están
organizados los controles y las pantallas son importantes. En general han de
permitir una acción rápida al usuario. El usuario ha de poder acceder fácilmente a
todos los controles y ver toda la información que se le presenta sin mover
excesivamente el cuerpo. La información más importante ha de estar situada a la
altura de los ojos. Los controles se han de disponer espaciados con tal de que el
usuario se acomode perfectamente. En cuanto a la iluminación, hace falta prevenir
los reflejos. El entorno físico de la interacción. La ergonomía también estudia el
entorno físico donde se realiza la interacción. Aspectos de salud. Aunque el uso
de los ordenadores no es una actividad arriesgada, es preciso tener en cuenta
determinados aspectos de salud que afectan directamente la calidad de la
interacción y las prestaciones del usuario, la posición física, la temperatura, la luz,
el ruido, el tiempo de la interacción persona-ordenador permanencia delante del
ordenador, etc. Actualmente las grandes compañías ya están teniendo en cuenta
los aspectos de prevención de riesgos laborales en el mundo de la informática. 5)
El uso de los colores. Los colores utilizados para visualizar han de ser tan
diferentes como sea posible y su distinción no se debe ver afectada por los
cambios de contraste.

Programación

Un ordenador por sí solo no es capaz de hacer nada, sino que solo puede
hacer lo que se la ha indicado, o mejor dicho, programado que haga. La
programación es la herramienta que nos permite “decirle al ordenador lo que debe
hacer”. Todas las acciones que un ordenador realiza cuando un usuario interactúa
con él son respuestas programadas por un programador. El programador de
ordenadores es el encargado de diseñar soluciones a problemas y de escribirlos
como programas de computadora [TRE83]. Un programa: • • • • debe funcionar no
debe tener dificultades debe estar bien documentado debe ser eficiente

Dentro de la programación podemos englobar tanto los propios lenguajes


de programación (Java, C, C++, Pascal, Fortran, BASIC, etc.) como todas las
herramientas de diseño y programación que permiten el desarrollo de las
interfaces.

Básicamente podemos clasificar los tipos de programación en cinco


grandes grupos: 1) ORIENTADA a OBJETOS. La programación Orientada a
Objetos (POO) está basada en los conceptos de Clases y Objetos. Clases: Una
Clase es una colección de Datos y Métodos que operan sobre los datos. Los datos
y métodos tomados juntos sirven para definir contenido y capacidades de algunos
Objetos. Objetos: Un Objeto es una instancia de una Clase. Es la programación
mayormente utilizada hoy en día. Ejemplos: C++, Java

2) IMPERATIVA (Entrada, procesamiento y salidas de Datos): Es llamada


así porque está basada en comandos que actualizan variables que están en
almacenamiento. Es en 1950 cuando los programadores reconocen que las
variables y comandos de asignación constituyen una simple pero útil abstracción
de memoria que se actualiza. Debido a su relación cerrada con las arquitecturas
de las máquinas, los lenguajes de Programación Imperativa pueden ser
implementados eficientemente. La razón fundamental de la Programación
Imperativa está relacionada a la naturaleza y propósito de la programación. Su
principal característica es que están orientados a la arquitectura del computador.
Ejemplos: PASCAL-ADA 3) FUNCIONAL: La principal característica de este tipo
de programación reside en que “los datos son funciones y los resultados pueden
ser un valor o una función”. En programación Funcional la aplicación de valores de
entrada para valores de salida es alcanzada directamente. El programa en sí es
una Función (o un grupo de funciones). Usualmente compuesto de Funciones más
simples. La relación entre las funciones son muy simples: Una Función puede
llamar a otra Función, o el resultado de una Función puede ser usado como el
argumento de otra Función. Los programas son escritos enteramente dentro del
lenguaje de expresiones, funciones y declaraciones. Ejemplos: LISP, ML, HOPE
La Programación Funcional se caracteriza por el uso de Expresiones y Funciones
mientras que la Imperativa por el uso de variables, comandos y procedimientos. 4)
DECLARATIVA: La programación Declarativa está basada en la noción de
Relación debido a que la relación es el concepto más general de una Aplicación.
Los lenguajes declarativos están basados en el modo de pensar de los humanos
en lugar del ordenador. Principales ventajas que aportan: • • • • • • • Elegancia,
claridad, sencillez, potencia y concisión. Semánticas claras, simples y
matemáticamente bien fundadas. Cercanos al nivel de abstracción de las
formales/informales de los problemas a resolver. Especificaciones matemáticas
Referencialmente transparentes: Comportamiento adecuado que permite
razonar sobre los programas.

Soportan técnicas muy avanzadas de desarrollo, mantenimiento y


validación de programas. Altas dosis de paralelismo implícito. Aplicaciones
variadas y de gran interés.

Este Tipo de programación está aún en proceso de investigación. La


Programación Concurrente es una disciplina relativamente nueva y, por ello, va
tomando muchas aproximaciones diferentes según va avanzando su investigación.
La Programación Concurrente debe frecuentemente estar acompañada por el
avance del Hardware y sus arquitecturas correspondientes. Ejemplos: ADA es un
lenguaje familiar y tiene una aproximación a la Concurrencia.

Inteligencia artificial

La inteligencia artificial trata de diseñar programas de ordenador


inteligentes que simulen diferentes aspectos del comportamiento humano
inteligente. La inteligencia artificial ha sido utilizada en el diseño de tutores y
sistemas expertos en interfaces inteligentes y en el diseño de interfaces de
lenguaje natural utilizando la voz. El desarrollo de agentes inteligentes para ayudar
en la navegación a los usuarios y reducir las tareas más normales es un tema
nuevo en los desarrollos multimedia.

Ingeniería de software

Es importante tener en cuenta la ingeniería de software en el desarrollo de


un sistema interactivo. Esta disciplina estudia técnicas de diseño y desarrollo del
software. Para realizar diferentes aplicaciones se deben utilizar procedimientos
propios de ingeniería. Sólo con estos procedimientos y técnicas vamos a obtener
un software de calidad.

Usabilidad

Para que un sistema interactivo cumpla sus objetivos tiene que ser usable
y, además, debido a la generalización del uso de los ordenadores, accesible a la
mayor parte de la población humana. La utilidad de un sistema [NIE93], como que
medio para conseguir un objetivo, tiene una componente de funcionalidad (la
llamada utilidad funcional) y otra basada en el modo en que los usuarios pueden
usar dicha funcionalidad. Es esta última la que nos interesa ahora. Podemos
definir la usabilidad como la medida en la que un producto se puede usar por
determinados usuarios para conseguir objetivos específicos con efectividad,
eficiencia y satisfacción en un contexto de uso especificado.

El diseño centrado en el usuario

Tal como destacan diversos autores, el diseño de sistemas interactivos


implica realizar un diseño pensando en el usuario, centrando nuestro sistema de
desarrollo en él e implicarlo tanto como sea posible, hasta pensar en incluir
usuarios en el equipo de diseño. Actualmente es fácil encontrar implantaciones de
sistemas de información en que los usuarios están totalmente integrados dentro
del equipo de

Por ejemplo, los ya muy conocidos ERP, cuando se adaptan a una


empresa suelen necesitar de la interacción con los usuarios finales de la
aplicación. Muchas veces está presente la negativa de algunos empleados de
algunas empresas en colaborar. Los estudios actuales informan que esta poca
predisposición a ayudar en su implantación es debida a la poca adaptabilidad del
ser humano a los cambios drásticos. Así pues, el usuario final de la aplicación, ya
sea de modo consciente o inconsciente, tiene miedo al nuevo sistema, a las
nuevas reestructuraciones del departamento que se pueden llegar a realizar, a
que el sistema reduzca el trabajo a realizar por los empleados y por tanto sean
necesarios los despidos o las jubilaciones anticipadas, etc. Por tanto es necesario
tener en cuenta estas negativas con las que nos podemos encontrar.

III .Paradigmas que han surgido durante la Evolución de IHM.

El ordenador de sobremesa:

Actualmente es el paradigma dominante. La interacción se realiza normalmente


aislada del entorno, el usuario básicamente interacciona sentado en una mesa con un
ordenador de sobremesa de manipulación directa. No obstante esto, el wireless o
WIFI es un modo de lograr que el usuario se contacte más con el medio ambiente
utilizando su PC. Dentro de este paradigma encontramos a:

Hipermedia es el término con que se designa al conjunto de métodos o


procedimientos para escribir, diseñar, o componer contenidos que tengan texto, video,
audio, mapas u otros medios, y que además tenga la posibilidad de interactuar con los
usuarios. El enfoque hipermedia de estos contenidos, los califica especialmente como
medios de comunicación e interacción humanas, en este sentido, un espacio
hipermedia es un ámbito, sin dimensiones físicas, que alberga, potencia y estructura
actividades de las personas.

Web o World Wide Web:

Es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a


través de Internet. Con un navegador Web, un usuario visualiza páginas web que
pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a
través de ellas usando hiperenlaces.
La realidad virtual:

Es una simulación por ordenador en la que se emplea el grafismo para crear un


mundo que parece realista. Además este mundo no es estático sino dinámico y
responde a las órdenes del usuario (gestos, voces, etc…). Sus clave es la
interactividad en tiempo real (respuesta inmediata a la acción del avatar) y el
sentimiento de inmersión al participar de lo que se desarrolla en la pantalla.
Aplicaciones: Medicina, juegos, arte, enseñanza, campo militar y aeroespacial,
publicidad, diseño, arquitectura, robótica.

Una de las formas más comunes de interacciones virtuales es mediante el uso de


cascos y ratones 3D.

La computación ubicua:

En 1991, Mark Weiser (Xerox PARC) explica que la computación ubicua trataría de
extender la capacidad computacional al entorno del usuario, permitiendo que la
capacidad de información esté presente en todas partes en forma de pequeños
dispositivos muy diversos que permiten interacciones de poca dificultad, conectados
en red a servidores de información. El diseño y localización de estos dispositivos
deben ser ideados especialmente para la tarea objeto de interacción. La computación,
por tanto, deja de estar localizada en un único punto para pasar a diluirse en el
entorno

Descripta de esta manera la computación ubicua no es la realidad virtual con la que a


veces se confunde. La realidad virtual trata de crear un mundo virtual no existente en
favor de uno imaginario, la computación ubicua por contra forma parte del mundo real
y lo mejora.

Los avances en hardware que se han producido no son suficientes para que se realice
el cambio de paradigma de la sobremesa a la computación ubicua. No podemos
simplemente adaptar entornos de software realizados para soportar una persona, una
pantalla, un entorno de ordenador (ya sea sobremesa, portátil o PDA).
El problema es crear un entorno de software/hardware que soporte la multipersona, el
multidispositivo, diferentes lugares de una manera integrada, hecho a partir de la
tecnología existente pero aportando coherencia sobre el entorno como un todo.

Esto implica al mismo tiempo integración del sistema de tal manera que todos los
dispositivos puedan ínteroperar y una integración de la interacción

La realidad aumentada (dual o mezclada):

La Realidad Aumentada (RA) es un paradigma de interacción que trata de reducir las


interacciones con el ordenador utilizando la información del entorno como una entrada
implícita. Existen dos corrientes importantes en este nuevo paradigma:

1.-El derivado de aplicar la realidad virtual en el mundo real:

Se trata de una nueva tecnología que aumenta o mejora la visión que el usuario tiene
del mundo real con información adicional sintetizada mediante un modelo
computarizado, las cuales se superponen mediante el uso, generalmente, de unas
gafas especializadas.

Los usuarios pueden trabajar y examinar objetos 3D reales mientras reciben


información adicional sobre estos objetos o sobre la tarea que se está realizando

2.-El uso de dispositivos que aumentan la realidad e interaccionan directamente con


ella.

El usuario será capaz de interactuar con el mundo real, el cual estará aumentado por
la información sintetizada por el ordenador. No se trata de superponer la información
real con la virtual, como es el caso de la anterior, sino de hacer participar diversos
objetos de la vida cotidiana – ya sea un bolígrafo o un bloc de notas – que
automáticamente interaccionan con el sistema sin que para ello sea necesario realizar
ninguna acción específica. Esto es importante puesto que evitamos que el usuario
tenga que familiarizarse con un nuevo entorno de trabajo.

1.-Superficies interactivas: Transformación de la superficie dentro de un espacio


arquitectónico (paredes, mesas, puertas, ventanas como una interfaz activa entre el
mundo físico y el mundo real).

2.-Acoplamiento de bits y átomos: Acoplamiento sin interrupciones entre los objetos


de cada día que se pueden sujetar (tarjetas, libros, modelos) con la información digital
que está relacionado con ellos.

3.-Medio ambiente: Uso del medio ambiente como el sonido, la luz, corrientes de aire
o movimientos de agua como una interfaz de fondo. Hiroshi Ishii [ISH97] del MIT que
describe tres ejemplos: Metadesk, Ambient room y Transboard.

Inteligencia Artificial

Es la rama de las ciencias de la Computación dedicada al desarrollo de agentes


racionales no vivos.

Para explicar la definición anterior, entiéndase a un agente como cualquier cosa


capaz de percibir su entorno (recibir entradas), procesar tales percepciones y actuar
en su entorno (proporcionar salidas), y entiéndase a la racionalidad como la
característica que posee una elección de ser correcta, más específicamente, de
tender a maximizar un resultado esperado. De acuerdo al concepto previo,
racionalidad es más general y por ello más adecuado que inteligencia para definir la
naturaleza del objetivo de esta disciplina.

Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se


encarga de construir procesos que al ser ejecutados sobre una arquitectura física
producen acciones o resultados que maximizan una medida de rendimiento
determinada, basándose en la secuencia de entradas percibidas y en el conocimiento
almacenado en tal arquitectura.
Existen distintos tipos de conocimiento y medios de representación del conocimiento,
el cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el
mismo agente utilizando técnicas de aprendizaje.

También se distinguen varios tipos de procesos válidos para obtener resultados


racionales, que determinan el tipo de agente inteligente. De más simples a más
complejos, los cinco principales tipos de procesos son:

Ejecución de una respuesta predeterminada por cada entrada (análogas a actos


reflejos en seres vivos).

Búsqueda del estado requerido en el conjunto de los estados producidos por las
acciones posibles.

Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).

Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de


animales y humanos).

Razonamiento mediante una lógica formal (análogo al pensamiento abstracto


humano).
IV. Relevancia que ha ido adquiriendo la IHM

A través del tiempo esta ciencia, ha ido adquiriendo, una importancia radical, ya que
permite:

1. Conocer al usuario

2. Minimizar la memorización, sustituyendo la entrada de datos por la selección de


ítems, usando nombres en lugar de números, asegurándose un comportamiento
predecible y proveyendo acceso rápido a información práctica del sistema.

3. Optimizar las operaciones mediante la rápida ejecución de operaciones comunes,


la consistencia de la interfaz y organizando y reorganizando la estructura de la
información basándose en la observación del uso del sistema.

4. Facilitar buenos mensajes de error, crear diseños que eviten los errores más
comunes, haciendo posible deshacer acciones realizadas y garantizar la integridad del
sistema en caso de un fallo de software o hardware.

Llegando a ser estos 4 pasos, de suma importancia para el diseño de casi cualquier
cosa, hoy por hoy, muchas empresas a nivel mundial, de altas ventas se han
adaptado a esta ciencia y porque se dieron cuenta, que siendo las cosas más
sencillas, y fáciles de aprender o hasta intuitivas los usuarios comprarían más, y sus
productos estarían basados en un usuario final, y no en el producto que se desee
hacer.
V. El nuevo paradigma Ágil

La metodología ágil es un enfoque para la gestión de proyectos, suele utilizada en el


desarrollo de software. Ayuda a equipos de responder a la imprevisibilidad de la
construcción de software a través de cadencias de trabajo incremental, iterativo,
conocido como sprints. Pero antes de examinar las metodologías ágiles más, mejor
en primera vuelta a la metodología que inspiraron del obvio: cascada o desarrollo
tradicional secuencial.

A = Adaptation (función adaptativa)


G = Goal Attainment (logro de objetivos)
I = Integration (función integradora)
L = Latency (mantenimiento del modelo latente)

En 1970, el Dr. Winston Royce presentó un documento titulado "administrar el


desarrollo de grandes sistemas Software”, en el que definen sus ideas sobre el
desarrollo secuencial. En esencia, su presentación afirmó que podría desarrollarse un
proyecto mucho como un automóvil en una línea de ensamblaje, en la que se agrega
cada pieza en fases secuenciales. Esto significa que cada fase del proyecto debe ser
completado antes de iniciar la siguiente fase. Así, los desarrolladores primero reunirán
todos los requisitos de un proyecto, a continuación, completar todos los de su
arquitectura y diseño, a continuación, escribir todo el código y así sucesivamente. Hay
poca, si las hubiere, comunicación entre los grupos especializados que completar
cada fase de trabajo. Obviamente es fácil de ver cómo esta metodología de
desarrollo ágil lejos está optimizada. En primer lugar, se supone que cada requisito
del proyecto puede identificarse antes de cualquier diseño o codificación se produce.
Dicho de otro modo, ¿cree que usted podría decir un equipo de desarrolladores de
todo lo que necesita para tener una pieza de software antes de que estuviera en
funcionamiento? O ¿sería más fácil describir su visión al equipo si usted podría
reaccionar a software funcional? Muchos de los desarrolladores de software han
aprendido la respuesta a esa pregunta de la manera más difícil: al final de un
proyecto, un equipo puede han construido el software que se preguntó a construir,
pero, en el tiempo que tomaba para crear, realidades de negocios han cambiado de
forma tan dramática que el producto es irrelevante. En ese escenario, una empresa ha
pasado el tiempo y dinero para crear software que nadie quiere.

El paradigma Ágil puede ser utilizado en el análisis de cualquier sistema social. Puede
utilizarse, por ejemplo, en virtud de la Sociología de las organizaciones para estudiar
las organizaciones formales empresas, gobierno, agencias de formación, etc.), sino
también en los componentes elementales de la sociedad (como familia, el grupos de
interés, etc.) Debemos al mismo Talcott Parsons, muchas de estas pruebas.

Las respuestas a un sistema social puede dar a los cuatro requisitos funcionales están
claramente interrelacionados unos con otros; motivo para considerar que
analíticamente se separan en lo posible las tensiones sociales que están creando
entre las respuestas. Por ejemplo, uno puede observar que si las funciones A y G
hacen hincapié en la necesidad de un cambio en el sistema, las funciones I y L ponen
el centro de atención de las necesidades de conservación. Se puede también
observar que las necesidades de control social dependen en gran medida en los
procesos de internalización de los valores (la función L), pero cuando la cultura de que
el sistema entra en crisis debe invertir más en instrumentos de regulación y control de
las actividades de sus aplicaciones (función I). En presencia de cambios significativos
en el entorno exterior debe permitir que las respuestas de adaptación (A) que puede
socavar las formas tradicionales de responder a la necesidad de lograr una finalidad
funcional (G).
El paradigma AGIL no sólo es útil para describir el funcionamiento de un sistema
social. Un examen de la forma en que el sistema social responde a los cuatro
imperativos funcionales e incoherencias que se están creando entre estas respuestas
puede ayudar a poner de relieve una serie de cuestiones.
En particular, se siente como el mismo Parsons, diseñado y usado adecuadamente no
implica el predominio de la estabilidad en comparación empírica para cambiar. Se
tiende más bien a proporcionar herramientas conceptuales para la comprensión, en
sus diferentes connotaciones teóricas, el problema de la estabilidad y el cambio.
VI .Conclusión

La IHM es también una disciplina joven, pero no tanto como pudiera parecer. Desde
el primer ordenador ha sido necesario el diseño de un sistema de comunicación
persona-ordenador. Los estudios en esta disciplina han permitido dar una base teórica
al diseño y a la evaluación de aplicaciones informáticas. La importancia de esta
disciplina se pone sobre relieve al leer artículos sobre el tema escritos hace cuarenta
años en los que se predecían elementos de interacción de los que se dispone
actualmente.

Esta abre nuevos horizontes y posibilidades, destinadas a un usuario, que todo sea
cada vez más fácil para ellos, todo más automatizado y sea de su agrado, todo
armónicamente diseñado para también ser eficiente, estas características hacen de la
IHM una parte fundamental de un día a día.
VII .Bibliografía

ACM SIGCHI, Curricula for Human-Computer Interaction. ACM Press, 1992

BAECKER R. M., GRUDEN J., BUXTON WILLIAM A. S. y GREENBERG S. Readings


in humancomputer interaction: toward the year 2000.

Morgan Kaufmann Publishers, San Mateo, CA, 1995 BIAS R.G. y MAYHEW D.J.

Cost-justifying usability. IEEE Software. 1991 BURTNYK N. y WEIN M. «Computer


generated key frame animation» en Journal of the Society of Motion Picture and
Television Engineers, núm. 8, vol. 3, pág. 149-153, 1971

CARD S. K. et al. The psychology of human-computer interaction. Lawrence Erlbaum


Associates, Hillsdale, NJ, 1983 CARROLL J. M., KELLOG W. A. y ROSSON M. B.

Designing interaction: psychology at the human-computer interface. Cambridge


University Press, 1991

CONNELL B. R., JONES M., MACE R., MUELLER J., MULLICK A., OSTROFF E.,
SANFORD J., STEINFELD E., STORY M. y VANDERHEIDEN G. The Center for
Universal Design
http://www.design.ncsu.edu:8120/cud/univ_design/principles/udprinciples.htm

SUTCLIFFE A. Human-Computer Interface Design. Macmillan, Londres, Reino Unido,


1994 SUTHERLAND I. E. «SketchPad: a man-machine graphical communication
system» en AFIPS Spring Joint Computer Conference. núm. 23, pág. 329-346, 1963

T. Parsons, R. F. Bales, Family, Socialization and Interaction Process, The Free


Press, New York, 1955 (trad. it. Famiglia e Socializzazione, Arnoldo Mondadori
Editore, 1974).

T. Parsons., An outline of the Social System, in T. Parsons et al. "Theories of Society",


Free Press, New York, 1965.
T. Parsons, G. Platt, The American University, Harvard University Press, Cambridge,
1973.

SWINEHART D. et al. «A structural view of the cedar programming environment» en


ACM Transactions on Programming Languages and Systems. núm. 8, vol. 4, pág.

419-490, 1986 TEITELMAN W. «A display oriented programmer’s assistant» en


International Journal of Man-Machine Studies, núm. 11, pág. 157-187, 1977.

También en Xerox PARC Technical Report CSL-77-3, Palo Alto, CA, 1977 TOLLIVER
B. TVEdit. Stanford Time Sharing Memo Report, Number, March, 1965.

You might also like