P. 1
Sistemas Expertos o Inteligencia Artificial y Redes Neuronales

Sistemas Expertos o Inteligencia Artificial y Redes Neuronales

|Views: 14|Likes:

More info:

Published by: Ariel Alejandro Wagner on Aug 09, 2013
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

09/29/2015

pdf

text

original

Sistemas Expertos o Inteligencia Artificial

Sistemas Expertos Introducción
Existen grandes diferencias entre las arquitecturas de SI (Sistemas Informáticos) y SE (Sistemas Expertos) o también conocidos como IA (Inteligencia Artificial). A continuación, haré un pormenorizado detalle entre ambos modelos y sus principales diferencias.

Arquitecturas de Sistemas Informáticos
En el caso de los SI, la arquitectura clásica lo centra en un área de competencia integral llamada CPU (Central Processing Unit) o Unidad de Procesamiento Central. El CPU se compone de una serie de áreas en las que se tratan diversos procesos. Existen en este momento dos arquitecturas propias de estos modelos que son la Arquitectura x86 (32 bits) y la Arquitectura x64 (64 bits). Según las propuestas de ingeniería de los fabricantes de hardware, este tipo de arquitectura puede variar notablemente, pero a grandes rasgos, tienen ciertas similitudes. Las diferencias más específicas estriban en la coordinación y modelos del proceso de datos, aunque en el fondo, todas se basan en el modelo universal propuesto por el Dr. John von Neumann y quizá con algunas mejoras. El modelo computacional se compone de circuitos electrónicos discretos, más o menos elaborados y avanzados tecnológicamente, basados en una serie de etapas integradas a una escala muy pequeña que los hace extremadamente portables y que derivan de los transistores de Si (silicio) y Ge (germanio). En la década de los ’40 y ’50, se utilizan válvulas electrónicas. Entrado los ’60, se reemplazaron por los transistores, luego estos se integraron en unidades discretas más pequeñas las que llamaron circuitos integrados y hoy hablamos de chips que no son más que integración de otras integraciones de circuitos discretos en una sola pieza o espacio. Todos estos utilizan un principio eléctrico que a través de diferencias de potenciales eléctricos se permite determinar la información. La tecnología utilizada es de tipo digital, es decir, considera una lógica de dos estados, la cual puede ser representada un nivel eléctrico, sea este positivo o negativo, como un 1 (uno binario) o un nivel eléctrico nulo representado por 0 (cero binario). Sin embargo, los primeros ordenadores eran analógicos, es decir, utilizaban un sistema basado en ponderaciones discretas de energía para representar la información. El modelo del Dr. John von Neumann propone una arquitectura basada en Entradas y Salidas, Memoria y Procesos Aritméticos. Los procesos se encargan a través de cálculos matemáticos procesar los datos ingresados. La memoria se la utiliza para persistir la información de forma temporal entre procesos, cálculos, acumulación, etc., a los efectos de optimizar las tareas operativas y dar lugar adecuado para su funcionamiento en general. Una de las etapas más importantes internas del Procesador es la llamada ALU (Arithmetic Logic Unit) o Unidad Aritmética Lógica, con la cual, puede realizar todos los cálculos aritméticos básicos tales como la suma, resta, división y multiplicación. Lo gracioso de todo esto es que la ALU solo utiliza la suma para realizar todas las operaciones aritméticas. Por ejemplo, para operar con la resta, utiliza la suma de un número con el complemento del segundo número a sumar. La multiplicación es una combinación de estos procesos basados en sucesivas sumas y la división igual modo excepto que es una sucesión de restas. En consecuencia, todos los procesos constan en datos que son procesados a través de instrucciones aritméticas basadas en algoritmos, cronometrados por un reloj interno, un sistema de control, un sistema de direccionamientos y distribuido entre la memoria, los cálculos y las entradas y salidas. Todos estos procesos se realizan en formato binario (unos y ceros) debido a que estos permiten mayor flexibilidad y velocidad operativa para los cálculos. El lenguaje binario, es el lenguaje de las computadoras.

Wagner, Ariel Alejandro

1

Sistemas Expertos o Inteligencia Artificial La velocidad operativa de los CPU se mide a través de MIPS (Micro-Instrucciones Por Segundo). En breve, el ordenador no es más que un equipo que trata los datos a través de procesos de cálculos, respondiendo a un programa que consta de algoritmos que permiten su funcionamiento. Es por esta razón que este tipo de equipos, no son inteligentes sino extremadamente operacionales. Un algoritmo es una serie de procesos lógicos que permiten a través de diversas instrucciones obtener de un proceso una serie de resultados en función a diversos datos ingresados. Por ejemplo, la resolución de un cálculo como podría ser obtener porcentajes, determinar la velocidad de un cohete mediante una fórmula científica, etc. Fue propuesto por primera vez por el matemático árabe Abu Abdullah Muhammad bin Musa al-Khwarizmi entre los siglos VIII y IX, para resolver diversos problemas matemáticos y contables en aquella época, lo que no pudieron ser aplicados debido a la limitación tecnológica de aquellas épocas. Estos modelos fueron propuestos más tarde por Charles Babbage y puestos en vigencia recién a mediados del siglo XX. El término de Algoritmo viene de la deformación del apellido de este matemático. En estos momentos se están desarrollando modelos de computación cuántica que permitiría elevar la velocidad operativa de los computadores modernos, incluso, utilizar un margen de cálculos más complejos. La tecnología cuántica propone el modelo QuBits que utiliza una base de 4 estados lógicos debido al factor que ofrece un spin en las subpartículas de los átomos, mientras que el modelo de Bits tradicional propone una base de 2 estados lógicos, basado en un modelo bi-condicional de la lógica booleana. Este aumento de su base en el caso del modelo cuántico, proporciona el manejo de grandes números o porciones de datos. Sin embargo, la arquitectura del Dr. John von Neumann aún sigue vigente en estos modelos operativos modernos y por tanto, el sistema sigue siendo altamente operacional y no inteligente.

Sistema Experto
Fundamentos
La arquitectura básica de un SE, se centra en tres etapas fundamentales y estas son: El llamado “Ingeniero del Conocimiento o Base de datos”, el “motor de Inferencia” y el “Programador o Usuario de Interacción”. El modelo de SE tiene como principal proceso la combinación e interacción entre el motor de inferencia y el ingeniero del conocimiento, que a la postre, es su base de datos. El motor de inferencia simula el proceso operacional del cerebro humano mientras que la base de datos solo acumula información. El desarrollador o el usuario de interacción consisten en un área donde se establecen diversas directivas operacionales, las cuales, constan de proporcionar diversos tipos de problemas a resolver, clasificaciones, analogías, etc., orientándolas hacia el motor de inferencia y desde el la base del conocimiento. El motor de inferencia se trata de una simulación operacional de nuestro cerebro basado en una arquitectura de red neuronal artificial. Las neuronas artificiales tienen un comportamiento analógico y utilizan las ponderaciones o pensiones discretas como elementos de procesamiento de los datos, lo que en breve, se los conoce como “aprendizajes artificiales”. Mediante este aprendizaje, las neuronas interactúan entre sí, creando enlaces o rupturas a los efectos de formar un proceso ponderado de lo podemos decir “razonamiento artificial” con el objeto de llegar a un determinado resultado.

Redes Neuronales
Puesto que una red neuronal se constituye de una arquitectura muy similar a la que posee el cerebro humano, el comportamiento de procesamiento entre el cerebro humano y la red de Wagner, Ariel Alejandro 2

Sistemas Expertos o Inteligencia Artificial neuronas artificiales resultan prácticamente iguales excepto que el cerebro humano es mucho más complejo que esta red. En breve, la red neurológica artificial solo se limita a crear enlaces y rupturas para ponderar las pensiones de sus datos. La neurona humana se compone de una suerte de esfera cuyo tamaño oscila entre los 5 a 10 micras aproximadamente y que posee una serie de mecanismos de conexión que lo hacen a través de los llamados axones y a través de las dendritas. Las dendritas suelen acarrear la información del interior del cerebro y estimulan a la neurona para que esta establezca las comunicaciones por medio de los axones hacia otras neuronas. Los axones establecen la comunicación de forma eléctrica mientras que las dendritas lo hacen químicamente. Por tanto, la comunicación total entre neuronas se trata de un proceso electroquímico. La variación de las substancias en las dendritas, es decir, la variación iónica del Na+ (sodio aniónico) y K- (potasio catiónico) permiten establecer el nivel de comunicación en el canal llamado sinapsis, mientras que en el canal de los axones, esta comunicación se establece a través de diferencias eléctricas. En el caso de las neuronas artificiales, la comunicación se establece a través de mecanismos de conexión eléctrica y la posibilidad de establecer diversos puntos de conexión para conformar la red. Los puntos de conexión en un principio o al menos en las primeras redes neuronales experimentales eran conocidos con el nombre de crossbars “conexiones cruzadas”. Con el paso del tiempo, las redes neuronales fueron evolucionando y modificando estos modelos de hardware primarios por otros más eficientes. En la actualidad, el modelo de conexión es muy similar al humano, por lo que no demanda más comentarios al respecto. El factor clave del llamado aprendizaje artificial depende en grado del modelo funcional operativo que la red neuronal utilice. El proceso básico de aprendizaje a igual que el cerebro humano, consiste en manipular ponderaciones eléctricas en la neuronas, o sea, distintos niveles eléctricos registrados allí, más la posibilidad de realizar conexión o desconexiones de comunicación entre otras neuronas colindantes. Las comunicaciones entre las neuronas producen entre estas un proceso de sumas de niveles de energías o impulsos que hacen que las mismas se sometan a un proceso de carga ponderada. Los niveles de ponderación y puesto que son analógicas, poseen tres puntos de interés. Un estado es cuando la neurona carece de nivel energético o está por debajo de una tasa importante de estimulación, luego se tiene un punto de saturación y entre ambos puntos, una graduación de ponderaciones discretas de niveles de energía. El equilibrio de puntos de nulidad o saturación, estarán dadas por el factor de discriminación que la neurona pueda proporcionar o el mecanismo de interrupción necesario para su posterior corrección. De todos modos, este comportamiento tan particular, dependerá en grado del modelo funcional de la red para su aprendizaje. La red neuronal puede ser de tipo monocapa o multicapa. La red monocapa posee una serie de neuronas conectadas a través del modelo crossbars y resultan en puntos de interacción entre las neuronas muy sencillas. Las redes multicapa están separadas de modo tal que cada separación representan una zona específica y abstracta de la red con funciones específicas para las mismas. El modelo de aprendizaje también depende en grado si el modelo de red neuronal responde a prototipos feedforward (conexión en avance) o feedback (conexión en retroceso). El modelo feedforward establece una conexión hacia adelante sin posibilidad de retroceso. Por otro lado, las redes feedforward/feedback permiten tanto el avance como el retroceso de las conexiones. Es muy utilizado por ejemplo para el reconocimiento de patrones incluso, en el reconocimiento de “ruidos en líneas telefónicas” como filtros o supresores de espurios sonoros, utilizadas en los prototipos ADELINE Y MADELINE respectivamente. Existen varios modelos de aprendizaje artificial que pueden ser utilizados para el procesamiento de los datos en la red neuronal. Dentro de estos modelos de aprendizaje, existen dos grandes grupos que son los modelos de aprendizaje supervisados y no supervisados. La diferencia existente entre estos dos grandes modelos estriba en que el modelo supervisado requiere de un “supervisor” es decir, de un ente o recurso de verificación de los procesos dados mientras que el segundo no. A este proceso, se le debe Wagner, Ariel Alejandro 3

Sistemas Expertos o Inteligencia Artificial agregar los llamados estados ON-LINE y OFF-LINE que permite determinar si el aprendizaje artificial se realiza en plena conexión o en plena desconexión. En breve, podemos clasificar los aprendizajes de la siguiente manera: • Aprendizaje Supervisado o o o • o o Por Conexión de Error Por Refuerzo Estocástico Hebbiano Competitivo y Cooperativo

Aprendizaje No Supervisado

Ingeniero del Conocimiento
Como hemos visto en el comienzo de estos apartados acerca de SE, a continuación, haré un detalle pormenorizado de las etapas del Ingeniero del Conocimiento y el Motor de Inferencia. Como señale en un principio, el Ingeniero del Conocimiento o base de datos, se trata de un área donde se guarda toda la información relevante del sistema. Esta sección permite interactuar con el motor de inferencia, proporcionándole la información adecuada para que el modelo experto pueda operar. No resulta para nada alocado afirmar que la base de datos es la experiencia del sistema, pues en efecto, en cierto modo si lo es. Por empezar, el Ingeniero del Conocimiento consiste internamente en dos grandes etapas, las cuales son llamadas generalmente como “conocimiento efectivo” y el “conocimiento heurístico”. El conocimiento efectivo se trata de un modelo de información certera y que puede admitir cierto factor de criticidad que permite mediante un proceso de debate externo, deliberar si la información resulta evidentemente efectiva para el sistema experto. En breve, la información resulta ser crucial para el equipo. En cambio, en el caso del conocimiento heurístico, se procede a un paso de almacenamiento de datos que se efectivizan de forma totalmente individualizada, lo que hace que esta condición, rechace de plano conceptos de criticidad de parte de terceros u otros y opere de forma individualista ante los hechos. Este punto es menos riguroso y es en cierto modo donde se acerca al efecto experiencial que describí en un principio. El principal objetivo del ingeniero del conocimiento es la de crear un marco de referencia para que el motor de inferencia a través del análisis, la inducción, cuantificación, etc., le permita determinar si su análisis puede ser viable y le lleve a un resultado final adecuado y coherente. Obviamente, el acierto o no del resultado, dependerá de muchos factores incluso, la aprobación del programador o el usuario de interacción o el resto del equipo. Además de la información contenida en la base de datos del ingeniero del conocimiento, este mismo, se vale de las llamadas reglas que son formalizadas sobre el motor de inferencia para que este utilice el factor de acción de resolución más adecuado. El llamado “razonamiento artificial” se trata de una serie de reglas propuestas generalmente desde el ingeniero del conocimiento para establecer un camino de resolución de problemas. Estas reglas pueden basarse en un proceso de resolución de problemas hacia adelante o hacia atrás. El método de resolución de un problema que va hacia adelante, por ejemplo, podría ser un caso en donde se comienza analizando un conjunto de propuestas y estas se trasladan a una conclusión final. En caso de ser de retroceso, podría surgir el siguiente ejemplo donde la conclusión de un resultado implique cuestionarse si la respuesta es concluyente. En caso de que no sea concluyente o no sea demasiado clara, se recurre yendo hacia atrás, de dónde se encuentran las proposiciones que la justifican. Con estas dos reglas simples se construyen parte de los procesos para establecer las inferencias adecuadas. Además de estas dos reglas básicas, en otros procesos mucho más complejos, podremos encontrarnos con los métodos de razonamientos lineales o de incertidumbres. Dado que la Wagner, Ariel Alejandro 4

Sistemas Expertos o Inteligencia Artificial mayoría de los casos los conocimientos pueden entrar en tela de juicio como así las inducciones analíticas de las reglas, los procesos inciertos establecen el razonamiento incierto y es algo que el propio ser humano posee ante diversos casos de resolución y análisis de diversos tipos de problemas. Parte de esta clase de ponencias se relacionan con la llamada “Fuzzy Logic” o Lógica Borrosa que también directamente se traslada al sistema. En estos casos y como sucede con los humanos entra en escena el proceso heurístico. Como se planteó recientemente, en caso de que una respuesta sea cuestionable, por proceso inductivo se acudirá a verificar la condición que disparo su cuestionamiento. Hasta que la respuesta no resulte concisa o suficiente, el proceso de cuestionamiento estará difuso. El proceso de alimentación de la base de datos suele hacerse de dos modos. Uno es a través de un programador o desarrollador del conocimiento de la base de datos. Este personaje se encarga de desarrollar en el lenguaje que el SE pueda comprender todo el compendio de información que ha de ser almacenada en el sistema de la base de datos del ingeniero del conocimiento. El otro método es el autoconocimiento que hoy en día resulta en un desafío. Sin embargo, existen una serie de algoritmos y desarrollos que han dado un mayor avance en esta área. La injerencia del hombre sigue siendo importante aún en esta área aunque el motor de la experiencia sigue evolucionando considerablemente.

Planteó del Crecimiento Celular
Uno de los inconvenientes más significativos en la base del conocimiento es el incremento de la información y el hacer frente a la capacidad máxima del sistema. A esto también se le debe agregar la memoria del sistema que, dado el factor de interrelación entre el motor de inferencia y el ingeniero del conocimiento, resulta particularmente importante. La memoria de intercambio temporal o de soporte para el equipo también resulta significativa. El Dr. John von Neumann durante el desarrollo de la computadora, siempre planteó el concepto de los procesos de almacenamiento eficiente de la información, haciendo énfasis tanto en la memoria operativa de los equipos como en la información persistente. El gran problema erradicaba que la información aumentaba y esta requería ser persistida en el medio y, por supuesto, todo esto requería de mayor espacio. Su tesis acerca de la que llamo “Autómatas Celulares”, pretende hacer un acercamiento al concepto del tamaño de la memoria y la persistencia de la información con un mecanismo de crecimiento progresivo acompañado con una evolución mecánica. En breve, crear un hardware capaz de autoconstruirse y desarrollarse por sí mismo, lo que permitiría crear la expansión de la memoria y persistencia de la información a nivel de hardware y beneficiar al sistema a nivel del software. A lo que apuntaba el Dr. Von Neumann, entre otras cosas, era a crear un mecanismo de “procreación celular de hardware”, algo muy parecido a lo que ocurre en nuestro cerebro que va creando células para mantener y soportar el crecimiento experiencial del individuo, sus conocimientos, sistemas vitales, etc. A mayor cantidad de células creadas, el sistema neuronal de nuestro cerebro, permite desarrollar más inteligencia y conciencia debido a que este crecimiento facilita la construcción eficiente de canales de comunicación entre las neuronas a través de los axones y las dendritas, sin olvidar claro está, parte del soporte biológico que el cuerpo humano requiere. Actualmente, todo esto en la ciencia de SE e IA está muy lejos de poder hacerse. Sin embargo, si se ha logrado algo parecido al respecto. Se ha desarrollado al menos un mecanismo de optimización de la memoria y la persistencia de datos dentro de espacios físicos acotados, lo que en breve, parte de las ideas del crecimiento celular, podría estar muy cercana a estas. El Dr. John von Neumann demostró que esto podía ser posible utilizando un vector dinámico, (una variable que permite indexarse y crear celdas de espacios para manipular datos), y que permitía acceder a sus celdas colindantes e interactuar entre ellas para obtener un modelo de crecimiento de pila. Esto en biología puede explicarse con la regla o patrón de crecimiento celular basado en patrones, cuyos procesos relativos evolutivos, se basan en el crecimiento y una relación matemática muy interesante, tal como Wagner, Ariel Alejandro 5

Sistemas Expertos o Inteligencia Artificial propuso Leonardo Pisano Finobacci, la cual llamo “Sucesión o Relación Finobacci”, que bien podría encajar perfectamente en esta teorización de un modelo celular evolutivo.

El Motor de Inferencia
El motor de inferencia resulta ser el espacio donde todo el conjunto de mecanismos de reglas, analíticos, resolutivos, lógicos, etc., se formalizan dentro de una serie de procesos específicos con el objeto de obtener la gestión en general del sistema y perseguir diversos resultados finales, entre otras cuestiones. Podemos resumir a esta área en las siguientes operaciones más comunes como: • • • • • • • Lenguaje escrito Velocidad operativa Estrategias resolutivas Selección del conocimiento Incorporación de metaconocimiento Lógica empleada (reglas de producción y análisis) Procesos de evaluaciones del conocimientos completos e incompletos

El motor de inferencia cuenta con dos grandes etapas resolutivas. Una puede ser a través de la lógica convencional que le permite resolver problemas relativamente sencillos y la otra etapa que incluya el conocimiento y permita desarrollar estrategias para resolver problemas más complejos. Es aquí en este punto donde entra la inteligencia artificial. Ambos procesos son gestionados por una herramienta llamada Shell. El Shell permite gestionar el proceso del SE haciendo posible su utilización. Las características del Shell dependen en grado del tipo de regla formal que utilice. En la actualidad, la mayorías de los Shell modernos, incluyen muchas de estas herramientas mencionadas en el párrafo anterior para colaborar con el ingeniero del conocimiento y los desarrolladores del sistema. El éxito de un SE erradica en dos grandes áreas. Una es la base del conocimiento que el ingeniero del conocimiento debe crear de forma eficiente y la otra es el motor de inferencia junto a los desarrollos del Shell también de forma eficiente, por tanto, existe un gran compromiso entre ambos puntos de procesos. Otro gran punto de importancia es el lenguaje de aplicación para el desarrollo del SE. Los lenguajes de IA se basan en dos modelos clásicos. Aquellos que se basan en listas lógicas de procesos y los que son meramente lógicos o inferenciales. Por ejemplo, el lenguaje LISP permite la creación de las llamadas “listas inteligentes” que permite una gran flexibilidad para el desarrollo de modelos más fundamentados en matemáticas. Por otro lado, el lenguaje creado en Francia llamado PROLOG. Este mismo permite desarrollar reglas de inferencias muy interesantes, aunque en el fondo, PROLOG tiene similitudes con LISP puesto que en parte deriva del mismo. No obstante, estos lenguajes no resultan en la única alternativa en la actualidad. Por ejemplo, de la familia de lenguajes como C, C++ e incluso C#, están dando un paso en esta área y por tanto, el tercer lenguaje podría ser C y su familia. En la actualidad, se utilizan alguno de estos tres.

Determinando la Inteligencia de un Sistema
Para que una máquina sea inteligente debiera de alguna forma encontrar los recursos adecuados para poder resolver determinados problemas. Las máquinas poseen ciertos niveles de inteligencia. Los niveles permiten clasificar de alguna forma la escala de su inteligencia. Ahora bien, la inteligencia de un sistema puede ser meramente mecánica o puede recurrir a un proceso en un sentido más amplio como lo es la inteligencia artificial. La diferencia entre la inteligencia de un sistema informático y de un sistema experto erradica Wagner, Ariel Alejandro 6

Sistemas Expertos o Inteligencia Artificial en los procesos en cómo trata la información. La inteligencia computacional depende fuertemente de algoritmos predecibles. En este caso, el problema se resuelve a través de un proceso lógico como por ejemplo, si se pretende determinar si un número es mayor que otro. Aquí resulta suficiente con utilizar un axioma para obtener un resultado final. En el caso de un sistema experto, una solución a un problema podría utilizar reglas resolutivas que dependerán en grado de la base del conocimiento. Por ejemplo, para determinar si un número es mayor que otro, el SE podría utilizar un simple comparador de axiomas, pero si en su base de conocimiento tiene otra forma de evaluar esta comparación, recurrirá a esta. En breve, un SE puede cambiar las reglas de inferencia según sea necesario en función a su experiencia o su conocimiento previo del problema. En este caso, estamos ante un sistema que resulta ser más inteligente que el anterior. El primer caso, la inferencia es directo e invariable mientras que en el segundo caso la inferencia resulta ser flexible. Por tanto, hay marcada tendencia a considerar que la inteligencia erradica en los procesos de inferencia que posee el sistema. Durante los desarrollos de la máquina determinista y no determinista, Alan Turing pudo determinar que una máquina podía resolver o no determinados problemas. Cuando el matemático David Hilbert propuso la tesis de determinar si los cálculos matemáticos pudieran ser decibles, es decir, si pudieran ser definidos para solución. Para ello, se probó la máquina de Turing y se llegó a la conclusión de que ciertos cálculos resultaban imposibles de resolver. Dentro de este compendio, la máquina de Turing también contemplaba un problema que era el llamado Halting o de detención. Este problema no puede ser resuelto por la máquina debido a que no se puede determinar con precisión en qué momento una máquina se detendrá. Ante este suceso tan notorio, Alan Turing se propuso determinar si una máquina era capaz de pensar. Para poder probar su planteo propuso una prueba muy sencilla y que consistía en dos personas y un ordenador potente. Cada uno de estos se encuentran en habitaciones aislados entre si y tan solo conectados de forma remota. Una de las personas resultará ser el interrogado, mientras que del otro lado, se encontraba en una habitación una persona y en otra habitación una computadora. En esta especie de juego, se permite que los interrogadores, la computadora y la otra persona, puedan mentir, hacer preguntas tramposas, etc. Al interrogado. El objetivo de la prueba es que la persona sometida al interrogatorio, pueda determinar quién es la computadora y quien es la persona que están del otro lado de la pared. Hasta ahora, nadie ha superado este test. Más allá de este test que no deja de ser interesante, la inteligencia entre un sistema y el hombre, dista mucho. Un sistema informático basado en ordenadores no es inteligente sino altamente veloz con sus cómputos. Esta característica de inteligencia es engañosa puesto que el ordenador basado en un sistema de información solo podrá resolver planteos bajo un proceso de inferencia directa. Esto hace que el sistema informático carezca totalmente del factor de pensamiento. Por otro lado, un sistema experto cambiará dichas reglas según sea necesario. En el caso de un SE el nivel de inteligencia será superior a los sistemas basados en cómputos. Bajo este escenario tan particular, los SE no pueden pensar de forma autónoma. En el caso del SE, existe un factor de uso de la regla de inferencia según la base del conocimiento o la experiencia del sistema. Esto en verdad se trata de un “ pensamiento artificial” el cual consistirá en encontrar el mecanismo resolutivo más adecuado para resolver el problema planteado. Sin embargo y de fondo, la opción que seleccione como regla de inferencia en el sistema, es producto de la acumulación experiencial del sistema y que ha sido inserto por el desarrollador o ingeniero del conocimiento. Si el problema requiere de una regla de inferencia que el SE carece, es muy probable que no lo pueda resolver y solicite más información. Esto muestra una clara prueba del que el SE no puede pensar por sí mismo porque, si lo hiciere, no requeriría del ingeniero del conocimiento y su proceso de experiencia y conocimiento se haría de forma autónoma, cosa que como hemos visto, eso resulta imposible. En resumen, el pensamiento que un SE puede mostrar no es más que una combinación de reglas que son el producto de una resolución meramente lógica y que tendrá una estrecha Wagner, Ariel Alejandro 7

Sistemas Expertos o Inteligencia Artificial dependencia de la experiencia o de la información en su base de datos de conocimiento. Para considerar si un SE tiene pensamientos tal cual como los tiene el hombre, tendríamos que hipotéticamente considerar condiciones fuera del ámbito físico y ya estaríamos entrando en un terreno que escapa de esta tesis e incluso de la realidad científica. En breve, saque Ud., sus propias conclusiones. Autor: Developer & Instructor Wagner, Ariel Alejandro

Wagner, Ariel Alejandro

8

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->