Algoritmo: Conjunto de operaciones que se utilizan para resolver un problema especfico.
En este conjunto de instrucciones se indica la secuencia de operaciones que se deben realizar para, a partir de los datos de entrada, obtener el resultado buscado. El concepto de algoritmo es anterior a los ordenadores, y ampliamente utilizado en el mundo de la ciencia para la resolucin metdica de problemas. Sin embargo, con la aparicin de los ordenadores se comprob que era una herramienta ideal, ya que cualquier algoritmo puede transformarse en un programa informtico.
Caractersticas del algoritmo: Tiene que ser finito (con un final), preciso (detallar el orden de las operaciones a realizar) y unvoco (al aplicar el algoritmo a los mismos datos de entrada, siempre se obtendr el mismo resultado a la salida).
Un Algoritmo es un conjunto ordenado y finito de pasos o instrucciones que conducen a la solucin de un problema. La naturaleza de los problemas varan con el mbito o con el contexto donde estn planteados; as, existen problemas matemticos, qumicos, filosficos, etc. Segn esto la naturaleza de los algoritmos tambin es variada y no todos ellos pueden ser ejecutados por la computadora. En este curso consideramos aquellos algoritmos que expresan soluciones usando reglas cuantitativas cuyas instrucciones pueden ser introducidas en la computadora, a este tipo de algoritmos se denominan Algoritmos Computacionales.
En la resolucin de un problema con la computadora la parte pensante esta en el algoritmo. As pues la eficacia de un programador no est en conocer la herramienta de programacin, cosa necesaria, sino en saber resolver problemas con la computadora para lo cual se requiere conocer un concepto conocido como metodologa de la programacin cuyo eje central es el algoritmo.
Una vez que la solucin de un problema ha sido expresada mediante un algoritmo el paso siguiente es convertirlo a programa para lo cual se elige un lenguaje de programacin. De modo que un programa resulta ser la implementacin de un algoritmo en un determinado lenguaje de programacin. Esto significa, por otro lado, que un algoritmo es independiente del lenguaje de programacin.
PROBLEMA -> ALGORITMO -> PROGRAMA
El pseudocdigo es una herramienta algortmica que permite escribir pseudoprogramas (una imitacin de un programa real) utilizando un lenguaje de pseudoprogramacin que es una imitacin de los lenguajes de programacin de alto nivel. As, un pseudocdigo es una combinacin de smbolos (+, -, *, /, %, >, >=, <, <=, !=, ==, y, o, no), trminos (Leer, Imprimir, Abrir, Cerrar, Hacer...Mientras, Mientras...Hacer, Para...Mientras, etc) y otras caractersticas comnmente utilizadas en uno o ms lenguajes de alto nivel.
No existen reglas que determinen que es o no es un pseudocdigo, sino que vara de un programador a otro. El objetivo del pseudocdigo es permitir al programador centrarse en los aspectos lgicos de la solucin evitando las reglas de sintaxis de un lenguaje de programacin. Posteriormente el pseudocdigo debe ser traducido a programa usando un lenguaje de programacin de alto nivel como Java, C++, C, etc.
Ejemplo 2.1:- Disee un algoritmo para preparar una limonada.
INICIO Llenar una jarra con un litro de agua Echar el jugo de tres limones Echar cuatro cucharadas de azcar Remover el agua hasta disolver completamente el azcar FIN
Ejemplo 2.2 :- Disee un algoritmo que permita hallar la suma y el promedio de tres nmeros.
* El trmino LEER significa obtener un dato de algn dispositivo de entrada, como el teclado, y almacenarlo en una variable. Una variable es una localizacin en la memoria que tiene un nombre y cuyo contenido puede cambiar a lo largo de la ejecucin de un programa. As numero1, numero2 y numero3 son variables. * El trmino IMPRIMIR significa mostrar el valor de una variable en algn dispositivo de salida, como la pantalla. Algoritmos:
Son un conjunto de operaciones que se utilizan para resolver problemas especficos. En estas instrucciones se indica la secuencia de operaciones que se deben realizar para que partiendo de los datos de entada se pueda obtener el resultado buscado. Los algoritmos es utilizado en el mundo de la ciencia para la resolucin metdica de problemas. Los algoritmos no siempre estn escritos de una forma que conduce al programa mas efectivo en trminos de requisitos de tiempo o almacenamiento.
Las caractersticas que deben cumplir son:
Ser definido: Cada paso del algoritmo debe indicar la accin a realizar sin criterios de interpretacin. Ser finito: Un nmero especfico y numerable de pasos debe componer al algoritmo, el cual deber finalizar al completarlos. Tener cero o ms entradas: Datos son proporcionados a un algoritmo como insumo para llevar a cabo las operaciones que comprende. Tener una o ms salidas: Debe siempre devolver un resultado; de nada sirve un algoritmo que hace algo y nunca sabemos que fue. El devolver un resultado no debe ser considerado como nicamente verlos en forma impresa o en pantalla, como ocurre con las computadoras. Por salida de resultados debe entenderse todo medio o canal por el cual es posible apreciar los efectos de las acciones del algoritmo. Efectividad: El tiempo y esfuerzo por cada paso realizado debe ser preciso, no usando nada ms ni nada menos que aquello que se requiera para y en su ejecucin.
* http://www.youtube.com/watch?v=YnMMy8Nnj_I
Aproximaciones:
Aproximar un numero ciertas cifras decimales consiste en encontrar un numero con las cifras pedidas que este muy prximo al numero dado. En la aproximacin por defecto se busca el numero con un determinado numero de cifras que es menor que el dado. La aproximacin por exceso es cuando el numero con las cifras decimales fijadas es inmediatamente mayor al numero dado.
Por ejemplo, dado el nmero 1.3456 vamos a aproximarlo con dos cifras decimales: a) por defecto es 1.34 b) por exceso es 1.35
Al dar la aproximacin en lugar del nmero se comete un error, en el ejemplo anterior los errores que se cometen son: a) | 1.3456 - 1.34 | = 0.0056 b) | 1.3456 - 1.35 | = 0.0044
Al dar la aproximacin en lugar del nmero se comete un error, en el ejemplo anterior los errores que se cometen son: a) | 1.3456 - 1.34 | = 0.0056 b) | 1.3456 - 1.35 | = 0.0044
Redondear un numero consiste en dar la mejor de las aproximaciones, es aquella con la que se comete un error menor, en el caso anterior si se redondea 1.3456 a dos cifras decimales, el redondeo sera 1.35. En algunos conceptos bsicos de los mtodos numricos se puede encontrar las siguientes cifras: cifras significativas, precisin, exactitud, incertidumbre y sesgo. Ya que forman parte de las aproximaciones y predicciones numricas mas adecuadas.
Al estudiar la teora de aproximacin se comprenden dos tipos de problemas. el primero se presenta cuando una funcin se presenta de manera explicita, pero se quiere encontrar un tipo mas simple de ella, El otro se refiere a la adaptacin de funciones a ciertos datos y a la bsqueda de la funcin optima en una clase donde se puedan emplear los datos.
*http://www.youtube.com/watch?v=WAf38k2k-VY
Bibliografia: 1. Analisis Numerico Richard L. Burden J. Douglas Faires
2. Steven C, Chapra Metodos Numericos para Ing. 6ta ed; Mac Graw Hill.