Ricardo Galli, de software libre

Anotaciones científicas de “Seducciones de la informática”
con 3 comentarios El viernes 9 de octubre di una conferencia en VivaAmerica titulada “Seducciones de la informática“. Salvo quizás la hipótesis de que estamos prácticamente obligados a crear nuevas formas de comunicación, todo lo que menciono no es nada nuevo, más bien son teorías científicas bien fundadas o que están generando un debate interesante en la comunidad científica. Hace unos meses de Casa de América me propusieron que de una charla “tipo TED” –es decir, para hacer un vídeo de no m ás de 20 minutos de duraci ón– sobre redes sociales. Les dije que buscaría una forma de hablar de ellas pero desde un punto de vista menos superficial y de hype tradicional que se suele ver en las charlas sobre el tema. Se me ocurrió que además de ello podría explicar lo afortunados que somos los informáticos al ser testigos de revoluciones importantes en el campo. Fundamentalmente el surgimiento de la bioinformática y los ordenadores cuánticos que son más importantes y radicales que las “redes sociales” aunque se hable poco de ellos. (Aunque no lo mencioné explícitamente, también intento transmitir un mensaje profundamente ateista y contra los defensores del creacionismo, que en sus argumentos falaces deducen que la complejidad requiere que haya un diseñador: en la charla queda claro que es el azar el generador último de esas complejidad). Fue así que plagié el nombre “Seducciones…” de la asignatura de libre configuración que estoy dando en la UIB donde tratamos estos temas y que fue originalmente creada por Llorenç Valverde (actualmente Vicerector de Tecnología de la UOC). El eje de la charla son las ideas que usé para la presentación de Carlos Almedia hace unos meses en Palma que a su vez estaba basada en preguntas que me hacía y sobre las que escribí hace dos años: ¿La mejor defensa “científica” de eso llamado redes sociales o 2.0? Tiene cuatro partes bien diferenciadas (las transparencias en PDF, 3.2 MB): 1. ADN, conocimiento, información e informática (transparencias #6 – #11) 2. La evolución y la influencia del lenguaje (#12 – #14) 3. La teoría de la información (#15 – #16) 4. El universo como un gran ordenador cuántico (#17 – #25)

Páginas
Del autor

Notas recientes
erlang: Las referencias y anotaciones de http://... erlang: @ailian Sí, se penaliza igual que los... erlang: Casi 4 años con el mismo rollo.... erlang: @ailian El sentimiento de ignorancia... erlang: @runIevel0 Puede ser, pero no era...

Comentarios recientes
gallir en Anotaciones científicas de … jordisan en Anotaciones científicas de … Teoría de la Informa… en Anotaciones científicas de … Week-Log.334 | Denke… en La ciencia en España no necesi… Motores de reservas:… en La ciencia en España no necesi… Fiona en La ciencia en España no necesi… chaoslord en Cinco días bastan enguillem en La ciencia en España no necesi… La ciencia en España… en La ciencia en España no necesi… Arragonán » Bl… en La ciencia en España no necesi…

ADN, conocimiento, información e informática
Se introduce con una visión “clásica” de la información, el conocimiento, la informática, y las relaciones con el ADN. Sobre este tema escribí hace cuatro años en Las cinco formas de almacenar el conocimiento… 1. ADN: Es el primer método de almacenamiento del conocimiento. EL ADN existe para almacenar el conocimiento de cómo crear vida, como una máquina de Turing. El conocimiento está profundamente empotrado, pasar de grado es obligatorio para la supervivencia de las especies. El conocimiento es persistente, pero se actualiza muy lentamente. No tenemos la capacidad de cambiar el conocimiento – todavía, o sí…– de forma intencionada. El ADNpuede hacer crecer un objeto físico que interactúa y modifica el entorno. 2. Cerebro: Es un “experimento” casi exclusivo de la raza humano: almacenar más conocimiento en el cerebro que lo que se hereda en el ADN. Usamos nuestro cerebro para almacenar el conocimiento que adquirimos, fue el segundo método de almacenar el conocimiento que conocimos. El conocimiento es muy volátil, pero podemos cambiarlo rápida e intencionalmente. Podemos aplicar ese conocimiento para afectar y modificar el mundo. 3. Máquinas y herramientas: El valor más importante de una herramienta no es ella en sí misma, sino como ha sido creada y modificada. El conocimiento del creador de esas herramientas es lo que marca las diferencias. Se las suele llamar también “conocimiento sólido” y fue la tercera forma de almacenar el conocimiento. El conocimiento es bastante persistente, pero no es fácil de actualizar. Es intencional y existe para afectar el mundo exterior. 4. Libros: Ha permitido nuevas formas de depositar y acceder al conocimiento que hasta ese momento estaban confinados al cerebro. Hizo al conocimiento portable en el tiempo y en el espacio. El conocimiento es muy persistente, pero de actualización lenta. Aunque los libros son intencionales no tienen capacidad para cambiar al mundo. 5. Software: Es la última forma conocida –de hace sólo unos 50 años– para almacenar el conocimiento. Después de unos inicios dubitativos, está creciendo a una velocidad vertiginosa. Multitud de personas están trabajando para obtener información de las fuentes más diversas, comprenderla, clasificarla y trasladarla a este medio, y entonces intentan validar todo ese conocimiento. Hay una razón para que se invierta tanto esfuerzo, este medio tiene las características que deseamos y que no tienen los otros medios: es intencional, persistente, de actualización sencilla y rápida, y sobre todo es activo. Al final de esta parte menciono a la bioinformática, una nueva “ciencia” que une los conocimientos de una ciencia natural, la biología, con otra ciencia formal, la informática.

Entradas recientes
Anotaciones científicas de “Seducciones de la informática” La ciencia en España no necesita tijeras Cinco días bastan La larga cadena de errores del accidente del avión de Spanair El bug marciano

Buscar

Blogroll
Menéame

Archivos
Octubre de 2009 Septiembre de 2009 Agosto de 2009 Julio de 2009 Junio de 2009 Mayo de 2009 Abril de 2009 Marzo de 2009 Febrero de 2009 Enero de 2009 Diciembre de 2008 Noviembre de 2008

La evolución y la influencia del lenguaje

invierta tanto esfuerzo, este medio tiene las características que deseamos y que no tienen los otros medios: es intencional, persistente, de actualización sencilla y rápida, y sobre todo es activo. Al final de esta parte menciono a la bioinformática, una nueva “ciencia” que une los conocimientos de una ciencia natural, la biología, con otra ciencia formal, la informática.

Mayo de 2009 Abril de 2009 Marzo de 2009 Febrero de 2009 Enero de 2009 Diciembre de 2008 Noviembre de 2008 Octubre de 2008 Septiembre de 2008 Julio de 2008 Junio de 2008 Mayo de 2008 Abril de 2008 Marzo de 2008

La evolución y la influencia del lenguaje
Con “El origen de las especies” de Charles Darwins aprendimos que la evolución fue –y es– una lucha cruenta y sangrienta por la supervivencia. Aquellos individuos que sobrevivían más tiempo eran los que más se reproducían, transmitiendo así sus pequeñas ventajas genéticas a sus descendientes. Cien años después, también aprendimos que esos genes no son más que pequeñas unidades básicas –bits– de información. Investigaciones posteriores descubrieron que, a diferencia del resto de las especies, los humanos no respetamos la Teoría de la Evolución, ni al “egoísmo de los genes”, como lo describió Richard Dawkins. Nuestra organización social es diferente, y quizás única en el universo. Los científicos que estudian estos “extraños” comportamientos humanos nos explican las razones, hemos sido capaces de comunicarnos, de compartir información sobre nuestros deseos e intereses, de cultivar la empatía. Así pudimos establecer objetivos colectivos a corto plazo, en beneficio de otros a más largo plazo. Como bien lo resume Dawkins en su documental “The big question: Why are we here?”: Y entonces, ocurrió algo sin precedentes: surgió un cerebro que fue capaz de mirar al mundo y preguntarse, (tal vez por primera vez) la pregunta “¿por qué?” ¿Por qué estamos aquí? Ya no teníamos que limitarnos a lo que la naturaleza nos diga. Pudimos pensar en metas de acuerdo a nosotros, y desarrollamos una herramienta para expresar estas metas: el lenguaje . El hablar nos permite compartir metas. Y la criatura capaz de comunicar sus metas empieza a pensar intencionalmente, a actuar intencionalmente, a crear intencionalmente. E incluso más asombrosamente, a través del lenguaje nuestras metas pueden tomar una vida más allá de cualquier individuo. Un inventor puede producir la rueda. Usando el lenguaje , generaciones de inventores, compartiendo la meta del transporte rápido, pueden producir el automóvil moderno. La tecnología permite al ser humano realizar sus objetivos con gran eficacia. Y cuando los seres humanos persiguen una meta, ellos mismos fuerzan el paso de la evolución. Ésta es una forma completamente nueva de evolución, no evolución genética.

Febrero de 2008 Enero de 2008 Diciembre de 2007 Noviembre de 2007 Octubre de 2007 Agosto de 2007

Meta
Iniciar Sesión RSS de las entradas RSS de los comentarios WordPress.com

Licencia

Esta obra está bajo una licencia de Creative Commons.

La teoría de la información
En 1948, Claude Shannon , un científico contratado por la AT&T para investigar cómo aumentar el número de comunicaciones por los cables telefónicos, publicó el artículo “Una teoría matemática de la información”, que dio origen a lo que hoy conocemos como “Teoría de la Información”. Ese modelo –de origen y objetivos aparentemente modestos– permitió avances radicales en la transmisión y codificación de datos. Es la base de todas las comunicaciones modernas: la radio, televisión, satélites, teléfonos, Internet. Una de las grandes victorias de la teoría de Shannon es que define matemáticamente la redundancia y que defiune cuánta información puede transportarse por un canal de comunicación, éste es el famoso teorema de la capacidad de canal. La idea central de la Teoría de la Información es la entropía. Entropía e información están relacionadas íntimamente, de hecho entropía es una medida de la información. De hecho Shannon estaba por llamarle “información”, pero fue Von Neumann el que le propuso usar entropía: Deberías llamarle entropía, por dos razones. En primer lugar tu función de incertidumbre se ha usado en mecánica estadística con ese nombre, así que ya tiene un nombre. En segundo lugar, y más importante, nadie sabe lo que es realmente la entropía, así que siempre tendrás una ventaja en el debate. Lo más sorprendente y contraituitivo de la función de incertidumbre de la teoría de Shannon es que un mensaje que es predecible lleva menos información que un mensaje que parece estar formado por caractates aleatorios. Parece que Shannon no dió demasiada importancia a las similitudes de su entropía de la información con la entropía termodinámica, pero otros científicos sí lo hicieron. Antes de la teoría de Shannon, en 1929, el científico húngaro Le ó Szil árd resolvió la paradoja del demonio de Maxwell(el año está mal en la Wikipedia): el acto de obtener información de la posición de un átomo incrementa la entropía del universo, contrarestando los esfuerzos del “demonio” de decrementar la entropía de la caja. En 1951, inspirado por la teoría de la información, Léon Brillouin trató de explicar qué es lo que hacía el “demonio” para incrementar la entropía en la caja. Sus conclusiones fueron que la entropía de Shannon y la entropía termodinámica estaban ínitimamente relacionadas, aunque la teor ía de la informaci ón provee una perspectiva diferente . Con las leyes de la termodinámica se puede aplicar energía para separar las moléculas frías de un gas encerrado en una caja reduciendo así su entropía. Si se deja de aplicar esa energía a la caja la entropía vuelve a aumentar volviendo así al equilibrio. En cambio con las leyes de la información se aplica energía para obtener y procesar información de las moléculas en el gas, este procesamiento cambia la información almacenada en la caja. Una vez que se deja de aplicar energía esa información almacenada se disipa en el ambiente. La naturaleza intenta disipar la informaci ón tanto como intenta aumentar la entrop ía: las dos ideas son los mismo .

Con las leyes de la termodinámica se puede aplicar energía para separar las moléculas frías de un gas encerrado en una caja reduciendo así su entropía. Si se deja de aplicar esa energía a la caja la entropía vuelve a aumentar volviendo así al equilibrio. En cambio con las leyes de la información se aplica energía para obtener y procesar información de las moléculas en el gas, este procesamiento cambia la información almacenada en la caja. Una vez que se deja de aplicar energía esa información almacenada se disipa en el ambiente. La naturaleza intenta disipar la informaci ón tanto como intenta aumentar la entrop ía: las dos ideas son los mismo . Aunque parce obvio, muchos científicos no estaban de acuerdo. La respuesta final provino de las ciencias de la computación. En la década de 1930 Alan Turing demostró que una máquina que pudiese grabar símbolos en una cinta, borrarlos y mover esa cinta puede hacer lo mismo que cualquier ordenador concebible. Un ordenador, o el cerebro , no es más que una máquina de procesamiento de información y por lo tanto sujeta a la Teoría de la Información: manipular esos bits de información está ligado al consumo de energía y entropía. Así, los científicos se dedicaron a investigar cuánta energía y entropía se consume o produce cuando se manipulan bits, era el primer paso para entender cómo trabajan los ordenadores y el cerebro. El físico Rolf Landauer dio en 1961 con una respuesta sorprendente, conocido como el principio de Landauer. Este principio dice que cualquier operación lógica que implique el borrado o la sobreescritura de información implica un aumento de entropía. O dicho de otra forma, cualquier operaci ón reversible como la negación, suma o multiplicación no consume energía ni modifica la entropía. Pero si la operaci ón es irreversible, como el “borrado de bits ” entonces s í consume energ ía que se disipa (es el calor que disipan nuestras CPU) y aumenta la entropía del universo. La respuesta definitiva lo dió en 1982 el “padre” del cifrado cuántico Charles Bennet en su artículo The Thermodynamics of Computation– a Review, Bennet “mata” definitivamente la paradoja del demonio de Maxwell. El demonio es en el fondo una máquina de procesamiento de información, una Máquina de Turing. Esta máquina debe medir la velocidad de los átomos de alguna manera, guardar ese bit de información en la cinta y ejecutar un programa que tome la decisión de abrir o no la puerta. Pero escribir ese bit implica que en algún momento hay que borrar un bit previo. Aunque se tenga muchísima memoria, ésta no puede ser infinita ya que el número de partículas en el universo es finito por lo que el “demonio” se quedará sin memoria y tendrá que borrar bits al coste de liberar entropía. Así el demonio de Maxwell fue asesinado después de más de 100 años. Pero lo sorprendente es que además quedaba claro que no podr ía haber m áquinas de movimiento perpetuo … demostrado con las ciencias y la teor ía de la informaci ón. Y todo esto ocurría con una “modesta” teoría, cuyo autor –Shannon– nunca tuvo la intención de resolver la paradoja de Maxwell ni estudiar las relaciones entre información, partículas y termodinámica.

El universo como un gran ordenador cuántico
La posición y velocidad de un átomo en un gas registra información, es decir, los átomos registran bits ¿Cómo se procesa esa información? Las colisiones atómicas. En el modelo de Edward Fredkin y Tommaso Toffoli del artículo Conservative Logic (1982) cada colisión realiza las operaciones lógicas AND, OR, NOT y COPY. Fijando las posiciones y velocidades iniciales adecuadas es posible “programar” circuitos lógicos. O sea, los átomos moviéndose en un gas son en principio capaces de realizar procesamiento digital universal. Es muy complejo fijar esas posiciones y velocidades adecuadas para cada átomo, además las colisiones en un gas son caóticas y por el efecto “mariposa” la mínima variación contaminaría el proceso completo. Pero estos problemas pueden (y son) resueltos por la mecánica cuántica. Como lo demuestra el experimento de la rendija, uno de los “misterios” de la física cuántica es la dualidad partícula-onda. Este experimento demuestra que debido a su naturaleza de ona, una partícula no necesita estar en un sitio determinado. Esta propiedad de estar en varios sitios al mismo tiempo es la responsable de la potencia de la computación cuántica. Si se coloca uin detector en una de las rendijas la interferencia desaparece, se dice que la interacción ha localizado a la partícula, o sea destruyó su cartacter de onda. Este proceso se denomina decoherencia y se produce ante la mínima interacción con su entorno –por esa es la razón los “objetos grandes” están en un sitio u otro–. La unidad de información cuántica son es el bit, sino el qubit. Este puede ser un espín nuclear, la posición de un electrón en u interferómetro, no es importante el medio, sino la información cuántica que representa. A diferencia de un bit tradicional puede tener ambos valores, 0 y 1 simultáneamente, hasta que ocurra la decoherencia. Desde 1980 se discutía la posibilidad de construir un ordenador cuántico que pudiese procesar como un ordenador normal, a principios de los 90 se empezaron a construir los primeros ordenadores cuánticos basados en la resonancia nuclear magnética [*]. En 1994 se publica el primer algoritmo de factorización ejecutable en ordenadores cuánticos, al algortimo de Shor. (Más información: vídeo Seth Lloyd’s Quantum Computer, Quantum Computation Roadmap, Timeline of quantum computing). [*] Según Decoding the Universe y la Enciclopedia Británica, el primer ordenador cuántico fue fabricado por Isaac Chuang de Los Alamos National Laboratory y Neil Gershenfeld del MIT y tenía 2 qubits. La idea que el universo sea un ordenador no es nueva, Konrad Suze –la primera persona en construir un ordenador moderno– ya lo propuso en 1967 en su Rechnender Raum que se cita como el inicio de la Física Digital. El mencionado Edward Fredkin es del grupo del científicos de este grupo, como así también Stephen Wolfram (el creador de Mathematica y el más reciente WolframAlpha) extendió la idea de Fredkin y Suze para su autómata celular en su controvertido pero muy vendido libro A New Kind of Science. Norm Margolus , alumno y colaborador de Tommaso Toffoli, demostró que un sistema físico simple con colisiones de átomos puede realizar computaciones digitales universales. Junto con Lev Levitin publicaron en 1998 el artículo The maximum speed of dynamical evolution donde fijan los límites de las operaciones (flips) sobre los bits (o dicho de otra forma, la velocidad máxima de evolución, que es proporciona a la energía del sistema): el Teorema de Margolus-Levitin. A partir del teorema anterior y trabajos de Planck, Seth LLoyd en Computational capacity of the universe calculó la capacidad de procesamiento del universo: 10
105

operaciones por segundo, sobre 10
120

90

bits.

Norm Margolus , alumno y colaborador de Tommaso Toffoli, demostró que un sistema físico simple con colisiones de átomos puede realizar computaciones digitales universales. Junto con Lev Levitin publicaron en 1998 el artículo The maximum speed of dynamical evolution donde fijan los límites de las operaciones (flips) sobre los bits (o dicho de otra forma, la velocidad máxima de evolución, que es proporciona a la energía del sistema): el Teorema de Margolus-Levitin. A partir del teorema anterior y trabajos de Planck, Seth LLoyd en Computational capacity of the universe calculó la capacidad de procesamiento del universo: 10 operaciones por segundo, sobre 10 bits. 120 La cantidad de operaciones en total en los 14.000 millones de años calculados del universo son 10 operaciones. Más tarde, en 2004, Lawrence Kraus (autor de La física de Star Strek) y Glenn D. Starkman publicaron Universal Limits on Computation donde analizan la cantidad de información que puede almacenar y procesar el universo, así calculan que al universo le quedan “sólo” 10
120 105 90

operaciones.

Complejidad y azar
Explicar el tema de la complejidad algorítmica o las relaciones entre complejidad y entropía haría incabable este apunte. Pero desde el punto de vista físico, de la información o biológico (recomiendo la conferencia Complexity vs Chance para conocer las ideas fundamentales desde el punto de vista biológico) la complejidad de nuestro universo se explica desde el punto de vista del azar. Como explicar Seth Lloyd en Programming the Universe (Capítulo 8), esta complejidad es fácilmente explicable desde el punto de vista de la teoría de la información si se considera al universo como un gran ordenador cuántico. Ludwig Boltzmann ya había propuesto que el origen del universo es resultado del azar de fluctuaciones estadísticas. Boltzmann se dio cuenta que su demostración era errónea y no continuó con el tema. Sin embargo usando la información algorítmica sobre trabajos iniciados por Gregory Chaitin y Bennet (From Complexity to Life: On The Emergence of Life and Meaning) sí se puede explicar el origen de la complejidad a partir de eventos aleatorios. Si a los monos del Teorema de lo infinitos monos se cambia la máquina de escribir por un int érprete de lenguaje de ordenador , las probabilidades que generen un código que a su vez genere resultados es mucho menor. Así, aunque 10 monos no hayan sido capaces de reproducir Hamlet desde la creación del universo, sí podrían haber dado origen a estructuras tan complejas como las de universo. La pregunta es, ¿quién genera esas entradas aleatorias? El principio de incertidumbre de Heisenberg: las fluctuaciones cu ánticas .
Escrito por gallir Octubre 13, 2009 a 1:20 pm Escrito en ciencia, cultura Etiquetado con complejidad, evolución, lenguaje, ordenador cuántico, universo 90

« La ciencia en Espa ñ a no necesita tijeras

3 comentarios
Suscríbete a los comentarios mediante RSS.

[...] lenguaje, termodinámica, cuántica, algorítmica,…), le recomiendo encarecidamente este artículo de Ricardo Galli, profesor en la UIB, y las transparencias en PDF de su charla en VivaAmérica. Tags: [...]

Teor ía de la Informaci ón
Octubre 13, 2009 a 2:06 pm

Ricardo, quizás en la charla se echa a faltar un poco ese “hilo conductor” que ligue todos los temas entre sí; algo así como un “dónde queremos llegar” que esté siempre presente (aunque es cierto que con tan poco tiempo es difícil hacer una argumentación elaborada). Por cierto, en este post hablas de “cinco partes bien diferenciadas” y luego sólo incluyes cuatro. Es curioso porque yo te iba a sugerir una parte adicional: la aparición y explicación de la CONSCIENCIA dentro de ese ordenador cuántico; las referencias a los libros “La nueva mente del emperador” y “Gödel, Escher, Bach” serían inevitables.

jordisan
Octubre 13, 2009 a 2:21 pm

Sí, había “cinco” por error que ya lo quité. Iba a poner una de “conclusiones” pero se me hacíua interminable y prefería dejarlo aquí. Sobre el “hilo conductor”, creo que está bien claro: “las redes sociales son un una evolución esperada de las comunicaciones humanas, necesitamos cada vez comunicaciones más complejas”. Para ello hago una introducción desde el área de “conocimiento y software”, la importancia del lenguaje en la evolución desde el punto de vista de biología evolutiva (que también hablan de complejidad), y la acabo desde el punto de vista de física y teoría de la información. Sobre el tema de consciencia, no veo que sea tan relevante para la tesis, no lo conozco tanto como los demás y fundamentalmente no alcanzaba el tiempo en los 20 minutos máximo que tenía (y lo “poco” que dije me tomó un poco menos de 19 minutos).
pm

gallir
Octubre 13, 2009 a 2:55

Escribe un comentario
Nombre (requerido)

Escribe un comentario
Nombre (requerido) E-mail (no será publicado) (requerido) Sitio Web

Enviar Comentario

c d e f g Recibir subsiguientes comentarios por correo.
Blog de WordPress.com . — El tema Journalist está hecho por Lucian E. Marin