You are on page 1of 4

Biocomputación.

Ciencia que estudia el desarrollo y utilización de sistemas computacionales basados en


modelos y materiales biológicos (biochips, biosensor, computación basada en ADN, redes
de neuronas, algoritmo genético).
Historia:

 En 1956, Arthur Kornberg sintetizó por primera vez ADN in vitro a partir de
nucleótidos, mientras John Backus inventaba el primer lenguaje de programación
de computadoras (Fortran).
 En 1959 Severo Ochoa y Kornberg recibían el Premio Nobel por la biosíntesis de
ácidos nucleicos, Grace Murray Hopper inventaba el lenguaje Cobol.
 En 1965, Jacob, Lwoff y Monod recibían el Premio Nobel por su teoría de la
regulación génica, al tiempo que John George Kemeny y Thomas Eugene Kurtz
desarrollaban el BASIC.
 En 1967, Kornberg consiguió la primera replicación in vitro de material genético y
Gene Amdahl proponía la construcción de una computadora con procesadores en
paralelo.
 Durante 1970-1971, Hamilton Othanel, Daniel Nathans y Hamilton Smith
descubrían las primeras enzimas de restricción (las herramientas básicas de la
tecnología del ADN recombinante) y la ingeniería genética, y se introducían en el
mercado los discos blandos (floppy disks), los microprocesadores (chips) y la
primera calculadora de bolsillo (de Hellemans y Bunch, 1988).

En realidad son los biólogos y los bioquímicos quienes hacen su primer acercamiento a la
tecnología computacional como elemento fundamental para su trabajo diario.
En 2010, un equipo dirigido por Craig Venter sintetizó por vez primera un código de ADN
“traduciéndolo” del lenguaje de un ordenador, y dio comienzo así a la era de la
Biocomputación, demostrando a efectos prácticos que el físico Erwin Schrödinger no se
equivocaba cuando especuló, allá por 1944, años antes del descubrimiento de la doble
hélice de ADN, que la vida es un guion escrito en un código simple parecido al código
Morse.

La vida es un código, un archivo de órdenes en un lenguaje de base cuatro: frente al


binario informático, formado por 0 y 1, el código genético consta de cuatro moléculas que
se esconden tras las denominaciones A, C, G y T.

Un sistema mínimo de vida necesita un genoma básico de 151 genes los cuales, por tanto,
están presentes en cualquier organismo. Son las instrucciones que necesita la vida para
expresarse. El resto son habilidades añadidas.
Una secuencia de ADN contiene las instrucciones que se necesitan para realizar una tarea
en la célula. En el lenguaje de la comparación con la máquina, el ADN es el software;
cuando se activa una secuencia de ADN, es como arrancar un programa en un ordenador.
Las proteínas son el hardware, los robots naturales tal y como las denomina Craig Venter.
Por cada tarea, hay una proteína específica que la lleva a cabo: el código de ADN se copia
en el ARN, y éste sintetiza la proteína, es decir, fabrica la herramienta necesaria según los
planos que ha copiado.
Todo el proceso requiere energía, y esto también forma parte de las instrucciones: hay una
parte del genoma que contiene las instrucciones sobre cómo generar energía mediante
metabolismo, convirtiendo el dióxido de carbono en metano para producir moléculas de
energía y fabricar proteínas.

En el caso de la vida sintética desarrollada por Craig Venter, la única diferencia con la
naturaleza es que el código de ADN está en un ordenador; luego, sólo hay que traducir un
lenguaje a otro, igual que hace el ribosoma al convertir el código del ARN en una proteína.
Y es mucho más barato sintetizar un gen desde un ordenador que clonarlo. El proceso
apenas dura unas horas.

La Biología para la Computación

Los científicos siguen dando pasos de gigante para que algún día sea posible utilizar ADN
en tareas informáticas. De momento, especialistas de la Universidad de Wisconsin-
Madison han conseguido trasladar una muestra de este material genético desde el mundo
flotante de un tubo de ensayo a la superficie rígida de una placa de cristal y oro.

Con ello, no es descabellado pensar que en el futuro el ADN pueda ser usado para llevar a
cabo las mismas tareas que ahora precisan de innumerables circuitos electrónicos y silicio.

La computación mediante ADN es una tecnología aún en pañales. Expertos como Lloyd
Smith buscan capitalizar la enorme capacidad de almacenamiento de información de estas
moléculas biológicas, las cuales pueden efectuar operaciones similares a las de una
computadora a través del uso de enzimas, catalizadores biológicos que actúan como el
software que ejecuta las operaciones deseadas.

La colocación del ADN sobre una superficie sólida, alejándolo del tubo de ensayo, es un
paso importante porque simplifica su manipulación y acceso. Demuestra también que será
posible aumentar su complejidad para resolver mayores problemas.
En los experimentos de Wisconsin, un grupo de moléculas de ADN fueron aplicadas sobre
una pequeña placa de cristal recubierta por oro. En cada experimento, el ADN fue
adaptado de manera que se incluyeran todas las posibles respuestas a un problema
determinado. Exponiendo las moléculas a ciertas enzimas, se eliminaron las moléculas
con respuestas incorrectas, dejando sólo las que poseían contestaciones correctas.
Las moléculas de ADN pueden almacenar mucha más información que un chip
convencional de computadora. Se ha estimado que un gramo de ADN secado puede
contener tanta información como un billón de discos compactos. Además, en una reacción
bioquímica que ocurriese sobre una pequeñísima área, cientos de billones de moléculas
de ADN podrían operar en concierto, creando un sistema de procesamiento en paralelo
que imitaría la habilidad de la más poderosa supercomputadora.

Los chips que se emplean en las computadoras normales representan la información en


series de impulsos eléctricos que emplean unos y ceros. Se usan fórmulas matemáticas
para manipular el código binario y alcanzar la respuesta. La computación por ADN, por su
parte, depende de información representada como un patrón de moléculas organizadas en
un hilo. Ingenieros de la NASA trabajan en el diseño de computadoras del tamaño de una
molécula de proteína, que servirán para rastrear y reparar daños celulares en el organismo
humano.
Meyya Meyyappan, del área de nanotecnología de la NASA, explicó que los "minúsculos
médicos robots" que entrarán al torrente sanguíneo serán creados para reparar las
lesiones causadas por accidentes, enfermedades, atacar virus y bacterias, así como
eliminar células cancerosas. Explicó que aunque aún no hay un nanorrobot en
funcionamiento (con un tamaño equivalente a la diezmilmillonésima parte de un metro), los
ingenieros cuentan con diseños teóricos propuestos.

Ventajas y Desventajas:
Las aplicaciones de la Biocomputación son tan diversas como lo es la imaginación de los
humanos. Al conocer el significado de cada trozo de ADN, se puede modificar un
organismo, o crearlo, a voluntad, poniendo o quitando mutaciones. Modificar el cromosoma
de una célula supone alterar sus mutaciones hasta el punto de lograr nuevas habilidades;
cambiar el cromosoma completo significa convertir una especie en otra. Es lo que se
conoce como trasplante de genoma. También. La clonación: juego favorito de los humanos
para hacer de dioses.

Algunos ejemplos desde la Biocomputación:

 La creación sintética de ADN permitirá disponer de nuevas vacunas en cuestión de


horas en cualquier lugar del mundo, simplemente enviando el código a través de
Internet y aplicándolo a una célula con un dispositivo de “traducción”, una
impresora que a día de hoy está en manos de la compañía de Craig Venter, y que
en el futuro será de uso particular, como lo son a día de hoy las impresoras 3D.

 Células que reciclan CO2 y lo convierten en combustible o nutriente; carne


sintética hecha con las proteínas musculares de aves y ganado, sin sacrificio de
animales; o vegetales a los que se les ha hecho elaborar esas proteínas animales
para completar la dieta en lugares donde la cría de ganado es inviable.

 De la misma forma que ayudará a evitar pandemias, esta posibilidad de convertir la


información digital en biológica facilitará de forma alarmante la propagación de las
mismas. Para cualquiera que lo desee, acabar con la especie humana será tan
sencillo como lo es imprimir unos cuantos folios desde cualquier habitación de
cualquier barrio en cualquier pueblo o ciudad del planeta.

 La conquista del espacio será mediante el envío, no de seres humanos, sino de


información digitalizada y dispositivos de ensamblaje: naves robotizadas de
pequeño tamaño que, al llegar a un hábitat adecuado, comenzarán la síntesis del
ADN; bastarán unas mínimas condiciones para la vida, y los artefactos
colonizadores crearán a voluntad los seres vivos necesarios para la formación de
entornos complejos, ya sean plantas o animales.
El Instituto de Biocomputación y Física de Sistemas Complejos (BIFI), es un centro de
investigación perteneciente a la Universidad de Zaragoza, en España, cuyo principal
objetivo es la aplicación de la computación a la física de sistemas complejos y los modelos
biológicos.

El BIFI fue creado en octubre de 2002 por iniciativa de un grupo de profesores de la


facultad de Ciencias de la Universidad de Zaragoza, pertenecientes a las áreas de Física
Teórica, Física de la Materia Condensada y Bioquímica y Biología Molecular. Su primer
director fue el matemático, José Félix Sáenz Lorenzo (2002-2011)
El objetivo fundamental del BIFI es desarrollar la cooperación interdisciplinar entre biólogos
y físicos para aplicar la Biocomputación al desarrollo de la investigación biológica mediante
su convergencia en investigación experimental.

Las principales líneas de investigación desarrolladas por el BIFI son:

 Materiales Complejos y Física Fundamental.


 Computación y Supercomputación.
 Redes Complejas y Sociedad.
 Física de los Sistemas Biológicos.
 Interacción de Proteína-Ligando.
 Interacción Proteína-Proteína y Transferencia de Electrones.
 Plegamiento y Estabilidad de Proteínas.
 Biología Molecular y Cristalografía.

You might also like