You are on page 1of 32

La violencia: un enfoque científico

El biólogo y antropólogo Robert Sapolsky aborda un ameno estudio
científico sobre la agresividad mediante un viaje en el tiempo a
través de los cambios en el cerebro

El miedo y la violencia son un problema central para la organización de nuestras sociedades,
pero las formas de afrontarlo que hemos probado hasta ahora están lastradas por un error
crucial: ignoran la neurociencia de la agresividad, y por lo tanto son palos de ciego en la
jungla de la complejidad humana. Si hubiera una solución única a ese alarde de
desconocimiento, sería seguramente el último libro de Robert Sapolsky, Compórtate. La
biología que hay detrás de nuestros mejores y peores comportamientos (Capitán Swing), un
verdadero tratado erudito de 982 páginas, y que pese a ello ofrece una lectura transparente,
profunda y emocionante, llena de chispa y de sabiduría. Fue declarado el mejor libro de
ciencia de 2017 por The New York Times, The Washington Post y The Wall Street Journal, y
al leerlo se entiende muy bien por qué.

Sapolsky, nacido en Brooklyn, Nueva York, de padres judíos emigrados allí desde la Unión
Soviética, es en sí mismo un personaje. Biólogo y antropólogo por Harvard, doctor en
Neuroendocrinología por la Rockefeller, profesor de neurociencias en Stanford y visitante
anual de Kenia para investigar el estrés de los monos, sus credenciales científicas resultan
aplastantes, pero ello no le ha impedido dedicar buena parte de su energía y concentración,
ya desde los años noventa, a escribir libros para instruir a la gente y a los poderes que
pretenden controlarla, a agresores, agredidas y cualquier lector culto que pueda hacer algo
para mejorar las cosas. Su imagen de profeta bíblico, con melena rizada y barba Hammurabi,
es la pincelada que completa el cuadro. Pero su ciencia y su escritura son luminosas, en un
caso raro y precioso de tercera cultura.

Bien, ¿y qué dice la ciencia sobre la agresividad? La propia organización del libro nos da una
clave para orientarnos. Cuando alguien incurre en un comportamiento violento, la primera
pregunta es: ¿qué ha ocurrido en su cerebro un segundo antes? Esta cuestión nos introduce
directamente en la neurología del comportamiento. Segunda pregunta: ¿y qué ocurrió de
unos segundos a unos minutos antes? Aquí la respuesta debe explorar las señales, sonidos u
olores que desencadenan la agresión. ¿Y qué pasó de unas horas a unos días antes? He aquí
la selva de las hormonas, la explicación endocrinológica de que ese individuo sea
especialmente receptivo a las señales que vendrán después.

Siguiendo esta estrategia de desplazar el foco cada vez más atrás, Sapolsky nos conduce por
un viaje en el tiempo hasta los cambios en la estructura cerebral que ocurrieron unos años
antes, de ahí a la infancia del individuo, a su vida fetal, a la cultura en que han vivido sus
ancestros y, finalmente, a los millones o cientos de millones años de evolución biológica que
han conformado el cerebro de su especie. Todos estos aspectos son causas del
comportamiento agresivo de la persona, y se exploran en el libro con una apabullante
erudición y una admirable claridad. Al final, resulta que todas esas causas, todos esos
pretéritos, están íntimamente relacionados, como no podía ser de otra forma.

Sapolsky es un biólogo, pero no un biologicista, como dicen los científicos sociales para
descalificar las explicaciones neurológicas o evolutivas del comportamiento humano. “No se
puede empezar a comprender algo como la agresividad, la competencia, la cooperación y la
empatía sin la biología”, escribe el autor. Pero también: “Estará usted igual de equivocado
si solo confía en la biología”. En realidad, el libro de Sapolsky se puede considerar una
demostración de que los factores biológicos y los culturales están íntimamente vinculados, y
que establecer un cordón sanitario entre ellos es un error garrafal.

Un buen ejemplo es la estructura cerebral (amígdala, no confundir con las amígdalas de la
garganta) a la que apuntan todas las evidencias neurológicas como un nodo central del
miedo y la agresividad. Cada especie tiene una serie de miedos innatos. Por ejemplo, los
ratones sienten miedo a la luz y a los espacios abiertos, en lo que supone una obvia
adaptación a su hábitat natural nocturno y refugiado. Pero el miedo también se puede
aprender a lo largo de la vida. Y la estructura crucial para ello vuelve a ser la amígdala. Lo
innato y lo aprendido, lo biológico y lo ambiental, son dos caras de la misma moneda. Pese a
un siglo de encarnizadas reyertas académicas, lo cierto es que no hay ninguna contradicción
entre esos dos vectores del comportamiento.

Otro buen ejemplo es lo que ocurre en el cerebro adolescente, un capítulo que interesará en
particular a padres y profesores (supongo que será demasiado pedir que lo lean los propios
niñatos). La clave aquí son los lóbulos frontales, la parte del cerebro que ha crecido más
durante la evolución humana, y por tanto la última en incorporarse a nuestra caja de
herramientas neurológicas. En lo que supone una especie de homenaje a la (denostada)
teoría de la recapitulación de Ernst Haeckel, según la cual el desarrollo recapitula la
evolución, los lóbulos frontales son también los últimos en madurar: empiezan a hacerlo justo
en la adolescencia, y no acaban hasta ¡mediada la veintena! El caso es que, al comienzo de la
adolescencia, las zonas antiguas del cerebro que disparan la agresividad y los
comportamientos de riesgo están ya plenamente formadas, mientras que los lóbulos frontales
que se ocuparán de reprimir esos comportamientos son aún inmaduros, débiles e
incompetentes.

Poca gente está dispuesta en nuestros días a sumergirse en un océano de 982 páginas, pero
la recompensa será grande para quien lo haga.

Volcán Chichón y sus aportes a la biotecnología

Por María Gabriela López Suárez

Tuxtla Gutiérrez, Chiapas. 27 de diciembre de 2018 (Agencia Informativa Conacyt).- Generar aportes en
producción de antibióticos, fertilización de plantas, aplicación para remoción de algunos metales o
contaminantes son algunos de los resultados que se esperan con el desarrollo del proyecto Aplicación
biotecnológica de microorganismos extremófilos del volcán Chichón, a cargo del doctor Víctor Manuel Ruiz
Valdiviezo, profesor investigador del Instituto Tecnológico de Tuxtla Gutiérrez (ITTG) —perteneciente al
Tecnológico Nacional de México (Tecnm).

El Chichón, ubicado en la región montañosa que colinda con los municipios de Francisco León y
Chapultenango, es el único volcán activo en México que tiene un lago cráter con condiciones extremas y es el
objeto de este estudio en el que se pretende analizar la estructura y funcionalidad de los microorganismos del
lago cráter, para determinar potenciales aplicaciones en procesos específicos, por ejemplo, de
biorremediación; tomando en cuenta que una aplicación biotecnológica es el uso de estos microorganismos
para la producción de algunas enzimas.

Con este proyecto, Ruiz Valdiviezo participó en la convocatoria de ciencia básica del Consejo Nacional de
Ciencia y Tecnología (Conacyt), en 2015. Ruiz Valdiviezo es doctor en ciencias con especialidad de
biotecnología por el Centro de Investigación y de Estudios Avanzados (Cinvestav); integrante del núcleo
académico de la maestría en ciencias e ingeniería bioquímica y el doctorado en ciencias de los alimentos y
biotecnología del ITTG, ambos en el Programa Nacional de Posgrados de Calidad (PNPC) del Conacyt y
miembro nivel I del Sistema Nacional de Investigadores (SNI).

Víctor Manuel Ruiz Valdiviezo
Es ingeniero bioquímico y maestro en ciencias en ingeniería bioquímica egresado del Instituto Tecnológico de
Tuxtla Gutiérrez. Cursó sus estudios de doctorado en ciencias en la especialidad de biotecnología en el Centro
de Investigación y de Estudios Avanzados. Actualmente es profesor investigador del Instituto Tecnológico de
Tuxtla Gutiérrez. Es miembro nivel I del Sistema Nacional de Investigadores y miembro honorífico del Sistema
Estatal de Investigadores. Recibió medalla de oro por Reconocimiento al Mérito Estatal de Investigación 2014
(categoría Juvenil) por parte del gobierno del estado de Chiapas.

bioqvic@hotmail.com

Agencia Informativa Conacyt (AIC): ¿A qué se refiere la biotecnología?

Víctor Manuel Ruiz Valdiviezo (VMRV): Es un área multidisciplinaria que involucra a la biología, química y
tecnologías para el uso de organismos vivos o parte de ellos en la generación de productos y procesos
específicos.

AIC: ¿Cómo resultó aprobada la investigación en el volcán Chichón?

VMRV: Es el único volcán activo en México que tiene un lago cráter con condiciones extremas, principalmente
altas temperaturas, pH ácido y concentraciones de metales, que lo hace un nicho de microorganismos
denominados extremófilos, los cuales han sido reportados por su amplio uso y valor en la biotecnología
moderna.

Derivado de ello, este proyecto fue aprobado por el Conacyt, justificando la originalidad e importancia de
poder estudiar microorganismos que estén viviendo bajo estas condiciones extremas. Funjo como el
responsable técnico del proyecto y mis colaboradores son principalmente investigadores del núcleo académico
del posgrado del ITTG, entre ellos están los doctores Federico Gutiérrez Miceli y Reiner Rincón Rosales, que
cuentan con alta experiencia en el área de biotecnología y ecología genómica, del grupo de trabajo del Tec de
Tuxtla.

AIC: ¿Es un proyecto interdisciplinario?

VMRV: Para algunas evaluaciones y determinaciones fisicoquímicas y moleculares nos hemos enlazado con el
Cinvestav, Ciudad de México, con el doctor Luc Dendooven, del Laboratorio de Ecología de Suelos; también
hemos estado trabajando con la doctora Rocío Jetzabel Alcántara Hernández, del Instituto de Geología de la
UNAM, con quienes hemos compartido y generado conocimiento en el área de geomicrobiología, biología
molecular, ecología y biotecnología, que es básicamente el objetivo de esta investigación.

AIC: ¿Cuáles son las metodologías empleadas para llevar a cabo la investigación?
VMRV: La caracterización fisicoquímica, muestrear el lago cráter y monitoreo de la temperatura, pH,
concentración de metales pesados; por ejemplo, hemos encontrado temperaturas superiores de 90 °C, son
temperaturas altas donde se pueden encontrar microorganismos extremófilos, y los valores de pH encontrados
permiten considerar las muestras de este sitio como hiperácidas, ya que se ha detectado pH en el rango de
1.9 y 4. Algo muy importante es la caracterización molecular de los microorganismos extremófilos del lago
cráter empleando las herramientas metagenómicas, secuenciamiento masivo de nueva generación y la
aplicación de técnicas bioinformáticas. Así también, el estudio molecular se ha llevado a cabo empleando
diferentes técnicas dependientes del cultivo para el estudio de diversos procesos biotecnológicos.

AIC: A partir de la investigación, ¿qué productos académicos se han realizado?

VMRV: Tenemos un primer artículo publicado recientemente en la revista Geomicrobiology Journal, en donde
se reporta por primera vez la diversidad y estructura de las bacterias que están presentes en el lago cráter del
volcán Chichón. Nosotros en el grupo de trabajo del tecnológico tenemos mucho interés en darle uso en
diferentes áreas de la biotecnología, como son vegetal, alimentos, farmacéutico y ambiental.

1-carevol1118.jpgAdemás, los estudiantes de doctorado y maestría involucrados en este proyecto han
participado en diferentes congresos nacionales e internacionales como el Congreso Nacional de Astrobiología,
Congreso de Biotecnología de Chiapas y el Simposium Internacional de Genómica Funcional y Sistemas
Biológicos.

AIC: ¿En qué etapa se encuentra la investigación?

VMRV: Justo finalizando la segunda etapa del proyecto de ciencia básica 2015 Conacyt, para entrar a la
tercera etapa donde los aspectos están enfocados en funcionalidad de los microorganismos extremos,
empleando técnicas metatranscriptómicas con la finalidad de comprender los mecanismos bioquímicos de este
tipo de organismos para su futura aplicación en generación de productos y procesos.

AIC: ¿Los resultados los van a regresar a la zona de estudio?

VMRV: Es posible emplear los microorganismos extremófilos del mismo lago cratérico, por ejemplo, con la
finalidad de biorremediar y recuperar suelos ácidos del ecosistema.

AIC: ¿Qué aportes se generan con esta investigación?

VMRV: A la comunidad científica, se ha generado evidencia de bibliotecas metagenómicas de las comunidades
microbianas ácido térmicas en el lago cráter del volcán activo Chichón, empleando herramientas
metagenómicas, lo cual es de gran valor ya que este ecosistema de volcanes activos con lagos cratéricos son
poco comunes en México y a nivel mundial. Se están diseñando dispositivos y estrategias para el cultivo de
microorganismos con potencial de biorremediación y producción de metabolitos microbianos de interés
biotecnológico.

La bacteria golosa que fabrica y devora plástico

Por Armando Bonilla

Ciudad de México. 12 de febrero de 2018 (Agencia Informativa Conacyt).- La doctora en ciencias Elva Yadira
Quiroz Rocha, investigadora residente en el Centro de Ciencias Genómicas de la Universidad Nacional
Autónoma de México (UNAM), identificó el sistema que permite a la bacteria Azotobacter vinelandii —presente
en suelos y raíces de plantas— multiplicar por diez su capacidad para producir dos tipos de plásticos
biodegradables o biopolímeros, de extraordinaria pureza y nulo impacto ambiental.

Con su investigación, Quiroz Rocha identificó el sistema que hace posible a la bacteria Azotobacter vinelandii
elegir las fuentes de carbono (alimento) que posteriormente convertirá en dos tipos de polímeros —alginato y
poli-β-hidroxibutirato (PHB)—, ambos de interés biotecnológico por su gran potencial de aplicación en diversos
campos, así como su capacidad para ser degradados por la misma bacteria que los produce.

Esta investigación fue parte de su tesis doctoral en el Instituto de Biotecnología (IBt) de la UNAM, bajo la
asesoría de la doctora Cinthia Núñez.

En entrevista para la Agencia Informativa Conacyt, la doctora explicó que el proyecto surgió cuando inició sus
estudios de maestría en ciencias bioquímicas en el grupo de investigación de la doctora Cinthia Núñez en el
IBt, quien le propuso estudiar una cepa de A. vinelandii modificada genéticamente (llamada GG15), la cual
tenía la capacidad de producir hasta 10 veces más alginato en comparación con la cepa silvestre. Ante ello, se
plantearon investigar el mecanismo de regulación de este proceso, con la finalidad de lograr escalar la
producción del polímero a largo plazo.

En busca de la superbacteria

De acuerdo con la doctora Quiroz Rocha, el mayor beneficio al lograr que alguna bacteria produzca polímeros
en cantidades suficientes radica en la posibilidad de que, a largo plazo, se reemplacen los plásticos derivados
del petróleo, ya que las bacterias se encargan de degradarlo al usarlo como fuente de carbono, en un proceso
que tardaría entre tres y seis meses.

Otro de los grandes beneficios para este tipo de polímeros tiene que ver con su pureza, ya que ello les da el
potencial necesario para aplicaciones médicas debido a que los polímeros altamente puros pueden ser
utilizados para la generación de prótesis, que ya se ha documentado, no generan una respuesta tóxica en el
organismo de los huéspedes.

En el caso particular del alginato, se está probando la introducción de células vivas para terapias celulares y
una aplicación potencial similar es el encapsulamiento de sustancias, por ejemplo, para optimizar la
quimioterapia, ya que encapsular la sustancia permitiría dirigirla directamente a las zonas donde es necesaria,
sin dañar tanto otras células del cuerpo.

La dieta de la bacteria

La investigadora indicó que debido a su estilo de vida libre, Azotobacter prefiere alimentarse de compuestos
muy simples como el acetato (vinagre común), pero los recursos que le proporciona este compuesto no le
alcanzan para producir grandes cantidades de polímero. Es por esta razón que en el laboratorio se le
proporciona otras fuentes de carbono como glucosa o sacarosa (azúcar), ya que estas permiten que la
bacteria logre sintetizar mayor cantidad de polímeros; sin embargo, estos azúcares no son su “comida
favorita”.

El primer hallazgo que arrojó el trabajo fue la identificación de unos reguladores moleculares, llamados
CbrA/CbrB, los cuales dan a la bacteria la capacidad de detectar las fuentes de carbono presentes en el medio
y decidir cuál de ellas consumirá primero (proceso conocido como represión catabólica por carbono). La falta
de estos reguladores en la bacteria impide la producción de un transportador necesario para que la bacteria
pueda internalizar la glucosa.

Otro de los hallazgos importantes fue que en la cepa GG15 (cepa modificada genéticamente), la ausencia del
sistema CbrA/CbrB es el responsable del aumento en la síntesis del polisacárido alginato, lo cual indicó que
este sistema no solo tiene la capacidad de jerarquizar la asimilación del alimento de la bacteria, sino que
además regula las vías metabólicas por las cuales se producen el alginato y el PHB.

“La importancia de la caracterización de este sistema radica en conocer cómo es que la bacteria asimila los
compuestos con los que la alimentamos y cómo es que los dirige para producir alginato y PHB, ya que gracias
a este conocimiento, podremos optimizar la producción de estos dos polímeros, no solo en un rendimiento
mayor sino también en una composición definida”.

La ruta que siguió la generación de conocimiento

El primer paso fue identificar la modificación génica que poseía la cepa GG15, a través de un proceso de
secuenciación —técnica en la cual se determina el orden de los nucleótidos que existen en el ADN extraído de
la bacteria en cuestión para identificar mediante su comparación con bases de datos existentes los cambios
que puede haber— durante el cual la investigadora observó la interrupción del gen CbrA.

Elva Yadira Quiroz Rocha.

Posteriormente, a través de la literatura científica y mediante experimentos de RT-PCR, la doctora Quiroz
Rocha comprobó que este gen forma parte de un sistema (CbrA/CbrB), el cual ya se había reportado que en
otras bacterias influye en la asimilación de fuentes de carbono; sin embargo, hasta el momento no existía
ninguna fuente que lo relacionara con la regulación de la síntesis de biopolímeros como el alginato y el PHB.
"Una vez que identificamos los genes candidatos, recurrimos a técnicas de biología molecular para medir o
cuantificar la expresión de los genes relacionados con el sistema CbrA/CbrB. Fue de esta manera que
encontramos un gen que codifica un transportador de glucosa (GluP) poco común en bacterias. Gracias a
ensayos de expresión heteróloga y qRT-PCR comprobamos que este transportador de glucosa es funcional y
que su expresión depende del sistema CbrA/CbrB. Lo que hicimos fue colocar el gen GluP de A. vinelandii
dentro de otra bacteria (Eschericha coli) que era incapaz de consumir glucosa y gracias a ello observamos que
esta recuperaba su capacidad de consumir glucosa y su crecimiento".

Debido a ese trabajo, la investigadora documentó también que el sistema CbrA/CbrB es un regulador
multifuncional pues, además de elegir el alimento, también dirige los flujos de carbono dependiendo de las
necesidades de la bacteria. Gracias a este sistema, la célula de Azotobacter es capaz de decidir si va a crecer,
a producir alginato o acumular otros polímeros como el plástico biodegradable poli-β-hidroxibutirato”.

Reconocimiento al Mérito Estatal de Investigación (Remei)

Este proyecto de investigación, cuyos recursos derivaron en primera instancia de una beca del Consejo
Nacional de Ciencia y Tecnología (Conacyt) que obtuvo la doctora Quiroz Rocha para sus estudios de maestría
y doctorado, así como del financiamiento que la UNAM y el propio Conacyt brindan al laboratorio de la doctora
Cinthia Núñez, le valió a la investigadora el Reconocimiento al Mérito Estatal a la Investigación (Remei) que
otorga el estado de Morelos.

El kilo y el mol estrenan definición
Los científicos votan redefinir todas las unidades del sistema
internacional utilizando constantes físicas
by Laura Howes

Credit: Crédito: Physikalisch-Technische Bundesanstalt
Este interferómetro esférico midió el diámetro de las esferas de silicio con precisión de unos pocos
nanómetros, permitiendo ajustar el valor de la constante de Avogadro.

No ocurre muy a menudo: tras la votación que tuvo lugar en París el 16 de noviembre, toca cambiar
los libros de texto.

Credit: PTB/BIPM

El kilo patrón (IPK), el cilindro que todavía define el kilogramo está en París, esperando su pronta jubilación.

Metrólogos de todo el mundo se reunieron en la Cámara del Congreso del Palacio de Versalles, para
redefinir cuatro unidades fundamentales del Sistema Internacional (SI): el amperio, el kelvin, el
kilogramo y el mol. Estas unidades, como el metro, la candela, y el segundo, dejarán de tener un
patrón tangible y pasarán a definirse en relación a constantes físicas fundamentales. Los científicos
dicen que, tras estos cambios, las medidas serán más precisas y estables. La moción se aprobó por
unanimidad, y los participantes—provenientes de más de 60 países—celebraron la votación
clamorosamente.

Las unidades adoptarán su nueva definición el 20 de mayo de 2019, el Día Mundial de la Metrología.
Estas nuevas definiciones son resultado de años de trabajo, discusión, y una enorme competición
para medir las constantes físicas universales con un grado de precisión increíble. Aunque la mayoría
de la gente, en la práctica, no notará este cambio, el aumento en la precisión de las medidas hará
que el SI sea más robusto, dice Frank Härtig del PTB, el Instituto Nacional de Metrología alemán.
“Las posibilidades son completamente nuevas,” explica, añadiendo que conforme las tecnologías de
análisis han avanzado, han permitido detectar cantidades cada vez más pequeñas de material. Las
nuevas definiciones garantizan que esas medidas serán exactas.

Desde 1889, la unidad de masa del SI, el kilogramo, estaba definida por comparación con la masa
del kilo patrón internacional (IPK, por sus siglas en inglés). El IPK es un cilindro de platino e iridio que
se guarda en la Oficina Internacional de Pesas y Medidas cerca de París. Durante la reunión en
Versalles, Bill Philips del Instituto Nacional de Estándares y Tecnología estadounidense (NIST, por sus
siglas en inglés) describió esta situación como “escandalosa.”

Cuando se creó el IPK durante la década de 1880, se crearon otros cilindros idénticos y se
distribuyeron entre varios países. Con el paso de los años, el IPK había perdido masa en comparación
a sus gemelos viajeros.

Esta incertidumbre sobre el patrón de masa también afectaba al mol. Esta unidad del sistema
internacional tan usada por los químicos para medir la cantidad de átomos y moléculas, estaba
definida desde 1971 en relación al kilo: “la cantidad de sustancia de un sistema que tiene tantas
entidades elementales como 0.012 kg de carbono 12.”

A partir de mayo de 2019, el kilo estará definido en relación a la constante de Planck, y el mol pasará
a ser la cantidad de entidades equivalente al número de Avogadro. De manera similar, el amperio se
redifinirá con respecto a la carga eléctrica del protón, también llamada la “carga eléctrica elemental,”
y el kelvin estará definido en relación a la constante de Boltzmann. Para hacer posible este cambio,
estas constantes tienen que haberse medido con gran precisión y con un muy bajo grado de
incertidumbre. Este trabajo ha llevado más de diez años, y ha implicado la superación de varios retos
tecnológicos. Tal y como lo describe Härtig, la investigación ha incitado “la competitividad entre
amigos” —muchos institutos de metrología han luchado por obtener los valores más precisos de
todas estas constantes.

ADVERTISEMENT

Dos métodos competían para definir la constante de Planck. La balanza de Kibble, el método
ganador, enfrenta la masa de un patrón contra la fuerza producida por una corriente eléctrica que
pasa por una bobina de cable suspendida en un campo magnético. Dos balanzas distintas, una en el
NIST y otra en el Consejo Nacional de Investigación canadiense, hicieron las medidas para establecer
el valor de la constante de Planck: 6.62607015 × 10−34 J s.

El método que ‘perdió’ la carrera por la constante de Planck, el método del conteo, hizo posible
redefinir el número de Avogadro. El equipo de Härtig en el PTB creó esferas enriquecidas con silicio
28 increíblemente precisas y midió su volumen con interferometría. Robert Vocke y Savelas Raab, en
el NIST, trabajaron para determinar las proporciones exactas entre los isótopos de silicio en el cristal
con espectrometría de masas. Conociendo el volumen de la esfera y sabiendo la estructura de la red
cristalina, los científicos determinaron el valor de la constante de Avogadro como 6.02214076 ×
1023 mol−1.

En clase, los nuevos libros de texto podrían explicar de forma más sencilla el concepto de mol.
Aunque pedagógicamente hablando, dice Marcy Towns de la Universidad Purdue, la nueva definición
no es un gran cambio. “Si lees los libros de texto,” explica, “los estudiantes entienden la definición
del mol como 6.022 x 1023 partículas, y los profesores usan mucho esa definición,” en vez de la
relación con el kilo. Towns sabe de lo que habla, ya que participó en una amplia revisión del tema
como parte del Comité de Terminología, Nomenclatura y Símbolos de la IUPAC—la Unión
Internacional de Química Pura y Aplicada.

Varias fuentes que hablaron con C&EN recalcan como un momento culminante de sus carreras estos
cambios en las definiciones de las unidades del SI. Es una oportunidad única de formar parte de un
cambio de paradigma. Muchos resaltan la importancia del cambio en un sentido filosófico—estas
definiciones mantendrán su significado aunque desaparezca nuestro planeta. En vez de tener que
enviar el kilo patrón u otros cachivaches para explicar estas unidades, dice Härtig, “otros seres
inteligentes podrán entender lo mismo que nosotros entendemos por ‘kilogramo’.”

Traducido al español por Fernando Gomollón para C&EN. La version original (en inglés) de este
artículo está disponible aquí.

Científicos del MIT descubren cómo encoger objetos usando un láser

20 diciembre, 2018 7:04 am873

En 1948, Marvin el marciano, un personaje animado de los “Looney Tun, las famosas caricaturas de
Warner Bros, sorprendía al mundo con su arma para reducir el tamaño de sus aparentes enemigos o
para desaparecerlos de la faz de la tierra.

Han pasado cerca de 60 años y tal hazaña parece ser posible, así lo demuestra un grupo de
investigadores del Instituto de Tecnología de Massachusetts (MIT), en Estados Unidos, que
“descubrió” cómo encoger objetos usando un láser.

Aunque la aparición del personaje extraterreste, tan corta como sus deseos por conquistar planetas
(incluyendo la Tierra), aparentaban ser muy de ciencia ficción para la época, al igual que un sin fin
de películas del género, ahora los expertos asomaron la posibilidad real de reducir los objetos a
nanoescala a partir de la “amplificación de luz por emisión estimulada de radiación” (Laser, por su
sigla en inglés).

A partir de este avance de la comunidad científica, pude tomarse cualquier estructura simple y
reducirla 1.000 veces de su tamaño original. En ese sentido apunta el profesor de neurotecnología
Edward Boyden, investigador principal del MIT, que aspira a alcanzar lo que por años era cosa de
ciencia ficción: “inventar mejores equipos para fabricar nanomateriales más pequeños”.

“Hay todo tipo de cosas que puedes hacer con esto” de la llamada “fabricación de implosión”.

Súper contracción
El invento pareciera salido de la cultura hollywoodense, y podría serlo, si se echa una mirada a las
producciones de Antman, Querida encogí a los niños, Tron, Escuela de Genios, GoldFinger, American
Ninja, Congo, Laserblast (El rayo destructor del planeta desconocido), Get Smart (Superagente 86),
Resident Evil, Star Wars, Robot Jox, todas con la presencia y el uso del láser, fuente de inspiración en
el cine y una prueba de lo fascinante que puede llegar a ser la ciencia.

Este avance supone para los investigadores un portal para el “desarrollo de microscopios más
pequeños y lentes de teléfonos celulares y hasta la creación de pequeños robots que mejoren la vida
cotidiana”.

También, los científicos exploran aplicar estos conocimientos en el ámbito de la salud, al buscar
formas de agregar pequeñas partículas robóticas a los medicamentos contra el cáncer que puedan
buscar solo las células cancerosas.

Procedimiento sencillo

Lo sorprendente de esto es que para alcanzar este objetivo —de reducir el tamaño de las cosas— los
científicos emplean un rayo láser y un gel absorbente (comúnmente utilizado en pañales para bebés),
según recoge la BBC.

El procedimiento es, de acuerdo con el medio, similar a escribir con un bolígrafo en 3D. Luego,
pueden unir cualquier material (metal, ADN o pequeñas partículas de “puntos cuánticos”) a la
estructura. Finalmente, encogen la estructura a un tamaño minúsculo.

El proceso incluye la inyección de un material dentro del gel para después agrandarlo y hacerlo más
fácil de ver.

“Se parece un poco a la película de una fotografía (…) Una imagen latente se forma mediante la
exposición de un material sensible en el gel a la luz. Después, puedes llevar esa imagen latente al
mundo real al sumar otro material, plata”, detalló para CNN el investigador Daniel Oran.

Previamente, láseres similares habían sido capaces de hacer solo objetos bidimensionales, mientras
que otras formas de encoger estructuras tridimensionales eran más lentas y más difíciles de recrear
en la mayoría de los laboratorios.
Fuente: elciuddano.cl
¿Cómo reducir los tiempos de
producción en la industria?
Por Felipe Sánchez Banda

Saltillo, Coahuila. 16 de noviembre de 2018 (Agencia Informativa Conacyt).- En el sector
industrial suena complicada la posibilidad de reducir los tiempos de fabricación de piezas hasta en 50 por
ciento. ¿Qué pasaría si las piezas que representan 33 por ciento de las ganancias de una empresa se
fabricaran en la mitad del tiempo acostumbrado, y un proceso que requiere tres semanas disminuyera a
solo poco más de ocho días?

Esto ocurrió en una mediana empresa metal-mecánica del sureste de Coahuila, en donde gracias a la
aplicación de la ciencia directamente en los procesos de producción y calidad, lograron importantes ahorros
de tiempo y, en consecuencia, de gastos, durante la fabricación de los pernos de seguridad para cargadoras.

En entrevista para la Agencia Informativa Conacyt, la ingeniera Angelina Sifuentes Barba, estudiante de
maestría en ingeniería industrial del Instituto Tecnológico de Saltillo (ITS) —perteneciente al Tecnológico
Nacional de México (Tecnm)—, detalla la problemática inicial en una empresa saltillense, la aplicación de la
ciencia e ingeniería directamente en la producción y los resultados obtenidos después de un importante
trabajo de análisis, experimentación y ejecución industrial.

Agencia Informativa Conacyt (AIC): ¿Por qué es importante reducir tiempos en la ingeniería?

Angelina Sifuentes Barba (ASB): Las ganancias o la productividad se basan radicalmente en hacer más
piezas en menos tiempo, me refiero a que entre más piezas realicemos, la empresa está ganando más,
porque está obteniendo mayor producción y si obtiene mayor producción, obtiene mayores ventas.

AIC: ¿A partir de qué problemática surge la idea de desarrollar este proyecto?

ASB: Todo partió con el pronóstico por parte de un cliente, empezó a proyectarse altos releases en una
pieza que representa 33 por ciento de nuestras ganancias. El detalle era que no podíamos sufragar esas
cantidades de piezas con los tiempos que en ese periodo teníamos. Prácticamente necesitábamos realizar
tres mil piezas cada tres semanas, y el tiempo de procesamiento involucraba alrededor de 18 días y medio,
casi las tres semanas. Ese fue el meollo del proyecto, cómo hacerle para obtener tres mil piezas, mínimo,
cada tres semanas.
AIC: ¿Cómo inició el proyecto para resolver este problema?

ASB: Inicialmente identificamos cuántos procesos y operaciones se requerían para poder procesar las
piezas, de ahí continuamos con cuántas máquinas contábamos para fabricar las piezas. Posteriormente,
cuántos operadores se necesitaban para poder operar las máquinas y, sobre todo, se identificó una cantidad
excesiva de inventarios que eran necesarios para poder pasar de una operación a otra, porque la
distribución de la maquinaria no era la adecuada, inclusive el recorrido de material de una máquina a otra
era de hasta 30 metros de distancia y, para ello, necesitábamos realizar un batch (lote) mínimo de 250
piezas para mantener mayor control durante el proceso, empleando un sistema tipo Push (sistema de flujo
del tipo empujar) para continuar con el procesamiento.

En fin, teníamos alrededor de 11 inventarios para poder realizar cinco operaciones y con ello manufacturar
las tres mil piezas.

AIC: ¿Cómo resolvieron estos detalles que identificaron para la fabricación de las piezas?

ASB: Optamos por dos caminos, el primero fue realizar una simulación de eventos discretos
utilizando un software que se alimenta de los tiempos de procesamiento sensibilizados, me refiero, por
ejemplo, en cuánto tiempo tarda el operador en cargar la pieza a la máquina, cuánto tiempo requiere la
máquina en procesarla y cuánto tiempo requiere el operador para descargar la pieza para cada una de las
operaciones.

Para establecer los tiempos se utilizó estadística descriptiva, con la cual se obtuvieron muchísimos tipos de
probabilidades, manejábamos desde normales, exponenciales, Weibull, etcétera. En ese entonces,
poseíamos un proceso no muy estandarizado, simplemente por el hecho de implicar muchas probabilidades,
pero aun así alimentamos el software con esta información.

Ya teniendo la primera respuesta de la simulación, el otro camino de solución fue la optimización,
prácticamente se requiere de la identificación de las tareas (operaciones), las máquinas asignadas para
realizar cada operación y establecer la cantidad de trabajos (batches para completar una orden de trabajo)
para el procesamiento de las tres mil piezas, estas características nos permiten encontrar una buena
secuenciación de operaciones y asignación de recursos.

Con base en esto, se pudo hacer una matriz de tiempos de procesamiento, en donde se muestra la facilidad
de realizar una operación por medio de una o varias máquinas (no precisamente en una). A partir de la
asignación de máquinas, se puede obtener un flujo de trabajo y con ello una secuenciación adecuada de
operaciones.

Pudimos observar que los resultados obtenidos en la optimización (se utilizaron los software de Xpress-IVE
y DOcplexcloud de IBM) coincidían con los resultados logrados en la simulación, es importante mencionar
los datos sensibilizados por parte de la simulación, debido a que puede apreciarse la fatiga del operador y
la falta de repetibilidad de los tiempos de ciclos en las máquinas; en cambio los tiempos empleados en la
optimización son declarados como constantes, también se definieron los parámetros, las variables de
decisión, las restricciones y la función objetivo, esta última se declara el makespan, es decir, el tiempo
máximo de realización para la terminación de todos los trabajos dentro del periodo de tiempo.

Teniendo una función objetivo en común, tanto en la simulación y la optimización, comenzamos a calcular
los tiempos de terminación para el procesamiento de las tres mil piezas y, con base en ello, comenzar a
minimizarlos, realmente fue muy difícil ingeniarnos cómo reducir los 18 días y medio, fue todo un reto.

AIC: ¿Cuáles fueron los primeros resultados obtenidos y cuál fue la evolución de estos resultados?

ASB: Primero comenzamos con simular el proceso actual de ese momento, se establecieron diversos
escenarios en 2016, los cuales radicaban en revisar cómo estaban los tiempos, cómo operaban las personas
las máquinas, puesto que el proceso no estaba estandarizado. Con base en ello, también el equipo de
ingeniería participó en la estandarización y realización de métodos de trabajo, en donde al menos
minimizamos las variaciones de tiempo. Eso apoyó muchísimo el proceso de optimización y simulación para
los escenarios de 2017 y 2018, respectivamente.

En 2016, logramos identificar que había una operación ‘cuello de botella’ que nos sorprendió mucho. Todos
piensan que la operación cuello de botella es aquel proceso que regularmente se tarda más de lo común o
aquella que tiene demasiados trabajos, y en esta ocasión no fue así, nuestro cuello era una operación rápida
que requería de apoyo para poder nivelar el flujo de las operaciones. La interpretación de los resultados de
ambos solvers ¡coincidió!, y esto nos dio la pauta para pensar en el rediseño del layout (diseño, plan o
distribución de los equipos) de la planta y no solamente resignarnos con el problema.
Logramos reducir el tiempo hasta 50 por ciento gracias a la participación del equipo multidisciplinario de
ingeniería, mantenimiento y producción, se hizo una propuesta de un nuevo layout en donde se consideró
un proceso sin tanta generación de inventarios o batches (lotes) de 250 piezas, intentando prescindir de
ellos.

Actualmente la pieza se traslada de manera manual, ya no tenemos que utilizar tantos carros (inventarios),
implícitamente un inventario es un desperdicio considerable y con ello el tiempo de fabricación disminuiría
el tiempo de entrega de las piezas. Y de los once inventarios iniciales se redujo a únicamente cinco. En
2016, surgió la problemática, en 2017 se da la propuesta y en 2018 es aterrizada en piso.

AIC: ¿Qué resultados finales obtuvieron?

ASB: El tiempo máximo de realización, el makespan, se pudo reducir de 134 horas a solamente 5.9 horas,
y para poder fabricar las tres mil piezas con un tiempo inicial de 18 días y medio, se redujo a 9.8 días, casi
50 por ciento de reducción en el tiempo de fabricación. Por lo tanto, pudimos disminuir 47 por ciento del
tiempo de entrega. También un rediseño del layout implica una reducción del área asignada. Se utilizaban
216 m2 y se redujo a 104 m2, esto representa una disminución de 51.85 por ciento, al reducir el espacio
los recorridos son menores y se mejoran los tiempos; en consecuencia, la productividad incrementó en 69.8
por ciento y con ello se logró un beneficio adicional de 0.8 por ciento a las ventas declaradas en la empresa.

AIC: ¿Cuál fue la importancia del trabajo interdisciplinario en este proyecto?

ASB: Algo que es muy común en las empresas es que los ingenieros regularmente optamos buscar mejores
precios de la materia prima o generar cambios ornamentales con mejoras como realización de mayor
producción con menos herramientas o implementar dispositivos que ayuden a disminuir los tiempos de
ciclos, entre otras.

Para la reducción de costos productivos no pensamos en utilizar metodologías tales como la optimización y
la simulación de eventos discretos como estrategias, entonces a mí me llamó considerablemente la atención
cómo se puede hacer un switch con las ciencias de las matemáticas e ingeniería, no únicamente tener un
pensamiento de manufactura esbelta con mejoras superficiales o fáciles de implementar.

Con estas metodologías se pueden utilizar los mismos recursos que ya tenemos, sin tener que invertir en
una máquina nueva que pueda realizar más piezas o tener que contratar más gente, generar altos tiempos
extra, entre otros. Considerar la programación como la asignación de recursos para establecer una
secuencia de tareas durante un tiempo determinado es la solución ideal para los problemas de planeación.

AIC: ¿Cuál es el futuro del proyecto?

ASB: Nos gustaría trabajar con optimización con superposición, hay máquinas que pueden hacer varias
operaciones al mismo tiempo y una buena combinación de tareas con superposición para la realización
de batches. En cualquier proceso de producción se puede adecuar, hay tanta literatura al respecto que
simplemente radica en identificar cómo se parametriza, cómo se caracteriza y formula el problema, y
arrancar para la obtención de buenos resultados.

Del 24 al 27 de septiembre en Lima, Perú, representando al ITS, fui invitada como ponente en el Congreso
Latinoamericano de Investigación de Operaciones (Claio), expusimos la parte de optimización, que fue muy
importante para llegar a los resultados y rediseño del layout, hablé de un modelo matemático de la literatura
aplicado en un caso de éxito en una empresa metal-mecánica de México.

El futuro de la biotecnología empresarial en México

Lunes 10 de diciembre de 2018

PrevNext

En México hay enormes oportunidades para que, basándose en ciencia y tecnología, se potencie el
crecimiento económico y su productividad laboral.

En México, de acuerdo con un estudio reciente (agosto de 2017) publicado por ProMéxico [1] existen
unas 550 empresas que se dedican a la biotecnología. Para poner este número en contexto, de
acuerdo con el mismo estudio, los países con mayor número de compañías biotecnológicas son:
Estados Unidos (11,554), España (2,742), Francia (1,950), Corea del Sur (940) y Alemania (726).

En el universo de firmas mexicanas se incluyen tanto empresas grandes de biotecnología “tradicional”
(producción de bebidas alcohólicas, derivados lácteos, etcétera), como las que además de usar algún
proceso biotecnológico, son desarrolladoras de algún nuevo proceso o producto. Éstas se encuentran
ubicadas principalmente en ocho estados de la República: Ciudad de México (168), Jalisco (67),
Estado de México (48), Nuevo León (36), Guanajuato (28), Puebla (24), Morelos (23) y Coahuila
(20), que en conjunto suman el 75 por ciento del total.

En términos de las áreas de la biotecnología, el mismo estudio [1] ha identificado que el 47% de las
firmas se encuentran en el sector agroalimentario, 33% en áreas relacionadas con la salud y cerca
del 20% en el área industrial y de medio ambiente. Es importante precisar que este conjunto de
empresas no está organizado como agrupación y, a mi juicio, sería conveniente que se instaurara
para promover programas de fomento especializados para sus necesidades e incentivar el
surgimiento de empresas.

Por otra parte, los datos indican que la mayor parte de las compañías biotecnológicas en México son
micro o pequeñas, pero es interesante que cerca de 59% de las 550 empresas declaró que hacen
investigación y desarrollo [1]. Esto es muy relevante, ya que como lo ha postulado el Premio Nobel
de Economía Robert Solow [2], se ha demostrado que el avance del conocimiento es responsable de
hasta el 64% de la productividad real por persona empleada y que la tecnología es el principal motor
del crecimiento económico. Por ello, teniendo acceso al mismo conjunto de innovaciones
tecnológicas, aquellos países o regiones que invierten más rápido en integrar ese conocimiento
científico/tecnológico en sus empresas, son los que más se benefician del conocimiento disponible.

Solow también ha concluido que el progreso técnico y la alta inversión pueden ser el resultado de un
tercer factor: la presencia de condiciones que promueven el emprendimiento.

ÁREAS DE OPORTUNIDAD

En México hay enormes oportunidades para que, basándose en ciencia y tecnología, se potencie el
crecimiento económico y su productividad laboral. Los cambios de 2015 a la Ley de Ciencia y
Tecnología y a la Ley Federal de Responsabilidades Administrativas de los Servidores Públicos,
permiten la participación de investigadores en empresas que puedan comercializar sus desarrollos
[ver sitio del grupo de trabajo del Consejo Consultivo de Ciencias sobre Empresas de Base
Tecnológica, referencia 3], lo que puede conducir a una nueva generación de científicos-empresarios
que tienen el potencial de generar empleos bien remunerados.

Las empresas de base tecnológica representan una oportunidad única para dar trabajo a los
egresados de los programas de posgrado nacionales, que actualmente enfrentan graves dificultades
para encontrar empleos bien remunerados y con las condiciones adecuadas para desarrollar una
carrera profesional en el ámbito en el que fueron entrenados.

Así, el conocimiento de frontera es la fuente fundamental de la innovación, pero no sólo debe
orientarse al fortalecimiento de las capacidades científicas nacionales, sino también a la adopción de
dichas innovaciones por la industria nacional, para que genere un mayor bienestar económico y social
del país.

La nueva empresa innovadora de base tecnológica, si se fomenta, estaría cerrando círculos virtuosos
mediante la explotación de tecnologías desarrolladas en instituciones públicas por empresas privadas
(que generarán empleos y riqueza), que a su vez retribuyan económicamente a las instituciones
públicas mediante regalías. Este esquema ha probado su eficacia en varios países que ahora son
desarrollados (por ejemplo, Israel), en donde los pagos por regalías a las universidades pueden llegar
a ser porcentajes considerables de los recursos totales de la institución, y no como en México, donde
tales recursos son muy poco significativos.

En conclusión, y en mi opinión, el futuro de la biotecnología empresarial en México es prometedor,
sobre todo si la siguiente administración gubernamental, por un lado, apoya decididamente la
creación de empresas de base tecnológica (que los recién egresados de los cerca de 100 posgrados
en biotecnología que tiene el país, tienen el potencial de generar), así como las que podrían surgir
como iniciativa de los cerca de 3,200 investigadores registrados en el área VI (Biotecnología y
Ciencias Agropecuarias) del Sistema Nacional de Investigadores y, por otro lado, si el gobierno define
a la biotecnología como área de prioridad.

Si bien la política y los apoyos gubernamentales son importantes, lo que más se requiere en México
es que haya innovadores que se arriesguen a crear empresas, para llevar a buen término -el
mercado-, el proceso de innovación. Afortunadamente, en nuestro país hay esfuerzos, aunque
todavía escasos, en ese sentido (ver referencia 3).

Referencias:

[1] Panorama de la Industria Biotecnológica en México, Unidad de Inteligencia de Negocios,
ProMéxico, agosto de 2017. Disponible en: https://bit.ly/2wTSiif

[2] Solow, R. Growth Theory and After, Nobel Prize Lecture, 1987. Disponible en:

https://www.nobelprize.org/prizes/economics/1987/solow/lecture/

[3] Empresas de Base Tecnológica provenientes de Investigación Científica, Consejo Consultivo de
Ciencias de la Presidencia de la República, junio de 2017. Disponible en:

http://www.ccciencias.mx/es/ebt].

* El Dr. Galindo ha sido reconocido con la distinción Universidad Nacional para Jóvenes Académicos
en 1989; el premio de la Academia de la Investigación Científica en 1994; el Premio Sven Brohult en
2004, máxima distinción que otorga la International Foundation for Science; y el Premio AgroBIO a la
Trayectoria de Investigación en Biotecnología Agrícola en 2010. En 2011 fue nombrado Miembro de
Honor por la Sociedad Mexicana de Biotecnología y Bioingeniería, A.C. y se le concedió el Premio
Universidad Nacional por parte de la UNAM, en el área de Innovación Tecnológica. En 2013, el
gobierno de Morelos le otorgó el reconocimiento al Mérito Estatal de Investigación.

La necesidad de congruencia entre la ciencia y la ética: La edición genética
Area:
Biología
Autores AcMor:
Sánchez Flores, Fidel Alejandro
Descargar este Artículo en PDF:
La necesidad de congruencia entre la ciencia y la ética: La edición genética

La Unión de Morelos, lunes 3 de diciembre de 2018
Págs. 30 y 31

La necesidad de congruencia entre la ciencia y la ética: La edición genética

F. Alejandro Sánchez Flores
Instituto de Biotecnología, UNAM
Miembro de la Academia de Ciencias de Morelos

Recientemente ha circulado por el mundo, la noticia del supuesto nacimiento de dos niñas gemelas en China, lo
cual a primera instancia no debería ser algo alarmante sobre todo en el país con mayor población en nuestro
planeta. Sin embargo, lo que ha causado la alarma de toda la comunidad científica y médica es que estas gemelas
serían los primeros humanos genéticamente modificados.
Es de gran importancia considerar que aun no se tiene la certeza de que esto sea cierto, debido a que: 1) No
existen aún publicaciones científicas al respecto que validen el experimento; 2) no hay reportes de ningún hospital
en China del nacimiento o existencia de dichas niñas; 3) no se sabe nada de los padres de Lulu y Nana (así se les
conoce a las niñas para proteger su privacidad); 4) la universidad a la que pertenecen los investigadores que se
adjudican este logro, no saben nada con respecto a este trabajo. Finalmente, hay que recordar que la edición
genética en humanos no es legal en muchos países, incluyendo China. Por lo tanto, estaríamos hablando de una
violación grave que las autoridades chinas ya están investigando pero dado que aún existen muchos vacíos legales,
es posible que no tenga un castigo ejemplar.

Para poder entender de las implicaciones que esto tiene a diferentes niveles, comenzaremos describiendo el
proceso y herramientas con las cuales se puede editar la información genética de un organismo, después
hablaremos de los experimentos y avances en el campo de la medicina humana y finalmente, la importancia de la
parte ética que implica el crear un individuo con modificaciones genéticas que le confieren una ventaja sobre el
resto de la especie humana. Entender esto será crucial en un futuro no lejano, ya que de una u otra manera es algo
que nos afecta a todos y lo mejor es estar bien informado.
La tecnología CRISPR/Cas9 para edición genética

En esta columna se ha abordado varias veces las características de la molécula de ADN y su relación con la
información genética en cualquier organismo. Recientemente se describió como los cambios en la secuencia de
dicha molécula pueden resultar en enfermedades o defectos genéticos que una vez que son heredados, no son
posibles de curar del todo (http://www.acmor.org.mx/?q=content/cuando-la-ciencia-alcanza-la-
ficci%C3%B3n-historias-del-adn). Esto es debido a que dichos errores ya se encuentran codificados en la
información genética de cada una de nuestras células y no era posible (hasta hace poco) “reescribir” o “editar” la
información contenida en el manual de instrucciones que definen nuestro funcionamiento.

La edición de genomas en la medicina humana

Son recientes los primeros resultados de la edición de genomas humanos. En los últimos 4 años, se han reportado
resultados interesantes empleando la tecnología CRISPR/Cas9, en los cuales se ha logrado modificar con éxito la
información genética de embriones humanos (Figura 2). Dichas ediciones han probado que es posible corregir
diferentes defectos genéticos que están relacionados con enfermedades como diferentes tipos de anemia,
fibrosis quística y enfermedades del corazón. Incluso se ha planteado el uso de la edición genética para curar
enfermedades como el cáncer y que sería un tratamiento del tipo de inmunoterapia, y que podría tener un mayor
éxito en comparación con otras terapias, como ya se mencionó anteriormente en esta columna
(http://www.acmor.org.mx/?q=content/el-c%C3%A1ncer-un-viejo-enemigo-que-apenas-
comenzamos-comprender).

En el 2015, fue publicado uno de los primeros trabajos de edición genética en embriones humanos donde
un grupo de investigadores de la Universidad Sun Yat-sen en Guangzhouen, China, realizaron modificaciones sobre
el gen CCR5 (por sus siglas en ingles de C–C chemokine receptor type 5), el cual tiene como producto una
proteína que funciona como receptor en las células y que es utilizada como entrada para el virus de VIH-
1 (Virus de la Inmunodeficiencia Humana) e infectar las células humanas. Estos investigadores usaron la tecnología
CRISPR/Cas9 para introducir una versión de dicho gen que puede ser encontrada en algunos individuos de
poblaciones Escandinavas y de Europa del norte. Se ha observado que esta variante del receptor CCR5 confiere
a los individuos portadores de una o dos copias de este gen, la capacidad de resistir a las infecciones de
VIH o aquellos infectados con el virus, tener una progresión mas lenta del Síndrome de Inmunodeficiencia
Adquirida (SIDA).

Sin embargo, a pesar de que los resultados son prometedores, investigadores en varios de estos trabajos, han
observado que la herramienta CRISPR/Cas9 no es tan perfecta como se pensaba. Esta tecnología puede introducir
errores aleatorios (off-target) en otras partes del genoma, además de que una vez que el embrión modificado
continua con la división celular, no todas las células poseen la modificación genética lo que se conoce
como mosaicismo. Además, debido a dichos errores los embriones no son viables en la mayoría de los intentos.
Por lo tanto, no llegarían a término en el caso de que fueran implantados, pero precisamente es aquí donde
comienza el dilema ético. Tomar la decisión de implantar un embrión cuya información genética ha sido editada,
para intentar crear a un humano genéticamente modificado, abriría una caja de Pandora.

Los cuestionamientos científicos y éticos de la edición genética en humanos

Si bien nos encontramos ante otro ejemplo de como la ciencia a alcanzado una vez mas a la ficción, el tener la
capacidad de editar la información genética de cualquier organismo ya es una realidad y puede ser uno de los mas
grandes avances de la historia de la humanidad. Sin embargo, esto conlleva una gran responsabilidad e
implicaciones que aun siguen en debate debido a que toda esta tecnología es aún muy prematura. No es de
sorprenderse que esto haya ocurrido en China, donde desde hace varios años existen investigadores trabajando
arduamente en la edición de genomas en embriones humanos.

De manera muy resumida y para no avivar más la flama mediática de algo que aún no sabemos si sea verdad, las
únicas evidencias del trabajo del grupo de científicos de la Southern University of Science and
Technology en Shenzhen, China, son las declaraciones del líder de la investigación He Jiankui, donde su
trabajo ha sido el resultado colateral de su propia ambición y de un vago sistema legal y regulatorio en materia de
edición genética. Como ya se mencionó, no existe aún la evidencia del nacimiento o existencia de dichas gemelas,
pero existe la posibilidad de que esto sea verdad ya que existe el registro de solicitud de permiso para esta prueba
clínica. Esta solicitud de permiso fue retirada ya que los solicitantes no dieron ningún dato de los participantes de la
prueba (los padres de las gemelas), con lo cual se evaluará la seguridad y validez de la prueba.

En el caso de He Jiankui haya llevado este experimento a término, es algo completamente irresponsable. El
resultado sería la existencia de dos humanos cuyo genoma está editado con la variante del gen CCR5 que confiere
resistencia a VIH. Las razones detrás de este experimento fue ayudar a una pareja mediante un proceso de
fertilización in vitro, ya no pueden procrear por diferentes razones, pero además el padre es portador del virus de
VIH. Por lo tanto, en el proceso de fertilización in vitro, la carga viral en el semen del padre aumenta la probabilidad
de infectar a la madre. Pero la idea de editar la información genética de los embriones para tener bebes que sean
inmunes al virus y realizar este proceso de fertilización in vitro, resulta desde varios puntos de vista, poco ético y
riesgoso.

En el caso de que estas niñas existan, es muy probable que cuenten con errores genéticos que podrían
desencadenar otras enfermedades en ellas. Además, es muy probable que no todas sus células tuvieran la edición
genética, con lo cual el éxito de la edición genética sería muy bajo.

Si bien la fertilización in vitro se ha negado a parejas en estos casos, existen otros tratamientos y alternativas con lo
cual se pueden tener resultados exitosos, aunque con cierto grado de riesgo. Pero el cuestionamiento ético es
inminente, ya que el afectar la vida de un tercero es una razón suficiente para no intentarlo y definitivamente no
justifica la edición genética para crear a un individuo con aparente ventaja, pero con muchos riesgos con
consecuencias aún desconocidas.

Regular es mejor que prohibir

Desde la perspectiva científica, la edición de genomas aún tiene limitantes. Por un lado, tenemos la capacidad de
corregir enfermedades hereditarias con los cual se solucionarían grandes problemas de salud y sobre todo mejorar
la calidad de vida de toda la humanidad. Por otro lado, aún existen muchos riesgos desconocidos donde la
generación de otros defectos o enfermedades genéticas que también serían heredables, hoy en día es inminente.

La ingeniería genética y la edición de genomas en humanos, es aún un trabajo en proceso y que, hasta ahora las
comunidades científicas como la Academia Nacional de Ciencia en Estados Unidos de Norteamérica, han aprobado
el uso de la tecnología CRISPR/Cas9 para la edición de embriones humanos, solo como último recurso para corregir
errores genéticos que pudieran provocar enfermedades hereditarias. Entonces, no solo debemos mejorar o estar
seguros de que la tecnología de edición de genomas funcione, sino también de que la relación entre la enfermedad
y las variantes en el genoma estén fuertemente asociadas y lo más difícil, que no tengan otras asociaciones no
relacionadas con la enfermedad y que al editar, pudieran desencadenar otro problema.

Finalmente, existe un esfuerzo mundial con el cual se ha iniciado una organización no gubernamental (ONG)
llamada Association for Responsible Research and Innovation in Genome Editing(ARRIGE; http://arrige.org/) y
como su nombre en inglés nos sugiere, estaría encargada de promover la investigación responsable e innovar en el
área de edición de genomas. Es lanzamiento de esta organización se llevó a cabo en Paris, Francia en marzo de
este año y aunque no esta consolidada aún, esta activa y trata de informar a todos los involucrados (académicos,
compañías privadas, ciudadanos y gente encargada de tomar decisiones) acerca del desarrollo de las tecnologías
para edición de genomas para llevarla a cabo en un ambiente social de aceptación. Mientras esta tecnología no este
regulada ni este completamente disponible para cualquier persona, puede ser otro detonador de desigualdad social,
lo cual sería una pena para la ciencia y la tecnología.

Esta columna se prepara y edita semana con semana, en conjunto con investigadores morelenses convencidos del
valor del conocimiento científico para el desarrollo social y económico de Morelos. Desde la Academia de Ciencias de
Morelos externamos nuestra preocupación por el vacío que genera la extinción de la Secretaría de Innovación,
Ciencia y Tecnología dentro del ecosistema de innovación estatal que se debilita sin la participación del Gobierno del
Estado.

Lecturas recomendadas

https://sangerinstitute.blog/2018/11/29/human-embryo-editing-science-fiction-or-science-fact/
https://www.cambridgeindependent.co.uk/business/wellcome-sanger-institute-scientists-warn-
crispr-cas-9-gene-editing-could-lead-to-harmful-effects-9051009/
https://ghr.nlm.nih.gov/primer/genomicresearch/genomeediting
https://www.theguardian.com/science/2018/nov/29/work-on-gene-edited-babies-blatant-
violation-of-the-law-says-china
https://www.theguardian.com/science/2018/nov/26/worlds-first-gene-edited-babies-created-in-
china-claims-scientist
https://www.theguardian.com/science/2018/nov/28/scientist-in-china-defends-human-embryo-
gene-editing
https://www.statnews.com/2018/11/28/chinese-scientist-defends-creating-gene-edited-babies/
https://www.technologyreview.com/s/612458/exclusive-chinese-scientists-are-creating-crispr-
babies/
http://www.chictr.org.cn/showprojen.aspx?proj=32758
https://revistageneticamedica.com/crispr/
http://www.dciencia.es/que-es-la-tecnologia-crispr-cas9/
http://www.dciencia.es/novedades-sobre-crispr/
https://omicrono.elespanol.com/2016/11/crispr-en-humanos-primera-vez/
https://tecreview.tec.mx/humanos-editados-la-siguiente-desigualdad-social/
https://elpais.com/elpais/2018/11/26/ciencia/1543253567_659329.html
https://www.muyinteresante.es/ciencia/articulo/editan-por-primera-vez-genes-de-embriones-
humanos-951501229987
https://revistageneticamedica.com/2017/08/02/crispr-embriones-humanos/
https://labiotech.eu/medical/crispr-therapy-cancer-risk/
https://immuno-oncologynews.com/crisprcas9-and-cancer/

Referencias
https://www.nature.com/articles/d41586-018-07545-0?fbclid=IwAR04hcYGCUL_cJU9-
F0ANv_yUDuDO9LKMgYiF7Ydv3z0db4BRhnSZe-te8o
http://www.nature.com.biblioteca.ibt.unam.mx:2048/news/crispr-fixes-disease-gene-in-viable-
human-embryos-1.22382
https://www-nature-com.biblioteca.ibt.unam.mx:8080/news/chinese-scientists-genetically-modify-
human-embryos-1.17378
http://www.nature.com.biblioteca.ibt.unam.mx:2048/news/second-chinese-team-reports-gene-
editing-in-human-embryos-1.19718#/b2
https://www.annualreviews.org/doi/10.1146/annurev-biochem-060815-014607
https://link-springer-com.biblioteca.ibt.unam.mx:8080/article/10.1007%2Fs13238-015-0153-5
https://link-springer-com.biblioteca.ibt.unam.mx:8080/article/10.1007%2Fs10815-016-0710-8