La instrumentalización de las leyes naturales para la acumulación del capital. El caso de la biología molecular.

The Instrumentalization Of Natural Laws for the Capital Accumulation
The Case of Molecular Biology

POR: BRAVO ELIZABETH
Acción Ecológica

Palabras claves:

Derechos de la naturaleza, biología molecular, organismos transgénicos, epigenética, edición génica
Rights of Nature, Molecular Biology, Genetic Modified Organisms, Epigenetics, Gene Editing

Resumen

En este artículo se hace una revisión del camino recorrido por la investigación en ciencias biológicas, en especial de la biología molecular; cuyos descubrimientos más importantes han devenido en la instrumentalización de las leyes naturales. La expresión más importante de este caminar hoy son los cultivos transgénicos con la proyección de generar nuevos productos industriales a partir de nuevas tecnologías como la edición génica y la manipulación de la epigenética.

Abstract

This article reviews the path taken by biological science research, especially molecular biology; whose most important discoveries have become the instrumentalization of natural laws. The most important expression of this walk today is the transgenic crops with the projection of generating new industrial products from new technologies such as gene editing and the manipulation of epigenetics.

Introducción

Cormac Cullinan, autor del libro “Wild Law” sostiene que el “Derecho de la Naturaleza busca re-contextualizar la gobernanza humana sobre los sistemas que conforman el macro-entorno que, a su vez, está regulado por el cosmos del cual formamos parte”. Propone entonces un acercamiento de la legislación a las leyes de naturales (lo que denomina “derecho salvaje”). Su propuesta es que toda violación a las leyes naturales, al derecho salvaje, constituye una vulneración a los derechos de la naturaleza (Cullinan, 2011).

Pero la naturaleza tiene muchas leyes, y cada día se desentrañan nuevos procesos biológicos, bioquímicos, meteorológicos…, que en algunos casos contradicen a otros que se creían verdades bien comprobadas por la ciencia formal. Pero en realidad, entre más se desentrañan esos secretos, menos se conoce realmente cómo funciona la naturaleza, porque esos descubrimientos se sustentan en una ciencia positivista que mira sólo las partes sin entender los grandes procesos naturales.

Otro problema es que cada uno de esos nuevos descubrimientos es instrumentalizado corporativamente para obtener de ellos, productos industriales que aseguren su proceso de acumulación.

A fines del siglo XIX con el surgimiento de la física cuántica, la ley de la relatividad, y otras, la universalidad de leyes naturales fue cuestionada. Analizando este escenario, Warren Weave un funcionario de la Fundación Rockefeller en la década de 1930 propone que los científicos de las ciencias biológicas deben abandonar la idea de investigar y describir las leyes de la naturaleza, y pasar a una investigación más aplicada, con el fin de desarrollar cosas útiles para la industria a partir de sus descubrimientos, como sucedía ya en el campo de la física con la explotación de la energía nuclear, a partir de la física cuántica. Desde la Fundación Rockefeller él creó una línea de financiamiento basada en la transferencia tecnológica de las ciencias físico-químicas a la biología experimental.

Nueve décadas más tarde, los cultivos transgénicos constituyen uno de los ejemplos más claros sobre cómo la investigación científica y el conocimiento de las leyes de la naturaleza son instrumentalizados a favor de la industria.

En este trabajo se hace un repaso del transitar que ha tenido la genética y la biología molecular, partiendo de las leyes de la herencia de Mendel hasta la epigenética, para explicar cómo la ciencia ha sido instrumentalizada a favor del capital, vulnerando los derechos de la naturaleza.

Los primeros pasos

En su reseña sobre cómo nace y se potencia la ingeniería genética Ho (1998) señala a Gregorio Mendel y Charles Darwin como los pioneros, quienes pusieron las bases para desarrollo de la genética moderna y la teoría de la evolución de las especies, respectivamente. La convergencia de ambas teorías, se transformaría más tarde en el dogma bajo el cual se sustentó la biología molecular.

Gregorio Mendel simplificó la complejidad de la herencia, enmarcándola en una situación ideal, eterna y lógica. Su teoría (conocida como “Leyes de Mendel”) sostiene que los organismos tienen características que están determinadas por unidades estables, llamadas genes[1]. Cada una de estas unidades está representada por dos copias (alelos) que pueden ser iguales o diferentes. Cada organismo tiene una gran cantidad de genes, los que pasan sin cambios, de una generación a otra a través de las células reproductivas (gametos).

Cada gameto tiene una sola copia de cada gen. Entonces, la combinación de los genes durante la fertilización en el cigoto ocurre al azar. El cigoto resultante tendrá dos alelos de cada gen, uno de cada progenitor. La separación de alelos y la recombinación entre alelos de diferentes genes durante la reproducción ocurre de generación a generación.

Mendel desarrolla sus postulados, luego de una enorme cantidad de cruces (28 mil) de plantas de la especie Pisum sativum (arvejas), aplicando métodos estadísticos. A pesar de su importante contribución al entendimiento de la genética, ahora se sabe que muy pocos caracteres se heredan siguiendo las leyes de Mendel: son aquellos que están determinados por un sólo par de genes alelos y que se encuentran en cromosomas homólogos distintos. Coincidió que cada gen estudiado por Mendel en las arvejas, venía en solo dos versiones diferentes, o alelos, y uno de estos alelos era claramente dominante, anulando totalmente al alelo recesivo. Sin embargo, hoy se conoce la dominancia incompleta (fenotipo de un organismo heterocigoto puede ser una mezcla entre los fenotipos de sus progenitores homocigotos), y que hay alelos múltiples para un mismo carácter.

Mendel sugirió que existen solamente dos alelos para cada gen.  Pero el concepto de gen como “la unidad estructural de la herencia” ha entrado en crisis. Históricamente, se ha hecho evidente que los genes no son discretos (hay genes superpuestos y anidados), ni continuos (existen intrones dentro de los genes); no tienen necesariamente una ubicación constante (hay transposones), y no son unidades funcionales (hay genes empalmados alternativamente y genes que codifican proteínas multifuncionales, y la acción de los genes depende en gran medida de los contextos celulares y supra-celulares), ni unidades de estructura, pues hay muchos tipos de secuencias que influyen en la transcripción, genes divididos, etc. (El-Hani, 2007).

Aunque Mendel no tenía por qué conocer todos estos nuevos procesos relacionados la herencia, y su contribución fue muy importante para la ciencia, el problema es que la ingeniería genética, especialmente la transgénesis, se basa en la introducción de un gen para obtener un resultado específico, ignorando toda esta complejidad… a eso se deben las fallas y graves impactos de esta tecnología.

La teoría de Darwin sobre el origen de las especies por selección natural, se basa en la idea de que las especies mejor adaptadas porque son seleccionadas por la naturaleza para dejar descendencia fértil. Esta es la base del determinismo genético que diera a luz no sólo a la ingeniería genética sino también a los programas de mejoramiento convencional que tuvieron lugar a lo largo del siglo XX.

Darwin tenía una formación en teología cuando se embarcó en el Beagle y en ese viaje cambió su visión del mundo y se comenzó a gestar su teoría de la selección natural. Su principal fuente de teorización fue el escrito de Malthus “Principio de las poblaciones” publicado en 1798, que mantiene que la alimentación aumenta en forma lineal en tanto que la población humana lo hace en forma geométrica, lo que generaba una lucha por la existencia donde sobrevivía el más apto (Richards, 1981). El ambiente político y económico de la Inglaterra del Siglo XIX influyó también en el pensamiento d Darwin, así como las observaciones que hizo sobre el mejoramiento de animales domésticos, especialmente de palomas mensajeras y llamó a su teoría “el origen de las especies a través de la selección natural”.

En la primera década del Siglo XX varios científicos re-descubren las leyes de Mendel. Uno de ellos fue el botánico Hugo de Vries, quien propone la teoría de la mutación como fuente de cambios genéticos. De este grupo surge la llamada “síntesis mendeliana-mutacionista” que sostiene que la evolución ocurre mediante la incorporación de mutaciones beneficiosas para la vida y la reproducción de un organismo. Ellos veían una contradicción entre el mendelismo y el darwinismo.

En la década de 1920 se propone la “síntesis evolutiva moderna” o “Neo-Darwinismo” o “síntesis neo-darwinista” que constituye el matrimonio entre la genética de Mendel y la teoría de la evolución de Darwin. Ellos sostenían que la genética era el pedazo que le faltó a Darwin para completar su teoría, aunque algunos críticos sostienen que el problema de Darwin no fue que dejó sin resolver el tema de la herencia, sino que lo se resolvió incorrectamente. Por eso fue necesario, “reinterpretar a Darwin para hacer espacio para el mendelismo”, de esa manera, se re-conceptualizó la “selección natural” (Toltzfus, 2014).

Este trabajo de “reingeniería” de Darwin estuvo en manos de Ronald Fisher, un estadístico y teórico evolutivo, quien a través de su “Teorema de la Selección Natural” trata de conjugar las leyes de Mendel con la selección natural de Darwin, basándose en teorías auxiliares para que estas dos encajen. La batalla histórica para establecer los cimientos del neodarwinismo moderno (al menos, entre los genetistas) se ganó alrededor de 1919 cuando los genetistas aceptan «la efectividad de la selección» como el sine qua non de la evolución.

Estos fueron los dos pilares de la biología molecular.

El nacimiento de la biología molecular

Regal (1988) en su historia sobre el debate de la biotecnología en Estados Unidos, señala que la ingeniería genética surgió de la física y de la química, no de la biología, y añade que los científicos de la física que empezaron a re-arreglar las moléculas de la herencia, conocían relativamente poco sobre los organismos vivos, y algunos de ellos empezaron a moverse dentro de las limitaciones de sus propias disciplinas.

García Deister (2011) propone que este fenómeno constituyó una “colonización” de la biología por la física con el fin de conseguir “progreso científico” rápido, siendo la Fundación Rockefeller la principal fuente de financiamiento. Esta fundación promoción la transición de la biología clásica, a la biología molecular ocurrió entre 1930 y 1960.

Los primeros pasos fueron dados Jacques Loeb, quien dejó la Universidad de Chicago para trabajar en el Instituto Rockefeller en 1910, como jefe del departamento de fisiología. A través de sus experimentos de partenogénesis inducida por el ambiente, propuso un modelo de biología reduccionista, dominada por las leyes físico-químicas.

Luego, en los años 30, los físicos Max Mason y Warren Weave desde la Fundación Rockefeller, empezaron a reclutar físicos y químicos para crear una nueva ciencia que se llamaría “biología molecular”. Weave declara que esta nueva disciplina era la “química del gen”. Con un enfoque profundamente reduccionista, su idea era que la biología tenía mucho que aprender de la metodología usada en la investigación de la física y la química.

Muchos centros de investigación se beneficiaron de importantes fondos de la Fundación, pero fue en el Instituto de Tecnología de California Caltech, donde se centraron sus esfuerzos, creándose un grupo de científicos liderados por Thomas Hunt Morgan, fundador de la escuela de genética de la mosca de la fruta (Drosophila). Morgan con su equipo de estudiantes mostró que los caracteres hereditarios que se expresan en el fenotipo están correlacionados con los genes que se encuentran en los cromosomas del núcleo de la mosca, y que esos caracteres se heredan de una generación a otra (Harman y Lamm, 2015).

El departamento de Morgan fue, al principio un importante referente para la investigación y capacitación en “genética clásica”, y luego, con el apoyo de la Fundación Rockefeller en “genética molecular”. Kay (2000) sostiene que la genética molecular es el producto de una colusión entre Caltech y la Fundación Rockefeller emprendida con el propósito de adquirir “control social”.

Otro grupo importante fue el llamado “Programa Virus”, liderado por Robert Morison, dedicado al estudio de la naturaleza bioquímica, genética y estructural de las partículas constitutivas últimas de los virus, e investigaciones epidemiológicas (Serrano Bosquet y Caponi, 2013).

Los siguientes pasos

A mediados del Siglo XX, Francis Crick propone el “dogma central de la biología molecular” que sostiene que todos los procesos biológicos están determinados por los genes, que toda proteína es el resultado de la expresión de un gen. En esa época, la biología molecular y la genética se habían apropiado del lenguaje de la informática. De esa manera, el gen fue entendido como una unidad de información. El llamado “dogma central de la biología molecular” sostiene que la información contenida en el ADN se transcribe en un ARN mensajero y éste se traduce en una proteína[2] (Kay, 2000).

El postulado un gen → una proteína ya había sido propuesto por médico británico Archibald Garrod a inicios del siglo, quien basó sus conclusiones en sus estudios en problemas metabólicos humanos, lo que fue corroborado en la década de 1940 por Beadle y Edward quienes trabajaban con el hongo Neurospora crassa, pero con el estudio del genoma humano se encontró que el ser humano tiene unos 32.000 genes, lo que no concuerda con los 150 mil tipos de ARN mensajeros reconocidos en nuestra especie (que van a codificar proteínas). ¿A qué se debe esta diferencia? Un alto porcentaje de genes tienen la capacidad de codificar múltiples proteínas, lo que pone en entredicho el dogma: un gen → una proteína.

Otros trabajos que condujeron a la expansión de la ingeniería genética y en última instancia al desarrollo de organismos transgénicos incluyen la elucidación de la estructura del DNA, que fue uno de los descubrimientos esenciales para el desarrollo de la biología molecular. La construcción de una maqueta de ADN de doble hélice se basó en los estudios de cristalografía de rayos X hechos por Rosalind Franklin cuyas fotografías sirvieron de base para que su colega Wilkins -físico y estudioso de los rayos X- las presentara al biólogo Watson y al físico y biólogo molecular Crick.  Watson, Crick y Wilkins recibieron el Nobel en 1962. Franklin había muerto de cáncer de ovario en 1958, a los 37 años (Claros, 2003).

La secuenciación del ADN, dio sus primeros pasos en los años cincuenta y sesenta, pero recién en 1977 se publicaron los primeros métodos de secuenciación del ADN que fueron aceptados y utilizados de forma general. Esta tecnología desarrollada por Sanger y Coulson y la secuenciación química de Maxam y Gilbert permitió secuenciar el primer genoma completo del bacteriófago lambda.

La elaboración de ADN recombinante en tubos de ensayos con enzimas de micro-organismos tiene su origen en el aislamiento de la primera enzima de restricción (capaz de reconocer y cortar el ADN en una secuencia específica), en 1970 por Hamilton Smith y Daniel Nathans. Esto facilitó la introducción de genes extraños en virus, plásmidos o elementos genéticos móviles en células que pueden incorporarse y reproducirse mediante la síntesis química del ADN de cualquier secuencia deseada. Al año siguiente, Janet Mertz y Ron Davis demuestraron que un fragmento de DNA obtenido mediante  una enzima de restricción podía ser insertado y ligado a otro DNA cortado por la misma enzima; mientras que Paul Berg construyó la primera molécula de DNA recombinante entre DNA plasmídico de E. coli y DNA del fago l (Claros, 2003).

La técnica de reacción en cadena de la polimerasa (PCR) fue inventada por Mullis y Faloona. Esta permite la síntesis in vitro de secuencias específicas de ADN. Es una forma simple y muy rápida de multiplicar el ADN presente en diferentes muestras biológicas, obteniéndose millones de copias de una determinada secuencia de ADN.

Todos estos desarrollos tecnológicos y descubrimientos biológicos dieron lugar a la ingeniería genética y al desarrollo de organismos genéticamente modificados, cuya expresión más extrema y difundida son los cultivos transgénicos.

La influencia de la física en la genética se dio también en la Unión Soviética. En plena guerra fría; en la era de las armas nucleares y las exploraciones espaciales, hubo un despunte de los genetistas soviéticos, quienes hasta entonces habían sido censurados por el ingeniero agrícola y biólogo Lysenko, porque consideraba que la genética era antimarxista y anti-darwinista, lo que se había convertido en política de Estado. Como sucedía al otro lado de la cortina de hierro, los genetistas se escudaron en el paraguas de las investigaciones físicas, químicas y matemáticas para el desarrollo de investigaciones genéticas, que llevaban a cabo en los programas espaciales y nucleares. La muerte de Stalin y la subsecuente de-estalinización del país, también ayudó en este proceso (Krementsov y deJong-Lambert, 2017).

La era de los transgénicos

En la década de 1970, se dan pasos importantes para la emergencia de la ingeniería genética y los organismos transgénicos. La serie de tecnologías que constituyen la ingeniería genética fueron producto de científicos y tecnólogos que creían que el genoma era estático y que se podía modificar el fenotipo de un cultivo, a través de la simple inserción de un gen ajeno que codifique una proteína específica. Desde esta visión se inicia la era de la agro-biotecnologías y de la expansión masiva de los cultivos transgénicos.

Esto sucedió a pesar de que los avances de la investigación científica en la década de 1980, mostraron que el genoma es dinámico. Se encontró además que, con la inserción de un sólo nuevo gen en una planta, puede surgir una cascada de consecuencias imprevistas. Los científicos encontraron que no había manera posible de introducir un nuevo gen en un organismo único y obtener un solo resultado específico, puesto que los genes cambian rápidamente debido a una multitud de circunstancias, muchas de las cuales son aún desconocidas. Además, la transformación genética hecha a un organismo en el laboratorio no se puede repetir, aunque se utilicen los mismos procedimientos. Los niveles de inestabilidad de los organismos transgénicos de reciente creación son abrumadores, pero muchos estudios científicos que lo demuestran han sido silenciados.

Ahora sabemos también que no existe una ruta definida, discreta o simple a través de la cual un gen da lugar a una proteína; que la mayoría de funciones génicas están reguladas mediante redes bioquímicas altamente complejas, que dependen de un gran número de factores que las condicionan, como la presencia de otros genes y sus variantes, las condiciones del medio, la edad del organismo, el azar. La expresión de los genes está sujeta a una dinámica reguladora compleja que involucra a la célula como un todo. A su vez la célula responde a la dinámica del ambiente interno y externo en el que se desarrolla y al organismo en su integralidad (El-Hani, 2007).

Ya en los primeros años de la liberación de cultivos transgénicos al agro, se detectaron problemas en su construcción genética. En la soya con resistencia a glifosato (soya RR), que es la que más se siembra en el mundo, Windels y col. (2001) encontraron la presencia de secuencias génicas no deseadas, mutaciones a gran escala y re-arreglos del genoma. Estas mutaciones relacionadas con eventos de inserción no fueron dadas a conocer sino solo después de que la soya RR había sido comercializada.  Mucha de la información sobre los riesgos de los transgénicos es aún desconocida porque está protegida por cláusulas de confidencialidad.

Regal (1998) señala que, en la década del setenta, hubo una preocupación por los peligros de la manipulación genética pero solo a nivel privado. Para la década del ochenta, la preocupación creció en torno a un claro conflicto de intereses al interior de  la comunidad científica, pues muchos biólogos moleculares se habían convertido en empresarios y operaban no solamente como consultores de la industria. Muchos de ellos establecieron empresas biotecnológicas, por lo que la línea que separaba al mundo académico, al gubernamental y al empresarial era cada vez más delgada. Esta es una tendencia que se mantiene hasta ahora.

Así como la Revolución Verde fue posible por el apoyo recibido por las agencias estatales de investigación (y en su momento por la Fundación Rockefeller), la ingeniería genética fue dinamizada por la alianza industria–ciencia, convirtiendo a muchos científicos en empresarios. El Premio Nobel Paul Berg, pionero de las moléculas de ADN recombinante, fue nombrado en una ocasión “empresario del año” en los Estados Unidos, y Craig Venter, el gran pionero de la genómica, ha creado varias empresas para investigar y explotar cada uno de sus descubrimientos científicos.

Nuevas tecnologías moleculares: la edición génica

En los últimos años, la industria ha invertido fuertemente en el desarrollo de nuevas tecnologías moleculares, con el fin de incrementar su capacidad de realizar cambios más profundos y complejos en la composición genética de los seres vivos y en sus rutas metabólicas, y con ello aumentar su control sobre la vida.

El desarrollo de estas nuevas tecnologías obedece al fracaso de la primera generación de transgénicos, que se concentró en cultivos resistentes a insectos y herbicidas, lo que ha dado como resultado la emergencia de súper-malezas y súper-insectos, muy difíciles de controlar. Muchas investigaciones basadas en estas nuevas tecnologías se centran en revertir la resistencia de las malezas a los herbicidas, y en el desarrollo de insectos que produzcan descendencias inviablesde tal manera que los antiguos transgénicos puedan seguir estando vigentes, al igual que su paquete agrotóxico.

Estas nuevas tecnologías moleculares tienen sus propios riesgos e incertidumbres. Algunas de ellas incluyen las mismas técnicas de ingeniería genética previamente utilizadas (con sus propios impactos), pero además existen algunas preocupaciones adicionales graves. 

El sistema CRISPR-Cas, es el más desarrollado, y se basa en el descubrimiento de un mecanismo que algunas bacterias han desarrollado a lo largo de la evolución para defenderse a infecciones virales. CRISPR-Cas es un sistema de inmunidad de los procariotas, presente en gran parte de las bacterias y todas de las arqueas, que representa un tipo de memoria molecular transmisible de forma hereditaria.

Esto fue instrumentalizado a servicio de la biotecnología; como señala Lluís Montoliu, investigador del CSIC en el Centro Nacional de Biotecnología de Madrid

“Las bacterias han hecho el trabajo por nosotros y nos dan unas proteínas listas para usar que son estupendas” (DICIT, s/f).

¿Cuáles son los fines de la aplicación de las nuevas biotecnologías en la agricultura? Promover un tipo de agricultura empresarial que incremente la acumulación de la tierra y del agua; asegure el incremento en el uso de agrotóxicos, especialmente herbicidas; incremente la mecanización en la producción agrícola; es decir, consolidar el rol del agronegocio en la producción agroalimentaria.

La epigenética

Aunque la transgénesis parte de las ideas que predominaban en la genética a partir de mediados del Siglo XX (una proteína→un gen), ahora se ha demostrado que el ADN proporciona solo parte de la información que respalda un rasgo, ya que la expresión génica está influenciada por factores ambientales tanto dentro como fuera de la célula. Esto es materia de estudio de la epigenética.

El término epigenética fue acuñado por Conrad Waddington, luego de que logró demostrar que una característica adquirida en una población de la mosca de la fruta, en respuesta a un estímulo ambiental podía ser heredada (Waddington, 1956). La epigenética define como los cambios hereditarios no relacionados con la secuencia del ADN (Hoppeler, 2015).

Con las investigaciones de la epigenética se ha encontrado que, en la síntesis de proteínas, influyen una gran cantidad de factores, incluyendo el ambiente celular y externo, el estrés biótico y abiótico. Algunos de estos cambios se conservan en la herencia, como ha sido ya comprobado en ratas, bacterias y plantas (Richards y col., 2012). El llamado epigenoma está formado por proteínas histonas y no histonas y los ARN reguladores, que definen distintos estados de la cromatina epigenética a lo largo del genoma (ya sea por el tipo de célula, la etapa vital del organismo, o en respuesta a señales ambientales).

La epigenética es un proceso altamente dinámico, que puede ser influenciado tanto por el medio ambiente interno (desarrollo, hormonales y nutricionales) como externos (climáticos y señales de patógenos y químicos como plaguicidas y antibióticos) y que determina la progresión del ciclo de vida de la planta.

La variación epigenética puede ser importante entre especies silvestres y cultivadas y los epigenomas pueden potencialmente variar ampliamente entre especies relacionadas. En consecuencia, la transferencia de un rasgo de interés de especies silvestres a cultivadas (por ejemplo, a través de transgénesis) no sólo requiere la transferencia del ADN asociado con este rasgo, sino también el establecimiento de los estados de cromatina/epigenética apropiados sobre esta parte del ADN para permitir que el rasgo se exprese igual que en la planta de origen. 

Estos importantes descubrimientos sobre la epigenética, lejos de disuadir a la industria de continuar con la experimentación de los seres vivos con fines comerciales, han instrumentalizado sus fundamentos. Así, han identificado algunas rutas para inducir la variabilidad epigenética en las plantas. De acuerdo a los colectivos “Grupo de Interés Científico Biotecnología Verde” y “Animación Científica Biotecnología Vegetal” (GIS BV et al, 2017), estas rutas son:

 
  • En el campo farmacológico, se han caracterizado inhibidores de proteínas que participan en el silenciamiento epigenético. Hay tratamientos que incluyen inhibidores de enzimas que intervienen en la metilación del ADN, aunque parece que esta reducción no se transmite a la progenie.
  • Mecanismos para inhibir proteínas histonas con el fin de eliminar activamente marcas de acetilación que contribuyen a la represión de genes, reactivando genes silenciados.
  • Se trabaja también con la interrupción de los genes que codifican reguladores epigenéticos claves. De hecho, se han producido numerosos epialelos hereditarios en plantas de Arabidopsis con mutaciones en dos genes involucrados en el mantenimiento de la metilación del ADN. Se trabaja en obtener los genes correspondientes en cultivos.
  • Se ha encontrado que diversos tipos de estrés abiótico y biótico pueden inducir cambios epigenéticos en las plantas. Controlar estas variaciones, aún es difícil, pero se intenta trabajar con el silenciamiento epigenético y el control de genes sensibles al estrés.
  • Con la tecnología CRISPR-Cas9 se pueden inducir cambios en la metilación del ADN y modificar histonas, produciéndose cambios epigenéticos específicos en los sitios de interés.

Hoy, la epigenética aplicada al campo de la salud, es un mercado que fue valorado en 3080 millones de dólares en 2016, y que muestra un crecimiento muy alto, pues se espera que se convierta en un mercado de 8.580 millones de dólares para 2021 con una tasa de crecimiento del 26,8% anual.

Aunque la industria farmacéutica es la que ha desarrollado más productos relacionados con la epigenética, el sector agroindustrial también ha incursionado con fuerza en este tema. Hay varias iniciativas públicas y privadas para hacer investigaciones epigenéticas en el maíz, la palma de aceite, la remolacha azucarera y el álamo. 

Conclusiones y Discusión

Aquí hemos visto como, a partir de las leyes de la herencia de Mendel y la teoría de la evolución de Darwin se inició un camino que culminó en el desarrollo de los organismos transgénicos, la edición génica y la manipulación de la epigenética.

A lo largo del Siglo XX y hasta nuestros días, gran parte de la investigación científica se hace para desarrollar aplicaciones de interés corporativo a partir de los conocimientos generados. Esto se agrava porque las corporaciones tienen cada vez más injerencia en la definición de las agendas de investigación, ya que son ellas la principal fuente de financiamiento.

Dado que el interés de las empresas es la acumulación, el rumbo de la investigación científica no se orienta a resolver problemas reales; al contrario, los crea con el fin de desarrollar nuevos artefactos tecno-científicos destinados a solucionar los problemas creados por los primeros, y que a su vez generan nuevos.

El ejemplo más claro de lo dicho es el modelo de agricultura industrial que se impuso en el mundo, sobre todo a partir de la Segunda Guerra Mundial. Primero tuvimos la Revolución Verde que impuso de manera agresiva en varios países del Tercer Mundo, un modelo agrícola basado en semillas de alto rendimiento, agrotóxicos, fertilizantes sintéticos y mecanización, lo que potenció a la industria semillera y de insumos y maquinaria agrícolas a nivel internacional.

Este modelo generó una serie de problemas, como la emergencia de una mayor cantidad de plagas y malezas… y la respuesta fue la profundización del modelo a través de la revolución biotecnológica con sus semillas transgénicas, que presentó nuevas problemáticas, que son resueltas con nuevas tecnologías moleculares, cada vez más peligrosas. En esta etapa, la tecnociencia juega un papel vital, ya que la obtención de estos organismos  no es posible sin el trabajo hecho desde los laboratorios de los más importantes centros de investigación.

Casi cada uno de los descubrimientos e invenciones que dieron lugar a la ingeniería genética primero, y a la edición de genes después, están fuertemente avalados por científicos y tecnológos que han sido laureados por el Premio Nobel, lo que le da un fuerte peso académico. Desde Morgan, el genetista de las moscas de la fruta, pasando por Watson y Crick por el diseño del modelo de la molécula del ADN de doble cadena, Arber, Smith y Nathans por su trabajo con endonucleasas de restricción, Gilbert y Sanger por la secuenciación del ADN, Mullis por su trabajo en la reacción en cadena de la polimerasa y muchos otros científicos que han transitado por los andenes de la biología molecular, han recibido este premio. Su reputación académica les permitió dar un apoyo frontal a los transgénicos, como ya ocurrió cuando escribieron una declaración en defensa de los transgénicos primero y el arroz dorado en particular. Si bien los argumentos para rebatir la seguridad de los OGM son numerosos y sólidos, la legitimación de la academia hace muy difícil que estos argumentos sean visibilizados, tomen estado público o sean considerados por los organismos de regulación de los estados.

Otro aspecto que debe ser contemplado es que todas estas tecnologías están “protegidas” por derechos de propiedad intelectual. Por ejemplo, hay una fuerte disputa por las patentes derivadas de CRISPR-Cas9 entre la Universidad de California en Berkeley -donde Doudna y Charpentier hicieron su descubrimiento principal-, y el Instituto Tecnológico de Massachusets (MIT) -donde Zhang aplicó la técnica en mamíferos–, sumado a la rápida creación de compañías biotecnológicas para desarrollar las aplicaciones de la técnica CRISPR en medicina tales como Editas Medicine en Estados Unidos, (Doudna) y CRISPR Therapeutics en Suiza (Charpentier).

Y en medio de todo esto, ¿qué pasa con la naturaleza?

En 2008, el Ecuador reconoció que la naturaleza tiene derecho a que se respete integralmente su existencia y el mantenimiento y regeneración de sus ciclos vitales, estructura, funciones y procesos evolutivos.

¿Cómo efectivizar estos derechos a partir del postulado de Cullinan? Lamentablemente, entre más se profundiza en el conocimiento de los procesos biológicos y sus complejidades, se avanza con mayor agresividad en la vulneración de los derechos de la naturaleza. ¿Llegará un día en que desde la perspectiva de la ciencia digna la investigación se centre en desentrañar las leyes de la naturaleza para que sus derechos sean respetados?

Referencias

Claros, G. (2003). Aproximación histórica a la biología molecular a través de sus protagonistas, los conceptos y la terminología fundamental. Panace. IV(12), 168 – 179.

Cullinan C. (2011). ¿Tienen los humanos legitimación para negarle derechos a la naturaleza? En C. Espinosa y C. Pérez (Eds.). Los Derechos de la Naturaleza y la Naturaleza de sus Derechos (p. 281 – 328).  Quito: Ministerio de Justicia y Derechos Humanos.

DICIT (s/f). Lluís Montoliu: “Ha surgido un problema con CRISPR, pero es un acicate para descubrir nuevas proteínas para la edición de genes”. Entrevista al científico del Centro Nacional de Biotecnología pionero en la investigación sobre edición genética aplicada al caso del albinismo. Recuperado el 20 febrero 2019 de http://www.dicyt.com/noticias/lluis-montoliu-ha-surgido-un-problema-con-crispr-pero-es-un-acicate-para-descubrir-nuevas-proteinas-para-la-edicion-de-genes

El-Hani, C. (2007). Between the cross and the sword: The crisis of the gene concept. Genetics and Molecular Biology 30(2), 297-307.

García Deister V (2011). La centralidad de la Fundación Rockefeller en el desarrollo de la biología molecular revisada: una extensión de la crítica de Abir-Am a la luz del modelo del operón Theoria, 70: 69 – 80.

(GIS BV) y Animation Scientifique Biotechnologies Végétales (2017). Epigenetics in Plant Breeding. Position Paper. Recuperado el 20 de febrero 2019 de https://www.gisbiotechnologiesvertes.com/fr/publications?task=download&collection=do_document_fichiers&xi=0&file=do_document_fichier&id=41596

Harman, O. y Lamm, E. (2015).  History of Classical Genetics. Chichester: Wiley Online Library.; 2015. DOI: 10.1002/9780470015902.a0003094.pub2

Ho MW. (1998). Genetic Engineering, Dream or Nightmare?: The Brave New World of Bad Science and Big Busines. 2 ed.. Dublin: Gatebooks.

Hoppeler H. (2015). Epigenetics in comparative physiology. Journal of Experimental Biology. 218: 6 doi: 10.1242/jeb.117754

Kay L.E. (2000). Who Wrote the Book of Life? A History of the Genetic Code. Stanford University Press: Stanford

Krementsov N. y deJong-Lambert W. (2017). “Lysenkoism” Redux: Introduction. En: W. deJong-Lambert y N. Krementsov. (Eds.). The Lysenko Controversy as a Global Phenomenon (pp.1- 34). Springer. DOI. 10.1007/978-3-319-39176-2_1

Regal P. (1988). A Brief History of Biotechnology Risk Debates and Policies in the United States. Occasional paper. The Edmond Institute: Edmond.

Richards, R.J. (1981). Instinct and intelligence in British natural theology: Some contributions to Darwin’s theory of the evolution of behavior. Journal of History of Biology 14(2), 193–230.

Richards C. Verhoeven K. y Bossdorf O. (2012). Evolutionary Significance of Epigenetic Variation. Plant Genome Diversity 1, 257 – 274.

Serrano-Bosquet F. y Caponi G. (2013). Warren Weaver y el Programa de Biología

Experimental de la Fundación Rockefeller. Scientiæ Zudia 11(3), 137-67.

Toltzfus A. (2014).  Mendelian-Mutationism: The Forgotten Evolutionary Synthesis. Journal of the History of Biology 47, 501–546.

Waddington C.H. (1956).  Embriology, epigenetics and biogenetics. Nature 177, 1241.

Windels P. Taverniers I. Depicker A. Van Bockstaele E. De Loose M. (2001). Characterisation of the Roundup Ready soybean insert. Eur. Food Res. Technol 213, 107-112.


[1] El término “gen” fue creado en 1909 por Johannsen, así como los conceptos de “genotipo” y “fenotipo”.

[2] En esa misma línea, se habla hoy de edición génica.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *