Historia de la Química/Unidad IV/Siglo XX

El siglo XX traería al escenario mundial dos grandes guerras que paradójicamente darían un impulso al desarrollo del conocimiento científico en aquellas áreas en que se advertían necesidades internas y principalmente con fines relacionados con la tecnología militar. Este desarrollo dio lugar, incluso, al holocausto nuclear de la década de los años cuarenta.

Al finalizar la Segunda Guerra Mundial se conformaron dos grandes bloques militares, económicos y políticos, que se enfrascaron en una guerra fría, desarrollaron una irracional carrera armamentista, y fomentaron la hipertrofia de un complejo militar industrial.

En el polo de los países pobres, la mayoría de las colonias de África y Asia lograba su independencia contribuyendo al derrumbe del sistema colonial mundial que había servido como fuente de riqueza para las metrópolis.

Ya a finales de la década de los años ochenta y principios de los noventa, con el derrumbe del sistema socialista en el este europeo, se establecieron las bases de un mundo unipolar, caracterizado por un proceso de globalización, que si en principio pudiera considerarse en bien del intercambio científico – técnico, realmente representa un desafío para la supervivencia del mosaico de culturas de las naciones emergentes y de sus identidades nacionales.

Por otra parte, la desaparición de la guerra fría y el clima de universal entendimiento que parecía poder alcanzarse abría la posibilidad de congelar la irracional carrera de armamentos y desviar estos enormes recursos financieros hacia la esfera del desarrollo. Esto equivale a decir que podría al fin inaugurarse la era en que Ciencia y Tecnología alinearan sus fuerzas en bien de toda la humanidad. Pronto el optimismo inicial, derivado de semejante razonamiento se evaporó ante las nuevas realidades.

El progreso de las Ciencias debió navegar en medio de tales circunstancias sociohistóricas. Comenzó a manifestarse la principal característica de su desarrollo consistente en la transformación, de producto social, elemento de la superestructura de la sociedad humana, en una fuerza productiva con rasgos muy especiales. Esta característica estuvo precedida por una explosión en el ritmo de la producción de los conocimientos científicos que alcanzó un crecimiento exponencial. Las relaciones Ciencia – Sociedad se hicieron más complicadas.

No obstante, se pueden mirar determinadas tendencias como es el hecho de que el avance de las Ciencias en este siglo es fiel reflejo del desarrollo socioeconómico de los países, resultando tan asimétrico y desigual como irracional es la distribución de riquezas heredada del pasado colonial.

En un ámbito como el de la Química, que tanta resonancia tiene en la producción de nuevos materiales para el desenvolvimiento de las tecnologías de “punta”, advertimos un liderazgo alemán hasta la segunda guerra mundial que se ilustra con precisión en la nacionalidad de los científicos laureados con el premio Nobel de la Academia Sueca de las Ciencias. Un 40% de los 40 premiados en Química hasta 1939 son alemanes, lo cual supera en conjunto los lauros alcanzados por el Reino Unido, Francia y los Estados Unidos. Esta pirámide que descubre la concentración de los polos científicos en la Europa de la preguerra se invierte totalmente en el período posterior pasando el liderazgo absoluto a los Estados Unidos. De las 98 personalidades que encabezando grupos o laboratorios élites en la investigación científica reciben el Premio Nóbel en la postguerra, 43 son estadounidenses, lo que supera la suma de los laureados del Reino Unido, Alemania, y Francia.

Un cuadro similar se advierte si se recurre a cifras que ilustren el financiamiento por países en el área de investigación y desarrollo, así como si se analizan la producción de patentes de invención. En esta última esfera un nuevo problema viene a matizar el progreso científico. En todo el siglo XIX, la protección de la propiedad industrial, se había convertido en elemento de financiamiento de nuevas investigaciones que alentaran y permitieran nuevos logros en la invención. Pero con el siglo XX se van haciendo borrosos los contornos de los descubrimientos y las invenciones para la pupila de las grandes transnacionales interesadas más que todo en competir con éxito en el templo del mercado. Una encendida polémica se viene gestando en la opinión pública que gana creciente conciencia de los peligros que entraña semejante política. Afortunadamente, entre los propios investigadores se desarrolla un movimiento tendiente a preservar como patrimonio de toda la humanidad los descubrimientos científicos de mayor trascendencia.

Un proceso de fortalecimiento de los nexos en la comunidad científica, que se habían iniciado con las Sociedades fundadas en el siglo XVIII, se advierte desde inicios de siglo, sufriendo en los períodos de duración de ambas guerras un inevitable debilitamiento. En este contexto se destacan los Congresos realizados en Bruselas, con el apoyo financiero del empresario belga Ernest Solvay, que congregaron a los más brillantes físicos de la época.

El Congreso de Solvay de 1911, se puede considerar como el primer acto en el desarrollo conceptual de la Teoría Cuántica, verdadera revolución en el campo de las Ciencias Físicas. En el transcurso del evento se alcanzó un consenso en el reconocimiento de que la Física de Newton y Maxwell si bien explicaba satisfactoriamente los fenómenos macroscópicos era incapaz de interpretar los fenómenos de la interacción de la radiación con la sustancia, o las consecuencias de los movimientos microscópicos de los átomos en las propiedades macroscópicas. Para cumplir este último propósito era necesario recurrir a las ideas de la cuantificación. Ello demostraba la comprensión de la vanguardia de las Ciencias sobre el carácter temporal, histórico en la construcción del conocimiento científico.

El siglo XX traería también una organización de la ciencia en Instituciones que debían concentrar sus esfuerzos bien en estudios fundamentales como en aquellos de orden práctico. Los políticos se darían cuenta, desde la Primera Guerra Mundial, de la necesidad de sufragar los gastos de aquellas investigaciones relacionadas con la tecnología militar.

El Laboratorio de Cavendish en Cambridge, fundado en el siglo XIX, hizo época no sólo por la relevancia de sus investigaciones fundamentales para la determinación de la estructura atómica, sino por la excelencia mostrada por sus directores científicos, J.J. Thomsom y Ernest Rutherford, que lograron con su liderazgo que siete investigadores asistentes del Laboratorio alcanzaran el Premio Nóbel de Física.

El Laboratorio “Kaiser Guillermo” de Berlín constituyó un modelo de institución investigativa en las primeras décadas del siglo y contó, en el período de la Primera Guerra Mundial, con la asistencia de los más célebres científicos alemanes vinculados a proyectos de desarrollo de nuevas armas. Fritz Haber, notable químico alemán jugó el triste papel de introductor del arma química en los campos de batalla. Como se verá más adelante el destino del investigador alemán se cierra con el destierro, por su origen judío, de la Alemania fascista.

En la década del 40, se crea en Nuevo México, el Laboratorio Nacional de los Álamos, verdadera empresa científica multinacional, con el objetivo de dar cumplimiento al llamado Proyecto Manhattan para la fabricación de la bomba atómica. La movilización de hombres de ciencias de todas las banderas tuvo el propósito de neutralizar cualquier tentativa de la Alemania hitleriana de emplear el chantaje nuclear. El propio Einstein, con su enorme prestigio y autoridad moral, inicia el movimiento enviando una misiva al presidente de los Estados Unidos. Cinco años después, enterado de los éxitos ya obtenidos en los ensayos de la bomba atómica, vuelve a usar la pluma está vez para reclamar prudencia en el empleo de este engendro de la Física Nuclear. El resto de la Historia es bien conocido. El 9 de agosto de 1945 la humanidad se aterrorizaba con la hecatombe nuclear en Hiroshima, días después se repetía la escena esta vez en Nagasaki. Se inauguraba la época del arma nuclear con un saldo inmediato de cien mil muertos y más de ciento cincuenta mil heridos, y una multiplicación a largo plazo de las víctimas como resultado de las manifestaciones cancerígenas y las mutaciones genéticas inducidas por la radiación nuclear.

Los más relevantes exponentes, y la mayoría de la comunidad científica reaccionaron vigorosamente contra el desarrollo del armamento nuclear y abrazó la causa del uso pacífico de la energía nuclear. El propio Einstein abogó por el desarme internacional y la creación de un gobierno mundial. No faltaron, sin embargo aquellos que consideraron oportuno continuar la espiral armamentista, confiados en que el liderazgo de un país podía resultar ventajoso para todo el mundo. Entre estos se contó con el arquitecto principal de la bomba de Hidrógeno, el físico húngaro, nacionalizado estadounidense, Edward Teller.

En la segunda mitad del siglo XX, la rivalidad entre las instituciones científicas del este y oeste constituían un reflejo de la guerra fría que prevaleció hasta bien avanzado el siglo. A la competencia y el intercambio que alentó, en lo fundamental, el desarrollo de las investigaciones en las primeras décadas entre las Escuelas de Copenhague, Berlín, París, y Londres, le sustituyó un cerrado silencio. El intercambio fue tapiado y supuestas filtraciones al bando opuesto adquirieron la dramática connotación de espionaje político. Los logros publicables que obtenían los laboratorios nucleares de Dubna, en la ex - Unión Soviética, Darmstad en Alemania, y Berkeley de los Estados Unidos eran sometidos a encendidas polémicas sobre prioridad, como es el caso del descubrimiento (acaso sería mejor decir “la fabricación” en los aceleradores lineales) de los elementos transférmicos que ocupan una posición en la tabla periódica posterior al elemento número 100.

Pero a pesar del mar de contradicciones en que debió navegar nuestra nave planetaria ha sido el XX un siglo de un espectacular salto de la Ciencia y la Tecnología. Se inauguran la “Era Atómica”, la “Edad de los Materiales Sintéticos”, los tiempos de la “Conquista del Espacio Sideral”, la “Época de la Robótica”, el período de “la Informatización”, el despegue de “la Ingeniería Genética”… En cada una de estas conquistas están presentes las tres Ciencias Básicas que nos ocupan.

Desde el punto de vista de su auto desarrollo, las Ciencias, a partir de la segunda mitad del siglo XIX, experimentan una delimitación de los respectivos campos de cada disciplina científica y a la vez una tendencia a la interdisciplinariedad. Se advierten pues la aparición de ramas de las Ciencias de naturaleza "fronteriza", y el acercamiento hacia un mismo objeto de estudio desde perspectivas diferentes siguiendo luego una intención totalizadora.

En particular, la Química del siglo XX ha sido “empujada” desde diferentes ángulos por las necesidades sociales de la época pero en todo caso su autodesarrollo relativo inclinaba en un primer momento la atención de los químicos hacia el amplio campo de los compuestos naturales.

En conexión con esta gravitación hacia los compuestos bioactivos se encuentra el desarrollo de una novedosa generación de fármacos prototipos para cumplir una misión reiteradamente planteada ante los químicos desde la legendaria Casa de la Sabiduría de Bagdad en el medioevo, pasando por Livabius y Paracelso en el Renacimiento europeo, hasta alcanzar con Erlich en el siglo XIX el antecedente inmediato de la Quimioterapia.

A la luz de la interdisciplinariedad exigida de Fisiología, Bioquímica, Farmacología, Medicina, y Química se han alcanzado logros increíbles. De cualquier manera es procedente reconocer que fueron los fisiólogos y médicos los que abrieron fuego desde bien temprano en este siglo sobre el campo de los productos químicos que cumplían importantes funciones reguladoras en el organismo humano. Así en 1902, el fisiólogo británico William M. Bayliss (1860 – 1964) al estudiar la secretina, hormona intestinal que estimula la secreción pancreática, introduce el término de hormona para indicar una secreción que puede actuar sobre otros órganos al trasladarse en la corriente sanguínea; y ya en 1912 los fisiólogos Frederick G. Banting (1891 – 1941) y Charles H. Best (1899 – 1978) conducen la investigación hacia el ámbito clínico al inyectar un extracto hepático a un muchacho en fase terminal de diabetes y lograr la reversión de su estado. Más de diez años de investigaciones los llevan al descubrimiento de la hormona pancreática insulina, por lo que recibe Banting en 1923 el premio Nóbel de Medicina, que no puede decirse en este caso haya sido compartido sino disputado con su colega de la Universidad de Toronto John J. Macleod (1876 – 1978). Paralelamente con las investigaciones de médicos y fisiólogos y sobre todo a partir de la década del 20, especialmente en los laboratorios alemanes, los químicos van a obtener resultados trascendentales en el campo de las vitaminas, hormonas, proteínas, ácidos nucleícos y otros importantes compuestos asociados a la vida.

Nuevos materiales que exhibieran una combinación de propiedades no observadas en los productos naturales eran exigidos por un alud de invenciones que van desde la inauguración de la época del teléfono en 1887 y su rápida difusión (la primera central telefónica del mundo se puso en servicio durante 1878 en New Haven, Estados Unidos; comprendía un cuadro conmutador y 21 abonados); el desarrollo de la industria de artículos eléctricos (Edison había inventado el fonógrafo en 1877 y Berliner el disco fotográfico en 1887); la conquista del aire iniciada con el vuelo de 59 segundos de los hermanos Wright en 1903; la producción en cadena de automóviles de Ford en 1913; el debut de la radio con su explosivo crecimiento a partir del 20; y otros desarrollos industriales.

Ahora no prevalecería la casualidad que llevó en el siglo pasado a C. Goodyear (1800-1860) al descubrimiento del caucho vulcanizado y a John Hyatt a producir la casi accidental transformación de la celulosa en el primer material termoplástico, el celuloide. A partir de la década del treinta se despegarían uno tras otros las invenciones de nuevos polímeros sustentados en rutas sintéticas cuidadosamente proyectadas. La carrera en la síntesis de nuevos polímeros llega hasta hoy impulsada por la conquista del cosmos, la revolución en las comunicaciones, el dominio de los biopolímeros para fines médicos, y se concreta con la producción de polímeros biodegradables, conductores, fotopolímeros, y otros con propiedades específicas para la tecnología de punta.

En otro extremo de la cuerda se destacan las investigaciones que posibilitaron el desarrollo de una revolución agrícola para un mundo mayoritariamente afectado por el hambre y en constante crecimiento (a pesar de las dos guerras mundiales devastadoras). Más adelante se incluyen, como ejemplos polémicos de esta dirección, los desarrollos asociados a la producción del amoníaco, pieza clave para el impulso de la industria de los fertilizantes nitrogenados, y las investigaciones que condujeron al empleo masivo del DDT.

Algunos autores han señalado el lanzamiento del libro “Primavera Silenciosa” por la bióloga estadounidense Rachel Louise Carson (1907 - 1964) como un momento de especial importancia en la toma de conciencia por la comunidad científica y por amplios sectores de la opinión pública sobre los peligros generados por la actividad humana en el entorno ambiental. Lo cierto es que a partir de la década de los setenta se van acopiando más y más datos que conforman una visión dramática sobre los cambios que viene observando nuestra atmósfera y el impacto real y potencial que tales alteraciones promueven. La comunidad química ha prestado atención a este relevante problema contemporáneo y los principales resultados de esta ocupación encuentran un breve espacio en estas páginas.

En cualquiera de los ámbitos enunciados arriba, como en otros no abordados en este trabajo, el desarrollo de potentes herramientas para el análisis estructural de las complejas sustancias bajo examen precedió o evolucionó paralelamente con las necesidades planteadas a la investigación. Un amplio repertorio de estas técnicas fue inventado y prosigue en permanente perfeccionamiento y expansión, entre las que sobresalen aquellas basadas en la interacción específica de la radiación con la sustancia.


La química de los compuestos naturales editar

Sobresalen en el período del liderazgo alemán, antes de la Segunda Guerra Mundial los trabajos de Emil Fischer (1852-1919) sobre las estructuras de los carbohidratos y purinas en Berlín y de Adolf Windaus (1876 -1959), quien había quedado fascinado con las conferencias de Emil Fischer y mas tarde descubre la constitución de los esteroles y su profunda relación con las vitaminas. Su discípulo Adolf Butenandt (1903 – 1995) mas tarde se abrirá paso en el campo de las hormonas sexuales. Estas investigaciones, conducidas en la legendaria Universidad de Gotinga, tuvieron una gran incidencia en la posibilidad de sintetizar luego en una escala industrial, la cortisona. En 1931, Butenandt aisló la androsterona, tres años después logró aislar la progesterona, y en 1939 había sintetizado a partir de la androsterona, la testosterona. En un plazo de ocho años inició el camino hacia el dominio de las hormonas sexuales.

En otra de las instituciones alemanas que han servido de escenarios para la gestación de sobresalientes descubrimientos en el campo de la Química, el Instituto Kaiser Guillermo, más tarde rebautizado como Instituto Max Planck, el austríaco- alemán Richard Kuhn (1900 – 1967) durante un período de veinte años descubrió ocho nuevos tipos de carotenoides, y fue capaz de analizar su constitución. Sobre esta base, obtuvo importantes resultados sobre las vitaminas B2 y B6 que lo hicieron merecedor del premio Nóbel en 1938.

La segunda guerra mundial detuvo estas investigaciones fundamentales y a partir de este momento la química alemana pierde su liderazgo.

En uno de los propósitos más ambiciosos de la Química moderna: encontrar la relación íntima entre la estructura molecular de complejos productos orgánicos y la función biológica que cumplen, campo dónde se inicia la frontera aún difusa con la biología molecular, brilló la actividad de la química británica Dorothy Crowfoot Hodgkin (1910 – 1994). Hodgkin empleó durante largos años el análisis de rayos X para la determinación de las configuraciones moleculares de la penicilina, la vitamina B-12, la insulina, y otras importantes proteínas. En particular sus estudios sobre la estructura tridimensional de la insulina se prolongaron durante tres décadas, tiempo en el cual se convirtió en pionera del uso de la computadora para la interpretación de los espectros de rayos X y el correspondiente mapeo de las densidades electrónicas en los sitios moleculares. Con cada nuevo descubrimiento, la doctora Hodgkin produjo una expansión de la tecnología de la Cristalografía por rayos X.

En el Laboratorio Cavendish de Cambridge donde se condujeron las investigaciones de Hodgkin, otros dos investigadores John C. Kendrew (1917-1997) y Max F. Perutz (1914 – 2002) fueron capaces de obtener vistas claras, tridimensionales de la estructura molecular de la mioglobina y la hemoglobina y recibieron en 1962 el premio Nóbel compartido por sus estudios fundamentales.

La concentración de estrellas en el Cavendish incluye a quienes realizarían descubrimientos esenciales para el ulterior desarrollo de la Ingeniería Genética y la Biología Molecular. Francis Crick (1916-2004 ) y el estadounidense James D. Watson (1928- ), describirían el primer modelo de doble estructura helicoidal para los ácidos nucleicos y por esta contribución compartieron el premio Nóbel en Fisiología y Medicina en 1962.

A partir de 1962, se suma a esta comunidad de Cambridge, F. Sanger (1918- ), el primero en descifrar la estructura de la secuencia de aminoácidos de una proteína, la insulina, por lo cual mereció el premio Nóbel de 1958, y el único químico en archivar un segundo premio Nóbel en la propia especialidad, 22 años después, por su contribución decisiva a la determinación de la secuencia de las bases nitrogenadas en los ácidos nucleicos, principales responsables del código hereditario.

Al otro lado del Atlántico, a partir de la década del treinta, en la institución que más tarde se convertiría en Universidad de Rockefeller se incubaba un fuerte movimiento en el campo de la Química de los compuestos naturales que, luego de la segunda guerra mundial, se convertiría en liderazgo de la ciencia estadounidense. Uno de los iniciadores de este movimiento es John H. Northrop (1891 – 1987), premio Nóbel en 1946, por su contribución al aislamiento y determinación estructural de las importantes enzimas digestivas proteolíticas, tripsina y pepsina. En esta Institución transcurren las trascendentales investigaciones de William H. Stein (1911 – 1980) y Stanford Moore (1913 -1982) que representan una contribución decisiva a la comprensión de la relación entre actividad catalítica y estructura de los sitios activos de la ribonucleasa; así como los estudios de nuevas rutas en la síntesis de péptidos y proteínas en una matriz sólida conducidos por Robert B. Merrifield (1921- ).

En otro “santuario” estadounidense de la investigación en el campo de los compuestos naturales, la Universidad de Harvard, se suceden nuevas conquistas.

Un equipo de químicos relevantes se concentró en los laboratorios de investigación de este centro a fines de los años cincuenta. Entre ellos cabe mencionar especialmente a Robert B. Woodward (1917 – 1979), Premio Nóbel en 1965, cuyo equipo en la década del 40 consigue la obtención de la quinina, luego en los años cincuenta reporta la síntesis de esteroides como el colesterol y la cortisona, en la siguiente década demuestra la vía que conduce a la obtención de la clorofila, y ya a inicios de los setenta corona con el éxito la síntesis de la vitamina B-12.

Otro gigante en el campo de la síntesis de complejas sustancias bioactivas, que desarrolló su actividad en Harvard como colaborador de Woodward, fue Elías B. Corey (1928 - ), Premio Nóbel de Química en 1990. Corey en la década de los sesenta diseñó un nuevo método conocido como retrosíntesis a partir del cual obtuvo más de 100 productos naturales y condujo por primera vez a la síntesis química de las prostaglandinas.

Las prostaglandinas son derivados de los ácidos grasos que se encuentran en casi todos los tejidos del cuerpo humano, interviniendo en variadas funciones esenciales. En particular, John R. Vane (1927- ), químico por formación inicial y farmacólogo por inclinación, premio Nóbel de Medicina en 1982, demostró que las prostaglandinas intervienen en los mecanismos neurológicos del dolor y que las múltiples aplicaciones médicas de la aspirina se derivan de su capacidad para bloquear la producción de ciertas prostaglandinas.

En las décadas de los setenta y los ochenta ha aparecido en escena un nuevo tipo de neurotransmisor de origen proteico, las endorfinas. Roger Guillemin francés – estadounidense, ha estudiado la producción de este tipo de hormona péptidica del cerebro y los mecanismos de su acción. Por lo visto se ha descubierto el tipo de sustancia que desempeña importantes roles en los mecanismos conducentes a la aparición de las emociones placenteras relacionadas con el sentimiento de felicidad. Guillemin ha merecido el Premio Nóbel de Fisiología en 1977.

En conclusión, durante este siglo la Química de los compuestos naturales ha vencido importantes problemas en las esferas de la síntesis y análisis de complejas moléculas bioactivas; y en la comprensión teórica del rol catalítico de los biopolímeros y el mecanismo de su interacción en el metabolismo de los seres vivos.

Progresos en el diseño y producción de fármacos editar

Los avances en este sector de la Biorgánica, junto con los extraordinarios progresos de la Fisiología, la Bioquímica, la Medicina y las técnicas de Computación han promovido una revolución en el ámbito de la Quimioterapia.

En el diseño de fármacos una posición especial han ocupado desde los mismos orígenes de la Quimioterapia, los compuestos naturales. Ellos han sido una de las grandes fuentes de fármacos prototipos. Sirva citar como ejemplos de este grupo, los glicoesteroides, con propiedades cardiotónicas, las hormonas de mamíferos (insulina, corticoides, hormonas sexuales), y otros productos endógenos como las prostaglandinas, vitaminas o neuropéptidos. La penicilina G, cabeza de serie de antibacterianos lactámicos, marcó el inicio de la edad de oro de estos antibióticos. Más recientemente en 1969 con el aislamiento de la ciclosporina A, un metabolito undecapéptido del hongo Tolypocladium inflatum, se creyó disponer de un prototipo para una nueva generación de agentes antivirales, pero su demostrada actividad inmunodepresora, al interferir la biosíntesis de la linfoquina, tuvo un gran impacto en la cirugía de trasplantes, a fines de los setenta, al disminuir notablemente el rechazo al órgano injertado.

La época del desarrollo de programas de ensayos farmacológicos sistemáticos con productos sintéticos fue inaugurado por Paul Erlich (1845 – 1915), uno de los pioneros de la Quimioterapia contemporánea. La tradición heredada desde los tiempos de Paracelso y su intuición (no hay que olvidar que al decir de Pasteur, “el azar favorece a las mentes preparadas”) lo llevó a desarrollar un programa teniendo como prototipo una estructura arsenical, en la lucha contra el flagelo de la sífilis, y el éxito le sonrió con el preparado 606, al cual llamó salvarsan.

Ya a la altura de la tercera década, teniendo como base el éxito de Erlich con el azul de metileno sobre el paludismo, G. Domagk (1895 – 1964), premio Nóbel de Medicina en 1938, desarrolla un amplio programa de evaluación de colorantes azoicos que concluyen en 1935 con el descubrimiento de la eficacia del prontosil, un azo derivado que por reducción metabólica libera la sulfanilamida, el verdadero compuesto responsable de la acción antibiótica. El programa de búsqueda de mejores sulfamidas bacterianas, mediante el estudio de miles de compuestos portadores del grupo -SO2N- condujo a espectaculares aperturas en otros sectores de los fármacos, tales como diuréticos (sulfonamidas y disulfonamidas), hipoglucemiantes (sulfonilureas), leprostáticos y antituberculosos (sulfonas).

Otra dirección en el diseño de fármacos consiste en la búsqueda de antimetabolitos por variaciones de la estructura de metabolitos. Esta estrategia es una de las más usadas en el diseño de agentes anticancerosos. Una aproximación dentro de esta dirección es el diseño de inhibidores enzimáticos, entre los cuales merecen mencionarse las cefalosporinas que actúan como inhibidores de de las transpeptidasas de las bacterias.


El desarrollo de nuevos materiales editar

La necesidad social de aparición en escena de los plásticos alcanzó tal impacto que algunos han bautizado cierto momento del siglo XX como la “era de los plásticos”. En el campo de los materiales termoplásticos el siglo pasado había dejado como saldo la modificación accidental de la celulosa en nitrocelulosa que permitiría la producción del celuloide. Pero la inauguración de una nueva época en la producción de materiales sintéticos correspondió al químico belga - estadounidense L.H. Baekeland (1863–1944), al obtener en 1907 resinas termoestables por la condensación del fenol y el formaldehído, las bakelitas (combinación del apócope de su nombre con el sufijo procedente del griego lithos, piedra, es decir, la piedra de Baekeland).

Sus sorprendentes propiedades como elevada dureza, inercia frente a los más enérgicos disolventes, termoestabilidad, baja conductividad eléctrica y térmica y capacidad de moldearse al ser calentados para después solidificar, fueron anunciadas por Baekeland en 1909 en Nueva York, indicando la posibilidad de fabricar con las bakelitas desde conmutadores eléctricos hasta discos fonográficos.

En estos primeros tiempos prevalece el método de ensayo y error como reflejo del escaso conocimiento sobre la estructura de las moléculas gigantes y de los detalles de las reacciones en que se producían.

Al filo de la década del treinta ya se disponía de la materia prima suministrada por la industria del petróleo, y del bagaje teórico suficiente, para que el químico J.A. Nieuwland (1878 – 1936) investigara con éxito la producción del caucho sintético, al que denominó neopreno. Este neopreno por sus propiedades elastómeras superaría al caucho natural.

La aplicación de la Termodinámica y la Cinética Química al estudio sistemático de estos materiales, fue tarea abordada por diferentes grupos de investigación entre los cuales se destacó el dirigido por el químico alemán H. Staudinger (1881-1965). Estos trabajos resultaron premisas fundamentales para el asalto a la síntesis de los nuevos polímeros.

En 1928, la Compañía Dupont tomó una decisión poco común por entonces en el mundo de los negocios: abrió un laboratorio para investigaciones fundamentales que sería dirigido por el brillante químico estadounidense William Carothers (1896–1937).

Carothers demostró la posibilidad de producir controladamente fibras artificiales que con el tiempo competirían por sus propiedades con las fibras extraídas de fuentes naturales. Fueron sintetizados en el laboratorio las poliamidas (nylon) y los poliésteres (dacrón, terylene, etc.) a partir de los monómeros bifuncionales complementarios, es decir, los ácidos dicarboxílicos (o sus derivados) y las diaminas o glicoles correspondientes.

Frente a la vía de policondensación ya descrita se desarrollaban nuevas técnicas de polimerización por la vía de poliadición de los monómeros vinílicos. Estos monómeros podían ser producidos masivamente por la industria petroquímica y su reactividad se vería condicionada por la presencia de dobles enlaces que mediante la acción de iniciadores radicálicos daban lugar a estructuras poliméricas con una cadena principal básicamente apolar. Del trabajo de equipo dirigido por P.J. Flory (1910 – 1985), premio Nóbel en 1974, quedaron definidas en lo fundamental las rutas sintéticas que posibilitaron la producción de los polímeros vinílicos tales como el polivinilcloruro, los poliacrilatos, poliacetatos, el teflón y otros.

Un nuevo período en el campo de las síntesis de polímeros se abre con las investigaciones realizadas paralelamente por el químico alemán K. Ziegler (1898-1973) y el italiano G. Natta (1903-1979). En 1954 inician la aplicación de nuevos sistemas catalíticos órgano – metálicos para la producción de polímeros vinílicos con un alto ordenamiento de los grupos laterales a su espina dorsal (cadena principal). Esta elevada estereoespecifidad lograda en las etapas de síntesis había sido una conquista privativa de la fisiología de los seres vivos.

Sin poder compararse con los reconocidos logros en el campo de la microelectrónica, la ciencia japonesa ha expresado en las últimas décadas importantes contribuciones a la Química. En particular, son importantes exponentes los éxitos alcanzados por el químico japonés Hideki Shirakawa (1936- ), premio Nóbel del 2000, descubridor de una nueva generación de polímeros conductores al polimerizar el gas acetileno sobre la superficie de un catalizador especial de Ziegler-Natta. Este tipo de polímeros conductores vienen siendo estudiados también por investigadores de la Universidad de Pennsylvania y constituyen una prometedora vía para la obtención de nuevos materiales, únicos por sus propiedades híbridas de termoplásticos y metales.

Otra conquista sobresaliente en el campo de los polímeros sintéticos viene dada por la fabricación de materiales biodegradables y biocompatibles. La aplicación del ácido poliglicólico que experimenta una relativa facilidad para hidrolizarse y asimilarse por los tejidos vivos y la capacidad mostrada por similares productos para formar matrices tridimensionales dónde pueden “sembrarse” células de tejidos han abierto campos insospechados de aplicación en la Medicina.

Las suturas quirúrgicas sintéticas, con excelente resistencia mecánica y fácilmente reabsorbibles por el organismo, son un ejemplo de masiva aplicación. Pero por ahora las más trascendentes invenciones se relacionan con el transporte y suministro lento de medicamentos en zonas de difícil o impenetrable acceso, como es la barrera hematoencefálica, que evita la penetración de una gran variedad de sustancias químicas procedentes de la sangre en el cerebro; y el uso de los polímeros biocompatibles como armazón genérica donde crecen tejidos.

Robert Langer (1949- ), un ingeniero químico del Instituto Tecnológico de Massachussets, diseñó láminas de polímeros en forma de disco que fueran implantadas en 1992 por el neurocirujano de la institución médica Johns Hopkins, Henry Brem (1952 - ), para tratar el cáncer tras realizar intervenciones quirúrgicas en el cerebro. Dado que las sustancias químicas embebidas en el polímero de superficie biodegradable, se administran localmente, no ocasionan la toxicidad sistemática típica de los fármacos para combatir el cáncer. Estas láminas representan el primer tratamiento nuevo para el cáncer cerebral en 25 años. En la actualidad se utilizan sistemas de administración lenta muy similares para tratar el cáncer de próstata, la endometriosis e infecciones óseas agudas.

Las empresas de biotecnología utilizan estructuras poliméricas para crear piel artificial con el fin de tratar las quemaduras graves y las úlceras producidas por la diabetes. Multiplican células vivas en cultivos (normalmente procedentes de tejidos que se desechan durante las operaciones quirúrgicas) y, a continuación, “siembran” las células en la estructura de polímeros.

Cuando la ingeniería de materiales y la ciencia especializada en polímeros unen sus fuerzas con la biología y la medicina se logran estos milagros modernos. De cualquier manera, una conciencia universal debe ser creada, en primer lugar para que los logros de la ciencia de punta no sean privativos de los sectores minoritarios de los países ricos, y para que en ningún caso un Frankestein espiritual pueda apoderarse del género humano por una irracional manipulación genética.

Productos sintéticos para necesidades apremiantes editar

En relación con otro problema crucial del siglo, los primeros años del siglo apuntan a la conquista de productos sintéticos que traerían soluciones a problemas relacionados con la presión demográfica y al mismo tiempo conducirían a nuevos desafíos en las relaciones del hombre con la naturaleza.

La producción de alimentos para una población mundial creciente, problema que se planteaba desde inicios de siglo XX, demandaba una revolución verde en los rendimientos agrícolas. Fertilizar adecuadamente las tierras era una exigencia y la reserva natural existente de sales nitrogenadas no permitía dar respuesta a esta necesidad.

Así las cosas, la fijación del nitrógeno atmosférico mediante una adecuada transformación química se erigía como un problema de muy difícil realización. La síntesis del amoníaco, precursor de los fertilizantes nitrogenados, mediante la reacción entre el dinitrógeno y el dihidrógeno chocaba con dificultades prácticas.

Fritz Haber, con la ayuda de su joven colaborador inglés Le Rossignol encontró en la primavera de 1909 las condiciones, en pequeña escala, para obtener poco más de una gota del amoniaco por minuto. Estos resultados experimentales fueron expuestos ante los dirigentes de la Badische Anilin und Soda Fabriken, la mayor empresa de productos químicos de la época.

Los directivos de la sociedad Badische terminaron por apostar, sin límite de tiempo ni de crédito, a la solución del problema del escalado, confiando esta tarea a dos expertos en el escalado Carl Bosch y Aldwin Mittasch. Las perspectivas que alentaban el proyecto cubrían un doble propósito: la producción de abonos y de explosivos nitrogenados.

Luego de cuatro años en que realizarían más de 10 000 pruebas de síntesis y evaluarían mas de 4 000 catalizadores en el laboratorio, Bosch y Mittasch levantaron la industria que producía unas mil veces la producción inicial de Haber, es decir unas cuatro toneladas de amoniaco diariamente. Hoy se produce más de cien mil veces esta cantidad de amoniaco pero el catalizador propuesto por Mittasch no ha podido ser superado en eficiencia y costo.

Otro problema en el orden del día de las necesidades alimentarias del mundo lo era – y lo sigue siendo aún hoy- encontrar aquellas sustancias insecticidas que combatieran las plagas causantes de enormes pérdidas al arrasar cosechas enteras de las principales fuentes energéticas nutritivas de la población. En esta realidad se inserta la polémica página de la síntesis y aplicación de uno de los más potentes insecticidas fabricados por el hombre: el D.D.T. Existen los testimonios de que el dicoloro-difenil-tricloroetano fue sintetizado por primera vez en 1873, por un joven estudiante austríaco, Othmar Zeidler, pero el producto carece de interés hasta que el químico industrial suizo Paul Hermann Müller (1899 – 1965) descubre en 1936 la fuerte acción insecticida por contacto que exhibe y luego de cuatro años de intensa labor obtiene la patente industrial en 1940. Dos productos el Gesarol y el Niocide fueron comercializados a ambos lados del Atlántico al probar su eficaz acción en el combate del tifus, la malaria y en la agricultura. Müller recibe por este trabajo el premio Nóbel de Fisiología o Medicina en 1948. Décadas después se exigía el cese de su aplicación por el impacto global que había provocado en diferentes ecosistemas al reducir dramáticamente la población de insectos que se insertan en la cadena alimentaria de diferentes especies.

A pesar del incuestionable valor social que presentan la síntesis industrial de fertilizantes nitrogenados y la producción de insecticidas, la evaluación del impacto que ha venido provocando su empleo irracional, promueve a partir de los años ochenta una corriente de pensamiento relacionada con las nociones de biocompatibilidad, fuentes renovables de recursos, y el desarrollo de una conciencia que reconoce la necesidad apremiante de una actuación más racional de convivencia con el entorno.


La química del medioambiente editar

En la década de los setenta, los científicos de la Universidad de California, Irvine, F. Sherwood (1927- ) y el mexicano – estadounidense Mario Molina (1943- ) determinaron, luego de un exhaustivo estudio, que los clorofluorcarbonos empleados masivamente como propulsores en todo tipo de “spray” y como refrigerantes, tienen potencial para destruir la capa de ozono. Y en efecto, en años recientes, se ha confirmado el enrarecimiento de la capa de ozono en diferentes latitudes del planeta. Este adelgazamiento ocasiona un aumento de los niveles de la radiación ultravioleta dura que penetra en la atmósfera e incide sobre la superficie del planeta. Esta radiación puede ser responsable del incremento de la frecuencia del cáncer en la piel observada en los países nórdicos desarrollados, así como de la disminución del plancton marino, primer eslabón en la cadena alimentaria de los peces. La importancia concedida a estos problemas por la comunidad científica se expresa en el premio Nóbel concedido de forma compartida a Sherwood, Molina y al químico holandés Paul Crutzen (1933- ) en 1995. Este último había predicho que el óxido de nitroso podría ser responsable de la destrucción del ozono estratosférico, participando en una reacción en cadena.

A este problema se suma el peligroso deterioro causado por las lluvias ácidas que afectan diversas regiones del orbe. La primera señal de alarma seria se dio a comienzos del setenta cuando en Escocia se reportó precipitaciones con un índice de acidez comparable al del vinagre.

El origen de las lluvias ácidas está directamente relacionado con la actividad industrial. Las investigaciones realizadas en los glaciares de Groenlandia demuestran inobjetablemente que hace unos 500 años el pH oscilaba entre 6 y 7 (el índice de acidez de una solución neutra se corresponde con un pH de 7), es decir a mitad del milenio anterior la lluvia era sólo ligeramente ácida. Hace aproximadamente 190 años se produce un descenso notable de este pH que se sitúa entre 5,8 y 6,0 lo que coincide con la revolución industrial, el advenimiento de la máquina de vapor de Watt y un aumento considerable en la combustión de diferentes carbones. Hacia 1955 el promedio del pH de la lluvia se desplaza hacia 5,6 lo que se califica de descenso espectacular lo que coincide con el no menos espectacular aumento de la actividad industrial en el mundo desarrollado de la postguerra. El mecanismo de formación de las lluvias ácidas se conoce desde 1975. La opinión pública ha sido informada. La voluntad política de los países con la máxima responsabilidad por este grave trastorno de un ciclo de precipitaciones que ha recibido la Tierra durante millones de años está preñada de fariseísmos.

La comunidad científica viene gestando los contornos de una Química del Medio Ambiente, que exige del concurso de otras disciplinas de la Química, en particular de la Química de los radicales libres, la Cinética en cuanto demanda del desarrollo de nuevos sistemas catalíticos, y la intervención de las técnicas de análisis más refinadas y fiables. Será necesario un financiamiento y el desplazamiento de recursos para una política de monitoreo y de búsquedas de soluciones a los problemas industriales y de los equipos de transporte.

El desarrollo del instrumental analítico editar

Las potencialidades que brindan los espectros de difracción de rayos X fueron explotadas para la determinación de complejas estructuras cristalinas de compuestos biológicos. Un baluarte en la aplicación y desarrollo de estos métodos lo encontramos en el Laboratorio Cavendish de Cambridge. En este laboratorio se concentraron recursos materiales y capital humano que forjó una comunidad con un nivel de primera línea. Trascendentales revelaciones sobre la estructura y la síntesis de valiosos productos naturales vieron la luz en este grupo.

En la década de los cincuenta, una contribución extraordinaria al campo del análisis estructural de las sustancias orgánicas fue realizada por el físico estadounidense Félix Bloch (1905 – 1983), premio Nóbel de Física en 1952, al desarrollar la Resonancia Magnética Nuclear. Pronto esta técnica se difundió por los laboratorios de investigación, contribuyendo de manera especial a este esfuerzo de expansión el también suizo Richard Ernst (1933 - ), premio Nóbel de Química en 1991, por el diseño y construcción de una nueva generación de equipos de alta resolución, y el desarrollo paralelo de la teoría para ampliar el alcance de su aplicación. Un nuevo salto se produciría durante la década de los ochenta cuando el químico suizo Kurt Wuthrich (1938- ), premio Nóbel de Química del 2002, desarrolló la idea sobre cómo extender la técnica de Resonancia Magnética Nuclear al estudio de las proteínas. En muchos aspectos el método de RMN complementa la cristalografía de rayos X, pero presenta la ventaja de estudiar la molécula gigante de la proteína en solución, es decir en un medio que se asemeja a cómo ella se encuentra y cómo funciona en el organismo viviente. Un ejemplo de la aplicación del método propuesto por Wuthrich para orientar las investigaciones clínicas la encontramos en el reciente estudio de las proteínas implicadas en un número de enfermedades peligrosas tales como “la enfermedad de las vacas locas”. Ahora la técnica de RMN puede también usarse para los estudios estructurales y dinámicos de otros biopolímeros tales como los ácidos nucleicos que dirigen el dominio de la información hereditaria.

En la década del 30, el físico e ingeniero electrónico alemán Ernst A. Ruska (1906 – 1988), premio Nóbel de Física en 1986, elaboró los principios de funcionamiento y diseñó el primer microscopio electrónico. Al comienzo del 45, cerca de 35 instituciones científicas fueron equipadas con este equipo. Los modernos microscopios electrónicos capaces de ampliar la imagen del objeto unos dos millones de veces se fundamentan en las propuestas técnicas de Ruska. Una nueva generación de microscopios fue propuesta hacia la década de los sesenta, cuando el físico suizo H. Rohrer (1933- ), quien compartió el premio Nóbel de Física en 1986 con Ruska, desarrollara la técnica de microscopía electrónica de barrido por efecto túnel en el laboratorio IBM de Zurich. Con esta técnica se detectan imágenes con resolución atómica.

Las posibilidades brindadas por la microscopía electrónica fueron aprovechadas para la obtención de imágenes tridimensionales de virus, proteínas y enzimas. En este propósito sobresale la obra de Aaron Klug (1926- ), biólogo molecular, lituano de nacimiento, surafricano por crianza, y británico según adopción, que mereció el Nóbel de Química en 1991.

La espectrometría de masas es en la actualidad una de las más potentes técnicas analíticas con que cuenta el químico. El inicio de su aplicación data del registro de los espectros de masas de moléculas sencillas de bajo peso molecular obtenidas por J.J. Thomson en 1912. Los primeros prototipos de espectrógrafos, siguiendo los mismos principios básicos de los empleados hoy día fueron principalmente desarrollados por Francis W. Aston (1877 – 1945), quien descubrió un gran número de isótopos (elementos con igual carga nuclear pero que difieren en los índices de masas) y fue laureado por estas aportaciones con el premio Nóbel de Química de 1922. El equipo para obtener tales espectros debía ser capaz de: a) producir iones gaseosos a partir de las moléculas a investigar; b) separar estos iones de acuerdo con la relación carga : masa; y c) medir la abundancia relativa de cada ión. En la década del cuarenta ya se habían fabricado espectrógrafos para analizar sustancias orgánicas de peso molecular medio; a finales de los cincuenta se demostró el papel de los grupos funcionales sobre la fragmentación directa ampliándose la capacidad de los equipos para determinar estructuras orgánicas; y ya hacia los setenta el perfeccionamiento de los equipos alcanzaba una sensibilidad que permitía trabajar con masas de muestras del orden de una millonésima de gramo.

Pero hasta esta altura la espectrometría de masas no servía para la determinación de estructuras de moléculas gigantes como lo son importantes biopolímeros. La primera etapa de la técnica exige el paso de las macromoléculas a la fase gaseosa lo cual implica la ocurrencia de indeseables transformaciones estructurales que empañaban los resultados. Dos investigadores en la década de los ochenta propusieron los procedimientos para burlar este obstáculo.

El estadounidense John B. Fenn (1917- ) propuso dispersar la proteína bajo estudio en un solvente y luego atomizar la muestra sometiéndolas a un campo eléctrico. Cómo el solvente se evapora las microgotas se convierten en moléculas de las proteínas totalmente desnudas. El método se conoce como ionización por electrodispersión (en inglés se emplean las siglas ESI, correspondientes a electrospray ionization).

La aplicación de la espectrometría de masa, sobre todo acoplada a la Cromatografía Gaseosa, técnica capaz de separar componentes de una muestra, se extiende en la actualidad al análisis de sustancias dopantes o drogas; el control de los alimentos; y los ensayos ultrarrápidos para determinar los niveles de contaminación ambiental.

También para el análisis surgen técnicas genéticas con la ADN polimerasa termoestable que se aisló por primera vez de T. aquaticus en 1976 en la caldera de Yellowstone donde Kary Mullis (1944- ) y otros investigadores descubren que esta enzima podría utilizarse en el proceso de reacción en cadena de la polimerasa (PCR) para amplificar segmentos cortos de ADN.

Una ojeada al desarrollo de la teoría del enlace químico editar

El descubrimiento de la estructura electrónica de los átomos, la descripción del modelo nuclear y de los estados estacionarios de los electrones en la envoltura atómica, y la formulación de una nueva ley periódica para las propiedades de los elementos químicos basada en la carga nuclear de los átomos, constituyeron premisas para penetrar en la naturaleza del enlace químico que esperaba por una coherente explicación desde mediados del siglo pasado.

En 1916 se publican los trabajos del físico alemán W. Kossel (1888 -1956) y del químico físico de la Universidad de California G. N. Lewis (1876 – 1946) que presentaron una notable resonancia en el tratamiento posterior de este problema.

Kossel desde la Universidad de Munich fue el primero en postular la posible transferencia electrónica desde un átomo electropositivo hacia otro electronegativo como mecanismo de formación del llamado enlace iónico, que supone su fortaleza por la fuerza electrostática desarrollada entre las especies cargadas con signo opuesto.

La idea de la posible existencia de dos tipos de compuestos con enlaces polares y apolares expuesta inicialmente por Lewis en el 1916, fue complementada en los años siguientes cuando formula la tesis de que el enlace en las sustancias moleculares es el resultado del compartimiento de un par de electrones por parte de los átomos unidos, que expresan tendencia a alcanzar la configuración electrónica del gas noble que le sucede en la Tabla Periódica de los elementos (la famosa regla del octeto para la última capa de la envoltura atómica).

Estos modelos, en sus aspectos cualitativos, llegan hasta nuestros días como un a primera visión acerca del enlace químico. Pero la necesaria profundización llegó a partir de 1927 cuando se introducen en el pensamiento químico las ideas de la mecánica cuántica.

En 1927, un año después de la publicación del artículo de Schrödinger en el cual fue propuesta la ecuación de onda que lleva su nombre, el físico alemán W. Heitler (1905 – 1981) y F. London (1900 – 1954) desarrollaron el cálculo mecánico cuántico de la molécula de dihidrógeno, que dio una explicación cuantitativa del enlace químico. En esencia el cálculo vino a demostrar que durante el acercamiento de dos átomos con electrones de spines opuestos ocurre un aumento de la densidad de la nube electrónica en el espacio entre los núcleos, que se acompaña con una disminución considerable de la energía del sistema. Surge el enlace con la formación así de un sistema más estable.

Comenzaría a desarrollarse un nuevo sistema de categorías para explicar las características del enlace químico. Algunos de los conceptos que emergen con un contenido cualitativamente distinto son los de orbital atómico y orbital molecular que ahora designan regiones que con determinada probabilidad se encuentra la nube de electrones; las nociones de energía de enlace para indicar su fortaleza, radio o distancia internuclear promedio para señalar las posiciones relativas de los núcleos, densidad electrónica relativa para denotar la existencia de los sitios activos responsables de la reactividad, y orden de enlace para advertir la multiplicidad que presentan los átomos al enlazarse.

Las representaciones de Heitler y London sobre el mecanismo de la formación del enlace sirvieron de base para la explicación y el cálculo por aproximación del enlace en moléculas más complejas. Estas representaciones fueron desarrolladas por el método de enlaces de valencia o de pares electrónicos introducidos por los estadounidenses J. Slater (1900 – 1975) y L. Pauling (1901 -1994). La formación del enlace es comprendido como la cobertura de las funciones de ondas de los electrones en juego. La orientación espacial que adoptan estos enlaces y que determinan la forma geométrica de la molécula, obedece a la máxima posibilidad de sobreposición de las funciones de ondas que participan en la formación del enlace. Sobre la base de estos principios desarrollan la productiva teoría de hibridación de los orbitales atómicos que explica la capacidad de combinación mostrada por los átomos y la geometría que exhiben las moléculas.

A pesar de la fertilidad mostrada por el método de los enlaces valentes, sus presupuestos fueron incapaces de dar explicación a determinados hechos experimentales como el paramagnetismo mostrado por el dioxígeno. Más fructífero para la explicación y el cálculo del enlace covalente resultó el método de orbitales moleculares elaborado en sus fundamentos por R. Millikan (1868 – 1953). Hay diversas variantes del método de orbitales moleculares. Mereció una especial atención la propuesta de E. Hückel ( (1896 - 1980) para las moléculas orgánicas, el llamado método de combinación lineal de los orbitales atómicos. Como resultado de la utilización de este método se formaron tres conceptos de gran significado en la química orgánica moderna, el orden de enlace, la densidad electrónica π y el índice de valencia libre.

El desarrollo de la capacidad predictiva de ambas teorías del enlace químico no sólo han sustentado las propiedades de los nuevos materiales sintéticos sino que han orientado el diseño de complicadas estructuras moleculares en el campo de los complejos metal-orgánicos y de los polímeros biológicos abriendo paso a la compresión de los mecanismos, al nivel molecular, de los procesos que definen la génesis hereditaria y la inmunidad biológica y abren paso a nuevas conquistas de las Ciencias en el campo de la Biología Molecular y la Ingeniería Genética.

La transmutación de los elementos: Radioactividad y fusión nuclear editar

El átomo indivisible había nacido en el ámbito químico mientras el mundo subatómico aparecía vinculado a la física contemporánea. De cualquier manera una enorme resonancia tendría sobre la Química el conocimiento de la estructura atómica. De hecho el trabajo conjunto de radioquímicos y físicos experimentadores condujo a relevantes descubrimientos sobre todo en el campo de la desintegración radiactiva.

El descubrimiento del electrón y la radioactividad fueron prácticamente coincidentes en el tiempo. La práctica demostraba la complejidad del átomo, por lo menos los electrones y las partículas alfa (emitidas por los radioelementos) entraban en la estructura atómica.

Casi desde estos primeros momentos comenzaron las tentativas por describir un modelo atómico. William Thomsom (Lord Kelvin) ya en 1902 concebía la carga positiva distribuida uniformemente por todo el átomo mientras los electrones en número que compensaba esta carga se encuentran en el interior de esta nube positiva. Un año más tarde, J.J Thomsom concibe a los electrones en movimiento dentro de la carga positiva distribuida en una esfera.

Luego de otros intentos para describir un modelo que explicara el espectro de rayas y de bandas y el fenómeno de la radioactividad, aparece en 1911 la publicación del físico neozelandés Ernest Rutherford (1872 – 1937) “La dispersión por parte de la materia, de las partículas alfa y beta, y la estructura del átomo” en la que propone el modelo nuclear del átomo. Según Rutherford la carga positiva y la masa del átomo se confinan en una porción muy reducida, 104 veces menor que las dimensiones del átomo, mientras los electrones quedan alojados en una envoltura extranuclear difusa. La carga positiva nuclear es igual a Ze, siendo e, la carga del electrón y Z aproximadamente la mitad del peso atómico.

Rutherford fue más allá y en diciembre de 1913 expone la hipótesis de que la carga nuclear es una constante fundamental que determina las propiedades químicas del átomo. Esta conjetura fue plenamente confirmada por su discípulo H. Moseley (1887 – 1915), quien demuestra experimentalmente la existencia en el átomo de una magnitud fundamental que se incrementa en una unidad al pasar al elemento siguiente en la Tabla Periódica. Esto puede explicarse si se admite que el número de orden del elemento en el sistema periódico, el número atómico, es igual a la carga nuclear.

Durante este primer período la atención de la mayor parte de la vanguardia de los físicos teóricos se concentraba en extender los razonamientos cuánticos iniciados por Planck; mientras, la construcción de un modelo para el núcleo atómico era un problema relativamente relegado y frente al cual se levantaban enormes obstáculos teóricos y prácticos.

Rutherford había sugerido desde sus primeras investigaciones que muy probablemente el núcleo estaría constituido por las partículas alfa emitidas durante la desintegración radioactiva. Ya para entonces el propio Rutherford había cuidadosamente comprobado que las partículas alfa correspondían a núcleos del Helio, es decir, partículas de carga +2 y masa 4. Otra línea de pensamiento conducía a suponer que los electrones (partículas beta) emitidos durante la desintegración radioactiva eran lanzados desde el mismo núcleo.

Frederick Soddy (1877 –1956), uno de los primeros y más sobresalientes radioquímicos, premio Nobel en 1921, al pretender ubicar el creciente número de productos de la desintegración radioactiva en la Tabla Periódica colocó los elementos que mostraban propiedades químicas idénticas en la misma posición aunque presentaran diferentes masas atómicas. Al hacerlo estaba ignorando la ley de Mendeleev y modificando el propio concepto de elemento químico. Ahora surgía una nueva categoría para los átomos, el concepto de isótopos (del griego iso: único, topo: lugar). Poco después, el descubrimiento de Moseley apoyaría su decisión, al demostrar que la propiedad fundamental determinante de las propiedades químicas y de la propia identidad de los átomos era la carga nuclear.

Con la Primera Guerra Mundial se levantaron obstáculos para el progreso de los estudios fundamentales recién iniciados, quedarían interrumpidos los intercambios científicos, detenidas las publicaciones, el campo de acción de las investigaciones desplazado a la práctica de la tecnología militar.

Pero en Berlín una pareja de investigadores, Lise Meitner (1879 – 1968) y Otto Hahn (1878 – 1968), una física y un químico, venían investigando sobre el aislamiento y la identificación de radioelementos y de productos de la desintegración radioactiva. Ante el alistamiento de Hahn en el ejército para llevar a cabo estudios vinculados con la naciente guerra química, Meitner continúa las investigaciones y descubre en 1918 el protactinio.

En 1919, Rutherford, que encabeza a partir de este año el laboratorio Cavendish en Cambridge, al estudiar el bombardeo con partículas alfa sobre átomos de nitrógeno, descubre la emisión de una nueva partícula, positiva, y evidentemente responsable de la carga nuclear del átomo. La existencia en el núcleo de partículas positivas y de los electrones emitidos como radiaciones beta, llevó a este relevante investigador a concebir una partícula que constituyese una formación neutral, un doblete comprendido como una unión estrecha de un protón y un electrón.

Durante más de 10 años Rutherford y su principal asistente James Chadwick (1891 – 1974) intentaron en vano demostrar experimentalmente la existencia del neutrón.

Las señales alentadoras vendrían de París, del laboratorio de los Joliot. Jean Frederick (1900 – 1958) e Irene Joliot- Curie (1897 – 1956) reportaron en 1932 que al bombardear con partículas alfa, provenientes de una fuente de polonio, átomos de berilio se producía una radiación de alto poder de penetración que ellos asociaron a rayos γ. Pero Chadwick no compartió este supuesto y procedió a verificar que estas partículas eran los escurridizos neutrones. Chadwick fue acreditado para la Historia como el descubridor de los neutrones.

La nueva oportunidad que se les presentó dos años más tarde a los Joliot fue esta vez convenientemente aprovechada. Ellos encontraron que al bombardear aluminio con partículas alfa, la emisión de positrones continuaba después de retirar la fuente de plutonio, y además el blanco continuaba emitiendo conforme a la ley exponencial de la descomposición de radionúclidos. Se había descubierto la radioactividad artificial.

Inmediatamente después del descubrimiento del neutrón, W.Heinseberg propone el modelo del núcleo del protón – neutrón. Conforme con este modelo los isótopos descubiertos por Soddy se distinguen sólo por el número de neutrones presentes en el núcleo. Este modelo se verificó minuciosamente y obtuvo una aprobación universal de la comunidad científica. Sin embargo numerosas interrogantes quedaban en pie, entre otras flotaba la pregunta: ¿de dónde proceden los electrones resultantes de la desintegración radiactiva?

Para responder a esta pregunta el eminente físico teórico suizo Wolfgang Pauli (1900 – 1978) supuso, en el propio 1932, que durante la desintegración beta junto con los electrones se emite otra partícula que acompaña la conversión del neutrón en un protón y un electrón y que porta la energía correspondiente al defecto de masa observado según la ecuación relativista de Einstein. Lo trascendente en la hipótesis de Pauli es que semejante partícula, necesaria para que el proceso obedeciera la ley de conservación y transformación de la energía, no presentaba carga ni masa en reposo.

Esta vez fueron 24 años, la espera necesaria para que la partícula postulada por Pauli y bautizada por Enrico Fermi (1901 - 1954) con el nombre de neutrino, fuera observada mediante experimentos indirectos conducidos de modo irrefutable por el físico norteamericano F. Reines (1918 - ). Con este descubrimiento se respaldaba la teoría desarrollada por Fermi sobre la desintegración beta y las llamadas fuerzas de interacción débil entre las partículas nucleares.

Pero antes de esta espectacular verificación de la teoría, aún en la memorable y triste década de los 30, el propio Fermi y su grupo de la Universidad de Roma, al juntar las nociones del neutrón y la radioactividad artificial, en el transcurso de unas semanas inició el camino hacia la fisión nuclear, considerando por el contrario que se dirigía hacia el descubrimiento de nuevos elementos más pesados.

En Berlín, un equipo de investigación compuesto por Otto Hahn, Fritz Strassmann y Lise Meitner, pretendió verificar los estudios del grupo de Roma e inició el bombardeo de átomos de uranio con neutrones, esperando poder descubrir nuevos elementos más pesados. En vez de esto, a finales de 1938, Hahn y Strassmann (la Meitner había sido clandestinamente sacada de Alemania ya que peligraba su integridad por su origen judío) descubren no un elemento más pesado como resultado del bombardeo nuclear del uranio sino un elemento más ligero, llamado bario. Sin poder darles una explicación, envían estos resultados inmediatamente a Meitner, entonces en Estocolmo, donde ella y su sobrino, el físico Otto Frisch (1904 – 1979), investigaron el misterio. Llegaron a la conclusión de que el núcleo del uranio, en vez de emitir una partícula o un pequeño grupo de partículas como se suponía, se rompía en dos fragmentes ligeros, cuyas masas, unidas, pesaban menos que el núcleo original del uranio. El defecto de masa, según la ecuación de Einstein, podía transformarse en energía.

Dos años después, en la Universidad de Berkeley, California, un grupo de jóvenes científicos demostraron que algunos átomos de uranio, en vez de dividirse, absorbían los neutrones y se convertían en las sustancias que había predicho Fermi. Los investigadores de Berkeley, Edwin McMillan (1907 – 1991) y P.H. Abelson (1940- ) realizaron experimentos en los que obtuvieron un elemento que poseía un protón más que el uranio, de modo que su número atómico era 93. Se le llamó neptunio, por el planeta Neptuno, más allá de Urano.

Luego un equipo dirigido por Glenn Seaborg (1912 – 1999), del propio Berkeley, descubrió que los átomos de neptunio se deterioraban y se convertían en un elemento cuyo número atómico era 94. Este elemento fue llamado plutonio por el planeta Plutón. El primer isótopo descubierto fue el plutonio 238. Un segundo isótopo, el plutonio 239, resultó ser tres veces más fisionable que el uranio 235 (el material que finalmente se utilizó en la bomba de Hiroshima). En teoría, 300 gramos podían generar una carga explosiva equivalente a 20.000 toneladas de TNT.

En octubre de 1942, un equipo de científicos dirigido por Fermi empezó a construir una pila atómica (uranio colocado entre ladrillos de grafito puro) bajo las gradas de un estadio en la Universidad de Chicago. La investigación formaba parte del proyecto Manhattan para la fabricación de la bomba atómica y pretendía demostrar que los neutrones liberados en la fisión de un átomo de uranio podían “disparar” un mecanismo en cadena que generaría una enorme cantidad de energía.

Nueve años después de creada la pila atómica de Fermi, y a seis años del holocausto de Hiroshima y Nagasaki, científicos estadounidenses emplearon por primera vez la tecnología nuclear para generar electricidad. En 1951, bajo la supervisión de la Comisión de Energía Atómica se iniciaron las pruebas del funcionamiento de un reactor nuclear experimental instalado en una central eléctrica construida por los Laboratorios Nacionales Argonne en Idaho. El reactor experimental produjo energía suficiente para poner en funcionamiento su propio sistema de puesta en marcha; como llegaría a ser común en todas las plantas de energía atómica, el calor del núcleo haría hervir agua y el vapor impulsaría una turbina.

En 1954, los soviéticos abrieron la primera planta nuclear civil. Dos años después, los británicos inauguraron la segunda planta industrial.

Pronto empezaron a funcionar centrales nucleares en todo el mundo pero las predicciones de un futuro impulsado por energía atómica resultaron poco realistas. Las centrales nucleares, caras de construir y de mantener, también resultan peligrosas por los residuos radiactivos y la posibilidad de accidentes catastróficos. Contrario al supuesto de los especialistas sobre la confiabilidad de los sistemas de seguridad de las Plantas Nucleares, varios accidentes ha conocido la humanidad a causa del error humano. La catástrofe de Chernobil, en Ucrania, conmocionó por su devastador impacto a toda la humanidad.

A partir de ahora uno de los grandes retos de la civilización contemporánea será emplear racionalmente y orientar sobre una base ética las conquistas de las nuevas Ciencias que se refunden e integran en medio de una revolución informática y de la Ingeniería Genética. ¿Seremos capaces de lograrlo? Tal vez una comprensión de la Historia, contribuya a proyectar correctamente el rumbo de nuestra nave planetaria hacia el futuro.

Ver también editar