Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

diciembre 28, 2016

El hombre que erradicó la viruela

Donald A. Henderson, a la izquierda, con parte del equipo de erradicación de la viruela: el Dr. J. Donald Millar,
el Dr. John J. Witte y el Dr. Leo Morris, en 1966. (Foto DP del CDC/ Dr. John J. Witte)

La erradicación de la viruela, proclamada en 1980, es uno de los más grandes logros de la medicina, de las políticas y técnicas de vacunación y prevención, salvando cientos de millones de vidas, si consideramos que antes de que se emprendiera el esfuerzo por acabar con ella, infectaba a más de 50 millones de personas al año, más que toda la población de España. Sólo entre 1901 y 1980, la viruela ocasionó 300 millones de muertes... mientras que en todos los conflictos armados del siglo pasado murió una tercera parte de esa cifra: 100 millones de seres humanos.

La viruela había sido parte de la experiencia humana al menos desde hace tres mil años, y su combate había sido totalmente ineficaz hasta que, en el siglo XVIII, el británico Edward Jenner creó la primera vacunación contra el virus. Pero el hombre que hizo de la viruela sólo un recuerdo fue Donald Ainslie “D.A.” Henderson, un epidemiólogo nacido en Cleveland en 1928, de orígenes escoceses.

En 1947, un joven Henderson fue testigo de un brote de poliomielitis en Nueva York que obligó a la vacunación de millones de personas. La epidemiología se convirtió en un interés del joven estudiante que, después de graduarse primero en química y luego en medicina, entró a trabajar en los Centros para el Control y la Prevención de las Enfermedades (CDC) del Departamento de Salud de los EE.UU.

Por esos años, la Organización Mundial de la Salud, creada en 1948, empezaba a plantearse erradicar la viruela, tarea que muchos consideraban imposible. Por contra, el epidemiólologo Viktor Zhdanov, viceministro de salud de la antigua Unión Soviética, afirmó una y otra vez que el objetivo era alcanzable mediante una campaña intensiva de vacunación durante 4 años en los países más afectados.

Finalmente, en 1966, la Asamblea Mundial de la Salud votó por emprender un programa de erradicación promovido por los Estados Unidos. Sin embargo, el propio director de la OMS estaba en contra de la idea, y por tanto exigió que el proyecto fuera encabezado por un estadounidense, de modo que su país pagara las consecuencias cuando fracasara. El designado fue Henderson, que por entonces ya trabajaba en África occidental y central en proyectos contra la viruela, a la que consideraba “la enfermedad más odiosa”. Su labor: acabar con ella en África, América del Sur y Asia.

Aunque la vacunación era parte fundamental del programa, contaba Henderson 20 años después, su proyecto planteaba que lo importante era reportar los casos y brotes de viruela para atacar el contagio selectivamente y evitar que la enfermedad se extendiera de modo epidémico. Con ese objetivo en mente, su primer trabajo fue desarrollar un manual sobre vigilancia y contención de los casos de viruela para todos los países del mundo.

Con sólo nueve empleados en su cuartel general de Ginebra, Suiza, y 150 operativos de campo a nivel mundial, Henderson abordó la parte administrativa, menos relumbrante y atractiva: convencer a los gobiernos de docenas de países para que apoyaran el programa, promover la creación o mejora de laboratorios de producción de vacunas, desarrollar programas y materiales de formación... y todo sin teléfonos, sin correo electrónico, dependiendo del servicio postal y el telégrafo y de los viajes continuos de Henderson para reunirse con gobiernos o para visitar a sus equipos de campo.

Hasta ese momento, los países no se interesaban en reportar los casos que ocurrían, una información que permitiría determinar la forma en que se transmitía la viruela y valorar los esfuerzos de vacunación. La vacuna de la viruela tiene la capacidad de proteger a una persona si se aplica hasta cuatro días después de que dicha persona haya estado expuesta al virus, de la misma manera en que la vacuna contra la rabia es efectiva aún después de que se ha dado la infección. Así, al determinar la presencia de un caso en una comunidad determinada, los médicos podían aislar al paciente y vacunar a quienes podrían haber sido contagiada, creando un verdadero dique de contención a la diseminación de la enfermedad.

Henderson recordaba que el doctor William Foage llegó a Nigeria oriental en diciembre de 1966 y empezó a trabajar en los brotes reportados. Para junio de 1967, prácticamente habían dejado de presentarse casos. Para ello, Foage y su equipo sólo habían tenido que vacunar a 750.000 de las 12 millones de personas que vivían en la zona. Y en Tamil Nadu, en la India, con una población de 50 millones de personas, la estrategia de vigilancia y contención permitió detener la transmisión de la viruela en sólo cinco meses.

La enfermedad fue erradicada de Suramérica en 1971, en Asia en 1975 y, por último, en África en 1977. Los casos que se siguieron dando, como un brote en la antigua Yugoslavia en 1972 que afectó a 170 personas, fueron cada vez más aislados y, por tanto, también era más sencillo hacer un esfuerzo amplio por controlarlos. En el caso yugoslavo, el gobierno vacunó a 18 de los 20 millones de habitantes de la nación.

El último caso de contagio natural de viruela con el más agresivo de los virus que la provocan, variola major, se reportó el 16 de octubre de 1975, en una niña de dos años en Bangladesh. El último caso de variola minor, el más benigno, lo sufrió en 1977 el trabajador de la salud de 23 años Ali Maow Maalin, quien dedicaría el resto de su vida a la vacunación en su natal Somalia. Ambos sobrevivieron.

En 1977, D.A. Henderson dejó el programa, terminada su labor, aunque la vigilancia siguió hasta 1979, después de lo cual la Asamblea Mundial de la Salud declaró la viruela erradicada el 8 de mayo de 1980. El médico siguió su carrera en la Escuela de Salud Pública Johns Hopkins, en diversos puestos como asesor médico y científico de varios presidentes de los Estados Unidos y fundando un centro para el estudio de estrategias de defensa contra el bioterrorismo, que sería su última preocupación. Murió el 19 de agosto de 2016.

Su trabajo, la primera erradicación total de una enfermedad aterradora, tiene eco hoy en el programa mundial de erradicación de la poliomielitis, que hoy se limita a unas pocas zonas disputadas al norte de la India, en Sudán del Sur y en el Sáhara occidental. Su desaparición total será un homenaje justo a un hombre que supo convertir la mejor ciencia médica, la estadística y la política en vidas salvadas.

Homenajes y premios

Pese a su casi anonimato público, D.A. Henderson recibió 14 importantes reconocimientos internacionales, entre ellos la Medalla del Bienestar Público de la Academia Nacional de Ciencias y la Medalla Presidencial de la Libertad de los EE.UU., el Premio Internacional de Medicina Albert Schweitzer, la Medalla Edward Jenner de la Real Sociedad de Medicina del R.U., además de haber recibido 17 doctorados honorarios de universidades de todo el mundo.

(Publicado el 5 de noviembre de 2016)

diciembre 19, 2016

Pierre Charles Alexandre Louis, la evidencia en medicina

Pierre Charles Alexandre Louis. Foto DP de Eugène Joseph Woillez

En 1828, un médico parisino puso en jaque una idea que se apoyaba en la más antigua y sólida práctica de la medicina y ayudó así a fundar la medicina basada en evidencias y la epidemiología moderna.

El médico era Pierre Charles Alexandre Louis, de 41 años de edad, del hospital La Charité. La idea era del respetado François Joseph Victor Broussais, que decía que todas las fiebres tenían la misma causa, la inflamación de los órganos, y disponía que se trataran con una sangría en la piel más cercana al órgano afectado, utilizando lancetas para perforar vasos sanguíneos , ventosas o, sobre todo, sanguijuelas.

Por entonces se pensaba que las “fiebres” no eran un síntoma, sino la enfermedad en sí. De allí que se hablara –y aún se hable- de fiebre amarilla, puerperal, etc. Era una época anterior a que Louis Pasteur y Robert Koch desarrollaran la teoría de los gérmenes patógenos que por primera vez daría una explicación científica de muchas enfermedades. Los médicos literalmente sabían muy poco, e intentaban usar la tradición, la experiencia y la especulación para darle respuestas a sus pacientes.

La antigua práctica de la medicina era la teoría hipocrática de que el cuerpo humano constaba de cuatro “humores” o líquidos (bilis amarilla, bilis negra, flema y sangre) y que la enfermedad se producía cuando había un desequilibrio entre ellos por exceso de sangre. La práctica había sido un estándar del tratamiento médico desde la antigua Grecia y nunca había sido desafiada ni siquiera ante el evidente hecho de que no era eficaz. Todas las autoridades médicas lo aceptaban, y no se discutía.

Las sangrías podían ser brutales, exigiendo a veces que se extrajeran volúmenes tales de sangre que literalmente podían matar al paciente y que hicieron enorme daño.

¿Cómo someter a prueba la propuesta de Broussais? La práctica de las sangrías era tan común que, según cuenta el médico e historiador Alfredo Morabia, sólo en 1833 Francia importó más de 42 millones de sanguijuelas para ellas. Pierre Charles Alexandre Louis dudaba de Broussais y creía tener la respuesta: había que contar... contar a los pacientes, sus circunstancias, los tratamientos que recibían, y aplicar la estadística para desentrañar la eficacia de los tratamientos.

Lo llamó el “método numérico”, que le permitía estudiar con una profundidad sin precedentes la distribución de la enfermedad en una población y los determinantes y hechos que la afectaban, lo que hoy se conoce como “epidemiología” y que va más allá de las epidemias en sí. Toda enfermedad se valora epidemiológicamente cuando se analiza en términos de la población a la que afecta.

Lo que publicó en 1828 fue un artículo llamado “Investigación sobre los efectos de la sangría en algunas enfermedades inflamatorias”, donde daba los resultados de su aproximación. A lo largo de su labor en el hospital parisino de La Charité, había reunido numerosos casos clínicos. De entre ellos, seleccionó a 77 que no sólo tenían pneumonía, sino que tenían la misma forma de pneumonía, todos habían tenido una salud perfecta al momento de que se presentara la enfermedad y eran similares en otros aspectos. Los dividió en dos grupos, los que habían sido sangrados los primeros días de la enfermedad y los que habían sido sangrados tardíamente y descubrió que el primer grupo había sufrido un 44% de muertes mientras que el segundo sólo había sufrido un 25%, lo cual era sorprendente. Concluyó así que, teniendo en cuenta la mortalidad y la duración de la enfermedad, las sangrías de Broussais tenían poca utilidad.

Hoy diríamos que la muestra con la que trabajó Pierre Charles en este primer estudio era demasiado reducida y que no había hecho un esfuerzo por evitar que el azar jugara un papel relevante en sus resultados. Pero todo esto la medicina aprendió a hacerlo después de que Pierre Charles marcara el camino. Él mismo pensaba que necesitaba muestras mayores. “Supongamos”, escribió dando una idea de las poblaciones con las que debería trabajar, “que 500 de los enfermos, tomados de la misma manera, son sometidos a un tipo de tratamiento y otros 500, tomados de la misma manera, son tratados de un modo diferente. Si la mortalidad es mayor entre el primer grupo que entre el segundo, ¿no debemos concluir que el tratamiento era menos apropiado o menos efectivo en la primera categoría que en la segunda?”

Del mismo modo, Pierre Charles subrayó, en sus escritos, la necesidad de que se diera cuenta de factores tales como la edad, dieta, gravedad de la enfermedad y otros tratamientos, de modo que la comparación realmente consiguiera aislar la influencia de la variable que estudiaba.

Su trabajo, que enfatizaba la importancia de la observación y del tratamiento matemático de los casos que estudiaba, sería parte de la revolución que la medicina experimentó a mediados del siglo XIX, adoptando los métodos científicos también de otras formas, como los estudios fisiológicos experimentales y el trabajo de laboratorio.

No era extraño que Pierre Charles Alexandre Louis, nacido en 1787 participara en una revolución cuando él mismo era un verdadero producto de la Revolución Francesa que estalló cuando él tenía dos años. Hijo de un comerciante en vinos de clase baja, sólo pudo acceder a la universidad y a la posibilidad de estudiar medicina nada menos que en París debido a las nuevas ideas que planteaban que el conocimiento no era sólo para la aristocracia. Después de recibir su título en 1813, practicó la medicina en Rusia antes de volver a París y desarrollar sus estudios e ideas.

La revolución dependió, sobre todo, de los alumnos de Pierre Charles, que fundaron la Sociedad para la Observación Médica en París y desarrollaron sus ideas. Fueron esos alumnos los que introdujeron conceptos clave como la “inmunidad de manada” que explica el funcionamiento de las vacunas, la tasa de mortalidad y otros que hoy son parte esencial de los estudios clínicos con los que se evalúan medicamentos, técnicas y procedimientos para desarrollar la medicina basada en evidencias... la medicina que no depende de la especulación sino de los datos de la ciencia, y que ya no necesita millones de sanguijuelas como parte de la terapia.

Gaspar Casal, el pionero español

La aproximación científica a la medicina comienza en España con Gaspar Casal, nacido en Gerona en 1680 y que trabajó en Asturias durante 34 años, período en el cual describió la pelagra o “mal de la rosa”, provocada por la deficiencia de vitamina B6. Casal se adscribió a la revolución científica, usando la observación y la teorización racional en lugar de la medicina de autoridad. Con esas bases, correlacionó la pelagra con la dieta de quienes la padecían, aproximación que, con el tiempo, demostraría ser la correcta.

(Publicado el 3/9/16)

septiembre 10, 2016

Anatomía de los terremotos

Determinación preliminar de epicentros de 358.214 terremotos, 1963 - 1998.
(Imagen DP de la NASA vía Wikimedia Commons) 
Los desastres naturales son capaces de desplegar fuerzas que empequeñecen la capacidad humana de generar potencia. Un terremoto de magnitud 7 en la antigua escala de Richter libera energía equivalente a 617.000 bombas como la que estalló en Hiroshima el 6 de agosto de 1945. El arma nuclear más poderosa que se ha creado, la Tsar Bomba de la Unión Soviética, era como 3.300 bombas de Hiroshima. El terremoto mencionado es 200 veces más poderoso.

Un terremoto es cualquier movimiento súbito de la corteza terrestre, generalmente causado por un deslizamiento en una falla geológica. Puede haber sacudidas debido a otros factores, como un deslizamiento de tierra o el hundimiento de una galería de una mina, pero no se suelen llamar terremotos.

La corteza de nuestro planeta no es de una pieza. Está formada por 12 placas, como un puzzle, que flotan sobre el manto terrestre de roca suave fundida y que se subdividen en docenas de placas menores. Al moverse, ejercen presión una contra otra en las fallas geológicas, y cuando esta presión cede y una de ellas se mueve súbitamente, se produce esta liberación de energía.

Así, los terremotos que ocasionalmente se producen en Italia, Grecia y el sur de España se deben a que la placa africana y la placa euroasiática están en contacto precisamente en esa zona, desde la mitad del Atlántico, cruzando el estrecho de Gibraltar, a lo largo del Mediterráneo hasta la península Arábiga, donde ambas placas se ven separadas por la árabe.

La energía se puede liberar muy cerca de la superficie terrestre o a una profundidad de cientos de kilómetros. El punto donde esto ocurre se llama el “foco” del terremoto, mientras que el “epicentro”, que quiere decir “sobre el centro” es el punto de la superficie terrestre que está encima de ese foco. Es decir, cuando las noticias nos dicen que el epicentro está en tal punto geográfico no sabemos a qué profundidad ha ocurrido la liberación de energía, lo que es importante porque los terremotos más destructivos suelen ocurrir a poca profundidad.

La superficie terrestre no es tan firme como parece, es elástica, como lo vemos en los pliegues que forman las grandes cordilleras, dobleces en la roca provocados por la presión de una placa contra otra. Así se han creado, por ejemplo, los Himalayas, a lo largo de 50 millones de años de choque entre la placa índica y la euroasiática. Esa elasticidad de la roca es la que transmite las ondas producidas en el foco de un terremoto y que se mueven como lo hace cualquier sonido o cualquier vibración que se transmite a lo largo de un sólido. Los terremotos producen tres tipos de ondas que los sismólogos pueden diferenciar claramente.

Primero, se producen las llamadas “ondas primarias”, de compresión o longitudinales, que se abrevian como “ondas P”. Estas son ondas de compresión y expansión, similares a las del sonido y son las primeras que registran las estaciones sismológicas. Estas ondas se pueden propagar por medios sólidos, líquidos o gaseosos. A continuación se producen las “ondas S”, secundarias, transversales o de cizalla, y que se transmiten de modo perpendicular. Estas ondas son como las que se producen cuando los niños extienden una cuerda de salto en el suelo y sacuden súbitamente un extremo, de modo que podemos ver la onda recorriendo la cuerda hasta el otro extremo. No se transmiten por medios líquidos.

Estos dos tipos de ondas se extienden en todas direcciones desde el foco del terremoto, es decir, por todo el cuerpo de la tierra. No ocurre así con las ondas superficiales que, precisamente, se transmiten sólo en las capas superiores de la tierra. Se trata de las ondas Rayleigh y Love, que son como las ondas que vemos cuando lanzamos un objeto en un cuerpo de agua tranquilo o las olas del mar. Son las que provocan los daños de los terremotos en construcciones y bienes... y en última instancia en vidas.

Solemos identificar los daños causados por los terremotos principalmente en cuanto a edificaciones que se vienen abajo al no estar construidas con especificaciones adecuadas para resistir un movimiento sísmico. En palabras de un ingeniero que analizó los efectos del terremoto de 1985 de la Ciudad de México “Los terremotos no matan gente... los edificios mal construidos matan gente”.

Esto es cierto sólo hasta un punto determinado. Los terremotos pueden ocasionar mortales deslizamientos de tierra y barro, o avalanchas, dañar tuberías eléctricas, de gas y drenajes que pueden ocasionar incendios y un fenómeno llamado “licuefacción de la tierra”, donde el movimiento hace que el suelo pierda estabilidad y se convierta en un fluido similar a las míticas arenas movedizas que puede tragarse edificaciones enteras.

Si el epicentro ocurre en el océano o cerca de la costa, puede además provocar una serie de olas de intensidad y altura desusadas, los tsunamis, cuyos efectos conocimos claramente en 2004 cuando una serie de tsunamis producto de un terremoto en el Océano Índico (uno de los más potentes terremotos jamás registrados) ocasionaron más de 230.000 muertes en 14 países alrededor del epicentro, con olas de hasta 10 metros de altura.

Los terremotos, siendo fenómenos indeseables y destructivos, permiten sin embargo a los geólogos aprender sobre el interior de nuestro planeta, del que sabemos tan poco. Analizando las distintas ondas sísmicas y midiendo su velocidad de propagación al registrarlas con sismógrafos situados en diferentes puntos del planeta, han podido saber más acerca de la composición de nuestro mundo, de las capas que lo componen, de su espesor y de otros factores. Las ondas sísmicas, como las del sonido, pueden además reflejarse contra obstáculos menos elásticos, interferirse, refractarse o difractarse, generando ondas más complejas que pueden incluso incrementar o disminuir la capacidad destructiva de un sismo y darle a los geólogos valiosa información.

Cada año ocurren en todo el mundo alrededor de 1.500 terremotos de magnitud de 5 grados o mayor. Entenderlos, prevenir sus daños y conocerlos no sólo es una labor científica importante... es la base que nos permite tener reglamentos de construcción y otras normativas basadas en el conocimiento que pueden salvar vidas.

Predecir los terremotos

Es imposible saber con certeza cuándo una falla o un volcán van a liberar energía provocando un terremoto. Sin embargo, hay sistemas de advertencia previa, alarmas que registran la aparición de un terremoto en su epicentro y que pueden advertir a la gente. Las ondas superficiales de un terremoto viajan a enre 1 y 6 kilómetros por segundo, dependiendo de la composición del terreno, temperatura y otras condiciones. Así, una ciudad ubicada a 300 kilómetros del epicentro puede ser advertida varios minutos antes de que “viene” un terremoto o un tsunami para que la población se ponga a salvo.

junio 11, 2016

Vavílov, pionero y mártir de la biotecnología

Nikolai Vavílov

El científico mártir por excelencia es Galileo Galilei, con sus pesados nueve años de prisión domiciliaria hasta su muerte en 1642. Su suerte, sin embargo, se puede considerar benévola si se le compara con la de uno de los pioneros de la genética vegetal, el ruso Nikolai Vavílov.

Vavílov fue el originador del concepto del “centro de origen” de los cultivos. Su hipótesis, posteriormente comprobada, era que se podía identificar la zona donde había comenzado la domesticación de cada uno de los cultivos que utilizan los seres humanos, que no se trataba de un fenómeno que había ocurrido al azar o en distintos puntos. Saber dónde comenzó la domesticación de una planta nos dice dónde encontrar a sus parientes silvestres, fuentes de hibridación que permitan mejorar las características de los cultivos.

Los científicos agrícolas llaman a estos centros, precisamente, “Centros de Vavílov” en memoria del científico. Actualmente se considera que en el mundo hay 12 de ellos.

Genetista y revolucionario

Nikolai Ivánovich Vavílov nació el 25 de noviembre de 1887, el mayor de cuatro de una familia de comerciantes. Ni él ni su otro hermano varón seguirían el negocio del padre. Sergei, el menor, se convertiría en un importante físico, mientras que Nikolai se vio atraído por la botánica y la agricultura, y se inscribió en el Instituto Agrícola de Moscú, del que se graduó en 1910.

Vavílov se propuso su “misión por la humanidad”: usar la genética para mejorar los cultivos y alimentar a todo el mundo con “superplantas” resistentes a heladas, sequías y plagas. Su tesis fue sobre la protección de las plantas contra las plagas y luego definió su programa para hacer realidad su sueño alimentario, presentado en su artículo “Genética y agronomía” de 1912.

En los años siguientes, Vavílov recorrió laboratorios de Gran Bretaña, Francia y Alemania para después establecerse como profesor e investigador en el Instituto Agrícola Saratov. Cuando muchos de sus colegas huían de la guerra y la revolución comunista, Vavílov se quedó y los conminó a quedarse para cumplir su tarea científica en un país con graves carencias alimenticias.

En 1920 alcanzó uno de sus máximos logros científicos, al enunciar la Ley de las Series Homólogas de Variación, que en resumen dice que si ordenamos en una tabla las variaciones que sabemos que existen en una especie, tales variaciones también aparecerán en cualquier otra especie genéticamente próxima. El potencial de mutación en genes similares entre dos especies es, entonces, el mismo.

Además de pertencer a los principales institutos de investigación agronómica y dirigir un importante instituto en Leningrado, además de presidir la Academia de Ciencias Agrícolas Lenin, Vavílov llegó a ser miembro extranjero de la Royal Society de Londres.

Durante toda su carrera dedicó tiempo a recorrer el mundo reuniendo muestras de los diversos cultivos: Persia, Asia Central, Estados Unidos, Oriente Medio, Afganistán, Norte de África, Etiopía, China, Centro y Suramérica y Europa, incluida España, que recorrió durante meses en 1927. Formó así el que sería en su momento el mayor banco de semillas o germoplasma (recurso genético viviente), ubicado en Leningrado (San Petersburgo) y alcanzó reconocimiento como uno de los genetistas más importantes de su tiempo.

Sin imaginar que de alguna forma estaba sellando su suerte, Vavílov apoyó a un joven agrónomo llamado Trofim Lysenko, que buscaba también mejorar los cultivos soviéticos, pero con otros métodos y, desgraciadamente, con otras bases teóricas. Lysenko defendía una evolución lamarckiana y llegó a teorizar que las ideas de Mendel y Darwin eran “burguesas” y contrarrevolucionarias, y por tanto no eran “ciencia verdadera”. A cambio, elaboró una hipótesis fantasiosa según la cual podía alimentar a toda la URSS fácilmente e incluso lograr milagros como convertir semillas de trigo en semillas de cebada. Entre sus afirmaciones estaba que no era necesario mejorar los cultivos soviéticos con semillas traídas de otros países como hacía Vavílov, ya que la semilla soviética era naturalmente superior. Demagogia agradable a oídos de los poderosos.

Lysenko era de origen campesino, de modo que ideológicamente resultaba más atractivo para el poder que el burgués Vavílov. A la amistad original seguiría la confrontación ideológica, donde Lysenko alcanzó el favor incondicional de Stalin, el férreo gobernante de la URSS. Poco a poco, con acusaciones delirantes y sin bases, pero con la anuencia de los tribunales, Lysenko fue echando de sus puestos académicos a todos los genetistas darwinianos, y consiguiendo que algunos fueran encarcelados o fusilados.

En 1940, tocó el turno a Nikolai Vavílov, detenido durante una de sus expediciones a Ucrania y sometido a juicio como instigador de una presunta contrarrevolución, saboteador de los trabajadores e incluso espía para Inglaterra. En julio de 1941, apenas un mes después de que la Alemania Nazi atacara a la URSS comenzando un enfrentamiento que duraría cuatro largos y penosos años, el científico fue condenado a muerte y a la confiscación de todos sus bienes. Un año después, la pena se conmutó por 20 años de trabajos forzados y Vavílov fue enviado al campo de trabajo de Saratov, donde, tratando de seguir su trabajo, daba conferencias de ciencia a otros presos y redactó una Historia de la agricultura mundial que permanece inédita. No resistió. La escasez provocada por la guerra y la brutalidad de su castigo lo llevaron rápidamente a morir de hambre, paradoja especialmente dolorosa para quien había soñado en alimentar a todos los hambrientos. Era el 26 de enero de 1943.

La figura de Vavílov, junto a la de otros genetistas, no fue rehabilitada sino hasta 1960, como parte del proceso de “desestalinización” que buscaba reparar el daño de la dictadura del brutal georgiano.

Hoy, reconocido como uno de los grandes de la ciencia agronómica, su banco de semillas, enriquecido hasta las 375.000 especies, se encuentra y estudia en el Instituto Vavílov de San Petersburgo. El cráter Vavílov en el lado oculto de la Luna lleva ese nombre por él y por su hermano Sergey. Su trabajo y sacrificio son reconocidos por todos los genetistas del mundo.

Los héroes del banco de semillas

Los científicos del Instituto Vavílov protegieron con sus vidas, literalmente, la colección del genetista en Leningrado. Se encerraron con las miles y miles de muestras de semillas, frutas, raíces y plantas que había reunidas allí y las guardaron, negándose a alimentarse de ellas durante los 28 meses que la ciudad estuvo sitiada por los nazis. Al terminar el sitio, nueve de ellos habían muerto de hambre sin tocar el tesoro genético. Su historia está contada en la novela Hambre, de la escritora Elise Blackwell.

abril 02, 2016

Margaret Hamilton y las mujeres del Apolo

Margaret Hamilton (Imagen DP vía Wikimedia Commons)
La fotografía muestra a una joven con un aspecto inconfundible de fines de los años 60 sonriendo de pie junto a una torre de hojas de papel que mide lo mismo que ella.

Sin el pie de foto, se podría interpretar de muchas maneras sin dar con la explicación: la imagen del 1º de enero de 1969 nos muestra a la Directora de la División de Ingeniería de Software del Laboratorio de Instrumentación del MIT, Margaret Hamilton, por entonces de 32 años de edad, y la torre de papel es la impresión del código fuente del Ordenador Guía del Apolo, el software que unos meses después sería utilizado para navegar y aterrizar en la Luna y cuyo desarrollo había dirigido por encargo de la NASA.

En aquellos años no existía, sin embargo, el puesto o carrera profesional de “programador de software”, de “ingeniero de software”, ni de “informático”. De hecho, el término mismo de “ingeniería de software” fue popularizado por la propia Hamilton. El software no se había probado nunca en condiciones reales: era tan pionero como los astronautas que pisarían la Luna, y hecho por pioneros que no sólo pisaban territorio desconocido, iban creando el territorio conforme avanzaban y respondían a preguntas sobre cómo conseguir que un programa tomara decisiones difíciles.

Nacida el 17 de agosto de 1936, Margaret Heafield (“Hamilton” es su nombre de casada) descubrió muy tempranamente su pasión por las matemáticas, que la llevó a obtener su licenciatura en la disciplina en 1958, antes de mudarse a Boston con el plan de estudiar matemáticas abstractas en la Universidad de Brandeis. Entretanto, en 1960 aceptó un empleo interino en el legendario Instituto de Tecnología de Massachusets, MIT, desarrollando software destinado a la predicción meteorológica para Edward Norton Lorenz, meteorólogo, matemático y pionero de la teoría del caos, conocido por haber acuñado el muy malinterpretado concepto del “efecto mariposa”.

¿Cómo se aprendía a programar si no lo enseñaban en la escuela? Haciéndolo, equivocándose y trabajando como aprendiz con quienes ya habían avanzado en la disciplina. Y la programación resultó ser un espacio ideal para llevar a la práctica el talento y conocimientos matemáticos de Hamilton, que se dedicó de lleno a la nueva disciplina. En 1961 pasó al proyecto de vigilancia de misiles o aviones enemigos que entraran en el espacio aéreo estadounidense y dos años después volvió al MIT, al Laboratorio Charles Stark Draper, donde se empezaba a crear el software para ir a la Luna. Entonces el proyecto sólo existía en el papel y no despegaría (literalmente) sino hasta 1967.

En 1965, Hamilton se hizo cargo del departamento y el proyecto. Su objetivo, algo que al principio ni siquiera se había contemplado en los presupuestos de la NASA, era el programa con el cual el ordenador a bordo de las Apolo calcularía trayectorias, posiciones, velocidades y, en última instancia, tomaría decisiones en colaboración con los astronautas.

La prueba de fuego de su trabajo, inesperadamente, vendría minutos antes del aterrizaje del módulo de descenso de la Apolo 11 en la Luna. Debido a un error, un radar empezó a mandar señales equivocadas, sobrecargando al ordenador y quitándole 15% de su tiempo, que debía centrarse en realizar sus funciones de aterrizaje. El diseño del software del equipo de Hamilton incluía programas de recuperación que le permitían desechar tareas de baja prioridad y reestablecer las más importantes. El programa reconoció y resolvió el problema, evitando el riesgo de un descenso manual.

Hamilton procedería, después de unos años más en el programa espacial, a fundar su propia empresa de software, que encabeza actualmente, desarrollando el Lenguaje Universal de Sistemas que creó para el programa Apolo, una forma de programación basada en la teoría de sistemas y en la idea de prevenir los problemas más que en resolverlos cuando se presenten.

Pese a ser la más relevante por su posición y el evidente éxito de su trabajo al conseguir un descenso lunar con seguridad, Margaret Hamilton es sólo una de las muchas científicas del programa Apolo. Si ella consiguió que el módulo Águila se posara en el Mar de la Tranquilidad, por ejemplo, fue Dorothy Lee quien garantizó que el módulo de comando de la misión regresara con seguridad a tierra. Lee fue una de las primeras especialistas en aerotermodinámica, la disciplina que estudia cómo la fricción del aire genera o disipa calor, y por tanto la responsable de los escudos de calor que resistieron el reingreso a la atmósfera terrestre a una velocidad de 11.000 metros por segundo. Después, sería la responsable del diseño de las piezas cerámicas que protegieron todas las misiones del transbordador espacial.

Está también Barbara “Bobbie” Johnson, la primera mujer graduada de ingeniería general en la Universidad de Illinois. Su primer trabajo fue como parte del equipo que hizo la propuesta para obtener el contrato para el proyecto Apolo. Después se hizo cargo del diseño y evaluación de los sistemas de monitorización del reingreso a la atmósfera de las Apolo y, en 1968, se le hizo responsable de la división de Requisitos y Evaluaciones de las Misiones Apolo, al frente de un equipo de más de 100 ingenieros. O Judith Love Cohen, la ingeniera eléctrica de Space Technology Laboratories que trabajó en el sistema alternativo de guía, el respaldo en caso de que los ordenadores principales fallaran. O Ann Dickson, la joven lectora de ciencia ficción que soñaba con ser astronauta, que trabajó en diversos equipos de control en la empresa que administró la misión y no fue admitida como candidata a astronauta por no tener 600 horas de vuelo acumuladas como piloto.

Frances "Poppy" Northcutt, matemática de apenas 25 años al momento de la llegada a la Luna, se hizo conocida por ser la única mujer en la sala de control de la misión del Apolo 11. Larue W. Burbank se ocupó del diseño de los sistemas de visualización en tiempo real que utilizaron los astronautas y Catherine T. Osgood, que analizó y preparó el reencuentro entre el módulo lunar y el módulo de comando que quedaba en órbita alrededor de la Luna... La lista es, sin duda alguna, más larga de lo que se podría imaginar.

Las computadoras

Las antecesoras de Margaret Hamilton fueron las matemáticas que mayoritariamente se ocuparon en la Segunda Guerra Mundial de cálculos balísticos y de las matemáticas de las reacciones nucleares en el Proyecto Manhattan. Después de la guerra, seis de ellas fueron las responsables de crear los programas para ENIAC, el primer ordenador multipropósito. Como a ellas se les llamaba “computadoras” por dedicarse al cómputo de números, el aparato fue llamado “computer” en inglés. Esas primeras programadoras profesionales fueron Kay McNulty, Betty Snyder, Marlyn Wescoff, Ruth Lichterman, Betty Jean Jennings y Fran Bilas.

febrero 11, 2016

Mujeres en la ciencia

Como parte de la celebración del Día de la Mujer en la Ciencia hoy 11 de febrero, el blog colectivo Naukas ha preguntado a científicos y divulgadores sobre sus científicas favoritas.

A lo largo de los años, he escrito para "Territorios de la cultura" de El Correo y publicado en este blog varias biografías de científicas destacadas, desde la farmacóloga y Premio Nobel Gertrude B. Elion hasta la paleontóloga autodidacta Mary Anning; desde la astrónoma y descubridora de cometas Caroline Herschel, hasta la cosmóloga Cecilia Payne-Gaposchkin, que determinó que el hidrógeno es el elemento principal del universo. Hemos contado los logros de Barbara McClintock, revolucionaria de la genética, los de la muy reconocida física Marie Curie y los de la menos mencionada figura de la Ilustración Emilie du Châtelet, de la física Lise Meitner, descubridora de la fisión nuclear, y de la malograda Rosalind Franklin, cuya muerte impidió que recibiera el Nobel como codescubridora del ADN.

Nota en portada de The Washington Post del 15 de julio de 1962, informando
de que el heroísmo de Frances Oldham Kelsey había impedido, pese a muchas
presione, que llegara al mercado la talidomida. El escepticismo gana...
Pero mi favorita, si tuviera que elegir una, sería Frances Oldham Kelsey, farmacóloga cuyo rigor y determinación impidieron que se comercializara la talidomida en los Estados Unidos, pues consideraba que no se podía autorizar el medicamento sin estudios en mujeres embarazadas. Su firmeza ante las presiones que le exigían ceder no sólo salvó a miles de sufrir los defectos congénitos causados por el uso de la talidomida durante el embarazo, sino que cambió para siempre las normas, exigencias y regulaciones sobre la autorización de medicamentos.

El hashtag, por cierto, que se está utilizando es #WomenInSTEM, mujeres en ciencia, tecnología, ingeniería y matemáticas.

enero 16, 2016

Fuegos artificiales

"Nocturno en negro y oro: cohete cayendo" de James McNeill Whistler.
(Imagen D.P. vía Wikimedia Commons)

Resulta asombroso ver una noche a miles, quizá millones de personas, observando asombradas la danza de colores, brillo y explosiones de los fuegos artificiales con los que las más distintas culturas humanas suelen celebrar hoy todo tipo de acontecimientos. Los rostros adquieren expresiones infantiles, sorprendidos por un dibujo en el cielo, por una explosión especialmente fuerte o por una lluvia de chispas de colores. Lo hemos sentido... los fuegos artificiales nos emocionan profundamente.

Sabemos que a pirotecnia nació en China entre el siglo VII y X de la Era Común gracias a la invención (probablemente por accidente) de la pólvora negra, una mezcla de carbón, azufre y nitrato de potasio y que al calentarse se quema muy rápidamente, produciendo una gran cantidad de gases. El carbón (que puede sustituirse por azúcar) es el combustible básico de la reacción, mientras que el nitrato de potasio sirve como oxidante (aporta oxígeno) que acelera la velocidad de quemado y el azufre favorece que la reacción de ambos sea estable, además de ser también combustible. Si tendemos una línea de pólvora en el suelo y la encendemos, vemos que se quema a gran velocidad. Si en lugar de ello la atrapamos en un espacio confinado, como un tubo de bambú, la súbita producción de gases provoca una explosión. En la recámara de un arma, claro, puede impulsar una bala.

En el siglo X ya se vendían fuegos artificiales de tubos de papel llenos de pólvora para celebraciones familiares. Apenas servían para producir explosiones o, con un extremo abierto, podían correr sin rumbo impulsados por los gases de la combustión. En el siglo XIII, esta forma de entretenimiento llegó hasta Italia, quizás por la ruta de la seda (hay quien le atribuye a Marco Polo el haberlos llevado a occidente) o quizas traída por la invasión mongola de Europa bajo el mando de Ogodei, el hijo de Gengis Khan.

En Italia, en especial en el renacimiento, los fuegos artificiales empezaron a parecerse a los que vemos hoy gracias a la invención del proyectil aéreo, un recipiente lleno de explosivos que se disparaba al aire con el impulso de la pólvora, como un cohete o un avión a reacción, y vuyo contenido detonaba al alcanzar cierta altura, dando un espectáculo mucho más atractivo. Modificando los compuestos explosivos, los “maestros del fuego” consiguieron efectos cada vez más variados: fuentes, ruedas, conos, velas romanas, bombas, candelas españolas, palmeras, crisantemos y muchos más.

Pero seguían trabajando con pólvora negra, primitiva y sencilla que, cuando mucho, se producía en distintos tamaños de grano para que su combustión fuera más lenta (granos grandes) o más rápida (granos finos) y cuyos colores eran el anaranjado, producto de las chispas de la pólvora negra, y el blanco de alguna raspadura de metal.

En la década de 1830, los maestros pirotécnicos empezaron a aplicar los conocimientos de la química y añadieron a sus trabajos artesanales nuevas sustancias. El clorato de potasio fue una innovación como oxidante mejor que el nitrato de potasio, que ardía más rápido y a una temperatura más alta. A esa temperatura, se podían añadir a la pólvora sales metálicas para producir chispas de distintos colores.

Cuando vemos las explosiones de fuegos artificiales estamos viendo la energía que emiten distintos metales al ser calentados por la pólvora en un fenómeno llamado “luminiscencia”. Estos metales se utilizan en forma de sales. Así como la sal de mesa es cloruro de sodio, que es un metal explosivo en su estado elemental, la pirotecnia utiliza carbonatos, cloruros, sulfatos, nitratos y otros compuestos para sus despliegues.

El color rojo se obtiene con sales de litio, mientras que si se añaden sales de estroncio tenemos un rojo más brillante. El anaranjado es resultado del añadido de sales de calcio, mientras que el amarillo se obtiene con sales de sodio, el verde con las de bario y el azul con las de cobre. Mezclando compuestos, además, se puede crear una paleta de colores mucho más amplia. Por ejemplo, al quemar al mismo tiempo sales de estroncio y de cobre obtenemos un color morado, igual que si mezcláramos pintura roja y azul.

Otros colores se obtienen mediante incandescencia, es decir, el brillo que emiten algunas sustancias al calentarse, como el color rojo del hierro a altas temperaturas. El dorado revela la presencia de hierro, mientras que al añadir copos de magnesio, titanio o aluminio se producen chispas de color blanco azulado o plateado. El magnesio y el aluminio se pueden añadir también a otros colores para hacerlos más brillantes.

Los maestros pirotécnicos pueden controlar a voluntad la altura a la que se producirán distintas explosiones, y el tiempo entre unas y otras que puede producir atractivos efectos. El misil o proyectil que lanza los fuegos al cielo (a diferencia de los que son proyectados como surtidores desde el suelo) tiene una sección de impulso y lleva, en la parte superior, una bomba con las “estrellas” o efectos que van a exhibirse en cada caso, y que suelen ser bolas comprimidas hechas de pólvora y las distintas sustancias que determinarán cómo estallará y con qué colores. Están hechos de un material explosivo más suelto y fino y cada uno de ellos puede estallar en distintos momentos, gracias a una o más mechas retardadas, calculadas para que hagan estallar los efectos a gran altura. Un proyectil puede incluso tener varios efectos distintos, empaquetados en compartimientos independientes y que se van disparando en secuencia.

El disparo de los fuegos artificiales puede hacerse a mano, pero hoy se suele utilizar un sistema de encendido eléctrico con un tablero desde el cual se van lanzando los distintos proyectiles para que los distintos efectos se sucedan con el ritmo dramático ideal según el diseñador del espectáculo. Un acontecimiento así, con cientos y miles de kilos de explosivos, apoyado en la química y en los más cuidadosos cálculos, mantiene de todas formas su esencia artística: si la estructura es correcta, si la ciencia se ha hecho bien, incluso si se acompaña con alguna música relevante, nos irá llevando de una emoción a otra aún más intensa a lo largo de su desarrollo... hasta entusiasmarnos al máximo en la traca final... Un fin de fiesta a años luz de los primeros petardos chinos hace más de mil años.

Pirotecnia en el arte

Son innumerables los cuadros que representan espectáculos pirotécnicos, el más famoso de los cuales es quizá el “Nocturno en negro y oro” del pintor estadounidense del siglo XIX James McNeill Whistler. En la música, destaca la “Música para los reales fuegos de artificio” compuesta por George Frideric Handel en 1749 para acompañar los solemnes fuegos artificiales que ordenó preparar y quemar el rey Jorge II para celebrar el final de la guerra de la sucesión austríaca.