Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

De la leucemia al SIDA: 40 años contra la enfermedad

El gusto por el conocimiento y por el descubrimiento, además de la satisfacción de mejorar la saludde millones de personas, en la vida de una mujer pionera en la investigación farmacológica.

Gertrude B. Elion, salvadora de vidas.
(Foto DP de National Cancer Institutes,
vía Wikimedia Commons)
“No tenía ningún interés específico por la ciencia hasta que mi abuelo murió de cáncer estomacal. Decidí que nadie debería sufrir tanto.” Así explicaba Gertrude Belle Elion por qué, a los 15 años de edad, se decidió por una carrera en la ciencia que dio como resultado 45 patentes de medicamentos de gran importancia y valor, más el Premio Nobel de Fisiología o Medicina de 1988.

Sus padres eran emigrantes. Él de Lituania y ella de una zona entonces perteneciente a Rusia. Gertrude nació en 1918 en Nueva York. Pese a la posición de su padre como dentista, la familia sufrió problemas económicos por el crack de la bolsa de 1929, pues su padre, como tantos otros, había volcado sus ahorros en la bolsa de valores.

Pese a ello, recuerda haber tenido una infancia feliz con su hermano y una buena educación en escuelas públicas. En su autobiografía para el Nobel cuenta: “Era una niña con una sed insaciable de conocimientos, y recuerdo disfrutar todos mis cursos casi de igual manera. Cuando, al final de mi bachillerato llegó el momento de elegir una asignatura en la cual especializarme, me vi en un dilema.”

La muerte de su abuelo inclinó la balanza hacia la ciencia. Sus notas le permitieron matricularse en 1933 en el Hunter College, una institución gratuita de estudios superiores, pues la familia no podría costearle los estudios. La joven se graduó cuatro años después, a los 19, con los máximos honores en química: summa cum laude.

Una cosa era tener un excelente historial académico y otra era conseguir un empleo. No había muchas mujeres dedicadas a la química y la idea no atraía a los laboratorios. En palabras de la investigadora: “No estaba consciente de que tenía cerradas las puertas hasta que empecé a llamar a ellas. Había ido a una escuela sólo de chicas. Había 75 especialistas en química en esa generación, pero la mayoría de ellas iban a enseñar la asignatura... Cuando salí y no querían mujeres en el laboratorio, fue una conmoción”.

Gertrude empezó a trabajar como profesora y luego aceptó un trabajo, inicialmente sin sueldo, como asistente de laboratorio para poder continuar sus estudios en la Universidad de Nueva York, a la que ingresó en 1939. Un año después, había completado los créditos para su maestría en ciencias, pero tuvo que volver a dar clases para poder hacer por las noches la investigación necesaria para obtener su título.

Era 1941, en plena Segunda Guerra Mundial, y escaseaban los profesionales de la química. Aún así, el único trabajo que pudo obtener pese a su grado de maestría fue como analista química, que después pudo abandonar para dedicarse finalmente a la investigación. La oferta que más le interesó fue la del investigador George H. Hitchings, que encabezaba el laboratorio de investigación biomédica de la farmacéutica Burroughs-Wellcome (hoy parte del laboratorio GlaxoSmithKline). Aunque sólo tenía otra persona a su cargo, Hitchings contaba con carta blanca de la compañía para dedicarse a la investigación que considerara pertinente.

Gertrude Elion se integró al equipo de Hitchings en 1944 y nunca más se separaría de la empresa, donde realizó toda su carrera. Hitchings no tenía problemas en trabajar con mujeres en el laboratorio sino que además impulsó a Gertrude para que ampliara sus conocimientos de química acercándola a lo que hoy conocemos como investigación biomédica en el sentido más amplio.

El equipo se propuso una aproximación novedosa para su tiempo. En lugar de funcionar por ensayo y error para probar distintas sustancias en distintas enfermedades, se dieron a la tarea de analizar químicamente el resultado de las afecciones. Es decir, estudiaban las diferencias a nivel bioquímico entre las células sanas y los agentes causantes de las enfermedades (como los virus) y partir de esa información para diseñar sustancias que bloquearan las infecciones.

El primer resultado de esta aproximación fue una purina, que es un compuesto orgánico de nitrógeno formado por dos anillos, que podía inhibir el desarrollo de la leucemia en ratones y que ayudó a algunos pacientes con leucemia en pruebas clínicas. Sobre esta base, Gertrude desarrolló la 6-mecaptopurina, que hoy en día se utiliza como quimioterapia para tratar algunas formas de cáncer (incluida la leucemia) y enfermedades inflamatorias del aparato digestivo.

Seguirían, en rápida sucesión, la azatioprina, el primer agente inmunosupresor (que suprime la respuesta inmune) que evitaba el rechazo de órganos y permitió por primera vez el trasplante de riñones entre personas no emparentadas entre sí, un medicamento que combate al parásito de la malaria, un antibiótico que combate la meningitis, la septicemia y otras infecciones bacterianas, el aciclovir contra el herpes y otros medicamentos contra el cáncer.

Su carrera, sin embargo, le exigió un sacrificio que iría en contra de la lógica de cualquier investigador científico. Habiendo empezado a estudiar un doctorado por las noches en el Politécnico de Brooklyn, llegó un momento en que la escuela le exigió que asistiera a jornada completa, para lo cual tendría que renunciar a su empleo en el laboratorio. Decidió quedarse y renunciar al doctorado, esa meta tan importante en la ciencia.

A cambio, a partir de 1969 y durante 30 años, recibió 25 doctorados honorarios que resaltaban que su enorme labor científica no había necesitado ese valorado título. A lo largo de su carrera, trabajó también para el Instituto Nacional del Cáncer de los EE.UU. y la Organización Mundial de la Salud entre otras muchas instituciones de combate a la enfermedad, además de impartir clases en diversas universidades , desde 1967 fue nombrada responsable del departamento de Terapia Experimental de Burroughs-Wellcome y, después de retirarse en 1983, siguió trabajando como consultora del laboratorio y en diversas actividades relacionadas con la investigación.

Cuando obtuvo el Nobel en 1988, declaró al New York Times: “El premio Nobel está muy bien. Pero los medicamentos que he desarrollado son una recompensa por sí mismos”.

Gertrude Elion murió en 1999, después de recibir prácticamente todos los honores y premios de la investigación biomédica y la invención a nivel internacional y de los Estados Unidos.

Hacer lo que te gusta

Gertrude Elion no se casó ni tuvo hijos, y sus entretenimientos eran la fotografía y los viajes. Si su vida era su trabajo, es porque lo disfrutaba. Como dijo en una conferencia: “Es importante dedicarte al trabajo que te gustaría hacer. Entonces no parece trabajo. A veces uno siente que es casi demasiado bueno para ser cierto que alguien te pague por pasarlo bien”.

¿Cómo sabemos que sabemos?

Podemos descubrir cosas sobre nuestro universo, sobre lo animado y lo inanimado, con una certidumbre razonable. Esto no fue así durante la mayor parte de la historia del ser humano.

Novum Organum Scientiarum, la
"nueva herramienta de la ciencia",
libro esencial de Francis Bacon para
el desarrollo del método científico.
(vía Wikimedia Commons)
 
El ser humano se define, entre otras cosas, por su capacidad de crear y transmitir conocimientos, una estrategia de supervivencia novedosa y exclusiva (hasta hoy), que permitió a nuestra especie, a sus antecesoras y parientes evolucionar a un ritmo muy acelerado respecto de las demás.

Los seres vivos desarrollan nuevas capacidades lentamente. Los mejor adaptados tienden a reproducirse más eficazmente de modo gradual, acumulando sus ventajas generación tras generación. El ser humano puede adoptar rápidamente, y a nivel individual, numerosas características adaptativas. Hacer fuego o herramientas, cambiar estrategias de cacería, empezar a alimentarse de plantas y animales nuevos o aprender electrónica o música son sólo ejemplos de los rápidos cambios no genéticos que nos permite el conocimiento.

Por ello hemos buscado cuál es la mejor forma de obtener conocimiento. Algunos, especialmente prácticos, se obtuvieron por ensayo y error. Si un miembro del grupo probaba un alimento nuevo y enfermaba, se consideraba que el alimento era inadecuado por alguna causa. Si un miembro conseguía hacer una herramienta o arma de buena calidad, podía enseñárselo a otros, y todos aprender qué tipos de piedra eran mejores.

Pero las preguntas siempre han sido más abundantes que las respuestas y se necesitaban fuentes de conocimiento. Por ejemplo, la revelación de los dioses, que algunos decían que recibían en “visiones” o sueños vívidos o poderes especiales. Pero esta forma de conocimiento no era fiable, ni entonces ni hoy, cuando la usan videntes y brujos, y es que no era ni precisa, ni fiable.

Grecia y la filosofía

Hacia el siglo VI antes de la Era Común, en Grecia se empezó a tratar de conocer la realidad de un modo nuevo, a través del pensamiento y la reflexión: la “filosofía” o ”amor por la sabiduría”. Su sistema era el discurso razonado, el pensamiento crítico y la reflexión. Por medio de las matemáticas, la geometría y la lógica encontraron afirmaciones cuya verdad podía ser demostrada sin intervención de los dioses, lo que animó otras formas de investigación.

Sócrates, en el siglo V a.E.C. desarrolló el método dialéctico, de preguntas y respuestas para analizar las más diversas afirmaciones. El cuestionamiento y las contradicciones permitían eliminar las ideas menos acertadas y buscar otras mejores. Junto con ello, había una forma de comprobar ideas en la práctica, empíricamente. Este método fue aplicado selectivamente por Aristóteles, que logró ver que los delfines son mamíferos pero creyó que las moscas tienen cuatro patas, cuando bastaba atrapar una y contarlas para tener una mejor respuesta.

La filosofía griega dio lugar a la escolástica medieval, método que buscaba la verdad mediante la razón pero sin contradecir a las autoridades del pasado, válidas por dogma. Si una afirmación contradecía a la Biblia o a Aristóteles o a alguno de los padres de la iglesia, se daba por errónea.

Pero en el Renacimiento, alrededor del siglo XVI, algunos pensadores se atrevieron a desafiar a las autoridades con una nueva forma de buscar conocimiento a través de una observación metódica con la cual proponer explicaciones o interrelaciones entre los fenómenos del universo y, después, revisar la evidencia para ver si sustenta o rechaza la hipótesis.

Pero para aprovechar el nuevo método al máximo era necesario cuestionarlo todo, no aceptar verdades a priori como las de las autoridades, sino tomarlas y someterlas al escrutinio del método para confirmarlas o rechazarlas. Esto disparó el conflicto de la religión y la filosofía escolástica contra lo que Francis Bacon llamaba “conocimiento claro y demostrativo”.

Aplicando de distintas formas el “método científico”, Andreas Vesalio contrastó las afirmaciones de las autoridades sobre la anatomía del cuerpo humano y descubrió que muchas eran incorrectas, además de encontrar otras muchas más certeras. Copérnico observó el movimiento de los cuerpos celestes y, con la evidencia a su alcance, desarrolló una explicación mejor que las anteriores. Galileo observó los cuerpos celestes por el telescopio y confirmó que las ideas de Copérnico eran preferibles. También hizo experimentos que demostraron que las ideas de Aristóteles sobre la caída de los cuerpos eran incorrectas: un cuerpo diez veces más pesado que otro no cae diez veces más rápido, cae a la misma velocidad.

Las afirmaciones producto de este nuevo método podían ser corroboradas o verificadas independientemente por cualquier otra persona que tuviera los mecanismos necesarios de observación y de contrastación de la evidencia. Galileo podía haber sido condenado a arresto en su casa por lo que dijo ver en su telescopio, cuatro lunas girando alrededor de Júpiter como los planetas giran alrededor del sol, pero cualquiera que tuviera un telescopio podía ver lo mismo.

El uso de la evidencia como gran juez de la validez de una afirmación fue el elemento central de lo que se conoció como “revolución científica”.

A partir de ese momento, los seres humanos no sólo empezamos a saber cada vez más cosas, sabíamos cuál era el camino necesario para saberlas, y empezamos a aplicarlo intensamente en las más diversas disciplinas. ¿El agua es un elemento o es un compuesto que se puede dividir en otros elementos? La evidencia experimental demostró que está formada de hidrógeno y oxígeno, no había opinión contraria aceptable. ¿El corazón era simplemente el órgano que daba calor al cuerpo o era el encargado de mover la sangre por todo el organismo? La evidencia demostró que la segunda explicación era mucho más precisa.

Así, descartando hipótesis en función de la evidencia y desarrollando otras hipótesis susceptibles de ser mejoradas, la ciencia y su método consiguieron darlos un conocimiento certero que el ser humano apenas había vislumbrado en el pasado. El nuevo sistema, además, podía autocorregirse, es decir, si un científico erraba en sus observaciones, en sus experimentos, en los datos que reunía, otro podía verificarlo y encontrar los errores para mejorar poco a poco las explicaciones de todo cuanto estudia la ciencia.

Por primera vez en la historia disponemos de un método que nos permite saber con certeza y que nos permite además entender cómo es que los científicos de distintas disciplinas saben las cosas, y que tiene además la enorme ventaja de que funciona, como podemos ver en el mundo a nuestro alrededor, transformado y hecho posible por él.

Un resumen

Francis Bacon (1561-1626), defensor del método científico, lo resumió someramente así: “Observación y experimento para reunir material, inducción y deducción para desarrollarlo: éstas son las únicas buenas herramientas intelectuales.”

Había una vez un gigante...

Los maravillosos mitos de los gigantes están en todas las culturas, una metáfora de fuerza, grandeza y poder, pero desafortunadamente imposibles.

El hombre más alto del mundo en 2013, el
campesino kurdo Sultan Kösen, de 2,51 metros,
con un trastorno de la pituitaria, que exhibe la
debilidad que conlleva la gran estatura:
sólo puede caminar con bastón.
(Foto CC de Amsterdamman
vía Wikimedia Commons)
Nos atraen los extremos, lo más alto, lo más bajo; lo más caliente, lo más frío; lo más rápido, lo más lento... industrias completas como el Libro Guinness de los Récords, que desde 1954 recopila los más variados extremos ya sean del universo, de los logros y características humanos, animales, minerales, vegetales, planetarios y cósmicos.

De entre todos los mitos sobre extremos que nos han legado diversas culturas, uno destaca por su frecuente y atractiva presencia: el de los gigantes, ya sea humanos, o semihumanos.

Así tenemos, en la antigua Grecia, los mitos de numerosos gigantes, entre los cuales los más conocidos son los titanes (incluidos los cíclopes), hijos de Gaia, la Tierra, y Urano, el cielo, y Talos, el gigante de bronce forjado por Hefestos para proteger a Europa y que aparece en la historia de Jasón y los argonautas. En el Tanakh, el libro canónico de la Torah o biblia hebrea, aparecen los Anakin, gigantes aterradores, mientras que en el libro del Génesis de la Biblia cristiana, capítulo 6, versículo 4, poco antes de que Yahvé decidiera el diluvio universal, se establece: “Había gigantes en la tierra en aquellos días”. Y el gigante Goliat en su enfrentamiento con David ofreció una metáfora perdurable no sólo para los creyentes.

Mitos nórdicos y celtas, hindús y japoneses, aztecas y tibetanos, filipinos y mayas, incluyen entre su elenco a una enorme variedad de gigantes, algunos como ogros temibles, otros como bondadosos seres que sostienen el cielo, dioses o simples hombres de estatura excepcional, atribuyéndoles con frecuencia las construcciones de antiguas culturas, como ocurre con los jentilak vascos, a quienes se atribuye la erección de los dólmenes o jentilarri. Los mitos han sido, a su vez, retomados como metáforas por las artes, ofreciéndonos nuevas visiones de estos hombres y mujeres (o semihumanos) de tallas extremas.

Pero en la realidad no hay gigantes.

Algunos espacios marginales del mundo del misterio, de lo supuestamente paranormal o de las fantasías de lo extraordinario suelen proponer la existencia de gigantes reales en la antigüedad, fueran los habitantes de la mítica Atlántida de Platón o el yeti, incluso haciendo circular fotografías trucadas en donde personas de talla normal aparecen junto a osamentas colosales, o junto a momias con sospechoso aspecto de cartón piedra que se afirma que pueden medir desde tres hasta 11 metros de estatura.

Un biólogo, sin embargo, necesita simplemente echar una ojeada a estas fotografías para saber que se trata de trucos, es decir, que los seres que representan son biológicamente imposibles.

Receta para un gigante

El ser humano más alto que se ha registrado hasta la fecha es el estadounidense Robert Pershing Wadlow, que vivió en Illinois entre 1918 y 1940 y que alcanzó una estatura de 2,72 metros debido a un problema de hiperactividad de su glándula pituitaria, algo que no ocurriría en la actualidad, pues existen tratamientos para regular su funcionamiento.

Su breve vida, sin embargo, fue complicada y dolorosa. Para poder caminar necesitaba llevar abrazaderas en las piernas y no tenía casi sensibilidad en as extremidades inferiores, de modo que se rompió varios huesos y, finalmente, murió por una septicemia debida a una ampolla que le provocaron las abrazaderas.

Los problemas que sufrió Wadlow, como muchos otros gigantes reales, se deben a que la estructura de los huesos humanos sólo es eficaz hasta cierto peso, más allá del cual son incapaces de funcionar adecuadamente sin un rediseño profundo de su ingeniería.

Si vemos las patas de un animal relativamente pequeño y de poco volumen y peso, como una hormiga, veremos que son extremadamente delgadas y sin embargo pueden soportar perfectamente el peso del cuerpo del animal. Un animal esbelto como un galgo o un corzo tienen patas proporcionalmente más gruesas si los comparamos con la hormiga, y cuando llegamos a animales muy voluminosos, como los hipopótamos, los elefantes o las tortugas galápagos, encontramos que sus patas son mucho más gruesas en proporción de su cuerpo.

El motivo de esto es un fenómeno que describió Galileo Galilei en su libro Dos nuevas ciencias de 1638 y que en términos generales establece que si hacemos crecer un objeto cualquiera, su volumen aumenta mucho más rápidamente que su área. Esta ley se conoce como la ley del cuadrado cubo. Si un objeto crece cierto porcentaje, su área aumentará al cuadrado de ese porcentaje y su volumen aumentará al cubo de ese porcentaje.

Si duplicamos el tamaño de una persona de 1,70 hasta que mida 3,40, la fuerza de sus huesos (y su área) no se multiplicarán por 2, sino por el cuadrado de 2, es decir, por cuatro; pero su volumen aumentará al cubo de 2, o sea ocho veces: si pesaba 80 kilogramos ahora pesará 640 kilos.

Y si pesas 640 kilos, la estructura ósea fallará. Tendrías que evolucionar de modo que tus piernas fueran mucho más musculosas y de huesos más resistentes

Pero ése no sería el único problema: tu fisiología de 1,70 ya no serviría, tendrías que tener otro sistema de enfriamiento (motivo por el cual los elefantes tienen grandes orejas para irradiar el enorme calor que generan sus cuerpos, o por el cual los hipopótamos pasan el rato en el agua), tendrías que comer muchísimo más, alterando todo tu aparato digestivo... es decir, te parecerías más a un elefante que a un ágil gigante de cuento.

Estas ideas las desarrolló el biólogo J.B.S. Haldane escribió en 1926 un ensayo donde exploraba la estructura general de los animales y demostraba que para cada estructura hay un tamaño adecuado y una serie de sistemas bastantes para su supervivencia. Mientras más grande se haga un animal respecto de su estructura, más débil se volverá. La forma, la estructura y el tamaño están estrechamente relacionados y son el resultado de la evolución de cada variedad animal.

Así, las fantasías cinematográficas de un aparato que hiciera crecer a las hormigas para crear un ejército invasor resultan biológicamente poco viables. Antes de ser aterradores gigantes, al alcanzar quizá el tamaño de un gato pequeño, se derrumbarían sobre patas incapaces de sostener un peso que se elevaría al cubo cada vez que la longitud de la hormiga se elevara al cuadrado.

El cuerpo humano no está hecho para el gigantismo. Tiene el tamaño que tiene porque es el adecuado para todos sus sistemas biológicos.

Los límites de lo normal

Se estima que la estatura media de los seres humanos es de algo más de 1,66m, con un promedio en hombres de 1,72 y en mujeres de 1,60. Entre los jugadores de baloncesto, el hombre más alto ha sido el rumano Gheorghe Muresan, con 2,31, y la mujer más alta ha sido la polaca Margo Dydek, con 2,18. En términos generales, los hombres miden de media 1,08 veces la estatura de las mujeres.

Los muchos padres del bosón de Higgs

La ciencia no es un emprendimiento individual, ni en el pasado ni en la actualidad, aunque a veces el crédito se lo lleve sólo una persona.

Los codescubridores del campo y bosón de Higgs. De izq. a der.:
Tom Kibble, Gerald Guralnik, Carl Hagen, François Englert y
Robert Brout. (Foto DP de Timm Roetger, vía Wikimedia Commons)
Si uno le pregunta a Peter Higgs, lo llama el “bosón escalar”, y hay otras propuestas para cambiar el nombre de la partícula que varios físicos teóricos postularon en 1964 y que fue hallada, o al menos muy probablemente hallada, en el acelerador de partículas LHC del CERN en la frontera franco-suiza, y anunciada en julio de 2012.

Una de las propuestas es llamarlo “bosón BEHGHK”, que se pronunciaría como “berk” con “r” francesa... o “begk”. Aunque menos eufónico que “bosón de Higgs”, este nombre daría crédito incluyendo las iniciales de los apellidos de todos los científicos que participaron en la descripción de la partícula: Robert Brout, François Englert, Peter Higgs, Gerald Guralnik, Carl Hagen y Tom Kibble. Hagen, por su parte, favorece el nombre “bosón escalar SM” por “standard model” o “modelo estándar”.

El problema es que la costumbre del comité del premio nobel es no dar el premio a más de tres personas, y que los galardonados aún vivan al momento de anunciarse el galardón. Esto ha significado que en muchas ocasiones se han pasado por alto colaboraciones o aportaciones de gran importancia y se han consagrado en la memoria sólo algunos nombres.

En este caso, Englert y Brout fueron los primeros en hacer su aportación teórica en la revista Physical Review Letters en agosto de 1964. En octubre de ese mismo año, y en la misma publicación, aparecía el trabajo teórico de Peter Higgs, más completo y con ecuaciones precisas sobre el mecanismo mediante el cual podía romperse la simetría que según los físicos es una característica esencial de los sistemas físicos. Finalmente, el mes siguiente la misma revista publicaba el artículo de Guralnik, Hagen y Kibble, el más completo de los tres. Todos los artículos demostraban teóricamente la forma en que algunas partículas adquieren masa, una idea que fue consolidándose con el trabajo teórico y experimental de los años siguientes de muchos otros científicos.

La teoría más completa y coherente que tenemos hoy para explicar todos los fenómenos físicos del universo es el llamado “Modelo estándar”, que describe las relaciones entre las distintas partículas elementales y las tres fuerzas que conocemos: la gravedad, la fuerza nuclear fuerte y una fuerza que es al mismo tiempo la electromagnética y la fuerza nuclear débil, conocida como “electrodébil”. Pero para que todo tenga sentido, debía existir una determinada partícula con características precisas responsable de impartir masa a otras partículas, el bosón de Higgs. Su búsqueda desembocó en el diseño, construcción y operación del Gran Colisionador de Hadrones (LHC).

La altamente probable confirmación de la existencia del bosón de Higgs realizada experimentalmente por el LHC claramente era materia de Premio Nobel de Física. Sin embargo, como lo esperaba Carl Hagen, cabeza del tercer grupo de físicos implicados, el comité del Nobel prefirió atenerse a sus reglas y en vez de dar el premio a los cinco científicos supervivientes (Brout murió en 2011) eligió dárselo únicamente a Englert y a Higgs, dejando alguna amargura entre los tres miembros del otro equipo codescubridor.

Descubrimientos simultáneos y nombres olvidados

La ciencia no es un emprendimiento totalmente individual, sino un flujo de conocimientos que van acumulándose e impulsando nuevos hallazgos a veces en direcciones previsibles. Como señaló Newton, los que ven muy lejos lo consiguen a hombros de gigantes. Pero a veces dos son capaces de ver lo mismo simultáneamente, a veces con consecuencias ásperas.

Un ejemplo involucró al propio Isaac Newton, que desarrolló el cálculo prácticamente al mismo tiempo que el matemático alemán Gottfried Leibniz. La controversia sobre si Leibniz había trabajado independientemente del inglés o simplemente había plagiado su trabajo con otra notación matemática amargó los últimos años del alemán. Y aún hoy en día hay quienes lo debaten.

Menos controvertido fue el descubrimiento de la evolución por medio de la selección natural realizado por Alfred Russell Wallace quien mandó sus conclusiones a Darwin antes de que se publicaran los estudios de éste. Darwin promovió la publicación de Wallace y siempre consideró que la nueva teoría era trabajo de ambos, pese a que su confirmación científica de la selección natural era mucho más sólida que las que había alcanzado Russell. Ambos defendieron juntos la idea hasta el final.

Durante 43 años hubo un debate sobre el invento de la tecnología subyacente a la radio. Nikola Tesla había demostrado la transmisión de radio a fines del siglo XIX (aunque su explicación de su funcionamiento era errónea, creyendo que ocurría por la tierra, no por aire) y había obtenido dos patentes clave en 1900 poco antes de Marconi. No fue sino hasta 1943 cuando el Tribunal Supremo de los Estados Unidos reconoció que esas patentes eran las prioritarias, convirtiendo de hecho a Tesla en el inventor teórico de la radio, aunque Marconi fuera quien la desarrolló en la práctica.

Finalmente, aunque quedarían muchos ejemplos en el tintero, está el caso de Rosalind Franklin, la cristalógrafa cuya fotografía por difracción de rayos X de una molécula de ADN fue fundamental para que Francis Crick y James Watson terminaran su modelo de la estructura de doble hélice del ADN en 1953. El Premio Nobel de 1962 por este revolucionario descubrimiento fue para estos dos investigadores, y también para Maurice Wilkins, el otro cristalógrafo que había realizado diversas imágenes del ADN. Rosalind Franklin había muerto en 1958 y su aportación al conocimiento de nuestra genética fue temporalmente opacada. Ahora que se ha rescatado su figura, queda en el relativo olvido su compañero y ocasional rival, Maurice Wilkins.

Estos casos, junto con el de los seis físicos que son padres comunes del bosón de Higgs, nos recuerdan que más allá de los titulares, de los grandes premios y de los tresminutos de fama del informativo televisual, hay muchos otros investigadores sin los cuales no tendríamos el mundo, la esperanza de vida y el conocimiento que distingue a nuestra etapa histórica como la otra cara de la moneda de nuestras dificultades, crisis y problemas.

Si se premiara al LHC

El presidente de la Sociedad Física Estadounidense, Michael Turner, explicaba al Washington Post cuando se anunció el Nobel a Higgs y Englert: “Cada vez más los descubrimientos involucran a una comunidad. Fueron necesarias 10.000 personas y 10 mil millones de dólares para construir el instrumento que hizo este descubrimiento, y sería muy difícil reducir ese grupo incluso a 100 personas, ya no digamos a tres”. Quizá el comité del Nobel tenga que replantearse su regla.

De la saliva a la historia de la Tierra: Nicolás Steno

Un verdadero hombre del renacimiento, o del final del renacimiento, Nicolás Steno, el padre de la geología fue además anatomista, naturalista y tardío obispo.

Hoja conmemorativa de Nicolás Steno,
ofrecida por un congreso de geólogos
en 1881. (Via Wikimedia Commons)
Durante siglos, el hombre conoció unas curiosas piedras llamadas “piedras lengua” o glossopetrae. Plinio el Viejo, en su Historia natural, cuenta que estas piedras caían del cielo en luna menguante, que eran indispensables para la adivinación mediante la luna y que podían detener los vientos tormentosos. En el Renacimiento, por su parte, se creía que eran dientes de dragones y servían como antídoto para mordeduras de serpientes y otros venenos.

En 1666, un joven médico y atento observador de la naturaleza, el danés Niels Stensen (mejor conocido como Nicolás Steno), pudo examinar la cabeza de un tiburón pescado en Livorno, cerca de Florencia, donde él disfrutaba del mecenazgo de Fernando II, Gran Duque de la Toscana. Se dio cuenta de que los dientes del depredador eran muy parecidos a las piedras lengua y pensó que un proceso desconocido había convertido los dientes en piedra.

Pero la idea prevaleciente era que los fósiles eran resultado de una fuerza del interior del planeta, productos de alguna misteriosa actividad del planeta. Steno demostró que los dientes no eran “nuevos”, sino que mostraban evidencias de estar desgastados por el uso, mellados y degradados, lo que señalaba que eran viejos y, por tanto, reliquias de tiempos antiguos. Observó lo mismo en otros fósiles, entre ellos los de origen marino que se encontraban en las cumbres de las montañas, confirmando la idea que Leonardo Da Vinci había ya propuesto 150 años atrás: los fósiles eran los restos de animales que habían vivido en tiempos antiguos.

Esta sola comprobación habría sido suficiente para darle a Stensen-Steno un lugar en la historia de la ciencia. Pero su aportación habría de ser muchísimo más extensa. En parte debido a que se vio impulsado a buscar respuesta a otra pregunta que presentaban los fósiles: ¿cómo es que estaban con frecuencia incrustados en las rocas

El religioso científico

Nicolás Steno nació en Copenhague, capital de Dinamarca, el 11 de enero de 1638, en una opulenta familia de orfebres estrictamente luteranos y estudió medicina tanto en su ciudad natal como en Holanda. Durante sus estudios, cuando apenas tenía 22 años de edad, descubrió el conducto que lleva la saliva a la boca desde la glándula parótida, la mayor de las tres glándulas salivales, situada en la parte posterior de nuestras mejillas, y que por ello se conoce todavía como “conducto de Stensen”.

Terminando sus estudios, se lanzó a recorrer Europa en un peregrinaje que duraría prácticamente toda su vida al tiempo que continuaba con estudios que desafiaban las creencias de la época. Así consiguió descubrir la naturaleza de las contracciones musculares e identificar al corazón como un músculo más, además de que sus disecciones de cerebros demostraron, ni más ni menos, que eran totalmente erróneas las especulaciones de Descartes sobre el cerebro y, concretamente, su idea de que la glándula pineal estaba aislada y en continuo movimiento, que los nervios terminaban en una cavidad que rodeaba a esta glándula y que la sangre iba directamente a ella para preservar su calor, tres afirmaciones que Steno demolió en el Discurso sobre la anatomía del cerebro que impartió en 1665, un año antes de su giro a la geología.

Un descubrimiento adicional que realizó en 1663 fue que la leche materna era producida en el pecho y llevada a los pezones por pequeños conductos.

Dado que el danés consideraba que el método científico le permitía alejarse de la falsedad, no sólo en cuanto a ciencia sino también respecto de la religión, no parecen haberle afectado las contradicciones entre sus descubrimientos y sus creencias religiosas.

Tres años después de su estudio del tiburón, Steno concluyó que para que las rocas envolvieran a los fósiles, debían haber sido líquidas en algún momento para luego solidificarse sobre ellos, o sobre otras capas de roca. Si tal era el caso, la Tierra debía mostrar la presencia de distintos estratos.

El estudioso se dedicó entonces a visitar canteras, minas y cavernas por toda la Toscana, desde Carrara, mítica cuna del mármol más blanco, hasta los Apeninos y las tierras bajas costeras. Producto de sus observaciones fueron los principios o leyes sobre los estratos geológicos que detalló en su escrito Precursor de una disertación sobre un sólido naturalmente contenido en otro sólido, conocido como Prodromus, donde hacía la historia geológica de la región de la Toscana y de ella derivaba los principios básicos que formaron las bases de la geología como disciplina científica.

El primero es el “principio de superposición”, que señala que las capas de roca se depositan unas sobre otras en una secuencia temporal, las más antiguas abajo y las más jóvenes encima, lo que permitía conocer las eras de la existencia de nuestro planeta. El segundo es el principio de “horizontalidad original”, según el cual los sedimentos se depositan como líquidos y, por tanto, lo hacen horizontalmente, rellenando las irregularidades del fondo pero dejando una superficie llana, y que cuando los estratos no se encuentran así se debe a alteraciones posteriores, como terremotos o volcanes. El tercero es el principio de la continuidad lateral, que dice que las capas de sedimentos son continuas a menos que un obstáculo evite que tales sedimentos se extiendan al depositarse.

Una de sus observaciones más relevantes fue que las capas más antiguas, en los estratos más alejados de la superficie, no contenían fósiles. Su conclusión, poco ortodoxa en lo religioso, fue que esas rocas eran anteriores a la aparición de la vida en la Tierra.

Sin embargo, la carrera científica de Steno se detuvo súbitamente. Se había convertido al catolicismo en Italia en 1667, pero en 1675 dio un paso decisivo ordenándose como sacerdote, actividad a la que se dedicó entonces de lleno, tanto que en 1677 fue nombrado obispo y enviado a Alemania, donde murió en 1686, a la temprana edad de 48 años, sin llegar a escribir nunca el magno libro anunciado en su Prodromus de sólo 78 páginas.

Su obra científica fue casi olvidada hasta que en 1823 el naturalista Alexander Von Humboldt lo llevó a la luz pública como el padre de la geología.

Los cristales

Estudiando cristales de distintas sustancias y midiéndolos cuidadosamente, Steno observó que los cristales de diferentes sustancias pueden tener tamaños distintos, pero los ángulos entre dos facetas correspondientes de cada cristal son constantes y característicos de esa especie de cristal. Este descubrimiento originó la cristalografía, que nos permite conocer muchas características de las sustancias observando los cristales que forman.

Kennedy y la carrera espacial

Ir al espacio era una idea natural. Ir a la Luna fue una decisión política de John F. Kennedy que marcó el rumbo de gran parte de la investigación científica durante décadas.

Icónica imagen de la Tierra sobre el horizonte de la Luna
tomada el 20 de julio de 1969 por la tripulación del
Apolo XI (Foto D.P. Nasa, vía Wikimedia Commons)
El 20 de julio de 1969, el mundo vio, en una borrosa transmisión televisual de baja resolución, cómo Neil Armstrong bajaba del módulo de descenso lunar Eagle y se convertía en el primer hombre que pisaba otro cuerpo celeste.

Era el legado del presidente John F. Kennedy, que ocho años atrás le había fijado esa meta a su país para vencer en la competencia con o que era la Unión de Repúblicas Soviéticas Socialistas (URSS) conocida como “la carrera espacial”.

El desarrollo científico y tecnológico apuntaba claramente a principios del siglo XX a los viajes espaciales. En palabras del visionario ruso Konstantin Tsiolkovsky: “Un planeta es la cuna de la mente, pero el hombre no puede vivir en la cuna eternamente”. Tsiolkovsky, a su vez, inspiró al alemán Hermann Oberth, creador del motor de cohetes de combustible líquido, y al estadounidense Robert H. Goddard, que hizo numerosos lanzamientos de pequeños cohetes.

Sin embargo, el esfuerzo por alcanzar el espacio requería de recursos tan abundantes que sólo era viable como emprendimiento nacional, no como esfuerzo personal. Y las potencias económicas y militares lo empezaron a ver viable al descubrir determinaron que podía tener valor estratégico y militar.

El disparador final para la exploración espacial fue la “guerra fría” entre la URSS y los Estados Unidos, una confrontación por el dominio político, militar y económico que se desarrolló inmediatamente después de la Segunda Guerra Mundial y duró hasta 1989. Esta confrontación convirtió a las hazañas espaciales, además, en fuente de orgullo nacional y en una herramienta de propaganda en la guerra ideológica entre comunismo y capitalismo.

En 1955, ambas superpotencias habían anunciado su decisión de emprender ambiciosos programas espaciales, pero fue la URSS la que obtuvo los primeros triunfos al poner en órbita el primer satélite artificial, el Sputnik I en 1957 y al primer ser humano, Yuri Gagarin, en 1961.

El primer acontecimiento se había dado en la segunda presidencia de Dwight D. Eisenhower, héroe de la segunda guerra y comandante en jefe de los ejércitos aliados en la invasión de Europa. El resultado inmediato fue que el presidente Eisenhower aceptara la creación de una agencia espacial civil, el Consejo Nacional de Aeronáutica y del Espacio, propuesto por el líder de la mayoría del senado, Lyndon B. Johnson. Sin embargo, Eisenhower no dio demasiada importancia al consejo, considerando que el espacio no era tan importante.

El segundo había ocurrido en el cuarto mes del mandato de Kennedy, el demócrata que había derrotado en las urnas a Richard Nixon, el delfín elegido personalmente por Eisenhower. Sólo cinco días después del vuelo de Gagarin, un grupo de contrarrevolucionarios anticastristas lanzaron, con apoyo de Estados Unidos una desastrosa invasión en Bahía de Cochinos o Playa Girón, en la costa Sur de Cuba, derrotada en sólo tres días.

El inicio de la administración del joven presidente no podía haber sido peor. Como parte de la reacción inmediata de su gobierno, y con la asesoría de su vicepresidente, el mismo Lyndon B. Johnson, al que Kennedy había nombrado presidente del consejo, presentó una propuesta al senado el 25 de mayo de 1961. Informó que habían evaluado las fortalezas y debilidades del programa espacial estadounidense y que, estando conscientes de la ventaja que llevaba la URSS con sus cohetes, debían fijarse una serie de metas, entre las que estaba la de llevar a un hombre a la Luna antes del fin de la década.

Cada meta propuesta por Kennedy exigía que el senado aprobara presupuestos sin precedentes. Para el desarrollo de mejores cohetes, incluyendo un proyecto que utilizaba energía nuclear, 23 millones de dólares. Para acelerar el uso de satélites de comunicaciones a nivel mundial, 50 millones de dólares, para crear un sistema de satélites meteorológicos a nivel mundial, 75 millones de dólares más.

La factura total era estremecedora para la época: 531 millones de dólares (3 mil millones de euros a valor de hoy) para el ejercicio de 1962 y entre 7 y 9 mil millones de dólares (entre 40 y 52 mil millones de euros) durante los siguientes cinco años. Y las cifras reales a lo largo de los siguientes años demostrarían ser muchísimo más elevadas.

La petición de Kennedy cerraba con una afirmación contundente. “Si sólo vamos a la mitad del camino, o reducimos nuestras miras frente a las dificultades, según mi criterio sería mejor ni siquiera intentarlo”.

El senado aprobó las solicitudes de Kennedy, y los primeros frutos se vieron el 20 de febrero de 1962, cuando se consiguió poner al primer astronauta estadounidense en órbita, John Glenn.

Fue con la certeza de que el programa espacial estaba en buen camino y que había posibilidades de superar a la URSS en la carrera espacial si los Estados Unidos fijaban la meta en vez de dejar que cada logro en la competencia fuera una sorpresa independiente, que Kennedy ofreció uno de los principales discursos de su breve presidencia el 12 de septiembre de 1962 en el estadio de la Universidad de Rice en Houston, Texas, el estado donde sería asesinado trece meses después.

En ese discurso, Kennedy hizo un resumen del avance científico humano en los últimos 50 mil años, desde la domesticación de los animales hasta los logros de Newton, la penicilina y las misiones espaciales en curso en esos mismos días, utilizando como comparación un período de 50 años, quizá un antecedente del famoso reloj cósmico de Carl Sagan.

“Elegimos ir a la Luna en esta década y hacer las otras cosas no porque sean fáciles, sino porque son difíciles”, tal es la frase más conocida de ese discurso, la que de alguna forma convenció al estadounidense medio que el esfuerzo espacial valía la pena... ese mismo estadounidense que años después aplaudiría las sucesivas reducciones del presupuesto espacial hasta dejar a los Estados Unidos sin un vehículo capaz de poner seres humanos en órbita, dependiendo de las Soyuz creadas por la URSS.

El asesinato de Kennedy convirtió en presidente a Lyndon B. Johnson, el entusiasta del espacio, pero, paradójicamente, quien celebraría la llegada a la Luna sería Richard Nixon, que había vuelto de su derrota ante Kennedy para obtener la presidencia en ese mismo 1969, recogiendo los frutos del árbol de su viejo oponente.

La promoción de la ciencia

Kennedy nombró por primera vez a un científico para un puesto gubernamental, Glenn Seaborg, el descubridor del plutonio y Premio Nobel de 1951, como presidente de la Comisión para la Energía Atómica, además de ser miembro del Comité de Asesoría Científica del presidente.

El Hubble en tu teléfono

Los avances de la tecnología en las últimas décadas nos permiten conocer mejor el universo, y también fotografiar nuestros momentos personales más relevantes o más tontos.

La imagen del campo ultraprofundo tomada por el Hubble
en 2009. Haga clic en ella para verla a más resolución.
Cada punto de luz es una galaxia que contiene miles de
millones de estrellas. (Foto D.P. NASA, vía Wikimedia Commons).  
Convertir lo que vemos en una imagen perdurable no ha sido nada fácil. La pintura lo intentó desde los inicios mismos de la humanidad, probablemente a cargo de una especie antecesora de la nuestra, el Homo habilis.

Pero no fue sino hasta la aparición de la fotografía que empezamos a conseguir una reproducción fiel, y también cada vez más económica, de la realidad. Como arte, como registro de la vida familiar y como auxiliar en numerosas ciencias y técnicas (desde la microscopía hasta la fotocomposición y reproducción de obras de arte), la fotografía fue una de las grandes revoluciones del siglo XIX y XX.

Así, por ejemplo, las asombrosas fotografías tomadas en la Luna por Neil Armstrong y Bzz Aldrin en la misión Apolo XI todavía utilizaron metros y metros de película que fue necesario llevar a nuestro satélite, exponer, traer de vuelta y revelar (proceso siempre temible, aunque probablemente los jóvenes ya nunca lo sabrán, y lleno de riesgos por contaminación de las diversas sustancias utilizadas para hacer visible especialmente la fotografía a color) para que la gente de nuestro planeta pudiera ver no sólo las tomas de la Luna, sino, por supuesto, la grandiosa toma de nuestro planeta colgando sobre el horizonte de nuestro satélite.

Precisamente con la idea de facilitar y miniaturizar la captura de imágenes en el espacio, considerando el altísimo coste de cada gramo que debe llevarse más allá de nuestra atmósfera, dos físicos, el estadounidense George E. Smith y el canadiense Willard Sterling Boyle, que trabajaban en la empresa AT&T Bell Labs, inventaron en 1969 un sistema llamado “dispositivo de carga acoplada” (charge-coupled device) mejor conocido como CCD. Según recordó George E. Smith, “Después de hacer el primer par de dispositivos de captura de imágenes, supimos con certeza que la fotografía química había muerto”.

Y, ciertamente, si bien sobrevivió una larga época, mientras los sensores CCD se hacían más sensibles, de mayor resolución y más fieles a la realidad, el declive de la fotografía química, que utilizaba sales de plata que se oscurecían donde había luz y no donde había oscuridad, comenzó en ese momento.

Y, de paso, el CCD también decretó la muerte de las cámaras de vídeo que utilizaban tubos de rayos catódicos para convertir las imágenes en señales eléctricas.

Smith y Boyle recibieron en 2009 el Premio Nobel de Física “por la invención de un circuito semiconductor capaz de capturar imágenes”. Este circuito semiconductor o CCD es, esencialmente, un grupo de diminutos capacitores que al ser alcanzados por la luz (es decir, por fotones), emiten electrones, es decir, adquieren una carga eléctrica que puede ser leída por un procesador e interpretada para recrear la imagen original. Usando distintos filtros, un sensor CCD puede detectar literalmente millones de colores con gran precisión.

El CCD no sólo cambió la historia de la fotografía y el vídeo (y, eventualmente, el cine), sino también la astronomía que usaba fotografías para capturar más luz de la que puede detectar el ojo humano.

El ejemplo más conocido de los CCD en astronomía es el del Hubble, un telescopio óptico con un espejo de 2,4 metros de diámetro y que cuenta con cámaras de CCD, espectrógrafos y filtros que le permiten “ver” en distintas frecuencias del espectro electromagnético. Su sistema para detectar luz visible es el ACS, con tres cámaras, una de las cuales realizó muchas de las más asombrosas imágenes que nos ha revelado el Hubble, de galaxias, nebulosas, viveros de estrellas y, muy especialmente, las tomas que nos han llevado cada vez más hacia los bordes de nuestro universo.

En 1995, los responsables del telescopio orbital decidieron seleccionar un pequeño segmento del cielo en apariencia totalmente vacío, en la constelación de Formax, y fotografiarlo en una larga, muy larga exposición, a ver qué había realmente allí. Entre el 18 y el 28 de diciembre, el Hubble miró fijamente ese punto, recolectando la luz que podía provenir de allá, débiles fotones que habían salido de su punto de origen miles de millones de años atrás.

Cuando el Hubble terminó, las imágenes que capturó se fusionaron en una fotografía en la que aparecían más de 3.000 objetos luminosos, casi todos ellos galaxias hasta entonces desconocidas, que se encuentran en las zonas más alejadas de nuestro universo.

En los años siguientes, el Hubble conseguiría varias imágenes más de campo ultraprofundo y profundo extremo, en pequeños fragmentos del campo profundo que han revelado miles y miles de galaxias más en los bordes mismos de nuestro universo. La luz de algunas de ellas salió hace 13.200 millones de años, apenas unos 450 millones de años después del nacimiento de nuestro universo en el Big Bang. En ellas vemos, efectivamente, cómo era el universo en sus inicios

Otra cámara más especializada “ve” en las frecuencias cercanas al ultravioleta y al infrarrojo es la llamada WFC3 (cámara de campo amplio 3) instalada en 2009, de gran sensibilidad, diseñada para minimizar el “ruido” que todos conocemos que muestran los sensores cuando hay poca luz… y con una definición de apenas 16 megapíxeles, una resolución común en las cámaras compactas para aficionados y que muy pronto alcanzarán los teléfonos inteligentes.

Y es que las cámaras para consumidores comunes y corrientes utilizan exactamente el mismo principio de capacitores capaces de convertir la luz en descargas eléctricas para capturar imágenes. La mayoría de las cámaras tienen un sistema llamado CMOS (siglas en inglés de “semiconductor de óxido metálico complementario) que resulta más fácil y barato de fabricar, que puede ser mucho más pequeño, aunque ha tardado en tener la calidad de imagen que ofrece un CCD.

En lo fundamental, el uso de un principio de la física cuántica para capturar imágenes, la cámara con la que suelen venir dotados nuestros teléfonos es simplemente una pariente pequeña, menos precisa y mucho menos costosa que las cámaras con las que dispositivos como el Hubble y los nuevos telescopios que lo sustituirán nos muestran los objetos luminosos más alejados del universo.

En el principio estuvo Einstein

Todos los sensores de luz se basan en el efecto fotoeléctrico, un fenómeno descubierto por Albert Einstein en el cual una superficie, al recibir luz, emite electrones. El efecto fotoeléctrico fue la base de la idea de que la luz se comporta en ciertos casos como si fuera una onda y en otros como si fuera un flujo de partículas, la llamada “dualidad” que es la base de la moderna mecánica cuántica. El efecto fotoeléctrico fue el motivo por el que Einstein recibió el Nobel en 1921.

¿Qué es el autismo? Realidades, mitos y definiciones

Un trastorno del comportamiento que es a la vez temido y desconocido, y que permanece rodeado de mitos.

Comparativa de activación de la corteza cerebral
durante una actividad visomotora. El azul corresponde
al grupo de control, el amarillo al grupo autista y
el verde al traslape entre ambos. (Imagen CC Ralph
Axe-Müller vía Wikimedia Commons) 
En distintos medios de comunicación, y muy especialmente en las redes sociales de Internet, se repite constantemente que existe una epidemia de autismo, pues el número de diagnósticos de esta afección es mucho más alto hoy que en el pasado.

Pero las cosas siempre son más complicadas de lo que parecen a primera vista.

El autismo que se diagnostica hoy es muy distinto de lo que se llamaba “autismo” cuando esta palabra se empezó a utilizar, y esas cambiantes definiciones, así como el temor que provoca la sola palabra son en gran medida responsables de ese aumento de diagnósticos.

En el origen

La palabra “autismo”, fue utilizada por primera vez en 1911 por el psiquiatra suizo Eugen Bleuler, para describir algunos síntomas de la esquizofrenia.

Fue en 1943 cuando la palabra se empezó a utilizar más o menos en el sentido actual, en los estudios del psiquiatra infantil Leo Kanner, que llamó autismo a un trastorno en el cual los niños tenían dificultad o incapacidad total de comunicarse con otros, problemas de comunicación verbal y no verbal y un comportamiento restringido y repetitivo. Lo llamó “autismo infantil temprano”

El estudio del autismo, sus causas y tratamiento, se intensificó en 1960-1970, cuando el concepto llegó a la cultura popular. En el proceso, se propusieron y desecharon múltiples hipótesis tanto del origen del trastorno como de su tratamiento.

Prácticamente al mismo tiempo que Kanner, el vienés Hans Asperger describió a niños con patrones de comportamiento similares, que incluían poca capacidad de establecer lazos de amistad, tendencia a acaparar las conversaciones y a concentrarse en algún tema en concreto (por ello los llamaba “pequeños profesores”, pues eran capaces de hablar largamente sobre los asuntos que los apasionaban), lo que en la década de 1980 se llamaría “Síndrome de Asperger”, cuando los psiquiatras infantiles reevaluaron el autismo.

La presencia de ciertos síntomas, aunque no tuvieran la gravedad de los primeros casos descritos por Kanner, hizo que la definición de “autismo” evolucionara aceleradamente hasta lo que hoy se conoce como Trastorno del Espectro Autista, concepto más amplio y que incluye diversos trastornos que antes se consideraban independientes, según lo define el Manual de diagnóstico y estadística de trastornos mentales de 2013 publicado por la asociación psiquiátrica estadounidense.

El problema de los expertos que hacen este manual y, en general, de quienes trabajan en problemas de conducta que no tienen como trasfondo un trastorno biológico objetivamente observable, es que deben decidir, con base en su experiencia clínica y las opiniones de muchos profesionales, dónde está la línea entre lo normal, lo desusado y lo patológico. Línea que cambia con el tiempo. Baste recordar que hasta 1974 ese mismo manual incluía a la homosexualidad como una enfermedad.

Así que el aparente incremento en el número de niños diagnosticados con alguno de los trastornos del espectro autista, principalmente en los Estados Unidos, donde la cifra llega a uno de cada 88 niños, no significa forzosamente que haya más casos, sino una definición más amplia y mejores métodos de detección de diversos síntomas o signos.

Los síntomas

Los signos del trastorno se dividen en tres amplios grupos.

Los relacionados con la interacción social y las relaciones van desde problemas graves para desarrollar habilidades de comunicación no verbal hasta incapacidad de establecer amistades, falta de interés en interactuar con otras personas, falta de empatía o comprensión de los sentimientos de otras personas.

Los relacionados con la comunicación pueden incluir un retraso grave para aprender a hablar o no hacerlo nunca, problemas para iniciar o seguir conversaciones, uso estereotipado o repetitivo del lenguaje, dificultar para entender la perspectiva de la persona con quien habla (problemas para entender el humor o el sarcasmo) con tendencia a tomar literalmente las palabras y no “leer entre líneas”.

Finalmente, los que tienen que ver con los intereses y comportamiento de los afectados, como la concentración en ciertas piezas de las cosas más que en el conjunto, obsesión con ciertos temas, una necesidad de mantener rutinas y actividades repetitivas, y algunos comportamientos estereotipados.

Pero esto no significa que todas las personas que exhiban algunas de estas características tengan un problema de autismo. El diagnóstico se hace teniendo en cuenta el conjunto de síntomas y su gravedad, así como los problemas que le causa a los afectados para desenvolverse en sociedad.

Y, finalmente, el autismo puede presentarse en un abanico que va desde formas leves y sin importancia, como los de Asperger, hasta los casos graves que describió en su momento el Dr. Kanner.

Porque no todos los autistas pueden ser considerados enfermos, sino simplemente diferentes. Y esto nos lo ha enseñado un creciente número de personas diagnosticadas con autismo hablando de su vida, sus sentimientos y su percepción del mundo.

Uno de los ejemplos más conocidos es la Dra. Temple Grandin, especialista en ciencias animales, profesora de la Universidad Estatal de Colorado y autora de varios exitosos libros. Su experiencia personal le ha permitido no sólo trabajar en el tratamiento de personas autistas, sino diseñar espacios para animales de granja, incluidos mataderos, que disminuyen el estrés que experimentan.

De acuerdo a los criterios actuales, se diagnosticaría como pacientes autistas en diversos grados a gente tan distinta como la actriz Daryl Hannah, Albert Einstein, Wolfgang Amadeus Mozart, Charles Darwin, Isaac Newton o la poetisa Emily Dickinson. Lo cual vuelve al problema esencial de delimitar dónde termina la forma de ser y comienza la enfermedad.

Por ello, también, la última edición del manual de diagnóstico de los psiquiatras estadounidenses, DSM-V, publicado este mismo 2013, ha reevaluado el trastorno del espectro autista de modo tal que muchas personas antes consideradas víctimas de este trastorno, dejarían de estarlo. Lo cual es una expresión clara de lo mucho que aún falta por saber sobre el autismo.

El mito de las vacunas

En uno de los escándalos científicos más sonoros de los últimos años, el hoy ex-médico inglés Andrew Wakefield publicó en 1998 un estudio que vinculaba a la vacuna triple vírica (MMR) con el autismo y otros problemas. Como ningún investigador consiguió los mismos resultados, se revisó el estudio descubriendo que los datos eran totalmente falsos, urdidos por Wakefield para comercializar su propia vacuna. Pese a que el artículo se retiró y Wakefield fue despojado de su licencia profesional, ayudó a disparar un peligroso movimiento antivacunas.

El filón inagotable de Atapuerca

Desde 1976 se empezó la excavación de una serie de yacimientos en la burgalesa sierra de Atapuerca, que desde entonces ha sido clave para entender el origen de la humanidad.

"Miguelón", el cráneo número 5 de un Homo heidelbergensis
con entre 300.000 y 350.000 años de antigüedad, hallado
en las excavaciones de Atapuerca en 1992.
(Foto CC de José-Manuel Benito Álvarez, vía Wikimedia Commons)
¿Cuánto tiempo más va a haber excavaciones en Atapuerca?

Nadie lo sabe.

Al paso del tiempo, los yacimientos de la Sierra de Atapuerca no sólo nos han ofrecido un creciente conocimiento de la evolución humana, especialmente en Europa, sino que ha sido fuente de constantes sorpresas.

Quizá para entenderlo debamos saber que en Atapuerca no hay un solo yacimiento de fósiles y artefactos humanos, sino varios de ellos, cada uno de los cuales nos ofrece datos de distintos momentos de la historia de nuestra especie. Es decir, no se está excavando un lugar donde hubo un grupo de pobladores (como sería, digamos, la excavación de un poblado romano), sino varios sitios donde a lo largo de 1,4 millones de años vivieron distintos grupos, distintas especies humanas, no de modo continuo, sino sucesivo.

Atapuerca es así como un muestrario de la vida a lo largo de ese período larguísimo.

¿Por qué era atractiva para ellos esta zona? Probablemente por la abundancia de cuevas que podían prestarles refugio. Atapuerca está formada por piedra caliza, es decir, roca que es resultado del depósito o sedimentación de varios minerales, principalmente carbonato de calcio, a lo largo de mucho tiempo. Las rocas de Atapuerca tienen una antigüedad de alrededor de 1,7 millones de años. Una característica de la roca caliza es que el paso del agua en distintas formas crea cavidades en ella, dolinas, galerías y cuevas.

En Atapuerca, el “complejo cárstico”, es decir el conjunto de cavidades de la roca, tiene una longitud de más de 4 kilómetros de galerías.

A fines del siglo XIX, la construcción de un ferrocarril exigió excavar una trinchera en este complejo, que puso al descubierto algunos restos que fueron inmediatemante del interés de los arqueólogos. Pero fue en 1976, cuando se descubrieron algunos restos humanos, que empezó la exploración de la zona en forma sistemática e incesante hasta el día de hoy.

Los yacimientos

La gran dolina es uno de los más famosos puntos de Atapuerca, una cueva de 20 metros de alto que estuvo ocupada en dos momentos distintos.

En lo profundo de la cueva están los restos de quienes la habitaron hace 900.000 años, una especie humana desconocida hasta su descubrimiento aquí entre 1994 y 1995 por parte de dos de los codirectores del yacimiento, Eduald Carbonell y Juan Luis Arsuaga, siendo el tercero José María Bermúdez de Castro. Sus trabajos descubrieron alrededor de 80 fragmentos de huesos de 6 individuos distintos, además de gran cantidad de herramientas de piedra y huesos de animales. Los restos humanos eran distintos de los conocidos hasta entonces, y la nueva especie fue bautizada Homo antecessor, el hombre explorador, una especie derivada del Homo ergaster y que podría ser incluso el ancestro común de nuestra especie y la de los neandertales.

La abundancia de fósiles ha permitido extraer algunas relevantes conclusiones, como la práctica habitual del canibalismo entre estos posibles ancestros humanos,

En un nivel superior, de hace 450.000 años, está el asentamiento de un grupo de Homo heidelbergensis, que se consideran el ancestro directo de nuestra especie.

La galería es una cavidad en la que también vivieron grupos de Homo heidelbergensis por la misma época, y en otros momentos se usó como trampa natural para presas que eran conducidas allí para que cayeran en ella.

La sima del elefante es una cueva de 15 metros de profundidad en la que se han encontrado igualmente varios momentos de habitación del paleolítico además de restos fósiles de una especie humana no identificada que, si las dataciones son correctas, la habitó hace un millón y medio de años, por lo que sería la más antigua ocupación en cueva conocida del continente europeo.

La sima de los huesos es un pozo de 12 metros de profundidad que conduce a una rampa y una sala de unos 15 metros cuadrados y que se considera el más rico yacimiento de fósiles humanos del mundo, los más antiguos de un millón de años, debido a que se utilizaba como cementerio, es decir, que los muertos eran depositados a propósito en ella, dando cuenta de los más antiguos ritos funerarios que conocemos hasta hoy. Desde que se empezó a excavar en 1983 ha aportado decenas de fósiles de Homo heidelbergensis, los más importantes de los cuales se rescataron en 1992, como el llamado “Miguelón”, que es el cráneo más completo de esta especie que hay en el mundo.

La cueva mayor es un yacimiento arqueológico conocido desde principios del siglo XX en el cual hay artefactos de distintas épocas, desde el neolítico hasta la Edad del Bronce, y que contiene dos yacimientos en sí, el portalón, que es la entrada de la cueva y la galería del sílex, un espacio en cuyas paredes se han encontrado más de 400 motivos pintados o grabados, principalmente formas geométricas y algunas representaciones humanas y animales.

La cueva del mirador por su parte da testimonio de la vida de los humanos en esa misma época, aportando datos sobre la vida de los primeros pueblos ganaderos y agricultores que ocuparon la sierra hace 7 mil años.

Además de los yacimientos en cuevas, hay tres más que están al aire libre: el valle de las orquídeas, con restos que pertenecen al paleolítico, hundidero, con vestigios de asentamientos del paleolítico superior y Hotel California, curioso nombre de un yacimiento con materiales del paleolítico inferior y medio.

Finalmente, un último yacimiento, la galería de las estatuas, los responsables del proyecto esperan encontrar restos de Homo neanderthalensis, el único homínido del que aún no se han hallado fósiles en Atapuerca, y que ayudarían a determinar finalmente cuál es el lugar del Homo antecessor en el linaje humano, tema que sigue estando a debate.

En su conjunto, Atapuerca es uno de los espacios privilegiados del mundo para el conocimiento de la evolución de nuestra especie. Y sin embargo, es posible que tenga aún mucho qué revelarnos. Distintas prospecciones realizadas por los equipos que año con año hacen campaña en algunos de los yacimientos de la zona indican la presencia de muchos asentamientos, algunos de los cuales parecen guardar la promesa de una gran relevancia arqueológica y paleantropológica.

Visitar Atapuerca

Es posible para cualquier persona visitar algunos de los yacimientos de la Sierra de Atapuerca, principalmente los que se hallan a lo largo de la Trinchera del Ferrocarril. Esta visita se complementa con el Museo de la Evolución Humana en el centro de Burgos y el recorrido por el parque arqueológico, donde el visitante puede practicar algo de arqueología experimental para concer algunos aspectos de la vida de los ancestros de la humanidad.

Galaxias comunes y extrañas

En menos de un siglo, nuestra visión del universo se ha ampliado hasta abarcar un número enorme de galaxias, cada una con otras tantas estrellas, y algunas de ellas de aspecto o comportamiento desusados.

ARP 148, resultado del choque de dos galaxias, dejando una
galaxia anillo y otra alargada. (Foto D.P. NASA, vía
Wikimedia Commons)
Una galaxia es un sistema formado por estrellas, tanto activas como en formación, los restos de estrellas que han terminado su vida ya sea apagándose o estallando como supernovas, polvo estelar y otros cuerpos, unidos por la gravedad formando un cúmulo o agrupación distinguibles, separados de otros similares.

Hasta hace menos de 100 años, se creía que la Vía Láctea (la “galaxia”, que en griego significa precisamente “láctea”), esa franja de estrellas que podemos ver en la noche, era todo el universo. Tuvieron que llegar los astrónomos Ernst Öpik y Edwin Hubble en 1922 para determinar que las “nebulosas” que se habían observado no eran nubes dentro de nuestra galaxia, sino que eran en realidad otras agrupaciones de estrellas, otras galaxias, que se encontraban a distancias enormes de la nuestra.

El salto en nuestro conocimiento del universo operado en las últimas décadas ha sido sin duda espectacular. Si los astrónomos de la década de 1920 conocían un puñado de nebulosas a las que identificaron como galaxias similares a la nuestra, hoy se calcula que existen al menos 140 mil millones de galaxias, ateniéndonos a las observaciones del telescopio Hubble en las regiones más profundas del espacio. Pero ésa es la cifra más pequeña, la más conservadora.

Algunos astrónomos creen que podría haber un billón (un millón de millones) de galaxias o más en el universo.

Las galaxias tienden a ser agrupaciones más o menos en forma de platos, definidas por las enormes fuerzas gravitacionales de todos sus componentes. Algunas son elipses que pueden ser casi esferas, son las más grandes, probablemente resultado de la colisión de dos o más galaxias, mientras que la mayoría son espirales, con o sin una barra que las atraviesa, con dos o más brazos q ue se extienden a partir de un centro de estrellas más antiguas. Su forma les es dada por el giro que tienen alrededor del centro.

La mayor concentración de masa en el centro de las galaxias es uno de los elementos responsables de que, según cálculos de los astrofísicos, haya un agujero negro supermasivo en el centro mismo de cada galaxia.

Nuestra propia galaxia, la Vía Láctea, es una espiral barrada, surgida poco después del Big Bang en el que se cree que comenzó nuestro universo. Es, de hecho, una galaxia de tipo bastante común. Sus estrellas más jóvenes, como el Sol, están en los brazos que giran alrededor del centro, tardando entre 225 y 250 millones de años en describir una órbita completa.

Es decir, la última vez que nuestro sol estuvo en la posición que tiene hoy, aún no habían aparecido los mamíferos en la superficie de la Tierra.

Pero además de las galaxias de formas y características comunes, a lo largo de estos años se han descubierto algunas que sólo pueden calificarse de extrañas.

Las galaxias diferentes

Si todas las galaxias tienen en su centro un agujero negro, la galaxia NGC 1277, que está a unos 220 millones de años luz, en la constelación de Perseo, podría definirse más precisamente como un agujero negro que tiene alrededor una galaxia. En la mayoría de los casos, los agujeros negros conforman el 0,1% de la masa de toda la galaxia, mientras que el de la NGC 1277, uno de los más masivos detectados a la fecha, contiene el 14% y su diámetro es más de 11 veces el de la órbita de Neptuno alrededor del Sol. Nuestro sistema solar completo es diminuto comparado con esta enorme singularidad, cuya masa es igual a la de 17 mil millones de soles como el nuestro.

Un caso especial son las galaxias anillo, formadas, suponen los astrofísicos, del choque de dos galaxias, una pasando por el centro de la otra. Por supuesto, debido a las enormes distancias que separan a las estrellas dentro de cada galaxia, no hay un choque físico de estrellas, pero sí de las fuerzas gravitacionales. El resultado son galaxias con un anillo de estrellas azules muy jóvenes en cuyo centro hay un cúmulo de estrellas más antiguas, como es el caso del llamado “Objeto de Hoag”, descubierto en 1950, que tiene ocho mil millones de estrellas, o la galaxia ZW II 28, de color rosado y púrpura y cuyo centro aún no ha sido observado, aunque se espera que exista.

Entre el zoo de galaxias extrañas producto del choque de dos de ellas, destaca la conocida como Mrk 273, una galaxia con dos núcleos activos y una larga cola que le da el aspecto de un espermatozoide. Lo apasionante para los astrónomos no es la forma, solamente, sino el hecho de que los dos agujeros negros supermasivos del centro de las agrupaciones originales eventualmente se unirán formando uno mucho mayor que puede disparar la actividad en el centro de la galaxia.

El descubrimiento de nuevas formas y tipos de galaxias de hecho se acelera conforme se realizan más observaciones en mejores telescopios que usan no sólo luz visible, sino que pueden “ver” en distintas frecuencias del espectro electromagnético, como la infrarroja, los rayos X, las ondas de radio y los rayos gamma.

Así, en 2012 se anunciaba que el telescopio Wise de la NASA había descubierto no sólo 563 millones de objetos, muchos de ellos agujeros negros, sino un grupo peculiar de unas mil galaxias que nos quedan ocultas por polvo estelar y que emiten tanta luz como 100 billones de estrellas como la nuestra. Son galaxias con el doble de temperatura que otras similares y, dado que la masa que se puede calcular que tienen es mayor que la de sus estrellas visibles, podrían albergar agujeros negros de enorme tamaño.

El próximo lanzamiento de telescopios como el James Webb, sucesor tecnológicamente avanzadísimo del Hubble, el explorador ultravioleta de la universidad de Tel Aviv (TAUVEX ) o el telescopio de rayos X chino llamado HXMT seguramente harán que los miembros que hoy parecen más extraños de la familia universal palidezcan ante lo que aún queda por descubrir del universo en su parte visible en distintas longitudes de onda... y todo ello sin contar la parte invisible, más del 95% de la masa del universo, formada por materia oscura y la energía oscura, el objetivo más deseado de la ciencia.

Cómo se nombra a las galaxias

Las galaxias más visibles tienen nombres tradicionales, como Andrómeda, pero también tienen nombre, como las que no podemos ver desde la Tierra, según distintos catálogos. Las letras iniciales del nombre indican el catálogo: NGC (nuevo catálogo general), ESO (observatorio europeo del sur), IR (satélite astronómico infrarrojo), Mrk (Markarian) y UGC (catálogo general de Uppsala). Así, por ejemplo, Andrómeda es NGC 224 en el nuevo catálogo. Todos los nombres están administrados por la Unión Astronómica Internacional.

Prevención para salvar vidas: Maurice Hilleman

El nombre de Maurice Hilleman merecería ser más conocido, siendo el científico creador de más vacunas en la historia, el salvador de muchas vidas incluida, probablemente, la de usted.

Maurice Hilleman alrededor de 1958
(Foto DP Walter Reed Army Medical Center
vía Wikimedia Commons)
No existe una receta única para hacer una vacuna: distintas enfermedades, distintos patógenos, requieren distintas aproximaciones.

Algunas vacunas (gripe, polio, rabia) contienen virus muertos, otras (sarampión, rubéola, paperas) están hechas con virus atenuados, algunas mas (la antitetánica) constan de las sustancias tóxicas que producen los patógenos, otras contienen sólo un determinado fragmento de proteína potencialmente dañina y una clase más tiene sólo la capa exterior de algunas bacterias, conjugada con las sustancias tóxicas.

Estas aproximaciones tienen todas el mismo fin: al inocularse en nuestro cuerpo y amenazarlo, éste crea anticuerpos para destruir al agente de la vacuna. Luego el cuerpo “recuerda” cómo producir esos anticuerpos, y el día que se ve atacado por verdaderos patógenos con toda su potencia, por así decirlo, la fábrica de nuestras defensas está preparada para producir esos anticuerpos para defenderse si lo atacan.

Casi todos, al menos en los países opulentos, nos hemos beneficiado de una o más de las vacunas que desarrolló Maurice Hilleman.

Este estadounidense creó o mejoró durante su carrera más de 40 vacunas, muchas de las cuales siguen en uso hoy, ya bien entrado el siglo XXI.

Una granja familiar y un libro

Maurice Hilleman nació en una granja en Montana en 1919 y creció durante la Gran Depresión en un ambiente religioso luterano. En octavo grado, se encontró con el libro de Charles Darwin El origen de las especies y decidió que se dedicaría a la ciencia, lo que consiguió pese a las dificultades financieras que en los años siguientes amenazarían su sueño. Pero la familia consiguió al fin que Maurice se doctorara en microbiología por la Universidad de Chicago en 1941, con un trabajo de investigación que demostraba que la clamidia no era producida por un virus, sino por una bacteria.

Inició entonces una carrera en la industria farmacéutica empezando con el desarrollo de una vacuna contra la encefalitis japonesa B, enfermedad que atacaba a los soldados destacados en el Pacífico Sur durante la Segunda Guerra Mundial y después otra que logró contener una peligrosa pandemia de gripe de una nueva variedad a fines de 1950.

En 1963, Hilleman enfrentó el desafío que presentaba la vacuna contra el sarampión desarrollada por John Enders. Aunque efectiva y muy apreciada pues por entonces el sarampión mataba a medio millar de niños al año en los Estados Unidos, era demasiado potente y con cierta frecuencia provocaba fiebre y sarpullidos en los niños a los que se les aplicaba. El científico desarrolló un procedimiento para reducir esos efectos aplicando al mismo tiempo una dosis de gammaglobulina al niño. Pero siguió trabajando con la vacuna hasta que logró desarrollar una cepa del virus del sarampión que era mucho menos agresiva y que es la que se utiliza hasta la actualidad.

Ese mismo año, una epidemia de rubéola mató a alrededor de 11 mil niños en Europa y Estados Unidos y los investigadores del gobierno estadounidense desarrollaron una vacuna que, sin embargo, era altamente tóxica. De nuevo, Hilleman entró en escena y para 1969 había desarrollado una versión segura de la vacuna que evitó una nueva epidemia.

Su pasión la ejemplificaba una de las anécdotas favoritas del propio Hilleman. Una madrugada de 1963, su hija Jeryl Lynn cayó víctima de las paperas. El microbiólogo la metió en cama, condujo 20 minutos hasta el laboratorio, tomó el material necesario para recoger muestras del virus infeccioso que crecía en la garganta de su hija, volvió a casa, tomó las muestras y una vez más se dirigió al laboratorio para preservarlas en el frigorífico del laboratorio. El cultivo del virus y su estudio darían como resultado, tiempo después, la vacuna contra las paperas, que convirtió en recuerdo en gran parte del mundo una enfermedad infantil que ocasionaba numerosos casos de sordera entre sus víctimas.

En 1971, el Dr. Hilleman consiguió unir en una sola las tres vacunas principales que había desarrollado, la MMR (por las siglas en inglés de sarampión, paperas y rubéola) o “triple vírica” que desde entonces es parte importante del arsenal inmunológico de la medicina preventiva.

Maurice Hilleman tenía una personalidad áspera y brusca, que atribuía (o excusaba) con su temprana formación en los campos cultivados de Montana. Y ello también lo hacía un individualista desusado en una época en que, cada vez más, los avances científicos son producto del trabajo de grupos interdisciplinarios formados por numerosos investigadores. “A diferencia de otras personas que trabajan en la investigación”, recordaba uno de sus jefes del laboratorio Merck, “Maurice hacía él mismo todos los aspectos de la investigación y el desarrollo”. Esta actitud que le hacía decir “mi hobby es mi trabajo” lo impulsaba a realizar largas jornadas de trabajo siete días a la semana, algo que aseguraba que debían hacer todos los investigadores.

Su dedicación no se limitaba al desarrollo científico y técnico de las vacunas, sino que se desbordaba hasta la fabricación. Una vez que terminaba los estudios clínicos y la vacuna era aprobada para ser usada, Hilleman solía estar al tanto de la producción industrial de la vacuna, vigilando el proceso y corrigiendo posibles fallos con una tenacidad que en ocasiones provocaba tensiones entre el personal de fabricación, no acostumbrado a esta supervisión. “Entré en conflicto prácticamente con todo el mundo”, recordaría después Hilleman divertido.

Sin embargo, su insistencia permitió el desarrollo de métodos de producción en masa de vacunas seguras que pueden almacenarse durante largos períodos, en preparación de posibles epidemias.

Cuando alcanzó la edad de 65 años, que era la de jubilación obligatoria en el laboratorio, fue inmediatamente recontratado como asesor externo, lo que implicó básicamente que siguiera haciendo su trabajo normal durante 20 años más, hasta su muerte en el 2005, mientras batallaba furiosamente por desarrollar una vacuna contra el VIH/SIDA.

Hoy se calcula que el trabajo acumulado de Maurice Hilleman, héroe desconocido de la medicina, salva alrededor de 8 millones de vidas al año. Quizás sean más.

El trabajo de Hilleman

Entre las más de 40 vacunas desarrolladas por Hilleman están la del sarampión, las paperas, la hepatitis A, la hepatitis B, la meningitis, la varicela, la rubéola, la neumonía y la gripe Haemophilus influenzae tipo b, además de haber descubierto varios virus y descrito el proceso de reproducción de diversas infecciones. Por eso Robert Gallo, descubridor del virus del SIDA, lo llamó “el vaccinólogo más exitoso de la historia”.

Cuando la tierra se mueve

En un gran terremoto, la sensación es de total indefensión: todo se mueve, incluso el suelo, y las construcciones más orgullosas del ser humano pueden venirse abajo.

Imagen de la NASA mostrando las placas tectónicas y
la actividad sísmica asociada a ellas.
(Imagen D.P. NASA vía Wikimedia Commons)
Los terremotos, impávidos causantes de pérdidas humanas y materiales, no son acontecimientos desusados: diariamente ocurren miles de ellos por todo el planeta, pero salvo unos 280, son imperceptibles para nosotros.

El primer sismo registrado en la historia humana se anotó en los Anales del bambú de la antigua China, y ocurrió en algún momento entre el 1600 y el 2200 antes de la Era Común. Y hubo por lo menos otros dos sismos famosos en Grecia. Uno, ocurrido en Esparta, en el 464 a.E.C., provocó la muerte de varios miles de espartanos y fue uno de los factores que desencadenó la guerra del Peloponeso, y el otro, el terremoto de Rodas del 226 a.E.C., que destruyó una de las grandes maravillas del mundo antiguo, la estatua del coloso de Rodas que guardaba su puerto.

Los terremotos pueden ser causados por la caída de meteoritos, erupciones volcánicas o desprendimientos de tierra. Pero la causa más común es la liberación de tensión en fallas geológicas o fracturas en la roca, especialmente en donde se encuentran las placas tectónicas que conforman la corteza terrestre. Los dos terremotos griegos mencinados ocurrieron en sistemas de fallas que siguen siendo hoy causantes de la sismicidad en la zona.

La corteza terrestre está dividida en decenas de placas, de las cuales siete son las más grandes y forman la mayor parte de la superficie de nuestro planeta. Estas placas se mueven sobre el manto terrestre chocando entre sí, rozando unas contra otras o incluso hundiéndose (o subduciéndose) una debajo de otra. Las colosales fuerzas que se ponen en acción en estas interacciones provocan tensiones que se liberan abrupta e imprevisiblemente en la forma de terremotos.

Es por ello que la mayoría de los terremotos se concentran en determinadas zonas concretas donde la actividad tectónica y volcánica son especialmente intensas, en particular el llamado “anillo de fuego”, un cinturón alrededor del océano Pacífico que sube desde el mar frente a Australia y recorre Japón y la costa oriental del continente Asiático para seguir por el estrecho de Behring y bajar por toda la costa occidental del continente americano, en las zonas más conocidas de actividad sísmica como California, México, Centroamérica, Perú, Bolivia y Chile.

Se calcula que más del 90% de los terremotos del mundo (y más del 80% de los de mayor violencia ocurren en el círculo de fuego, en el que se encuentra casi medio millar de volcanes, más de las tres cuartas partes de los que existen en todo el mundo. Esto se debe al choque y movimientos de al menos seis placas tectónicas.

La segunda zona de mayor sismicidad del mundo es la que se extiende de Java a Sumatra y cruza la cordillera de los Himalayas (creada precisamente por el choque de dos placas tectónicas) para cruzar el Mediterráneo y salir al océano Atlántico.

Una consecuencia especialmente aterradora de los terremotos son los tsunamis, que ocurren cuando un terremoto en alta mar provoca no sólo ondas en la tierra, sino lógicamente también en el agua. Se trata de olas de gran longitud que avanzan a casi 300 kilómetros por hora extendiéndose desde el punto del terremoto. Al llegar el valle de la ola a una costa, el agua baja notablemente de su nivel normal. Esto es una de las más fiables advertencias de que se producirá un tsunami al llegar a tierra la cresta de esa ola, que puede tener 30 metros o más, y en un plazo de alrededor de cinco minutos.

Detectar los terremotos y medirlos fue un desafío que encontró su primera respuesta en el año 132 a.E.C, cuando el mtemático Chen Heng creó su “veleta de sismos”, un recipiente con ocho dragones en el exterior, cada uno sosteniendo una bola de bronce en la boca. Al menor movimiento, un mecanismo de péndulos dentro del recipiente hacía que soltara su bola el dragón en cuya dirección estaba ocurriendo el terremoto. Si bien no podía mediar la intensidad del sismo, sí podía advertir al emperador en qué dirección se habían movido sus dominios.

Pero el estudio serio de los terremotos hubo de esperar a fines del siglo XIX, cuando se desarrollaron los primeros aparatos capaces de medir la intensidad o magnitud de los terremotos, y técnicas para detectar los terremotos ocurridos a gran distancia, cuando en 1899 se pudo registrar en Alemania un terremoto ocurrido en Japón.

A lo largo del siglo XX, el conocimiento de los sismos y de nuestro planeta se retroalimentaron para permitirnos avanzar tanto en la sismología como en la geología. El estudio de las ondas que se producen cuando hay un terremoto permitió que fuéramos sabiendo no sólo qué magnitud tenía, dónde había ocurrido y a qué profundidad de la corteza terrestre, sino que el estudio de sus variaciones permitió saber cuándo esas ondas cruzaban discontinuidades, pasaban por capas rocosas de distinta densidad o composición o se encontraban cavernas, de modo que funcionaban como los rayos X en una radiografía, revelándonos la forma y materiales de las zonas de nuestro planeta que no podemos ver.

La primera escala de magnitud útil para medir los terremotos la desarrolló en 1935 el sismólogo californiano Charles Richter, pero sólo era aplicable a los sismos ocurridos a cierta distancia del sismógrafo que había desarrollado el propio científico.

Actualmente, la magnitud de los sismos se calcula mediante complejas fórmulas que interrelacionan las ondas sísmicas profundas y las superficiales que pueden detectar los modernos aparatos, además de tener en cuenta las características geológicas de la zona donde se produjo el terremoto, su profundidad y su dispersión. Por ello, es inexacto referirse a la magnitud de los sismos como “escala Richter”, pues ésta como tal ya no se utiliza… salvo en California, donde siguen esperando “el gran sismo” resultado de las fuerzas que se acumulan en la falla de San Andrés, donde se encuentran la Placa del Pacífico y la Placa Norteamericana.

Los sismógrafos actuales, por cierto, son tan sensibles que se utilizan para detectar eventos de poca energía (comparados con los terremotos) como las pruebas nucleares que pueda intentar de modo secreto algún país.

Predicción de sismos

El conocimiento actual se puede conocer la probabilidad de que ocurran ciertos sismos de determinada magnitud en ciertas zonas, sigue siendo imposible predecir con exactitud cuándo y dónde va a ocurrir un terremoto, de modo que la única forma de enfrentar el principal desafío humano ante este evento de la naturaleza es realizar construcciones resistentes y capaces de manejar los sismos y, si uno vive en una zona sísmica, estar física y emocionalmente preparados para un acontecimiento a la vez impredecible e inevitable.

¿De dónde viene tu mano?

Podemos conocer muy bien, según la conseja, las palmas de nuestras manos. Pero conocer lo que hay debajo de la piel y su funcionamiento nos permite conocer cómo llegamos a ser humanos.

(Fotografía @ Mauricio-José Schwarz)
Con 29 huesos, 123 ligamentos y 34 músculos (varios de ellos situados en el brazo y conectados a la mano mediante largos tendones) , la mano es uno de los aspectos más distintivamente humanos de nuestra anatomía y, según los descubrimientos de la evolución reunidos en los últimos 150 años, uno de los responsables de nuestra diferenciación de los demás primates.

Lo que diferencia el aspecto de la mano humana del de otros grandes simios es que es más corta, con dedos más chatos, palma casi cuadrada en lugar de la más alargada de sus parientes y un pulgar relativamente más largo. Esta forma está al servicio de una funcionalidad que incluye una gran fuerza y un control mucho más fino de movimientos de los dedos para agarrar, pinzar y hacer otros movimientos enormemente delicados.

Las manos humanas se remontan a las aletas de animales como el Eusthenopteron, ancestros de los primeros seres que salieron del mar para conquistar la tierra hace entre 380 y 400 millones de años. Todos los huesos que hoy conforman nuestros brazos y manos (y nuestras piernas y pies, por supuesto) tienen ya representantes, en formas muy distintas, pero identificables, en las aletas de estos antiguos peces. Sus descendientes en la tierra fueron los tetrápodos, ancestros de todos los reptiles, anfibios, aves y mamíferos.

Bajo la presión evolutiva de muchas y muy diversas exigencias del medio y los nichos ecológicos que iban ocupando los animales, el diseño básico de los huesos de las aletas se fue modificando para cumplir distintas funciones, alargándose, acortándose, uniéndose mediante ligamentos, reforzándose unos con otros o especializándose para distintas funciones, como los dedos, y articulándose para hacer movimientos como los de nuestra muñeca.

Lo que en nosotros son brazos y manos son patas muy variadas: las de los plantígrados como el oso, que se apoyan en las plantas o palmas, las de los animales que se apoyan sobre cuatro dedos, como los felinos o los elefantes, los que usan las puntas de dos dedos, protegidas con pezuñas, como el caballo, las patas con garras que permiten a las ardillas subir por los árboles o las impresionantes patas de geco, capaz de adherirse a cualquier superficie. Son también las alas de las aves y de los murciélagos, y las aletas de los mamíferos que volvieron al medio acuático después de haber sido habitantes de la tierra.

La innovación que condujo a nuestras manos ocurrió hace 60 millones de años cuando la extinción de los dinosaurios favoreció la proliferación de distintos grupos de mamíferos que ocuparon los nichos dejados vacantes por los desaparecidos. Uno de esos grupos es el de los primates, al que pertenecemos los seres humanos, un nuevo modelo de mamíferos con buena vista estereoscópica, pues tienen un rostro plano con los ojos situados al frente, manos y patas muy flexibles y con un primer dedo más o menos oponible.

En los primates, sin embargo, las manos seguían siendo también patas delanteras, pues cumplían una importante función en la locomoción. Hace unos 4 millones de años, una especie llamada Australopitecus afarensis y cuyo más conocido representante es el esqueleto llamado “Lucy”, hizo algo que ninguno de sus parientes había hecho: se pusieron definitivamente de pie, liberando las manos, que así se pudieron desarrollar sin las limitaciones que implicaba tener que servir para la locomoción.

Por ejemplo, los chimpancés, nuestros más cercanos parientes evolutivos, tienen una gran capacidad de manipulación, pero sus manos les siguen siendo necesarias para andar, de modo que deben poder plegarse para apoyarse en los nudillos. El bipedalismo es el responsable de las notables diferencias entre la mano del chimpancé y la nuestra, desarrolladas en los apenas 7 u 8 millones de años desde que tuvimos el último ancestro común con ellos.

La liberación de la mano de sus responsabilidades locomotoras favoreció el uso de este apéndice para otras tareas: cargar, lanzar, aferrar y, sobre todo, empezar a utilizar herramientas. Quizá Lucy y sus parientes ya utilizaban herramientas naturales, como palos y piedras, pero debido a que no las alteraban dejando huella de su manipulación, el debate no está resuelto. Las primeras herramientas creadas a propósito aparecen hace 2,6 millones de años, creadas y utilizadas por nuestro ancestro directo, Homo habilis, que adquiere su nombre precisamente por su habilidad con las manos.

Además de agarrar, lanzar y manipular, algunos antropólogos han sugerido que la capacidad de hacer puños para golpear podría haber tenido también una influencia en la forma y uso de las manos. Todas esas habilidades, claramente, son resultado del surgimiento de una adaptación especialmente importante: el pulgar totalmente oponible. Para los antropólogos, esto significa que la pulpa o almohadilla suave (donde tenemos las huellas dactilares) del pulgar puede entrar en contacto plana o punta con punta con los otros cuatro dedos... que es lo que hacemos a veces cuando contamos hasta cuatro tocándonos las puntas de los dedos con el pulgar.

Para que el pulgar pudiera oponerse a los demás dedos y desarrollar la capacidad fina de movimiento, especialmente cuando forma una delicada pinza con el índice, hubo de crear músculos especiales que no tienen los pulgares de otros primates y que le permiten girar o bascular hasta tocar el otro extremo de la palma de la mano.

Por supuesto, al tiempo que se desarrollaba la peculiar anatomía de la mano iba evolucionando la capacidad de nuestro cerebro para controlar este delicado instrumento a través de una gran zona de la corteza motora.

El resultado lo podemos ver en todo lo que el ser humano ha hecho con sus propias manos: desde la construcción de grandes edificaciones hasta la pintura, desde la cirugía hasta el movimiento de un ratón sobre una pantalla. Hazañas del control fino de movimientos como la capacidad de pintar paisajes sobre un grano de arroz o exhibiciones de fuerza como las que nos ofrecen los escaladores de roca... porque la especie humana es lo que es fundamentalmente gracias a sus manos

Un gen de la aleta a la mano

A fines de 2012, un equipo de la Universidad Pablo de Olavide encabezado por Renata Freitas anunció que al estimular la actividad del gen 5’Hoxd en peces cebra favorecio que en el extremo de las aletas se desarrollara cartílago susceptible de convertirse en hueso. Esto sugiere que las mutaciones que favorecieron la expresión de ese gen fueron probablemente disparadores de la evolución de nuestras manos, sobre una base genética que seguimos compartiendo con otros vertebrados como los peces cebra.