Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

agosto 31, 2014

La duración de nuestras vidas

Vivir para siempre, sueño de los alquimistas, y frecuente promesa de estafadores. Sigue pareciendo un sueño lejano, pero al menos hoy disfrutamos dos veces más años de vida que nuestros no muy lejanos ancestros.

"Estudio de un viejo", del maestro holandés
Jan Livens, siglo XVII (Imagen D.P. vía
Wikimedia Commons
El récord mundial de longevidad certificada y contrastada lo ostenta Jeanne Calment, francesa que vivió la asombrosa cantidad de 122 años y 164 días, entre el 21 de febrero de 1875 y el 4 de agosto de 1997. La prueba de su edad procede de consecutivos censos franceses desde el de 1876, donde aparece con un año de edad.

Es notable que vivió sola hasta los 110 años, que a los 85 empezó a hacer esgrima, que andaba en bicicleta hasta los 100, y que fumó hasta los 120.

Su personalidad es fascinante porque una vida larga es un viejo sueño humano. Por eso los relatos míticos suelen incluir a personajes enormemente longevos y que, además, conservan el vigor de la juventud. A los antiguos reyes sumerios se les atribuían reinados de entre 30.00 y 72.000 años, mientras que es conocido que la Biblia asegura que Abraham murió a los 175 años y su hijo, Isaac, el que se salvó de ser sacrificado en el último momento, llegó a los 180 años de edad.

Es probable que los “años” del viejo testamento sean resultado de traducciones incorrectas de meses lunares o de otras medidas de tiempo. Pero no importa: la gente ha optado por creer que fueron verdaderas esas vidas larguísimas, como la de Matusalén, poseedor del récord bíblico con 969 años, por improbable que resulte.

Queremos ser longevos, aunque pasar de los 100 años de edad sea una hazaña poco común. En 2010, sólo el 0,0173% de los estadounidenses alcanzaban los 100 años de edad. España es más longeva, con 11.156 centenarios en 2013, el 0,024% de la población. Aún así, es una cifra muy pequeña.

Y sin embargo, en promedio y en general, la vida humana tiene cada vez una mayor duración gracias a diversos factores. Pese a tener pocos centenarios, vivimos cada vez más.

La revolución de los abuelos

Rachel Caspari, paleoantropóloga de la Universidad de Central Michigan ha estudiado el desgaste de los dientes de nuestros antepasados como una medida razonablemente fiable (cotejada con otros métodos) de la longevidad de distintos individuos y poblaciones. Como resultado de sus trabajos, cree que una de las ventajas del Homo sapiens sobre los neandertales y que permitió a la primera especie sobrevivir mientras la otra desaparecía fue, precisamente, la longevidad.

Hasta hace unos 30.000 años, ni nuestros ancestros ni sus primos los neandertales solían vivir más allá de los 30 años, salvo excepciones. Fue por entonces cuando, por causas desconocidas, nuestra especie empezó a tener una mayor longevidad. Los humanos primitivos vivieron, por primera vez, con sus abuelos, lo que permitió conservar y transmitir mejor la información acumulada, afianzando la cultura. Según Caspari, esa revolución del paleolítico superior fue nuestra ventaja. Más personas, dice, permiten que haya más innovación, más ideas originales.

Tener viejos permitió que ellos cuidaran a los jóvenes, liberando a los adultos jóvenes para dedicar más tiempo a conseguir comida, lo cual fomentaba el incremento de la población, lo que también hacía a los Homo sapiens más fuertes como comunidad que los neandertales.

Pero una vida más larga, súbitamente, hizo también más evidentes los defectos acumulados en la historia de nuestra especie, lo que Caspari llama "las cicatrices de la evolución". Pagamos esa vida más larga con los achaques de la ancianidad.

La medida más común de la duración de la vida es la expectativa de vida al nacer. Pero al valorarla es importante recordar que se trata de un promedio. Una expectativa de vida de 40 años no indica que la mayoría de la población muriera a los 40, bien podía ser que la mitad de la población muriera en su primer año de vida y la otra mitad viviera hasta los 80. Entendido eso, la expectativa de vida han crecido de modo asombroso.

Hasta los inicios del siglo XIX, la expectativa de vida al nacer se movía entre los 30 y los 40 años de edad. A partir de ese momento empezó a aumentar, más acusadamente en los países cuya población tiende a disfrutar de un mejor acceso a innovaciones vitales como la medicina, el agua corriente, el alcantarillado y las normativas sobre higiene de los alimentos y otros productos. Actualmente, la expectativa de vida en muchos países se ha duplicado hasta los 80 años. España, de hecho, es uno de los países con el más notable cambio. Desde el inicio del siglo XX, la esperanza de vida al nacer ha pasado desde los 33,9 hasta los 75,8 años en el caso de los hombres y de los 35,7 hasta los 82,7 años en el de las mujeres.

¿Cuánto podemos vivir en realidad? Algunos investigadores han intentado calcular la máxima tolerancia del cuerpo humano al desgaste de la edad, las inevitables enfermedades degenerativas y los achaques que se van acumulando. Los coreanos Byung Mook Weon y Jung Ho Je han estimado que la edad máxima que puede alcanzar un ser humano es de 126 años. Otros, más optimistas aunque claramente con menos información, buscan sin embargo hacer realidad el sueño de la inmortalidad.

Pero lo esencial para muchos no es solamente vivir más años, sino que se puedan disfrutar con calidad de vida. En ese esfuerzo también la medicina ha hecho avances con procedimientos que hace no muchos años habría sido impensable practicarle a ancianos de 80 o 90 años, por ejemplo para dotarlos de nuevas caderas. Vivir más, y vivir mejor, es uno de nuestros logros más notables como especie.

¿Por qué envejecemos?

Hay diversas teorías que pretenden explicar, al menos parcialmente, por qué envejecemos y morimos. Se sugiere que el envejecimiento está programado en nuestras células, que sólo pueden reproducirse un número determinado de veces. También es posible que envejecer sea el inevitable resultado de la acumulación de daños celulares a lo largo la vida, fallos en la replicación del genoma, estrés oxidativo, acumulación de telómeros en los extremos de nuestros cromosomas y otros factores.

agosto 30, 2014

Linus Pauling, señor de los extremos

Uno de los más grandes químicos desde Lavoisier y un luchador digno por la paz fue, al mismo tiempo, un entusiasta de fantasiosas propuestas de salud que resultaron falsas.

Linus Pauling en 1962, cuando ganó
su segundo Premio Nobel, el de la Paz.
(Foto D.P. del Comité Nobel, vía
Wikimedia Commons)
Pocas personas merecen el nombre de “genios” tanto como Linus Carl Pauling. Y pocos han sido al mismo tiempo tan proclives a realizar excursiones intelectuales en los terrenos de la pseudociencia. Quizás el único ejemplo parecido en el siglo XX sea Nikola Tesla, genio de la ingeniería eléctrica que en sus años últimos se destacó por hacer afirmaciones implausibles sobre rayos de la muerte y energía gratuita.

Del genio y pasión humanista de Pauling dan fe los reconocimientos que obtuvo, como la única persona que ha recibido dos Premios Nobel no compartidos: el de química en 1954 y el de la paz en 1962. De sus tropezones queda un sistema pseudomédico y una serie de afirmaciones que se han apoderado del imaginario popular, cuyos proponentes jamás han conseguido demostrar en condiciones experimentales debidamente controladas y que se han vuelto parte importante del negocio de las terapias alternativas y los suplementos alimenticios inútiles.

Linus Carl Pauling nació en Portland, Oregon, el 28 de febrero de 1901, hijo de una familia con raíces alemanas, escocesas e inglesas. Buen estudiante, aprovechó el sistema de educación pública de los Estados Unidos, se enamoró de la química a los 14 años y sólo dos después ingresaba a lo que hoy es la Universidad Estatal de Oregon deseando convertirse en ingeniero químico.

Se cuenta que, para entonces, sabía tanto de química como algunos de sus profesores, de modo que muy pronto empezó a ocuparse de tareas de enseñanza. No había cumplido aún 21 años y ya estaba contratado como profesor, aunque no fue sino hasta los 22 que se recibió como ingeniero químico. Pero para entonces estaba más interesado en descubrir los principios de la química, que era aún en gran medida territorio virgen, que en aplicarlos. Pasó al Caltech donde obtuvo su doctorado en 1924 trabajando en un tema fundamental de la química: la forma en que los átomos se unen para formar moléculas, los llamados “enlaces químicos”.

Para estudiarlos, Pauling se especializó en el uso de la cristalografía de rayos X, una técnica que mide la difracción de los rayos X al pasar por una sustancia y permite determinar el tamaño y disposición de los átomos en las moléculas. La misma técnica que permitiría a Rosalind Franklin hacer las fotografías que permitieron a Crick y Watson determinar la forma de doble hélice del ADN.

A continuación, pasó una temporada en Europa donde se familiarizó con la emergente física cuántica, que le permitió desentrañar lo que sería el título del libro que le daría un lugar en la historia de la química: “La naturaleza del enlace químico y la estructura de las moléculas y los cristales”.

Apenas tenía 38 años y ya era catedrático, jefe de la división de química de Caltech y era el científico más joven electo a la Academia Nacional de Ciencias. Y además se había dado tiempo para ser padre de cuatro hijos.

Pero Pauling deseaba saber más sobre cómo se comportaban los átomos y las moléculas. Empezó a trabajar con moléculas orgánicas, pero también con metales, buscando respuestas a la teoría del ferromagnetismo o por qué existe la atracción magnética, la forma de las moléculas de los gases, la estructura de las proteínas, la de los anticuerpos, las propiedades de la hemoglobina, la teoría molecular de la anestesia y otros muchos temas que plasmó en más de mil publicaciones, entre artículos y libros.

Pauling pasaría por un proceso que afectó a muchos científicos de su generación. Después de participar en el esfuerzo de guerra contra el nazismo (no fue parte del Proyecto Manhattan para evitar trasladar a su familia a una nueva residencia), las bombas atómicas de Hiroshima y Nagasaki lo llevaron a asumir una posición pacifista y, especialmente, contraria al armamento nuclear, labor en la que militaría el resto de su vida.

Incluso se cuenta que en alguna ocasión, invitado a cenar con el Presidente Kennedy, pasó la tarde manifestándose ante la Casa Blanca con una pancarta en contra de la proliferación nuclear, para luego cambiarse a una indumentaria más formal y cenar en la propia Casa Blanca.

Así, si en 1954 había recibido el Nobel de Química por su aportación a la comprensión de los enlaces químicos, en 1962 recibió el de la Paz por su lucha contra las pruebas nucleares atmosféricas. Era la primera persona que ganaba un segundo Nobel después de Marie Curie.

Su éxito en la comprensión de las bases moleculares de la anemia falciforme le llevó a tratar de encontrar respuestas sencillas a problemas complejos de salud, hasta que llegó a convencerse, sin una base sólida, de que las enfermedades psiquiátricas se debían a deficiencias de vitaminas y otros micronutrientes, y que podrían prevenirse e incluso curarse si se consumían esas moléculas en las cantidades correctas. Dio a su hipótesis el nombre de “medicina ortomolecular” (del griego “orthos”, correcto, es decir, las moléculas en la cantidad correcta).

El concepto se ampliaría después a todas las enfermedades, fundando la que se convertiría en una lucrativa pseudomedicina, cuya expresión más conocida es la convicción de Pauling de que las dosis masivas de vitamina C podían prevenir e incluso curar la gripe y otras afecciones. Pese a numerosos estudios que han demostrado que su especulación carecía de bases, la percepción popular sigue siendo que el consumo de vitamina C, como suplemento o en frutas como los cítricos, tiene algún valor antigripal.

Poco después, amplió su afirmación indicando que la vitamina C podía aumentar la supervivencia de pacientes de cáncer. De nuevo, numerosos estudios han sido incapaces de demostrar que esta idea tuviera alguna base en la realidad. En un giro final hacia la pseudociencia, Pauling se negó a aceptar los resultados de un colaborador de su propio instituto que indicaban que las dietas ortomoleculares no tenían efecto en ratones con cáncer.

Cuando Linus Pauling murió en 1994, dejó una imagen dividida. Su brillantez como químico, su compromiso con la paz y sus creencias irracionales respecto de la salud obligan a verlo en toda la complejidad y contradicciones de quien, siendo un genio más allá de toda duda, era también presa fácil de sus creencias.

Un legado peligroso

Un antiguo asociado de Pauling, Matthias Rath, se ha dedicado a utilizar el nombre e ideas del químico para asegurar que el SIDA y el cáncer pueden curarse con complementos vitamínicos que comercializa su propia empresa. Numerosos estudios han señalado que estas afirmaciones carecen de validea, y para muchos sus campañas contra los antirretrovirales, principalmente en África, han sido un obstáculo para el control de la pandemia.

agosto 29, 2014

Procesadores vivientes de alimentos

Quizás no suene muy atractivo a primera vista, pero algunos de nuestros más apreciados alimentos son como son gracias a que en su procesamiento han sido ya digeridos por otros seres vivos.

"Los comedores de ricotta", de Vincenzo Campi,
siglo XVI (Imagen DP vía Wikimedia Commons)
Algunos alimentos fundamentales no habrían existido a no ser porque algunos cultivos son sometidos a la acción de seres vivos que los alteran y los convierten en alimentos más sabrosos, más nutritivos, más duraderos o incluso más sanos.

Un ejemplo que gustan de citar los historiadores es el de la cerveza.

Esta popular bebida apareció en los inicios de la agricultura de cereales, hace alrededor de 10.000 años. Aunque es imposible conocer cómo se dieron los acontecimientos, es razonable imaginar algo de cereal, o quizá un poco de pan, que por algún descuido o accidente hubieran quedado algunos días en agua, sufrieron fermentación, y algún agricultor neolítico tuvo la osadía, el descuido o la urgencia de beberla. Su sabor era distinto, agradable, y tenía algo diferente que lo achispaba a uno un poco. Era cerveza.

La palabra clave es “fermentación”. Los antiguos babilonios no sabían cómo funcionaba o qué era lo que la provocaba, pero lograron controlarla a voluntad: molían cereales, los calentaban en agua, los horneaban y los volvían a meter en agua, y mágicamente tenían cerveza. Por fortuna. En muchas de las civilizaciones subsiguientes, incluyendo el prolongado imperio egipcio y hasta hace muy poco tiempo, tuvieron cerveza. El agua solía estar contaminada y causar graves malestares, de modo que era preferible beber cerveza, cosa que hacían todos, de niños a ancianos, hombres y mujeres. Salvo en las culturas donde dominaba el vino, mosto igualmente fermentado.

Pasteur descubrió, a partir de la década de 1850, que esa transformación que parecía mágica no ocurría, como se creía hasta entonces, espontáneamente, sino que era producto de la actividad de seres vivos: bacterias y hongos. Ello le permitió, en una de las acciones que más fama le dio en Francia, explicar la degradación de los vinos franceses a causa de bacterias ácidas y proponer formas de evitarlo, salvando a la industria vinícola de su país.

Un ser viviente benéfico, la levadura, un hongo, evitaba así que otros seres vivientes dañinos atacaran a los seres humanos.

La fermentación es un proceso metabólico, es decir, digestivo, mediante el cual un organismo convierte un carbohidrato, por ejemplo almidones o azúcares, en un alcohol o en un ácido. Las levaduras, al fermentar o digerir los carbohidratos de la uva, la manzana, los cereales y otros alimentos los convierten en alcohol y en el proceso obtienen la energía que necesitan para vivir. Después, incluso, podemos utilizar bacterias ácidas para que fermenten nuevamente el alcohol, convirtiéndolo en ácido acético o vinagre y, también, alimentándose en el proceso.

El queso añejado o madurado es otro producto de la acción de distintos seres vivos. Mientras que el queso fresco se obtiene simplemente separando los sólidos de la leche (grasas y parte de la proteína) de sus componentes líquidos (el suero, formado de proteína y agua), muchos quesos son procesados con cepas específicas de bacterias para conseguir una asombrosa variedad de sabores.

El queso Emmental, por ejemplo, utiliza a lo largo de su añejamiento tres tipos distintos de bacterias. Las dos primeras convierten el azúcar propia de la leche, la lactosa, en ácido láctico, y la tercera consume ese ácido láctico y libera dióxido de carbono, un gas que forma las burbujas que le dan su característico aspecto con agujeros u “ojos” a éste y otros quesos.

Los quesos azules y otros como el brie o el camembert utilizan distintas variedades de bacterias y de hongos penicillium, los mismos que dieron origen a la penicilina, el primer antibiótico eficaz. El penicillium es el responsable tanto de las vetas azul verdosas de algunos quesos como de la costra blanca aterciopelada del brie y el camembert.

La conversión de la lactosa en ácido láctico en los quesos añejos permite además que sean consumidos por personas que sufren de intolerancia a la lactosa. De hecho, hay estudiosos que han sugerido que el queso se difundió precisamente porque permitía que más personas pudieran consumir lácteos sin problemas. Es, por supuesto, sólo una hipótesis.

Uno de los alimentos más apreciados en décadas recientes es el yogur en distintas formas. Sin embargo, hasta la década de 1940-50, la gente que quería yogur tenía que producirlo ella misma, consiguiendo que otro entusiasta le diera parte de un cultivo de lactobacilos entonces conocidos como “búlgaros” por haber sido descubiertos por un doctor búlgaro, Stamen Grigorov. Hoy, su producción industrial ha eliminado prácticamente la necesidad de hacerlo en casa.

El yogur se hace sometiendo la leche a fermentación por dos bacterias, una de ellas degrada las proteínas de la leche para convertirlas en aminoácidos y la otra usa esos aminoácidos. Ambas convierten la lactosa de la leche en ácido láctico, dándole al yogur su acidez y textura habituales.

Hemos dejado para el final el alimento por excelencia, el pan, que en muy distintas formas y a partir de muy diversos granos, se hornea en todo el mundo. El pan y sus primos lujosos, toda la repostería, dependen de la levadura para ser el símbolo de la alimentación que son. La levadura hace que el pan “suba” por el mismo procedimiento por el que produce los “ojos” en quesos como el emmental, emitiendo dióxido de carbono al consumir parte de los carbohidratos del pan y fermentarlos. Esas burbujas son las que forman lo que los expertos en pan llaman “alvéolos”, que hacen que el resultado sea esponjoso y atractivo a nuestro tacto, además de fácil de masticar y sabroso. La fermentación, además, colabora a darle al pan su sabor característico y fortalece el gluten, esa proteína que le da consistencia al pan y que es un excelente alimento salvo para quienes sufren de intolerancia al gluten o de celiaquía, una enfermedad autoinmune.

Sin estos procesadores de alimentos, quizá, sólo quizá, la civilización humana no se habría desarrollado o, muy probablemente, habría tomado otros derroteros, que nos pueden parecer poco atractivos si dieran como resultado un mundo sin cerveza, queso y pan.

El café más caro del mundo

Levaduras y bacterias son microorganismos unicelulares y por tanto comer alimentos que ya digirieron estos seres puede no provocarnos rechazo. Muy distinto es el caso del “kopi luwak” o café de civeta. Se trata de un café que se hace con bayas de café que han sido comidas y defecadas por civetas de las palmeras, un mamífero común en Asia. Aunque los expertos en café no lo consideran especialmente bueno, es el café más caro del mundo, y las bayas recolectadas de los excrementos de las civetas pueden llegar a costar 550€ el kilo.

La familia de los elementos desusados

De los 92 elementos naturales que existen, algunos nos resultan tremendamente familiares, como el hierro, el carbono o el hidrógeno. Pero hay una familia casi desconocida que vive con nosotros sin que sepamos apenas su nombre.

Los colores fluorescentes bajo luz ultravioleta de los billetes
de la moneda europea se deben a la presencia de los
lantanoides europio e itrio. (Imagen D.P. Banco
Europeo vía Wikimedia Commons)
Si queremos pensar en un elemento que sea líquido a temperatura ambiente, prácticamente todos nosotros vamos a pensar en el mercurio.

Pero hay otro elemento líquido a temperatura ambiente, el bromo, y cuatro metales que, si la temperatura ambiente es superior a los 25 ºC, también son líquidos: el galio, el cesio, el francio y el rubidio. Y todos ellos, salvo el francio, que tiene pocas aplicaciones prácticas, son esenciales para el mundo tecnológico e industrial.

Más allá hay otro grupo de elementos aún más desconocidos. Si vemos una tabla periódica de los elementos, que los ordena según su número atómico (el número de protones que tiene en su núcleo) y según sus propiedades químicas, uno de los aspectos más peculiares es que muestra, debajo del cuerpo de la tabla, dos filas desprendidas, como si se hubieran caído de la tabla.

La primera incluye a los elementos que tienen los números atómicos del 57 al 70 y se les conoce colectivamente, en ocasiones junto con los de los números 21, 39 y 71, como “lantánidos”, antiguamente “tierras raras” aunque los organismos internacionales recomiendan lantanoides. La segunda fila, también de 14 elementos, está formada por los que tienen los números atómicos del 89 al 102, son todos radiactivos y se les conoce como “actínidos”. A partir del elemento número 93, son todos artificiales, es decir, no existen en la naturaleza, sino que han sido creados por el ser humano. Hasta hoy, el ser humano ha creado hasta el elemento número 118.

¿Lantanoides?

¿Por qué están separados los lantánidos de los demás elementos? Desde el punto de vista químico son elementos que comparten ciertas características. Son metales de aspecto plateado que se oxidan al verse expuestos al aire y son relativamente suaves, con los de mayor peso atómico un poco más duros. requieren de altas temperaturas para fundirse y para entrar en ebullición y son altamente reactivos, sobre todo con elementos no metálicos, lo que quiere decir que requieren poca o ninguna energía para formar compuestos. Se disuelven rápidamente al contacto con ácidos y se queman fácilmente a temperaturas de entre 150 y 200 ºC, además de otras propiedades químicas comunes. Varios de ellos son potentemente fluorescentes, es decir, al recibir energía emiten luz en un color determinado.

Hasta fines del siglo XVIII, los seres humanos no tenían noticia de la existencia de esta serie de elementos. Fue en 1787 cuando el oficial del ejército sueco Carl Axel Arrhenius descubrió un peculiar mineral en una cantera cercana al pueblo de Ytterby, cerca de Estocolmo. A partir de ese mineral, en 1794, el químico finlandés Johan Gadolin describió el itrio. Durante algo más de un siglo se irían identificando los demás miembros de esta familia presentes en la naturaleza, siendo el último el lutecio en 1907. Aislarlos y describirlos fue difícil precisamente por la similitud química que los caracteriza... a lo largo de los años, ocurrió varias veces que un investigador creyera que había encontrado un nuevo elemento cuando estaba ante una combinación de dos o tres lantanoides.

Estos elementos fueron llamados “tierras raras” porque es muy difícil encontrarlos en forma pura, pero los minerales que los contienen están presentes por todo el planeta. Y ciertamente no son “tierras”, una denominación antigua para cualquier cosa que se pueda disolver en ácido.

Podemos encontrar a estos elementos en lámparas y láseres, magnetos, proyectores de cine y pantallas intensificadoras de rayos X (que permiten hacer radiografías con menos exposición a la radiación que en el pasado), en aleaciones de acero y en muchas otras aplicaciones que están, con frecuencia, en nuestras propias casas.

Como ejemplo, las propiedades de fluorescencia de algunos lantanoides se han utilizado para efectos de seguridad. Ponga usted un billete de 50 euros bajo luz ultravioleta, como el de un detector de billetes falsos, y verá aparecer líneas azules y verdes, y las estrellas europeas en verde y anaranjado... estas últimas contienen europio. Si su billete no tiene estas marcas fluorescentes, es falso.

La fluorescencia verde del terbio está en la pantalla de su ordenador o televisor, es el elemento responsable de los puntos verdes, mientras que el rojo es resultado de la combinación de europio e itrio (los colores de las pantallas se obtienen dándole distintas luminosidades a grupos de tres puntos: rojo, azul y verde; el blanco son los tres funcionando a plena luminosidad).

El erbio, por su parte, emite luz con una potencia por debajo de la que es visible para nosotros, en el infrarrojo, pero puede enviar señales reconocibles a largas distancias, de modo que los tendidos de fibra óptica en todo el mundo utilizan amplificadores de señal de erbio situados cada tantos kilómetros para asegurar una transmisión sin errores.

Y, si uno está consciente de la necesidad de reducir la contaminación que arrojamos al medio, los lantanoides son fundamentales, ya que sin ellos no existirían los convertidores catalíticos que limpian el escape de nuestros vehículos de motor.

Descubrimientos relativamente recientes sobre las propiedades de los lantanoides han dado como resultado, desde 1982, el desarrollo de imanes potentísimos hechos con los elementos escandio y, sobre todo, en compuestos neodimio que forman los imanes más potentes y, por tanto, han permitido que se produzcan motores eléctricos potentes en tamaños reducidos (como los de las herramientas eléctricas de mano o los de las unidades de disco duro de almacenamiento informático) o generadores mucho más eficientes como los de las turbinas eólicas que están colaborando al establecimiento de una base creciente de fuentes de energía renovables y más limpias.

Ni tierras, ni raras, pero los lantanoides siguen siendo unos desconocidos de nombres aparentemente caprichosos aunque sin ellos probablemente usted no podría haber leído estas páginas.

La guerra de las tierras raras

China tiene algunos de los más importantes depósitos de tierras raras en Mongolia Interior, y los explota muchas veces sin las medidas adecuadas de seguridad, ya que los minerales lantanoides suelen estar acompañados de otros elementos radiactivos y purificarlos puede también ser un proceso altamente contaminante. China ha amenazado con cortar el suministro de tierras raras como forma de obligar a las empresas tecnológicas a mudarse a su país, con sus empleos. Sin embargo, recientes descubrimientos de lodos ricos en tierras raras en Japón podrían alterar la economía de estos elementos.

agosto 27, 2014

La cambiante temperatura de la Tierra

La temperatura en un lugar determinado de nuestro planeta, o en todo él, depende de una enorme diversidad de factores, e incluso podría ser que aún no los conozcamos todos.

Mapa de temperaturas medias anuales entre 1961 y 1990 en
todo el mundo. (Imagen GFDL de Robert A. Rhode,
via Wikimedia Commons) 
El tiempo es el gran iniciador de conversaciones. Quejarse de él permite iniciar una relación con un desconocido en el ascensor, en el bar, en el taxi, en la disco...

El tiempo nos preocupa porque nuestra vida depende de él. Nuestras cosechas pueden perderse si hay variaciones inesperadas e incluso nosotros mismos sólo podemos sobrevivir en un rango de temperaturas muy estrecho, y al estar fuera de él requerimos protección o morimos. Ello explica también por qué somos especialmente sensibles a los cambios de temperatura: es una alarma de peligro de vida o muerte. De hecho ni siquiera habríamos podido sobrevivir con las temperaturas que dominaron la mayor parte de la larga historia de nuestro planeta.

El factor que nos parece más determinante para la temperatura en cualquier lugar de nuestro planeta es la luz del sol: mientras más perpendicular es respecto de un punto determinado, más energía le aporta y más caluroso será el tiempo, como ocurre en verano y, a la inversa, mientras mayor es el ángulo al que la luz solar entra en la atmósfera y llega a la tierra, menos energía recibe ese punto y su temperatura baja.

La irradiación solar es en realidad sólo uno de muchos factores que se interrelacionan en el complejo sistema que es nuestro planeta. La composición de nuestra atmósfera, así como su presión, por poner un ejemplo, es también un elemento clave, ya que determina cuánta energía es capturada por el aire a nuestro alrededor, cuánto se refleja y cuánto calor se puede dispersar.
La historia de nuestro planeta comienza como una enorme masa de lava ardiente que se formó de polvo estelar hace unos 4.500 millones de años y pasó los siguientes 700 millones enfriándose y formando una corteza y una atmósfera. Hace 2.500 millones de años, los primeros seres vivos, las cianobacterias, empezaron a emitir oxígeno a la atmósfera como subproducto de su metabolismo... un elemento que antes estaba sólo presente en forma de compuestos diversos.

El oxígeno ayudó a reducir la temperatura de nuestro planeta hasta que, hace unos 500 millones de años, alcanzó una temperatura media de unos 22 grados centígrados. Esto, que parece cómodo, es tremendamente cálido, una temperatura 8 grados superior a la que los geólogos y climatólogos suelen usar como punto de referencia: el promedio de temperaturas en todo el planeta entre 1961 y 1990, alrededor de 14 oC. Esta media, claro, incluye desde los extremos por encima de los 40 grados en lugares como Etiopía hasta los que están por debajo de los -46 grados centígrados en los asentamientos más al norte de Rusia o Canadá.

Estas temperaturas, que conocemos sólo mediante mediciones indirectas y cálculos razonablemente fiables pero no absolutamente certeros, aumentaron hace entre 250 y 55 millones de años hasta un máximo de 6 grados por encima del punto de referencia. Este aumento se vio interrumpido por un súbito enfriamiento que coincidió con la extinción de los dinosaurios hace 66 millones de años.

A partir de ese momento, las temperaturas disminuyeron hasta llegar a una “era de hielo” que comenzó hace 35 millones de años, hasta que hace unos 3 millones de años alcanzaron un valor cercano al de la media de 14 oC y la tendencia continuó durante los siguientes dos y medio millones de años.

De las glaciaciones al calentamiento global

En el último tercio de su historia, la Tierra ha pasado por varios períodos glaciales, en los cuales las temperaturas de los polos son muy bajas, y tienen una gran diferencia respecto de las que se experimentan en las zonas ecuatoriales. Grandes glaciares avanzan desde los polos cubriendo enormes extensiones de tierra y mar.

Este fenómeno ha ocurrido aproximadamente cada 200 millones de años, y cada una de las eras glaciales o eras del hielo ha tenido una duración de millones de años. Dado que técnicamente una era de hielo es cualquiera donde haya glaciares en los polos, estamos en la más reciente de ellas. Pero dentro de ella hay glaciaciones y períodos más cálidos regidos, hasta donde tenemos información, aunque hay ciertas discrepancias, por los ciclos que descubrió el geofísico serbio Milutin Milankovitch y que relacionan las variaciones de la temperatura con la posición de la Tierra: la precesión de su órbita y la excentricidad e inclinación de su eje. La más reciente era glacial ocurrió hace entre 110.000 y 12.000 años, es decir, la experimentaron y vivieron los seres humanos modernos. A lo largo de ella, hubo distintos períodos de avance y retroceso de los glaciares en distintos puntos del planeta

La temperatura del planeta sólo empezó a registrarse de modo preciso y directo a partir de 1850, gracias a termómetros precisos y fiables, y a la aparición de oficinas meteorológicas nacionales por todo el mundo, usando como modelo la británica, establecida en 1854.

Gracias a este registro, además de los estudios indirectos como el análisis de la atmósfera del pasado conservada en glaciares muy antiguos, y que se pueden estudiar tomando muestras profundas del hielo, hemos podido determinar que uno de los factores determinantes de la temperatura es la concentración de bióxico de carbono (CO2) en la atmósfera. Mientras más CO2 hay, mayor es la temperatura.

Ésta es una de las bases más sólidas para que la mayoría de los especialistas concluyan que el aumento de un grado centígrado en la temperatura media del planeta registrado desde 1900 se debe en gran medida a la emisión de CO2 producto de actividades humanas, principalmente la quema de combustibles fósiles.

El futuro de la temperatura de nuestro planeta es, sin embargo, difícil de prever aún si los seres humanos controlamos nuestra emisión de gases como el bióxido de carbono a la atmósfera. Nada garantiza que consigamos tener una temperatura ideal para el futuro, porque nuestro planeta es un sistema dinámico, siempre cambiante, en el que juegan muchos elementos conocidos y otros que aún no hemos podido identificar.

Lo único seguro es que seguiremos teniendo la oportunidad de hablar del tiempo y quejarnos de él para conocer nuevas personas.

El tiempo y el clima

Solemos escuchar que el calentamiento global se ve confirmado o denegado por una ola desusada de frío o de calor. Pero el tiempo, que es nuestra experiencia inmediata, es sólo lo que pasa en la atmósfera en un momento dado donde estamos, nada más. El clima es la media de todos los aspectos en todo el mundo y durante mucho tiempo. Por eso, la temperatura media del planeta puede aumentar medio grado en un año aunque en nuestra ciudad hayamos tenido más frío que nunca. Ese frío es sólo nuestra aportación a la media.

agosto 24, 2014

El ébola y otras amenazas latentes

Hay virus que apenas empezamos a conocer y cuyos efectos cuando infectan seres humanos parecen a veces producto de la imaginación de un escritor de terror.

Fotografía comunitaria de la aldea de Yambuku, Zaire, en
1976, cuando los equipos internacionales llegaron a combatir
el primer brote de ébola registrado. (Foto D.P. CDC, vía
Wikimedia Commons)
El 1º de septiembre de 1976, un hombre se presentó en el hospital de la misión de Yambuku, una pequeña aldea de la República Democrática del Congo situada junto al río Ébola. Los síntomas que presentaba sugerían que padecía malaria, una enfermedad común en el país centroafricano, con más de 100 mil casos cada año.

El personal del hospital, encabezado por monjas belgas, le puso una inyección de cloroquina, tratamiento habitual en estos casos. La fiebre cedió sólo para volver acompañada de fiebre y sangrado gastrointestinal, y el hombre murió el 8 de septiembre. Seguirían semanas de terror en Yambuku con una epidemia desconocida para la medicina.

Debido a las limitaciones económicas del hospital, relata un informe de la OMS, se daban a las enfermeras cada día cinco jeringuillas y cinco agujas que ni siquiera se podían esterilizar entre pacientes, sino que simplemente se enjuagaban después de un paciente para inyectar a otro. Varias personas que recibieron inyecciones desarrollaron síntomas similares en los días siguientes... y también fallecieron.

La enfermedad era un misterio. Sus primeros síntomas eran fiebre, debilidad extrema, dolores musculares, de cabeza y de garganta. Después se presentaban insuficiencias de los riñones y del corazón y, en algunos casos, sangrado interno y externo

Cuatro semanas después, el hospital cerró. Además de la muerte de numerosos pacientes, 11 de los 17 miembros del personal del hospital también habían fallecido de la misteriosa enfermedad. El 3 de octubre, el Ministerio de Salud de la República Democrática del Congo puso en cuarentena toda la zona de Bumba alrededor del hospital. Al detenerse las inyecciones, que habían sido la principal fuente de transmisión de la enfermedad, y aislando a las víctimas en los pueblos cercanos, la epidemia terminó el 24 de octubre. En menos de dos meses, 318 personas habían sido infectadas y sólo 38 habían sobrevivido, una alarmante tasa de muerte del 88% de los pacientes.

Al mismo tiempo, en Nzra, Sudán, otra epidemia similar venía desarrollándose más lentamente desde el 27 de junio, cuando un trabajador de una fábrica de ropa enfermó y murió nueve días después. A partir de entonces, y hasta noviembre, en la zona hubo 284 casos de la enfermedad, de los que fallecieron 156.

Los virus emergentes

Poco después se identificó a los responsables de la enfermedad, dos virus estrechamente emparentados a los que se les dio el nombre de “ebolavirus” virus del ébola, por el río que corre junto a Yambuku. El del Congo se llamó “ebolavirus Zaire” (Zaire era el nombre que entonces tenía la RDC) y el otro “ebolavirus Sudán”, o EBZ y EBS. Se trata de organismos pertenecientes a la familia “Filoviridae”, que significa “virus similares a hebras de hilo”.

El virus del ébola está estrechamente emparentado con el virus de Marburgo, que también es capaz de ocasionar estas enfermedades de fiebre hemorrágica, y que se identificó en 1967 por epidemias que se desarrollaron en Marburgo y Frankfurt, Alemania y en Belgrado, en la antigua Yugoslavia, que partieron de monos infectados que se habían importado de Uganda. 31 personas enfermaron y 7 de ellas murieron.

El depósito natural de estos virus son diversos animales, principalmente murciélagos, de los que puede pasar a los seres humanos. Entonces, la infección se extiende por contacto con los fluidos corporales de las personas infectadas: sangre, saliva, semen, etc.

Otra familia, los arenavirus, son responsables también de afecciones similares de fiebre hemorrágica, más comunes y menos mortales, como el virus de Lassa y el recientemente identificado virus de Lujo, además del LCMV, que causa meningitis. Estos tres virus infectan a roedores, de los que pasan al ser humano.

Y hay muchos otros virus poco frecuentes que pueden ocasionar fiebres hemorrágicas y afecciones igual de aterradoras con altas tasas de víctimas. Según los Centers for Disease Control, (Centros para el Control de Enfermedades, CDC) del gobierno estadounidense, el número de virus causantes de enfermedades está en aumento y esperan que la tendencia continúe conforme se describen nuevos virus procedentes principalmente de África, Asia y el continente americano.

Un problema adicional de estas enfermedades, inquietantes si bien poco frecuentes en general, es que los virus no se comportan siempre del mismo modo. Aparecen de modo impredecible en zonas nuevas, en muchas ocasiones como resultado del incremento de movilidad humana. Como ejemplos están los brotes del virus de fiebre hemorrágica de Crimea y el Congo, transmitido por garrapatas, en Oriente Medio, o la aparición del ebolavirus Reston, una mutación del virus del ébola que no se contagia a humanos, en monos usados para la investigación en Texas.

El que la descripción de estos virus sea reciente no debe confundirse con que se trate de enfermedades que no existían antes. En muchos casos son afecciones de las que hay vagos registros históricos, pero que sólo ahora han sido estudiadas científicamente.

Muchas de estas infecciones de las que ahora estamos muy conscientes son “zoonóticas”, es decir, que han pasado de distintos animales al ser humano. Según explica la Organización Mundial de la Salud, la aparición de estas infecciones zoonóticas pueden tener muchas causas: cambios en el medio ambiente, cambios en las poblaciones humanas y animales, cambios en las prácticas agrícolas y factores como los hábitos alimenticios y las creencias religiosas.

Lo más aterrador de éstas y otras infecciones virales es sin duda que no existen tratamientos contra ellas. La lucha contra los virus no tiene un arma como los antibióticos utilizados para infecciones bacterianas y su estudio se complica cuando son enormemente contagiosos y mortales. Es apenas en 2014 cuando hay noticias de los primeros medicamentos antivirales que han demostrado tener efectividad contra el ébola y que podrían ser el punto de partida para la esperanza de enfrentar también otras infecciones temibles.

Los niveles de la OMS

La Organización Mundial de la Salud tiene 4 grupos de riesgo para clasificar agentes infecciosos. 1: microorganismos que raramente o nunca pueden enfermar al ser humano. 2: los que pueden causar enfermedades y son poco contagiosos. 3: patógenos que pueden causar enfermedades graves y tampoco se contagian fácilmente. 4: agentes virales que causan enfermedades graves, son altamente contagiosos y para ellos, a diferencia de los de los grupos 2 y 3, no hay apenas medidas preventivas ni tratamientos efectivos. Las familias de virus causantes de fiebres hemorrágicas se clasifican en el grupo 4.

agosto 23, 2014

Caroline Herschel y sus cometas

La mujer que se puede considerar la primera científica profesional podía haber pasado sus días como una simple sirvienta en Hanover.

Caroline Herschel con su cometa.
(Imagen D.P. vía Wikimedia Commons) 
El destino de la mujer alemana en el siglo XVIII (y, para el caso, en prácticamente todo el mundo) era el matrimonio, con apenas el atenuante de que, a diferencia de lo ocurrido en el siglo anterior, podía opinar acerca de su futuro marido y no era siempre objeto de matrimonios convenidos por sus padres sin más.

Las mujeres empezaban a tener la posibilidad de ganarse la vida no sólo como criadas o prostitutas. El arte, la literatura, la costura, la enfermería y la industria textil eran espacios donde podían gozar de cierta independencia. Y las convulsiones de la ilustración que marcaría la segunda mitad del siglo traerían cambios irreversibles.

Caroline Lucrecia Herschel, nacida al mediar el siglo, el 16 de marzo de 1750 en Hanover, no tenía perspectivas demasiado halagüeñas. Como parte de la clase trabajadora, hija de un jardinero y músico y su tradicionalista mujer, había sufrido una infancia de enfermedades. La viruela le había dejado cicatrices en las mejillas y una leve deformación en un ojo, y también había padecido de tifus a los 10 años, por lo que su estatura nunca superó 1,30 metros. Sus posibilidades de casarse eran, pues, escasas. Su suerte tomó primero la forma de su padre, empeñado en darle a sus hijos una educación amplia. Eran cuatro varones y seis mujeres, y la educación de estas últimas enfrentó la oposición de su madre, tradicionalista y adusta, y que en el caso de Caroline, consideró más práctico convertirla en su criada, mientras Isaac, el padre, la educaba casi a escondidas.

El destino que parecía esperarle cambió cuando su hermano William decidió llevarla consigo a Bath, Inglaterra, donde tenía una buena posición como organista y director de orquesta. La llevó, sí, como sirvienta, pero además le enseñó inglés, matemáticas y música. Caroline pronto se reveló como una soprano de gran calidad que realizó un buen número de presentaciones ante el público, con su hermano como director de orquesta.

William Herschel era mucho más que músico, siguiendo los variados intereses de su padre que había experimentado una gran fascinación por el cielo. Cada vez fue interesándose más en la astronomía y Caroline empezó el camino de la ciencia con él, como su asistente, puliendo los espejos con los que su hermano construiría su primer telescopio. William descubrió el planeta Urano en 1871 y pronto fue nombrado caballero del reino y astrónomo real por el rey Jorge III.

Dedicado totalmente a la astronomía, William empezó una serie de observaciones de todo el cielo a través de su telescopio, que registraba cuidadosamente Caroline para después llevar a cabo los cálculos matemáticos que convertían las observaciones en datos precisos. Esas observaciones dieron como fruto el descubrimiento de más de 2.500 nebulosas (que hoy sabemos que son otras galaxias) y grupos de estrellas.

Caroline también empezó a hacer sus propias observaciones astronómicas con un telescopio que le regaló su hermano y el 26 de febrero de 1783 hizo su primer descubrimiento astronómico: un grupo de estrellas que hoy se conoce como NGC 2360. A ese acontecimiento seguiría el descubrimiento de 14 nuevas nebulosas.

El cometa de la primera dama

Sólo tres años después, ya como astrónoma por derecho propio identificó un objeto que se movía lentamente por el cielo. Era el 1º de agosto de 1786 y Caroline informó a otros astrónomos para que observaran el objeto que ella había hallado, un cometa... el primero descubierto por una mujer, denominado C/1786 P1 o, más poéticamente, “el cometa de la primera dama”. Poco después también descubriría otra nebulosa, NGC 205, galaxia compañera de nuestra más cercana vecina cósmica, la galaxia de Andrómeda.

Sus logros no pasaron desapercibidos y al año siguiente, 1787, el rey Jorge III empleó formalmente a Caroline como asistente de su hermano, un hecho que la convirtió en la primera mujer que recibió un pago por prestar servicios de carácter científico. Su asignación anual, sin embargo, era de 50 libras, la cuarta parte de las 200 que recibía su hermano.

Dependiente de William pese a todo, Caroline encontró su libertad científica finalmente cuando su hermano se casó en 1788 y su esposa se hizo cargo de las obligaciones de la casa, permitiéndole a la astrónoma dedicar más tiempo a sus observaciones y cálculos. En los siguientes años, Caroline Herschel descubriría otros siete cometas, el último en 1797. No sería sino hasta 1980 cuando otra mujer lograría romper su récord de descubrimientos: Carolyn Shoemaker, que ha descubierto la impresionante cantidad de 32 cometas, además de unos 800 asteroides, más que ningún otro ser humano, hombre o mujer.

Entre 1786 y 1797 se ocupó de hacer un nuevo catálogo de estrellas revisando, corrigiendo y adicionando con sus observaciones y las de su hermano, el que había desarrollado John Flamsteed, revisando las posiciones de las estrellas conocidas y agregando la de otros 650 astros. El catálogo sería publicado por la Royal Society en 1798.

Además de su trabajo personal, Caroline Herschel jugó un papel fundamental en la educación de su sobrino John, el hijo de William Herschel. Impulsó su curiosidad, influyó para que estudiara en Cambridge y trabajó con él al final de su vida como asociada en investigación.

Al morir su hermano en 1822. Caroline volvió a Hanover a vivir con su hermano menor y continuar su trabajo en el catálogo de todos los hallazgos que habían realizado ella y William, la abrumadora cantidad de 2500 nebulosas, que finalmente envió en 1828 a la Royal Astronomical Society. Esta sociedad científica, que había tenido una relación estrecha con Caroline durante años, tomó entonces la decisión sin precedentes de concederle su medalla de oro y hacerla miembro honorario de la organización. En 1838 también fue elegida miembro de la Real Academia Irlandesa y en 1846 el entonces rey de Prusia, Federico Guillermo IV, le otorgó la Medalla de Oro de la Ciencia.

Caroline Herschel murió el 9 de enero de 1848, poco antes de cumplir 98 años. Su epitafio, escrito por ella misma, dice “Los ojos de ella quien es glorificada aquí abajo se dirigieron a los cielos pletóricos de estrellas”. Y al dirigirlos a las alturas se convirtió en la científica más importante desde Hipatia de Alejandría, abriendo el camino a muchas otras astrónomas, astrofísicas y cosmólogas.

La fama y el baile

En los últimos años de su vida, Caroline Herschel fue una celebridad cuya compañía buscaban científicos y personajes de la élite europea, y disfrutaba la fama. Su sobrino, John, recordaba que a los 83 años recorría alegremente con él la ciudad y, por las noches, cantaba rimas antiguas y bailaba, una mujer feliz.

junio 21, 2014

Pensar que el otro piensa

Para prosperar como especie, es necesario que podamos comprender lo que los demás piensan y sienten, saber que son como nosotros y formar con ellos una comunidad.

"El pensador", bronce de Auguste Rodin.
(Foto GDL de Nicolás Pérez, vía Wikimedia Commons)
Uno de los más grandes misterios del universo se encuentra en nosotros mismos, en el propio órgano que nos permite saber que existen el universo y los misterios, y buscar resolverlos: nuestro cerebro. Con él percibimos, procesamos, sentimos y actuamos, pero estamos lejos de comprenderlo en su colosal complejidad. Unos cien mil millones de neuronas, conectadas cada una con otras miles, en billones de conexiones. Neuronas que a su vez viven inmersas en un tejido de células estructurales diez veces más numerosas y que tampoco hemos comprendido aún.

Además del estudio de las conexiones y las zonas funcionales de nuestro encéfalo, podemos estudiarlo a través de nuestras emociones, sensaciones, memoria, idioma, cálculo, razonamiento, resolución de problemas, toma de decisiones y otras funciones. Lo que llamamos mente, palabra que apenas está vagamente definida.

Podemos saber con razonable certeza que, efectivamente, la mente es producto del funcionamiento del encéfalo, de la transmisión de impulsos entre las conexiones de nuestras neuronas. Cuando por un accidente, lesión o enfermedad se pierde el uso de ciertas zonas del encéfalo, perdemos las capacidades relacionadas con esas zonas. Así hemos podido saber qué zonas se ocupan de la vista, del habla, de la audición, de ciertas emociones y de ciertos procesos de razonamiento.

Conocemos esos procesos porque los convertimos en expresiones observables, en comportamientos, palabras, acciones o expresiones que otras personas pueden medir. Pero si no los expresáramos, como ocurre en ocasiones, voluntariamente o forzados, ocurren sólo en lo que llamamos nuestra vida interior, sabemos que el sentimiento de alegría está allí aunque reprimamos la risa; sabemos que el deseo de comer está allí aunque no extendamos el brazo para llevarnos un trozo de comida a la boca; entendemos lo que nos dicen aunque no respondamos.

El problema de esa vida interior es que cada uno de nosotros sabe que la tiene, pero no existe un modo objetivo, medible, físico y certero para saber que otras personas a nuestro alrededor sienten, perciben, piensan, recuerdan o deciden del mismo modo que nosotros.

Pese a ello, nuestra vida en sociedad depende precisamente de que todos nosotros tenemos la “teoría” (en sentido informal, no científico) de que los demás son como nosotros, que su mente, su vida interior son semejantes a las nuestras, que cuando lloran sienten una tristeza parecida a la que sentimos nosotros cuando lloramos, y que cuando vemos un paisaje estamos percibiendo lo mismo.

A esto se le llama “teoría de la mente”, no es una teoría que explique la mente, sino la teoría que tenemos nosotros de que la mente de los otros es como la nuestra. Esto también explica nuestra sorpresa y, a veces, rechazo, cuando vemos que otros sienten o piensan de modo muy distinto al nuestro.

Rizando el rizo, surge la pregunta de si todos tenemos una teoría de la mente. ¿A qué edad la desarrollamos?

Dos psicólogos diseñaron un experimento a principios de la década de 1980 para determinarlo, conocido como la tarea de la “falsa creencia”. Se cuenta o escenifica una historia en la cual un personaje llamado Maxi guarda una barra de chocolate en un cajón y se va de paseo. Mientras está fuera de la casa, su mamá toma un trozo de chocolate para cocinar y guarda la barra en un armario. Maxi vuelve a casa. La pregunta es: “¿Dónde va a buscar el chocolate Maxi?”

Los niños menores de 3 años suelen responder que Maxi va a buscar el chocolate en el armario, suponiendo que Maxi sabe lo mismo que ellos saben. No pueden imaginar que otras personas tengan un conocimiento distinto del de ellos. Pero entre los 3 y los 4 años, los niños desarrollan la capacidad de atribuirle a Maxi un estado mental acorde con la experiencia de Maxi, una falsa creencia. Es decir, los niños “se ponen en los zapatos de Maxi” y piensan según la experiencia de Maxi. Saben que buscará el chocolate en el cajón porque allí es donde cree que está. Le han “leído la mente” a Maxi, de cierto modo.

A partir de ese momento, los niños pueden ver más allá de sí mismos para vivir y comprender los deseos, necesidades y estados mentales y emocionales de los demás. Es psicología práctica para leer la mente de otros. No, ciertamente, como pretenden hacerlo los mentalistas o los videntes que engañan mediante técnicas como la lectura en frío, sino de un modo más directo. Si sabemos que alguien ha ganado un premio podemos “saber lo que piensa y siente”, una gran alegría. Ver la actitud de otras personas puede bastarnos para suponer que están tristes, y evocar la pregunta “¿qué te pasa?”... y además permitirnos saber que mienten cuando dicen “nada”.

Es cuando menos plausible pensar que una habilidad tan singular como la teoría de la mente es producto, como otros comportamientos, sensaciones y formas de pensar, producto de nuestra evolución como especie. Es una capacidad que ofrece claras ventajas para los individuos en una sociedad como la humana, que depende tan estrechamente de la cooperación y el altruismo, dos aspectos que exigen que los miembros de la comunidad tengan esa teoría.

No sabemos cómo evolucionó esta capacidad, pero hay hipótesis como la de la “inteligencia maquiavélica”, según la cual además de sus ventajas sociales favoreciendo la cooperación, la teoría de la mente nos permite también hacer manipulaciones sociales, mentir y engañar. De hecho, el concepto de “teoría de la mente” surgió hacia 1978 de estudios sobre la capacidad de primates como los chimpancés de comprender las motivaciones de otros miembros de su especie.

Los primeros estudios lo ponían en duda, pero investigaciones posteriores han determinado que otros animales parecen tener una teoría de la mente, entre ellos los chimpancés y orangutanes, los elefantes, cetáceos como los delfines y algunas aves como los córvidos (la familia de los cuervos). La evidencia no es, sin embargo, concluyente.

Ceguera a la mente

Algunas personas no pueden asumir la perspectiva de otros, no tienen una teoría de la mente o la tienen incompleta o defectuosa. Se ha propuesto que ésa es una de las características del autismo y, por tanto, una forma de diagnosticarlo, pues los autistas no pueden determinar fácilmente las intenciones de otras personas y tienen problemas en sus interacciones sociales. Quienes padecen esquizofrenia o están bajo la influencia de sustancias que alteran la química cerebral, como las drogas, son también ciegos a la mente de los demás. Y, por supuesto, los psicópatas son incapaces de asumir que el dolor que sufren otros es igual al dolor que ellos mismos pueden llegar a sufrir.

junio 20, 2014

La Luna, su origen y su futuro

Es la presencia nocturna más llamativa, que ha inspirado por igual a filósofos, artistas y científicos. Pero, estando tan cerca, aún no hemos podido resolver el acertijo de su origen.

La Luna distorsionada por una hoguera
de la noche de San Juan.
(Foto © Mauricio-José Schwarz)
Al ver la luna llena en la noche resulta todavía difícil apreciar, aunque lo sepamos, que estamos viendo un cuerpo celeste sólido, esencialmente una gran roca semiesférica, suspendida en el espacio, girando alrededor de nuestro planeta y debe su singular color plateado y sus fases a la luz que refleja del sol.

Incluso más que el Sol, la Luna ha sido además el gran puente entre el conocimiento y el arte, entre la astronomía y los poemas y canciones que desde los inicios de la cultura el hombre ha dedicado a ese peculiar cuerpo que le permitió, antes de que dominara el fuego y otras fuentes de iluminación, moverse y actuar durante al menos algunas noches en cada ciclo lunar.

Hoy sabemos mucho acerca de la Luna, su composición, su movimiento, su posición... A lo largo de 6 visitas que sumaron un total de más de 330 horas en la superficie lunar, 12 astronautas estadounidenses del programa Apolo, además de diversas sondas robóticas tanto estadounidenses como soviéticas recogieron muestras de distintas zonas del satélite, lo fotografiaron, lo midieron e incluso dejaron en su superficie reflectores, el llamado experimento LLR (siglas en inglés de Medición Lunar por Láser) que hasta hoy utilizan varios laboratorios para determinar la distancia exacta a la que se encuentra nuestro satélite lanzando desde la Tierra un láser, recibiendo su reflejo y calculando la distancia a partir del tiempo que pasa entre que la luz sale hasta que vuelve, una media de 1,282 segundos.

Resulta extraño pensar, sin embargo, que hubo una época, una larga época de la historia de nuestro planeta, en que la luna simplemente no estuvo allí.

Y mucho más extraño resulta pensar que, en un futuro, la luna dejará de estar iluminando la noche.

La órbita de la Luna, que nos parece constante y uniforme a lo largo de toda la historia, es sin embargo tremendamente dinámica y cambiante.

A lo largo de miles de millones de años, las fuerzas de marea debidas a la atracción gravitacional mutua entre la Luna y la Tierra han provocado que se ralentice la rotación de la Luna hasta que su período de rotación es igual a órbita alrededor de nuestro planeta, de modo que nosotros sólo podemos ver un lado de la Luna, y para conocer el otro hemos tenido que lanzar observatorios y sondas robóticas. La Luna también afecta la rotación de la Tierra, ralentizándola. Hace 900 millones de años el día duraba sólo 18 horas y el año tenía 468 de ellos. Durante la época de los dinosaurios, el año contaba con 398 dias de 22 horas.

El propio experimento LLR nos ha permitido determinar, a través de una serie de mediciones realizadas desde 1969 hasta la fecha, que la Luna se está alejando paulatinamente nuestro planeta... alrededor de 3,8 cm cada año. Lo cual también nos dice que en el pasado la Luna estuvo mucho más cerca que ahora, ofreciendo un espectáculo aún más asombroso que, por desgracia, no había nadie que disfrutara.

Esto presenta un problema adicional. Si hacemos el cálculo inverso, y suponemos que la Luna estaba 3,8 cm más cerca cada año en el pasado, la luna no podría tener más de 1500 millones de años de antigüedad. Sin embargo, calculando la posibilidad de que la órbita de la luna hubiera cambiado al paso de los años, se ha calculado que su antigüedad es de aproximadamente 4 mil millones de años... 500 millones de años más joven que el planeta, cuya edad se calcula en 4.540 millones de años.

¿De dónde vino la Luna y a dónde va?

Fue el nieto de Charles Darwin, George Howard, quien propuso en 1878 la que sería la primera teoría del origen de la Luna. Imaginó que, en los años juveniles de la Tierra, el planeta giraba tan rápido que se le desprendió un enorme fragmento, que sería la Luna. Esta teoría, recibida con entusiasmo, se aderezó pronto con la idea de que la cuenca del océano Pacífico era el lugar del que se había desprendido la Luna.

La seductora teoría se mantuvo como explicación plausible hasta principios del siglo XX. En 1909, el astrónomo Thomas Jefferson Jackson propuso que la luna era un cuerpo que vagaba por el espacio y había sido atrapado por la gravedad de la tierra, quedando en órbita a su alrededor. Poco después, el astrónomo Eduard Roche propuso una tercera hipótesis: la tierra y la luna se habían formado independientemente al mismo tiempo, dos cuerpos unidos por la gravedad desde los inicios del sistema solar.

Sólo el conocimiento de la composición de la Luna y los detalles de su historia han permitido ir desechando estas hipótesis. La primera, por ejemplo, exigiría que la composición de la Luna y la Tierra fueran mucho más parecidas de lo que son según demuestran, sobre todo, el estudio de las muestras de suelo y rocas lunares traídos por los astronautas del programa Apolo y tres robots del programa Luna de la Unión Soviética.

La hipótesis que actualmente se considera más plausible se conoce como la del Gran Impacto. En resumen, propone que durante la formación de nuestro sistema solar, un planeta pequeño, más o menos del tamaño de Marte, chocó con la Tierra, lanzando al espacio una nube de materiales mezclados de ambos cuerpos que, eventualmente, se acumularon hasta formar nuestro satélite. Sin embargo, es una hipótesis con varios problemas y no está en modo alguno confirmada.

Hoy no sabemos todavía exactamente por qué tenemos ese espectáculo nocturno maravilloso.

Sabemos sin embargo algo más acerca de su futuro. De continuar las tendencias observadas actualmente, la Luna se alejará de nuestro planeta hasta que su rotación a su alrededor alcance los 47 días. Para entonces, ambos cuerpos habrían quedado enlazados gravitacionalmente, dando los dos la misma cara hacia el otro, de modo que el día en la Tierra duraría también 47 días. Es decir, sólo la mitad de la Tierra miraría hacia la Luna, y la mitad de nuestro planeta se quedaría para siempre sin Luna.

Este sería el escenario dentro de 50 mil millones de años. Pero es sólo una especulación, pues muchísimo antes, dentro de aproximadamente 5 mil millones de años, el desarrollo del Sol lo convertirá en una estrella gigante roja que previsiblemente engullirá a ambos cuerpos.

Mucho antes de entonces, esperamos, habremos podido resolver el misterio del origen de nuestra Luna y, quizá, tener en ella las bases habitadas que ha soñado la ciencia ficción.

Datos vitales de la Luna

Diámetro: 3.475 kilómetros, aproximadamente el 27% del de la Tierra. Distancia de nuestro planeta: un promedio de 384.400 km. Gravedad: 17% de la de la Tierra. Período orbital: 29,5 días para dar una vuelta alrededor de la Tierra. Duración del día: 708 horas. Temperatura: entre -233 y 123 ºC.

junio 18, 2014

Los zorros plateados de Belyaev

Uno de los más grandes y prolongados experimentos de la historia de la biología, que empezó en 1957 y sigue hoy, ha reproducido, aceleradamente, el proceso de domesticación que convirtió al lobo en perro.

Dmitri Belyaev con sus zorros domesticados.
Es difícil imaginarse que investigar ciencia pueda ponerle a uno en peligro de muerte. Más en el siglo XX. Pero así fue en la antigua Unión Soviética durante el reinado de terror de Trofim Lysenko, pseudocientífico defensor de una variedad del lamarckismo (la idea de que las experiencias de un organismo se transfieren genéticamente a su descendencia).

Lysenko empezó en 1927 a hacer promesas delirantes de duplicar o triplicar el rendimiento de los cultivos, con una “ciencia soviética” que superaba a la falsa “ciencia burguesa” de Mendel y Darwin. Era lo que quería escuchar Joseph Stalin, que lo puso al frente de la Academia de Ciencias Agrícolas en 1935. Durante los años siguientes, la fuerza política de Lysenko le permitiría expulsar, encarcelar y hasta matar a todos los biólogos que no aceptaran su pseudociencia. Detuvo así el avance de la genética en la URSS hasta que en 1964 lo denunció como pseudocientífico el físico Andrei Sakharov.

Entre las víctimas de Lysenko estaba el biólogo Dmitry Belyaev, despedido del Departamento de Cría de Animales para Peletería en 1948. Fue el año en que se prohibió la genética y se cambiaron los libros de texto para sustituirla por los delirios políticamente exitosos de Lysenko. El hermano de Belyaev, también genetista, fue arrestado y ejecutado de un disparo.

Pero Belyaev buscó la forma de seguir trabajando en su pasión: los mecanismos de la domesticación. El perro proviene del lobo. De hecho, genéticamente es un lobo. Y sin embargo, todo el comportamiento y desarrollo de un perro son distintos de los de un lobo. Todos los animales domesticados por el hombre, como mascotas, para trabajo o para su aprovechamiento, tiene esas notables diferencias que ya había observado Darwin.

La hipótesis de Belyaev era audaz: el perro no había surgido de la cuidadosa selección de distintas características por parte de los humanos que lo domesticaron, sino que se había seleccionado naturalmente con la sola característica de la mansedumbre. Todos los demás cambios observados en el animal serían consecuencia de ese sencillo principio.

Para probarlo, tenía que domesticar animales. Pero no mediante la enseñanza o el condicionamiento, sino seleccionándolos, replicando de modo acelerado el proceso. Decidió utilizar zorros plateados, un animal con el que estaba familiarizado. Seleccionó como base de su experimento a 130 zorros especialmente tranquilos en granjas de pieles donde se les había criado durante medio siglo.

Pero un experimento genético en ese momento implicaba jugarse la libertad, el empleo e incluso la vida. El estudio de la fisiología de los zorros plateados, por el gran valor económico que les dan sus pieles, fue el pretexto encubridor del experimento en domesticación

Desde que los zorros tenían un mes de edad hasta su madurez sexual más o menos a los ocho meses, se valoraban sus reacciones ante un experimentador con unos pocos criterios objetivos: ¿se dejaban tocar si se les ofrecía comida o trataban de morder al experimentador?, ¿tendían a pasar su tiempo en compañía de otros zorros o de humanos? No se les adiestraba ni pasaban demasiado tiempo con los experimentadores para evitar que los cambios observados fueran producto de la experiencia y no de la genética. Los que exhibían menos agresión y miedo hacia los seres humanos se cruzaban entre sí, menos del 20% de la población. Como grupo de comparación o control, Belyaev crió separadamente a los zorros más temerosos y agresivos de cada generación.

Belyaev llevó a cabo su trabajo en relativo secreto desde 1957 hasta 1959, cuando a la muerte de Stalin empezaron a cambiar los vientos soviéticos y se le nombró director del Instituto de Citología y Genética de la Academia Rusa de Ciencias. Allí continuó su experimento, que empezó a mostrar resultados a las pocas generaciones. Cuando habían pasado 40 generaciones, los cambios eran notables.

En cuanto a comportamiento, los zorros preferían estar con los humanos, gemían para llamar la atención, olían y lamían a sus cuidadores y movían la cola cuando estaban contentos o emocionados... todas ellas características comunes en los perros. En cuanto a su forma, empezaron a tener orejas caídas, cola enroscada, temporadas de reproducción más prolongadas y cambios en la forma del cráneo, las mandíbulas y los dientes. Y su color se hizo más claro que el de sus ancestros no domesticados. Estos cambios también tenían una contraparte fisiológica: los zorros de Belyaev tenían niveles reducidos de adrenalina, la hormona que controla el miedo y se produce como respuesta a la tensión.

El siguiente paso sería determinar cuáles son las diferencias genéticas de estos zorros respecto de los más agresivos, cuáles genes están implicados en el proceso de domesticación.

Y si se podía hacer esto con zorros, resultaba plausible pensar que los perros se habían domesticado también por selección natural, no humana: los menos temerosos hallaban más fácil acercarse a los grupos humanos que podían darles las sobras de su comida, y al paso de un tiempo indeterminado, se habrían integrado a la sociedad como mascotas y animales de trabajo (principalmente de caza).

Y se pudo hacer. Belyaev continuó trabajando hasta su muerte en 1985, pero el experimento continúa, hoy bajo la dirección de Lyudmilla Trut. Los zorros domesticados continúan siendo objeto de estudios no sólo de su instituto, sino de biólogos evolutivos, genetistas y fisiólogos de todo el mundo que visitan a la manada de un centenar de zorros. Belyaev consideraba que el experimento habría terminado cuando los zorros pudieran ser adiestrados como los perros, y su mapa genético nos pudiera decir cuáles genes están implicados (por cambiar ellos o su expresión) en el fenómeno de la domesticación. Y se han emprendido otros estudios como uno que se está realizando en Dinamarca criando minks americanos para domesticarlos.

El experimento de Belyaev aún tiene mucho por ofrecer en cuanto al conocimiento de la genética, la evolución y el comportamiento. Un experimento resultado de la valentía de la búsqueda del conocimiento ante los enemigos del pensamiento.

La neotenia

Muchas características de los zorros de Belyaev y de los perros son aspectos juveniles que se prolongan hasta la edad adulta. Así, la selección de la mansedumbre provocó este proceso, conocido como “neotenia”. Los mamíferos, por ejemplo juegan cuando son cachorros y dejan de hacerlo al volverse adultos. Pero los perros, los zorros de Belyaev y nosotros mismos, jugamos toda la vida. Porque nosotros también somos como somos debido a la neotenia.

mayo 16, 2014

Jacob Bronowski, el inspirador de Cosmos

Escritor, poeta, matemático, apasionado de la ciencia y el humanismo, Jacob Bronowski fue lo más cercano a un hombre del renacimiento en el siglo XX.

Jacob Bronowski en el campo de exterminio de
Auschwitz, en su serie El ascenso del hombre.
(Imagen © BBC)
Quienes hoy disfrutan Cosmos, una odisea del espacio tiempo, presentada por el astrofísico Neil DeGrasse Tyson quizá saben que la serie nació en 1980 de la mano del también astrofísico Carl Sagan, con el nombre Cosmos, un viaje personal. Pero el principio está más atrás, en 1973, en los trece capítulos de El ascenso del hombre de Jacob Bronowski, poeta y científico.

Jacob Bronowski nació en 1908 en Lodz, hoy territorio de Polonia, vivió la Primera Guerra Mundial con sus padres en Alemania y se mudó definitivamente a Inglaterra en 1920.

Estudió el bachillerato en la Central Foundation School de Londres, y ya allí tuvo claro que no entendía ni aceptaba la separación entre “arte” y “ciencia”. En sus propias palabras “Crecí volviéndome indiferente a la distinción entre la literatura y la ciencia, que en mi adolescencia eran simplemente dos idiomas de la experiencia que aprendí juntos”.

Fue a estudiar matemáticas con una beca a Cambridge, al Jesus College, alma mater de personalidades como el poeta Samuel Taylor Coleridge o el Premio Nobel de Química Peter Mitchell. A lo largo de sus estudios logró ser alumno de primera clase por sus buenas notas en 1928. Ese mismo año fundó la revista literaria Experiment con un compañero de carrera. En 1930, se le reconoció como alumno destacado de primera clase en 1930, y permaneció en el colegio hasta recibir su doctorado en geometría en 1933. De allí pasó a un puesto de catedrático e investigador del University College Hull de la Universidad de Londres.

En sus propias palabras, Bronowski vivía en un momento de lo más estimulante. De una parte, le apasionaban los avances en la física cuántica, la división del átomo y el descubrimiento del neutrón. Pero también le entusiasmaba que “la literatura y la pintura se rehicieran debido al choque del surrealismo, y el cine (y después la radio) creció hasta convertirse en un arte”.

Habiendo pasado tiempo en Mallorca con amigos de los mundos de las matemáticas y la poesía, Bronowski fue uno de los muchos intelectuales que tomaron partido, en su caso desde la poesía, durante la guerra civil española, participando en el libro Poemas para España con el poema “La muerte de García Lorca”. De hecho, el primer libro de Bronowski, La defensa del poeta, es una serie de ensayos sobre algunos de los grandes poetas británicos.

Después de trabajar en el esfuerzo de guerra británico y escribir un nuevo libro sobre el poeta William Blake, Bronowski fue uno de los científicos ingleses que fue a Nagasaki en noviembre de 1945 para evaluar los daños de la bomba atómica. Como a muchos científicos de su época, la experiencia llevó a Bronowski a replantearse la ética de la ciencia y la necesidad de que ésta se disociara de las decisiones política. Pero, sobre todo, la necesidad de que la ciencia se acerque a la gente común.

Comenzaría entonces otra faceta de su producción literaria: El sentido común de la ciencia de 1951, donde defendía que el arte y la ciencia no son incompatibles y, de hecho, la humanidad no habría progresado si lo fueran. Le siguió El rostro de la violencia de 1954 y Ciencia y valores humanos de 1956 lo fueron convirtiendo en un comunicador de la ciencia, un divulgador y popularizador, con un dominio del idioma que le permitía explicar de modo extremadamente sencillo lo más complejo. Empezó entonces también a participar en radio y en televisión como un intelectual a nivel de calle.

En 1964 se mudó a California como Director de Biología del Instituto Salk, fundado y encabezado por el descubridor de la vacuna contra la polio, Jonas Salk. Esto le permitió a Bronowski trabajar en la herencia genética humana, lo que daría lugar al libro La identidad del hombre, después de otros volúmenes sobre poesía y ciencia. Este trabajo era consecuencia del uso que hizo de sus conocimientos estadísticos para analizar el cráneo del niño de Taung en 1950 y diferenciar sus dientes de los de otros primates, para ubicar a los australopitecos en la línea del origen del hombre.

El ascenso del hombre

En 1973, el naturalista, documentalista y por entonces interventor de la BBC, David Attenborough, decidió hacer una contraparte científica de la serie de 1969 Civilización, una visión personal de Kenneth Clark sobre arte y filosofía occidentales, y le propuso a Bronowski escribirla y presentarla. El resultado fue El ascenso del hombre, una visión personal de J. Bronowski, que recorrió por igual la evolución del hombre, la ciencia, el conocimiento y la ética del saber. El nombre elegido por Bronowski era un giro al título del segundo libro de Charles Darwin, El origen del hombre, en inglés The Descent of Man.

La producción de El ascenso del hombre fue enormemente ambiciosa. Los 13 capítulos se filmaron a lo largo de tres años en más de 20 países, con la idea de que Bronowski hablara de distintos acontecimientos históricos en el lugar mismo donde habían ocurrido. Así, viajó del lugar en Islandia donde se reunía el más antiguo parlamento democrático de Europa, el Althing, hasta el campo de exterminio de Auschwitz, desde el centro ceremonial maya de Copán a la Venecia de Galileo hasta el observatorio construido para Carl Friedrich Gauss en Gottingen. Y en cada lugar ofrecía profundos monólogos, totalmente improvisados, según sus productores.

La personalidad de Bronowski, su pasión, fueron esenciales para el éxito de la serie. Marcaron también el punto culminante de su carrera y de su vida: el 22 de agosto de 1974 murió en Nueva York víctima de un ataque cardiaco.

Su legado continuaría con un joven astrofísico que trabajaba en la NASA.

Entre el lanzamiento de las sondas marcianas Viking en 1975 y las sondas interplanetarias Voyager, Carl Sagan se dio el tiempo para plantearse una serie personal inspirada en el trabajo de Bronowski. Contrató a Adrian Malone, productor de El ascenso del hombre para empezar a diseñar y escribir la serie, y presentarla a posibles productores. Adrian Malone sería el productor ejecutivo de Cosmos, un viaje personal, la serie de ciencia más exitosa de la historia de la televisión del siglo XX. Sus 13 capítulos se transmitieron a fines de 1980.

Seguramente, Bronowski habría sonreído.

La ciencia de Bronowski

“La ciencia es una forma muy humana de conocimiento. Estamos siempre en el borde de lo conocido; siempre tanteamos hacia adelante en busca de lo que se espera. Todos los juicios en la ciencia estan en el borde del error, y es personal. La ciencia es un tributo a lo que sí podemos conocer pese a que somos falibles.” (Palabras de Bronowski en el campo de exterminio de Auschwitz)

mayo 13, 2014

Ni niño ni niña

La variabilidad cromosómica en la especie humana es mucho más asombrosa, compleja y desafiante de lo que no hace muchas décadas creíamos.

Cromosomas de una persona con síndrome de Turner, abajo
a la derecha está el cromosoma X y el espacio vacío del
cromosoma Y faltante. (Imagen CC-GFDL de The Cat,
vía Wikimedia Commons)
Los seres humanos solemos buscar fronteras precisas que no existen en la realidad. Quisiéramos saber dónde empieza una especie y empieza otra, pero nos encontramos una infinidad de gradaciones. Esperábamos que el electrón girara en una órbita precisa alrededor del núcleo del átomo, y lo que hay es una nube de probabilidad donde el electrón aparece y desaparece desafiando al sentido común. La atmósfera de la Tierra no termina en un punto para dar lugar al espacio interplanetario, sino que se va desvaneciendo.

En el terreno del sexo, tan delicado por el equipaje moral y emocional que nos acompaña, vamos aprendiendo a romper esquemas rígidos, por ejemplo con la aceptación creciente de la homosexualidad y la bisexualidad, siempre presentes aunque históricamente reprimidas culturalmente, así como de la posibilidad de que una persona tenga una identidad sexual distinta de la que dictan sus cromosomas.

Incluso en esos casos podríamos buscar consuelo pensando que, más allá de las preferencias, gustos o percepciones de uno mismo, se nace genéticamente niño o niña, o XY o XX.

Pero más o menos 1 de cada 400 niños que nacen en el mundo no son ni XY ni XX.

Los variables cromosomas

Las células germinales, óvulos y espermatozoides, se desarrollan a partir de células con la dotación genética completa de nuestra especie: 23 pares de cromosomas. Al desarrollarse, estas células se dividen en dos, cada una de ellas con sólo uno de cada par de cromosomas. Esos 23 cromosomas se unirán a los 23 de la otra célula germinal para dar lugar a una dotación genética totalmente nueva, recombinando los cromosomas del padre y de la madre.

Pero en el proceso de desarrollo de los óvulos o espermatozoides, puede haber errores al momento de esta división, y que en las células resultantes falte o sobre algún cromosoma, un trastorno que tiene el nombre de aneuploidía. Estos trastornos pueden ser monosomías, cuando sólo está presente uno de los cromosomas del par; trisomías, cuando hay tres cromosomas en lugar de dos, y tetrasomías o pentasomías que, como su nombre lo indica, cuando hay cuatro o cinco copias de los cromosomas.

Generalmente, cuando los cromosomas faltantes o sobrantes son de los primeros 22 pares, los que no intervienen en la determinación del sexo, el ser resultante no puede sobrevivir. Hay algunas trisomías con las que algunas personas pueden sobrevivir ocasionalmente, pero con notables trastornos. La más conocida es la trisomía 21, donde hay tres copias del cromosoma 21, y que provoca el Síndrome de Down. Un ser humano también puede sobrevivir con trisomía 18, que provoca el síndrome de Edwards con malformaciones en órganos como los riñones o el corazón, o trisomía 13, causante del síndrome de Patau que presenta diversas graves malformaciones en el encéfalo, la médula espinal y el desarrollo.

Cuando los cromosomas afectados son los del par 23, el que determina nuestro sexo biológico, los trastornos pueden ser más benignos. Puede haber personas con un sólo cromosoma X, que padecen diversos trastornos conocidos como el síndrome de Turner, pero no es posible vivir sólo con el cromosoma Y. El X lleva una gran cantidad de genes que resultan esenciales para la vida, mientras que el cromosoma Y solamente lleva algunas decenas de genes, uno de los cuales determina el sexo biológico.

Además, en cuanto a cromosomas excedentes, es posible tener todas las combinaciones de tres, cuatro o cinco cromosomas del par 23, siempre y cuando al menos uno de ellos sea X.

Es muy probable que usted conozca a algunas personas que tengan tres cromosomas del par 23: XXX, XYY o XXY. En el primer caso, se trata de mujeres que pueden tener algunas anormalidades del aprendizaje y suelen tener una estatura superior a la media. Las personas con trisomía XYY son hombres de aspecto normal, también con una estatura superior a la media, y que pueden tener problemas de aprendizaje. La trisomía XXY es un poco más seria y da lugar a hombres estériles, con bajos niveles de testosterona, algunos problemas de masa muscular y genitales muy pequeños, La gran mayoría de quienes tienen estas trisomías no son diagnosticados nunca, ya que su aspecto y conducta están dentro de la variación normal. Las tetrasomías y pentasomías, menos frecuentes, suelen dar como resultado mujeres con serias anormalidades físicas y mentales.

Se estima que 1 de cada 1000 niñas son XXX y 1 de cada 1000 niños son XYY.

Aún así hay variaciones adicionales, no tan poco comunes pero sí muy poco conocidas, en las que una misma persona puede tener en su cuerpo algunas células con distintas cargas genéticas, lo que se conoce como mosaico genético o “mosaicismo”. Por ejemplo, algunas células son XX y otras son XY, y la determinación del sexo en cuanto a los genitales puede ser poco clara, una condición llamada hermafroditismo donde pueden estar presentes órganos sexuales femeninos y masculinos, generalmente no funcionales o con sólo uno de ellos capaz de funcionar para la reproducción. El hermafroditismo se trata quirúrgicamente para dar al paciente genitales adecuados a su preferencia sexual.

Así, el 30% de las mujeres con Síndrome de Turner muestran algún nivel de mosaico genético, donde tienen células XX y otras donde sólo está el cromosoma X.

Y, para demoler nuestra esperanza de tener alguna claridad, existe un fenómeno adicional mucho menos común en humanos: el quimerismo. Se llama “quimera”, por el mítico animal formado de partes de otros varios, a los seres vivos que tienen celulas genéticamente diferentes, un fenómeno que se produce cuando se fusionan dos óvulos fecundados con cargas genéticas totalmente distintas. En el caso de los cromosomas sexuales, hay personas que tienen a la vez células XX y células XY. Si la cantidad de ambas es la misma, la persona es un verdadero hermafrodita.

Como tantos otros dominios de la ciencia, la genética ha demostrado que la variabilidad de la vida es mucho mayor de lo que suponíamos en el pasado. No hay fronteras claras, y no siempre existe la “normalidad” como la quisiéramos idealmente.

Lo cual es una lección que todos podemos aprender, no sólo en cuanto a genética y biología, sino en cuanto a lo impreciso de nuestras propias preconcepciones ante una realidad compleja.

El mito XYY

Dos estudios con serios problemas metodológicos llevaron en las décadas de 1960 a la creencia de que los hombres con trisomía XYY eran especialmente agresivos y con tendencias delictivas, algo que la prensa divulgó con igual poco rigor. Aunque ya en 1970 nuevos estudios demostraban que el comportamiento medio de los hombres XYY no era distinto del de los XY, el mito ha persistido.