Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Evidencias y dudas sobre el calentamiento global

Previsiones del calentamiento global según
8 distintas instituciones científicas.
(Imagen CC de Robert A. Rohde para
Global Warming Art, vía Wikimedia Commons)
Más allá de los intereses creados, del temor de las grandes industrias o el entusiasmo de algunas organizaciones ciudadanas, de la propaganda y las afirmaciones no siempre muy precisas de los medios, es importante conocer los datos reales sobre el calentamiento global, datos que nos dan bases sólidas para tomar posición en un debate más mediático que científico.

El clima es un conjunto de condiciones meteorológicas con complejas interrelaciones entre las que están la temperatura, las lluvias, el viento, la humedad, la presión atmosférica, la irradiación solar, la nubosidad, y la evapotranspiración (la suma de la evaporación del agua y la transpiración de las plantas hacia la atmósfera), promediadas a lo largo del tiempo.

El clima nunca ha sido constante en la historia de nuestro planeta. En ese sentido, la frase “cambio climático” podría ser considerado una obviedad.

Dada la complejidad del sistema meteorológico de nuestro planeta, son numerosos los factores que pueden influir en la forma que adopte este cambio: los ciclos solares, como el del aumento y disminución de las manchas solares, la deriva continental, la dinámica del océano y sus corrientes, las erupciones volcánicas, las variaciones en la órbita de la Tierra o los niveles de gases de invernadero en nuestra atmósfera.

Los cambios del clima ocurren sobre todo a escalas de tiempo muy grandes, y nuestro registro del clima en distintos puntos del planeta es relativamente reciente. Tenemos datos previos a que hubiera mediciones precisas gracias al estudio de aspectos como las morrenas o restos dejados atrás por los glaciares al retirarse o el hielo de la Antártida, que nos ha permitido conocer la composición de la atmósfera en otros tiempos.

Existe, pues, un enorme acervo de conocimientos sobre un sistema enormemente complejo, pero en modo alguno se podría decir que conocemos perfectamente nuestro clima y su dinámica.

A escalas más humanas, tenemos informes relevantes acerca del clima. Por ejemplo, en la época medieval hubo un período cálido de temperaturas cercanas a la media histórica, y a continuación hubo un notable descenso en la temperatura que se ha llamado, como metáfora únicamente, la “pequeña edad del hielo” europea. Hacia 1300, los veranos dejaron de ser tan cálidos en el norte de Europa. Entre 1315 y 1317, las torrenciales lluvias y las bajas temperaturas hicieron fracasar las cosechas disparando una terrible hambruna y en 1650 se llegó a una temperatura mínima que desde ese momento empezó a subir.

Y ese ascenso es precisamente lo que se ha llamado “calentamiento global”.

La observación de las temperaturas a nivel mundial durante el siglo XX ha determinado que existe una tendencia al aumento en la temperatura media del planeta. A lo largo del siglo XX, la temperatura superficial media del planeta aumentó entre 0,56 y 0,92 ºC, superando rápidamente las temperaturas medias del período cálido medieval y, a nivel medio, las de los últimos dos mil años, que se han mantenido relativamente estables independientemente de variaciones locales como la “pequeña edad del hielo” limitada a Europa.

Esto podría parecer poco, pero se calcula que la diferencia entre una Tierra totalmente glacial y una tierra sin hielo en la superficie es únicamente de 10°C.

En realidad no existe forma de saber en qué medida este aumento en la temperatura, imperceptible para las personas, pero de gran relevancia a nivel del clima, está provocada por el hombre o, en términos técnicos, es antropogénico, y en qué medida es parte de un ciclo totalmente natural debido a los factores que ya conocemos o incluso a factores de los que aún no estamos conscientes o no se han probado.

Sin embargo, hay evidencias e indicaciones de que el hombre puede tener una influencia cuando menos relevante en este proceso. El proceso en sí, sin embargo, no está en duda salvo para un minúsculo grupo de personas. El aumento en las temperaturas es un hecho observado, aunque algunos, sin ofrecer evidencia, sostienen que las mediciones podrían ser imprecisas o tendenciosas.

Uno de los elementos fundamentales para determinar la temperatura en la superficie de nuestro planeta es la presencia de gases de invernadero en la atmósfera. Se trata de gases que absorben y emiten calor, causando así el “efecto invernadero” al atrapar el calor de las capas inferiores de la atmósfera. Se ha calculado que la temperatura media de la Tierra sería de unos -19 ºC (19 grados Celsius bajo cero), pero es mucho más alta por el efecto invernadero, de unos 14 ºC.

Los gases de invernadero son el sello distintivo de la civilización industrial, ya que son producto de quemar combustibles fósiles para la producción de energía y para el transporte. Las emisiones de CO2 de las actividades humanas son el aspecto en que más podemos hacer, y más rápidamente, para mitigar la posible influencia humana en el cambio climático, según los modelos con los que contamos. Es por ello que gran parte del debate político sobre el calentamiento global se han centrado en la emisión de CO2 a la atmósfera.

Los científicos, en su enorme mayoría, consideran muy poco probable que este calentamiento ocurriera sólo por causas naturales y que, por contraparte, es muy probable (95% de probabilidad) que el aumento en las temperaturas se deba al aumento de emisiones antropogénicas de gases de invernadero.

La complejidad del tema, nuestros limitados conocimientos sobre la dinámica del clima, y una cautela natural en los científicos, parece dejar un espacio de duda mucho mayor que el que realmente existe, y del que se aprovechan los medios para presentar un panorama de debate e incertidumbre alejado de la realidad científica.

El debate esencial es, en todo caso, cuánto influye la actividad humana en el calentamiento global. Y esta interpretación se hace, con frecuencia, más en base a posiciones económicas, políticas o ideológicas que de acuerdo a las mejores evidencias.

En todo caso, por simple precaución, muchos consideran preferible emprender acciones para disminuir la emisión de CO2 a la atmósfera, lo cual además tendrá la ventaja de disminuir el ritmo de gasto de los combustibles fósiles. En una situación de incertidumbre, probablemente es mejor ser cauto, pero no catastrofista, que ser audaz e irreflexivo.

El consenso científico

En los Estados Unidos, uno de los países más afectados económicamente por las reducciones propuestas en emisiones de CO2, la totalidad de las organizaciones, academias y sociedades científicas apoyan la idea básica de que “hay evidencia nueva y más fuerte de que el calentamiento observado en los últimos 50 años es atribuíble a actividades humanas”. Y desde 2007, ningún grupo científico internacional reconocido ha mantenido lo contrario, a diferencia de algunos científicos individuales.

El sueño de la fusión nuclear

Dispositivo Tokamak de contención
en un reactor de fusión en Suisse Euratom
(foto CC de Claude Raggi)
Más allá de los mitos, el hombre desarrolló diversas explicaciones científicas para el sol, esa asombrosa bola incandescente que daba luz y calor, marcaba las estaciones y era fuente de vida. Anaxágoras lo imaginó como una bola de metal ardiente, y otros intentaron entender su naturaleza, su tamaño, la distancia que nos separaba de él y la fuente de su asombroso fuego.

El desarrollo de la física y la aparición de la teoría atómica de la materia permitió que en 1904 Ernest Rutherford especulara sobre la posibilidad que la energía del sol fuera producto de la desintegración radiactiva recién descubierta, la fisión nuclear.

Sin embargo, una vez que Albert Einstein estableció en 1906 que la materia y la energía eran equivalentes, y que se podían convertir una en la otra con la fórmula más famosa de la historia, se abrió la posibilidad de una mejor explicación.

La fórmula de Einstein es, claro, E=mC2, y explica en cuánta energía se puede convertir una porción de masa. La energía es igual a la masa por la velocidad de la luz al cuadrado. Esto significa que la masa contiene o es igual a una enorme cantidad de energía. En una bomba atómica como la que arrasó Hiroshima, por ejemplo, sólo se convirtieron en energía alrededor de 600 miligramos de la masa del uranio 235 que la conformaba. Cada pequeña porción de materia es una colosal cantidad de energía concentrada, y por tanto la materia puede ser la mejor fuente para satisfacer el hambre energética del ser humano, si podemos convertirla en energía.

En 1920, Sir Arthur Eddington propuso que la presión y temperaturas en el centro del sol podrían producir una reacción de en la que se unieran, fundieran o fusionaran dos núcleos de hidrógeno para obtener un elemento más pesado, un núcleo de helio y convirtiendo un neutrón en energía en el proceso. En 1939, el germanoestadounidense Hans Bethe consiguió explicar los procesos del interior del sol, lo que le valió el Premio Nobel de Física en 1967. Muy pronto, en 1941, el italiano Enrico Fermi propuso la posibilidad de lograr una fusión nuclear controlada y autosostenida que generaría energía abundante, barata y limpia, un verdadero ideal en términos de economía, ecología, sociedad e incluso política.

Allí comenzó un sueño que todavía no se ha realizado.

Mientras que para realizar una fisión nuclear simplemente es necesario alcanzar una “masa crítica” a partir de la cual se desarrolla una reacción en cadena y los núcleos se dividen, ya sea descontroladamente como en una bomba nuclear, o de modo controlado, como en una central nucleoeléctrica, la fusión nuclear exige condiciones mucho más complejas. Podemos crear una fusión nuclear descontrolada, en las aterradoras bombas H o de hidrógeno, en las que se produce una fusión brutal y súbita, pero no una fusión controlada y sostenida, pese a que una y otra vez se ha anunciado este logro en falso.

Los obstáculos que impone una fusión controlada son varios. Primero, los núcleos se repelen simplemente por la fuerza electrostática entre sus protones, de carga positiva, como se repelen dos imanes cuando se enfrentan sus polos positivos o negativos. Esta repulsión es mayor conforme más se acercan los núcleos, formando la llamada “barrera de Coulomb”. Para superarla, se deben calentar los núcleos a enormes temperaturas para que pueda producirse la reacción de fusión nuclear, y se debe poder confinar o aprisionar una cantidad suficiente de núcleos que estén reaccionando, de modo que la energía producida sea mayor que la que se ha utilizado para calentar y aprisionar a los núcleos.

Al calentar el hidrógeno a alrededor de 100.000 ºC, todos sus átomos se ionizan o liberan sus electrones, por lo que se encuentra en el estado de la materia llamado plasma, con núcleos positivos y electrones libres negativos. Con temperaturas tan elevadas, no es posible contener el plasma en recipientes materiales, ya que el calor los destruiría. Las opciones son un fuerte campo gravitacional, como el que existe en las estrellas, o un campo magnético.

Desde mediados del siglo pasado se han diseñado distintas formas de lograr la confinación magnética del plasma, sin éxito hasta ahora. Se han producido reacciones termonucleares artificiales, algunas de ellas triviales desde 1938, cuando el inventor de la primera televisión totalmente electrónica, creó un fusor que demuestra en la práctica la fusión nuclear. Pero, hasta hoy, la energía obtenida por la fusión siempre ha resultado menor a la que se consume en el calentamiento y confinamiento magnético del plasma.

Se han propuesto otros sistemas, como el confinamiento inercial, donde el combustible se coloca en una esfera de vidrio y es bombardeado en varios sentidos por haces láser o de iones pesados, que disparan la fusión al imposionar la esfera, pero hasta hoy el confinamiento magnético parece la mejor opción.

En la búsqueda de una fusión controlada, las afirmaciones exageradas y cierta charlatanería están presentes desde 1951, cuando un proyecto secreto peronista afirmó haber conseguido el sueño.

Especialmente conocidos fueron Martin Fleischmann y Stanley Pons, que en 1989 afirmaron haber conseguido la fusión fría con un sencillo aparato de electrólisis. El anuncio fue un verdadero sismo en la comunidad científica, que se lanzó a confirmar los datos y replicar los experimentos, pese a que desde el principio se entendía que las afirmaciones de los dos físicos contravenían lo que sabemos de física nuclear.

Fue imposible reproducir los resultados presentados, pese a que países como Japón y la India invirtieron en ello, y finalmente se concluyó que simplemente habían realizado mal sus mediciones. Ambos científicos pasaron al mundo de la energía gratis y las máquinas de movimiento perpetuo, donde siguen afirmando que sus resultados eran reales aunque nadie pudiera replicarlos.

La promesa de la fusión nuclear como fuente de energía con muchas ventajas y pocas desventajas provoca entusiasmos desmedidos y, como ocurrió con la fusión fría, puede llevar a creencias irracionales. El trabajo, sin embargo, como en todos los emprendimientos humanos, con tiempo y originalidad, será el único que podrá, eventualmente, conseguir este santo grial de la crisis energética.

Europa a la cabeza

Un esfuerzo conjunto europeo llamado Joint European Torus, JET (Toro Conjunto Europeo, no por el animal, sino por la forma de donut que los topólogos llaman precisamente “toro”), es el mayor experimento de física de plasma en confinamiento magnético que existe en el mundo. Esta instalación situada en Oxfordshire, Reino Unido, está en operación desde 1983, y en 1991 consiguió por primera vez una fusión nuclear que produjera más energía de la que consumía. Sigue en operación, explorando cómo crear un reactor de fusión viable, y en él trabajan asociaciones EURATOM de más de 20 países europeos.

Las misteriosas causas

Un péndulo de Foucault en el Museo de Ciencias de Valencia.
Su comportamiento se debe a la rotación de la Tierra.
(foto CC Manuel M. Vicente via Wikimedia Commons)
En ocasiones no es tan fácil como quisiéramos saber por qué ocurren ciertas cosas, y muchas veces aplicamos un pensamiento poco riguroso, y poco recomendable, a los acontecimientos.

Supongamos que sufrimos una larga enfermedad y nos sometemos a tratamiento con dos o tres médicos o, desesperados por la duración de las molestias, acudimos a una persona que afirma poder lograr curas milagrosas, y que puede ser igual el practicante de alguna terapia dudosa o, directamente, un brujo.

Y supongamos que al cabo de una semana, nuestra enfermedad empieza a remitir y dos semanas después ha desaparecido sin dejar rastro.

No es desusado que le adjudiquemos el efecto (nuestra curación) a la causa más cercana en el tiempo, en este caso el terapeuta dudoso o el brujo. La convicción que produce en nosotros esa atribución de curación es tal que no dudaremos en recomendar al terapeuta dudoso o al brujo a cualquier persona con una afección similar... o con cualquier afección. La frase que solemos escuchar en tales casos es: “A mí me funcionó”.

Pero la verdad es que en tal caso, como en muchos otros, no tenemos bases reales para atribuirle la curación a ninguna de todas sus posibles causas, como la acción retardada de una de las terapias médicas, la sinergia de la dos terapias médicas, un cambio ambiental que altere las condiciones de la enfermedad, algún alimento que disparara nuestro sistema inmune o, incluso, que nuestro cuerpo se haya curado sin ayuda externa, con sus procesos de defensa. Hasta podría ser que un hada invisible proveniente de Islandia se haya apiadado de nosotros en su viaje a ver a su novio sátiro en Ibiza y nos señalara con su varita mágica.

Gran parte de la historia de la ciencia es la historia de la identificación de las causas reales de ciertos acontecimientos y de los hechos que se correlacionan con dichos efectos sin realmente causarlos.

Un ejemplo clásico es un estudio estadístico sobre el tamaño del calzado y la capacidad de lectura, que sin duda demostraría que mientras mayor es el tamaño del calzado de una persona, más tiende a tener buenas habilidades de lectoescritura. Esto podría interpretarse como que la alfabetización hace crecer los pies o que el tamaño de los pies afecta la inteligencia, cuando en realidad lo que ocurre, simplemente, es que los niños pequeños tienen pies pequeños y sus pies crecen paralelamente a su aprendizaje de la lectura.

Dos acontecimientos pueden estar relacionados porque que uno de ellos cause al otro, o que ambos sean producto de una tercera causa, que se influyan entre sí de distintos modos o, simplemente, a una coincidencia.

La ciencia debe enfrentarse a la natural tendencia de nuestro cerebro de encontrar patrones y relaciones donde no los hay, como cuando vemos formas en las nubes o en las rocas, o convertimos el ruido blanco de la ducha en voces que creemos oír.

Por ello, hemos desarrollado armas como el “control de variables”. Hacemos uniformes todas las variables que pueden incidir en un efecto, como la temperatura, la presión atmosférica la iluminación, etc., menos aquélla que estamos poniendo a prueba, digamos un medicamento. Si se observa que al ocurrir nuestra variable se produce el efecto, tenemos una buena indicación de que lo ha causado. Esto es lo que se conoce como un “estudio controlado”.

Cuando en los experimentos intervienen seres humanos, los controles se multiplican debido al hecho de que los resultados pueden verse influidos por las opiniones, prejuicios, deseos, expectativas, rechazos y preconcepciones de los sujetos experimentales, y también los del experimentador. Si un experimentador, digamos, tiene una sólida convicción de que un medicamento es altamente efectivo, o por el contrario cree que es inservible, puede enviarle una gran cantidad de mensajes sutiles a los pacientes y afectar sus expectativas de éxito.

Por ello, la medicina utiliza el control llamado “de doble ciego”, donde ni los médicos que llevan a cabo el experimento ni los sujetos experimentales saben quiénes están tomando un medicamento y quiénes reciben un placebo o sustancia neutra. Al hacer estos estudios en poblaciones razonablemente grandes, tenemos bases para creer que los efectos observados que se aparten del azar están siendo efectivamente causados por el medicamento.

Finalmente, muchas relaciones causales las inferimos a partir de evidencias indirectas. Nadie ha visto al humo del tabaco entrar al pulmón, mutar una célula y provocar un cáncer, pero hay evidencias estadísticas suficientes para suponer que existe una relación causal, observando por ejemplo que los fumadores tienden a una mayor incidencia de cáncer sin importar dónde viven, su edad y otras variables.

Muchos estudios de los que informan los medios de comunicación establecen correlaciones, pero se presentan con frecuencia como si hablaran de relaciones causales. Por ejemplo, una sustancia puede estar correlacionada con un aumento de cáncer en ratas, pero los medios tienden a presentar el estudio como si afirmara que dicha sustancia “causa” cáncer, aunque no exista tal certeza. Al traducirse al público en general, la cautela habitual de los informes científicos suele desvanecerse.

La discusión sobre el calentamiento global se centra en saber si la actividad del hombre es una causa (al menos parcial) del calentamiento global o si la actividad industrial y el calentamiento están sólo correlacionados. Esto aún no se sabe, y las posiciones se toman por convicciones políticas y no con bases científicas. La evidencia parece indicar que hay una relación causal y la cautela nos dice que quizás convenga controlar la emisión de gases de invernadero, pero mientras no haya pruebas más contundentes, o más evidencia, no se puede afirmar que quienes promueven la irresponsabilidad en emisiones de gas carbónico estén equivocados, aunque puedan resultarnos antipáticos.

Las herramientas de la ciencia también son útiles en nuestra vida cotidiana. Es muy sano cuestionarnos la posibilidad de que estemos atestiguando una correlación simple cada vez que tenemos la tentación de adjudicarle a un acontecimiento una causa, especialmente si ésta nos resulta agradable, va de acuerdo con nuestras ideas u opiniones, o parece demasiado buena como para ser cierta.

Piratas y calentamiento global

La religión paródica del Monstruo Volador de Espagueti ha propuesto una correlación que, si se asumiera como causación, daría un resultado curioso. En el período histórico en el que ha disminuido el número de piratas tradicionales de parche en el ojo y pata de palo, ha aumentado el calentamiento global. Si en vez de profundizar en las causas de esta correlación inferimos que el calentamiento global está causado por la falta de piratas, lo mejor que podríamos hacer para controlar dicho cambio climático sería, claro, volvernos piratas.

James Maxwell, el gran unificador

James Clerk Maxwell
(D.P. vía Wikimedia Commons)
Uno de los físicos más importantes de la historia es poco conocido por lo complejo de sus aportaciones, sin las cuales, sin embargo, la física del siglo XIX habría sido mucho menos fructífera.

James Clerk Maxwell está considerado como el tercer físico más importante de la historia, superado sólo por Newton y Einstein. Sin embargo, en la percepción popular, la historia de la electricidad y el magnetismo está dominada por personajes como Michael Faraday, Luigi Galvani o Benjamin Franklin.

Esta mala fortuna se debe en gran medida al nivel altamente teórico del trabajo de Maxwell, sobre todo si lo comparamos con los espectaculares experimentos de Galvani, electrizando animales muertos cuyos músculos se contraían para sobrecogimiento de los espectadores, las dinamos y aparatosas chispas de Faraday (quien por su parte no hizo matemáticas, todos sus descubrimientos son resultado de sus geniales experimentos), y la figura colosal de Franklin que además de su cometa y su suerte al sobrevivir a su imprudente experimento con la cometa (varios de sus émulos dejaron la vida en el intento) destacó en la política, la diplomacia, la literatura y la filosofía.

Sin embargo, la importancia de Maxwell se puede evaluar considerando que Einstein tenía en su mesa de trabajo dos retratos, el de Newton y el de Maxwell, y llegó a decir sobre el trabajo del modesto, metódico escocés, que era "lo más profundo y más fructífero que había experimentado la física desde tiempos de Newton”. En otro momento, Einstein explicó que “la teoría de la relatividad especial debe sus orígenes a las ecuaciones de Maxwell del campo electromagnético”.

Este barbado revolucionario del siglo XIX nació en 1831 en Edimburgo, Escocia, donde asistió a la academia de los 10 a los 16 años. Su amigo desde entonces Peter Guthrie Tait recuerda que el chico era considerado rústico, tímido y aburrido, y pasaba su tiempo libre leyendo baladas, haciendo diagramas y preparando modelos mecánicos burdos. Como suele ocurrir, tales actividades resultaban incomprensibles para sus compañeros de clase, pero pronto se mostró como el más brillante, y frecuente ganador de premios en matemáticas y poesía inglesa.

Su primer trabajo matemático conocido fue un artículo sobre medios mecánicos para dibujar curvas matemáticas, y las propiedades de las elipses y otras curvas con varios focos, fue presentado a la Real Sociedad de Edimburgo en 1846, que quedó impresionada con el joven.

En 1847, a los 16 años de edad, Maxwell entró a la Universidad de Edimburgo, que le resultó poco exigente y le dejó tiempo para seguir sus estudios independientemente, ocupándose de estudios relacionados con la óptica. Ese mismo año escribió dos artículos sobre teoría de curvas y uno sobre la refracción de la luz en distintos sólidos elásticos.

El mundo para Maxwell era ya un acertijo que sólo podía resolverse mediante las matemáticas. Como diría después: “Todas las ciencias matemáticas están fundadas entre leyes físicas y las leyes de los números, de modo que el objetivo de la ciencia exacta es reducir los problemas de la naturaleza a la determinación de cantidades mediante operaciones con números”.

De Edimburgo marchó a Cambridge en 1850 para realizar sus estudios de postgrado, y allí permanecería hasta 1856 y donde empezó a ocuparse del magnetismo y la electricidad. En 1855 presentó un modelo simplificado del trabajo de Faraday y de la forma en que se relacionaban estos dos fenómenos. Todo el conocimiento que existía en ese momento fue reducido por Maxwell a 20 ecuaciones en 20 variables.

En 1861, su artículo Sobre las líneas físicas de fuerza presenta las ecuaciones que, con ligeras variaciones, son conocidas hoy en día como las “Ecuaciones de Maxwell”. En ellas describía matemáticamente cómo el flujo eléctrico generaba campos magnéticos y cómo el movimiento de un campo magnético puede generar electricidad. También establecía el concepto de la “corriente de desplazamiento”, una forma de la corriente eléctrica en la que el campo magnético no está generado por el movimiento de la corriente en sí, sino por su variación en el tiempo.

Habiendo determinado que la propagación de las ondas electromagnéticas en el vacío ocurría a una velocidad similar a la de la luz, propuso que ésta era una perturbación electromagnética que se propagaba de acuerdo con las leyes electromagnéticas. La idea de que la luz podía ser una expresión de los fenómenos que en esos tiempos capturaban la atención del mundo conforme se entendía la electricidad y sus posibilidades era totalmente revolucionaria.

En 1865, en el artículo Una teoría dinámica del campo electromagnético, Maxwell reúne finalmente la electricidad, el magnetismo y la óptica en una sola teoría unificada mediante la ecuación de la onda electromagnética.

Más aún, la teoría electromagnética de la luz de Maxwell sugería la posibilidad de que las ondas eléctricas existieran en el espacio libre. No fue sino hasta 1887, ocho años después de la prematura muerte de Maxwell en 1879, que Heinrich Hertz, el físico alemán que da su nombre al “hertzio” como unidad de frecuencia, demostró experimentalmente la existencia de tales ondas eléctricas en el espacio, las ondas que hoy utilizamos para la comunicación por radio, televisión, telefonía móvil y otros sistemas que emplean ondas electromagnéticas.

La aportación de Maxwell, sin embargo, no se limitó a ese singular logro de unificación. Dejó importantes logros en la óptica y la percepción del color, descubriendo que se pueden crear fotografías a color con filtros rojo, azul y verde, y tomó la primera fotografía permanente a color en 1861. Se ocupó de la teoría cinética de los gases, es decir, del movimiento de las moléculas en los gases a distintas temperaturas, y también consiguió importantes avances en la termodinámica. Con todo esto, tuvo tiempo para ordenar y editar los papeles de Henry Cavendish, el físico británico descubridor del hidrógeno, y diseñar e instalar el laboratorio Cavendish en Cambridge. Una enorme labor para una vida que sólo duró 48 años.

Las unificaciones y revoluciones en la física

Con frecuencia se afirma que “la ciencia” se “equivoca” en muchas ocasiones y cambia de posición con cierta frecuencia. Quienes así hablan sueñan con que eventualmente la ciencia acepte algunas propuestas descabelladas. Pero la afirmación no es válida. Es aventurado hablar de ciencia en sentido estricto antes del Renacimiento, y después los genios como Einstein y Maxwell ampliaron, afinaron y unificaron los conocimientos ya existentes, no los eliminaron. Maxwell no borró lo que se sabía sobre magnetismo y electricidad, simplemente lo unificó coherentemente y le dio sentido. La ciencia no funciona cambiando de rumbo caprichosamente, sino por la acumulación de conocimientos e ideas.

El misterio de las mentiras

Saber cuándo alguien miente es un antiguo sueño. Pero los intentos por conseguirlo de modo fiable, hasta hoy, parecen condenados al fracaso.

Dieric Bouts El Viejo: La ordalía por
fuego de la emperatriz ante el
emperador Otto III
(D-P. Wikimedia Commons)
Como especie, mentimos. La mentira es una forma de evitar situaciones desagradables y de obtener satisfacciones, de conseguir lo que queremos, y es parte del desarrollo humano.

Los psicólogos del desarrollo nos dicen que los niños muy pequeños no saben mentir en el sentido adulto. Es decir, crean historias, no son fieles a la verdad, pero no saben que están mintiendo, pues para ellos las frontera entre la realidad y la fantasía no es clara. Sin embargo, cuando cometen una transgresión, los niños hasta los tres años con frecuencia confiesan, mientras que los mayores de esa edad invariablemente mienten.

Pero si mentir es esencialmente humano, como especie y como sociedad también tenemos un enorme interés en poder determinar cuándo alguien miente, sea en algo tan sencillo como una declaración de amistad, tan grave como la comisión de un delito o tan potencialmente grave como el espionaje en tiempos de guerra. Y de ahí que muchos, crédulamente o como charlatanes, hayan diseñado diversos métodos para “detectar mentiras”, desde el juicio por ordalía, donde se sometía al acusado a una experiencia dolorosa como tomar entre las manos un hierro al rojo vivo, y si era culpable (es decir, si mentía al declarar su inocencia), la deidad lo castigaría, mientras que si era inocente (y no mentía), la misma deidad lo protegería del daño o aceleraría su curación. El procedimiento resultó poco fiable.

En 1917 apareció un aparato que pretendía poder detectar las mentiras mediante la medición de cuatro variables fisiológicas: la presión sanguínea, la frecuencia respiratoria, la frecuencia cardiaca y la resistencia galvánica de la piel. Como el aparato grafica estas cuatro variables en un papel, se le llamó “polígrafo”, aunque popularmente se le conoce como “detector de mentiras”. Si bien es cierto fisiológicamente que estas variables se ven afectadas cuando una persona está nerviosa o inquieta. Pero no todo mentiroso se pone nervioso y no todo nerviosismo es producto de la mentira, como se ha descubierto en el campo.

El aparato, creado por William Moulton Marston, que después sería el creador de Wonder Woman el personaje de cómic, no fue sometido nunca a una evaluación científica amplia, pero como parecía lógico y su promesa era enorme, fue rápidamente adoptado.

Al mismo tiempo aparecieron numerosos métodos, especialmente entre los criminales habituales y organizados, para engañar al polígrafo. Así, hay quien simula una tranquilidad inexistente consumiendo ansiolíticos como el Valium, mientras que otros logran engañar al aparato simplemente pensando en situaciones que les resulten estresantes sin importar la pregunta, de modo que el aparato siempre registre los mismos niveles de excitación. Morderse la lengua en cada pregunta, o pellizcarse el muslo, son también efectivos.

El polígrafo es tan poco confiable que se usa cada vez en menos países, y en Estados Unidos se ha visto bajo tales ataques que el Congreso de los EE.UU. promulgó una ley que impide que los patrones sometan a sus empleados a pruebas de polígrafo, y ni siquiera el sistema judicial estadounidense admite los estudios de polígrafo como pruebas en tribunales.

Un segundo sistema de detección de mentiras que se ha difundido es el “analizador computarizado de estrés en la voz”, (CSVA por sus siglas en inglés), que supone que la voz cambia cuando mentimos. Si bien esto es cierto, los críticos nos recuerdan que la voz también cambia si comemos mucha sal, si pensamos en sexo y, además de muchas otras causas, cambia cuando queremos que cambie. La falta de estudios científicos que validen la capacidad del CSVA de detectar cuándo alguien miente, ni mucho menos aún que nos digan cuáles cambios exactamente mide dicho aparato y cómo se detectan.

La crítica de los estudiosos a las afirmaciones sobre el CSVA ha llevado incluso a que uno de los fabricantes de este aparato amenace con demandar por difamación a un grupo de científicos suecos que publicaron, en una prestigiosa revista dedicada al lenguaje hablado y la ley, un resumen de los últimos 50 años del análisis forense de la voz y la charlatanería en esa disciplina, por lo demás seria y en la que trabajan fisiólogos, psicólogos, expertos en fonética y otros. El resultado del estudio de los investigadores: “no hay evidencia científica que sustente las afirmaciones de los fabricantes”.

El último sistema de detección de mentiras puesto de moda por los medios es el estudio de las “microexpresiones”, que aún siendo un terreno con muchas más bases científicas ha sido también mal comprendido, en parte debido a los excesos fantásticos de la ficción en el cine y la televisión, que por otra parte, es claro, no tienen la obligación de ser fieles a los hechos científicos mientras dejen claro que son obras de fantasía.

Lo que hoy llamamos microexpresiones fueron descritas por Kenneth S. Isaacs y Ernest. A. Haggard en un artículo científico de 1966 donde las llamaron “expresiones micromomentáneas”. Tales expresiones faciales que duran entre una décima de segundo y unos pocos segundos, según descubrieron, son indicadoras de coflicto emocional en la persona, especialmente cuando tiene mucho en juego. Pero como en el caso de las variables del polígrafo y el CSCVA, la aparición de microexpresiones que denotan emociones no indican el origen de dichas emociones.

Las microexpresiones no son el único indicador de conflictos emocionales. Toda la conducta no verbal, o lenguaje corporal, puede ser tenida en cuenta para analizar a un posible mentiroso. La frecuencia del parpadeo, la dirección de movimiento de los ojos, el tocarse en ciertas zonas, son conducta no verbal pero no microexpresiones. Después de todo, según algunos investigadores, el 80% de nuestra comunicación es no verbal, aunque no nos demos cuenta de ello.

David Matsumoto, considerado por muchos el máximo investigdor en el terreno de la comunicación no verbal, explica sin embargo que conocer las emociones y aprender a leerlas en otras personas no es sólo asunto de la policía o las fuerzas de seguridad, sino que puede ser útil para muchos profesionales y, quizás, para todos, aunque siempre corermos el peligro de enterarnos de emociones que experimentan otros y que preferiríamos no conocer.

Los magos de la verdad

La serie televisual Miénteme incluye entre sus protagonistas a una persona que sin entrenamiento alguno tiene gran capacidad para descubrir cuando alguien miente. Tales personas existen en realidad. En 2004, la psicóloga Maureen O’Sullivan descubrió a 13 personas así, a las que llamó “magos de la verdad” en un estudio que incluyó a 13.000 sujetos experimentales. Los otros 12.987 tendrían que entrenarse para ser igual de perceptivos.

El canto de las ballenas

Experiencia estremecedora, para algunos espiritual, el canto de las ballenas es una puerta para entender a nuestros gigantescos primos marinos.

Sello postal de las Islas Faroe
dedicado a la ballena azul
Los profundos gemidos de la ballena jorobada, que se repiten en patrones regulares, resultan, cuando menos, profundamente cautivadores para el ser humano. Tanto así que les llamamos “canto” en lugar de mugidos, bramidos o cualquier otro sustantivo más basto, y se han editado varios discos con estos sonidos, con un éxito singular, tratándose de seres no humanos.

El primer disco, publicado en 1970 con el nombre Songs of the humpback whale (Canciones de la ballena jorobada), se hizo a partir de las grabaciones realizadas por el biólogo Roger Payne, el descubridor del canto de las ballenas.

Parece extraño que en los miles de años de relación del hombre con las ballenas, nuestra especie no se hubiera percatado de que los gigantescos mamíferos producían sonidos. Después de todo, la ballena está presente en nuestras culturas al menos desde tiempos bíblicos, y en todo el mundo. Sin embargo, debido a su gigantesco tamaño, estos animales fueron objeto de lo que podríamos llamar campañas de prensa negativas a lo largo de la historia, sobre todo en occidente.

Aunque culturas como las de Ghana, Vietnam o los maoríes de Nueva Zelanda tenían una visión más equilibrada de las ballenas, situándolas con frecuencia en el plano de divinidades, lo común en Europa y América ha sido situarlas como villanos. Desde la historia de Jonás tragado por la ballena, que está presente en la Biblia y en el Corán, hata el Moby Dick de Herman Melville o la feroz ballena del Pinocho de Carlo Collodi, la ballena se representó como un terrible peligro de los procelosos mares, una bestia que no parecía tener más ocupación que lanzarse sobre las embarcaciones destrozándolas, tragarse cuanto encontraba y aterrorizar a los pobres pescadores que, en todo caso, sólo querían matarlas para aprovecharlas industrialmente.

En 1967, Roger Payne y Scott McVay dieron a conocer su descubrimiento de que las ballenas jorobadas producían los profundos sonidos que hoy nos resultan familiares. Pero no se trataba solamente de sonidos agradables. Payne y McVay descubrieron que las ballenas desarrollaban canciones que duraban hasta 30 minutos, con “frases musicales” que se repetían regularmente y que podían ser producidos, o cantados, por grupos de varios machos de ballena jorobada. Las canciones se repiten de modo continuo durante horas, a veces durante más de 24 horas.

El canto de las ballenas jorobadas es, evidentemente, parte del cortejo en su especie, pero no para atraer a las hembras, sino probablemente como desafío territorial. Esto se deduce de que son los machos los que más frecuentemente cantan, especialmente en la temporada de apareamiento, y el canto atrae principalmente a otros machos.

A diferencia de los sonidos fijos, en gran medida genéticamente determinados, de otros animales, el canto de la ballena jorobada no se mantiene igual al paso del tiempo. Las canciones que cantan los grupos de machos cambian año con año, se añaden nuevas “frases musicales” y se abandonan otras, creando un complejo rompecabezas para los científicos que se dedican a su estudio. En algunos grupos y áreas geográficas, las canciones evolucionan rápidamente, mientras que en otros los cambios son más lentos. Sin embargo, una vez que se introduce un cambio, todo el grupo de machos lo adopta para seguir cantando en su peculiar “coro”.

No todas las ballenas cantan, sin embargo. Las 90 especies de cetáceos, el orden de los mamíferos adaptados a la vida marina que incluye a los delfines, las ballenas y las marsopas, se dividen en dos grandes subórdenes, los odontocetos o ballenas dentadas, y los misticetos o ballenas francas.

Los más conocidos ejemplos de odontocetos son el cachalote o ballena blanca de Moby Dick, las orcas y los delfines. Los cetáceos de este suborden se comunican con diversos sonidos y vocalizaciones, como los chillidos y chasquidos de los delfines que se hicieron populares por la serie de televisión Flipper en los años 60, además de los ultrasonidos que emplean para la ecolocalización. Las ballenas blancas, por su parte, utilizan bajas frecuencias para comunicarse.

Son las ballenas francas o misticetas las que producen los hipnóticos cantos que descubriera Payne. Estas ballenas no tienen los aparatos fónicos con los que cuentan los odontocetos para producir sus sonidos y chasquidos, y la forma en que producen los sonidos en la laringe, sin necesidad de exhalar aire, sigue siendo un misterio.

Además de ser parte del cortejo entre las ballenas jorobadas, el canto de la ballena azul parece ser una forma de comunicación a larga distancia. Los gemidos más profundos de la ballena azul, que canta en solitario, son inaudibles para el oído humano, ocurren en frecuencias subsónicas como las que también emplean los elefantes en tierra, y no sabemos si esto es sólo una coincidencia o tiene un sentido evolutivo. El hecho es que los sonidos producidos por la ballena azul se transmiten a muy grandes distancias en el agua, tanto que Roger Payne ha propuesto que se emplean para comunicarse con un océano de distancia.

Finalmente, otras ballenas misticetas como el rorcual, la ballena gris o la ballena de Groenlandia cantan todo el año, lo cual convierte sus interpretaciones en un misterio aún mayor. Por desgracia, dado que su canto no tiene en el ser humano los profundos efectos emocionales que ciertamente tienen los cantos de la ballena jorobada o la ballena azul, su estudio es menos intenso y es probable que la explicación se tome más tiempo para llegar.

Y es que en parte el estudio del canto de las ballenas se ha visto condicionado por apreciaciones subjetivas, convicciones ideológicas y otros elementos profundamente humanos. Los más apasionados de la conservación quieren hallar un elemento místico en la voz de las ballenas, mientras que quienes aún viven de la caza de ballenas prefieren creer que tales cantos no son distintos del mugido de una vaca.

Probablemente, la verdad está en algún otro punto, alejada de las pasiones y enfrentamientos de los observadores.

De los murciélagos a las ballenas


Roger Payne comenzó su carrera como investigador en biología dedicado a la ecolocalización de los murciélagos y la audiolocalización de los búhos, y las distintas formas en que las presas de estos animales evitaban ser cazadas. Eran los años del surgimiento de la conciencia ecológica, y Payne decidió dedicarse a un área en la que pudiera colaborar con la conservación de las especies y el medio ambiente, y se centró en las ballenas. Con cierta vena poética, describió los sonidos producidos por los cetáceos como “exuberantes ríos ininterrumpidos de sonido”. Actualmente trabaja como zoólogo y encabeza una organización no lucrativa para la conservación de los océanos.

Vitaminas: las famosas desconocidas

Estructura de la Vitamina C (ácido ascórbico)
(Imagen de Wikimedia Commons)
Son innumerables los alimentos y productos para el consumidor que dicen contener suplementos vitamínicos, sin decir si eso es forzosamente bueno... o por qué.

En 1749, el médico escocés de la armada británica, James Lind, llevó a cabo el primer experimento controlado que comparó los resultados de una variable en dos poblaciones. Añadió dos naranjas y un limón a la dieta de parte de la tripulación de un barco en alta mar, mientras que el resto de la tripulación consumió la misma dieta sin los frutos cítricos. Los resultados demostraron que los cítricos prevenían el escorbuto, temida enfermedad de los marineros.

En 1897, el médico holandés Christian Eijkman descubrió que había algo en la cáscara del arroz por lo que quienes comían arroz integral eran menos vulnerables a la debilitante enfermedad del beri-beri que quienes lo consumían procesao, y en 1912 el bioquímico polaco Casimir Funk consiguió descubrir dicha sustancia, la tiamina. Como tenía un grupo amina, Funk la bautizó “vita amina” o amina vital, la B1. Con base en su descubrimiento, Funk tuvo la intuición de que otras enfermedades como el raquitismo, la pelagra y el escorbuto también podrían ser tratadas con “vitaminas” o, dicho de otra manera, que la falta de estos nutrientes era la responsable de esas –y otras– enfermedades.

La definición actual de las “vitaminas” no incluye, sin embargo, el concepto de “aminas”, pues muchas de ellas no incluyen este grupo en su composición química. Una vitamina es un compuesto orgánico complejo que ocurre naturalmente en las plantas y animales, y que es indispensable, en cantidades minúsculas, para mantener las funciones vitales y evitar enfermedades. La vitamina se define por su función, y no por su estructura, de modo que hay diversas sustancias (o vitámeros) que exhiben la actividad de cada vitamina.

Las vitaminas se consideran micronutrientes, por las pequeñas cantidades que necesita nuestro cuerpo, junto con los minerales de los que necesitamos menos de 100 microgramos al día, como el hierro, cobalto, cromo, cobre, yodo, manganeso, selenio, cinc y molibdeno.

Las vitaminas se distinguen por su solubilidad. Las vitaminas del complejo B (8 distintas vitaminas) y C son solubles en agua (y son eliminadas por la orina, a veces con un olor característico), mientras que las A, D, E y K se disuelven en la grasa (son liposolubles) y permanecen más tiempo en el cuerpo.

No todos los animales y plantas sintetizan todas las vitaminas que necesitan, de modo que es necesario obtenerlas de los alimentos. Esto es aprovechado por fabricantes de suplementos alimenticios, alimentos, cosméticos y otros productos para añadirles vitaminas y presentarlos así como más potentes, eficaces, sanos y convenientes, cosa que no siempre es cierta.

Nuestra flora intestinal, cuando está sana, produce vitamina B7 (biotina) y vitamina K, y es bien sabido que una de las formas de la vitamina D, cuya deficiencia provoca el raquitismo, la sintetiza nuestra piel al exponerse a los rayos ultravioleta, por lo que tomar moderadamente el sol ayuda a prevenir la osteoporosis. Igualmente, nuestro cuerpo puede producir vitamina A a partir de las sustancias conocidas como carotenoides, incluido el beta caroteno que da su color rojo-anaranjado a alimentos como la zanahoria y la remolacha.

Sin embargo, como ocurre con prácticamente cualquier sustancia o nutriente, “más” no significa “mejor”. Una deficiencia en vitamina A, por ejemplo, provoca ceguera nocturna y sequedad en la córnea, que se corrigen con una dosis para adultos de unos 900 microgramos (900 millonésimas de gramo) de vitamina A al día. Pero una dosis excesiva durante un tiempo prolongado causa síntomas tan inocuos como la decoloración de la piel o la resequedad excesiva... y tan graves como defectos congénitos, problemas hepáticos, disminución en la densidad ósea y el aumento patológico de la presión intracraneal.

Otro ejemplo es la vitamina B3, cuya deficiencia es culpable de la pelagra, terrible enfermedad que se identifica por cuatro elementos: diarrea, dermatitis, demencia y muerte. Esta grave afección se previene (y cura, al menos impidiendo que los daños sigan) con una dosis de tan sólo 16 miligramos diarios de vitamina B3. Esta misma vitamina, en dosis de más de 1,5 gramos al día, puede ocasionar problemas de la piel, como resequedad y erupciones, fallo hepático fulminante, arritmias cardiacas y defectos congénitos, entre otras afecciones.

Ese riesgo, con frecuencia no es considerado por quienes recomiendan terapias sin bases científicas en las que se aumenta sensiblemente el consumo de micronutrientes o se dan dosis masivas de vitaminas (megavitaminas). Pero la publicidad que se da a quienes nos advierten de todo tipo de peligros, y que afirman que nuestro cuerpo necesita todo tipo de ayudas externas, han convertido a los suplementos nutricionales, y especialmente a los complejos vitamínicos en un producto de consumo más.

Incluso, de modo inexplicable, algunos vendedores de vitaminas hablan de “vitaminas naturales” que resultan, de algún modo, “mejores” que las “artificiales” o sintéticas. Cada vitamina es el mismo compuesto químico, idéntico átomo por átomo, independientemente de haber sido sintetizado en una planta, un animal o una fábrica con los más modernos equipos técnicos.

Y, lo más lamentable, resulta que las vitaminas que se ofrecen como suplementos en tiendas que afirman ser “naturales”, “ecológicas”, “biológicas” o “alternativas” llegan a tener costos de hasta el doble de las mismas vitaminas en versión genérica, e incluso más que las vitaminas “de marca” que tampoco tienen ninguna diferencia respecto de las genéricas. Sin mencionar otras terapias peligrosas que administran megadosis de vitaminas directamente en vena.

Las vitaminas no son, como se llegó a creer a principios del siglo XX, ninguna panacea o curación para todo. No nos dan “vitalidad” como creen quienes recomiendan a los niños tomar sus vitaminas para “estar fuertes”. De hecho, en los países desarrollados las deficiencias vitamínicas han casi desaparecido, pese a las dietas pletóricas de alimentos dudosos que nos administramos.

Pelagra y ceguera nocturna

Varias zonas de Europa que durante alguna época se alimentaron principalmente de maíz fueron sede de brotes extensos de pelagra debido a que el maíz contiene poco triptofano, que nuestro cuerpo usa para fabricar vitamina B3. Sin embargo, los indígenas mesoamericanos utilizan un sistema llamado “nixtamalización”,  que implica cocinar el grano de maíz en una solución alcalina, lo cual corrige la deficiencia de niacina en el maíz. Éste es de los pocos conocimientos empíricos sobre vitaminas de la antigüedad, junto con la recomendación de comer hígado que los antiguos médicos egipcios daban a quienes sufrían de ceguera nocturna por falta de vitamina A.

Exoesqueleto: un cuerpo mecánicamente optimizado

Un segundo cuerpo que nos permita ser más fuertes, más ágiles, más resistentes está dejando de ser una simple especulación: los robots vestibles o exoesqueletos ya están en la calle.

Miembros de apoyo cibernéticos
de Cyberdyne Studio
(Foto CC Yuichiro C. Katsumoto
via Wikimedia Commons)
Una de las imágenes perdurables del cine de ciencia ficción es sin duda parte de la película Alien, cuando, al final, la teniente Ripley, interpretada por Sigourney Weaver, lucha contra el monstruo extraterrestre tripulando, o llevando puesta, una máquina utilizada para la carga y descarga de equipo, cuyos movimientos se ajustan a los del tripulante y que se conoce como “exoesqueleto” por ser duro y externo, sin contar con que está accionado por una potencia externa al usuario.

La idea de la máquina es sencilla: un aparato que reproduzca las articulaciones humanas, movido ya sea por medios hidráulicos, neumáticos o mecánicos para aumentar tremendamente la fuerza de quien lo lleva o tripula. El aparato tiene la ventaja adicional de que se controla directamente, el movimiento o los impulsos nerviosos son detectados por la máquina y reproducido de modo ampliado, como si fuera un pantógrafo para el cuerpo.

La idea de un exoesqueleto accionado mecánicamente, también llamado “traje robot”, nace, como tantos otros conceptos del siglo XX y XXI, en la ciencia ficción. El escritor estadounidense de aventuras espaciales (género también conocido como “ópera espacial”) Edward Elmer Smith introdujo el primero de estos dispositivos en una novela de su larga serie Lensman en 1937, en la forma de una armadura de combate motorizada.

El control fino de un exoesqueleto y sus posibilidades técnicas fueron examinados con todo detalle por el galardonado autor de ciencia ficción Robert Heinlein en dos novelas. En su clásico militarista Starship Troopers analiza las tácticas que implicaría el combate utilizando exoesqueletos. Esta novela fue, además, la que popularizó ampliamente la idea del exoesqueleto. Por otro lado, en su novela corta Waldo, Heinlein lleva al extremo la idea del pantógrafo del movimiento humano mediante los aparatos llamados, precisamente, “waldos”, que podían amplificar los movimientos de brazos y manos para manipular grandes cargas, como brazos robóticos controlados a distancia o, como se diría más adelante, por telepresencia, pero también podían reducirlos para permitir la manipulación de objetos extremadamente pequeños, por ejemplo, simplificando enormemente la realización de complejas microcirugías que implicaran la sutura de vasos sanguíneos, nervios y tendones.

La ciencia ficción, así, en sucesivas novelas y cuentos, dio a los exoesqueletos imaginarios sus características básicas: control directo mediante los movimientos del usuario, capacidad pantográfica para ampliar o reducir el tamaño o fuerza de dichos movimientos y la posibilidad de funcionar mediante telepresencia.
En el mundo del cómic, la armadura motorizada y los exoesqueletos han tenido también una larga carrera desde Iron Man, el hombre de hierro, personaje de Marvel que a falta de superpoderes cuenta con una potente armadura dotada de numerosas maravillas técnicas y que fue creado por el mítico Stan Lee en 1963. Y en el cine, además del exoesqueleto con el que Ripley vence a la madre extraterrestre, esta tecnología ha estado presente en numerosas películas, la más reciente Distrito 9, donde los extraterrestres llevan exoesqueletos que sólo pueden tripular ellos.

Un atractivo adicional de estos dispositivos sería su capacidad de permitir una vida más plena y de calidad a personas con movilidad disminuida, por ejemplo, pacientes de distrofia muscular o esclerosis múltiple.
Los intentos por hacer realidad el concepto del exoesqueleto mecanizado datan de 1960, cuando la compañía General Electric y el ejército estadounidense emprendieron para crear la máquina llamada Hardiman, cuyo objetivo era permitir que el usuario pudiera levantar grandes cargas. Era un aparato industrial que se esperaba que sirviera para diversas actividades civiles y militares. Pero diez años después, sólo se contaba con un brazo viable, capaz de levantar unos 400 kilos, pero que su vez pesaba un cuarto de tonelada. El diseño completo, sin embargo, entraba en violentas convulsiones al tratar de responder a su tripulante.

En 1986, el soldado estadounidense Monty Reed, que se había roto la espalda en un accidente de paracaídas, se inspiró en la novela Tropas del espacio de Robert Heinlein y diseñó el Lifesuit traje para caminar de nuevo. Lo propuso al ejército y desde 2001 se han creado catorce prototipos. El más reciente permite a Monty caminar kilómetro y medio con una carga de batería y levantar 92 kilos.

De entre los muchos proyectos que están en marcha, el gran salto parece haberlo dado la empresa japonesa Cyberdyne del profesor Yoshiyuki Sankai de la universidad de Tsukuba, con  su exoesqueleto llamado HAL, siglas en inglés de Miembro Asistente Híbrido. Los sensores de HAL detectan no sólo el movimiento, sino las señales de la superficie de la piel para ordenar a la unidad que mueva la articulación al mismo tiempo que la del usuario. El sistema de sensores y el sistema de control autónomo robótico que ofrece un movimiento similar al humano forman el híbrido que hace de este exoesqueleto algo revolucionario.

Desde septiembre de 2009, es posible alquilar en Tokio un prototipo de HAL o, para ser más precisos, de la parte inferior de HAL: una o dos piernas que pesan alrededor de 5 kilogramos cada una, con su sistema de abterías y control informatizado en la cintura, y que se atan al cuerpo del usuario. El alquiler de una pierna por un mes es de 1.120 euros, mientras que un sistema de dos piernas tiene un coste de casi 1.650 euros.

Otros proyectos son el XOS de Sarcos Raytheon que está siendo supuestamente probado en la actualidad por el ejército estadounidense, y las piernas de exoesqueleto que independientemente desarrollan Honda y el Massachusets Institute of Technology-

Quizá, en el futuro, llevar un exoesqueleto para caminar, levantar peso o manejar objetos delicados sea tan común como hoy es llevar gafas. Y probablemente a los primeros que llevaron gafas se les vio con la curiosidad que hoy despiertan los primeros usuarios de los HAL que recorren las calles de Tokio.

¿Para qué un robot vestible?

Un exoesqueleto viable tiene un amplio abanico de posibilidades de aplicación. Permite que los trabajadores manejen grandes cargas, puede ayudar a la rehabilitación de pacientes de diversas afecciones o cirugías, dar movilidad independiente a gente de avanzada edad o con distintos grados de discapacidad (y permitir a las enfermeras cargar y mover a los pacientes sin ayuda). Movilidad, fuerza, independencia... son promesas que, para muchos, representan la máxima promesa de la robótica.

El iconoclasta de los dinosaurios

Bob Bakker, paleontólogo
(foto CC Ed Schipul via
Wikimedia Commons)
Bob Bakker, el curioso paleontólogo que nos enseñó que las aves son dinosaurios, también se ha empeñado en compartir con todos su pasión por los dinosaurios y su suerte.

Ciertos errores sobre los dinosaurios permanecen en nuestro lenguaje habitual cuando consideramos que algo demasiado grande, lento, torpe o anticuado, o destinado a extinguirse por estar mal adaptado es “como los dinosaurios”.

Estos conceptos son remanentes de la visión que se popularizó sobre los dinosaurios a fines del siglo XIX y principios del XX, según la cual los dinosaurios eran criaturas poco inteligentes, lentas, torpes y, sobre todo, de sangre fría, aunque dentro de la comunidad científica estas ideas siempre estuvieron sometidas a debate.

Esta idea condicionó las primeras reconstrucciones de dinosaurios que se exhibieron en 1854 en el Palacio de Cristal de Londres, y que iniciaron lo que llamaríamos la manía por los dinosaurios, siguieron las primeras concepciones y mostraron únicamente esculturas de gigantescos reptiles cuadrúpedos. Los seres así imaginados, se pensó, se habían extinguido por haberse hecho, en lenguaje común, demasiado grandes para poder enfrentar los cambios de su entorno.

Nada de esto refleja fielmente lo que hoy sabemos de los seres dominantes en nuestro planeta durante casi 200 millones de años. Y lo que sabemos es resultado de los descubrimientos que se han dio acumulando: dinosaurios que evidentemente eran bípedos, el archaeopterix que sugería una relación entre las aves y los dinosaurios, y rasgos de depredadores feroces que no podían ser torpes seres de sangre fría.

Los dinosaurios, siempre apasionantes, fueron el tema de un artículo de la edición del 7 de septiembre de 1953 de la revista Life, que un par de años después caería en manos de un inquieto niño de 10 años, nacido en New Jersey, Robert T. Bakker, encendiendo en él una pasión por los dinosaurios que ocuparía toda su vida y lo llevaría a ser el motor del “Renacimiento de los Dinosaurios” a fines de la década de 1960 y principios de la de 1970.

Robert T. Bakker, o simplemente Bob Bakker, estudió paleontología en la Universidad de Yale bajo la tutela de John Ostrom, uno de los grandes revolucionarios del estudio de los dinosaurios, y se doctoró en Harvard. Para Ostrom, como ya había propuesto Thomas Henry Huxley a mediados del siglo XIX, los dinosaurios se parecían más a las grandes aves no voladoras, como los emús o los avestruces, que a torpes reptiles. En 1964, Ostrom descubrió el fósil de un dinosaurio bautizado como Deinonychus, uno de los más importantes hallazgos de la historia de la paleontología. Se trataba de un dinosaurio depredador activo, que claramente mataba a sus presas saltando sobre ellas para golpearlas con sus potentes espolones, y las inserciones musculares de la cola mostraban que la llevaba erguida tras él, como un contrapeso al cuerpo y la cabeza, pintando el retrato de un animal que no podía ser de sangre fría. Su alumno Robert T. Bakker, que además era un hábil dibujante, hizo la reconstrucción gráfica del animal.

Bob Bakker retomó las teorías y trabajos de Ostrom con una combatividad singular que lo puso al frente de un grupo de paleontólogos dispuestos a replantearse cuanto se sabía en el momento acerca de los dinosaurios. El resultado saltó a la luz pública en 1975, cuando Bakker publicó un artículo en la revista Scientific American hablando del “renacimiento de los dinosaurios”, concepto que se popularizó pronto, y dando una idea de los cambios que estaba experimentando la visión de la ciencia respecto de estos apasionantes animales.

Diez años después, convertido ya en un personaje de la paleontología, Bakker publicaría el libro The Dinosaur Heresies (Las herejías de los dinosaurios), donde presentaba los argumentos y evidencias que indicaban que los dinosaurios habían sido animales de sangre caliente; por ejemplo, la activa vida de algunos depredadores, el hecho de que algunos dinosaurios vivieron en latitudes demasiado al norte como para poder sobrevivir sin sangre caliente. Propuso además que las aves, todas las aves que conocemos hoy en día, habían evolucionado, en sus propias palabras “de un raptor pequeño”. Siguiendo a Ostrom, Bakker también sugirió que las plumas existieron mucho antes que existiera el vuelo, idea que se ha visto confirmada por posteriores descubrimientos que nos hablan de dinosaurios no voladores que usaban las plumas como aislamiento térmico.

El triunfo de Bakker se encuentra en el hecho de que, según la taxonomía actual, las aves, todas las aves son, sin más, una rama de los dinosaurios, con lo cual, es evidente, no todos los dinosaurios se extinguieron, convivimos con muchos y los apreciamos.

Pero Robert Bakker es un personaje ampliamente conocido no sólo por su extraordinaria capacidad como paleontólogo, su claridad expositiva como divulgador y su capacidad para pensar las cosas desde puntos de vista novedosos, sino también por ser un ejemplo de profundo anticonvencionalismo. Identificado por su ruinoso sombrero de cowboy, su cola de caballo siempre descuidada y su enmarañada barba, el aspecto es sólo una expresión más de una forma personal y singular de ver la realidad.

En parte su independencia se debe a que no está limitado por los nombramientos académicos y la poítica de claustro. Tiene trabajos y apoyos diversos que le permiten ser esa extraña especie llamada “científico independiente”, y trabajar con menos trabas que sus colegas. Durante más de 30 años ha estado excavando una cantera de fósiles de dinosaurio en Wyoming, donde ha hecho importantes descubrimientos como el único cráneo completo de brontosaurio que se ha encontrado hasta hoy. Y en el proceso se ha dado tiempo para escribir una novela narrada desde el punto de vista de un dinosaurio experto en artes marciales, o una dinosauria, para ser exactos, una hembra de utahraptor.

Documentalista, divulgador, dibujante y novelista, su presencia es tan imponente que Steven Spielberg, que lo tuvo como consultor en Parque Jurásico, lo utilizó como base del personaje ·Dr. Robert Burke” en la segunda parte de la serie, El mundo perdido, donde, por cierto, es devorado por un Tyrannosaurus Rex.

Lo cual, por otra parte, quizás fuera un fin adecuado para el hombre que, con su herejía paleontológica, nos devolvió la fascinación por esos animales que nos legaron el planeta.

Decirlo en lenguaje común

El Doctor Bob Bakker es opositor también del lenguaje académico que, considera, es alienante para las personas que aman a los dinosaurios sin ser científicos. “Hay algunas personas”, dice Bakker, “que piensan que no debemos hablar en lenguaje llano. Yo estoy contra el lenguaje técnico, totalmente contra él. Con frecuencia es una cortina de humo para ocultar un pensamiento descuidado”.

La revolución del cuidado parental

Reconstrucción de nido de maiasaurus
(CC Wikimedia Commons)
A lo largo de la evolución de la vida han aparecido varias formas de cuidado de las crías que mejoran las probabilidades de supervivencia de la especie y que nos permiten aproximarnos al complejo concepto de “el otro como yo”.

En 1924, Henry Fairfield Osborn describió un fósil de dinosaurio descubierto por el paleontólogo Roy Chapman en Mongolia, que había dado a su descubrimiento el nombre de oviraptor, que significa “ladrón de huevos” por encontrarse el cráneo del animal muy cerca de un nido de huevos que se pensó eran de otro dinosaurio llamado protoceratops. La disposición de los huesos fosilizados sugería que la muerte había encontrado al oviraptor en el proceso de rapiña de las crías no eclosionadas de otra especie, pero el propio Osborn advirtió que el nombre podía ser engañoso.

Y lo era.

La idea de que los dinosaurios no cuidaban de sus crías, influyó en la reconstrucción que hizo Chapman de la escena. Investigaciones posteriores demostraron que los huevos que yacían junto al cráneo de ese dinosaurio con aspecto que recordaba a un pavo eran de su propia especie. Con este dato, la interpretación se transformó radicalmente: lo que había encontrado Chapman no era un momento de ataque rapaz, sino la escena de un desastre en el que la muerte sorprendió a una madre cuidando de sus huevos hace 75 millones de años.

Una gran diferencia de concepto del ser humano sobre los dinosaurios media así entre el supuestamente malvado oviraptor y el “maiasaurio” o “dinosaurio buena madre” descubierto y bautizado en los años 60-70 por Jack Horner, el paleontólogo que asesoró Parque Jurásico.

El comportamiento de cuidado de las crías es una apuesta razonable desde el punto de vista de la evolución como alternativa a lanzar miles o millones de crías al mundo sin protección alguna, como es el caso de las tortugas marinas. El nacimiento masivo y sincronizado de miles y miles de tortuguitas marinas tiene por objeto que unas pocas lleguen al mar mientras la mayoría se convierte en alimento los depredadores. Pero el mar tampoco está exento de peligros, y por ello se calcula que por cada mil huevos depositados por las tortugas marinas, sólo llega una tortuga a la edad adulta.

El cuidado de las crías adquiere formas singulares entre los insectos sociales, que tienen numerosos individuos para cuidar, defender y alimentar a las crías. Una colmena de abejas, así, puede ser vista como una maternidad gigante, donde todos los individuos trabajan para garantizar que las crías sobrevivan: cada celdilla del panal es una incubadora con una cría, que es cuidada, defendida y alimentada por toda la colmena hasta que finaliza su estado larvario y puede asumir su propio puesto como coadyuvante de la siguiente generación.

La diferencia entre el comportamiento paternal de las abejas y el de animales con los que sentimos una mayor cercanía como otros mamíferos o las aves, es notable, pero hace lo mismo: emplear el cuerpo y comportamiento de los adultos en favor de la supervivencia de las crías.

Los sistemas de cuidado de las crías conforman comportamientos extremadamente complejos que aún no se comprenden del todo pese a los enormes avances que se han realizado en los últimos años. Cuidar a las crías exige una enorme serie de habilidades, entre ellas la capacidad de identificar y reconocer a las propias crías. Esto no es un problema entre los animales solitarios o en pareja, pero en colonias como las de los pingüinos en la Antártida, cada pareja debe ser capaz de distinguir a su cría de todas las demás, y lo hacen con una asombrosa precisión.

Las aves que cuidan a sus crías solas o en parejas pueden estar razonablemente seguras de que lo que hay en su nido son sus crías, certeza que por otro lado deja el hogar abierto a los ataques de parásitos como el cuclillo, que deposita sus huevos en los nidos de sus víctimas para que éstas sean las que hagan la inversión en cuidado, alimentación y defensa. Al cuclillo le basta camuflar sus huevos como los de sus víctimas, pues una vez eclosionado el huevo, los engañados padres actuarán sin reconocer la diferencia entre el cuclillo y sus crías, lo que puede llevar a que aves relativamente pequeñas se agoten alimentando a crías de cuclillo comparativamente gigantescas.

Así, el animal debe reconocer que una cría es, primero, miembro de su especie, segundo, que es una cría, uno “de los suyos” pero en forma juvenil, es decir, que no es un rival, un depredador, un atacante.

Entre los vertebrados que cuidan a sus crías existe un aspecto “de cría” al que todos somos sensibles: cabeza grande y redondeada, ojos grandes, nariz y boca pequeñas, cuerpo con formas redondas y, con frecuencia, piel, pelo o plumaje en extremo suaves. Este aspecto lo podemos ver no sólo en patos, perros, leones o niños, sino también en los juguetes y dibujos que, al acentuar los elementos “infantiles”, nos provocan sentimientos de ternura y una proclividad a la protección. Un oso de peluche con proporciones de bebé y grandes ojos tristes nos provoca una reacción mucho más positiva que un oso de peluche con las proporciones de un verdadero oso adulto.

Lo que llamamos “instinto materno” es en realidad “instinto parental” pues está presente tanto en el macho como en la hembra de nuestra especie, cosa que no ocurre en especies donde el cuidado de las crías ha quedado en manos sólo de las hembras o, en casos desusados como el del caballito de mar, en los machos.

Lo más relevante, quizá, es que el comportamiento parental, como salto notable en la evolución de distintos tipos de animales, no es sino el inicio de lo que conocemos como altruismo. La capacidad de reconocer a otro ser como similar o igual a nosotros, primero a nuestras crías, luego a otros adultos, es para muchos el inicio de la verdadera ética e, incluso, de la posibilidad de una mejor política humana.

La gran revolución que implica el cuidado de las crías, su reconocimiento y su defensa es, también, que nos da a los humanos la capacidad de ver y comprender conscientemente, que hay valores por encima de nuestro más elemental egoísmo. Y no es poco.

Química, entre otras cosas

De entre los muchos factores de los que depende el desarrollo del instinto maternal, uno al menos es tan aparentemente frío como la presencia de la sustancia llamada oxitocina cuya presencia en el cuerpo de la madre aumenta cuando el bebé estimula el pezón durante la lactancia. La oxitocina está implicada en el proceso de liberación de leche por parte de la glándula mamaria, pero también tiene efectos sedanets y de disminución de la ansiedad en la madre. Estudios resumidos en 2003 sugieren que la oxitocina y el contacto de piel con piel entre la madre y el bebé estimulan su lazo de unión y la compleja y singular relación que establecen.

Diabetes

Modelo tridimensional de la insulina
(CC Wikimedia Commons)

La diabetes y sus complicaciones son un desafío no sólo para los investigadores en busca de una cura, sino para los pacientes afectados física y emocionalmente por esta devastadora enfermedad.

El nombre “diabetes” fue acuñado hacia el año 150 de nuestra era por el médico Areteo de Capadocia. La palabra significa sifón, y Areteo la halló adecuada para describir la necesidad continua de orinar de los pacientes. En su descripción de la enfermedad dijo que era “el derretimiento de la carne y los miembros convirtiéndose en orina”. Señaló además que una vez que aparecía la enfermedad, la vida del paciente era “corta, desagradable y dolorosa”, descripción cruel pero precisa.

La enfermedad fue descrita por primera vez en el 1552 antes de la Era Común por el médico egipcio Hesy-Ra de la tercera dinastía, que observó la necesidad de orinar frecuentemente, lo que hoy llamamos poliuria y confirmó lo que los antiguos curanderos habían observado: que las hormigas se veían atraídas a la orina de las personas con diabetes. La tradicional medicina mágica ayurvédica, en un texto atribuido al médico Sushruta que vivió en el siglo 6 a.E.C., atribuye la enfermedad a la obesidad y una vida sedentaria y la llamó “enfermedad de la orina dulce”, concepto que existe también en las descripciones coreana, china y japonesa de la afección.

Fue el médico persa Avicena quien describió por primera vez algunas de las consecuencias atroces de la diabetes, como la gangrena y el colapso de las funciones sexuales.

Los autores históricos apenas rozaron algunos de los aspectos más desesperantes y angustiosos de la diabetes, que la convierten en una de las afecciones más terribles para sus pacientes. La falta de una curación (al menos en el caso de la diabetes de tipo 1) y el precio emocional que la enfermedad cobra a sus pacientes son motivos de que la diabetes aparezca con frecuencia en la oferta de todo tipo de curanderos. Prácticamente todas las terapias de dudosa utilidad ofrecen, no siempre abiertamente, curación para el cáncer, el sida y la diabetes, con resultados en ocasiones atroces.

La diabetes, o diabetes mellitus se caracteriza porque el cuerpo produce una cantidad insuficiente de insulina (la diabetes de tipo 1), o bien no responde adecuadamente a la insulina, volviéndose resistente a esta hormona, lo que impide que las células la utilicen correctamente (diabetes de tipo 2). En ambos casos, el resultado es la acumulación de azúcar en la sangre.

Hasta 1920, prácticamente todos los tratamientos para la diabetes asumían la forma de dietas especiales, algunas altamente caprichosas. Su origen fue la aguda observación del farmacéutico Apollinaire Bouchardat, que vio que que el azúcar en la orina (glucosuria) desapareció durante el racionamiento de alimentos en París a causa de la guerra francoprusiana de 1870-71. Bouchardat fue también el primero en proponer que la diabetes tenía su causa en el páncreas.

Esto fue confirmado en 1889 por Oscar Minkowski y Joseph von Mering, que extirparon el páncreas de un perro sano y observaron que esto le producía glucosuria. En 1901, Eugene Opie demostró que las células del páncreas llamadas “islotes de Langerhans” estaban implicadas en la diabetes mediante la sustancia que sería identificada por Nicolae Paulescu, la “insulina”. Finalmente, Frederick Grant Banting y Charles Best demostraron que la falta de insulina era precisamente la causante de la diabetes, hicieron el primer experimento en humanos en 1922 y desarrollaron los métodos y dosificaciones para ofrecer, por primera vez, una esperanza sólida de tratamiento eficaz para los diabéticos.

Este logro le valió a Banting y al director del laboratorio, John James Richard Macleod, el Premio Nobel de Medicina o Fisiología de 1923.

La insulina, sin embargo, es sólo eficaz en el tratamiento de la diabetes de tipo 1, y ciertamente no es una cura. Algunas de las complicaciones a largo plazo de la diabetes se pueden presentar en los pacientes aún cuando se traten cuidadosamente.

Las complicaciones crónicas son las responsables del fuerte desgaste emocional que produce esta enfermedad. Entre ellas tenemos posibilidades tales como daños a los vasos sanguíneos de la retina, que pueden ocasionar la pérdida parcial o total de la vista, hipersensibildad en pies y manos; daño a los riñones que puede llegar a provocar graves insuficiencias, daños al corazón, apoplejías, daños a los vasos sanguíneos periféricos que pueden llegar a provocar gangrena , sobre todo en los pies y piernas, dificultades para cicatrizar y sanar las heridas, úlceras diabéticas en los miembros inferiores y las infecciones correspondientes.

Este panorama es sin duda exasperante para todos quienes sufren diabetes. El diagnóstico de esta afección representa un cambio radical de vida, empezando por dietas adecuadas, la necesidad de estar informado y con frecuencia el requisito de administrar la enfermedad, lo que exige que el propio paciente aplique los procedimientos para medir los niveles de azúcar que tiene en sangre y actuar en consecuencia, porque además de las complicaciones crónicas, el diabético corre el riesgo de sufrir problemas agudos como la hipoglicemia o el coma diabético.

La diabetes de tipo 2, donde la cantidad de insulina es la adecuada pero se utiliza incorrectamente por el metabolismo, se trata actualmente con una serie de enfoques que incluyen el aumento en el ejercicio, omitir el consumo de grasas saturadas, reducir el de azúcar y carbohidratos y perder peso, pues este tipo se relaciona muy frecuentemente con la obesidad. También se utiliza la cirugía de bypass gástrico para equilibrar los niveles de glucosa en sangre en el caso de pacientes obesos.

Pese a todo esto, la diabetes sigue siendo una enfermedad que se puede controlar, pero no curar, y que una vez diagnosticada será siempre parte de la vida del paciente. Y es por ello que, además de luchar por una mayor investigación en pos de una cura, los diabéticos deben luchar contra las vanas esperanzas que les ofrecen todo tipo de supuestos terapeutas. Porque quizá el máximo desafío para el diabético es aprender a vivir en paz con su enfermedad mientras sea necesario.


Ingeniería genética e insulina

Desde 1922 los diabéticos tuvieron a su disposición únicamente insulina procedente de vacas y, posteriormente, de cerdos, debidamente purificada, pero que en un pequeño número de pacientes ocasionaba reacciones alérgicas. En 1977 se produjo por primera vez insulina humana sintética, al insertar el gen de la insulina en la secuencia genética de la bacteria E.coli, que se convirtió en una fábrica de esta hormona. La insulina así obtenida no provoca la reacción alérgica pues el cuerpo humano no la considera ajena. Hoy, la insulina humana se produce por toneladas en grandes recipientes de bacterias.

Babbage y sus máquinas matemáticas

El peculiar hombre que ideó el ordenador programable, y diseñó el primer ordenador mecánico, abuelo de los digitales de hoy en día.

En 1991 se presentó al público en Inglaterra un enorme dispositivo mecánico formado por más de 4000 piezas metálicas y un peso de tres toneladas métricas, cuya construcción había tomado más de dos años. Este aparato era, a todas luces, un anacronismo. Llamado “Segunda Máquina Diferencial” (o DE2 por su nombre en inglés), su objetivo era calcular una serie de valores numéricos polinomiales e imprimirlos automáticamente, algo que hacía veinte años podían hacer de modo rápido y sencillo las calculadora de mano electrónicas, compactas y de fácil fabricación.

De hecho, fue necesario esperar nueve años más para que los constructores produjeran el igualmente complejo y pesado mecanismo de impresión, la impresora mecánica que se concluyó en el año 2000, cuando ya existían muy eficientes y compactas impresoras electrónicas a color.

Sin embargo, la construcción de estos dos colosos mecánicos y la demostración de su funcionamiento, esfuerzos que estuvieron a cargo del Museo de Ciencia de Londres, sirvieron para subrayar el excepcional nivel de uno de los grandes matemáticos del siglo XIX y uno de los padres incuestionables de la informática y del concepto mismo de programas ejecutables: Charles Babbage, el genio que concibió la máquina diferencial y la tremendamente más compleja máquina analítica (que muchos sueñan hoy con construir) pero que nunca las pudo convertir en realidad tangible.

El matemático insatisfecho

Charles Babbage nació en Londres en 1791. Cualquier esperanza de que siguiera los pasos de su padre se disiparon en la temprana adolescencia de Babbage, cuando se hizo evidente no sólo su amor por las matemáticas, sino su innegable talento. Ese talento, sus estudios y sus lecturas y prácticas matemáticas autodidactas lo llevaron al renombrado Trinity College de Cambridge cuando apenas contaba con 19 años, donde pronto demostró que sus capacidades matemáticas estaban por delante de las de sus profesores.

Comenzó así una destacada carrera académica. Al graduarse, fue contratado por la Royal Institution para impartir la cátedra de cálculo y allí comenzó una serie de importantes logros, como su admisión en la Royal Society en 1816. Ocupó asimismo, de 1828 a 1839, la Cátedra Lucasiana de Matemáticas en Cambridge, probablemente el puesto académico más importante y conocido del mundo, que ha pertenecido a personalidades como el propio Isaac Newton, Paul Dirac y, desde 1980, por el profesor Stephen Hawking.

Sin embargo, la precisa mente matemática de Charles Babbage chocaba con un hecho impuesto por la realidad imperfecta: los cálculos manuales de las series de números que conformaban las tablas matemáticas tenían una gran cantidad de errores humanos. Evidentemente, estos errores no los cometerían las máquinas.

Máquinas como la construida por el alemán Wilhelm Schickard en 1623, la calculadora de Blas Pascal de 1645 y el aritmómetro de Gotfried Leibniz.

A partir de 1920 y hasta el final de su vida, Charles Babbage dedicó gran parte de su tiempo y su propia fortuna familiar a diseñar una máquina calculadora más perfecta. Diseñó y construyó una primera máquina diferencial en 1821, de la cual no queda nada. A continuación diseñó la segunda máquina diferencial, pero se enfrentó al hecho de que las capacidades tecnológicas de su época no permitían construir de acuerdo a las tolerancias exigidas por sus diseños, en los que grandes cantidades de engranajes inteactuaban, de modo que no pudo hacer un modelo funcional

Sin embargo, habiendo resuelto muchos problemas técnicos con sus diseños, cálculos y desarrollos, procedió a diseñar una tercera máquina, la “máquina analítica”.

Esta máquina analítica tendría un dispositivo de entrada (una serie de tarjetas perforadas que contendrían los datos y el programa), un espacio para almacenar una gran cantidad de números (1000 números de 50 cifras decimales cada uno), un procesador o calculador de números, una unidad de control para dirigir las tareas a realizarse y un dispositivo de salida para mostrar el resultado de la operación.

Estos cinco componentes son precisamente lo que definen a un ordenador: entrada, memoria, procesador, programa y salida. La máquina analítica era, sin más, un ordenador mecánico programable capaz, en teoría, de afrontar muy diversas tareas.

Después de haberla descrito por primera vez en 1837, Babbage continuó trabajando en su diseño y su concepto de la máquina analítica hasta su muerte en 1871.

Entre las pocas personas que entendían y apreciaban los esfuerzos de Babbage había una que resultaba especialmente improbable, Augusta Ada King, Condesa de Lovelace, la única hija legítima del poeta romántico y aventurero Lord Byron. Conocida como Ada Lovelace, brillante matemática de la época.

Ada Lovelace, a quien Babbage llamaba “La encantadora de los números”, llegó a conocer a fondo las ideas de Babbage, al grado que, al traducir la memoria que el matemático italiano Luigi Menabrea hizo sobre la máquina analítica, incluyó gran cantidad de notas propias, entre ellas un método detallado de calcular, en la máquina analítica una secuencia de los llamados números de Bernoulli.

Estudiado posteriormente con todo detalle, se ha podido determinar que el procedimiento de Ada Lovelace habría funcionado en la máquina de Babbage, por lo que numerosos estudiosos de la historia de la informática consideran que este método es el primer programa de ordenador jamás creado.

Ada murió a los 36 años en 1852, y Babbage hubo de continuar su trabajo, no sólo en la nunca finalizada máquina analítica, sino en gran cantidad de intereses: fue el creador del miriñaque o matavacas, el dispositivo colocado al frente de las locomotoras para apartar obstáculos, diseñó un oftalmoscopio y fue un destacado criptógrafo.

Pero nunca pudo, por problemas técnicos y de financiamiento, construir las máquinas que su genio concibió. De allí que la presentación de la segunda máquina diferencial funcional en 1991 resultara, así fuera tardíamente, el homenaje al hombre que soñó los ordenadores que hoy presiden, sin más, sobre la civilización del siglo XXI.

Homenajes

Charles Babbage ha sido homenajeado dando su nombre a un edificio de la Universidad de Plymouth, a un bloque en la escuela Monk’s Walk, a una locomotora de los ferrocarriles británicos y a un lenguaje de programación para microordenadores. El nombre de Ada Lovelace se ha dado a un lenguaje de programación y a una medalla que concede, desde 1998, la Sociedad Informática Británica.

La rata, esa benefactora

Rata albina de laboratorio
(Fotografía de Janet Stephens) 
La imagen negativa de la rata no se corresponde a lo que este animal ha hecho, y sigue haciendo, por nuestra salud y bienestar.

Mucho se identifica a la rata con elementos negativos. En nuestra cultura, a las ratas se les relaciona con la cobardía, con la suciedad, con la transmisión de enfermedades y con cierta dosis de malevolencia no muy bien justificada. Todo ello nos vuelve difícil hacernos a la idea de que la rata ha sido altamente beneficiosa para los seres humanos.

En realidad, “rata” es un nombre que se da a diversas especies de roedores que pertenecen a la superfamilia muroidea, que incluye a los hámsters, los ratones, los jerbos y otros muchos roedores pequeños. Las ratas “verdaderas” son únicamente las que pertenecen a las especies Rattus rattus, la rata negra, y Rattus norvegicus, la rata parda, pero hay muchas otras especies tan similares en tamaño y comportamiento a estas dos que las consideramos simplemente otros tipos de rata.

La rata, sin embargo, no ha sido considerada negativa por todas las culturas. En la antigua China se les consideraba animales creativos, honestos, generosos, ambiciosos, de enojo fácil y dados al desperdicio, y estas características se atribuyen, por medio de la magia representativa, a las personas nacidas en el año de la rata, según el horóscopo chino de 12 años representados por animales.

En la India, los visitantes occidentales suelen horrorizarse ante el trato que los creyentes dan a las ratas en el templo de Kami Mata. Las creencias indostanas suponen que las ratas son la reencarnación de los santones hindús y por tanto se les alimenta, cuida y venera.

En occidente, sin embargo, la imagen de la rata está estrechamente relacionada con la pandemia de la peste negra, la enfermedad que recorrió Europa a mediados del siglo XIV y que acabó con más de un tercio (algunos calculan hasta la mitad) de la población europea. Esta enfermedad, probablemente lo que conocemos hoy como peste bubónica, era transmitida por las pulgas de las ratas negras. Si a esto se añaden los daños innegables que la rata causa a las cosechas y los alimentos almacenados, su mala fama no es tan gratuita.

Esto no impidió, sin embargo, que las ratas fueran una importante fuente de proteínas en oriente y en occidente. La práctica de comer ratas, que hoy atribuimos a unos pocos grupos étnicos exóticos, estuvo presente en Europa hasta bien entrado el siglo XIX.

Sin embargo, la aparición de la una serie de ciencias experimentales, biología, fisiología celular, medicina, psicología y otras muchas requirió de un sujeto experimental fácil de manejar y mantener, barato, y que se reprodujera ferazmente. Y la rata parda resultó un candidato ideal. A partir de 1828, este animal empezó a utilizarse en laboratorios, y en pocas décadas se convirtió en el único animal que se domesticó única y exclusivamente para usos científicos. La rata blanca o albina más conocida como, sujeto experimental es, genéticamente, rata parda o Rattus norvegicus.

Y es en el laboratorio donde la rata ha dado sus más claros beneficios a la humanidad. Sin las ratas, gran parte de nuestros avances médicos y psicológicos habrían sido mucho más lentos y difíciles. De hecho, al paso del tiempo se han creado cepas con distintas características para facilitar el trabajo de investigación. La rata Long Evans o rata capuchona, por ejemplo, que es una rata blanca con la parte superior del cuerpo oscura, como si llevara capucha, se desarrolló como un organismo modelo para la investigación que es además resistente a las epidemias que pueden arruinar un proyecto de investigación de años si atacan un bioterio o espacio destinado a animales vivos en un laboratorio.

Entre otras variedades populares tenemos a la rata Zucker, modificada genéticamente para usarse como modelo genético de la obesidad y la hipertensión, cepas que desarrollan diabetes espontáneamente y a cepas especialmente seleccionadas para ser dóciles a la manipulación repetida por parte del ser humano.

La presencia de la rata en el laboratorio, y la aparición de cepas menos agresivas que la rata silvestre, ayudó a que se popularizara la rata como mascota en algunos países, donde se le considera al nivel de los hámsters, gerbos o conejillos de indias.

Pero la más reciente intervención benéfica de la rata en la vida humana es resultado de las observaciones y visión de Bart Weetjens, un ingeniero de desarrollo de productos belga. Bart se encontró trabajando en la detección de minas antipersonales abandonadas después de diversos conflictos armados, una causa importante de muerte y pérdida de miembros, principalmente en países africanos. Decepcionado por la ineficacia de los sistemas de detección de minas utilizados, Weetjens recordó las características de las ratas que tuvo como mascotas cuando era niño y en 1996 se planteó la posibilidad de que las ratas pudieran olfatear las minas eficazmente.

El trabajo realizado primero en Bélgica y después en Tanzania demostró que las ratas comunes en los campos de la zona, Cricetomys gambianus o ratas gigantes de Gambia, podían detectar las minas antipersonales con su extraordinario olfato. Weetjens fundó la ONG llamada APOPO para entrenar a las ratas que llamó HeroRATS o “ratas heroicas”. Estas ratas aprenden desde pequeñas a asociar el olor de los explosivos con recompensas en forma de comida, y luego, dotadas de pequeños arneses y trabajando en grupos grandes, peinan los campos para encontrar las minas enterradas, con poco riesgo de que la rata pueda detonarlas gracias a su poco peso, lo cual aumenta la seguridad de los humanos implicados en el proceso.

Aunque APOPO se fundó en 1997 para explorar y desarrollar la opción de las ratas detectoras de minas, no fue sino hasta 2003 cuando realmente empezaron a trabajar en el campo en Mozambique, y desde 2004 lo hacen de manera continuada con autorización y licencia de las autoridades mozambiqueñas.

No es extraño que hoy en día exista una pequeña industria casera de captura de ratas para su venta a APOPO, y se espera pronto ampliar las operaciones de APOPO a otros países victimizados por la plaga de las minas, como Angola, el Congo o Zambia, haciendo crecer el número de personas directamente beneficiadas por este roedor de larga cola y, desafortunadamente, con tan malas relaciones públicas en nuestra sociedad.

Ratas contra la tuberculosis


Bart Weetjens coordina actualmente un nuevo proyecto basado en observaciones realizadas en varias ocasiones. Su objetivo es que las ratas puedan detectar por medio del olfato la presencia de tuberculosis en muestras de saliva. Este sistema podría facilitar la detección a bajísimo costo en grandes poblaciones y detectar la enfermedad en sus primeras etapas, cuando es más fácil su curación y la recuperación posterior de los pacientes.