Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Del guisante al genoma humano

Human genome
Los 23 pares de cromosomas humanos
que albergan todo nuestro legado de ADN.
(Imagen CC de By LoStrangolatore,
vía Wikimedia Commons)
Pese a los avances logrados a la fecha, seguimos en el proceso de responder una pregunta fundamental: ¿por qué somos como somos?

En 2003 se anunció, con gran revuelo en los medios, que se había logrado secuenciar el genoma humano, el primer paso para entender cómo heredamos y desarrollamos nuestras características genéticas.

El genoma es el total de la información genética de un organismo. En nuestro caso, está codificada en el ADN de sus 23 pares de cromosomas y una pequeña cantidad de ADN en los organelos celulares llamados “mitocondrias”. La “secuencia” del genoma es conocer la serie de bases o letras (adenina, guanina, timina y citosina, denotadas por sus iniciales A, G, T y C) que hay en sus cromosomas. Esto significa sólo que conocemos las letras y las palabras, que son los genes (entre 20.000 y 25.000 de ellos) pero su significado aún es en gran medida un misterio vigente desde que el hombre se preguntó por primera vez por qué los seres vivos son como son.

La genética de los griegos

El reto de conocer la forma en que se lleva a cabo la herencia de los caracteres ya preocupaba a los griegos de la antigüedad clásica. Cierto, los animales y las plantas se criaban para reproducir los atributos deseables, pero esto dejaba en pie el acertijo de qué origen tenía la forma de los seres vivos, por qué unos tenemos los ojos o el cabello de un color u otro.

Eurípides imaginó que hombre, el padre, aporta las características esenciales de la descendencia, mientras que la madre es la vasija en la cual esa descendencia crece hasta su nacimiento. Hipócrates, por su parte, decía que distintas partes del cuerpo producían semillas que se transmitían a la descendencia en la sangre, una visión que prevalece en nuestro lenguaje a través de conceptos como “sangre azul”, “purasangre” o hablar de un hijo como “sangre de mi sangre”.

La aportación más relevante fue la de Aristóteles, quien se distinguió al mismo tiempo por observar con cierto rigor el mundo a su alrededor, y al mismo tiempo por que una vez que se convencía de que algo era razonable lo asumía como verdad sin contrastarlo con observaciones (es famosa su declaración de que la mujer tiene menos dientes que el hombre, sin haber contado las piezas dentales de ninguna de sus dos esposas).

Aristóteles observó los estadios de desarrollo de embriones de pollos y concluyó que la forma final del pollo (lo que llamaríamos la expresión de sus genes) iba apareciendo poco a poco a partir de una masa informe que, creía, resultaba de la mezcla del semen del padre y la sangre menstrual de la madre. Esta teoría se llamó “epigenética” (palabra que hoy denota más bien la expresión de los genes en función del medio ambiente, lo cual puede alimentar cierta confusión).

Ante la epigenética se alzó eventualmente el preformacionismo, que ya había descrito también Aristóteles, aunque no lo favorecía, según el cual todos los seres están ya formados desde la creación y lo que hay en los fluídos seminales de machos y hembras son versiones de la misma especie en miniaturas invisibles al ojo humano.

Incluso, algunos de los primeros microscopistas aseguraban que veían, en los espermatozoides, diminutos hombres y mujeres. Esta teoría aseguraba que todos los seres vivos se crearon al mismo tiempo y llevaban dentro pequeñas versiones de sí mismos que serían nuestros hijos y que a su vez tenían ya hombrecitos aún más pequeños que serían nuestros nietos, en un infinito juego de matrioshkas rusas, llegando a afirmar que toda la humanidad, incluida la del futuro, estaba ya en los ovarios de Eva.

Llega la ciencia

Mientras tanto, a principios del siglo XIX, el monje austriaco Gregor Mendel, trabajando con guisantes en el huerto de su abadía, descubrió que las características, o al menos algunas de ellas, se heredaban de acuerdo a las que hoy llamamos Leyes de la herencia de Mendel. Desveló que todos los individuos poseen un par de genes para cada una de sus características particulares, y que cada uno de los padres transmite a cada descendiente una copia seleccionada al azar de uno de los dos genes de su par.

El conocimiento de los descubrimientos de Mendel no llegó a uno de los hombres que mejor los podía haber aprovechado: Charles Darwin, quien pese a desarrollar la teoría de la evolución murió sin saber cómo se heredaban las características que, según su teoría, eran sujeto de la variación y selección natural. Darwin incluso hizo experimentos similares a los de Mendel, pero le preocupaba más la forma en que las variaciones se acumulaban al paso del tiempo que cómo se expresaban de una generación a la siguiente.

Los descubrimientos de Mendel fueron olvidados hasta 1900, cuando se redescubrieron como una revolución sobre la cual el biólogo estadounidense Thomas Hunt Morgan, trabajando con moscas de la fruta en experimentos de herencia, demostró en un legendario artículo de 1911 en la revista “Science” que algunas características heredadas estaban vinculadas al sexo, que por tanto se transmitían en los cromosomas sexuales y, razonó Morgan, quizá los demás genes eran transportados también en los otros cromosomas. Este descubrimiento le valio el Nobel de Medicina en 1930.

Fue en ese mismo año cuando, podríamos decir, nació la biología moderna en toda su amplitud, cuando el biólogo británico Ronald Aylmer Fisher publicó su libro “La teoría genética de la selección natural” que unía la teoría de la evolución mediante la selección natural de Darwin con los estudios de Gregor Mendel.

Sobre esas bases y a partir de la descripción de la molécula de ADN obtenida por James Watson, Francis Crick y Rosalind Franklin, se emprendió el camino para secuenciar el genoma humano, identificando en el proceso algunos genes que influyen en ciertas características concretas. Así, sabemos que dos mutaciones en el gen denominado FGFR3 son responsables del enanismo acondroplásico.

Pero aún queda mucho por saber. La idea simplista de que cada característica tiene un gen determinado se ha visto desbancada por el conocimiento de que somos como somos debido a un delicado juego de interrelaciones entre muchos genes, incluso algo tan aparentemente sencillo como el color de los ojos no depende de un gen, sino, cuando menos, de seis de ellos. La interrelación entre los genes y los procesos bioquímicos, y cómo su codificación se convierte en un ser completo, mantendrá ocupados a los científicos durante muchos años.

Lo que falta del genoma

En realidad el genoma humano no se ha secuenciado en su totalidad, pues falta algo más del 7%. Los métodos actuales no permiten desentrañar las zonas centrales de los cromosomas, que son altamente repetitivas, así como los extremos, llamados telómeros, entre otros espacios en blanco que esperan la aparición de nuevas y mejores técnicas para rellenarse.

La ira de Newton

Sir Isaac Newton (1643-1727)
Isaac Newton
(Pintura D.P. de Sir Godfrey Kneller,
vía Wikimedia Commons)
El genial científico era un misántropo que albergó un odio extraño hacia sus colegas Leibnitz y Hooke

En 1944, el pediatra austríaco Hans Asperger describió un síndrome que compartían algunos de los niños que visitaban su consulta y que carecían de habilidades de comunicación no verbal (como la comprensión del lenguaje corporal y las expresiones faciales de la emoción), tenían una empatía limitada con los demás y eran torpes y patosos. Llamó a este síndrome “psicopatía autista”.

En 1994 quedó definido un diagnóstico para el ahora llamado Síndrome de Asperger dentro del espectro de trastornos autísticos, una gran categoría de comportamientos de leves a graves que popularmente se conocen como “autismo”. El Asperger se caracteriza por intereses obsesivos, dificultades para establecer relaciones sociales y problemas de comunicación.

En 2003, el profesor Simon Baron-Cohen, del departamento de Psicopatologías del Desarrollo de la Universidad de Cambridge y director del Centro de Investigación sobre Autismo, y el matemático Ioan James, de la Universidad de Oxford, declararon que probablemente, aunque el diagnóstico preciso es imposible, uno de los más grandes genios conocidos en la historia de la humanidad, Isaac Newton, había padecido Síndrome de Asperger.

Para los dos científicos, Newton parecía un caso perfecto de Asperger: hablaba muy poco, con frecuencia se concentraba tanto en su trabajo que se le olvidaba comer y era poco expresivo y malhumorado con los pocos, muy pocos amigos que tuvo. Cuando no se presentaba público a alguna de sus conferencias, las impartía igualmente, hablando a una sala vacía, y su depresión y rasgos paranoicos le causaron un colapso nervioso cuando tenía 50 años.

Otros, sin embargo, pensaron que los dos buenos científicos británicos, admiradores –imposible no serlo– del avasallador genio de Newton estaban de algún modo intentando justificar el lado hosco, antipático y difícil de una mente absolutamente privilegiada.

El niño de Navidad

Era el día de Navidad de 1642, en una Inglaterra que aún usaba el calendario juliano (en el calendario gregoriano actual, que el Reino Unido adoptó finalmente en 1752, la fecha es el 4 de enero de 1642) cuando en el pequeño poblado de Woolsthorpe, condado de Lincolnshire, nació un niño prematuro cuyo padre había muerto tres meses antes. Bautizado Isaac como su padre, un terrateniente que no supo nunca leer ni escribir, el pequeño Isaac fue pronto entregado a los cuidados de su abuela mientras su madre Hannah se casaba de nuevo y fundaba otra familia.

El pequeño Isaac creció así sintiendo el rechazo de su madre, odiando intensamente al nuevo marido de ésta y siendo, en general, infeliz y conflictivo, además de calificar de “chico raro” en la escuela. En lugar de las diversiones comunes de sus compañeritos, Isaac prefería diseñar ingenios mecánicos diversos: cometas, relojes de sol, relojes de agua. Se le conocía como un chico muy curioso sobre el mundo a su alrededor, pero no especialmente brillante, más bien en la parte baja de la tabla de notas.

Cuando tenía once años de edad, Isaac vio volver a su madre, viuda por segunda vez, que procedió a sacar al pequeño Isaac de la escuela donde lo habían puesto sus abuelos para que se encargara de las tierras familiares. Su actividad como cabeza de familia y agricultor resultó un desastre de proporciones, así que su madre no opuso objeciones cuando un tío de Isaac, académico en el Trinity College, sugirió que Isaac volviera a los estudios y se preparara para entrar a Cambridge.

Alumno brillante pero sin alardes demasiado destacados, y siempre con problemas emocionales, terminó su educación a los 18 años y a los 19 marchó a Cambridge, dejando atrás a la única novia que se le conocería, pues Newton adoptaría el celibato como forma de vida, dentro de la filosofía de que el “filósofo natural” (lo que hoy llamamos “científico”) debía ser una especie de sacerdote del conocimiento, entregado únicamente a la academia. Pero la venerable universidad no era aún un espacio de ciencia, y seguía dominada por las tradiciones escolásticas y la reverencia a Aristóteles que esperaban la explosión de la revolución científica para dejar de ser el pensamiento dominante. Y Newton se preparaba, sin saberlo, para ser una de las grandes luminarias de esa revolución, estudiando por su cuenta, a contracorriente de la universidad a pensadores audaces como René Descartes, que además de filósofo era un matemático cuyo trabajo fascinaba a Newton, a Thomas Hobbes, Pierre Gassendi y a astrónomos revolucionarios y “peligrosos” como Galileo, Copérnico y Kepler. Estos serían los personajes a los que Newton se referiría cuando dijo en 1675: “Si he visto más lejos que otros, ha sido por estar de pie sobre hombros de gigantes”.

La manzana de la discordia

Graduado sin honores ni distinciones especiales en 1665, Newton tuvo que volver a casa por última vez debido a un brote de peste bubónica que obligó a Cambridge a cerrar sus puertas para salvaguardar la salud de sus profesores y alumnos durante dos años.

Fueron dos de los más fructíferos años del genio de Newton. En la soledad que amaba y sin que su familia se arriesgara de nuevo a tratar de hacer de él un agricultor pasable, el joven se dedicó a estudios que se convertirían en asombrosas aportaciones para la ciencia. En sólo dieciocho meses, Isaac Newton descubrió las ley del inverso del cuadrado, desarrolló el cálculo infinitesimal, generalizó el teorema del binomio, estableció las bases de su teoría de la luz y el color y avanzó de modo significativo en su comprensión del movimiento de los planetas que devendría en las leyes de la gravitación.

Fue en esa época, en 1666, cuando ocurrió el incidente de la manzana, novelizado y ficcionalizado sin cesar. Pero ocurrió en realidad. William Stukeley, arqueólogo y biógrafo de Newton, cuenta que en una ocasión, tomando el té a la sombra de unos manzanos con el genio éste “me dijo que estaba exactamente en la misma situación como cuando antes apareció en su mente la noción de la gravitación. La causó la caída de una manzana, mientras él estaba en un ánimo contemplativo. ¿Por qué esa manzana siempre descendía perpendicularmente respecto del suelo?, pensó…”

Así que sí hubo manzana, aunque no le diera en la cabeza como quisieran los dibujos animados. Y esa manzana lo llevó a tratar de calcular la velocidad de la Luna y, desde allí, a formular las famosas Leyes de Newton.

El recién graduado que había dejado Cambridge al desatarse la peste volvió en 1667 convertido en un hombre con una clara visión de lo que deseaba lograr con su intelecto. Consiguió una beca menor, finalizó su maestría un año después y en 1669, a los 26 años de edad, obtuvo la cátedra lucasiana de matemáticas, que después ocuparían otros brillantes científicos como Charles Babbage, Paul Dirac o Stephen Hawking. La cátedra le daba una enorme tranquilidad profesional y económica, y el tiempo necesario para dedicarse a pensar, descubrir y crear, y decidió enviar al editor su obra sobre cálculo de ecuaciones con números infinitos, que abriría el camino al cálculo diferencial e integral, base de las matemáticas actuales.

No deja de ser llamativo que antes incluso de obtener su cátedra, en 1668, Newton ya hubiera inventado el telescopio reflector perfeccionado, que se utiliza hasta la fecha. De 1670 a 1672 se ocupó principalmente de la luz, demostrando que la luz blanca está compuesta por todos los colores del espectro, y desarrolló la teoría que demostraba que el color es una propiedad de la luz y no de los objetos que la reflejan. En 1675 publica su Hipótesis sobre la luz, a contracorriente de sus contemporáneos, especialmente el astrónomo Robert Hooke, que atacó con violencia a Newton iniciando un enfrentamiento de por vida. Quizá fue entonces cuando Newton descubrió que la controversia y la confrontación le resultaban profundamente repugnantes y se negó a publicar sus obras mayores hasta 1687.

Esto significó que la difusión de su obra se daría en comunicaciones privadas con otros estudiosos. En 1676 le comunicó a Henry Oldenburg por carta el teorema del binomio que había desarrollado 10 años atrás, estableciendo por ello correspondencia con el matemático alemán Leibnitz.

Los “Principia Mathematica”

En agosto de 1684, el astrónomo Edmund Halley visitó a Newton en Cambridge y le presentó un acertijo que ocupaba el tiempo y atención de todos sus colegas en ese momento: ¿Qué tipo de curva describe un planeta en su órbita alrededor del sol suponiendo una ley de atracción del inverso del cuadrado? Newton respondió inmediatamente que era una elipse. Halley preguntó cómo lo sabía y Newton respondió simplemente que había hecho el cálculo cuatro años atrás.

Era una de las grandes respuestas a una de las más importantes preguntas sobre el universo, y el irascible genio había extraviado el cálculo que lo demostraba y no se había ocupado en informarle de ello a nadie, así que se comprometió a darle a Halley un nuevo cálculo, promesa que se convertiría en su libro De motu (del movimiento). Halley insistió entonces hasta conseguir que Newton aceptara publicar su libro Philosophiae naturalis principia mathematica, mejor conocido como los Principia con los que estableció los nuevos cimientos de las matemáticas y la física.

Desafortunadamente, la publicación de este libro, considerado uno de los más importantes de la historia de la ciencia, le dio un nuevo disgusto a Newton. El astrónomo Robert Hooke, con quien había intercambiado correspondencia en 1679 y que había ofrecido el vínculo conceptual entre la atracción central (es decir, la idea de que la atracción gravitatoria se debe considerar desde el centro de un objeto como nuestro planeta) y el hecho de que la fuerza de esa atracción disminuye según el cuadrado de la distancia a la que se esté de dicho centro. Cuando se anunció la publicación del libro de Newton, Hooke reclamó el reconocimiento a su participación en los descubrimientos de Newton.

El disgusto de Newton fue tal que, en un arranque de cólera bastante alejado de la justicia y la racionalidad del matemático, modificó la obra de modo que no apareciera en ella ninguna referencia a Robert Hooke y a sus logros científicos. El odio que desarrolló por Hooke fue tal que dejó de participar en la Royal Society y no publicó su libro sobre óptica, Optiks sino hasta después de la muerte de Hooke en 1703.

Newton ocupó también parte de su tiempo en la defensa de Cambridge como universidad, lo que le permitió obtener un escaño como miembro del Parlamento en 1689. Sin embargo, no estuvo muy activo como parlamentario. Su única intervención durante los años que fue legislador fue para pedir que abrieran una ventana porque sentía una corriente de aire y corría el peligro de que se le cayera la peluca.

Acomodado en Londres, aceptó el puesto de Director de la Casa de Moneda británica, lo que le daba una vida cómoda, y se ocupó de la química, la hidrodinámica y la construcción de telescopios, además de dedicarse a disciplinas menos precisas como la alquimia, el ocultismo y los estudios literalistas bíblicos. De hecho, según algunos estudiosos, parte de los problemas emocionales de Newton podrían deberse a envenenamiento por mercurio, resultado de sus largos años de tratar de conseguir algo en el terreno de la alquimia… algo que además nunca logró, a diferencia de lo que consiguió como científico.

Su extraña e iracunda venganza contra Robert Hooke se vio consumada cuando, un año después de la muerte del astrónomo, en 1704, Newton fue electo presidente de la Royal Society, puesto en el que lo reelegirían anualmente hasta su muerte en 1727 y que ejerció como un tirano, aunque siempre benévolo en el apoyo a los jóvenes científicos, y en 1705 recibió el título de caballero de manos de la reina Ana.

Los últimos años de su vida se vieron ocupados por la renovación del sistema monetario británico. y por una feroz controversia con Leibnitz sobre la paternidad genuina del cálculo diferencial e integral, un enfrentamiento amargo que comenzó cuando Newton decidió, sin pruebas, que Leibnitz le había copiado el cálculo. Aunque hoy los historiadores de la ciencia aceptan que ambos desarrollaron los conceptos independientemente, como ideas cuyo momento había llegado (del mismo modo en que Darwin y Russell Wallace desarrollaron la teoría de la evolución, aunque entre estos dos hubo una resolución respetuosa y cordial). Incluso después de la muerte de los matemáticos, a fines del siglo XVIII, seguía en vigor el enfrentamiento entre “leibintzianos” y “newtonianos”.

Y el ojo apareció... varias veces

Head of a Longlegged Fly - (Condylostylus)
Los ojos compuestos de una mosca Condylostylus
(Foto CC de Thomas Shahan, vía Wikimedia Commons)
El instrumento biológico de detección de la luz es tan asombroso que pocas veces pensamos que hay diseños alternativos para él, algunos sin duda mejores que el nuestro.

Para funcionar, todo ser vivo necesita recolectar información de su medio ambiente para interpretarla y poder reaccionar ante ella.

La información, es decir, los estímulos que perciben los seres vivos, pueden ser de muchos tipos, el enotrno químico, las vibraciones, su posición en el espacio, la textura física de las cosas, la forma en que refleja la luz… y ello define los que llamamos nuestros principales sentidos: olfato, gusto, oído, propiocepción, tacto y vista.

Una de las formas más elementales de comportamiento la encontramos en los organismos unicelulares que nadan libremente. Al acercarse a una partícula irritante, el individuo la detecta a través de la membrana celular (mediante un proceso que aún no conocemos con precisión), y reacciona alejándose de la partícula venenosa y reemprendiendo su camino en otra dirección distinta. Allí están los principios básicos de todo comportamiento: estímulo, interpretación, reacción, e incluso memoria durante unas fracciones de segundo para no reemprender el camino en dirección a la partícula irritante.

La visión, la percepción de los objetos por medio de la luz, la conseguimos a través de los ojos, órganos altamente especializados que captan la luz y la convierten en información electroquímica que nuestro cerebro interpreta como formas, colores, movimiento.

El ojo es, evidentemente, una herramienta utilísima en un mundo inundado de luz prácticamente todo el tiempo. No sólo la luz del sol de día, sino la luz de la luna y de la Vía Láctea, que bastan, lo sabe cualquiera que lo haya intentado, para tener una útil (aunque incompleta) percepción visual.

Habiendo luz, los mecanismos de la evolución tendieron a dotar de ojos a todos los animales. Sin embargo, la evolución del ojo es un fenómeno peculiar en la evolución porque ha ocurrido de manera independiente en muchas ocasiones y de muchos modos distintos. El ojo de los vertebrados (es decir, de todos los animales con columna vertebral, desde los reptiles y aves hasta los mamíferos superiores) surgió de manera separada de otros ojos comunes en la naturaleza, como los ojos de los cefalópodos (pulpos o calamares) o los cnidarios (anémonas o medusas), los ojos compuestos de los insectos o los ojos de copa como los de las planarias.

Todas estas formas de ojos evolucionaron independientemente y de forma paralela para dar solución al mismo problema, la percepción de la luz. Lo que los científicos saben en la actualidad es que todos los ojos que existen tuvieron muy probablemente un mismo origen: una proteína sensible a la luz (es decir, que sufren un cambio al ser alcanzadas por la luz), la opsina, que ya se encuentran incluso en algunos organismos unicelulares.

Ciertamente, las proteínas fotosensibles sólo pueden dar una información muy limitada: hay luz o no hay luz. Luz y sombra. Pero se trata de una información que puede ser extremadamente útil para la supervivencia. De entrada, permite al individuo distinguir el día y la noche, o alerta cuando una sombra inesperada puede ser un depredador.

Con base en esas proteínas básicas, que forman una química común, la evolución fue dando forma a distintos ojos formados por células fotorreceptoras especializadas. El ojo más simple es la mancha ocular, una agrupación de células fotorreceptoras y que, según los biólogos evolutivos, surgió de modo independiente varias docenas de veces a lo largo de la historia de la vida. La mancha ocular evolucionó hacia el ojo de copa, que aún tienen animales como las planarias o gusanos planos.

Las células fotorreceptoras colocadas en una depresión pueden dar información sobre la dirección general de la que proviene la luz. Esta depresión fue haciéndose más profunda hasta formar una cámara, y su punto superior creó un orificio de entrada de la luz similar al de una cámara estenopeica, esas cámaras sin lente que recogen toda su luz a través de un orificio diminuto. Hoy en día, organismos antiguos como el nautilus mantienen ese sistema.

Lo siguiente fue la aparición de células transparentes, probablemente como forma de defensa contra parásitos y cuerpos extraños, que cubrieron el orificio de entrada de la luz. Esas células posteriormente evolucionaron para formar lentes que permiten concentrar y enfocar la luz para tener una mejor visión, apareciendo el cristalino.

Una de las formas en que sabemos que este ojo “de cámara” que tenemos los seres humanos evolucionó de forma independiente entre los cefalópodos y los vertebrados es que su diseño es totalmente distinto y, de hecho, el nuestro es el menos lógico. En el ojo vertebrado, las fibras nerviosas pasan por encima de la retina, es decir, de la capa de células fotorreceptoras que nos permiten ver, y que están, por así decirlo, mirando hacia atrás. Al unirse todas las fibras nerviosas procedentes de todas las células de la retina para formar el nervio òptico que sale del ojo hacia el cerebro, forman un punto ciego bien conocido en nuestros ojos. En el caso de los cefalópodos, las células de la retina miran hacia fuera y las fibras nerviosas van por detrás, motivo por el cual no tienen punto ciego.

Un ojo totalmente distinto, y también desarrollado de modo independiente, es el ojo compusto de los insectos y algunos otros artrópodos. Se trata de un ojo formado por multitud de pequeños ojos alargados llamados “omatidios”, cada uno con una córnea, un cono cristalino y células fotorreceptoras.

Alguna vez, el propio Darwin creyó que el ojo era el más complejo desafío a la teoría de la evolución, al no poder vislumbrar un mecanismo para cómo se formó tan delicado instrumento. Hoy, sin embargo, el ojo, las docenas de veces que muy distintos ojos han aparecido en nuestro planeta, es uno de los ejemplos más gloriosos de las formas en que opera la evolución mediante la selección natural.

¿Por qué vemos la luz visible

Si el espectro electromagnético es tan amplio, no deja de ser curioso que los ojos desarrollados en nuestro planeta solamente puedan percibir longitudes de onda entre 400 y 700 nanómetros, lo que llamamos “luz visible”, además de algunas adaptaciones para la luz ultravioleta que desarrollaron los insectos posteriormente. Según lo que sabemos en la actualidad, esto podría deberse a que ese intervalo de luz visible es que la vista evolucionó en seres acuáticos, y el agua filtra de modo sensible todo el rango electromagnético salvo, precisamente, la luz visible. La detección de rayos X o microondas habría sido imposible al no estar presentes en el medio acuático.

Para ver lo invisible

Leeuwenhoek boerhaave
Uno de los microscopios de Leeuwenhoek
(Foto CC del Museo Boerhaave, Leiden,
vía Wikimedia Commons)
En 1676 el ser humano emprendió la incursión en el mundo de lo invisible, lo que hasta entonces era tan pequeño que nuestros ojos no podían detectarlo.

“El 9 de junio, habiendo reunido, temprano en la mañana, algo de agua de lluvia en un plago (…) y exponiéndola al aire por el tercer piso de mi casa (…) no pensé que debía percibir entonces ningún ser viviente en su interior; sin embargo, al verla, con admiración observé miles de ellos en una gota de agua, que eran de los más pequeños que había visto hasta la fecha”.

Con estas palabras, en carta fechada en octubre de 1676, Antonie Van Leeuwenhoek (pronunciado “van lívenjok”) informaba a la Real Sociedad de Londres la que es con toda probabilidad la primera observación de organismos microscópicos realizada jamás por un ser humano.

El comerciante y científico holandés llevaba ya tres años relacionado con la Royal Society, que había sido fundada apenas en 1660 por una docena de científicos para debatir acerca de la “nueva ciencia” de Francis Bacon, padre del método científico, y analizar y comunicar experimentos científicos. Era el inicio de la revolución científica, el lugar ideal para las observaciones de Leeuwenhoek sobre la boca y los aguijones de las abejas que realizaba con su sencillo microscopio.

Esta carta fue recibida con escepticismo. Un holandés, ciertamente respetado, pero desconocido, decía haber visto miles de seres vivos minúsculos en una sola gota de agua de lluvia. No había precedentes, sonaba extraño y la cautela era una actitud razonable ante estas afirmaciones.

El instrumento de Leeuwenhoek no era ninguna novedad. Había nacido también en Holanda, alrededor de 1590, al parecer creado por Zacarías Janssen y su hijo Hans, aunque también se atribuye a Hans Lippershey, inventor del telescopio.

El propio Galileo perfeccionó uno de estos adminículos formado por dos lentes y un mecanismo de enfoque, al que llamó ‘occhiolino’, el pequeño ojo. El alemán Giovanni Faber, colega de Galileo en la Academia Linceana, lo bautizó en 1625 como “microscopio” de modo análogo a “telescopio”, otra palabra creada en la academia.

El microscopio fue usado para observar tejidos y seres animales y vegetales hasta entonces inaccesibles al ojo humano. Así, el británico Robert Hooke realizó una gran cantidad de observaciones que publicó en su libro de 1665, “Micrographia”, donde informó de ciertos componentes a los que llamó “celdas” o “células”.

Pero la observación de Van Leeuwenhoek era una nueva dimensión de lo invisible con animales pequeñísimos (“animálculos” los bautizó) distintos de todo lo conocido hasta ese momento. Estaba seguro de lo que veía, sobre todo porque no había ocurrido una vez, sino que seguía viendo, registrando y anotando cuanto atestiguaba en ese mundo vivo totalmente nuevo. Por fin, la Real Sociedad decidió enviar a una comisión a Deft, en el sur de Holanda, para determinar la fiabilidad de Antonie. En 1680 la Real Sociedad certificó las observaciones de Leeuwenhoek y lo aceptó como socio de pleno derecho.

Comenzó así el esfuerzo por profundizar en ese mundo invisible. El propio Leeuwenhoek reveló que nuestra sangre contenía unos corpúsculos que hoy llamamos glóbulos rojos, y que en el semen humano existen los espermatozoides. Estos descubrimientos implicaron, por supuesto, encendidos debates científicos, pero también teológicos.

El microscopio entró en una época de desarrollo. De un máximo de unos 500 aumentos de los aparatos de Van Leeuwnhoek, se llegó a 5.000. La comprensión de la luz producto de la óptica, permitió iluminar mejor los especímenes, utilizar luz de distintos colores, o polarizada, o que provocara la fluorescencia del objeto observado, todo buscando observaciones cada vez más precisas. Además, se desarrolló toda una disciplina para teñir los materiales observados mejorando su contraste respecto del medio circundante o de otros individuos. Un ejemplo es el método de Camilo Golgi para teñir tejido nervioso utilizando dicromato de potasio y nitrato de plata, permitiendo estudiarlo mejor bajo el microscopio. Santiago Ramón y Cajal perfeccionó este procedimiento para realizar los estudios sobre la estructura del sistema nervioso que le valieron a ambos científicos conjuntamente el Premio Nobel de medicina o fisiología en 1906.

El desarrollo de la microscopía se encontró sin embargo con un límite impasable: las características de la luz. La longitud de onda media de la luz es de unos 550 nanómetros (milmillonésimas de metro). Debido a esto, dos líneas que estén a menos de 275 nanómetros (la mitad de la longitud de onda de la luz) una de otra se verán como una sola línea, y todo objeto de menos de 275 nanómetros será indistinguible o invisible.

La solución fue iluminar los objetos con haces de electrones, que pueden tener longitudes de onda 100.000 veces menores que la luz visible (formada por fotones) y puede conseguir una resolución mucho mayor y aumentos de hasta 10 millones de veces. Estos haces de electrones utilizan campos electrostáticos y electromagnéticos a modo de “lentes” para enfocarse. El aparato capaz de hacer esto es el microscopio electrónico, el primero de los cuales fue construido en 1931 por el alemán Ernst Ruska (Premio Nobel de Física en 1968) y el ingeniero eléctrico Max Knoll, y en estos 80 años ha dado origen a técnicas más avanzadas y refinadas de utilizar este principio.

Finalmente, en la década de 1980 apareció el microscopio de sonda de barrido, que utiliza sondas físicas para explorar los objetos y generar imágenes de los mismos empleando puntas de prueba de un diámetro mínimo (hasta de un átomo de diámetro) que exploran físicamente las superficies. Se han desarrollado no menos de 25 formas distintas de este tipo de microscopios para las más diversas aplicaciones.

Hoy podemos ver, un tanto borrosos, los átomos de carbono que formando una rejilla de hexágonos componen una lámina de un solo átomo de espesor. La técnica y la ciencia siguen haciendo visible lo invisible, encontrando explicaciones y descubriendo nuevos misterios a partir de nuestra capacidad de ver a niveles para los que nunca estuvieron diseñados nuestros ojos.

Y sin embargo, al parecer nada satisface a los científicos ni al público. Queremos “ver”, o al menos saber con precisión cómo se ve, el mundo por debajo del nivel atómico: el aspecto de un quark, el proceso de replicación del ADN a nivel de enlaces atómicos, el tejido mismo del espacio, invadir la totalidad de lo invisible.


El más poderoso

El microscopio electrónico TEAM del Laboratorio Nacional de Berkeley en los Estados Unidos, con un coste de 27 milones de dólares, es capaz de ver objetos de la mitad del tamaño de un átomo de hidrógeno, o 0,05 nanómetros y está en operación para distintos experimentos e investigadores desde 2009.

Cómo nos engañan con números

Sahara Hotel and Casino 2
La bolita de la ruleta no 'recuerda' en qué número cayó la vez anterior.
(Foto CC de By Antoine Taveneaux, vía Wikimedia Commons) 
A diario enfrentamos afirmaciones sobre números que pretenden normar nuestro criterio o acciones, pero ¿sabemos lo que realmente significan?

Con cierta frecuencia, en los telediarios se expresa preocupación, porque alguna variable (las rentas de los municipios, el porcentaje de turistas, la población de vencejos) está “por debajo de la media” en algún lugar de España o del mundo. Como si estar “debajo de la media” fuera algo infrecuente e inherentemente malo.

Pero la “media” no es sino el promedio de varios datos, y precisamente por ello siempre existirán valores por debajo y por encima de la media. No es posible que todos los elementos de un grupo estén “por encima de la media”.

Hay muchos otros ejemplos de cómo nos engañan, o nos engañamos, con los números y que revelan que, según el neologismo del matemático John Allen Paulos, somos “anuméricos”, neologismo creado por analogía con “analfabeta”. Si “analfabeta” es quien no sabe usar y entender las letras, “anumérico” será quien “no sabe manejar cómodamente los conceptos fundamentales de número y azar”, como lo define John Allen Paulos en su libro “El hombre anumérico”. Según Allen Paulos, no es necesario ser matemático para comprender algunos conceptos esenciales que nos protegerían de los engaños que suelen desprenderse del manejo que los medios, los políticos, los publicistas, los pseudocientíficos y nosotros mismos hacemos de los números.

Uno de los engaños más extendidos, que incluye una gran cantidad de autoengaño, es la idea de que podemos afectar o conocer las probabilidades de los juegos de azar.

La ruina del apostador

Refiriéndonos a la lotería, todos hemos escuchado hablar de “números feos” o de que “ya toca que caiga” tal o cual número porque hace muchos sorteos que no ha resultado premiado un número que termine con él. “Números feos”, por cierto, son aquéllos que nos llamarían la atención si fueran premiados por ser demasiado bajos (digamos, el 00010) o repetitivos (como el 45554 o el 77777).

La idea que tenemos es que hay una especie de distribución “equitativa” o normal de los números que favorece que cada determinadas semanas salgan premiados números que terminen en todas las cifras del 0 al 9.

Esta idea ha llevado a la aparición de multitud de “sistemas” que pretenden predecir los resultados futuros a partir de los anteriores, sistemas que han llevado a la ruina a otros tantos apostadores.

Lo aleatorio no es ordenado, precisamente se define porque no existe modo de determinar con antelación el resultado de un proceso aleatorio. Todos sabemos que la probabilidad de que al lanzar una moneda caiga cara o cruz es de 1:2 o del 50% (descontando la rarísima eventualidad de que la moneda quede de canto). Sabiendo eso, si tiramos una moneda normal 9 veces y en todas cae cara, tenemos la sensación de que es “más probable” de que en la décima tirada por fin caiga cruz.

Pero la moneda (o las bolitas de la lotería en sus respectivos bombos, o las cartas del mazo, o los dados o cualquier otro elemento participante en un juego de azar) no tiene memoria. Es decir que, independientemente de nuestro sentido común, la décima tirada también tiene la misma probabilidad de que caiga cara o cruz. Por supuesto, si creemos que podemos vencer a las probabilidades, más fácil será que apostemos mayores cantidades al número que creemos que “tiene que salir”.

Salvo casos muy específicos donde el resultado no es del todo aleatorio, ningún sistema sirve para predecir los resultados de los juegos de azar. Sin embargo, la creencia popular en que hay cierto orden oculto detrás de lo aleatorio es lo que ha permitido la creación de emporios de las apuestas como Mónaco o Las Vegas.

El riesgo

Con frecuencia nos enteramos de que tal o cual factor (desde el consumo de tomates hasta el color de nuestro cabello) aumenta el riesgo de sufrir alguna enfermedad, generalmente cáncer, lo cual suele provocarnos inquietud y preocupación. Pero esos porcentajes son relativos a un riesgo que, generalmente, los medios omiten informarnos. Un 50% de aumento en el riesgo de un cáncer, por decir algo, suena a motivo de grave preocupación, quizá de alarma social. Pero ese porcentaje no significa lo mismo en cada caso.

Por ejemplo, el riesgo que tienen las mujeres de padecer un cáncer de laringe es del 0,14%, lo que significa que 14 de cada 10.000 mujeres sufrirán esta afección, mientras que el riesgo de cáncer mamario es del 12,15%, lo que se traduce en 1.215 de cada 10.000 mujeres afectadas. La diferencia entre el riesgo de uno u otro cáncer para una mujer determinada es verdaderamente enorme, y justifica que haya una preocupación por una detección temprana de la enfermedad.

Ahora pensemos que el informativo anuncia de un aumento del 50% en el riesgo de estas dos enfermedades. En la realidad, el riesgo de cáncer de laringe aumentaría a 0,21% mientras que el mismo aumento en el cáncer de mama representaría un 18,22%, una cifra socialmente atroz y muchísimo más preocupante.

Algo similar ocurre cuando aumenta la incidencia de una enfermedad en una zona determinada. Cuando en una escuela, por ejemplo, hay más casos de leucemia de los esperados, es razonable buscar una causa. Pero también debemos saber que puede no haber ninguna causa, sino que estemos frente a un fenómeno conocido como “clustering” o agrupamiento. Para ilustrarlo, podemos tomar un puñado de arroz y dejarlo caer al suelo. La distribución de los granos de arroz no será uniforme ni ordenada, sino verdaderamente aleatoria. Habrá granos separados paro también habrá agrupamientos o “clústeres” de granos, a veces muy grandes, aquí y allá, al igual que espacios vacíos. Lo que parece una “anormalidad” puede ser lo más normal por probabilidades.

Como nota al margen, los medios de comunicación suelen confundir el peligro con el riesgo, cuando se trata de dos cosas totalmente distintas. El peligro es absoluto y el riesgo es relativo. La mordedura de una víbora mamba negra es peligrosísima siempre, pero nuestro riesgo de ser mordidos por una es muy distinto si estamos en la plaza mayor de Salamanca o en el descampado en Kenya.

Entender el significado de los números, de la probabilidad, el azar y la estadística, de los números enormemente grandes y tremendamente pequeños puede ser un arma fundamental para protegernos de la desinformación y de usar en nuestro beneficio las bases de las tan odiadas –para muchos- matemáticas.

Entender los hechos

“En un mundo cada vez más complejo, lleno de coincidencias sin sentido, lo que hace falta en muchas situaciones no son más hechos verídicos –ya hay demasiados– sino un dominio mejoer de los hechos conocidos, y para ello un curso sobre probabilidad es de un valor incalculable” John Allen Paulos, “El hombre anumérico”, Tusquets.