Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Un pionero incómodo

Wernher von Braun llevó a los Estados Unidos a triunfar en la carrera espacial hacia la Luna, pero su pasado en la Alemania nazi nunca dejó de arrojar una sombra sobre el hombre y sus proyectos.

Wernher Von Braun en su despacho de director de la NASA en 1964.
(foto D.P. de la NASA, vía Wikimedia Commons)
El 20 de julio de 1969, el modulo lunar “Eagle”, comandado por Neil Armstrong y copilotado por Edwin Aldrin se posaba en la superficie de la Luna.

Ese histórico momento marcó también un hito político. Terminaba la carrera espacial, iniciada en 1957 con el satélite Sputnik I de la Unión Soviética. Las dos superpotencias que habían emergido como hegemónicas después de la Segunda Guerra Mundial habían vivido una competencia vertiginosa en pos de distintas hazañas espaciales para evitar que su adversario los superara tecnológicamente. Cada logro se presentaba además como prueba de la superioridad del comunismo o del capitalismo, según el caso.

Desde el despacho de director de la NASA, Werhner von Braun veía coronado un sueño acariciado desde su adolescencia: llevar al ser humano más allá de nuestro planeta, primero a la Luna como preludio del soñado viaje a Marte. Y lo había hecho no sólo como administrador de la agencia espacial estadounidense, sino como ingeniero y visionario responsable del desarrollo del los cohetes de la NASA, llegando al Saturno V, el más potente fabricado incluso hasta la actualidad, para llevar al hombre hasta la Luna.

Pero en el proceso de conseguir esta verdadera hazaña tecnológica y humana, Wernher von Braun había pagado un alto precio humano. Un precio que hasta hoy no conocemos con precisión.

La ilusión del vuelo espacial

Werhner Magnus Maximilian von Braun nació el 23 de marzo de 1912 como heredero de un barón prusiano en Wirsitz, Alemania. Su pasión por el espacio se inició en su niñez y adolescencia, con el telescopio que le dio su madre y mediante la la lectura de los libros de ciencia ficción de Jules Verne y H.G. Wells y por las sólidas especulaciones científicas del físico Hermann Oberth en su libro “Por cohete hacia el espacio interplanetario”. Muy pronto se hizo parte de la sociedad alemana para los viajes interplanetarios fundada por Oberth en 1927, una de varias organizaciones similares en los Estados Unidos, Gran Bretaña o Rusia, que experimentaban con lanzamientos de pequeños cohetes.

Buscando trabajar con cohetes más grandes y presupuestos acordes al sueño, empezó a trabajar en 1932 con el gobierno alemán en el desarrollo de misiles balísticos, dos años antes de obtener su doctorado en física, y siguió trabajando para el ejército después de que Hitler ascendiera al poder en 1933, y en 1934 consiguió lanzar dos cohetes que ascendieron verticalmente más de 2 y 3 kilómetros.

En 1937, trabajando ya en el centro militar de cohetes de Peenemünde, solicitó su ingreso en el Partido Nazi, aunque afirmó que se le invitó a incorporarse en 1939 y que se vio obligado a hacerlo para continuar con su trabajo, aunque no hay evidencia de que haya realizado ninguna actividad política. Ciertamente, no habría podido continuar trabajando en cohetes pues el régimen nazi prohibió toda experimentación civil. Von Braun continuó trabajando los primeros años de la Segunda Guerra Mundial en el desarrollo de combustibles líquidos para misiles capaces de llevar cargas explosivas.

En 1942, Hitler no sólo había perdido estrepitosamente la Batalla de Inglaterra de 1940, sino que la aviación británica había comenzado a bombardear ciudades alemanas, de modo que ordenó la creación de un arma de venganza dirigida principalmente contra Gran Bretaña. Esta arma, el cohete V2, diseñado por Von Braun, estuvo lista en septiembre de 1944. El ejército alemán lanzó más de 3.000 de estos cohetes, producidos en fábricas con trabajo esclavo de los campos de concentración, contra blancos en Bélgica, Francia, Gran Bretaña y Holanda, dejando un saldo de al menos 5.000 muertos y muchos más heridos. Siempre quedaron dudas sobre cuánto sabía Von Braun de la mano de obra que producía sus cohetes o cuánto podría haber hecho por ellos.

Entretanto, Von Braun había estado brevemente preso en marzo de 1944 acusado de tener simpatías comunistas y una actitud “derrotista” ante el esfuerzo bélico alemán, pero fue liberado por su importancia para el programa de las V2.

Vencida Alemania, Von Braun orquestó un plan para rendirse con su equipo al ejército estadounidense antes de ser capturados por los soviéticos, y pronto se vio trabajando con el ejército antes enemigo, lanzando en el desierto de Nuevo México cohetes V2 capturados por el ejército y desarrollando nuevas armas como el misil Júpiter.

El lanzamiento del Sputnik I en 1957 por parte de los soviéticos (con el apoyo de otros científicos alemanes como Helmut Gröttrup) hizo que el gobierno de Estados Unidos acelerara su esfuerzo hacia los viajes espaciales, lanzando en 1958 el Explorer I, satélite científico que preparaba Von Braun desde 1954 y creando la NASA, de la que el científico alemán se convirtió en director en 1960.

Desde ese momento, Von Braun sería no sólo una pieza clave en la ciencia y tecnología del esfuerzo espacial estadounidense, sino uno de sus grandes defensores públicos. Durante los siguientes diez años se convertiría en la imagen misma de la carrera espacial del lado estadounidense y conseguiría estar siempre sólo un paso atrás de la Unión Soviética, que acumuló una serie impresionante de primeros logros (primer ser vivo en órbita, primer humano en órbita, primeras naves en la Luna y en Venus) pero fue superada en el objetivo final, la Luna, en 1969.

Ese objetivo, sin embargo, enfrió el entusiasmo público por los viajes espaciales, y Von Braun vio cómo el programa Apolo sufría recortes presupuestales que hacían imposible su siguiente sueño: llevar a un hombre a Marte. En 1972 decidió dejar la NASA para pasar al sector privado en la empresa aeronáutica Fairchild Industries, y murió de cáncer de páncreas en 1977, con apenas 65 años de edad.

La búsqueda por el “verdadero” Von Braun sigue. Sin embargo, los matices de su relación con los nazis y la medida en que su sueño de viajes espaciales pudo o no cegarlo a una realidad atroz tendrán siempre que ser parte de la historia del hombre que llevó a la humanidad a la Luna.

La operación Paperclip

Paperclip, literalmente "sujetapapeles", fue el programa de la Oficina de Servicios Estratégicos de las fuerzas armadas estadounidenses para reclutar científicos de la Alemania nazi para Estados Unidos, evitando que fueran reclutados por la Unión Soviética. El presidente Harry S. Truman ordenó excluir a miembros del Partido Nazi, o gente que hubiera participado activamente en él o apoyara activamente el militarismo nazi. Para eludir esta orden, las propias agencias de inteligencia crearon papeles y antecedentes falsos para blanquear el pasado de muchos científicos, entre ellos Wernher von Braun.

Antimateria, la realidad invertida

Un profundo desequilibrio en nuestro universo nos muestra el camino para comprender mejor la composición de cuanto conocemos, incluidos nosotros.

El rastro curvo del primer positrón observado
en una cámara de niebla, fotografiado por
su descubridor.
(Foto D.P. de Carl D. Anderson,
vía Wikimedia Commons)
Era 1928 y el físico británico Paul Dirac trabajaba en el vertiginoso mundo de la física que bullía entre la teoría de la relatividad y la teoría cuántica, la primera que describía el comportamiento del universo a nivel cosmológico y la segunda a nivel subatómico, y que parecían contradecirse. ¿Era posible conciliar las dos teorías? Dirac lo logró a través de una ecuación (hoy conocida como “Ecuación de Dirac”) que describía el comportamiento del electrón conciliando la relatividad y la cuántica.

Este logro, considerado una de las más importantes aportaciones a la física del siglo XX, tenía varias implicaciones inquietantes. Como otras ecuaciones, tenía dos soluciones posibles (por ejemplo, x2=4 se puede resolver como 2x2 o -2x-2). Una de las soluciones describía a un electrón con carga negativa, como los que forman la materia a nuestro alrededor, y la otra describía una partícula idéntica en todos los aspectos salvo que tendría energía positiva. Un “antielectrón”.

Esto implicaba que existían, o podían existir, partículas opuestas a todas las que conocemos. Al protón, de carga positiva, correspondía un antiprotón, idéntico en todas sus características pero con carga eléctrica negativa. Y al neutrón, de carga neutra, correspondía un antineutrón también de carga neutra pero con partículas componentes de diferente signo. Las antipartículas se podrían unir para crear antimateria. Un positrón y un antiprotón, por ejemplo, formarían un átomo de antihidrógeno tal como sus correspondientes partículas forman el hidrógeno común.

De hecho, cuando Paul Dirac recibió en 1933 el Premio Nobel de Física por su aportación, dedicó su discurso a plantear cómo se podía concebir todo un antiuniverso, con antiplanetas y antiestrellas y cualquier otra cosa imaginable, incluso antitortugas o antihumanos, formados por átomos de antimateria y que funcionarían exactamente como la materia que conocemos. Una especie de imagen en negativo de la realidad que conocemos.

Porque la ecuación de Dirac tenía implicaciones aún más peculiares. Establecía que las antimateria estaba sujeta exactamente a las mismas leyes físicas que rigen a la materia y demostraba la simetría en la naturaleza. Siempre que se crea materia a partir de la energía lo hace en pares de partícula y antipartícula. Y, de modo correspondiente, que al encontrarse una partícula y su antipartícula, como un electrón y un positrón, se aniquilarían mutuamente convirtiéndose totalmente en energía.

La ecuación parecía matemáticamente sólida y coherente con lo conocido en la física, pero faltaba la demostración experimental que la validara. Comenzó entonces la búsqueda de la antimateria y sorprendentemente tuvo sus primeros frutos muy pronto. En 1932 Carl Anderson, en California, observó, en un dispositivo llamado cámara de niebla que se utiliza para estudiar partículas subatómicas por su rastro, una partícula con la misma masa de un electrón pero de carga positiva, producida al mismo tiempo que un electrón. Era la partícula predicha por Dirac, a la que Anderson bautizó como “positrón”. Pronto se confirmó que, efectivamente, al encontrarse con un electrón, ambas partículas se aniquilaban.

Carl Anderson obtuvo también el Nobel de física en 1936 por su trabajo experimental. Pero después hubo que esperar hasta 1955 para que aceleradores de partículas de gran energía en el CERN (antecesores del LHC) pudieran producir el primer antiprotón y un año más para que nos dieran el antineutrón y, después, algunos átomos de antimateria.

Entretanto, los cosmólogos habían desarrollado y confirmado la teoría del Big Bang como origen del universo, pero se enfrentaban a un problema: la simetría planteada por la ecuación de Dirac indicaba que al momento de aparecer el universo, se había creado necesariamente tanta materia como antimateria, tantos electrones como antielectrones, tantos quarks como antiquarks, pero… ¿dónde estaba esa antimateria que debería ser tan abundante como la materia? El universo que observamos contiene una proporción muy pequeña de antimateria (un antiprotón por cada 1000,000,000,000,000 protones), y todas las búsquedas de antimateria en nuestro universo han sido en vano. Para donde miremos, el universo parece hecho de materia común y ordinaria.

La ausencia de antimateria en nuestro universo podría ser simplemente la incapacidad experimental actual de encontrarla, o bien podría significar que la simetría propuesta a partir de Dirac (simetría CP, siglas de Carga y Paridad) no es perfecta, que hay alguna diferencia sustancial, relevante, entre la materia y la antimateria que haya provocado la prevalencia de la materia.

Actualmente, hay investigaciones avanzando bajo ambos supuestos. En la Estación Espacial Internacional y en distintos satélites y sondas se han colocado aparatos que buscan detectar rayos gamma que pudieran ser producidos por galaxias de antimateria en algún lugar de nuestro universo, y se buscan nuevas formas de encontrar el faltante. Quizá está en los bordes de lo que podemos observar, separado de la materia por algún fenómeno desconocido que abriría nuevos horizontes en la física.

Pero también hay experimentos y estudios destinados a explorar la simetría de la materia y la antimateria en busca de diferencias hasta ahora no apreciadas. Desde la década de 1960, se observó que hay una pequeña diferencia en la forma en que se degradan unas partículas llamadas mesones K y sus correspondientes antipartículas. Esta discrepancia podría ser el pequeño desequilibrio de la simetría que explicara por qué nuestro universo es como es.

Apenas en 2011, los científicos que trabajan en uno de los detectores del LHC en Ginebra, Suiza, encontraron datos que parecen indicar otra diferencia, en este caso de las partículas llamadas mesones D0, y sus antipartículas también decaen de modo distinto. Esto podría llevar a avances en la física que explicaran otros grandes misterios como la materia y la energía oscura y la forma en que se transmite la fuerza gravitacional.

Usted y los positrones

La antimateria se utiliza los escáneres de tomografía por emisión de positrones (PET, por sus siglas en inglés). En este procedimiento, se obtienen imágenes del cuerpo administrando un marcador radiactivo de vida muy corta (entre unos minutos y un par de horas) que emite positrones. Los positrones viajan alrededor de un milímetro dentro del cuerpo antes de aniquilarse con un electrón. Un escáner registra la energía, que se produce en forma de dos rayos gamma que viajan en direcciones opuestas, y un potente ordenador interpreta los resultados para crear una imagen tridimensional de gran fidelidad y utilidad en el diagnóstico médico.

Mensajes subliminales: la leyenda continúa

Es una de esas cosas que “todo mundo sabe”, pero sin saber que fue uno de los grandes bulos que han afectado a la psicología.

La creencia en la persuasión subliminal afirma que
podemos ser manipulados como títeres.
(foto de Giulia (master of puppets) CC-BY-2.0,
vía Wikimedia Commons)
Cualquiera puede decirle a usted que hay “mensajes subliminales” que pueden influir en nosotros de manera estremecedoramente efectiva y profunda. “Subliminal” quiere decir “por debajo del umbral” de la percepción, es decir, son estímulos que nos pueden afectar sin que seamos conscientes siquiera de su existencia. Esta sola definición evoca niveles de control mental propios de “Un mundo feliz” de Aldous Huxley o “Mil novecientos ochenta y cuatro” de George Orwell.

Y sin embargo, nadie lo ha podido demostrar.

La idea de los mensajes subliminales nació en 1957 cuando un investigador de mercados llamado James Vicary afirmó haber realizado un experimento con resultados asombrosos e incluso preocupantes. Según su descripción, instaló durante seis semanas, en un cine de Ft. Lee, Nueva Jersey una máquina llamada “taquitoscopio” capaz de disparar mensajes que sólo estaban en pantalla 1/3000 de segundo. Durante la proyección de la película “Picnic” (de la que nadie se acuerda), la máquina disparaba cada cinco segundos dos frases sencillas: "Tome Coca-Cola" y "¿Tiene hambre? Coma palomitas de maíz".

Vicary afirmó consiguió un aumento de 18.1% en las ventas de Coca-Cola y de un asombroso 57.8% en las de palomitas de maíz.

Para los publicistas y mercadólogos, las implicaciones eran maravillosas: podían hacer que la gente comprara sin convencerlos, mostrarles imágenes agradables, mensajes persuasivos, testimoniales de personalidades famosas o situaciones sexuales. Con sólo disparar una frase y sin que el público se diera cuenta, alguna parte de su cerebro percibiría la frase, la entendería y luego obligaría al resto del cerebro a obedecer la orden como un zombie vudú de pelicula serie B.

James Vicary inventó la frase “publicidad subliminal”, de la que se declaró inventor y dominador, y procedió a ofrecer sus servicios a sus clientes.

Ese mismo año apareció el libro “The hidden persuaders” (Los persuasores ocultos) del periodista Vance Packard, que emprendía una profunda crítica de los estudios motivacionales que empezaban a utilizarse en publicidad y diseño de productos, pero con una visión siniestra y paranoica, advirtiendo de los riesgos que implicaba que estas técnicas (hoy bien conocidas) se usaran también en política y suponiéndoles demasiada efectividad.

Para el público, las implicaciones de las historias de Vicary y el libro de Packard indicaban una manipulación atroz que podía dejar a la humanidad sin libertad alguna. El periodista Norman Cousins, se apresuró a pedir la prohibición de la publicidad subliminal por violentar los espacios “más profundos y privados de la mente humana”.

La Comisión Federal de Comunicaciones de los Estados Unidos se apresuró a prohibir la “publicidad subliminal” so pena de retirar la licencia a cualquier televisora que la usara. Sobrevinieron también prohibiciones den Gran Bretaña y Australia.

El experimento de Vicary, sin embargo, no apareció en ninguna revista científica con las características que se le exigen a todos los estudios: metodología, detalles del desarrollo, tratamiento estadístico válido de los resultados y toda la cocina con su proceso de obtención de resultados que es la esencia de un artículo científico. Psicólogos y organismos como la Comisión Federal de Comunicaciones dudaron desde el principio y pidieron algo básico: la replicación del estudio. Vicary emprendió demostraciones informales de su máquina, pero o tenía problemas técnicos o simplemente no lograba resultados como los originalmente reportados.

Pasado más de un año desde que el mundo se enteró del experimento de la Coca-Cola y las palomitas como invasión de nuestras más profundas motivaciones, el doctor Henry Link, psicólogo experimental, desafió a James Vicary a hacer una réplica del experimento bajo condiciones controladas y supervisado por investigadores independientes. Vicary no pudo negarse. ¿El resultado? Ninguno. Los estímulos subliminales no afectaban la conducta de la gente.

Llegó 1962 y James Vicary confesó al fin, en una entrevista con la revista Advertising Age que el estudio había sido inventado para aumentar la clientela de su rengueante negocio. Vamos, que había mentido como un publicista.

Desde entonces, diversos experimentos diseñados con rigor científico han podido demostrar que, si bien puede existir cierta “percepción subliminal” (es decir, parte de nuestro cerebro puede registrar estímulos que no percibimos conscientemente), no hay indicios de que exista la “persuasión subliminal”, la capacidad de los estímulos subliminales de movernos a la acción, y menos aún derrotando nuestra voluntad y volviéndonos autómatas como temían Packard y Cousins.

Lo que resulta verdaderamente asombroso es que, pese a todos estos hechos y datos, los medios de comunicación, la percepción popular e incluso algunas instituciones de enseñanza mantengan viva la leyenda urbana de la “publicidad subliminal” como una vía rápida a nuestras emociones y convicciones. Parecería que la historia es demasiado buena para no ser cierta.

El profesor de psicología de la Universidad de California Anthony R. Pratkanis, experto la influencia de la sociedad sobre en nuestras actitudes, creencias y comportamiento, considera que la creencia en lo “subliminal” como una fuerza poderosa se remonta a la creencia en el “magnetismo animal” de Mesmer y las experiencias de la hipnosis que le siguieron.

Pratkanis observa cómo se ha desarrollado la creencia en la persuasión subliminal para adoptar aspectos cada vez más místicos, como la creencia en que podemos aprender mientras dormimos o escuchando cintas con “mensajes subliminales”, la creencia (común en la subcultura de la conspiranoia) de que la publicidad está llena de tales mensajes e incluso la idea de que se pueden insertar mensajes malévolos grabados al revés en la música, y nuestros cerebros pueden percibirlos, invertirlos, entenderlos y actuar de acuerdo a ellos aunque no queramos.

En distintos experimentos realizados por Patkanis, ninguna de las cintas de “motivación subliminal” que son una floreciente industria tuvo ningún efecto en los sujetos experimentales. Lo cual sigue sin bastar para que nos deshagamos de esta atractiva, atemorizante y curiosa leyenda urbana.


(Foto de Zach Petersen, CC via Wikimedia Commons)

Judas Priest

En 1990, el grupo de rock Judas Priest fue acusado de haber grabado el mensaje subliminal “Hazlo” en una de sus canciones, afirmando que este mensaje había convencido a dos adolescentes problemáticos para que se suicidaran. El juez, sin embargo, los declaró inocentes con la obvia explicación de que había “otros factores que explicaban la conducta de los fallecidos”. Pero el mito de los mensajes ocultos en el rock permanece.

El mapa de los pozos mortales

El origen de la epidemiología se encuentra en la historia de una bomba de agua londinense y la inteligente observación de un joven médico.

El Dr. John Snow
(Rsabbatini, D.P. vía Wikimedia Commons)
Era 1854 y Londres sufría un brote de cólera, el cuarto en muy pocos años, sembrando el temor entres la población. Se trataba de una enfermedad desconocida a principios del siglo XIX que se había empezado a extender por el mundo desde las aguas sucias de Calcuta, en la India colonizada por Gran Bretaña. La primera pandemia de 1817-1823 había afectado a gran parte de Asia y Oriente Medio, así como la costa oriental africana. La segunda, que se inició en Rusia, afectó a toda Europa, África del Norte y la costa oriental de América del Norte.

La forma en que se diseminaba la enfermedad parecía evidenciar claramente una ruta de contagio y algún agente responsable del contagio. Pero cuando el cólera llegó a Inglaterra en 1832, la teoría microbiana de la enfermedad ni siquiera había sido postulada por el italiano Agostino Bassi. Y no sería demostrada sino mucho después por Louis Pasteur y Robert Koch, hasta que hacia 1880 se abandonó finalmente la creencia en los miasmas.

La idea prevaleciente era que las enfermedades se transmitían mediante “miasmas” o “malos aires”, vapores que tenían partículas de materia descompuesta y malévola, la “miasmata”. Así, no se creía que las enfermedades se transmitieran de una persona a otra, sino que ambas eran víctimas del aire contaminado. Esta creencia no era sólo occidental, sino que la compartían otras culturas como las de la India y China.

Durante el segundo brote de cólera en Londres de 1848-1849, que mató a más de 14.000 personas, apareció en escena el doctor John Snow, como uno de los fundadores de la Sociedad Epidemiológica de Londres y desafiando las creencias de la época que, más que ciencia o medicina, eran ideas supervivientes de tiempos anteriores a la revolución científica.

John Snow había nacido en 1813, en una familia obrera, una limitación que consiguió superar abandonando el hogar a los 14 años para hacerse aprendiz de médico en la vertiente de cirujano barbero. Así, cuando apenas tenía 18 años, en 1831, en una visita a mineros del carbón tuvo su primer encuentro con el cólera, recién llegado de Asia, sin imaginar que sería el centro de su vida profesional. A los 23 años comenzó finalmente a estudiar medicina de modo formal, doctorándose en 1844 y obteniendo su licencia como especialista en 1849.

Snow hizo sus primeros trabajos con las formas primitivas de la anestesia, desarrollando un dispositivo para administrar cloroformo de manera eficaz y segura, tanto que fue él quien se lo administró por primera vez a la Reina Victoria en el parto del Príncipe Leopoldo en 1853.

Curiosamente, este acontecimiento significó el inicio de la aceptación popular a la anestesia, rechazada sobre todo por motivos religiosos aduciendo la maldición bíblica contra la mujer de parir a sus hijos con dolor. Pero, razonó la opinión pública, si la reina podía evadir la maldición, podía hacerlo también cualquier ciudadana común y corriente. Y lo empezaron a hacer, en lo que fue un logro peculiar para un hombre devotamente cristiano, célibe, abstemio y metódico hasta el extremo como era el doctor Snow.

En el segundo brote de cólera en Londres, Snow realizó lo que sería el primer estudio epidemiológiclo de la historia, determinando los niveles distintos de mortalidad causada por la epidemia en 32 subdistritos de Londres. Con sus resultados, teorizó que la enfermedad se diseminaba por algún agente por medio del contacto directo con la materia fecal, el agua contaminada y la ropa sucia. Publicó sus resultados en 1849, en el ensayo “Sobre el modo de contagio del cólera”, donde presentaba las observaciones estadísticas que sustentaban su propuesta.

Sin embargo, esto no impidió que 1854 el tercer brote de cólera en Londres se atribuyera a una concentración de miasmata en las cercanías del Río Támesis. Los acontecimientos en la zona del Soho fueron especialmente violentos porque literalmente de un día para otro enfermaron más de 100 personas y rápidamente se acumuló la aterradora cifra de 600 víctimas mortales.

Una variante del mapa del cólera del Dr. Snow
La aproximación de Snow fue estudiar en dónde estaban físicamente situadas las víctimas del cólera en el Soho, y crear un mapa donde pudo ver claramente que las muertes por la enfermedad parecían irradiar de un punto muy concreto: una bomba de agua situada en Broad Street; una de las 13 bombas que abastecían al barrio en una época en que no existía el concepto de agua corriente en las casas. Para Snow resultaba absolutamente evidente que era el agua, y el agua de esa bomba, la responsable de una serie de muertes que se desató violentamente a partir de un día concreto, el 31 de agosto.

Armado con sus datos y su prestigio como médico, Snow acudió a las autoridades con una solicitud: que se quitara el mango de la bomba de agua de Broad Street, haciendo que los residentes se abastecieran en alguna de las otras bombas de la zona. Esto se hizo finalmente el 7 de septiembre, y el número de enfermos y muertos disminuyó rápidamente.

Otro estudio que realizó el mismo año comparó los barrios de Londres que recibían agua de dos empresas distintas, una que tomaba el agua río arriba en el Támesis, donde no había contaminación, y otra que lo hacía en el centro de Londres. Los resultados de Snow demostraban el efecto dañino del agua contaminada y le permitieron sugerir formas de controlar la epidemia e ideas para evitarlas en el futuro.

Aunque la teoría de los miasmas siguió prevaleciendo durante algunas décadas, la realidad se impuso y marcó una serie de cambios en la política londinense, incluida la creación de una nueva red de drenaje en 1880. John Snow, sin embargo, no vivió para ver el triunfo de su esfuerzo sobre las antiguas supersticiones. Murió en 1858 de un accidente cerebrovascular mientras seguía estudiando sus dos pasiones: la anestesia y la epidemiología, disciplina de la que es considerado el gran pionero.

Hoy en día, los visitantes de Londres pueden ir a la calle Broadwick, que es como se rebautizó Broad Street y ver una réplica de la famos bomba de agua del Dr. Snow sin el mango, como testigo de cómo la aproximación sistemática y científica a un problema puede cambiar la forma en que vemos el mundo.

El cólera en España

Los brotes de cólera en España coinciden con las grandes pandemias europeas. El primero comenzó en Vigo y en Barcelona en 1833, y se prolongó al menos hasta 1834 recorriendo el país. Seguiría otro en 1855, parte de la pandemia que abordó John Snow, y un tercero en 1865. Las vacunas y los avances de la medicina contuvieron la enfermedad salvo por dos brotes en el siglo XX atribuibles a la mala gestión de las aguas residuales, uno en 1971 en la ribera del Jalón y otro en 1979 en Málaga y Barcelona.

Fotografía: el momento irrepetible

Herramienta para la comunicación, las ciencias, la tecnología y el arte, la fotografía es una sucesión de encuentros entre distintas tecnologías e inventos.

"Vista desde la ventana en Le Gras", la primera
fotografía de la historia, obtenida por
Joseph Nicéphore Niépce en 1826.
(Imagen de D.P. vía Wikimedia Commons)
Supongamos una caja cerrada, ya sea pequeña o del tamaño de una habitación. En el centro de una de sus caras, abrimos un orificio diminuto. Sorprendentemente, las imágenes que estén frente al orificio en el exterior de la cámara se proyectarán en la cara opuesta dentro de la caja, pero invertidas.

Este fenómeno se explica porque, cuando los rayos de luz que viajan en línea recta pasan por un orificio pequeño en un material no demasiado espeso, no se dispersan, sino que se cruzan entre sí y vuelven a formar la imagen de cabeza. El orificio funciona como una lente y, de hecho, si utilizamos una lente en su lugar, se puede obtener tanto mayor nitidez como mayor luminosidad en la imagen reconstruida.

Este fenómeno fue descrito al menos desde el siglo V antes de la Era Común, por el filósofo chino Mo-Hi, quien llamó al lugar donde se veían las imágenes “habitación cerrada del tesoro”. En occidente, el principio también era entendido al menos desde Aristóteles, quien lo utilizó para observar eclipses de sol, práctica aún común para evitar ver el sol directamente.

En el siglo XVI se empezaron a utilizar lentes convexas en lugar del orificio y un espejo para invertir nuevamente la imagen y proyectarla en una superficie, creando un dispositivo portátil que durante siglos fue utilizado como auxiliar para el dibujo. Las habitaciones en las que se utilizaba el fenómeno para ver imágenes de gran tamaño fueron llamadas por el astrónomo Johannes Kepler “cámaras oscuras” , motivo por el cual llamamos “cámara” a cualquier dispositivo fotográfico o cinematográfico.

El siguiente paso era capturar las imágenes. Pero no pensaba en ello el alemán Johann Heinrich Schulze, que 1727, en uno de sus experimentos, mezcló tiza, ácido nítrico y plata observando que se oscurecía en el lado que estaba hacia la luz. Había creado la primera sustancia fotosensible conocida. Las experiencias ulteriores con sustancias sensibles a la luz tenían el problema de que las imágenes no se fijaban: la sustancia seguía reaccionando ante la luz y eventualmente era totalmente negra

Fue un francés, Joseph Nicéphore Niépce, quien experimentó durante años uniendo la cámara oscura y el trabajo de los químicos para hacer, en 1826, la primera cámara y la primera fotografía (misma que aún existe). Aplicó una mezcla de betún de Judea sobre una placa de peltre y la expuso desde su ventana durante ocho horas.

El siglo XIX fue escenario de experiencias con diversos materiales buscando obtener más nitidez, conseguir imágenes en menos tiempo y con menos luz, y poderlas conservar eficazmente, ya fuera en positivo, como en los daguerrotipos, o en negativo, proceso inventado por John Talbot y que permitía hacer las copias que se quisiera del original.

Las placas debían ser preparadas por el fotógrafo en el sitio, con una feria de aparatos y sustancias peligrosas, por lo que fue bienvenida la aparición de las “placas secas” de vidrio que tenían ya una sustancia fotosensible que se mantenían en la oscuridad antes y después de hacer la foto, para posteriormente revelarse. Su tiempo de exposición era tan pequeño que las cámaras fotográficas pudieron hacerse pequeñas y manuables.

El gran salto para la popularización de la fotografía lo dio el estadounidense George Eastman en 1889 con una película flexible, irrompible y que podía enrollarse, recubierta de una sustancia fotosensible que producía imágenes en negativo. Esto permitió hacer cámaras mucho más pequeñas y poner la tecnología fotográfica al alcance de todo el mundo. Ya no se necesitaba tener un laboratorio y saber manejarlo, bastaba “hacer la foto” y llevar el rollo a un técnico que se encargaría de revelarlo y hacer cuantas copias se quisiera.

El siglo XX se dedicó a perfeccionar la tecnología haciéndola más rápida, más eficaz, más precisa y trayendo al público, en 1940, la fotografía en color. Era una nueva forma de arte, pero también una herramienta documental y científica que permitió ver lo que nunca se había podido ver, como el momento en que una bala traspasa una manzana, imágenes infrarrojas y ultravioleta, y una enorme cantidad de accesorios alrededor del humilde principio de la cámara oscura.

En 1975, el ingeniero Steven Sasson, de la empresa de George Eastman, Kodak, creó la primera cámara fotográfica digital, a partir de tecnología de vídeo ya existente. En vez de utilizar una sustancia química fotosensible de un solo uso, estas cámaras emplean sensores electrónicos que detectan la luz y la convierten en una carga eléctrica. La cámara de Sasson tenía una resolución de sólo 100x100 píxeles (10.000 píxeles, comparados con los varios millones de píxeles que tiene cualquier cámara barata hoy en día), tardaba 23 segundos en registrar una imagen y pesaba más de 4 kilos.

El desarrollo de la fotografía digital fue muy rápido. La primera cámara para el consumidor fue lanzada en 1988-1989 y para 1991 había cámaras profesionales comerciales con más de un megapíxel (un millón de píxeles) de resolución, todas en blanco y negro. El color digital llegó en 1994 y de modo acelerado se ofreció comercialmente una sucesión de cámaras con más píxeles, más nitidez, mejor óptica, mejor almacenamiento (con la aparición de las tarjetas flash) y, sobre todo, precios cada vez más bajos.

La última gran revolución de la fotografía digital fue su integración en 2002 a los teléfonos móviles, que habían aparecido en 1983 (aunque no fueron realmente portátiles sino hasta 1989). A futuro se habla por igual de fotografía en 3 dimensiones (viejo sueño) como de perspectivas totalmente nuevas.

En 2011 se presentó una nueva cámara, Lytro, que en lugar de capturar la luz según el principio de la cámara oscura, lo hace interpretando campos de luz. El resultado son imágenes que no es necesario enfocar al momento de hacerlas, sino que el foco se decide en el ordenador posteriormente, algo que además de tener grandes posibilidades profesionales puede ser una ayuda enorme para el aficionado.

Las tragedias de Kodak

El popularizador de la fotografía, George Eastman, se suicidó en 1932 víctima de terribles dolores por una afección en la columna vertebral. Su empresa, Eastman Kodak, que fue la vanguardia de la fotografía durante más de 100 años, solicitó protección contra la quiebra en 2012, herida por la muerte de la película fotográfica y embarcada en una serie de litigios para conseguir el pago de sus patentes de fotografía digital por parte de otros fabricantes. La empresa se dedicará, si sobrevive, al papel fotográfico y la impresión por chorro de tinta, y licenciando su bien conocida marca a otras firmas.