lunes, 28 de diciembre de 2015

Un reloj para diez mil años. Feliz 02016.

Somos seres temporales. Los cambios biológicos y biográficos se van sucediendo en nosotros desde que nacemos hasta que nos morimos. Eso plantea la perspectiva de un tiempo lineal. No hay marcha atrás en la vida de cada uno. Y lo que le ocurre a uno, le sucede a todos. La Historia también es lineal aunque a veces parezca que se repite.
 

A la vez, esa dirección lineal es una sucesión de ciclos que la dividen en años o fracciones de año, siendo éstos artificiales (meses, semanas) o naturales (estaciones, días).
Nada ofrece mejor el carácter repetitivo que un simple día. De hecho, tan importante es esa unidad cíclica que los relojes biológicos con que contamos la mayoría de especies son principalmente circadianos. La cronobiología es, lamentablemente, un área de investigación que parece haber pasado de moda.
 

Necesidades religiosas y otras más pragmáticas, como la agricultura, han inducido a la construcción de calendarios dirigidos inicialmente al cálculo de estaciones. Más tarde, se dio también la preocupación por el recuento de años sucesivos, desde un tiempo inicial, un origen de historicidad dudosa y más bien mítico: “Ab urbe condita”, “Anno Domini", etc.
 

Pero no sólo las estaciones y la sucesión de años. También el ciclo unitario, el día, es, a su vez, una sucesión de tiempos: horas, minutos, segundos, e incluso fracciones de segundo. También en este caso se dieron necesidades de medida por las actividades civiles y religiosas.
 

Una medida precisa del tiempo tiene aspectos prácticos indudables. Quizá un buen ejemplo sea el cálculo de la longitud en navegación, pero no es el único: una ley física tan importante como la segunda de la termodinámica implica, en la práctica, una forma de intuir el tiempo.
 

Los sistemas cronométricos han evolucionado. En un rango instrumental que abarca de las  clepsidras a los relojes atómicos, todos disponemos de relojes propios y públicos y cada vez más ajustados entre sí a una hora universal.
El calendario mide años y señala estaciones y efemérides. Fue precisamente la necesidad de calcular la fecha de la pascua cristiana la que acabó induciendo a la reforma gregoriana del calendario. El reloj, a su vez, marca los tiempos de citas, de trabajo, de comidas, de inicio de espectáculos o de actividades de Bolsa, programas de televisión, etc.
 

Parecen dos sistemas con sendos objetivos diferentes: el calendario se fijaría en la sucesión de años y en las efemérides de cada uno, en tanto que el reloj sería importante para vivir la rutina diaria. ¿Por qué no unirlos? En cierto modo, nuestros relojes ya lo hacen, indicándonos no sólo la hora sino también el día, mes y año en que vivimos. Son instrumentos que precisan una fuente de energía que, en la práctica, despreciamos por su bajo coste. Todos los relojes personales y públicos de que disponemos hoy, aunque no se estropeen, acabarán parándose al cabo de años: por no darles “cuerda”, por no cambiar su pila, por no moverlos… por falta de energía a fin de cuentas.
 

¿Podría crearse un reloj - calendario que fuera independiente del mantenimiento y que marcara las fechas a ritmo de reloj, aunque este ritmo no tuviera en cuenta segundos, minutos u horas, sino días, años, siglos? Tanto los calendarios como los relojes son instrumentos de observación; requieren un sujeto que los mantenga y observe lo que indican, sea en las piedras de Stonehenge, sea usando un teléfono móvil. Pero podría construirse un reloj - calendario que funcionara con independencia de mantenimiento humano. No lo haría eternamente, pues no es posible un móvil perpetuo, pero sí durante muchos siglos. Ése es uno de los objetivos que persiguen los miembros de “The Long Now Foundation”, crear un reloj que marque el tiempo durante los próximos diez mil años. Esa fundación se caracteriza por sostener proyectos que miran a muy largo plazo. Uno de ellos, “The Rosetta Project”, ya había sido objeto de comentario en un post de este blog.
 

Tal reloj es una construcción compleja que busca la simplicidad: gente inmersa en una cultura equivalente a la de la edad de bronce podría entender su mecanismo. Requiere energía y, para ello, de las fuentes posibles, se ha elegido la que parece más estable: una diferencia térmica en la cima de la montaña que albergue en su interior al reloj se transmitiría como energía a los componentes que la precisan.

Y ¿por qué no hacer que suene también? Brian Eno, uno de los promotores de esa idea, ha construido un algoritmo que genera secuencias aleatorias de notas musicales, de modo que las campanadas, una al día, sean todas distintas.
Ya se ha construido un prototipo a pequeña escala. Ahora se pretende instalar varios relojes en lugares geológicamente estables. ¿Por qué? Quizá le pregunta mejor sea ¿Por qué no? ¿Tiene algún sentido la Torre Eiffel? ¿Una catedral? ¿Por qué no hacer algo aparentemente interesante aunque sólo sea como monumento a una generación?
 

El reloj de diez mil años es un sueño aparentemente realizable, como otros lo han sido. Será el emblema de una generación o un mero resto de ella, pues no es descartable que el paso del tiempo, en el que se anclan los recuerdos, siga siendo registrado por un instrumento que puede ser a su vez olvidado si, por la razón que sea, no queda nadie para observarlo.

Una nota sobre el año:
El año trópico es el tiempo que transcurre entre dos equinoccios vernales, cuando los planos del ecuador y de la eclíptica se cortan en primavera.
El año sidéreo es el tiempo que tarda la Tierra en dar una vuelta alrededor del Sol hasta un punto exacto del espacio, tomando como referencia las estrellas. Excede muy ligeramente al año trópico.

martes, 22 de diciembre de 2015

¿Y si…?


Muchos “comics”, antes tebeos, divierten a niños mostrando las aventuras de personajes fantásticos. Rizando el rizo, en un tiempo se popularizaron unos historias ilustradas bajo el nombre genérico “What if…” que fantaseaban a su vez sobre qué les ocurriría a esos héroes en circunstancias muy diversas, por ejemplo, en un cambio de época, en un encuentro con otros personajes, etc.

La imaginación permite esos juegos no sólo en el ámbito del comic. También en el de la ficción llevada a la ciencia o a la historia. ¿Qué pasaría si… ? Si no hubiera caído Roma, ¿tendríamos una ciencia mucho más avanzada? ¿Si la radiación del cuerpo negro no fuera vista como un problema interesante, tendríamos la mecánica cuántica? Pero también, ¿habría una segunda guerra mundial si Hitler hubiera sido admitido en la Academia de Bellas Artes de Viena?

Esas e innumerables preguntas más son tan aparentemente interesantes como inútiles, porque sólo hay una historia y, aunque responda en gran medida a lo contingente, es la que es, sólo visible en pasado, no modificable; carece de sentido imaginarla de otro modo, aunque sea importante conocerla para estar advertidos de lo que puede repetirse. Una advertencia a la que, sin embargo, nunca se le hace el menor caso.


Esa pregunta no sólo carece de sentido ante la Historia, ante lo colectivo.  También ante lo biográfico. ¿Qué ocurriría si hubiera aceptado aquella oportunidad? ¿Y si no hubiera elegido mi profesión, mi pareja, la ciudad en la que vivir… etc, etc.?  ¿Y si…? ¿Y si…? Una pregunta que se reitera demasiadas veces ante encuentros casuales, ante frustraciones, ante sueños, insistiendo en una nostalgia inútil de lo no vivido.

Hay quien dice que le gustaría volver a la juventud sabiendo lo que sabe por su experiencia vital, pero quien eso manifiesta sólo expresa una gran ignorancia sobre sí mismo. En el hipotético caso de lo que parece imposible, un viaje en el tiempo, alguien que hace tal afirmación haría lo mismo que hizo con su vida. Exactamente lo mismo en lo esencial. En realidad, mucha gente, sabiendo lo que sabe, sigue y seguirá haciendo lo mismo en el futuro, en una repetición incesante de lo peor.

Sucede que el “¿Y si…?” es una pregunta sin sentido porque nos supone mucho más libres de lo que en realidad somos, pues ocurre que estamos determinados, no tanto porque nuestros genes o los astros lo digan, cuanto por la propia biografía construida en lo familiar, por el niño que permanece en nuestro interior aunque nos hagamos viejos, por todo eso que desconocemos de nosotros y que, aunque dejándonos libres en cierto grado y responsables siempre, nos determina.


Saber de eso, de lo inconsciente en nosotros, sí permite un modo de hacer mejor con la propia vida en el presente, en el futuro que nos quede, y realza a la vez el absurdo de la pregunta “¿Y si…?” referida a nuestro pasado, a la vez que muestra su gran posibilidad cuando se enfoca al presente y al futuro personal y colectivo. 


Podemos construirnos y reconstruirnos y, a la vez, influir, aunque sea muy poco, en la Historia. Pero ese saber requiere, como el lenguaje, del encuentro con nosotros mismos en el otro especular. Por eso, la filosofía no necesariamente libera a quien a ella se dedica, pudiendo facilitar paradójicamente la vida de los otros. Tal vez en eso radique la diferencia entre filosofía y psicoanálisis, porque, en el fondo, no somos tan racionales como creemos y mucho más inconscientes de lo que suponemos.

lunes, 14 de diciembre de 2015

Psicoanálisis. De la escucha a la mirada en Barcelona.

Es bien sabido que Freud creó el psicoanálisis. No fue algo que surgiera de la nada. Una excelente biografía suya, la de Peter Gay, nos muestra su evolución desde la investigación básica al descubrimiento de lo inconsciente y, con ello, la posibilidad de incidir sobre algo que era para los pacientes tan perturbador como oculto.

Un descubrimiento así no es equivalente al de un antibiótico.  Hay que hacer un trabajo hermenéutico de lo que se tiene entre manos y ya desde un principio hubo disonancias entre psicoanalistas, siendo célebre la existente entre Freud y Jung. Pero, a pesar de distintas concepciones, prácticas y escuelas, el psicoanálisis ha evolucionado desde Freud y es en la actualidad un enfoque clínico potente. 


Hay algo consustancial a esta práctica: reconoce el límite que impone la singularidad de lo subjetivo. Ese reconocimiento implica una posición de escucha. En cierto modo, simplificando, la escucha del analista permite que el paciente vaya dándose cuenta de su determinación biográfica, tan distinta de la restricción biológica y, desde ese darse cuenta, desde esa situación en la que donde era Ello acontece el Yo, según diría Freud, alguien puede hacer algo mejor con su propia vida.

Pero precisamente esa actitud de escucha es la que también se abre más allá de la clínica, la que está atenta a la patología social, a lo que ocurre en nuestra civilización, tan inconsciente como la propia Historia nos muestra. Freud mismo la utilizó en sus ensayos.

No sorprende por eso que un psicoanalista pueda interpretar, mejor que un científico, un historiador o un filósofo, las acciones humanas. Y tampoco sorprende que, precisamente para lograr un mayor entendimiento, se abra al discurso de otros. Hay, pues, una doble escucha por parte del psicoanálisis, más allá de la clínica singular: la de lo que sucede en el mundo y la del discurso de otros sobre ese suceder.


Los días 12 y 13 de diciembre de este año, Barcelona, ciudad hermosísima y acogedora donde las haya, albergó un encuentro marcado por esa doble escucha: a lo que ofrece el mundo, incluso con sus silencios, como los que acompañaron al duelo en París, y a lo que puedan ofrecer otras personas desde actividades ajenas al psicoanálisis. 


Un día para cada una de esas escuchas en las Jornadas de la ELP. Quienes asistimos a ellas fuimos afortunados porque hemos aprendido, desde la escucha de la escucha, si así puede decirse, a mirar. A mirar la realidad en que nos hallamos, a tratar de comprenderla y a recordar que nada humano puede ser ajeno a esa mirada.

Fueron muchas las intervenciones y hábil la elección de la inaugural y de la final. 


Éric Laurent inauguró las jornadas con una conferencia riquísima en detalles en la que fue mostrando cómo la acción humana es inconcebible obviando la singularidad. Tomando como núcleo lo traumático de los asesinatos de París, acabó iluminándonos sobre la gran paradoja del cientificismo: cuantos más factores causales se encuentran, menos claro es que haya una causa; lo hizo comparando las explicaciones sociológicas del yihadismo con las biológicas del autismo. Dos fenómenos bien distintos, tanto como las ciencias que pretenden abordarlos (Sociología y Biología), pero que comparten algo común, la imposible objetivación científica de lo subjetivo.
 

Y las cerró, con el brillante rigor que le caracteriza, Miquel Bassols, refiriéndose al cuerpo hablante. No tendría sentido resumir lo que dijo, por ser mucho y necesario, pero quizá baste como ejemplo ilustrativo su alusión  a E.T.A. Hoffmann (quien ya había inspirado un ensayo de Freud) para mostrar lo siniestro posible de actualizar, el siniestro cuerpo de la tecno-ciencia. 

Ésta no es la edad de la ciencia sino la del mito científico, que es muy diferente. Un mito pobre que aspira a la imposible completitud epistémica y que confunde progreso y bondad.

Actividades como la que Barcelona acogió los días 12 y 13 mantienen la esperanza en que es posible reconocer el misterio, en que no todo es igual, en que ser humanos supone una responsabilidad ineludible para cada uno.


sábado, 5 de diciembre de 2015

Lo que la Navidad recuerda

“Y dio a luz a su hijo primogénito, le envolvió en pañales y le acostó en un pesebre, porque no tenían sitio en el alojamiento.” (Lc.2, 7)

“Cuando la bondad decae, cuando el mal aumenta, hago para mí un cuerpo.
 En cada época vuelvo para libertar a los santos, para destruir el pecado del pecador, para establecer la rectitud” (Bhagavad Gita).

Ni buey ni mula ni guirnaldas ni nada. No estaba allí Lucas, el evangelista que dice algo del nacimiento de quien llegó a considerar su maestro. Hubo textos apócrifos, sentimentalismos, imágenes de animales calentando con su aliento a un recién nacido. Nada. No era relevante nada más que lo que expresó Lucas al dar cuenta de uno de tantos nacimientos, más imaginados que reales.


Un nacimiento que, sin embargo, cambió la Historia, marcando, aunque no coincidiera en el año, un nuevo inicio, el Anno Domini.
No se nos narra un nacimiento heroico sino de lo más vulgar e incluso triste. Una familia nuclear, un niño que nace sin dar tiempo a cobijarlo de un modo normal. Es la paja, la tierra, quien lo acoge.


El mensaje cristiano se ha centrado en algo bien distinto a ese breve relato, enfocando la mirada a la muerte. Es la crucifixión de Jesús seguida, para los creyentes, de su resurrección, lo que se propagará como fe salvífica ambivalente (la muerte como tránsito a la vida plena) que acabará desplazando a la religión civil romana y a cultos mistéricos. El “relegere" piadoso civil cede al “religare" cristiano, tan poco piadoso tantas veces.


Pero, con Jesús, hubo algo más esencial que todo el revestimiento mítico posterior de su figura, de alguien que sí parece que existió realmente, pero del que se sabe más bien poco. Y eso esencial fue, a pesar de tantas contradicciones textuales, que hubo alguien que mostró la posibilidad del amor como referencia ética, de un amor total, sencillo y sereno, sostenido por la fe en Dios, incluso como esperanza desesperada al final. Curiosamente, tal vez no fuera tan distinta el ansia última del carpintero Jesús a la del emperador Juliano conocido como el apóstata. Ambos, tan distintos, tan opuestos, fueron sostenidos por una fe monoteísta (extrañamente relacionada con la nostalgia pagana en Juliano).


San Pablo hizo de las palabras de quien no las escribió una religión. Un hombre judío, helenizado y ciudadano romano, que no conoció a Jesús, se encargó de crear una religión universal a partir de una secta apocalíptica. La Historia nos cuenta todo lo demás. Herejías gnósticas, místicas, teológicas, pastorales, matanzas, el Malleus maleficarum… pero también contagios de ese amor de las bienaventuranzas, con personas que encarnaron en sus vidas el evangelio, la buena noticia en un mundo frío, hostil, la utopía posible aquí y ahora.


No es extraño que la necesidad del mito mitificara también a Jesús, incluyendo su nacimiento y su concepción. En el solsticio habría de nacer y una virgen habría de ser su madre. Isis permanece. La cosmovisión egipcia parece más relacionada con el cristianismo que el judaísmo del que procede.


Después, eternas discusiones teológicas en las que una sola palabra como Filioque provocaban cismas y odios, facilitando que cristianos se masacraran entre sí.

Pero lo mítico encierra lo verdadero, precisamente porque lo oculta. La Navidad, fecha que incita (o condena, según se mire) a la reunión festiva familiar, nos recuerda en realidad la soledad del héroe y del matrimonio que fue su familia. Y, con ello, nos advierte, a pesar de abrazos, lucecitas y papasnoeles, de la soledad humana radical.


Y la Navidad nos recuerda la gran posibilidad del amor. Como lo hizo en el frente occidental en 1914, en las trincheras. No aludiendo a un amor sensiblero, sino real, humano, el que acepta al otro, por muy diferente o, lo que es peor, por muy igual que sea a uno mismo. Un otro que será amado no por amor a Cristo, ni a Dios, ni siquiera a nosotros mismos, sino sólo, exclusivamente, por él mismo, por ser otro y ser, desde esa alteridad, hermano en la soledad cósmica.
 

viernes, 20 de noviembre de 2015

Ciencia y repetición

En la investigación científica no basta con que un investigador encuentre algo relevante; debe ser verificable también por otros. Esa necesidad de reproducibilidad confiere poder al método. Una observación astronómica puede ser realizada por múltiples investigadores; se trata de una reproducibilidad por simultaneidad colectiva. Un experimento puede repetirse por un mismo investigador y por otros utilizando los mismos métodos. Sería la repetición a lo largo del tiempo.

Cuanto más relevante o extraordinario sea un hallazgo científico, mayor será la necesidad de reproducir su descubrimiento pues, como indicaba Barry Beyerstein, “las afirmaciones extraordinarias demandan una evidencia extraordinaria”. Ni la fusión fría ni los experimentos que apuntaban a la eficacia de la homeopatía fueron reproducibles. Sin esa repetición, su aparente relevancia inicial quedó eliminada. 


La repetición es necesaria para comprobar que una relación causal obtenida por un grupo de investigación (ya no suele haber investigadores aislados) es real y no mero efecto del ruido, sea éste intrínseco a los instrumentos de medida y a alteraciones en reactivos químicos o biológicos, sea causado por la interferencia de variables distintas a aquellas que se investiga. 


El ruido instrumental cobra gran importancia en mediciones físicas, en tanto que el ruido inherente a múltiples variables es importante en el ámbito biológico. Es tal la importancia del azar que todo control es poco. Un ensayo clínico, un estudio epidemiológico de cohortes, por ejemplo, se hacen para contrastar que hay señal y no ruido. Y, por muy bien realizados que estén (lo que requiere “neutralizar” variables de confusión mediante la randomización y estratificación de grupos a comparar), precisan la repetición que suele revelar efectos no idénticos y que suponen muchas veces la necesidad de meta-análisis. La tan manida significación estadística (expresada por el valor de “p” o por un intervalo de confianza) está en crisis ante el enfoque bayesiano pero, más allá de la discusión entre frecuentistas y bayesianos, parece obvio que lo revelador haya de ser comprobado y que no baste un único experimento. 

El 3 de septiembre un comentario de Glenn Begley en Nature indicaba que una encuesta realizada por la “American Society for Cell Biology” revelaba que más de dos tercios de investigadores encuestados habían sido incapaces, al menos en una ocasión, de reproducir sus resultados publicados. También Nature recogía que, en un estudio, sólo 6 de 53 publicaciones relacionadas con la oncología clínica fueron reproducibles.  Todo eso es ciertamente preocupante y ha motivado una iniciativa dirigida a mejorar la situación, la “Reproducibility Initiative”

Además del ruido, hay un elemento importante que no es tenido suficientemente en cuenta. Se trata de la subjetividad, y por partida doble. Por un lado, la del investigador; no todo el mundo es honesto, tampoco en ciencia. Por otro, la del sujeto mismo cuando se le considera objeto de investigación.


El método científico riguroso implica la honestidad del investigador y la reproducibilidad de los resultados que obtiene.  Pero eso parece a día de hoy un tanto utópico. En 2009, Daniel Fanelli hizo una revisión sistemática de encuestas sobre conducta científica, fijándose en lo que llamó “prácticas de investigación cuestionables” (no sólo fraude).  En su trabajo, publicado en PLOS One, concluía que hasta un 34% de los investigadores las había cometido.  Y es que, ni en el trabajo que requiere mayor objetividad puede eliminarse el factor subjetivo. Si no hay honestidad, la recolección de datos, el análisis de relaciones entre ellos, el aparente descubrimiento interesante… carecen de valor (sutiles manipulaciones de datos pueden dar lugar a relaciones significativas). Precisamente la repetición por otros permite consolidar o rechazar resultados interesantes. La ciencia requiere una objetividad intersubjetiva a la que no le es nunca suficiente con la confianza en el hallazgo singular, por mucha autoridad que tenga su autor o por la importancia del medio que publique sus resultados.

Pero donde más llamativa es la falta de reproducibilidad es en el ámbito de la Psicología. Brian Nosek publicó en Science que, analizando 100 artículos relevantes por parte de 270 investigadores, sólo fueron reproducibles un 39% de ellos.  En el mismo sentido, ya fue revelador un artículo publicado en 2012 por John P.A. Ioannidis en el que se mostraba que la tasa de replicación de publicaciones psicológicas era inferior a un 5%, llegando a expresar que la prevalencia de falacias publicadas podría alcanzar el 95%.
 

Hubo un trabajo que no se llegó a publicar y que se intentó reproducir. En 2010 Matt Motyl había descubierto que el hecho de ser políticamente radical se relacionaba con una visión de blanco o negro cuando ambos iban separados por una escala de grises. En colaboración con Brian Nosek, la repetición mostró que la relación mostrada en el estudio inicial, con clara significación estadística (p = 0.01) se disipaba porque el mismo cálculo estadístico sobre los nuevos datos reveló que eran atribuibles al azar (p = 0.59)

¿Por qué ocurre esto especialmente en Psicología? No cabe atribuirlo a las mismas causas que en el ámbito de la Biología o de la Medicina. Hay algo añadido que es intrínseco a la propia Psicología pretendidamente científica: el olvido de la subjetividad. Matt Moyl actuó honestamente desde el punto de vista metodológico; repitió su experimento y vio que su hallazgo inicial se desmoronaba. Pero lo que pretendía mostrar Matt Motyl parece una solemne tontería, comprensible sólo, como tantas otras, en el marco reduccionista cognitivo - conductual en que nos hallamos. El problema de la no reproducibilidad en Psicología no es un problema real o, más bien, lo sería sólo en el caso de la psicología en modelos experimentales animales. El problema reside esencialmente en que la subjetividad no obedece a medidas por mucho análisis factorial y tests ordinales que se hagan. Y, siendo así, difícilmente se podrá encontrar algo llamativo y reproducible aplicando al alma los mismos métodos que a las células de un cultivo o a la genética de moscas. En publicaciones de Psicología las famosas “p” no son, en general, muy creíbles.

El científico se identifica cada día más con el investigador, aunque los conocimientos científicos de éste sean muy limitados. Y la carrera del investigador es ahora la de alguien que publica artículos en revistas que tengan el mayor impacto posible (hay revistas de alto impacto que recogen publicaciones que no lee nadie, por otra parte). El tristemente célebre “publish or perish” es una realidad; quien no entre en esa dinámica verá cercenadas sus posibilidades para ser investigador. Si es clara una relación, pero la “p” es de 0.06, es un fastidio, y tal vez reuniendo más datos o eliminando algunos se alcance significación; de hecho, 0,06 es cercano a 0,05 apuntando a que algo hay. ¿Por qué no afinar un poco y publicarlo con una "p" mejor? ¿Es que acaso nadie lo hace? Esa es la situación que se da en no pocos casos. Luego vendrán los metaanálisis e incluso los meta-metaanálisis si lo mostrado es relevante y, de confirmarse, el que primero lo haya publicado verá su noble recompensa curricular e incluso hasta mediática. 


El escepticismo, esencial en el método científico, es así castigado por un sistema de promoción científica que premia la prioridad a expensas del rigor y de la honestidad que lo hace posible. A la vez, se asiste paradójicamente a un culto al escepticismo como creencia. 


Freud nos habló de la importancia de la compulsión de repetición. Tendemos a repetir lo peor para nosotros mismos. Y eso ocurre también en donde todo parece claro y consciente, en el ámbito de la ciencia, pues en la actualidad muchos investigadores tienden a repetir lo peor, que, en ciencia, es precisa y paradójicamente, la falta de repetición.

sábado, 14 de noviembre de 2015

EN DUELO

Demasiadas veces no hay nada que decir. Porque sólo hay estremecimiento y llanto. Sólo hay dolor. Y es en momentos así cuando lo mejor es callar.

Lo peor se repite. Siempre. Porque Thánatos tiene toda la fuerza percibida por Freud. 

Las hienas actúan por instinto. El ser humano cede a la pulsión. Pero es libre y responsable de hacerlo. De todo el horror que supone sucumbir a la tentación fanática, de tanto daño que no llega a ser imaginable.

En nombre de la raza. Por orden del Führer. Por el "hombre nuevo". Por la patria o en nombre de Dios... lo peor pasa al acto. 

Pero tanta crueldad sólo es humana. Demasiado humana.





sábado, 7 de noviembre de 2015

La WISE recuerda el "mundo real" como objetivo de la educación.



La Cumbre Mundial para la Innovación en Educación (WISE por sus siglas en inglés), relacionada con la Fundación Qatar, acaba de comunicar los resultados de una encuesta realizada por Gallup sobre la efectividad de los sistemas educativos alrededor del mundo, basada en las respuestas de 1550 miembros (profesores, estudiantes, graduados, políticos y empresarios).

El mensaje general de la “2015 WISE Education Survey”  no puede ser más claro: “Hay que conectar la educación al mundo real”. Y eso se entiende como un problema global. Se reconoce la necesidad de "reconsiderar la educación como una colaboración entre escuelas y empresarios de tal modo que se proporcionen estudiantes con una experiencia de mundo real en su campo antes de que se gradúen”. Es más, muchos expertos entienden que tal colaboración es precisa ya en los niveles escolares primario y secundario. 

La Dra. Asmaa Alfadala, directora de investigación en WISE, lo tiene claro. Es necesario “un aprendizaje basado en proyectos”, que propicie un trabajo en equipo enfocado a problemas del “mundo real”, en vez de “aproximaciones convencionales”.

El 63% de expertos optan por programas educativos que impliquen estrechas colaboraciones entre estudiantes y empresarios, teniendo estos últimos un incentivo para su mayor implicación: el coste implícito sería superado a largo plazo por trabajadores (literalmente “workforce”) mejor preparados.

Tanta cumbre mundial realza viejas preguntas pragmáticas: ¿Para qué sirve aprender eso? y, especialmente, ¿Qué “salidas” tienes con esa carrera? Se asume que uno aprende para algo y resulta que ese algo se llama “mundo real”. 

Que en el documento se resalte varias veces esa expresión, sugiere que hasta ahora se ha educado en buena medida para un mundo irreal. ¿Qué entienden tantos por “mundo real”?  Parece sencillo, el mundo concebido del modo materialista más crudo, el que asimilará la “workforce”, el de la empresa, el que, de hecho, cambia la propia realidad transformándola. Se trata de trabajar haciendo cosas útiles, vendibles, o transformando la energía también para algo pragmático. Es el mundo de la tecno-ciencia al servicio del mercado.

¿Cabe mayor afán que el de contribuir a crear una “workforce” para ese mundo? No lo parece y, por eso, hemos de ser cuidadosos con los elementos que la harán posible, los maestros y profesores, a los que hemos de pagar, respetar… y vigilar. Porque no todos son buenos. No todos están preparados. Nuestro país, regido ahora por un gobierno moderno donde los haya, ha recurrido por eso, atendiendo el consejo de la WISE (cuya traducción es “sabia”) a un adelantado de la modernidad, como es D. José Antonio Marina, que ha sabido diagnosticar los serios problemas que tenemos en esto de la educación. Por ejemplo, afirma que “En España, nadie le da importancia a los equipos directivos”, que “casi siempre consiguen tener éxito seleccionando y manteniendo a los buenos profesores, cosa que sólo pueden hacer los colegios privados y concertados, dado el carácter funcionarial del profesorado de la escuela pública”. Ya se sabe, lo público es nefasto.

También señala que "El tiempo del profesor aislado se ha terminado”. Y es que así no hay quien controle nada. Todo profesor ha de ser vigilado y no hay mejor vigilante que el compañero de uno por lo que han de ser éstos quienes "fomenten la exclusión de los malos profesores, porque desde fuera es muy difícil de detectar”

Puede parecer que la vigilancia es fea, pero no tanto si se instaura “ab initio” y para ello también propone el Sr. Marina un sistema de tutoría de los nuevos docentes, equiparable al que se da en la formación médica especializada (MIR). Sobra decir que no sólo es el PP el que aplaude tan sensatas medidas. El PSOE también es muy receptivo ante ellas. ¿Quién puede resistirse al avance en materia educativa? En realidad, los dos grandes partidos han contribuido a mejorar la enseñanza con tantas leyes como gobiernos habidos en España.

Claro, hay profesores que lo son en el sistema público tras superar una durísima oposición, y eso les hace críticos con la clara visión del Sr. Marina. Son unos resentidos que no aciertan a ver que se trata de acometer un problema esencial, el del “mundo real” y, para eso, no basta con saber sobre banalidades y transmitir ese saber. Hay que tener la vista puesta en la realidad y saber comunicarla, con inteligencia emocional como se dice ahora.

Y es que hay profesores anclados en el pasado, que no ven el dichoso (porque tiene que ser dichoso) “mundo real”. Son los que hablan de cosas extrañas como la filosofía (en feliz vía de desaparición del curriculum escolar) o los que inducen a vicios gozosos como la literatura (incluyendo la poesía), o a mirar al pasado como si a alguien le importara la Historia. Ya lo dijo un sabio como Pablo Casado, prometedor político de la derecha moderna: “Están todo el día con la guerra del abuelo, con las fosas de no se quién, con la memoria histórica”, refiriéndose a gente anticuada.  Y, si eso es así, con el pasado reciente… ¿a quién le va a interesar lo que hayan hecho o dejado de hacer los romanos? ¿Es realista eso?

El mundo real es el del futuro, el de la transformación a la riqueza. De unos pocos, pero transformación beneficiosa al fin y al cabo. Hace años ya se decía: “Aprenda Basic, el lenguaje del futuro”, y hace más, se proponía el Esperanto. Y qué razón tenían. ¿Qué haríamos ahora sin Basic o sin Esperanto? Pues bien, se trata de seguir en esa onda, de formar a la “workforce” con vistas a un futuro realista en el que esos afortunados no tendrán que haber aprendido nada de memoria, no necesitarán calcular (hay móviles) ni escribir ("Siri" y programas similares se perfeccionarán).

¿Qué debe enseñarse? Parece obvio. Los niños deben aprender a leer, eso sí, para seguir los protocolos de trabajo cuando sean mayores, y deben aprender las bases científicas que les dirán lo esencial de ese mundo real y de cómo transformarlo. También han de aprender a conocer la "lingua franca" que, como ahora el esperanto, probablemente sea el inglés. Y todo ese aprendizaje se hará, a ser posible, jugando. 

¿Cómo debe enseñarse? Con calidad e inteligencia emocional. Y nada como los criterios ISO para certificarlas. Una calidad vigilada constantemente, de tal modo que los malos profesores sean rápidamente depurados del sistema educativo por los que son buenos y responsables, ejerciendo así un santo compañerismo. Unos profesores que han de ser, de hecho, iniciados en la práctica de su inteligencia emocional y capacidad de coaching mediante un MIR adecuado.

¿Para qué tanto esfuerzo? Para crear una buena “workforce”. Para que quienes la constituyan se integren plenamente en la servidumbre voluntaria que hará posible atender a ese orwelliano mundo real y, aunque no lo digan por modestia y rigor, también feliz, que ya lo pronosticó Huxley.

Muchos, demasiados, quieren hacer de la educación sólo eso: un aprendizaje para la servidumbre. Y, por eso, un mundo sin filosofía, arte, literatura, música, es lo único que puede ser llamado "mundo real", en el que se den unas cuantas respuestas y ninguna pregunta.

domingo, 1 de noviembre de 2015

Todos los santos. El recuerdo de los muertos.


“Hay un cuadro de Klee que se llama Angelus Novus. En él se muestra a un ángel que parece a punto de alejarse de algo que le tiene paralizado. Sus ojos miran fijamente, tiene la boca abierta y las alas extendidas; así es como uno se imagina al Ángel de la Historia. Su rostro está vuelto hacia el pasado. Donde nosotros percibimos una cadena de acontecimientos, él ve una catástrofe única que amontona ruina sobre ruina y la arroja a sus pies.”
Walter Benjamin

Percibimos el futuro desde el recuerdo del pasado. Walter Benjamin no parecía optimista cuando reflexionó sobre el cuadro de Klee. 

Estamos en un ahora, y es tras un futuro, de duración breve o un poco prolongada pero finita en cualquier caso, que nos ubicaremos en el pasado, siendo sólo cenizas y recuerdo. 

Se dice, y con razón, que somos polvo de estrellas. Éste es un conocimiento relativamente reciente, aunque fuera intuido por Novalis. Sabemos que muchos de los átomos que nos constituyen han tenido que ser formados en el corazón mismo de estrellas moribundas. Es un tanto poético pensar que somos polvo estelar, y tal imagen enlaza con la perspectiva poética de Quevedo ante el retorno al caos material: “polvo serán, mas polvo enamorado”.

La Iglesia católica dedica un día a recordar a todos los santos. Algo imposible, pues no se puede recordar a quien no se conoció. Pero, a la vez, necesario, porque sólo por la santidad de tantos (no sólo entendida en sentido religioso), ha sido posible el relativo progreso material y espiritual en que vivimos hasta que lo destruyamos y quizá recompongamos. Como tantas veces.

El recuerdo del pasado no es sólo recuerdo de santos. Asumir la Historia es recordar también la crueldad, lo horrible del ser humano, todo aquello de lo que somos capaces por ser “demasiado humano”.

Haber vivido en una tradición judeocristiana nos ha marcado inexorablemente a muchos, porque cada cual está necesariamente inmerso en una corriente, en una tradición, incluso para negarla, para rebelarse contra ella. Y en ésta, el día de todos los santos y el siguiente, el día de difuntos, suponen un doble recuerdo. Por un lado, el histórico valioso, el debido a tantos que tanto bien nos han hecho (algo perfectamente trasladable al ámbito ateo). Por otro, un recuerdo curiosamente anticipatorio, el de la propia mortalidad. 

Hay un horror atávico a los muertos o, más bien, a su reaparición. Las diferentes formas de celebrar estos días juegan con ese terror que ya a nadie asusta, ni siquiera a los niños que se disfrazan de espectros, porque tenemos electricidad que sostiene la luz, la claridad nocturna, que neutraliza todo oscurantismo. 

Pero sí hay un doble horror que puede o no invadirnos estos días. Uno, es el terror a la repetición de lo peor de la Historia, a esos jinetes apocalípticos a los que se les da tantas veces por cabalgar. Hoy lo hacen en Siria, entre otros lugares.

Otro, es el horror al cuerpo propio. No al cuerpo muerto, pues en eso somos ya bastante epicúreos: la muerte llegará, sí, pero cuando eso ocurra, no estaremos y, mientras tanto, viviremos y la muerte no existe. No. Lo que puede horrorizar es el cuerpo mismo, el anatómico, como recuerdo. Porque, así como la Historia no es, como realzaba Benjamin, una mera cadena de progresos lineales, el cuerpo, lo que mejor vemos de nosotros mismos, tampoco.

Basta con observar unas láminas de anatomía para percibir que la angustia pascaliana ante los espacios infinitos también es plausible ante el propio organismo. Porque el cuerpo es distante a nuestro ser, aunque lo sostenga. Porque el cuerpo ha resultado del azar, de extinciones masivas de formas de vida en un mundo habitado principalmente por bacterias. No llegamos por un proceso lineal. Sobran ejemplos de ausencia de “diseños inteligentes”; la absurda colocación de la retina, mirando al revés, sería uno de tantos.

Estamos solos. Surgimos del azar y cada uno se ha hecho en mayor o menor grado consciente de sí mismo, como construcción biográfica inscrita en la Historia. Una contingencia en busca de sentido.

Eso y no una danza macabra es lo que horroriza: la ausencia de sentido y significado de un cuerpo que permite un autorreconocimiento único del Todo. Y eso es lo que nos muestra como decían los existencialistas: arrojados. Para la muerte. Y para la vida. Una vida que, aun frente a la gran castración final, puede ser vivida éticamente. Ésa es nuestra tragedia y en ella reside nuestra dignidad.

Aunque se hable del caso Galileo, la Iglesia facilitó el desarrollo científico. Con desfases, todo fue integrable en el contexto dogmático. Hasta que llegó un hombre que se llamaba Charles Darwin. Y todo cambió, porque la ley sólo constriñe sin determinar, dejando hacer al azar. 

Ni siquiera la creencia en lo trascendente, en un sentido amoroso, si es auténtica, puede soportar el horror del absurdo, perceptible en momentos de lucidez. Sólo puede, que no es poco, confortarnos a quienes la tenemos, sin saber por qué la tenemos (quizá un resto infantil freudiano), en la apertura al misterio, uniéndonos a muchos otros que han esperado sin esperanza. Porque creer no es adherirse a una tabla de salvación, sino perderse irracionalmente, amorosamente, en el abandono de un "deus absconditus", de un "deus ludens", en la ignorancia más radical que implica el misterio. 

sábado, 24 de octubre de 2015

El cuerpo recuerda lo que más ignoramos.

Rabí, para que este hombre haya nacido ciego, ¿quién pecó, él o sus padres?
Jn 9,2.

El 20 de diciembre de 2011 moría Robert Ader. Había creado un término exitoso, “psiconeuroinmunología”, a partir de sus investigaciones. En colaboración con Nicholas Cohen, hizo un experimento interesante. 

Desde Pavlov se sabe del valor de los reflejos condicionados en animales, como herramienta experimental. Pues bien, Ader y Cohen indujeron en ratas una aversión al agua con sacarina, asociando su ingesta a la presencia de ciclofosfamida, que les provocaba trastornos gastrointestinales. Tras este aprendizaje, las ratas sólo bebían agua cuando la sed las vencía. Además de provocar alteraciones digestivas, la ciclofosfamida es un agente inmunosupresor. En comparación con controles, se vio que las ratas que habían “aprendido” a asociar la ingesta de agua dulce con efectos perniciosos, mostraban una inmunosupresión frente a la inyección de un antígeno en el momento de beber, aunque entonces no hubiera ciclofosfamida en el agua azucarada. Es decir, un animal podía “aprender” a deprimir su respuesta inmune. Algo ocurría entre su cerebro y sus linfocitos.

La vieja idea de que el estado anímico se relaciona con la enfermedad somática, se reforzó con experimentos de este tipo y otros muchos hallazgos como la existencia de una comunicación molecular bidireccional entre neuronas y linfocitos.

La interacción psicosomática es bien conocida y, por eso, todo ensayo clínico riguroso contrasta los efectos del medicamento que se pretende probar con lo que se llama un placebo, algo que se le asemeje lo más posible, pero sin contener fármaco activo alguno. Para evitar incluso la posible influencia de quien administra el fármaco o el placebo, los ensayos suelen hacerse en el modo conocido como doble ciego (ni el paciente ni quien administra el tratamiento saben si se trata de un placebo o de un principio activo).

Precisamente ese efecto placebo daría cuenta del valor que tuvo una medicina que fue mágica antes de ser mejorada por el avance científico. Un ejemplo de su importancia lo proporciona un meta-análisis publicado en PLOS Medicine, que puso en tela de juicio la eficacia clínica de los antidepresivos

Hay una enfermedad especialmente aterradora en nuestra época, el cáncer. No es algo que haya aparecido ahora; ya hay constancia escrita de ella en el papiro de Ebers, pero sigue induciendo una mortalidad que no ha disminuido mucho desde entonces (globalmente; hay formas especificas en las que sí se han logrado grandes avances terapéuticos).

El efecto placebo sugiere que la fe puede curar con independencia del objeto de esa fe. Y, si es así, ¿Por qué no cabría esperar que la fe religiosa o la confianza en la propia fuerza activen recursos inmunes que venzan el cáncer? Tal fe puede inducir un viaje a Lourdes o a México (allí fue Steve McQueen en busca del laetril). Hay quien confía en ser inundado benéficamente por “energías positivas” de amigos, en la fortaleza conferida por técnicas de meditación y visualización, o en dietas alcalinas pretendidamente basadas en los descubrimientos de Warburg.

Lo cierto es que, a veces, sólo con una frecuencia de uno entre cien mil casos, se da una regresión espontánea del cáncer, entendiendo por tal su desaparición completa o parcial, temporal o permanente, en ausencia de tratamiento específico. Hay casos descritos en este mismo año relativos a regresión de cáncer de pulmón y de hígado. Se ignora por qué ocurre algo así, asumiéndose en general que hay una relación con una respuesta inmune asociada a infecciones agudas, pero no es asumible que ningún tipo de fe tenga nada que ver en algo tan curioso.

No parece en absoluto que alguien pueda influir con su actitud o voluntad en la evolución de un cáncer, sino sólo en cómo afrontar un proceso así. Recientemente “El País” recogía una afirmación muy clara al respecto realizada por Patricia Brasinello: "no existe ninguna evidencia científica de que una buena actitud influya en el proceso. Las células no lo notan”. Además de sentido común, hay base empírica para tal afirmación. Por ejemplo, en un estudio de 2001 recogido en el New England Journal of Medicine, se mostraba que la supervivencia en el cáncer de mama metastático no tenía relación con el apoyo psicológico, aunque se reconocía la importancia de éste para afrontar la enfermedad, incluyendo la percepción del dolor. 

Ni siquiera en Lourdes creen propiamente en milagros. La asociación “Lourdes cancer espérance”, realza más bien como milagroso el enriquecimiento espiritual de quienes allí peregrinan esperanzados; no de la posibilidad de su curación.  

No esperemos en milagros más allá del milagro mismo de la vida, que implica la muerte. Si nuestra mente influye en el cuerpo, no sabemos ni cómo ni cuándo en términos mecanicistas. Ante una enfermedad tan cruel como muchas formas de cáncer, sólo cabe el mejor tratamiento médico posible (tan limitado como duro tantas veces) y todo lo que ayude a una persona a afrontar algo así. Por eso, es despreciable oír algo tan estúpido como que alguien tiene que luchar contra su enfermedad o que esa guerra la va a ganar (se decía estos días que un célebre futbolista le ganaría el partido a su cáncer de pulmón). Es cruel porque parece que, si alguien sucumbe, lo hace por no luchar, por no ser optimista, asertivo, etc., etc. Tanta palabrería de la llamada “psicología positiva” es profundamente negativa y negativamente ha calado en un mundo presuntamente ateo pero más religioso que nunca. 

Renace el pecado, no como transgresión moral, sino higiénica. Si alguien enferma, él, por su mala vida (fumar, beber, ser sedentario, etc.) o sus padres, por transmitirle malos genes, serán culpables. Y esa culpa sólo es perdonable con un cambio de vida: "disfrutando" las "cosas pequeñas" de la vida, sintiendo el cariño de los otros, teniendo confianza en uno mismo, etc.

Lucha, sé fuerte… ¿cómo se hace eso? Sólo desde la perspectiva absurda de conferirle ser a la carencia, de ontologizar la enfermedad, se puede proclamar como mandato higiénico o pretendidamente terapéutico, la mayor insensatez de que una mente luche contra lo que su propio cuerpo alberga. El cuerpo ya tiene sus mecanismos, recursos y recuerdos. No lo vamos a cambiar cuando está enfermo por pensar en él o por ver amaneceres y flores, aunque tengamos, eso sí, la opción de sobrellevar las cosas del mejor modo posible.

Se da algo fuertemente paradójico, aunque sólo lo sea en apariencia. Por un lado, se reduce lo biográfico a lo biológico de tal modo que uno es lo que dictan sus genes, y ama o sufre según esté su balance de neurotransmisores. Pero, por otro lado, se pretende que, cuando ocurre lo peor, se dé una transformación biográfica que controle lo biológico. Tal ilusión es facilitada por iluminaciones que acontecen en situaciones límite, propiciando a veces la producción de libros tan patéticos como el escrito por Eugen O’Kelly.

Sin duda, somos en un cuerpo. Y, por un lado, el cuerpo tiene sus limitaciones, una de las cuales es el hecho de ser mortal. Pero, además, la influencia que nuestra mente pueda tener en el cuerpo del que emana y que la alberga no depende de ningún presente que podamos controlar sino de un pasado que sólo algo tan laborioso como el psicoanálisis puede desvelar. En cualquier caso, en lejana analogía con Lourdes, el milagro del psicoanálisis no reside en el objetivo concreto, sintomático, que pueda suscitarlo, ni siquiera el temor a la muerte. Los taoístas buscaron sin éxito la inmortalidad pero en ese camino encontraron una forma de sabiduría compatible con la mortalidad misma. Lo importante es buscar… ignorando propiamente la finalidad real de la búsqueda. Si lo logramos, ya lo sabremos. Incluso en ciencia.

Los lacitos rosa y las carreras contra el cáncer o la frenética recogida de tapones no lo frenarán. Sólo lo hará la investigación científica y, para que ésta tenga éxito, no basta con dinero ni precisa planes ni memorias. Requerirá de todo aquello de lo que ha sido desprovista por la insensatez cientificista reinante que es el peor enemigo de la ciencia misma. Necesitará calma, juego y pasión


lunes, 19 de octubre de 2015

Perdonar es olvidar

"Como el náufrago metódico que contase las olas 
que faltan para morir, 
y las contase, y las volviese a contar, para evitar 
errores, hasta la última, 
hasta aquella que tiene la estatura de un niño 
y le besa y le cubre la frente, 
así he vivido yo con una vaga prudencia de 
caballo de cartón en el baño, 
sabiendo que jamás me he equivocado en nada, 
sino en las cosas que yo más quería."
(Luis Rosales) 

A veces se oye decir a alguien que perdona pero no olvida. 
Quien diga eso no sabe qué es perdonar, porque no hay perdón si no hay a la vez olvido.

El recuerdo del mal implica el odio. No cabe otra alternativa que el olvido o el odio. El perdón exige el olvido. No puede darse sin él.

El bautismo cristiano fue inmersión y de ella conserva el recuerdo de la ablución. Y esa agua es, como símbolo, aunque sea tomada del grifo o del río Jordán, la del Leteo, la del olvido. En este caso, es Dios mismo quien se olvida, no bebiendo él el agua sino dándola. Esa es la belleza del perdón divino, del demasiado humano. Se perdona no sólo olvidando sino haciendo que quien es perdonado olvide que mereció serlo.

En un discurso tan memorable como olvidado, en plena guerra civil, en pleno odio entre los más cercanos, Manuel Azaña finalizaba con tres palabras, que no fueron oídas, que siguen sin serlo: “paz, piedad, perdón”. No basta con la paz, aunque es imprescindible. La piedad supone el reconocimiento de que somos capaces de lo peor y por eso esas tres palabras han de ir en ese orden. La paz es precisa para la piedad que hace posible el perdón que deseaba Azaña para los culpables, quizá incluyéndose a sí mismo.

El olvido que implica el perdón es la gran desmemoria que nos hace humanos y que no afecta al recuerdo amoroso de la pérdida, el que exige la memoria histórica, el que supone la dignidad.

Nada más acaramelado que el sentimentalismo con el que se alude a veces a las palabras de Jesús cuando pedía perdón divino para quienes no sabían lo que hacían al crucificarle. Pero no había exceso sentimental en ellas, ni mucho menos afán masoquista de martirio, sino una mera asunción del hecho de la fragilidad del otro, de quien, por ignorancia, no era culpable del crimen. Olvidar eso ha supuesto muchos horrores por parte del cristianismo.

Buda habló de la compasión, en el sentido auténtico de esa palabra, tan alejado del que con frecuencia se le da. Uno es humano en la medida en que compadece, en que comparte la pasión del otro, en que se da cuenta de la unidad en la limitación, padeciendo con. Y ese darse cuenta alcanza todo lo existente, que se hace merecedor de la misma compasión que quien compadece. Desde un insecto hasta la persona que creemos más buena…Todos somos capaces de llegar a compadecer y de ser objetos de compasión, porque todos somos determinados, como los insectos, o culpables por ser libres, porque la libertad es también condena, como nos recordó Sartre. Una condena merecedora de compasión, como todas las condenas.

Y, si no sabemos perdonar olvidando, será mejor que sepamos que estamos odiando. No es malo reconocernos en el odio. Será el momento de lucidez de partida para vernos cómo somos, como seres frágiles, a quienes sostiene el odio por ser aun impermeables al amor.

Y es que, como dice Luis Rosales, a fin de cuentas, no nos equivocamos en nada; sólo en lo que más queremos.

lunes, 12 de octubre de 2015

El premio Nobel de Medicina de 2015 nos recuerda el siglo IV d.C.


"Por medio de este hacer creativo, por medio del trabajo en vistas a una realización, el hombre da un sentido a su vida. Tal es su vocación, aquello a lo que ha sido llamado"
François Cheng.


En su testamento, Alfred Nobel expresaba su deseo de que el premio que lleva su nombre se otorgara a aquellos que, "durante el año anterior, hubieran conferido el mayor beneficio a la humanidad", por contribuciones al avance científico (se centró en la física, química, fisiología y medicina) y a la economía, o creando buena literatura y trabajando por la paz.


Es muy difícil cumplir literalmente esa voluntad. El comité encargado de conceder un premio Nobel considera que el “año anterior” no se refiere a contribuciones realizadas en él, sino más bien a que es en dicho año cuando son reconocidas. Se entiende así que se premien investigaciones que tardan mucho en ser valoradas, como ocurrió en el caso de Barbara McClintock, premiada en 1983 por un descubrimiento realizado en 1944. Hay quien, por morirse, no llega a ser reconocido.

Es muy importante que el comité Nobel entienda que la solución de nuestros problemas médicos por parte de la ciencia no es milagrosa sino que es precisa mucha investigación básica original y, por ello, es natural que premie a personas que han contribuido poderosamente en ese sentido, elucidando los mecanismos moleculares de nuestra fisiología y desarrollando métodos novedosos para ello. En una época en que tristemente se afianza el “publish or perish” en tantas carreras científicas, es bueno recordar que tan preciado galardón se ha otorgado también por avances metodológicos más que propiamente epistémicos. Así ocurrió con el marcado isotópico o con la proteína flurescente verde; también se premió la amplificación del ADN por la reacción en cadena de la polimerasa (PCR). De hecho, uno de los pocos que recibieron dos veces el premio Nobel en Química fue Frederick Sanger por sendos descubrimientos metodológicos relativos a desentrañar la secuencia de aminoácidos en una proteína y la de bases en el ADN.

A pesar del gran reconocimiento que supone el “Nobel”, muy pocos de quienes lo reciben son “populares” más allá de ámbitos relativamente restringidos a los que han contribuido poderosamente.Tal vez, en nuestro país, los más conocidos sean Cajal y Ochoa, por ser españoles, y también… Flemming, cuya popularidad deriva de haber descubierto la penicilina; estando preparada su mente, supo ver algo bueno en lo aparentemente malo, la contaminación de uno de sus cultivos bacterianos por un hongo. Y es que, si algo se le pide ingenuamente a un premio Nobel es que dé una respuesta a un problema cuantitativamente importante, sean las infecciones o el cáncer. Ya antes de Flemming, en 1939, Gerhard Domagk, que demostró la eficacia de las sulfamidas, no pudo recibir el premio porque no le dejó Hitler, en protesta porque el de la paz se le hubiera concedido a Carl von Ossietzky, internado en un campo de concentración nazi. Y pocos se acuerdan de los avatares del descubrimiento y uso de la insulina, incluyendo el olvido de Best por el comité Nobel en 1923.

Podría decirse que el comité Nobel encargado de nombrar a los premiados en Fisiología y Medicina, pero también en Química, ha mirado en general al gran problema médico del primer mundo: el cáncer. Se sabe que no estamos ante algo simple, que se requiere un profundo conocimiento de los intrincados mecanismos celulares y es ese avance epistémico, más lento de lo que todos quisiéramos, el que va aportando excelentes resultados por parte de tantos merecedores del premio, aunque no todos lo reciban. Pero, en realidad, el cáncer no es tan importante; no, al menos, si uno es justo en su mirada a un mundo en donde mucha gente se muere por enfermedades aparentemente mucho más simples de abordar que el cáncer. Las parasitosis son un amplio grupo de ellas, abarcando al paludismo y las filariasis.

Precisamente por eso, el premio Nobel de este año ha sido distinto, especial. Ha premiado a tres investigadores que dedicaron sus esfuerzos a encontrar medicamentos contra estas enfermedades que, por lejanas geográficamente, tendemos a ignorar. La comunicación del comité siempre es escueta; también lo ha sido ahora: “The Nobel Prize in Physiology or Medicine 2015 was awarded with one half jointly to William C. Campbell and Satoshi Ōmura for their discoveries concerning a novel therapy against infections caused by roundworm parasites and the other half to Youyou Tu for her discoveries concerning a novel therapy against Malaria”.

La ceguera de los ríos es una una enfermedad parasitaria crónica causada por el nematodo Onchocerca volvulus y llegó a ser la segunda causa más importante de ceguera en el mundo. Para su tratamiento, el japonés Satoshi Ōmura miró al suelo y de él aisló un nuevo microorganismo llamado Streptomyces avermitilis con una fuerte actividad antiparasitaria. El principio activo responsable, la avermectina, fue identificado y caracterizado por William C. Campbell, trabajando en la empresa Merck & Co., Inc. Hoy en día se usa un derivado llamado ivermectina en el tratamiento de la ‘ceguera de los ríos’ y de la elefantiasis. En 1987 Merck decidió donarlo a los países donde la oncocercosis es endémica. En colaboración con la OMS se han tratado más de 200 millones de personas.

Youyou Tu describe de un modo muy hermoso en Nature Medicine su trayectoria como investigadora. Estudió medicina tradicional china entre 1959 y 1962, siendo impresionada por la belleza del pensamiento filosófico subyacente a una visión holística del ser humano y del universo. En 1967, se incorporó a un proyecto maoísta secreto que impulsó la investigación contra la malaria. Tras investigar más de 2400 preparaciones de hierbas medicinales, encontró un extracto de la Artemisia annua L. que inhibía el crecimiento del parásito. Buscó bibliografía y la encontró…en un libro de Ge Hong (283 - 343) en el que se decía algo aparentemente anodino, pero que resultó crucial. Recomendaba para las fiebres intermitentes un puñado de quinghao (nombre que se le daba a la planta) en dos litros de agua, escurrir el jugo y beberlo. Esa simple frase inspiró la forma de realizar el extracto de lo que era un principio activo termosensible. Finalmente, en 1971 se obtuvo un extracto neutro eficaz al 100% en ratones y monos infectados con el parásito Plasmodium berghei y Plasmodium cynomolgi respectivamente. Después, se comprobó la eficacia en personas tratadas, en comparación con las que lo habían sido con cloroquina. A partir de ahi, se procedió a analizar químicamente el componente activo, a sintetizarlo y a producir derivados más eficaces, como la dihidroartemisina.

Parece que las artemisinas podrían ser también interesantes en tratamientos oncológicos y ya han aparecido publicaciones en ese sentido.


El premio Nobel de este año, como tantas otras cosas más cotidianas, menos relevantes, nos sugiere una reflexión importante. Somos con otros y en el tiempo. Eso significa que nada humano nos puede ser ajeno, que el sufrimiento propio o próximo no puede ocultar el de tantos que no han tenido la suerte de nacer en el primer mundo. Ser en el tiempo, ser en la Historia, nos da sentido a nosotros mismos. 

Un hombre prácticamente desconocido, preocupado por alcanzar alquímicamente la inmortalidad y por sintetizar el taoísmo y el confucianismo, escribió sobre su cosmovisión hace muchos siglos. Fracasó y se murió, pero algo de lo que escribió sirvió para que muchos a quienes él no conocería pudieran sobrevivir al paludismo y sirvió también para que alguien que lo leyó muchos años después pudiera ganar el premio Nobel de Medicina.