Mostrando entradas con la etiqueta Subjetividad. Mostrar todas las entradas
Mostrando entradas con la etiqueta Subjetividad. Mostrar todas las entradas

miércoles, 3 de mayo de 2023

Ni la subjetividad es algorítmica ni la IA es inteligente.

 

Imagen tomada de pixabay

    Ante el curso que está llevando el “chat-GPT4”, se han producido reacciones de profesionales de distintos ámbitos del conocimiento con el intento de reflexionar sobre lo que puede suponer el desarrollo de la inteligencia artificial (IA), solicitando una moratoria, algo que recuerda los recelos que las técnicas de ADN recombinante indujeron en su día y que culminaron en la conferencia de Asilomar en febrero de 1975. Algo bien distinto. A esas voces se ha unido últimamente la de Geofreey Hinton, con múltiples reconocimientos por su trabajo en Google y que deja la empresa para tener más libertad personal a la hora de expresar sus temores sobre la IA que se avecina. Su llamada de atención se ha centrado, por el momento, principalmente en los riesgos de desinformación y de desempleo que la IA puede provocar. 

    No me entusiasma la prospectiva científica, aunque algunas veces quienes la hacen acierten; un ejemplo lo proporcionan páginas de “La Tercera Ola” de Alvin Tofller, en las que aludía, ya en 1980, al concepto de “prosumidor”; es difícil no serlo hoy en día, en que nuestros datos se han convertido en un bien comercial muy preciado. Pero tampoco hace mucha falta dicha prospectiva para enterarnos de que la evolución de la AI puede tener efectos no necesariamente buenos.


    En cualquier caso, no estamos ante un potencial salto cualitativo de la IA que parece surgir de la nada, sino que entronca en el enfoque “NBIC” (“nano-bio-info-cogno”) que tiene ya unos años, aunque ahora los avances de la IA parecen aproximarnos a marchas forzadas a esa singularidad con la que seguirá soñando Kurzweil. Sólo lo parecen.

Sabemos que la IA impresiona. Su modo GPT puede generar textos y confundir en trabajos escolares a profesores. Puede “crear”, dicen, arte, algo bien discutible. Se postula que su capacidad no es propiamente semántica y se limita al juego sintáctico, pero poco le importará esa distinción a quien use la IA o sea usado por ella. 

Parece que el “chatGPT” podrá sugerir, ante un cortejo de síntomas y signos, un diagnóstico que acabaría siendo más acertado que el que proporcione el ya viejo “Dr. Google” o todos los médicos juntos de la Clínica Mayo. En unión de sistemas robóticos como el Da Vinci (quién le iba a decir al renacentista por antonomasia que su nombre iría asociado a una máquina), el ejercicio clínico en toda su diversidad se acerca cada vez más, en la concepción de muchos, a la producción de coches, submarinos, armas o lo que se tercie, impulsando un neo-mecanicismo más duro del ya existente.


    El oráculo informático está depurándose a marchas forzadas. Atrás quedaron los buscadores tipo Google. Basta con preguntar sobre algo, pedir una información corta o larga sobre un tema… y tendremos una respuesta mejor de la que podría proporcionarnos otra persona, a la vez que en una fracción de tiempo casi instantánea. Y eso sirve o, más bien, servirá, para bien y, sobre todo, para mal. 

    Si un sistema AI nos permite predecir terremotos, bienvenido sea. Pero no es ese uno de tantos posibles objetivos bondadosos que a corto plazo se perciben. 


    El gran objetivo de la AI que se perfila no es epistémico sino sustitutivo… de nosotros. Es difícil que a corto plazo “emerja” una entidad autónoma que llegue a dominar el mundo, siendo más probable que esa AI sirva a un grupo humano (pseudo-democrático, dictatorial, comercial…), pero grupo selecto, al "servicio" de servidores voluntarios humanos, porque cada vez el ser humano, en singular, será concebido más como cosa que como sujeto. Ya asistimos a esa manipulación en “fakes” difundidas principalmente como imágenes en internet. Todas las tareas de servicio, por especializadas que sean, parecen absorbibles por la AI, con lo que es previsible una concentración de poder basada en la optimización de “recursos humanos”, expresión que siempre fue horrorosa. Y así son predecibles despidos masivos. Bajo la concepción de que todo proceso es algorítmico, por humano que sea, todo parece absorbible por la IA. 

No nos debiera sorprender. Entre todos, hemos ido alimentando al monstruo previsible. Hemos formado una sociedad de solitarios hiperconectados que excluye y castiga a quienes sólo sabían comunicarse de viva voz, presencialmente, no tecleando, con otras personas. Tampoco había mucha opción; no podemos vivir en un siglo anterior. 


    Las grandes mentes que no son amos de la IA pueden entrar en servidumbre voluntaria con ella y no al revés. Eso implica que la IA no tendrá en cuenta preguntas importantes sobre el mundo, su naturaleza y su historia, que quedarán reducidas al ámbito académico, porque esa IA no es creativa, no planteará ninguna teoría de cuerdas, no le interesará si un problema es P, NP o NP completo. Le importará un bledo todo lo que no sea inmediatamente pragmático en su propio servicio voraz de captación de datos y más datos. No “creará” ecuaciones consistentes sino sólo aparentes sobre física de partículas o lo que cualquiera desee. Y, siendo así, la propia ciencia corre un serio riesgo de quedar sofocada por pura pseudociencia elaborada por GPT. Nuestros científicos mantienen sus puestos en función de su impacto bibliométrico, lo que ya ahora genera una hiperinflación de publicaciones prescindibles, pero que aumentan “índices de impacto”. Es previsible un crecimiento exponencial de publicaciones sólo aparentemente científicas que no digan nada sustancial “creadas” por la IA para satisfacción del “investigador” de turno.


    No se va a crear un gran hermano cibernético. ¿Para qué? Las empresas no necesitan eso, sino vender. Y los líderes políticos, que no lideran nada, tampoco; entrarán en competición unos con otros con sus equipos de asesores preguntando obsesivamente a la IA .


    Un embrutecimiento de fondo está servido gracias al psicologismo conductista con sus libros de autoayuda, que ya incluyen el estoicismo, para aguantar la alienación que venga del supuesto avance con el que tendremos que lidiar, ese que alaba el cerebrocentrismo existente y, con ello, resalta la concepción algorítmica de la propia vida.


    Y, no obstante, tenemos aún la opción de seguir siendo libres, porque, por mucha IA que haya, somos singulares y nuestra subjetividad, la de cada uno, no es susceptible de simulación por ningún algoritmo. La IA nunca será traicionada, como nosotros, por lo inconsciente, porque no lo tiene, pero tampoco tiene, aunque cada vez se disfrace más al respecto, un ápice de consciencia.

 

martes, 28 de junio de 2016

El oráculo estadístico olvida lo subjetivo. Elecciones y Medicina



¿Qué me pasará a mí? ¿Qué le ocurrirá a mi ciudad?
Viejas preguntas que antes eran respondidas en Delfos, entre otros santos lugares. Sabemos algo de cómo era esa respuesta; era enigmática, ambivalente. Las murallas de madera tuvieron que ser traducidas a barcos para que Atenas se salvara. Temístocles supo interpretar el oráculo de la ciudad. Edipo fue mucho más torpe con el suyo personal.

Las preguntas subsisten aunque sea en un modo más descaradamente pragmático ¿Quién gobernará el país? o ¿Cuánto tiempo me queda de vida? También, ¿Seré afortunado? ¿Encontraré el amor? ¿Tendré trabajo?

La necesidad oracular persiste. Hay quien se gana la vida respondiendo. Una respuesta que puede darse con el auxilio de viejos métodos: echando las cartas, leyendo la mano, mirando una bola de cristal, consultando el I Ching…

También responde algo pretendidamente más serio, las matemáticas, la estadística. Cuanto más científico es o pretende ser un oráculo, más pierde su respuesta en riqueza cualitativa optando por lo cuantitativo o simplemente lo dicotómico. El oráculo genético es, en muchos casos, determinante. O lo era hasta que se descubrió la llamada resiliencia genética, un modo de decir que hay casos de personas que, “debiendo” ser enfermas porque lo dictan sus genes, no lo son.

Hay muchas preguntas que uno se hace sobre la vida misma y sus condiciones.
¿Se morirá, doctor? Probablemente sí. Y es más, podemos estimar esa probabilidad, por regresión logística, en 0.857.  
¿Cuál será la proporción de votos alcanzada por el Partido de Defensa Arbórea en las próximas elecciones? Pues se sitúa en una horquilla del 1,23 % al 2,35 % con una confianza del 95%. 
¿Debo tomar estanoles o estatinas si mi colesterol es superior a 200 mg/dL? ¿Qué dosis y cuánto tiempo? ¿Toda la vida? ¿Cuál es mi riesgo de sufrir un infarto si no me trato? Deberá tomar diez miligramos de la X-statina cada noche todos los días. De no hacerlo, la probabilidad de que sufra un infarto en los próximos cinco años, teniendo en cuenta su edad y demás factores de riesgo es de 0,32. Si lo hace, esa probabilidad se reduce muchísimo, pasando a ser de 0,19.

Esas son muestras de preguntas y respuestas “científicas” posibles. En la práctica, aunque no se proporcionen datos numéricos a pacientes (ni los sepan sus médicos), las respuestas ante cuestiones tan diversas como las electorales y las clínicas suponen una métrica, probabilística, pero métrica al fin. 

Desde que Fisher utilizó la estadística en sus experimentos con plantas han pasado unos cuantos años. Él, Pearson, Student (pseudónimo de William Sealy Gasset) y tantos otros, hicieron furor en el asentamiento de lo que se llamó “Bioestadística”.

Cualquier trabajo médico que se precie implica un análisis estadístico, algo que dice hasta qué punto los resultados obtenidos son “significativos” o no. Parece simple. Se trata de contrastar una sencilla hipótesis, llamada nula, que dice que toda relación observada entre variables se debe al azar. Si el análisis estadístico muestra que eso es muy improbable, rechazamos tal hipótesis y admitimos una relación que, en el mejor de los casos (el experimental), llega a ser entendida como causal. Es así que se han hecho posibles los ensayos clínicos, el cálculo de riesgos relativos y absolutos, el número necesario de pacientes a tratar con un medicamento dado para evitar una muerte por una enfermedad concreta, etc., etc. 

El cálculo estadístico se inició con varios términos, siendo curioso uno de ellos, “esperanza matemática”. Esperanza. Eso es lo que hay cuando hablamos de estadística. Esperamos que el Partido de Defensa Arbórea consiga tantos escaños, esperamos que un paciente sobreviva, esperamos que un medicamento sea eficaz, esperamos poder disminuir un riesgo de muerte. Esperamos y cuantificamos esa esperanza.

Y esas esperanzas son muchas veces frustradas porque el oráculo estadístico no es enigmático pero sí sensible. No precisa ser interpretado subjetivamente pero requiere prescindir de la subjetividad misma, y una buena muestra de ello son los ensayos clínicos controlados a doble ciego que tratan de neutralizar el efecto placebo.

Y ocurre que un oráculo así, tan matemático, falla demasiadas veces. Un buen ensayo clínico bastaría; no precisaríamos meta-análisis. Pero… ¿cuándo podemos hablar de un “buen” ensayo clínico? Por otra parte, la estadística parte de un criterio de igualdad. Todos iguales, todos individuos, con lo que una frecuencia muestral se hace equivalente a una probabilidad individual. Pero eso no sucede nunca en la clínica, que trata a sujetos y no individuos y, con razón, los bayesianos se oponen a ese criterio frecuentista y hacen de la probabilidad un grado de… fe, de confianza subjetiva (pero desde el punto de vista del médico), que se modificará a posteriori en función de pruebas. 

Muy recientemente hemos visto el fracaso aparente de la Estadística. En el Reino Unido se decidió un “Brexit” con el que no se contaba y en España no se dio el “surpaso” anunciado en la comparación de dos partidos. Se hicieron encuestas randomizadas y estratificadas que manejaban grandes cantidades de datos para obtener un alto grado de confianza (cuantificable en función del tamaño muestral). ¿Cómo es posible que fracasaran sus estimaciones? A fin de cuentas, estamos ante el problema aparentemente más simple en análisis estadístico: estimar una sola variable, la proporción de votos en cada caso.

Tanta fe hay ya en el cálculo estadístico que rápidamente ocurrió un fenómeno de los llamados “virales”. El resultado electoral, que negaba la conclusión estadística, sólo sería explicable por manipulación, por conspiración. Y desde esa conspiranoia se reclaman auditorías, vigilancias, se asume una vez más la infantilización de la sociedad que vota.

Si tales fracasos estrepitosos (y muy costosos económicamente) ocurren con la estimación de una proporción, con lo más simple, ¿Qué no ocurrirá en tanto meta-análisis que “demuestra” la eficacia de un medicamento o la maldad de un factor de riesgo? ¿Qué no sucederá en cualquier regresión logística a la que se le escapen variables importantes?

Es obvio que el problema no reside en el aparato estadístico ni en los ordenadores que calculan ni en los programadores ni en las agencias. La estadística acaba chocando con la subjetividad. Bien puede ocurrir que un pirómano arrepentido acabe votando al Partido de Defensa Arbórea  o que el más ferviente defensor de los árboles no tenga gana de votar ese día o que vote en contra por haber hallado trabajo en una industria papelera. Y todas esas decisiones, subjetivas, pueden cambiar sin saberse bien por qué entre el día de la encuesta y el día de la votación.

Y, en Medicina, un enfermo es él, sólo él, aunque se parezca a muchos más en los síntomas y signos que muestra y bien puede ocurrir que la salvación esperada en forma de cápsula roja le produzca náuseas, le dé taquicardia o le produzca un fallo hepático fulminante. Y también puede suceder que concluyamos, desde un estudio de correlación, que el número de cigüeñas en un pueblo tiene que ver con el número de niños que en él nacen (se han publicado conclusiones menos llamativas pero tanto o más estúpidas).

Los bayesianos han supuesto un soplo de aire fresco sólo aparente frente a los frecuentistas. Ambos acaban ignorando la subjetividad de aquél a quien dicen mirar, sea como votante o como paciente. Ese olvido conduce a lo peor, no sólo en expectativas de voto; también en cuestiones de salud.

lunes, 20 de junio de 2016

El olvido de la subjetividad. Ratones autistas




Muy recientemente (el 16 de junio), la revista “Cell” publicó un trabajo muy laborioso (por la cantidad de métodos que implica su diseño experimental) por parte del grupo de Costa-Mattioli.



Los autores, tras recordar que hay datos que avalan la relación de obesidad materna con una mayor incidencia de trastornos del espectro autista, así como alteraciones de la flora intestinal en estos pacientes con respecto a controles, muestran en su estudio que la descendencia de ratones hembra sometidas a una dieta muy rica en grasas fue socialmente perturbada y también tenía alterada su flora intestinal. La reintroducción de una bacteria, Lactobacillus reuteri, mejoró la sociabilidad en estos ratones. Esta bacteria promueve, por un mecanismo aun no claramente establecido, la síntesis de oxitocina cerebral que, activando neuronas del área tegmental ventral (algo que también ocurre en seres humanos), influiría en la sociabilidad.  En la discusión de sus resultados, proponen la utilidad potencial de una combinación adecuada de probióticos para el tratamiento de pacientes con trastornos del espectro autista.



Hay muchas analogías en la fisiología y fisiopatología de distintos mamíferos, lo que ha propiciado el uso de los llamados modelos experimentales, que tienen ventajas e inconvenientes. Por un lado, facilitan una experimentación que no sería ética ni rápida en el caso de personas; por otro, no siempre es factible extrapolar directamente los resultados obtenidos en modelos animales a la situación humana (el caso de la talidomida ha sido un dramático ejemplo). La dificultad de esa extrapolación se hace claramente mayor cuando hablamos de lo psíquico.



Se ha intentado, con mayor o menor acierto, relacionar alteraciones psíquicas humanas con un comportamiento observable animal, es decir, lo subjetivo humano con lo medible animal. Eso ha ocurrido con la depresión y ocurre también con el autismo. En el ejemplo que proporciona este trabajo,  se evaluó la sociabilidad de los ratones midiendo la cantidad de tiempo que cada uno de ellos interactúa con una jaula vacía, con otro ratón familiar y con otro que le es extraño.



El trabajo realizado es riguroso, laborioso, y proporciona conclusiones interesantes… para estudiar la influencia de la flora intestinal sobre la sociabilidad observable en ratones. Nada más. Pero basta una sugerencia final en su redacción para que estemos de nuevo, como cada día, ante el condicional esperanzador, ante el “podría” y no es extraño que los periódicos se hagan inmediatamente eco de ese “podría”; en este caso, de la bondad de los probióticos.



La Ciencia no vive de condicionales, aunque precise hipótesis y teorías, sino de hechos contrastables empíricamente. Lo que ocurra en el comportamiento "social" de ratones es interesante, de momento, sólo para ratones. Estamos en un tiempo en el que, tal vez por la necesidad de captar fondos para líneas “productivas”, los resultados obtenidos en ellas han de impactar al gran público. Eso facilita que un trabajo riguroso en el método, como el aquí comentado, lo sea menos en su redacción, en la que parece confundirse con frecuencia correlaciones con causalidades, e impresiones con conclusiones.



En ausencia de relaciones lineales claras de causalidad, tenemos la peligrosa estadística. Una amplia revisión publicada en 2011 (The California Autism Twins Study) reveló que la influencia de factores genéticos en la susceptibilidad a desarrollar autismo puede haber sido sobreeestimada, destacándose la posible importancia de factores ambientales: edad parental, bajo peso al nacer, partos múltiples e infecciones maternas durante el embarazo. No es descartable que la flora intestinal tenga su importancia. Ver en ella el factor clave es, cuando menos, prematuro.



Suele ocurrir que la necesidad de solución ante algo dramático se satisfaga con respuestas simplistas. Así, se ha relacionado sin base el autismo con el conservante de vacunas, lo que ha propiciado en mayor o menor grado posiciones anti-vacuna, con consecuencias letales en algún caso. ¿Serán los probióticos la gran prevención o solución para el autismo? Sería magnífico pero precisamente los dislates del movimiento anti-vacuna nos advierten del riesgo de simplificar en exceso.

viernes, 20 de noviembre de 2015

Ciencia y repetición

En la investigación científica no basta con que un investigador encuentre algo relevante; debe ser verificable también por otros. Esa necesidad de reproducibilidad confiere poder al método. Una observación astronómica puede ser realizada por múltiples investigadores; se trata de una reproducibilidad por simultaneidad colectiva. Un experimento puede repetirse por un mismo investigador y por otros utilizando los mismos métodos. Sería la repetición a lo largo del tiempo.

Cuanto más relevante o extraordinario sea un hallazgo científico, mayor será la necesidad de reproducir su descubrimiento pues, como indicaba Barry Beyerstein, “las afirmaciones extraordinarias demandan una evidencia extraordinaria”. Ni la fusión fría ni los experimentos que apuntaban a la eficacia de la homeopatía fueron reproducibles. Sin esa repetición, su aparente relevancia inicial quedó eliminada. 


La repetición es necesaria para comprobar que una relación causal obtenida por un grupo de investigación (ya no suele haber investigadores aislados) es real y no mero efecto del ruido, sea éste intrínseco a los instrumentos de medida y a alteraciones en reactivos químicos o biológicos, sea causado por la interferencia de variables distintas a aquellas que se investiga. 


El ruido instrumental cobra gran importancia en mediciones físicas, en tanto que el ruido inherente a múltiples variables es importante en el ámbito biológico. Es tal la importancia del azar que todo control es poco. Un ensayo clínico, un estudio epidemiológico de cohortes, por ejemplo, se hacen para contrastar que hay señal y no ruido. Y, por muy bien realizados que estén (lo que requiere “neutralizar” variables de confusión mediante la randomización y estratificación de grupos a comparar), precisan la repetición que suele revelar efectos no idénticos y que suponen muchas veces la necesidad de meta-análisis. La tan manida significación estadística (expresada por el valor de “p” o por un intervalo de confianza) está en crisis ante el enfoque bayesiano pero, más allá de la discusión entre frecuentistas y bayesianos, parece obvio que lo revelador haya de ser comprobado y que no baste un único experimento. 

El 3 de septiembre un comentario de Glenn Begley en Nature indicaba que una encuesta realizada por la “American Society for Cell Biology” revelaba que más de dos tercios de investigadores encuestados habían sido incapaces, al menos en una ocasión, de reproducir sus resultados publicados. También Nature recogía que, en un estudio, sólo 6 de 53 publicaciones relacionadas con la oncología clínica fueron reproducibles.  Todo eso es ciertamente preocupante y ha motivado una iniciativa dirigida a mejorar la situación, la “Reproducibility Initiative”

Además del ruido, hay un elemento importante que no es tenido suficientemente en cuenta. Se trata de la subjetividad, y por partida doble. Por un lado, la del investigador; no todo el mundo es honesto, tampoco en ciencia. Por otro, la del sujeto mismo cuando se le considera objeto de investigación.


El método científico riguroso implica la honestidad del investigador y la reproducibilidad de los resultados que obtiene.  Pero eso parece a día de hoy un tanto utópico. En 2009, Daniel Fanelli hizo una revisión sistemática de encuestas sobre conducta científica, fijándose en lo que llamó “prácticas de investigación cuestionables” (no sólo fraude).  En su trabajo, publicado en PLOS One, concluía que hasta un 34% de los investigadores las había cometido.  Y es que, ni en el trabajo que requiere mayor objetividad puede eliminarse el factor subjetivo. Si no hay honestidad, la recolección de datos, el análisis de relaciones entre ellos, el aparente descubrimiento interesante… carecen de valor (sutiles manipulaciones de datos pueden dar lugar a relaciones significativas). Precisamente la repetición por otros permite consolidar o rechazar resultados interesantes. La ciencia requiere una objetividad intersubjetiva a la que no le es nunca suficiente con la confianza en el hallazgo singular, por mucha autoridad que tenga su autor o por la importancia del medio que publique sus resultados.

Pero donde más llamativa es la falta de reproducibilidad es en el ámbito de la Psicología. Brian Nosek publicó en Science que, analizando 100 artículos relevantes por parte de 270 investigadores, sólo fueron reproducibles un 39% de ellos.  En el mismo sentido, ya fue revelador un artículo publicado en 2012 por John P.A. Ioannidis en el que se mostraba que la tasa de replicación de publicaciones psicológicas era inferior a un 5%, llegando a expresar que la prevalencia de falacias publicadas podría alcanzar el 95%.
 

Hubo un trabajo que no se llegó a publicar y que se intentó reproducir. En 2010 Matt Motyl había descubierto que el hecho de ser políticamente radical se relacionaba con una visión de blanco o negro cuando ambos iban separados por una escala de grises. En colaboración con Brian Nosek, la repetición mostró que la relación mostrada en el estudio inicial, con clara significación estadística (p = 0.01) se disipaba porque el mismo cálculo estadístico sobre los nuevos datos reveló que eran atribuibles al azar (p = 0.59)

¿Por qué ocurre esto especialmente en Psicología? No cabe atribuirlo a las mismas causas que en el ámbito de la Biología o de la Medicina. Hay algo añadido que es intrínseco a la propia Psicología pretendidamente científica: el olvido de la subjetividad. Matt Moyl actuó honestamente desde el punto de vista metodológico; repitió su experimento y vio que su hallazgo inicial se desmoronaba. Pero lo que pretendía mostrar Matt Motyl parece una solemne tontería, comprensible sólo, como tantas otras, en el marco reduccionista cognitivo - conductual en que nos hallamos. El problema de la no reproducibilidad en Psicología no es un problema real o, más bien, lo sería sólo en el caso de la psicología en modelos experimentales animales. El problema reside esencialmente en que la subjetividad no obedece a medidas por mucho análisis factorial y tests ordinales que se hagan. Y, siendo así, difícilmente se podrá encontrar algo llamativo y reproducible aplicando al alma los mismos métodos que a las células de un cultivo o a la genética de moscas. En publicaciones de Psicología las famosas “p” no son, en general, muy creíbles.

El científico se identifica cada día más con el investigador, aunque los conocimientos científicos de éste sean muy limitados. Y la carrera del investigador es ahora la de alguien que publica artículos en revistas que tengan el mayor impacto posible (hay revistas de alto impacto que recogen publicaciones que no lee nadie, por otra parte). El tristemente célebre “publish or perish” es una realidad; quien no entre en esa dinámica verá cercenadas sus posibilidades para ser investigador. Si es clara una relación, pero la “p” es de 0.06, es un fastidio, y tal vez reuniendo más datos o eliminando algunos se alcance significación; de hecho, 0,06 es cercano a 0,05 apuntando a que algo hay. ¿Por qué no afinar un poco y publicarlo con una "p" mejor? ¿Es que acaso nadie lo hace? Esa es la situación que se da en no pocos casos. Luego vendrán los metaanálisis e incluso los meta-metaanálisis si lo mostrado es relevante y, de confirmarse, el que primero lo haya publicado verá su noble recompensa curricular e incluso hasta mediática. 


El escepticismo, esencial en el método científico, es así castigado por un sistema de promoción científica que premia la prioridad a expensas del rigor y de la honestidad que lo hace posible. A la vez, se asiste paradójicamente a un culto al escepticismo como creencia. 


Freud nos habló de la importancia de la compulsión de repetición. Tendemos a repetir lo peor para nosotros mismos. Y eso ocurre también en donde todo parece claro y consciente, en el ámbito de la ciencia, pues en la actualidad muchos investigadores tienden a repetir lo peor, que, en ciencia, es precisa y paradójicamente, la falta de repetición.