martes, 7 de abril de 2009

La misión vida explicada a Rigoberto Lanz

Nota: Este artículo fue publicado en El Nacional, el sábado 12 de agosto de 2006, en respuesta a otro de Rigoberto Lanz en el que dicho autor maneja, en mi consideración, un marco histórico acerca del surgimiento de la ciencia totalmente falso.
________________________________________________
El pasado viernes 28 de julio, Rigoberto Lanz publicó en El Nacional un artículo intitulado “La Misión Ciencia explicada a los niños”. En ninguna parte del mismo es posible encontrar la explicación prometida por el autor en el título. Casi todo el artículo está más bien dedicado a denostar de “las ciencias conocidas” y de sus “mandarines”, con adjetivos que ocupan, prácticamente, dos de las tres columnas del mismo: “esta gafedad”, “el catálogo de necedades”, “rastrojos conceptuales”, “intelectuales anacrónicos”, “indigencia epistemológica”, “impunidad teórica” o “callosidad neuro-cognitiva”. Lo que si hace el señor Lanz, es asomar una caracterización del “modelo tradicional” de ciencia que él (ellos) “queremos desmontar”: 1.-“la ciencia es históricamente el saber dominante de La Modernidad”, 2.-“la racionalidad científica es constitutiva de la razón del capital” y 3.- “la lógica de la ciencia es la lógica del poder”.

Las dos primeras caracterizaciones nos permiten conocer la ubicación temporal que, de la ciencia, tiene el señor Lanz. La misma solo abarca los últimos 10 siglos, debido a que es en el siglo XI cuando comienza a aparecer la burguesía en y alrededor de fortalezas feudales amuralladas. De manera que la ciencia, si es un apéndice del episteme burgués como plantea el sr. Lanz, no podría tener más de 1000 años de existencia. Cualquier historiador sabe que esto es obviamente falso. La aparición de la filosofía y de la ciencia se da con la inauguración de una nueva actitud ante la producción del conocimiento que, entre otros, impulsó un pensador griego llamado Tales de Mileto (625-546 a.C.); y esto ocurrió hace casi 2600 años. Entre las hazañas de dicho pensador, quien es considerado el padre de la filosofía, está la de haber pronosticado un eclipse de sol. Pero Tales de Mileto llevo a cabo una hazaña aun mayor: promovió una actitud epistemológica revolucionaria para un momento en el que lo preponderante para explicar la realidad era la transmisión acrítica de los mitos. Dicha nueva actitud giraba en torno a la idea de que las hipótesis propias no había que defenderlas a ultranza sino criticarlas, abrir espacio para las observaciones de otros actores y tratar de derrumbarlas.

Esta es una actitud, ante el universo, contraria a la de las religiones y a la de, sus primo-hermanas, las ideologías. De esa actitud epistemológica fueron herederos, 25 siglos después, Albert Einstein, quien no protegió sus hipótesis sino que, por el contrario, dio indicaciones de cómo éstas podían ser falsadas, y el epistemólogo Karl Popper. De manera que la ciencia no es un órgano exclusivamente inherente al tiempo histórico de la burguesía. Su nacimiento es anterior al mismo y lo trasciende.
Pero voy a ir más allá con otro planteamiento: la ciencia hunde sus raíces en tiempos que están más allá del período civilizatorio. Cuando el homo Homo habilis fabricaba herramientas, hace cerca de 2 millones de años, se había sumergido ya en una actividad tecnológica, en una racionalidad instrumental, científica. Esa actividad de fabricación de herramientas lleva implícita procesos cerebrales mediante los cuales, el fabricante, se plantea un problema, hipotetiza una solución y predice un resultado. Es decir, ya hace dos millones de años, los ojos de nuestros antepasados estaban inundados de método y de teorías (¿Esto le dice algo amigo Lanz?). Luego, la visión de mil años es muy corta. Lo que nos pasa, en todo caso, se veía venir hace millones de años.

Por último me voy a referir a su tercera caracterización: “La lógica de la ciencia es la lógica del poder”. Concuerdo con Usted en que también en la ciencia funciona la lógica del poder. La misma funciona hasta en el amor de pareja (¿se acuerda de aquel libro llamado “Que hace el poder en tu cama”?). Cuando nuestros padres nos engendraron, salieron a la carrera 400 millones de espermatozoides. Sin ningún tipo de ética compitieron entre ellos y triunfó sólo uno; el mío, el de Usted y el de cada uno de los seres humanos que vive o ha vivido. La vida, desde el principio, esta impregnada por la búsqueda de supremacía, búsqueda de poder. Cierto, esto tiene consecuencias perversas; somos la primera especie que tiene conciencia de ello. Pero, como puede verse, “la lógica del poder” es un rasgo intrínseco de nuestros genes y no exclusivo de la actividad científica.

¿Es posible borrar “la lógica del poder” en las sociedades humanas? Confieso que en este punto, a veces, me embarga un pesimismo como aquél que se metió en el alma de Luís Buñuel al final de su vida. Pero cuando trabajo con los niños en la escuela rural, éste se desaparece y la risa y el optimismo toman su lugar. Entonces creo que es posible “rodear” la lógica del poder y ponerla a trabajar en función de la construcción de mundos mejores;…… pero esto implica mucha más creatividad que un listado de denuestos.


Ramón Francisco Reyes Echegaray / Maestro rural
email. ramonfrancisco3@hotmail.com

domingo, 20 de abril de 2008

¿Son confiables los coeficientes de confiabilidad?

Hay algo que no está del todo bien en muchos de los textos sobre metodología de la investigación, cuando catalogan un conjunto de métodos que supuestamente prueban la confiabilidad de los instrumentos de investigación social, bajo una denominación común: coeficientes de confiabilidad. Esta denominación común transmite información tácita sobre dichos métodos que, en realidad, es falsa. Para comenzar, estos métodos no miden “lo mismo”, por lo que no tendrían porque tener “una misma” denominación. Algunos de ellos miden el nivel de estabilidad de las respuestas (como el test – re test), otros miden la equivalencia de las respuestas (como las formas alternas) y, por último, están los que miden la coherencia interna.... también de las respuestas (tal es el caso de los métodos que trabajan con los datos recogidos en una sola aplicación como el alfa de Cronbach). Esta falta de unicidad, en cuanto a lo que realmente hacen estos métodos, puede llevar a situaciones paradójicas como aquella en la que un instrumento sea altamente confiable de acuerdo al coeficiente de "confiabilidad" test – re test, pero muy poco confiable de acuerdo al coeficiente de “confiabilidad” alfa de Cronbach. Hay algo en esta paradoja que no es confiable, .... y no es el instrumento de investigación evaluado.

Una segunda información falsa, tácitamente transmitida, es la de considerar que estos “diversos” métodos que miden cosas diferentes (sea lo que sea que midan), lo miden sobre nuestro instrumento de investigación. La verdad es que lo que ellos miden, lo miden sobre “las respuestas” dadas por las personas que conforman nuestra muestra y no directamente sobre el instrumento aplicado. Parece sutil la diferencia pero no lo es tanto. Cierto es que a partir de unas “respuestas” coherentes podemos suponer que dicha estabilidad es producida por un instrumento también coherente. Esto es verdad, pero lo es hasta cierto punto, porque la coherencia o incoherencia de las respuestas también está relacionada de manera importante con la homogeneidad o heterogeneidad de aquello acerca de lo que estamos preguntando o investigando, es decir, la homogeneidad o heterogeneidad de nuestro objeto de investigación. Si nuestro objeto de estudio es homogéneo, este factor de la ecuación aumenta la probabilidad de que las respuestas obtenidas sean coherentes y de que el coeficiente alfa sea mayor; pero si nuestro objeto de estudio es heterogéneo y más complejo, no necesariamente unas respuestas heterogéneas, que bajen un poco el coeficiente alfa, estén reflejando un problema con el instrumento sino que pueden estar hablando acerca de la mayor complejidad de la particular realidad que es foco de nuestra de atención.

¿Qué debemos hacer?, ¿sacrificamos la complejidad de nuestro objeto de estudio eliminando los items de nuestro instrumento que no concuerdan con las respuestas de los otros items, con el fin de subir unos puntos en un coeficiente de confiabilidad que mide homogeneidad de respuestas (consistencia interna) como el alfa de Cronbach, o preferimos no eludir la complejidad de lo que estudiamos aunque eso implique que nuestro instrumento no arroje un alfa mínimo de 0.80?. ¿En este caso, no será mas importante que hacerle justicia a la prueba, hacerle justicia al objeto de investigación?.

Pero hay aún mas en relación a esto de que los “coeficientes de confiabilidad” miden lo que miden acerca de respuestas y no directamente acerca del instrumento mediante el cual se obtienen esas respuestas. Al ser esto así, puede presentarse la situación siguiente: que el “Coeficiente de confiabilidad” (que muchos autores tratan sin mayores explicaciones y con una fe ciega en que el mismo refleja la confiabilidad del instrumento) salte bruscamente al introducir los datos de un nuevo caso o sujeto entrevistado. Por ejemplo: podemos haber tabulado los datos de 35 aplicaciones del instrumento determinado y estar obteniendo, hasta ese momento, un coeficiente de confiabilidad alfa de 0.71, y al introducir los datos de la aplicación número 36 el coeficiente de confiabilidad puede saltar, bruscamente, a 0.80. Con las respuestas de 35 sujetos, y de acuerdo con los autores, tenemos que nuestro instrumento no es suficientemente confiable, pero con las respuestas de tan sólo un sujeto más, nuestro instrumento pasa mágicamente a ser confiable. ¿Como "sabe" el instrumento, que a partir de las respuestas de una persona más debe cambiar de condición?.. ¿Cómo es que con la diferencia mínima de 1 caso, un instrumento pasa de no ser confiable a si serlo?

Por lo visto, hay algo que no parece ser confiable en los coeficientes de confiabilidad. O tal vez lo que no es confiable es la manera como ellos son tratados en la literatura. Para empezar planteamos que, a la hora de hablar de “Coeficientes de confiabilidad”, se debe discriminar a cada uno de los diferentes métodos utilizados indicando lo que realmente mide cada uno de ellos: coeficiente de coherencia interna de las respuestas (alfa), coeficiente de estabilidad de las respuestas (test – re test) y coeficiente de equivalencia de las respuestas (formas alternas). Por otra parte, debe indicarse que estos coeficientes, extraídos de las respuestas obtenidas, ciertamente dependen de alguna manera de la buena o mala hechura del instrumento que se busca evaluar, pero también dependen de muchas otras cosas como el número de casos, lo homogéneo – heterogéneo del objeto de investigación y hasta de la historia previa de los sujetos estudiados. De manera tal que, podemos concluir, los diferentes “Coeficientes de Confiabilidad” son herramientas relativas para evaluar instrumentos de investigación.

jueves, 24 de enero de 2008

Miseria epistemológica de Juan Barreto y Rigoberto Lanz

En 1846, el pensador socialista Pierre Joseph Proudhon publicó uno de sus escritos fundamentales: “La Filosofía de la miseria”. Karl Marx, quien criticaba fuertemente al autor francés por lo que consideraba su falta de rigurosidad científica, al año siguiente publicó una respuesta al libro de éste. Marx llamó a su propio libro “Miseria de la filosofía”. Como se verá más adelante, hemos encontrado graves fallas en la rigurosidad académica de la tesis doctoral de Juan Barreto. Es por este motivo por lo que, con el permiso de Marx, hemos parafraseado el título de su libro para darle nombre al presente artículo.

El año pasado el Alcalde Mayor de la ciudad de Caracas, publicó en forma de libro la tesis con la que obtuvo el Titulo de Doctor en la Universidad Central de Venezuela. Dicha tesis fue tutoreada por el Dr. Rigoberto Lanz y publicada bajo el nombre de “Crítica de la razón mediática. Ensayo sobre biopolítica y potencia política del cuerpo (Pre-textos para un debate sobre el socialismo)”.

No hemos revisado con exhaustividad toda la obra ni estamos en condición, en particular, de saber valorar la veracidad y pertinencia de todas sus referencias por cuanto no conocemos muchos de los autores citados; pero si lo estamos de llevar a cabo una especie de “biopsia” en un capitulo fundamental en el que el autor explaya lo que él denomina una “epistemología” (pag. 111), la cual utiliza para el desarrollo de sus planteamientos centrales, en particular el de “dispositivo información – comunicación”. Se trata del capítulo II de la “Primera Parte” del libro, cuyo título es el siguiente: “Un ejercicio sobre materia oscura y agujeros negros, virus y ADN”.

El concepto de “epistemología” (por cierto, término que es muy utilizado por el Dr. Rigoberto Lanz en sus escritos) deriva de las raíces griegas ἐπιστήμη (episteme, conocimiento) y λογία (logos, teoría, tratado, estudio, ciencia), de manera que tradicionalmente se ha asumido a la epistemología como el estudio del conocimiento. Desde este punto de vista, a la epistemología le ha sido pertinente responder preguntas como ¿Qué podemos conocer? o ¿cómo sabemos que lo que conocemos acerca de la realidad es verdadero? Sin embargo, contemporáneamente, la epistemología es conceptualizada, más bien, como el estudio acerca de la producción y de la lógica del conocimiento científico. De manera que si, actualmente, ponemos sobre una mesa diversas visiones epistemológicas, no estaremos haciendo otra cosa que explayando diversas teorizaciones o construcciones explicativas acerca de la justificación, validez y fundamentación del conocimiento científico.

Por ejemplo, el círculo de Viena, (grupo de científicos y filósofos que en los años 20 y 30 del siglo XX inaugura la práctica epistemológica profesional), asume una posición ante la producción del conocimiento científico conocida con el nombre de “Positivismo lógico”. Según dicha postura, habría que rechazar a la metafísica como fuente segura de conocimiento científico y cimentar el mismo mediante el uso de la lógica formal y la comprobación. Con el tiempo los positivistas lógicos han movido su visión hacia un, así denominado, “empirismo lógico”; no obstante la polémica epistemológica ha continuado y una de las preguntas fundamentales que no ha podido desaparecer del centro del ruedo es ¿Qué criterio puede servirnos para diferenciar el conocimiento científico de otros de diferente origen?.

Cuando abordamos el capítulo “Un ejercicio sobre materia oscura y agujeros negros ..” de la tesis del señor Barreto, dado que se nos anuncia, en la primera página del mismo, que se trata de la exposición de una “epistemología”, supusimos que el autor sustentaría su particular posición en relación a la producción del conocimiento científico (o, cuanto menos, del conocimiento en general), la cual le serviría de base para sus propuestas teóricas acerca del fundamental tema contemporáneo que aborda en su disertación, como lo es el de los masmedia y su relación con la economía política. Sin embargo, con lo que nos encontramos en las tan sólo 11 páginas del capítulo en cuestión, fue con un listado muy extenso de términos provenientes de la física, la astrofísica y la biofísica, cada uno de los cuales apenas se explica en seguidilla y brevemente pero sin que hayan sido hilvanados, a pesar de lo prometido por el autor, con sentido epistemológico alguno. En ninguna parte del citado capítulo aparece una propuesta teórica acerca de la fundamentación del conocimiento, ni general ni científico; no se encuentra allí ninguna reflexión epistemológica. Se tendría que presumir, muy seriamente, que el Dr. Barreto desconoce de que trata la epistemología.

Al revisar la apretujada lista de conceptos a la que estamos haciendo referencia, encontramos los siguientes: materia oscura, materia oscura o éter, materia oscura del éter, materia oscura del vacío, energía, masa, cosmos, tiempo, espacio, tejido flexible de cuatro dimensiones, materia, gravedad, curvaturas del tejido del espacio tiempo, super fluidez, mundos espejos, universos paralelos, radiación electromagnética de fondo, contracción o expansión del espacio tiempo, efecto inflacionario, cuerdas, supercuerdas, energía del vacío o energía oscura, constante cosmológica, inflatón, vacío, fuerza, acción, reacción, mar de radiaciones de microondas espesas, física de partículas, campo de fuerzas espeso, teoría inflacionaria o total del universo, microondas cósmicas, objetos extraños de partículas y de ondas, agujeros negros, Quazar, modelo estándar, microcosmos, campo de Higgs, partículas de vacío, campo de fuerza de nada, materia blanca, ecuaciones de la relatividad general especial (sig), mecánica cuántica, gravedad especial, cuásares, pulsares, rayos gamma, partículas de onda Z y W, destellos de estrellas de neutrones, campo fluctuante no simétrico, masas ligeras, masas pesadas, tiempo latente, campos diagramáticos de tensiones, lente gravitacional, supercuerdas branas y p-branas, antigravedad, fotones, bariones, radiación de fondo del cuerpo negro, rayos X, rayos X binarios, galaxias, “sobre gravedad”, ondas gravitacionales, inmunidad de las cepas bacterianas lisogénicas, partículas mágicas, plásmidos, ARN mensajero, células, síntesis de las proteínas, secuenciación del genoma, mutaciones, cadena de ADN, enzimas de restricción, cadenas mutantes, fluctuaciones estadísticas medibles, factor de la herencia, proteínas enzimáticas, fenómenos de variación de la herencia, radical químico, radiación, evolución, forma semicircular del cromosoma bacteriano, universo viral, modelo bioquímico de la vida, lógica de infección viral, conjunto estriado de campos de efectos de superficie…. En fin, una seguidilla alucinante de términos y conceptos que promedian 9 por página.

Si tomamos, por ejemplo, el único de esos términos que es definido por el señor Barreto en el “Glosario” de su libro, el de agujeros negros, encontraremos que la conceptualización del mismo comienza de la siguiente manera: “Son lugares con gravedad igual o superior a la velocidad de la luz …”. (¿?). No es necesario continuar leyendo, este comienzo es suficiente para quedar asombrados porque, de entrada, el concepto es totalmente falso. El señor Barreto ha igualado de manera asombrosa y en tan solo 13 palabras, los conceptos físicos de “gravedad” y “velocidad”. Cualquier estudiante de física de la UCV le hubiese explicado la diferencia entre ambos.

En medio del impresionante listado de conceptos, cuyas piezas, como hemos dicho, son muy vagamente explicadas y puestas una detrás de la otra, el autor afirma: “Estos hallazgos y los modelos analógicos que ellos sugieren, nos permiten construir un dispositivo teórico nuevo para acercarnos al estudio de las turbulencias no visibles y las densidades medibles de los campos o ambientes de opinión de la máquina información – comunicación que llamaremos eter simbólico, o gel mediático”. Sin detenernos en intentar desentrañar lo que quiso decir el señor Barreto en ese párrafo, de todos “estos hallazgos”, el que es central para el autor es el de “materia oscura”. Así lo señala apenas comienza el capítulo: “.., hemos escogido la polémica idea de la materia oscura o éter para explicar el fenómeno de funcionamiento de expansión del dispositivo información – comunicación y su contingente gravedad – antigravedad como lógica de la reproducción.” (el subrayado es nuestro).

Aparte de la relación teórica que propone el señor Barreto entre dos constructos tan dispares como la “materia oscura” y “el fenómeno de funcionamiento de expansión del dispositivo información – comunicación” (relación teórica de la que hablaremos más adelante), cuando indagamos que es lo que cree el señor Juan Barreto acerca de que es la materia oscura, encontramos lo siguiente en la página 112 del capítulo en referencia: “La atracción de los objetos que llamamos gravedad, es sólo materia que se desliza por sobre las curvaturas del tejido del espacio tiempo…. A la densidad ‘medible’ de dicho tejido algunos la denominan materia oscura”. Esta es toda la definición que da el señor Barreto acerca de la hipótesis cosmológica que ha “escogido” para “explicar” una propuesta central de su tesis doctoral, cuyo epicentro es un evento terrícola y social, “el fenómeno de funcionamiento de expansión del dispositivo información – comunicación”. Esa definición, aparte de ser extremadamente escueta para una “idea” central de una tesis doctoral, también es falsa.

La materia oscura no es la “densidad medible” del espacio tiempo. La “materia oscura” es el constructo central de una hipótesis (que, por cierto, compite con otras hipótesis), la cual intenta explicar el comportamiento de objetos celestes del que no se puede dar cuenta a partir de la materia observable. Por ejemplo, según las leyes de la mecánica newtoniana, la velocidad de una estrella a lo largo de su órbita dentro de una galaxia depende de la cantidad de masa que se encuentra dentro de dicha órbita. Pero se ha encontrado que la masa visible (o, como la denominan los científicos, masa luminosa) es mucho menor que la necesaria para explicar las velocidades observadas. A la discrepancia entre la masa gravitacional necesaria y la masa luminosa, se le intenta explicar mediante un constructo hipotético: la materia oscura. Dicho constructo hipotético, como bien ha dicho David B. Cline en Scientific American (The Search for Dark Matter, marzo 2003), es una “expresión de nuestra ignorancia” dado que es poco lo que se sabe acerca de ella. Por otra parte, la discrepancia referida puede muy bien terminar siendo explicada mediante una hipótesis alternativa, tal como acaba de indicar hace pocos días Stacy McGaugh en la revista Science (Seeing Through Dark Matter. 3 de agosto 2007): “La material oscura fue propuesta para explicar la dinámica de las galaxias. Una modificación de la ley de la fuerza gravitacional de Newton puede ofrecer una mejor explicación”. En todo caso, si la hipótesis de la “materia oscura” terminase sobreviviendo ante otras hipótesis, ella sería (como lo indica, señor Barreto, su propio nombre) un tipo de materia, no una “densidad”.

Ante estos niveles de falseamiento o impostura conceptual nos preguntamos: ¿Y el tutor de la tesis, Dr. Rigoberto Lanz, quien al principio del libro alaba a su tutoreado indicando que posee un “rigor epistemológico intransigente”, no revisó la tesis antes de conformarla?. Dada la enorme cantidad de conceptos físicos, astrofísicos y biofísicos que en ella se manejan, ¿no la sometió al escrutinio de expertos en dichas áreas?.

¿Si en su tesis doctoral, el señor Barreto da un trato tan intelectualmente irresponsable a conceptos físicos y astrofísicos que no admiten muchas ambigüedades, que podemos esperar para el trato hacia otras categorizaciones sociales mucho más polémicas, manejadas en el mismo texto?. La muestra del tejido de la tesis que hemos analizado, la “biopsia” que hemos realizado, nos indica que la situación puede ser muy grave en el resto de la tesis doctoral del señor Juan Barreto, la cual contó con el aval del Dr. Rigoberto Lanz.

Por último, nos referiremos a la relación teórica propuesta por el autor; aquello de que la “materia oscura” pueda “explicar el fenómeno de funcionamiento de expansión del dispositivo información – comunicación” presentado en un aislado planeta de La Vía Láctea. Consideramos que sería muy interesante (lo decimos en serio) que se encontrara sustentación para una tal hipótesis de origen metafísico (en el sentido de no ser de origen empírico). Es cierto que la metafísica, no pocas veces, puede ser buena fuente de hipótesis fructíferas; pero para encontrar dicha sustentación, señor Barreto, se necesitaría de más de 11 páginas y de una experticia epistemológica titánica que tendría que construir la relación teórica entre el fenómeno social terrestre referido y un constructo hipotético astrofísico como el de la materia oscura, acerca de cuya naturaleza no se sabe prácticamente nada. Pero para eso, señor Barreto, hay que comenzar por saber, cuanto menos, que quiere decir epistemología.

sábado, 1 de diciembre de 2007

Razones para la humildad ontológica

v Principio de incertidumbre de Heisenberg
v Teorema de incompletitud de Gödel
v Teoría del caos
v Visión epistemológica de Karl Popper

Introducción

Desde que el filósofo racionalista alemán Christian Wolf utilizó por primera vez, en el siglo XVII, el término “ontología”, éste ha presentado ciertas variaciones en su significado. En nuestro caso, le daremos uso en el mismo sentido con el que lo utiliza Egon Guba (1990): el estudio de la naturaleza de la realidad.

Si sobrevolamos en un planeador la historia de la humanidad, tal vez una de las conclusiones más inevitables a la que llegaremos es que los seres humanos no podemos acostarnos cada noche, de manera despreocupada, sin portar bajo la solapa de la conciencia, teorías explicativas acerca de la realidad que nos circunda; vale decir, sin una concepción ontológica. La más popular de todas esas explicaciones ontológicas tiene un nombre bastante corto: Dios.

La hipótesis Dios ha sido manejada durante la historia de la humanidad con tal flexibilidad ad líbitum (a placer), que la dota de una totalizante capacidad explicativa y, por el contrario, de un mínimo contenido empírico: puede explicar desde como apareció el universo hasta el porqué nos salvamos de mojarnos en un aguacero. Sin embargo, paralelo a este tipo de explicaciones (cuya característica principal es que no son falsables dado que ellas se sostienen sobre un acto de fe), hace unos 2600 años nació en Grecia otra manera de intentar explicar la realidad y cuya característica principal es la de mantener una actitud permanentemente crítica ante las hipótesis que arrojamos, como “redes” (Popper dixit), sobre la realidad e, incluso, una actitud crítica ante la manera misma en que se lleva a cabo la construcción de dichas hipótesis.

Es imposible dejar de citar en el nacimiento de dicha “otra” actitud, a un filósofo de los injustamente llamados pre socrático: Tales de Mileto (625-546 a.C.). Este pensador, al que hay que considerar el padre de la filosofía, conminaba a sus seguidores a criticar sus propias hipótesis más que asumir una actitud de defensa a ultranza de las mismas. Esta actitud representó una clara ruptura con la que, hasta aquél momento, era la actitud dominante en la producción y transmisión de conocimiento: el mito. Representó el erguimiento del logos ante el mito. Representó el nacimiento de la filosofía y de la ciencia.

Durante esos 26 siglos, la relación entre tales dos actitudes, la de la fe y la del pensamiento crítico, ha sido entreverada y ha presentado muchas variaciones. Han transcurridos épocas de separación de aguas, como la edad media, el stalinismo en la ex URSS o, incluso, la actual era Bush en los Estados Unidos, en las que la fe se ha hecho del poder político y ha intentado o ha mantenido arrinconado al pensamiento crítico; y otras, como en el siglo de las luces (época acerca de la que el filósofo Immanuel Kant llegó a decir que su lema principal era el de “atreverse a conocer”), en las que el pensamiento crítico ha logrado hacer avanzar una visión secular de la sociedad y ha abierto campo a la libertad en la búsqueda de explicaciones acerca de la realidad que nos rodea.

Como actitud ante el universo, cada una de las dos que hemos citado puede ser caracterizada en cuanto a su nivel de “prepotencia ontológica” (permítasenos la expresión); vale decir, el nivel de considerar que “se las sabe todas” frente a las interrogantes acerca de los orígenes y la naturaleza de la realidad. Obviamente que la actitud del mito y de la fe a ciegas en constructos religiosos o, en sus hermanos, en constructos ideológicos, es poseedora de una mucho mayor “prepotencia ontológica” que la del pensamiento crítico; la actitud de la fe considera que ha tomado por la chiva al universo y que posee todas las explicaciones ontológicas acerca del mismo. Los miembros de una fe no necesitan pensar porque ya ellos están pensados por su propia fe. Los preceptos de su fe piensan por ellos, solo queda repetirlos, ya no queda mas nada que buscar. Por el contrario, para la otra actitud, no hay otro camino que la duda y la búsqueda incesante.

Ahora bien, resulta que de la casa gobernada por la actitud del pensamiento crítico, han surgido unos descubrimientos hechos durante el siglo que acaba de terminar, el siglo XX, que apuntan en dirección de una posición incluso menos prepotente que la de la búsqueda incesante, ya que indican que aun la misma indagación sólo puede producir frutos limitados. Después de esos descubrimientos, realizados particularmente en los campos de la física, la matemática y la epistemología, ya no es posible esperar, como lo supuso Laplace en el siglo XIX, que tendremos algún día un conocimiento pleno y final acerca de la realidad y, por lo tanto, una plena capacidad predictiva acerca del universo. Esos descubrimientos son: el principio de incertidumbre de Heisenberg, el teorema de incompletitud de Gödel, la teoría del caos y la visión epistemológica de Karl Popper.

Principio de incertidumbre de Heisenberg

La primera revolución, a la que haremos referencia, le puso límites al conocimiento que los homo sapiens podemos alcanzar acerca de la realidad: el universo es cognoscible, pero hasta los límites establecidos por el principio de incertidumbre de Heisenberg:

“El principio de incertidumbre tiene profundas implicaciones sobre el modo que tenemos de ver el mundo. Incluso más de cincuenta años después, éstas no han sido totalmente apreciadas por muchos filósofos, y aun son objeto de mucha controversia. El principio de incertidumbre marcó el final del sueño de Laplace de una teoría de la ciencia, un modelo del universo que sería totalmente determinista: ciertamente, ¡no se pueden predecir los acontecimientos futuros con exactitud si ni siquiera se puede medir el estado presente del universo en forma precisa!”. (Hawking, 1988, p. 83, 84).

Este principio indica que para poder conocer la posición y la velocidad futura de una partícula, debemos conocer su posición y velocidad actuales; pero al medir ambas variables, la incertidumbre de la primera medida multiplicada por la incertidumbre de la segunda siempre dará un resultado que no puede ser menor a una cantidad conocida como la constante de Planck:

ΔP. ΔV ≥ constante de Planck

Es decir, que la incertidumbre en el conocimiento de ambas condiciones de la partícula nunca puede ser reducida a cero. Aparte de que si se aumenta la precisión en la medida de una de las dos variables aumenta la incertidumbre en la medida de la otra. Albert Einstein no pudo creer que el universo contuviese tal nivel de incertidumbre, se jaló de los pelos y soltó aquello de que “Dios no juega a los dados”. En el marco de su polémica con Bohr y otros padres de la física cuántica, los experimentos teóricos propuestos por Einstein con el fin de borrar toda incertidumbre en la medición simultánea de la posición y velocidad de las partículas atómicas, han sido posteriormente refutados, con lo que, según parece, Dios si juega a los dados aunque, según se desprende del mundo lleno de propensiones de Karl Popper (1996), estos estén cargados. Los límites impuestos por el principio de incertidumbre nos hablan del descubrimiento de una condición intrínseca de la naturaleza y no de limitaciones en nuestras posibilidades perceptivas o en nuestras posibilidades técnicas (Hawking, 1988, p. 83); vale decir, el principio establece un límite al conocimiento de la realidad.

A partir del principio de incertidumbre, la ciencia tiene conciencia (a diferencia de por ejemplo las religiones, las ideologías y, seguramente, muchos investigadores desactualizados) que no puede hablar del universo con la arrogancia de quien piensa que lo sabe todo. Hoy por hoy, la ciencia sabe que no lo sabe todo, pero sobre todo sabe que nunca podrá saberlo todo.

Teorema de incompletitud de Gödel

La otra gran revolución científica a la que queremos hacer referencia, y de la que seguramente se tiene menos conciencia, es aquella provocada por Kurt Gödel (1906-1978). Este matemático y lógico nacido en Brünn, ciudad cercana a Viena (en la actual República Checa), demostró en 1931 y sin hacer referencia a experimento empírico alguno (lo que reforzaría la opinión de quienes piensan que el universo está escrito en lenguaje matemático), que ningún sistema de proposiciones puede contener la demostración de su propia coherencia; esto sólo puede hacerse mediante referencia a un sistema de proposiciones mayor, el cual a su vez no puede justificar su propia coherencia sino mediante referencia a otro sistema mayor. Esto nos conduce a una secuencia infinita de sistemas.

Las teoría matemáticas se construyen sobre la base de dos elementos fundamentales: axiomas (premisa o principio básico que es asumido como verdadero sin recurrir a demostración alguna) y reglas para llevar a cabo inferencias con dichos axiomas. Por otra parte, el sueño de todo matemático es demostrar que su ciencia posee dos grandes cualidades: que es consistente y que es completa. Por consistente se quiere decir que la matemática está libre de contradicciones en sus razonamientos, vale decir, que está inmunizada a cualquier tipo de asalto; y por completa, que toda proposición que haya sido pensada o pueda ser pensada, puede ser probada o refutada dentro del sistema axiomático. Kurt Gödel demostró que es imposible cumplir ese sueño: no es posible concebir un conjunto de axiomas y un juego de reglas de transformación que suministren todas las verdades formales; siempre será posible pensar verdades indemostrables.

En otras palabras, Gödel probó que si tomamos un conjunto de axiomas suficientemente amplio (que cuanto menos contenga los axiomas de la aritmética), no es posible demostrar, con las reglas de deducción del sistema, que ese conjunto de axiomas es simultáneamente consistente y completo. Si es consistente siempre existirán teoremas verdaderos que nunca se podrán demostrar con el sistema y, por lo tanto, no será completo; y si es completo necesariamente contendrá contradicciones, es decir que no será consistente. En este sentido el teorema de Gödel tiene cierta analogía con el principio de incertidumbre de Heisenberg, el cual establece que si intentamos precisar la posición de una partícula obtendremos una mayor incertidumbre en su velocidad y si intentamos precisar su velocidad obtendremos una mayor incertidumbre en su posición.

Es justificado considerar, como lo consideran muchos pensadores, que el Teorema de Incompletitud de Gödel es una de las más grandes producciones de la mente humana, ya que lo que se encuentra detrás de él, es el establecimiento de un límite a la razón. Hoy la razón sabe que no puede demostrarlo todo y, sobretodo, sabe que no puede demostrar la consistencia de sus sistemas axiomáticos.

Teoría del caos

De la casa de la física también ha salido otra constatación que le pone límites a nuestras posibilidades de hablar ante otros o de poner ante la cara de otros, certezas acerca de cómo son las cosas. Este otra limitación viene de la mano de la teoría del caos.

En el marco del paradigma newtoniano, una diferencia fundamental entre las ciencias naturales y las ciencias sociales es que estás, a diferencia de las primeras, consideran la variable “tiempo”. Sus objetos de estudio son sucesos, los mismos poseen historia, cuentan con un pasado que da razón de ellos y con un futuro no fácilmente determinable. Por el contrario, para las ciencias naturales newtonianas, particularmente para la física clásica, la flecha del tiempo no existe, el comportamiento de las leyes físicas no contempla ningún tipo de asimetría temporal, es lo mismo decir pasado que presente o futuro. Las leyes que gobiernan la naturaleza no cambian con el paso del tiempo. Según Ilya Prigogine (Químico y físico nacido en Moscú en 1917, premio Nóbel de química 1977), la excomulgación del tiempo por parte de la ciencia clásica está relacionada con el control que la visión religiosa ha ejercido sobre las sociedades durante mucho tiempo; a los ojos de Dios todo está dado, no existen diferencias entre pasado presente y futuro.

Sin embargo, se ha presentado una ruptura paradigmática a raíz de que un grupo de científicos y pensadores, a la cabeza de los cuales se encuentra Prigogine, han prestado cada vez más atención a las llamadas “estructuras de no equilibrio”, aquellas en las que la flecha del tiempo y los fenómenos irreversibles juegan un papel fundamental. La diversidad de estructuras de no equilibrio (entre ellas la vida, el clima, una columna de humo, las sociedades humanas y la bolsa de valores) que van descubriendo los investigadores es asombrosa y se ha tomado conciencia que ellas forman la mayor parte de los sistemas existentes en el universo, mientras que los llamados “sistemas dinámicos estables” (a los que básicamente se dedicaba la física clásica), son mas bien excepcionales. En el devenir de las estructuras de no equilibrio, ocurren momentos de bifurcación en los que el sistema tiene ante si varios posibles caminos. Veamos que nos dice al respecto Grégoire Nicoli:

“Desde el punto de vista físico la situación es todavía mas sorprendente. En efecto, la bifurcación es en realidad un momento de toma de decisión, ya que más allá de λ el sistema se ve confrontado con múltiples elecciones. Se torna entonces muy sensible a los efectos aleatorios que, debido al sesgo de las fluctuaciones estadísticas, terminarán por privilegiar uno de los estados accesibles. Una vez canalizado sobre una rama particular de estados, el sistema seguirá un curso que estará determinado fundamentalmente por esta elección crítica. Se torna así en un objeto histórico, que conservará para siempre, en su seno y en su orden cronológico, el recuerdo de los hechos pasados encontrados sucesivamente que han prevalecido en los umbrales de bifurcación” (el subrayado es nuestro) (en Brans, Stengers y Vincke, 2000, p. 79)

En estos puntos de bifurcación, las condiciones iniciales son vitales para el desenvolvimiento futuro del sistema, dado que cualquier minúscula variación en ellas lleva a una ampliación exponencial que introduce una gran impredicibilidad en el devenir de los mismos. De aquí es de donde se ha hecho famoso el denominado “efecto mariposa”, según el cual el revolotear de una mariposa en un bosque de Japón puede terminar provocando una gran tormenta sobre Nueva York.

Son tales las consecuencias que el estudio de las estructuras de no equilibrio ha traído tanto para la visión ontológica como epistemológica de quienes se han percatado de sus implicaciones, que se ha llegado a pedir disculpas por lo que, ahora, se considera fue una posición científica errada:

“Llegados a este punto debo hacer un alto y hablar en nombre de la gran hermandad de los expertos de la mecánica. Hoy somos conscientes de que el entusiasmo que sentían nuestros predecesores por el éxito maravilloso de la mecánica newtoniana les llevó a hacer generalizaciones, en el campo de la predicción…, que hoy han resultado ser falsas. Queremos pedir disculpas colectivamente por haber inducido a error al público culto al propagar, a propósito del determinismo de los sistemas que cumplen las leyes newtonianas del movimiento, unas ideas que después de 1960 ya no se pueden sostener” (Sir James Lighthill en Prigogine, 1999, p. 43 y 44)

Esas consecuencias han llegado a alterar, incluso, la concepción clásica que se tenía acerca de las leyes de la naturaleza:

“Tradicionalmente estas leyes estaban asociadas al determinismo y a la reversibilidad del tiempo. En los sistemas inestables las leyes de la naturaleza se tornan fundamentalmente probabilísticas. Expresan lo que es posible, y no lo que es cierto”
(el subrayado es nuestro) (Prigogine, 1999, p. 108, 109)

Creemos que en esas palabras de Ilya Prigogine, se encuentra encerrada una nueva confirmación de nuestra limitada capacidad de conocimiento acerca de la realidad que nos rodea: los sistemas de no equilibrio, que conforman la mayor parte de la realidad conocida, son altamente impredecibles. No es posible hablar de ellos desde la certeza sino desde las posibilidades.

Visión epistemológica de Karl Popper

Por último nos referiremos a la que nos parece la más importante propuesta epistemológica del siglo XX, la propuesta de Karl Popper. Para Popper, la inducción no sirve para sustentar el conocimiento científico: conseguir cisnes blancos no sustenta de manera lógica la conclusión de que todos lo sean. Sin embargo, una sola prueba en contrario (un solo cisne negro), es decir una sola falsación, es suficiente para derrumbar la propuesta teórica de que todos los cisnes son blancos. Vale decir, de enunciados particulares no se pueden derivar enunciados universales, pero una sola falsación puede derribar un enunciado universal. Esto implica que entre la verificación y la falsación hay una relación asimétrica según la cual la falsación es mucho más poderosa que la verificación. Producto de todo esto, la conclusión popperiana es que las especulaciones teóricas no pueden verificarse definitivamente, pero si falsarse (Popper, 1998). Oigamos directamente a Popper:

“.... tomemos un caso trivial en que la gente hable de inducción; por ejemplo, el caso de los muchos cisnes blancos que conducen a la proposición ‘todos los cisnes son blancos’. ¿Qué es lo que sucede realmente? Lo que sucede realmente es que ante un cisne blanco reaccionamos con la hipótesis – una hipótesis creadora- de que todos los cisnes son blancos. ¿Por qué es una hipótesis creadora? Porque va más allá de todo aquello que hemos visto. Y entonces se retiene esta hipótesis creadora. Intentamos estamparla en el mundo hasta que ya no funciona. Esto es así en todas las aparentes, o así llamadas, inducciones. Reaccionamos creativamente ante cualquier cosa en el mundo, se somete a prueba esta reacción creadora y, si hubiera lugar a ello, el mismo mundo la destruye”. (Los subrayados son nuestros) (1997, p. 82)

Por esto para Popper, es científico lo que es falsable, y la principal herramienta de todo investigador debe ser la crítica más que la defensa, incluso, de sus propias proposiciones. Seguramente, y en concordancia con todo lo anterior, es por lo que Prigogine ha dicho que "la ciencia es siempre un encadenamiento de proposiciones refutables" (en Sorman, 1989, p. 41)

Conclusiones

1. El universo no puede ser totalmente cognoscible.
2. Todo conjunto de axiomas que propongamos nunca podrá ser totalmente completo y/o coherente.
3. La mayoría y los más interesantes sistemas que conforman la realidad son sistemas de no equilibrio, caóticos e impredecibles en si mismo.
4. Toda propuesta explicativa o teórica que arrojemos sobre el universo o sobre parte de él para intentar comprenderlo, nunca podrá ser verificada de manera definitiva.

Puestos sobre la mesa los argumentos anteriores, tenemos que concluir que la ciencia, siendo algo recién inventado al igual que su propia filosofía, la epistemología (recordemos que Descartes murió hace tan solo 350 años), pronto ha hecho descubrimientos que hacen necesario que el hombre acepte sus limitaciones y se asuma en el marco de una búsqueda de posibilidades limitadas: Es por lo tanto necesaria la humildad a la hora de acercarnos con nuestro estetoscopio a oír el corazón del universo que nos rodea. Ante él, la más realista de las respuestas es “NO SE”. No sabemos, en realidad, cuales son las respuestas a las preguntas fundamentales que nos hacemos.

Sin embargo, a partir de aquí, puede embargarnos el pesimismo y la soledad. El peso absoluto de sentirnos solos ante un universo que se niega a responder las preguntas existenciales más fundamentales. A partir de aquí es tentador dejarse deslizar hacia visiones como la contenida en un texto publicado por la UNESCO con motivo del coloquio “La ciencia y la diversidad de las culturas”:

"El desarrollo científico desemboca en una verdadera elección metafísica, trágica y abstracta: el hombre tiene que elegir entre la tentación tranquilizadora pero irracional, de buscar en la naturaleza la garantía de los valores humanos, la manifestación de una pertenencia esencial, ……. y la fidelidad a una racionalidad que le deja sólo ante un mundo mudo y estúpido” (el subrayado es nuestro) (en Prigogine, 1999, p. 112).

Pero por otra parte, se puede asumir una postura que, aunque aceptando que no tenemos muletas ni analgésicos que nos tranquilicen ante el miedo que provoca en nuestra alma el hecho de asumirnos solos ante el universo, asume también la responsabilidad de elegir y labrar nuestro propio destino. Como diría Jacques Monod, Premio Nóbel de Fisiología y Medicina 1965:

“La antigua alianza está ya rota; el hombre sabe al fin que está solo en la inmensidad indiferente del universo de donde ha emergido por azar. Igual que su destino, su deber no está escrito en ninguna parte. Puede escoger entre el reino y las tinieblas” (el subrayado es nuestro) (1971, p. 193)

Planteamos la posibilidad de establecer una alianza entre este universo (que aunque bastante mudo, se nos presta, se nos facilita) y nuestra capacidad de hacer una reverencia interior, personal, intima, que sin embargo se puede hacer acompañar por otras conciencias parecidas, para apostar a favor del bien. Esa otra posición es la de “aprovecharnos”, es la de “sacarle provecho” a la posibilidad, entonces, de ser nosotros mismos humildes creadores de mundos. Mundos que, por pequeños que sean, pueden llegar a emitir el destello propio de la serena bonitura que acompaña a la bondad.

Ramón Francisco Reyes Echegaray
Ex Maestro rural. Escuela Rural La Galera. Los Teques. Edo. Miranda
Magíster en Desarrollo y Ambiente. Univ. Simón Bolívar
e-mail: ramonfrancisco1@gmail.com
Cel. 0414 – 030.77.49


Referencias

Brans, Jean-Pierre; Stengers, Isabelle; Vincke, Philippe (Compiladores) (2000). Ilya Prigogine: El tiempo y el devenir. Barcelona (España): Editorial Gedisa S.A.

Guba, Egon (1990). The paradigm dialog. New York: Sage

Hawking, Stephen (1988). Historia del tiempo. Barcelona (España): Editorial Crítica.

Monod, Jacques (1971). El azar y la necesidad. Ensayo sobre la filosofía natural de la biología moderna. Barcelona (Caracas): Barral Editores, S.A.

Prigogine, Ilya (1999). Las leyes del caos. Barcelona (España): Editorial Crítica

Popper, Karl (1996). Un mundo de propensiones. Madrid: Editorial Tecnos. S.A.

Popper, Karl (1997). Sociedad abierta, universo abierto. Conversación con Franz Kreuzer. Madrid: Editorial Tecnos

Popper, Karl (1999). La lógica de la investigación científica. Madrid: Editorial Tecnos

Sorman, Guy (1989) Los verdaderos pensadores del siglo XX. Buenos Aires: Editorial Atlántida