SciELO - Scientific Electronic Library Online

 
vol.12 issue20New approaches towards Efficiency, Productivity and Quality in Management TheoryGame Theory as applied to Administration author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Innovar

Print version ISSN 0121-5051

Innovar vol.12 no.20 Bogotá Jan./July 2002

 

 

 

El nuevo paradigma de las ciencias y la teoría de gestión[*]

The new paradigm regarding Science and Management Theory

 

Iván Alonso Montoya ** Alexandra Montoya ***

**Magíster en administración. Docente, Facultad de Agronomía, Universidad Nacional de Colombia.

***Magíster en administración. Docente, Facultad de Ciencias Económicas, Universidad Nacional de Colombia.

 

Resumen

El presente artículo hace una revisión del cambio de paradigma desde la ciencia positiva a un enfoque más complejo de la misma, mediante un recorrido a través de diferentes autores y sus concepciones para llegar a nuevos enfoques más coherentes con los nuevos aportes desde diferentes áreas del conocimiento, como la física, la química y la biología. A partir del desarrollo histórico de la ciencia se muestra cómo ésta ha tenido que ajustar su método hacia uno más coherente con las nuevas problemáticas por modelar.

Palabras clave

Nueva ciencia, cambio de paradigma, teoría cuántica, método científico, gestión.

 

Abstract

This article looks at how the paradigm regarding positive science has become changed towards being a more complex approach towards the same topic. It looks at how different authors' concepts have lead to more coherent new foci by borrowing from different areas of scientific knowledge, such as physics, chemistry and biology. The article shows how science's historical development has forced scientific method to become adjusted in line with more coherent ones to deal with the new problems to be modelled.

Key words

New science, chage of paradigm, quantic theory, scientific method, management.

 

El enfoque mecanicista

El hombre se ha cuestionado sobre la forma en que se apropia del mundo que lo rodea, y su búsqueda múltiple de comprensión de los fenómenos externos e internos a su naturaleza le ha llevado a establecer creencias y suposiciones, verificaciones y pruebas, desarrollos intelectuales, pertenencias, sentimientos, poderes y saberes, senderos de acción y categorías de pensamiento, niveles de predicciones, agrupaciones sociales, amistades, estratificaciones sociales y duelos, por mencionar sólo algunas cosas.

En esta continua indagación, "los filósofos de la antigua Grecia dividían las búsquedas del hombre en cuatro categorías principales:

  • La científica - la búsqueda de la verdad [Muy vinculada con la filosofía]
  • La político - económica -la búsqueda del poder y la abundancia
  • La ético - moral - la búsqueda de la bondad y la virtud
  • La estética - la búsqueda de la belleza"(Bunge, 1993,p.19).

Bajo la categoría científica, el hombre ansioso de verdades inició la construcción de la ciencia como su mejor aliada frente a la inmensa complejidad que percibía, pero además identificó a la ciencia, en términos generales, como un estilo de pensamiento y de acción (precisamente el más reciente, el más universal y el más provechoso de todos los estilos) (Morin, 1984, p. 16).

En cierto sentido, la ciencia sólo disiente de las otras "formas de pensamiento, por su modo de aplicación en el campo empírico y su manera hipotética-verificadora de desarrollarse" (Morin, 1984, p. 16). Pero al tiempo se ha constituido en "la fuente de la técnica mecánica, organizadora, racionalizadora moderna y en cierto modo segrega la infratextura de la sociedad, que desarrolla continuamente la rotación dialéctica del devenir moderno" (Morin, 1984, p. 16).

Con lo cual la ciencia se determina cada vez más con el sentido de lo profundamente arraigado en la humanidad -sus convicciones acerca del mundo- y se confunde con él. Los científicos, en cualquier tiempo y campo determinados, como puede apreciarse, comparten un conjunto de tales convicciones en las más diversas prácticas de pensamiento, mientras que ese conjunto de "certezas" se convierte en la perspectiva (o paradigma) dominante, para esa sociedad (incluso para toda ella).

Un paradigma "está constituido por un cierto tipo de relación lógica extremadamente fuerte entre nociones maestras, nociones clave, principios clave. Esa relación y esos principios van a gobernar todos los discursos que obedecen, inconscientemente, a su gobierno" (Morin, 1984, p. 89).

En su libro La Estructura de las revoluciones científicas, Thomas Kuhn (Kuhn, 1962) lleva a la idea de paradigma científico, comprensible como una constelación de logros -conceptos, valores, técnicas, etc.- compartidos por una comunidad científica y usados por ésta para definir problemas y soluciones legítimos. Kuhn, admirado por los sucesos científicos de su época, encontró una explicación para las transformaciones sociales y científicas que estaba viviendo. Los cambios de paradigma en la sociedad, según su interpretación, vienen a darse de manera revolucionaria y en rupturas discontinuas, cuando un bloque sólido de conocimientos emerge como nueva explicación a los fenómenos, especialmente naturales (físicos, químicos o biológicos, en particular).

La aceptación de nuevos paradigmas, como dice Kuhn, enfrenta la "terquedad" de las estructuras de pensamiento anteriores, -que desean permanecer como esquemas de referencia, como la "ciencia normal" de ese momento, por fuera de la cual estarían los científicos "renegados"- para entender y explicar los aspectos de la realidad circundante (Gerard, 1976). Parte del gran mérito de Kuhn proviene no sólo de entregar la noción de paradigma, sino de explicar la inherente resistencia al cambio de quienes han trabajado con éxito en la vieja concepción (con las antiguas "lentes"); quienes se han habituado a esta manera de pensar, incluso emocionalmente.

Para Fritjof Capra, no sólo el hombre se ve lanzado, de manera intermitente, a cambios de paradigmas científicos, sino también a cambios de paradigmas sociales, incluso tanto o más importantes que los paradigmas científicos; según Capra y parafraseando a Kuhn, un paradigma social es "una constelación de conceptos, valores, percepciones y prácticas compartidos por una comunidad, que conforman una particular visión de la realidad que, a su vez, es la base del modo en que dicha comunidad se organiza" (Capra, 1998, p. 27).

Perspectivas de la ciencia hacia la simplicidad y el orden

Las concepciones de la naturaleza, según R. G. Collingwood, provienen de los griegos, de los científicos renacentistas y de la ciencia moderna, estas dos últimas claramente orientadas hacia un criterio de simplicidad y orden (Boucher, D. Connelly, J. and Modood, T. (eds), 1990, p. 7). Los griegos, en su esfuerzo por comprender, a la luz de la razón, su mundo circundante, se explicaron la naturaleza bajo sus atributos de perfecta regularidad y orden. La inteligencia ordenadora de esta naturaleza, íntima a ella, no de carácter externo, ordenaría el movimiento (el alma vital) y la producción de objetos y fenómenos naturales (la materia). Este esquema probablemente fue tomado de la reflexión sobre la composición del ser humano: inteligencia, vida dada por el alma y cuerpo físico. Esta visión científica-filosófica vendría a modificarse dentro de la concepción renacentista de la naturaleza, período en el cual el hombre llegó a desprenderse de la época feudal, de menor producción científica (García y De la Parra, 1994, p. 7). La ciencia (ahora experimental), como una rama del pensamiento, sería considerada como teoría explicativa y práctica transformadora luego de su ruptura con la filosofía, tal como se concebía en la antigua Grecia.

El paradigma de simplicidad se construye bajo los cimientos de la cosmología renacentista, la cual propone que la naturaleza se comporta a la manera de una máquina, que funciona por inercia luego de haberse puesto en marcha. "Este universo reloj, marca el tiempo y lo atraviesa de forma inalterable. Su textura, por todas partes igual, es una substancia increada (la materia) y una entidad indestructible (la energía) " (Morin, 1990, p. 50).

La concepción baconiana llevó a la ciencia al camino de la "inducción"; mediante la observación de fenómenos concretos podía llegarse a generalidades acerca de las causas y de la verdad. El papel de la "deducción" empleado en la filosofía medieval, de proposiciones axiomáticas, debía abandonarse, a los ojos de Francis Bacon. Los avances de Copérnico, Tycho Brahe, Johannes Kepler, Galileo Galilei y otros, llevaron a Bacon a sentar las bases de la observación inductiva, de enfoque sistemático, centrada sobre la observación, la colección de datos, la formulación de hipótesis claramente delimitadas y la presentación de resultados, modestos, que podían promover nuevas averiguaciones sobre el foco propuesto por el investigador.

La naturaleza resulta entonces, observada como una materia inerte, sumamente bien ordenada, con movimiento inercial y construida por una inteligencia divina externa. La idea de orden como principio rector de la ciencia clásica, implica la existencia de leyes que permiten la predicción y el determinismo científico.

Pero el orden no sólo significa leyes, también "[...] constreñimientos, invariancias, constancias, regularidades" (Morin, 1990, p. 115). Así, "[...] el espacio no es otra cosa sino un orden de la existencia de las cosas, que se señala en su simultaneidad" (García y De .la Parra, 1994, p. 19), dentro de una visión del universo homogénea, sin inteligencia propia, que está actuando a la manera de una máquina y ciertamente posible de determinar mediante el conocimiento de las leyes de la naturaleza (las ecuaciones de la mecánica) y del estado inicial del sistema del mundo. (Así lo podría hacer un meta-observador del sistema, o demonio, como propondría Laplace). (Popper, 1986, p. 109).

René Descartes habría brindado en el siglo XVI dos clases de sustancia que posibilitaban la visión objetiva del investigador sobre la cosa observada. El observador (res cogitans) era esencial y sustancialmente distinto a la cosa natural observada (res extensa), mediante un procedimiento investigativo, o método, conformado por cuatro pasos:

  1. "No admitir jamás nada por verdadero que no conociera que evidentemente era tal; es decir, evitar minuciosamente la precipitación y la prevención, y no abarcar en mis juicios nada más que lo que se presenta tan clara y distintamente a mi espíritu que no tuviera ocasión de ponerlo en duda.
  2. Dividir cada una de las dificultades que examinara en tantas partes como fuera posible y necesario para mejor resolverlas.
  3. Conducir por orden mis pensamientos, comenzando por los objetos más simples y más fáciles de conocer para subir poco a poco, como por grados, hasta el conocimiento de los más compuestos, y aún suponiendo orden entre aquellos que no se preceden naturalmente unos a otros.
  4. Hacer en todo enumeraciones tan completas y revisiones tan generales que tuviese la seguridad de no omitir nada" (Descartes, 1968, pp. 47-48).

Esta ciencia en el paradigma de simplicidad viene a conformarse como una disciplina que utiliza el método científico con la finalidad de hallar estructuras generales (leyes), apoyada en la relación teoría-práctica: "El valor y la vida misma de cualquier teoría, no está en otra parte sino en su aplicabilidad. Y del mismo modo encontramos que una teoría es valiosa y viva cuando es organizada en la experiencia misma" (García y De la Parra, 1994, p. 31).

Sin embargo, la nueva consideración experimental positiva nombrada así por Auguste Comte, centrada en el cómo de las cosas y no en su por qué, planteó que la naturaleza se regía conforme a modelos matemáticos (de resolución lineal causa-efecto), como máquina trivial (Van Foerster, 1991) de resultados invariables y deseables, viable para el momento, y por lo tanto debía ser éste su lenguaje de escritura para narrar sus fenómenos; así fue como se desarrollaron las leyes de la mecánica, dinámica, óptica y térmica, por mencionar sólo algunas.

Bajo estas ideas de simplicidad y de orden soberano, racional, mecánico-trivial, el determinismo religioso y metafísico encuentra un sustrato adecuado para hacerse determinismo científico y de paso excluir el desorden del orden. Es así como el determinismo bajo sus categorías, siguiendo el discurso popperiano, conduce desde la religión las ideas de omnipotencia y omnisciencia (Popper, 1986, pp. 28-31) de la divinidad a la ciencia, y desde la doctrina metafísica del determinismo la posibilidad de que los sucesos del mundo se encuentren predeterminados.

En este mundo determinista, "todo comportamiento consiste en sucesos dentro del mundo físico" (Popper, 1986, pp. 28-31) observables a través de los sentidos, bajo la versión positivista de comienzos del siglo XIX.

El determinismo científico es entonces consecuencia del intento de sustituir la vaga idea de conocimiento anticipado del futuro por la idea más precisa de predictibilidad de acuerdo con los procedimientos científicos racionales de predicción. Es decir, el determinismo afirma que el futuro puede deducirse racionalmente a partir de las condiciones iniciales pasadas o presentes en unión de teorías universales verdaderas (Popper, 1986, pp. 28-31) tal como pensaba Laplace que haría su "demonio".

Un caso particular puede apreciarse en las teorías de Isaac Newton. En su opinión, se podía afirmar que existía la posibilidad de medir el intervalo de tiempo entre dos sucesos sin ambigüedad y que dicho intervalo sería el mismo para todos los que lo midieran, puesto que las teorías se desprendían de un sistema de referencia absoluto (Popper, 1986, pp. 28-31).

Así, en un universo regido por leyes determinísticas y de funcionamiento predecible, matemático, e incluso trivial, la validación tomaba el siguiente camino: "Nunca se puede citar el resultado de un experimento como prueba positiva corroboradora de una hipótesis. Si las cosas salen como la hipótesis predice, esta no ha sido refutada. Eso es todo" (Popper, 1986, pp. 28-31).

En el modelo de máquina, la unidad puede ser entendida por las partes; las cosas pueden ser tomadas por aparte, diseccionadas literalmente o
representacionalmente, como se ha hecho, por ejemplo, con las funciones organizacionales y las disciplinas académicas (Wheatley, 1996, pp. 8-9) y luego puestas juntas de nuevo sin perder nada slgnificante. La suposición es que, gracias a la comprensión del funcionamiento de cada pieza, el todo puede ser entendido. El modelo newtoniano del mundo está caracterizado por el materialismo y el reduccionismo, enfocándose sobre las cosas más que sobre las relaciones.

Como podrá verse más adelante, esta ciencia positiva sufriría una crisis originada no sólo por el surgimiento de nuevos aportes de la ciencia sino por la influencia creciente de la automatización de procesos industriales, las alternativas de generación de energía, los intereses políticos, la búsqueda de explicaciones para un entorno cambiante, entre otros.

En resumen, el paradigma de la simplicidad derivó, en la concepción de la física clásica, a las siguientes consideraciones:

  • Una generalización simbólica compartida (en afirmaciones teóricas sostenidas en común), tales como el determinismo científico, originado en la mecánica de Kepler, Galileo y Copérnico, validado por Newton y Maxwell, entre otros.
  • Acuerdos sobre modelos como el de mecanismo implícito en las ideas de Descartes y en general, la concepción de "máquina" celeste y natural.
  • Otros valores, por así decirlo, en cuanto a la precisión, consistencia, alcance general y simplicidad del conocimiento científico. Estas calidades se evidencian, por ejemplo, en los pasos metodológicos de Descartes para desarrollar una investigación: la duda sistemática, la división de cada una de las dificultades del todo hacia las partes, la posibilidad de allegar lo más simple para luego hacerlo compuesto y finalmente la necesidad de hacer enumeraciones completas y revisiones generales.
  • Principios incomprobables -incluso metafísicos- que sin duda afectan la investigación, como las nociones místicas sobre el determinismo. Frente a esta concepción, "el futuro podría seguir estando predeterminado e incluso ser conocido para aquellos capaces de leer un libro del destino" (Popper, 1986. p. 31), o tener talentos supercientíficos como los del demonio de Laplace.
  • El reconocimiento de objetos no " conocidos, como semejantes a los objetos evaluados a la luz del paradigma. Así, se hace posible que desarrollos del conocimiento sobre un asunto particular en la física, por ejemplo, pueda servir de explicación dentro de la misma física o de otra disciplina de conocimiento.

 

El nuevo paradigma en las ciencias

La crisis del paradigma mecanicista en la física, bajo el surgimiento de dos teorías contradictorias, de la física cuántica en Heisenberg-Bohr y la teoríaespecial de la relatividad de Einstein, llevó a Popper a pensar que la verdadera función de la ciencia no era la "inducción", o demostración de teorías, sino la capacidad de poder "refutarlas".

Para Popper, la verdad es el objetivo de la ciencia, no obstante la condición científica actual de su tiempo (las décadas tempranas del siglo XX) de "oscurantismo", cuando no podía determinarse la verdad de una teoría, dada la "contradicción del paradigma" existente. En el pensamiento de Popper se permeaba la siguiente imagen: "Por criterio de verdad se entiende una especie de método de decisión que conduce, por lo general, a través de una secuencia finita de etapas (experimentos) a la decisión si el enunciado es verdadero o no" (Newton-Smith W.H., 1987, p. 80), señalando esto que no existe una clase de enunciados cuyo valor de verdad podamos contrastar con certeza y de los cuales se pueda derivar la teoría científica.

Popper ha mostrado que la objetividad de la ciencia, así como el rigor de las teorías científicas, "no es una cuestión individual propia de los hombres de ciencia, sino una cuestión social que es resultado de su crítica mutua, de la división del trabajo amistoso-hostil de los científicos, de su colaboración, como de su rivalidad. Un científico de las ciencias duras no es más riguroso que un científico de las ciencias blandas: lo que es riguroso en las ciencias duras y no riguroso en las ciencias blandas es el juego de la verdad y el error" (Morin, 1990, p. 25).

Para este autor una teoría es científica cuando acepta que su falsedad puede ser demostrada eventualmente; entonces, la ciencia se convierte en un campo siempre abierto donde se combaten no sólo las teorías sino también los principios de explicación.

Adicionalmente, Popper argumenta en favor del indeterminismo, involucrando que es el lenguaje teórico el que se ha construido regular, universal y simplista; frente a la perspectiva de que el mundo no funciona así, el intento por descubrirlo se debiera parecer a una aproximación, tal como sucede con los números irracionales.

Luego de la profunda consideración de Popper viene el trabajo de Kuhn, un paradigma en sí mismo, el cual "muestra que en la ciencia lo físico y lo metafísico, los hechos y las ideas, la materia y la conciencia, el experimentador y lo experimentado, constituyen de algún modo un solo movimiento. Kuhn parece implicar que para comprender la naturaleza se necesita comprender mucho más de lo que ahora se sabe sobre este movimiento y su funcionamiento, pues parece evidente que sin tal comprensión el sentido de nuestros experimentos científicos será irremediablemente confuso" (Briggs, John y Peat, 1989, pp. 35-36).

El cambio de paradigma y las nuevas orientaciones sobre el problema de lo científico han llevado a una instancia en la cual la ciencia comienza a desvelar sus verdaderos rostros y su vestimenta metodológica, a partir de reflejar un grado de incoherencia frente a algunas problemáticas que requieren enfoques no positivistas (Le Moigne, 1997):

"No es la diosa bienhechora que glorificaba el antiguo cientificismo, ni el ídolo ciego que denunciaban los adoradores de los antiguos ídolos. La ciencia no es ni diosa ni ídolo; tiende a confundirse cada vez más con la aventura humana de la que ha surgido" (Morin,1990, p. 17).

Entonces puede concluirse que la forma de concebir los fenómenos naturales de la ciencia renacentista y clásica ha dejado profundas huellas y avances en esta sociedad. Señalando que la inteligencia de la naturaleza -concebida como una máquina perfecta- se encontraba por fuera de ella y constituía el "motor" de arranque, o la causa incausada que provocaba el movimiento en todo lo demás. Adicionalmente, los avances de la física newtoniana dieron claridad sobre el estado "sólido" de la materia. En efecto, los científicos de los siglos XVII y XVIII pensaban que el universo estaba compuesto por elementos, objetos sólidos, que debían estudiarse separadamente, ir "del todo a las partes" como proponía Descartes y considerar que la suma de las partes era equivalente al todo; el estudio de las partes, componentes de la máquina, debía ser coherente en todo sentido y no albergar contradicciones, y además, las partes debían estudiarse como unidades conceptuales, de las cuales podía hacerse abstracción de sus relaciones y de sus transformaciones al interactuar entre ellas. Cuando el siglo XIX trajo indagaciones sobre la conformación de la materia, y se encontró la noción de átomo, los científicos seguían pensando que eran "bloquecitos" sólidos con los que se conformaba la materia. También fue legada la imagen del observador "objetivo" que podía separase de su realidad, conceptuamente distinto de la cosa observada.

Estas ideas fueron dejadas en herencia por el paradigma mecanicista. Sin embargo, a comienzos de este siglo las cosas empezaron a marchar, de modo un poco diferente cuando sus "lentes", o mejor, sus "lentes mecanicistas", les ofrecieron un panorama contradictorio entre lo que encontraban unos y otros, o inclusive, entre lo que ellos mismos encontraban. De esta manera empezó a emerger una nueva ciencia relativamente desconocida, en las décadas tempranas del siglo XX, con intenciones científicas como las mencionadas, que producían resultados opuestos y desalentadores. En opinión de la profesora Margaret Wheatley, "Necesitamos vincularnos una vez más con la ciencia vital de nuestros tiempos, no sólo por nuestra relación histórica sino porque, por ahora, los conceptos científicos y los métodos están profundamente imbricados con nuestro inconsciente colectivo. No podemos escapar de su influencia, ni desmentir las imágenes que ellos nos han imprimido en nuestras mentes como la estructura de pensamiento dominante de nuestra sociedad" (Wheatley, M., 1996, pp. 141-142).

 

La crisis en la física, detalles sobre la crisis de paradigma

En las primeras décadas del siglo XX dos expediciones científicas, ambas organizadas por físicos, constituyeron el momento del gran cambio de paradigma a partir de la física de Newton; y fueron responsables del establecimiento de los paradigmas de la mecánica cuántica y la relatividad.

A principios del siglo XIX, Thomas Young había encontrado que la luz era una onda, apoyado en las tempranas investigaciones de Huygens (1629-1695); luego James Clerk Maxwell había demostrado que las ondas lumínicas eran ondas electromagnéticas de energía y que dichas ondas incluyen todo un espectro que va desde la luz visible hasta los rayos gamma. Maxwell unificó el conocimiento científico referente a las ondas electromagnéticas (Gell-Mann, 1994, p. 101) avalado por Hertz, lo que significó un avance muy notable para la óptica, tanto como el de Newton para la dinámica. Sin embargo, algunos físicos empezaron a calcular la energía total contenida en un cuerpo negro, capaz de absorber toda la energía que recibe, para entender las relaciones entre la materia y la energía electromagnética. Los físicos encontraron que la energía podía llegar a ser infinita y que esta situación se contradecía con que la radiación máxima varía inversamente con la temperatura, que se hacía cada vez más alta y aumentaba más la energía emitida. Este primer colapso de la física clásica llevó a varios científicos a buscar salida a la problemática. Entre los cietíficos que intentaron resolver esta paradoja sobresalen Rayleieh-Jeans y luego Max Planck, quien el19 de octubre de 1900, presentó la idea revolucionaria de que la energía lumínica puede ser emitida y absorbida en unidades discretas que denominó quanta o "cuantos". Después Einstein habría de postular que todas las formas de radiación electromagnética pueden aparecer, no sólo a manera de onda, sino también como cuantos (el fotón, hipótesis de Einstein, fue plenamente confirmado por Arthur Holly Compton en 1923). "Con el descubrimiento de Planck y Einstein, nació la primera paradoja cuántica: la luz y otras formas de energía tienen doble personalidad y a veces se comportan como ondas y a veces como partículas. Para el físico newtoniano clásico esto tenía tanto sentido lógico como decir que una gota de agua es también una piedra" (Briggs, 1989, pp. 42-43).

Niels Bohr, apoyado en estas ideas de Planck y Einstein, más el estudio del espectro de luz del átomo de hidrógeno, llegaría a proponer un nuevo modelo para el átomo, pero que resultaba un injerto entre las nuevas ideas cuánticas y las ideas decimonónicas de las órbitas planetarias. Werner Heisenberg, físico formado en la tradición alemana de la mecánica, fue quien notó esta curiosa combinación. En contra de sus propias enseñanzas, empezó a indagar y calcular las cantidades de energía (la matriz de energía) de órbitas discretas y energías iguales. Su trabajo lo hizo toda una celebridad de la física, hasta cuando se publicó el trabajo doctoral del futuro príncipe francés Louis De Broglie, en 1924, quien había realizado sus estudios universitarios iniciales en historia. De Broglie proponía, en resumen, que la naturaleza es simétrica en su conjunto, que el universo observable está compuesto de luz y materia y fundamentalmente, que teniendo en cuenta la dualidad ya observada de la naturaleza de la luz y el comportamiento simétrico de la naturaleza, se puede pensar que también la materia puede tener esta dualidad onda-corpúsculo.

De Broglie sugirió que el electrón, por ejemplo, podía comportarse como una onda y a veces como una partícula. Sus ideas llamaron poco la atención, pero lograron predecir la longitud de onda que se esperaba tuviera la materia, al suponer las mismas ecuaciones para calcular esta magnitud en la teoría de la luz. De Broglie empezó entonces a dar "golpes de gracia" al pensamiento de la física clásica, al sostener que la composición del universo, de luz y materia, tenía cada una naturaleza dual onda-corpúsculo (De Broglie, 1923, pp. 507-510). (Los trabajos de Elsasser, C.J. Davisson, L.H. Germer, G.P. Thomson y otros, confirmaron la tesis de De Broglie). (Enciclopedia, 1992, pp. 155-156).

En resumen, se puede decir que "tanto para la luz como para la materia se debía aceptar la existencia de una dualidad de propiedades: en algunas ocasiones se comportaba como una partícula y en otras como una onda; era la confirmación de la teoría de la dualidad onda-corpúsculo" (Wheatley, 1996, p. 35).

"La naturaleza dual de la materia y de la luz es muy misteriosa. Parece imposible que algo pueda ser, al mismo tiempo, una partícula, 'entidad limitada a un volumen extremadamente reducido' y una onda que se difunde a través de una vasta región del espacio. [...] La partícula se transforma continuamente en onda, y la onda, en partícula. Esto significa que ni los electrones, ni ningún otro 'objeto' atómico tienen propiedades que sean independientes de su entorno" (Capra, 1996, p. 85). Cuando Einstein recibió la tesis de De Broglie, se comunicó con su amigo Erwin Schrödinger sobre la idea de "ondas de materia". Schrödinger resolvió el mismo problema que Heisenberg, pero mostrando que los niveles de energía podían ser patrones de ondas, con la ventaja sobre Heisenberg, de mostrar una imagen sobre el átomo (funciones "S", "P", "O" Y "F"), mientras que Heisenberg sólo había dado la formulación matemática.

Dos años después de la publicación de De Broglie, Schrödinger, a sus casi 42 años, hizo su primer aporte que recibió los siguientes comentarios personales de Einstein: "Estoy convencido de que has realizado un avance decisivo con tu formulación de la condición cuántica, así como estoy convencido de que la ruta Heisenberg-Born está descarriada" (Briggs, J. y Peat, 1989, p. 49). Lo más llamativo para este momento es que las teorías de Schrödinger y de Heinsenberg resolvían el mismo problema, con enfoques matemáticos equivalentes a pesar de que sus puntos de partida eran distintos, Heisenberg desde espectros atómicos discontinuos y Schrödinger desde ondas de materia continuas. H. A. Lorentz escribía a Schrödinger en mayo de 1926 sobre la utilización de los dos enfoques: "Si yo tuviera que escoger entre tu mecánica ondulatoria [de Schrödinger] y la mecánica matricial [de Heisenberg], daría preferencia a la primera a causa de su mayor claridad intuitiva, mientras uno sólo tenga que encarar las tres coordenadas x, y, z. Sin embargo, si hay más grados de libertad, entonces no puedo interpretar las ondas y las vibraciones físicamente, y debo pues decidirme a favor de la mecánica matricial" de Heisenberg. El modelo de Schrödinger necesitaba para describirse, tres dimensiones por electrón, en el átomo, mientras que el de Heisenberg sólo requería cálculo para desarrollar una matriz. Heisenberg se encontraba preocupado y se repetía sin cesar la misma pregunta: "¿Puede la naturaleza ser tan absurda como nos parecía en estos experimentos atómicos?" (Heisenberg, 1971). ¿Cómo puede llegarse a la misma respuesta pensando como ondas o pensando como partículas? ¿Puede realmente la naturaleza ser onda y partícula a la vez? Estas consideraciones y el no encontrar respuesta dentro de su teoría le hizo pensar que tal vez no habría respuesta. Tal pensamiento lo llevó a una serie de análisis con los cuales formuló su principio de incertidumbre en 1927: "No puede determinarse a la vez la posición y la velocidad de una partícula" (Enciclopedia, 1992, p. 271). Para llegar a este enunciado, Heisenberg acudió a un experimento mental imaginario: "Si se pudiera observar un electrón mediante [un] gran microscopio se debería iluminar mediante luz, es decir, mediante fotones, pero el choque producido entre el fotón y el electrón provocaría en éste una variación de su cantidad de movimiento y no se podría predecir su posición" (Enciclopedia, 1992, p. 271). El análisis también es válido en sentido inverso, es decir, que tampoco se podría medir la variación de cantidad de movimiento, pues si se quisieran observar los fotones reflejados en el electrón se estaría empleando fotones de baja energía que nos reducirían la propia capacidad de observación.

El principio de indeterminación de Heisenberg mostraba que las propiedades reales de los objetos ya no se podían separar del acto de medición y por ende del observador mismo" (Briggs, John y Peat, David, 1989, p. 54). Heisenberg formuló matemáticamente su prinpio de la siguiente manera: ∆ρ*∆x≥h, lo que significa que cuanto más preciso sea el valor de las magnitudes p, ó, x; mayor imprecisión deberá esperarse de otra.

Pero esto no era aún lo peor. El famoso experimento de "doble ranura" hecho por muchos científicos demostró que cuando se lanzaba un electrón para que pasara por una ranura y fuera detectado, efectivamente se lograba. Pero cuando se lanzaban varios seguidos, y se esperaba que llegaran en patrones dispersos, bien a una de las ranuras o a la otra, los científicos encontraron que existía un patrón de ondas, tal como si hubiesen disparado una corriente de ondas de electrones, todos al mismo tiempo. A nivel más comprensible, esto implicaba que "[...] cada partícula indivisible se las ingenia para atravesar ambas ranuras al mismo tiempo e interferir consigo misma, contribuyendo a la formación del patrón de ondas en la pantalla, aunque registrándose de algún modo como un sólo clic [en el detector]. La segunda interpretación [permite decir] [...] que de algún modo cada partícula 'sabe' a dónde han ido las partículas que la precedieron y a dónde irán las partículas siguientes, de modo que al final del experimento todas se habrán juntado en un bonito patrón de ondas, para perplejidad del experimentador" (Briggs, John y Peat, David, 1989, p. 54).

Una forma de salir del atolladero era considerar el carácter probabilístico del mundo cuántico como dado; ya no hay certidumbre de que la materia exista en lugares determinados. Bohr incluso llegaba a sostener que a este nivel de la naturaleza, ya no se encontraban cosas en sí mismas. Concluyendo, se puede decir que hay probabilidades, a este nivel, de existencia, o facetas de paso físicas (momentáneas), o mejor, una percepción del estado momentáneo llamado "materia", de la energía. "En una frase que más tarde se volvería popular, [el electrón] no es una 'cosa' sino 'tendencias a existir' (Briggs, John y Peat, David, 1989, p. 54).

Bohr escribió sobre el carácter de entidad de las partículas subatómicas: "Las partículas de materia aisladas son abstracciones; la única manera en que podemos definir y observar sus propiedades es a través de la interacción que establecen con otros sistemas" (Briggs, John y Peat, David, 1989, p. 54).

Como se tiene, el fantasma de la paradoja venía haciendo sus estragos en los diferentes puntos de la física del siglo XX. Bohr y Heisenberg tuvieron entonces que ponerse de acuerdo en aspectos mínimos que fueran los preceptos básicos que permitieran una aplicación práctica de la ciencia que se había creado. Esta reunión y su posterior declaración se conocen como la Interpretación de Copenhague de la teoría cuántica[1]. En últimas, la naturaleza necesitaba a los experimentadores para poder existir, según lo que ellos desearan encontrar. Esto equivale a decir que "el que busca, encuentra". Además, este nuevo mundo cuántico no parecía poder dividirse en partes pues en los casos observados se comportaba como un todo indisoluble e inseparable, ni considerar la inteligencia como una influencia externa de lo que se observaba.

La teoría cuántica introduce otro nivel de paradoja, en la búsqueda del orden "a nivel cuántico". Allí observamos un mundo donde los cambios suceden en saltos, lejos de nuestros poderes de predicción precisa. Este mundo también ha desafiado las creencias acerca de la medición objetiva, pues para el nivel subatómico el observador no puede observar nada sin causar interferencia o, más importante aún, sin participar en su creación.

Otro ejercicio mental, célebre en el mundo cuántico, que refleja el problema del observador y lo observado es la paradoja del gato de Schrödinger (Gell-Mann, 1994, pp. 172-173). Póngase un gato vivo en una caja cerrada y oscura. Dentro de la caja hay un mecanismo que libera cianuro con probabilidad de 50%. Luego de poner a funcionar el mecanismo, el gas podrá liberarse o no, con lo cual el gato puede morir o quedar vivo. Como es evidente, si no se abre la caja, nunca se sabrá si el gato está vivo o está muerto. Sin embargo, el abrir la caja sólo nos va a aportar información adicional, pero los acontecimientos ya se habrán dado. Este ejemplo mental describe lo que sucede con la función ondulatoria de Schrödinger: para el observador el gato estará vivo o muerto, mientras que la función ondulatoria, al ser una combinación lineal del tipo (a1x1+ a2x2 +...+ anxn), en este caso de 2 incógnitas, se tendrán toda una serie de posibilidades de gatos vivos a 50, 25, 44% o muertos al 50,75 o 66%. "Parece pues que el acto de la medición humana ha resuelto el destino del gato" (Gell-Mann, 1994, pp. 172-173).

 

La relatividad

En 1945 Einstein publicó su teoría especial de la relatividad, a sus 26 años. Esta teoría propone que el espacio no es tridimensional y que el tiempo tampoco es una dimensión aparte. Para Einstein estos conceptos estaban conectados en un "continuo" de cuatro dimensiones que denominó "espacio-tiempo". Esta noción chocaba de frente con la idea newtoniana de movimiento absoluto en un espacio absoluto, separado de un tiempo absoluto. Como se hace evidente, el tiempo dejó de hacerse absoluto (y lineal); por ende, es relativo.

Esto significa que dos observadores diferentes ordenarán los acontecimientos en el tiempo de forma distinta si se mueven con velocidades dispares muy grandes. Una idea que llevó a Einstein durante un buen tiempo a esta formulación provenía de interrogarse qué pasaría si persiguiese un rayo de luz, incrementando su velocidad hasta llegar a la velocidad de la luz: lo que percibiría sería una onda estacionaria. Una vez más Einstein encontraba un punto de vista concordante con Heisenberg y con Schrödinger: el continuo espacio-tiempo indica que la linealidad de los acontecimientos depende del sistema relativo del observador.

En este punto es necesario hacer una distinción del modelo de Einstein con el de Bohr: "Para Einstein el universo no era simplemente 'relativo' [de la mecánica cuántica de Bohr podíamos concluir que cada observador está creando un universo propio]. Creía firmemente en un universo real y objetivo que existía independientemente de todo observador. El acto de la observación no afectaba en absoluto el universo de Einstein" (Briggs, John y Peat, David, 1989, p. 92). Einstein sustentaba esto al encontrar un sistema de "traducción" de realidades que quedaba completado por las transformaciones de Lorentz. Un punto débil en su argumentación consistía en la aceleración, que reflejaba que el sistema de referencia era absoluto. Luego de varios análisis el científico alemán encontró que la gravedad y la aceleración eran matemáticamente equivalentes y que la gravedad también era un concepto geométrico que entraba dentro del espacio-tiempo. Cuanto mayores curvas se tuviesen en el espacio-tiempo, más aceleración-gravedad se tendría. La gravedad misma era la geometría o curvatura del espacio-tiempo.

Otra de las implicaciones de la teoría de Einsten es que la materia puede convertirse en energía, es decir, estos son estados de la materia intercambiables. La masa no es más que una forma particular de energía, es decir, la masa es energía que se ha cristalizado o condensado porque ha perdido su velocidad. Como suele suceder con las teorías, su verificación fue la que produjo su éxito: fue comprobada en la curvatura de la luz durante un eclipse en 1919, validada en las fuerzas gravitatorias del planeta Mercurio, y en otros experimentos.

Algo que se debe resaltar es que la teoría de la relatividad se basa en la idea de campos continuos (geometrías continuas, geodésicas o curvaturas del espacio-tiempo), en un universo objetivo y determinista, independiente de los observadores que descubren leyes no probabilísticas.

Finalmente Einstein pretendía llevar fuerzas como el magnetismo o la electricidad, que fueron explicadas mediante las teorías de campo, a una teoría general de campo unificado en donde la materia aparecería como concentraciones de energía en un campo universal, en un universo integral.

Lo que ahora se encuentra paradójico es que tanto la interpretación de Copenhague, de Heisenberg-Bohr, como la teoría de Einstein consideran el universo como integral, no como una máquina que debe ser iniciada por una inteligencia externa, sino con inteligencia interna. Además estaban de acuerdo en precisar que las realidades dependen del observador; sin embargo, estaban en completa oposición al pensar que el universo era probabilístico/determinístico, discontinuo/continuo, no local/local. ¿Cómo lograr poner de acuerdo los avances más notables de la física de este tiempo, si se contradicen una a la otra? Antes de intentar alguna respuesta se estudian nuevamente las teorías de "campo" (Briggs y Peat, 1989, pp. 76-84, Capra, F. El punto crucial, 1996, pp. 89-90, Capra, Fritjof, 1995, p. 396, Gell Man, 1994 pp.104-145, Wheatley, 1996, pp. 59-60).

 

Teoría de campo

A principios del siglo XIX se descubrieron e investigaron los fenómenos de electromagnetismo que condujeron al concepto de campo. La electricidad estática ya era conocida desde Tales de Mileto (600 a.C.) y las primeras descripciones de los fenómenos magnéticos aparecieron en textos de Pierre de Maricourt (siglo XIII), William Gilbert (1544-1603), Benjamin Franklin (1706-1790), Coulomb (1736-1806), Volta (1745-1827) Y Hans Christian Oersted (1777-1851). La idea de "electromagnetismo" fue descubierta por Ampere y Faraday, al encontrar las conexiones entre electricidad y magnetismo. En 1865, el científico James Clerk Maxwell relacionó matemáticamente ambos fenómenos y junto con las ideas de Michael Faraday, consideraron la idea de campo. Estos físicos afirmaban que cada carga crea una alteración o una condición en el espacio circundante de manera que la otra carga, cuando esté presente, siente una fuerza. Piense en la siguiente imagen: "Cuando un cuerpo está situado en el campo de gravitación terrestre se halla sometido a una fuerza (peso del cuerpo) ejercida por dicho campo. De la misma forma el campo eléctrico es una región del espacio perturbada por cargas en reposo. Dicha región ejerce fuerza sobre cualquier carga que a ella se lleve" (Ramírez, R. y Villegas, p. 125). En el pensamiento científico se ha desarrollado la teoría de campos en algunas áreas antes de la física cuántica para explicar las acciones que suceden a la distancia. Estos campos han sido concebidos en diferentes formas, dependiendo de la teoría. El campo gravitacional fue concebido como una estructura curvada en el espacio-tiempo; los campos electromagnéticos creados como perturbaciones que se manifiestan a sí mismas como radiaciones electromagnéticas; los campos cuánticos, tal vez un diferente campo para cada partícula, que produce partículas cuando dos campos se interceptan. Pero en cada una de estas teorías los campos son estructuras no visibles que ocupan espacio y que llegan a ser conocidas gracias a sus efectos. La teoría de los campos lleva a pensar en un universo lleno de influencias interpenetrantes y estructuras invisibles que se conectan (Wheatley, 1996, pp. 50-51).

Un paso más avanzado en teorías de campo tiene que ver con los desarrollos matemáticos de J.S. Bell. Este teorema sostiene que dos partículas (o más) están conectadas como una unidad indivisible, aunque estén separadas por una distancia enorme (tal como decía Bohr), según principios que trascienden el espacio y el tiempo, incluso la velocidad de la luz, de manera tal que lo que se haga con una partícula le es "informado" a las demás. Este campo de conectabilidad superluminal (superior en velocidad a la de la luz) ha sido sustentado y en particular ofrece una complementación a la delicada formulación de la mecánica cuántica: "El teorema de Bell corrobora la interpretación que Bohr da sobre la unidad indivisible de dos partículas […] Strapp resumió la situación en estas palabras: "El teorema de Bell prueba, en efecto, la profunda verdad que dice que el mundo es fundamentalmente anárquico o fundamentalmente indivisible" (Capra, F. 1996, p. 93).

De Broglie trabajó con David Bohm en sentido similar bajo la noción de "ondas piloto" como señales de radar que distribuyen la información a las demás (De Broglie, 1923).

En este punto, algunas cosas se tenían en claro: el universo es integral y complejo (Horgan, 1995, pp. 104-109), con inteligencia intrínseca, de manifestación dialógica a los ojos del hombre, cada vez más importante en cuanto a sus relaciones que a sus entidades, a los campos que a las unidades, recursivo entre el observador y lo observado -es decir, que el observador causa lo observado que es el efecto y al mismo tiempo, lo observado causa al observador que se convierte en efecto, y así sucesivamente- y lleno de oposiciones paradójicas.

 

Detalles sobre la crisis de otras ciencias

El mundo de Newton-Descartes que estaba concebido como máquina encontró un pequeño problema, que se agravó con la entrada de la primera Revolución Industrial: ¿qué es lo que hace que una máquina tenga movimiento perpetuo?, ¿qué pasa con la ley de la inercia de Newton? La mecánica clásica había enseñado que el trabajo se convierte en energía y que la energía tenía varias formas intercambiables (mecánica, eléctrica, química, térmica), pero los científicos observaron que cuando se hacían conversiones de energía se perdía una parte de ella en la conversión. Pero, luego, ¿no se tenía como axioma que la energía no se crea ni se destruye, y solamente se transforma? Aunque esta proposición seguía siendo cierta, parte de la conversión se daba en energía no aprovechable, especialmente cuando hablamos a nivel industrial.

Este enfoque fue tomado por los primeros científicos de las ciencias de gestión liderados por Taylor y Fayol, quienes se felicitaban a sí mismos por seguir el método y la perspectiva de Newton-Descartes.

Este problema fue estudiado a fondo por la termodinámica, tan influyente para la ciencia como los trabajos de Newton, bajo la ley de la entropía creciente. La entropía puede entenderse como una "[...] disminución irreversible de la aptitud para transformarse y efectuar un trabajo" (Morin, 1988. p. 51)[2] por ejemplo, de una máquina (Morin, 1988, p. 51)[3]. Es irreversible porque inicia bajo unas condiciones termodinámicas iniciales y, para un tiempo t dado se encuentra en un estado donde la pérdida de energía es notable, es irreversible porque no puede regresarse al punto inicial; (esta idea alejaba a la termodinámica de la mecánica newtoniana)[4]. Al respecto señalan Peat y Briggs: "En la dimensión del espacio es posible moverse en cualquier dirección ejerciendo una fuerza, pero ninguna fuerza cambia nuestro paso por el tiempo. Es imposible volverse más joven. El tiempo tiene una flecha unidireccional y la termodinámica nos indica cómo distinguir esa dirección. La flecha del tiempo siempre apunta hacia un aumento de la entropía" (Briggs, John y Peat, David, 1989, p. 170). La flecha señala inexorablemente hacia la muerte.

A finales del siglo XIX, Boltzmann propuso el empleo de la mecánica de Newton en la termodinámica, siempre y cuando que se presumiera la existencia de átomos y moléculas. La estrategia de Boltzmann era sutil: decía que las moléculas individuales obedecían las leyes de Newton, reversibles, pero como eran tantas y en permanentes choques, que sus trayectorias se hacían aleatorias. Entonces pensó en calcular valores promedio usando teoría estadística. Había sentado las bases de la mecánica estadística. Boltzmann demostró además que el calor era movimiento molecular y que la entropía no era otra cosa que caos molecular. "[...] El orden y la estructura siempre deben ceder ante el desorden y el caos" (Stengers, l. and Prigogine, l. 1983). Los físicos pensaban entonces que el destino final del universo era la muerte térmica y mientras que el desorden predominaba y hacía la energía desaprovechable, la energía útil y ordenada degenera en lo que podemos conocer como equilibrio: "Equilibrio es el estado máximo de entropía. En el equilibrio, la energía útil se ha disipado en los espasmos esporádicos del movimiento browniano" (Stengers, l. and Prigogine, l., 1983).

Esto parecía muy sólido, pero no permitía explicar cómo era la teoría de la evolución de las especies de Darwin en biología. Las preguntas que se originaban de esta confrontación pueden resumirse como sigue: "¿Cómo es posible? ¿Cómo puede la vida aparecer, sostenerse y desplegar un crecimiento organizativo ante la marcha universal de la entropía? ¿Es la vida un mero proceso aleatorio? ¿O el universo, a pesar de su aparente tendencia hacia lo aleatorio, de alguna manera crece y evoluciona? ¿Se deben ensanchar las leyes de la termodinámica para incluir la emergencia de sistemas nuevos y novedosos?" (Stengers, l. and Prigogine, l., 1983).

Si se ve ahora parte de la evolución del pensamiento en biología, hasta llegar a la teoría de evolución de Darwin-Wallace, se encuentra un punto crucial de la paradoja reduccionista.

Se inicia este breve recorrido con el pensamiento mecanicista. La visión cartesiana, aún dominante en la biología, según Capra, sostiene que los organismos deben estudiarse reduciéndolos a sus constituyentes más pequeños. Los logros de este enfoque no pueden taparse con las manos, por ejemplo lo relativo a la genética. Auncuando el modelo cartesiano-reduccionista sigue vigente, los biólogos han encontrado dificultades para explicar el funcionamiento de los sistemas vivientes como unidades y sus interacciones con el entorno, probablemente un tema más cercano a los ecólogos. "La mayoría de los biólogos dan por sentado que los seres vivos sólo son máquinas complejas, gobernadas únicamente por las leyes de la física y la química" (Sheldrake, 1990, p. 15).

Capra llama la atención sobre los avances en biología logrados por investigadores de otras áreas del conocimiento, como la medicina: Pasteur (médico) centró las bases de la microbiología, Claude Bernard (médico) fue el creador de la fisiología moderna; también fueron médicos los descubridores de la teoría celular Schleiden y Schwann; Rudolf Virchow, quien promulgó la concepción celular actual; Jean Batipste Lamarck fue un científico autodidacta que inició los estudios de las especies y Darwin, quien era geólogo, publicaría su obra Sobre el origen de las especies (1858), en donde presentó la idea de transformación evolutiva de las especies hasta llegar al hombre.

Apretando demasiado la presentación, el neodarwinismo de comienzos del siglo XX dice que la especie humana ha florecido y es la dominante debido a su cerebro infinitamente adaptable a las condiciones cambiantes, que incluso, llega a controlar. La teoría consiste en variaciones azarosas, seleccionadas para la supervivencia mediante una constante lucha por la existencia en un medio ambiente cambiante. Este tipo de competencia se ratifica en el enfoque de Chevalier de Lamarck, según la cual "[...] la evolución se produce mediante la transmisión de una generación a la siguiente de lo que las entidades biológicas individuales aprenden o "adquieren" en sus enfrentamientos con el medio ambiente" (Briggs y Peat. 1989, p. 201); el trabajo de Lamarck fue dejado en el cajón y el darwinismo se hizo, "por selección natural", la teoría predominante y exitosa. Sin embargo, quedaban preguntas sin respuesta: ¿Cómo es que sobreviven los más aptos, es decir, cómo es que sobreviven los que sobreviven? ¿Realmente el hombre es la criatura más avanzada de la naturaleza, y si lo es, por qué? ¿Es tal explicación la única fuerza impulsora del desarrollo de nuevas formas de vida?

Como se ve, la entropía y la evolución (Briggs y Peat, 1989, p. 201) ofrecen muchas preguntas, y entre ellas, en franca oposición entre la muerte y la vida. La biología se perfila cada vez más como la ciencia del futuro, así como la física lo fue del paradigma reduccionista, en crisis, por lo cual se hace importante tratar de vislumbrar salidas a las incoherencias que el mismo reduccionismo ha ocasionado a esta ciencia últimamente.

 

Respuestas a la problemática de la crisis de paradigma

La posible unificación de David Bohm

David Bohm (1917-1994), físico nacido en Pennsylvania, estudió el movimiento de los electrones que componen un metal. Encontró que había un movimiento colectivo, inesperado, que implicaba el mar de electrones que se veían como un "todo" y que él entendía como un "plasma de electrones" o "plasmones". Este trabajo de Bohm reveló que el orden del movimiento colectivo podía estar ocultado o implicado en movimientos individuales explícitos. Esto le llevaba a pensar que el universo, como totalidad, es una red causal móvil y que la causalidad lineal era una excesiva reducción de lo observable. El mismo Bohm dice: "La fragmentación está ahora ampliamente diseminada, no sólo a través de la sociedad sino también en cada individuo; y esto está llevándonos a un género de confusiones generales de la mente, la cual crea una serie interminable de problemas e interfiere con nuestra claridad de percepción muy seriamente, así como nos previene para estar disponibles a solucionar la mayoría de ellos … la noción de que todos estos fragmentos existen separadamente es evidentemente una ilusión, y esta ilusión no hace otra cosa que llevarnos a un sin fin de conflicto y confusión" ( Briggs y Peat, 1989,p. 201). Bohm entendía que la materia y la "mente" eran una sola cosa y que la investigación científica era un acto de percepción, un proceso circular de conciencia y naturaleza, por lo cual propuso que los científicos empleaban su "intuición" como un ángulo de percepción, para completar los aspectos que necesariamente van a escapar del análisis.

Bohm encontró que movimientos como el browniano no eran aleatorios o desordenados, sino de un orden infinitamente elevado y que por centrarse en las partes no se entendía (ni se entiende) la totalidad. Bohm ofrece tres analogías en las que pretende explicar lo que él considera el nuevo orden de los hechos.

La primera es el holograma: una placa registra patrones de interferencia en anillos concéntricos, la luz que rebota en la imagen a fotografiar produce estos patrones, que luego al ser iluminados con un rayo láser muestran la imagen como si tuviese tres dimensiones. Si se corta una parte a la lámina con las interferencias, perdería definición, pero la imagen seguiría estando completa. Para Bohm, el holograma es una sugestiva analogía del orden íntegro e indiviso del universo. La segunda imagen corresponde al hecho de aplicar una gota de tintura en glicerina, que se hace girar en un cilindro. Cuando se hace girar el cilindro, la gota se dispersa, pero lo sorprendente es que cuando se invierte el movimiento, la gota reaparece. Esto llevó a Bohm a pensar que la totalidad es movimiento fluido; la gota es el estado explícito de la materia en tanto que el orden oculto intermedio (mientras que la gota en su estado inicial reaparece al devolver el cilindro) se conoce como estado implícito o implicado. Esto lo denominó Bohm "holomovimiento". La tercera imagen es la de la pecera multidimensional. Si se toman dos cámaras de video y se filma un solo pez (tridimensional), desde 2 ángulos, a 90 grados una cámara con respecto a la otra y se proyecta a dos televisores para un mismo observador, un televisor por cámara, el observador, viendo imágenes bidimensionales puede pensar que son cosas diferentes y que por alguna extraña razón tienen un movimiento correlacionado (un movimiento del pez tridimensional). Bohm señala cómo el universo es de incontables dimensiones que encarnan un carácter integral y que la propia condición tridimensional no permite ver realidades de mayores dimensiones. A partir de estas imágenes Bohm dice que la vida está implícita en la materia inanimada y que el holomovimiento debe incluir el principio de la vida. También la conciencia está implícita en el holomovimíento, pues la conciencia es totalidad, no conciencia individual, y por ende está en toda la materia. "Todo está vivo en el universo" parece ser la conclusión de los estudios de Bohm. La inteligencia está implícita en el universo complejo.

El modelo de Bohm de órdenes explícitos o implícitos permite ver tanto la partícula (explícito) como la onda, permite entender la continuidad y la discontinuidad, la localidad y la no localidad, el ser y el devenir, las partes y el todo.

Aunque muchos físicos teóricos actualmente rechacen la teoría de Bohm, su respeto por él en cuanto pensador es evidente y existe un perceptible giro hacia estas ideas que al menos en parte se puede atribuir a su prolongado esfuerzo por dar voz a la totalidad.

Posiblemente la última propuesta para lograr una unificación en la física del estudio de todas las partículas elementales, se conoce como la teoría de supercuerdas y según Gell Mann, la "teoría de supercuerdas heteróticas" es la primera candidata viable para convertirse en la teoría cuántica de campos unificada de todas las partículas y sus interacciones. Fue desarrollada según el principio de autoconsistencia: "La idea era que un conjunto de partículas elementales podía tratarse de modo autoconsistente como si sus elementos consistiesen en combinaciones de las propias partículas. Todas ellas harían las veces de constituyentes y a la vez serían los cuantos asociados a campos de fuerza que las mantendrían unidas; todas las partículas aparecerían como estados ligados de dichos constituyentes" (Gell Mann, 1994, p.146). Aunque el concepto es un poco intangible, podría entenderse, según el principio de autoconsistencia, que las partículas, si es que se puede afirmar que existen y no que son una observación particular, podrían generar las fuerzas que las unen entre sí; los estados ligados resultantes serían las propias partículas, y ellas mismas serían, recursivamente, las que propagan las interacciones, con lo cual el sistema se habría dado origen a sí mismo si existiera este sistema de partículas ideado. La primera versión de esta teoría se originó en 1971 por John Schwartz y André Neveu a partir de un trabajo previo de Pierre Ramond. En particular Stephen Hawking ha trata- do de unir esta teoría de supercuerdas, la mecánica cuántica y la relatividad en torno a las condiciones iniciales del origen del universo.

Se hace interesante ver que tanto las ideas de Bohm como la teoría de las supercuerdas parten de la idea de un todo de manifestación dual en donde cada concepto dialógico opera recursivamente sobre el otro para provocar/sostener su existencia.

 

Los trabajos de Ilya Prigogine[5]

Prigogine se encontraba inmerso en explicarse la naturaleza de la vida, en particular, quería saber por qué los organismos vivos eran capaces de mantener sus procesos vitales bajo condiciones de no equilibrio. En sus propias palabras, Prigogine nos comenta sobre sus cavilaciones: "Estaba muy interesado en el problema de la vida [...] Siempre pensé que la existencia de vida nos dice algo muy importante sobre la naturaleza" (Capra 1997, p. 104). Su descubrimiento crucial fue la no linealidad inherente de los sistemas alejados del equilibrio.

Prigogine estudió el sencillo fenómeno de la convección térmica conocido como la "inestabilidad de Bérnard" -y ejemplo clásico de auto organización-, pues luego de un punto crítico de calentamiento aparece un patrón de células hexagonales. El análisis de las celdas le proporcionó a Prigogine la siguiente información: "[...] a medida que el sistema se aleja del equilibrio (es decir, de un estado de temperatura uniforme a través del líquido), alcanza un punto crítico de inestabilidad, en el que aparece el patrón hexagonal ordenado" (Capra, 1997, p. 104). Otra pista que tuvo Prigogine: "En 1958, dos investigadores rusos tropezaron con una estructura alejada del equilibrio que se presentaba en un ámbito químico. Cuando mezclaban ácido malónico, bromato e iones de cerio en una bandeja chata de ácido sulfúrico a ciertas temperaturas críticas, lo que ahora se conoce como reacción Belousov-Zhabotinsky, se creaba una estructura de "células" concéntricas, espiraladas y palpitaba y perma- necía estable aún mientras la reacción secretaba más células" (Briggs, y Peat, 1989, p. 178).

Estas observaciones más el bagaje científico recorrido por Prigogine lo llevaron a formular el concepto de "estructuras disipativas". Este nombre se lo dio a "[...] las formas alejadas del equilibrio [que] para mantener su forma [...] deben disipar la entropía constantemente para que no crezca dentro de la entidad y a 'mate' con equilibrio" Briggs y Peat, 1989, p. 178).

El trabajo de Prigogine sobre la evolución de sistemas dinámicos demostró que el desequilibrio es la condición necesaria para el crecimiento de un sistema. Denominó a estos sistemas estructuras disipativas, porque disipaban su energía para recrearse a sí mismos dentro de nuevas formas de organización; por esta razón estos sistemas se conocen como sistemas autoorganizadores o autorrenovadores. Además las estructuras disipativas en química también enseñan una verdad paradójica, demostrando cómo el desorden pueden ser también la fuente de un nuevo orden; el término de estructuras disipativas fue propuesto por Prigogine con el fin de explicar un proceso de contradicción inherente entre la evolución y la entropía[6], Prigogine encontró que esta actividad disipativa desempeñaba un papel central en la creación de nuevas estructuras. En estos procesos, un sistema podía abandonar su forma presente para reemerger en una mejor forma a las demandas del ambiente actual.

El equilibrio no es la meta ni el destino de los sistemas vivientes, simplemente porque como sistemas abiertos, ellos son socios con su medio ambiente. El estudio de esos sistemas, iniciado con el trabajo de Prigogine en 1980, ha mostrado que los sistemas abiertos tienen la posibilidad de importar continuamente energía libre del ambiente y de exportar entropía para permanecer viables; los sistemas abiertos mantienen un estado de no equilibrio, conservando el sistema lejos del balance de manera que le permita el cambio del crecimiento. Prigogine también resolvería el problema de la irreversibilidad del tiempo al proponer un tiempo interno del sistema, histórico e irreversible (T) y otro tiempo (t) abstracto reversible de las posibilidades. Esta noción de coexistencia de los tiempos pone de relieve que ningún nivel de la realidad puede considerarse más fundamental que otro.

 

Erich Jantsch, coevolución disipativa y conectividad

"En la vida, el tema no es el control, sino la conectividad dinámica" (Jantsch, 1980, p. 196). Este autor se apalancaría en las nociones de Prigogine para desarrollar el concepto de "coevolución".

Jantsch se preguntaba si una estructura disipativa puede entenderse como una estructura material que organiza energía o como una estructura de energía capaz de organizar el flujo del material. La información organiza la materia en la forma, lo cual produce estructuras físicas. La coevolución es un enfoque estructural disipativo del origen de las especies. Supera la adaptación y la lucha por la supervivencia donde ganan los más fuertes. Esto puede decirlo al reflexionar de la siguiente manera: "Las formas de vida más primitiva eran de lejos las más adaptadas. Si el significado de la evolución estaba en la adaptación y en aumentar las probabilidades de supervivencia, como se afirma a menudo, el desarrollo de organismos más complejos habría sido inútil e incluso erróneo" (Briggs y Peat, 1989, p. 210. Jantsch, 1980).

La base de la coevolución es simple. El desarrollo de las estructuras en lo que se denomina microevolución refleja el desarrollo de las estructuras de la macroevolución y viceversa. Las microestructuras y las macroestructuras evolucionan juntas y en conjunto. Los flujos de materia a través de un sistema, el cual es energía, asumen diferentes formas tal como se requiera; cuando la información cambia y las perturbaciones se incrementan, nuevas estructuras se materializan. Jantsch dice que un ecosistema es un sistema de información que se manifiesta a sí mismo en la organización de la materia, evolucionando en la medida en que acumula información. "En una constante evolución, en el universo dinámico, la información (genética) es el ingrediente fundamental, la fuente clave de estructuración; el proceso de creación de estructura. Algo que no podemos ver, tocar o tener en nuestras manos, nos rodea, organizando la vida. La información nos administra" (Briggs y Peat, 1989, p. 210. Jantsch, 1980).

Desde esta perspectiva, "[...] la información es única como recurso, debido a su capacidad de generarse a sí misma. Es la energía solar de la organización, inextinguible, con nueva progenie emergiendo a cada momento que la información se encuentra a sí misma. El combustible de nueva vida es la información nueva, ordenada dentro de nuevas estructuras, por lo cual la información debe ser fortalecida y generada, como una fuente de vida para los sistemas" (Briggs y Peat, 1989, p. 210. Jantsch).

Esta idea de evolución cooperativa, en donde algunas especies se extinguen pero la evolución como un todo se expande, conmociona viejos paradigmas y explica los saltos discontinuos en la evolución: las formas de vida son estructuras disipativas que surgen en puntos cruciales, emergen espontánea y holísticamente del flujo de macroprocesos y microprocesos. En la visión de Jantsch, "el universo como totalidad es la máxima estructura disipativa, pues se alimenta del medio ambiente en no equilibrio que es él mismo. La vida ya no parece un fenómeno que se despliega en el universo: el universo mismo se vuelve cada vez más vivo". El universo es un ser vivo.

 

Rupert Sheldrake frente al origen de las formas en las especies

Rupert Sheldrake es un biólogo británico que ha venido estudiando el mecanismo como se transmiten las formas. Por ejemplo, la explicación de cómo hace una semilla para convertirse en un frondoso árbol. Estas investigaciones lo han llevado por el camino de la morfogénesis (origen de la forma), (Sheldrake, 1990, pp. 27 -30). Sheldrake propone algo parecido a la teoría de campos mencionada anteriormente. Afirma que los sistemas están regulados por factores energéticos/materiales, pero también por campos invisibles de organización que sirven de patrones para la forma y el comportamiento. Es decir, Sheldrake explora las formas como una estructura disipativa, que se produce a sí misma pero que además se comporta como la teoría de campo en la física. Como campo, su alcance es de mayor dimensionalidad que lo que puede explicarse, por lo cual no está limitado por el tiempo o el espacio (como en el orden implícito de Bohm). Cuando un individuo de la especie aprende algún comportamiento, efectúa una variación mínima sobre su campo, el de toda la especie; igual sucede con la forma. Si esta información en el campo se hace suficientemente repetitiva, la “resonancia mórfica” afecta a toda la especie. Este campo puede entonces denominarse “campo morfogenético”. Según el mismo Sheldrake, “La hipótesis […] se basa en la idea según la cual los campos morfogenéticos  ejercen efectos físicos que pueden medirse. Propone que campos morfogenéticos específicos son responsables de la organización y forma característica de los sistemas a todos los niveles de complejidad, no únicamente en el terreno de la biología sino también en los terrenos de la química y la física. Estos campos organizan los sistemas con los que se relacionan influyendo sobre sucesos indeterminados y probabilísticos desde un punto de vista energético; imponen restricciones determinadas sobre los resultados energéticamente posibles de los procesos físicos” (Sheldrake, 1990, pp. 27-30). Además deben presentar estructuras presentar estructuras características que organizaban los sistemas, de acuerdo con las formas en que se organizaban sistemas similares en tiempos pasados (Sheldrake, 1990, pp. 27-30).

Sheldrake sugiere la existencia de un estado de mediación entre el ADN y los procesos de formación de un organismo. Este mediador es un complejo conjunto de campos ocultos que dirige todas las etapas de la morfogénesis y la forma definitiva que cobran las cosas, incluida su conducta. Estos campos darían forma y movimiento regular al universo. Las leyes de su movimiento se establecerían por la repetición de cierto número de casos, es decir, la repetición de eventos es lo que origina una ley, pero la ley es la que origina los eventos. Lo llamativo de la teoría de Sheldrake es que es inherentemente holográfica; lo que sucede a niveles inferiores del sistema, sucede a niveles superiores o en meta sistemas.

Las hipótesis de Sheldrake no han tenido plena verificación[7], pero sus concepciones se han mostrado reveladoras como líneas de investigación sugestivas para descubrimientos holísticos en biología. Esto quiere decir que la hipótesis de la causación formativa (de la resonancia mórfica) “[…] propone que los campos morfogenéticos desempeñan un papel causal en el desarrollo y el mantenimiento de las formas de sistemas a cualquier nivel de complejidad. En este contexto, se considera que la palabra “forma” incluye no sólo la apariencia de la superficie externa o límite de un sistema, sino también su estructura interna. Llamamos causación formativa a esta causalidad de forma mediante campos morfogenéticos para distinguirla del tipo energético de causalidad de forma mediante campos morfogenéticos para distinguirla del tipo energético de causalidad del que ya se ocupa la física” (Sheldrake, 1990. p. 86).

De otra parte, en el campo de la gestión se partió de un enfoque positivista mecanicista a comienzos del siglo XX, logrando grandes resultados como la automatización de los procesos e importantes mejoras en productividad; sin embargo, a partir del estudio de la nueva ciencia el paradigma tradicional ha evolucionado para ser un paradigma más holístico y apegado al desarrollo de las nuevas ciencias. Este paradigma ha llevado a aplicar los conceptos de autoorganización y autoproducción donde se expresa la misma como máquinas no triviales enriquecidas con procesos de autocontrol desde la cibernética.

Han quedado otros científicos de nueva ciencia pendientes por reseñar. Como se puede apreciar, todos ellos plantean la necesidad de ir del estudio de las partes, al estudio del todo que se refleja en las partes que conforman el todo. La causalidad circular, la noción de conceptos opuestos que se requieren entre ellos para poder sobrevivir (dialógica), más la visión sistémica de relaciones, campos, redes, interconexiones del todo parecen resumir lo que ha encontrado la nueva ciencia. La inteligencia, la vida, la conciencia, están dentro del todo; somos en el universo y el universo es en nosotros, desde esta perspectiva que pone en relieve tanto el estudio de la totalidad como de las partes. Probablemente tanto se llega a buscar la parte mínima elemental y lo que se encuentra es la totalidad.

 

Pie de página

[*] Este artículo es producto del proceso de investigaciones en marcado en la línea interdisciplinaria de investigación, biogestión, de la Universidad Nacional de Colombia. Se recibió en marzo y se aprobó definitivamente en octubre de 2002.

[1] Sobre la importancia histórica de este encuentro y de los días vividos por los investigadores, se recomienda la transcripción del seminario "The Niels Bohr Archive's History of Science Seminar", efectuado en el Niels Bohr Institute el 19 de noviembre de 1999: "Copenhagen and beyond: the interconnections between drama, science, and history". Lectures and discussion, 1999. Disponible en http://www.nbi.dk/NBA/files/sem/copintro.html

[2] Este concepto fue designado por Clausius con el nombre de entropía.

[3] Esta definición proviene de una consideración conceptual y filosófica de la entropía. Si hablamos en términos matemáticos, mensurables, la entropía es la medida de la improbabilidad de producir algún trabajo. Adicionalmente, la definición de entropía que hacemos aquí corresponde a su consideración en sistemas cerrados, mientras que, como veremos adelante, la idea de entropía en sistemas abiertos puede observarse a la luz de la conceptualización de las estructuras disipativas de Ilya Prigogine. Stengers, l. and Prigogine, l. 1983. Prigogine, l. and Kondepudi, D. 1997, pp. 311-337. Kondepudi, D., Dewel, G. and Prigogine, 2000.

[4] La termodinámica sorprende por la noción de irreversibilidad, contraria a las nociones cartesianas, puesto que el tiempo siempre se había considerado una magnitud reversible.

[5] Prigogine es un belga científico nacido en Rusia que pasó la vida estudiando uno de los grandes aportes del siglo diecinueve a la ciencia, la termodinámica, una teoría que abarca tanto la física como la química.

[6] Morris comenta sobre el trabajo de Prigogine frente a esta contradicción: "Ilya Prigogine avanzó en la extraña idea de estructuras disipativas como una posible fuente de nueva complejidad en la naturaleza. Postuló que cuando los sistemas, de un modo u otro, son perturbados a una condición alejada del equilibrio, como resultado de un gran influjo de energía externa el cual produce una excesiva cantidad de disipación de energía externa, entonces, ciertas estructuras pueden ser generadas. Un ejemplo podría ser la generación de células de tormenta en la atmósfera de la Tierra provenientes del calor solar incidente. Morris, Henry B. Does entropy contradict evolution?, Institute for Creation Research IMPACT No. 141, El Cajón, 1997, p. 4.

[7] Aunque aún no hay una evidencia definitiva sobre las hipótesis de Sheldrake, muchas experiencias se han realizado en búsqueda de mayores aproximaciones para una verificación plena. Uno de los ejemplos más célebres sobre los campos morfogenéticos es el del "mono número cien"; veamos en qué consiste: "Hay una cierta especie de mono que vive en dos islas diferentes. Los dos grupos de monos que viven en las dos islas son la misma especie, en el mismo ambiente básico y, en general, los mismos estilos de vida básicos, pero las dos islas están alejadas una de la otra y los monos no pueden nadar, así que nunca puede tenerse algún contacto entre los dos grupos. Un día, en la primera isla, uno de los monos hace un gran descubrimiento tomando una fruta, la cual es su alimento principal. Esta fruta ha caído al agua y se hace mucho más fácil de pelar. Este es un descubrimiento maravilloso y un verdadero avance para los monos. Rápidamente, los otros monos de la isla empiezan a utilizar la novedosa y útil técnica. Ahora, luego de que esta especie de monos había vivido generación por generación en estas dos islas sin hacer este descubrimiento, una vez que está disponible y se ha hecho, una vez que el centésimo mono de la primera isla ha aprendido la innovación, entonces tendremos monos haciendo lo mismo en la segunda isla también". Cfr, en internet Weathersby, Ken, Hootenanny talks with Ruoelt Sheldrake. Hootenannv Editor.

 

Referencias bibliográficas

Ackoff, Russell, 1994. El arte de resolver problemas. Limusa. Noriega Editores. Décima impresión. México.         [ Links ]

Born, 1976, Letter On Wave Mechanics, New York Philosophical Library.        [ Links ]

Boucher, D. Connelly, J. and Modood, T. (eds), 1995. Philosophy, history and civilisation: interdisciplinary perspectives on R. G. Collingwood. University of Wales Press.         [ Links ]

Briggs, J y Peat, D., 1989. A través del maravilloso espejo del universo. Gedisa Ed. Barcelona.         [ Links ]

Bunge, Mario, 1983. La Investigación Científica. Ariel Methodos. Barcelona.         [ Links ]

Capra, Frijof, 1996. El punto crucial: ciencia, sociedad y cultura naciente. Estaciones. Argentina, primera reimpresión.        [ Links ]

Capra, Fritjof, 1995. El tao de la física. Editorial Sirio. Barcelona.         [ Links ]

Capra, Fritjof, 1998. La trama de la vida: Una nueva perspectiva de los sistemas vivos. Anagrama, Colección Argumentos. Barcelona.        [ Links ]

Capra, Fritjof, 1986. "The concept of paradigm and paradigm shitt", Revision. Vol. 9.         [ Links ]

"Copenhagen" and beyond: the interconnections between drama, science, and history. Lectures and discussion, 1999. Disponible en http://www.nbi.dk/NBA/files/sem/copintro.html         [ Links ]

Costabel, P., 1976. Du centenaire d'une discipline nouvelle: la thermodynamique. En: Perspectives on the emergence of scientific disciplines. Mouton & Co. Publishers, The Hauge, and Maison des Sciences de I'Homme, Paris. Aldine Publishing Co. Chicago.         [ Links ]

De Broglie, Louis. 177, 1923. Compres Rendus, vol. 177.         [ Links ]

Descartes, 1968. Discurso del método, Edición original. 1637. Losada, Buenos Aires. Quinta edición.         [ Links ]

Enciclopedia Superior. Círculo de Lectores, 1992, Printer Latinoamericana. Bogotá.         [ Links ]

García, F. y de la Parra, F. 1990. Filosofía. Ed Voluntad. Santafé de Bogotá. Octava Edición.         [ Links ]

Gell-Mann, Murray, 1994. El quark y el jaguar. Aventuras en lo simple y en lo complejo. Ed Tusquets. Barcelona.         [ Links ]

Gribbins, R.E. y hunt, S. D., 1981. "Is management a science?", En: Donnelly, Gibson e Ivanicevich, Fundamentals of management.         [ Links ]

Hawking, Stephen, 1988.Historia del tiempo. Del Big Bang a los agujeros negros. Editorial Crítica, Barcelona.

Heisenberg, Werner, 1971. Physics and beyond, New York. Harper And Row.         [ Links ]         [ Links ]

Horgan, J., 1995. From complexity to perplexity, En: Scientific American, June.         [ Links ]

Jantsch, Erich. 1980. The self-organizing universe. Oxford. Pergamon Press.         [ Links ]

Jantsch, E. 1982, Die selbstorganisation des universums. Carl Hanser Ed., 1982. Sin página. Traducción al inglés en http://www.goodshare.org/consent.html.         [ Links ]

Kuhn, Thomas S., 1962. The structure of scientific revolutions, University of Chicago Press. Chicago.         [ Links ]

Lemaine, Gerard, 1976. Perspectives on the emergence of scientific disciplines. Mouton & Co. Publishers, The Hauge and Maison des Sciencies de L'Homme, Paris. Aldine Publishing Co. Chicago.         [ Links ]

Le Moigne, Jean Louis, 1997. La incoherencia epistemológica de las ciencias de gestión. En: Cuadernos de Economía, Universidad Nacional de Colombia, No. 26, Vol XVI. Bogotá.         [ Links ]

Lepkowski, Wil, April 16, 1979. "The social thermodynamics of ilya prigogine", Chemical and Engineering News. Volume 57.         [ Links ]

Lewin, Roger, September 24, 1982. "A downward slope to greater diversity". Science. Volume 217.         [ Links ]

Montoya, Alexandra, 1999. Gerencia genética, Universidad Nacional de Colombia. Bogotá.         [ Links ]

Montoya, Iván, 1999. Gestión global, siglo XXI, Universidad Nacional de Colombia. Bogotá.         [ Links ]

Morin, Edgar, 1984. Ciencia con consciencia. Anthropos. Primera edición. Barcelona.         [ Links ]

Morin, E. El método. 1990. El conocimiento del conocimiento, Tomo Tercero. Editorial Cátedra.         [ Links ]

Morin, Edgar, 1990 Introducción al pensamiento complejo. Editorial Gedisa. Barcelona.         [ Links ]

Morris, Henry B. 1997. Does entropy contradict evolution? Institute for Creation Research IMPACT No. 141. El Cajón.         [ Links ]

Newton & Smith W.H. 1987. La racionalidad de la ciencia, Paidós Studio, Madrid.         [ Links ]

Prigogine, l. & Kondepudi, 0. 1997. "Thermodynamics, nonequilibrium". En: Encyclopedia of Applied Physics. No. 21.         [ Links ]

Popper, K., 1986. El universo abierto. Un argumento a favor del indeterminismo. Tecnos Ed. Madrid.         [ Links ]

Ramirez, R. y Villegas, M., 1989. Física, Ed Voluntad., Bogotá, p. 125.        [ Links ]

Ross, John, July 7, 1980. Letter to the editor. Chemical and Engineeeing news.         [ Links ]

Sheldrake, Rupert, 1990. La presencia del pasado. Ed Kairós. Barcelona.

Sheldrake, Rupert, Una nueva ciencia de la vida. La hipótesis de causación formativa.         [ Links ]         [ Links ]

Stengers, I. & Prigogine, I,. 1983. 0rder out of chaos, Bantam Books, New York, También Kondepudi, D. Dewel, G. & Prigogine, 1.,2000. "Chemistry far from equilibrium". En: The New Chemistry ed. N. Hall, Cambridge University Press. Cambridge.         [ Links ]

Von Foerster, Heinz, 1991. Las semillas de la cibernética. Obras escogidas. Colección Terapia familiar. Ed Gedisa. Barcelona.         [ Links ]

Von Foerster, Heinz, Primer Semestre de 1997. Principios de autoorganización en un contexto socioadministrativo. En: Cuadernos de economía, Universidad Nacional de Colombia, Santafé de Bogotá. No. 26.         [ Links ]         [ Links ]

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License