Ciencias de la Complejidad

vensim vensim vensim vensim vensim ventana
Ciencias de la Complejidad
Contacto
Ciencias de la Complejidad
Inicio
Ciencias de la Complejidad

LAS CIENCIAS DE LA COMPLEJIDAD

La Teoría General de Sistemas se enmarca dentro de las Ciencias de la Complejidad. Como desarrollos prácticos de esta teoría tenemos el System Thinking o Pensamiento Sistémico como forma de estructurar nuestro conocimiento del sistema, y el System Dynamics o Dinámica de Sistemas para formalizar en un modelo de simulación nuestra percepción de la realidad y simular el impacto de diferentes alternativas.

Antecedentes históricos

En este capítulo se expone la génesis y los aspectos más relevantes de las Ciencias de la Complejidad. Estas tienen una gestación relativamente reciente ya que se atribuyen sus orígenes a la década de los 80. Podemos hallar algunas de sus raíces en lo más antiguo de nuestra civilización, la antigua Grecia, para continuar con la Francia de la Ilustración, y llegar en un vertiginoso salto hasta en siglo XX en los Estados Unidos y Europa.
Así pues es posible iniciar el viaje histórico de la mano de Aristóteles que en su “Metafísica” nos ofrece muchas e interesantes ideas sobre la complejidad y la posible existencia de una ciencia que se ocupe de ella, cuando considera que: “Aquí no sucede lo que con la línea, cuyas divisiones no acaban; el pensamiento tiene necesidad de puntos de parada”. Y más adelante en su explicación de la ciencia más adecuada para abordarla, al exponer que: “Ninguno de los que se ocupan de las ciencias parciales, ni el geómetra, ni el aritmético intenta demostrar ni la verdad ni la falsedad de los axiomas. Los físicos son los únicos que han pretendido abrazar en una sola ciencia toda la naturaleza”. También podemos hallar algunas referencias en Platón, donde la idea de complejidad está vinculada a su concepción del mundo como un todo, con un orden, organización y estructura donde todas las partes se hallan en armonía con las demás.
Por último este mundo armónico se trasforma en un mundo en movimiento de nuevo de la mano de Aristóteles, cuando indica que: “Si la totalidad del cuerpo esta ahora en este orden y más tarde en otra, y si forma parte de una totalidad, entonces no será el mundo el que se genere y se destruya, sino solamente la disposición de sus partes”. Dejamos la antigua Grecia y tomamos el “Discours de la Méthode” del filósofo francés René Descartes que para abordar la complejidad nos propone la necesidad de segmentar el problema en tantos elementos como sea posible, aplicando en definitiva un enfoque reduccionista. Con ello se pretende abordar la complejidad reduciéndola a un conjunto de elementos y procesos tan simples como sea posible. Como concreción del enfoque reduccionista aparece el método analítico cuyo principio fundamental es “El todo es igual a la suma de las partes”.
Este enfoque ha propiciado la fragmentación de las ciencias en ámbitos cada vez más especializados y aislados. Sus resultados han sido excelentes en el diseño de máquinas, y por lo tanto podemos considerarlo como uno de los pilares del progreso de los últimos siglos. Estos éxitos se han logrado en el diseño de máquinas, que son sistemas que podemos estudiar prácticamente aislados del entorno exterior y con un número de elementos o partes y procesos muy limitado, y en esencia fáciles de medir y analizar.
El estudio de los seres vivos, las complejas sociedades actuales, los conflictos entre desarrollo y medio ambiente, requieren un enfoque sin duda muy diferente, que sea capaz de abordar las múltiples relaciones que existen entre los elementos y la diversidad de procesos que se generan. Seguimos con otro francés, ya en el siglo pasado, a quien se considera como precursor de los postulados del caos. Henry Pioncaré, fundador de la topología algebraica, escribió: “Pequeñas diferencias en las condiciones iniciales engendran otras muy grandes en las situaciones resultantes, y el mínimo error en identificar las primeras ocasionaría un enorme error en identificar las últimas”. Abandonamos la Francia de Poincaré y nos detenemos en la Alemania de su contemporáneo George Cantor con su Teoría de Conjuntos de 1885. Esta teoría fue consolidada por el inglés George Boole. Está teoría nació tras los trabajos de Cantor de las series trigonométricas. El primer apunte de esta teoría aparece en un artículo de la revista Crelle donde Cantor consideraba dos clases diferentes de infinitos (hasta entonces se consideraba que todos los infinitos tenían el mismo tamaño), los que se tienen una correspondencia de uno a uno con los números naturales, es decir los que se pueden numerar y los que no se pueden. En base a esto se introduce la idea de equivalencia de conjuntos, según la que dos conjuntos son equivalentes si se pueden poner en correspondencia de uno a uno.
Esta teoría define por primera vez piezas fundamentales de lo que posteriormente sería la Teoría de General de Sistemas, así aparece el concepto de conjunto de donde después nacerá el sistema, como una colección de cualquier tipo de objetos considerada como un todo, una multiplicidad vista como unidad; una entidad completa bien determinada. Los objetos que forman al conjunto son nombrados elementos del conjunto. Así pues todo conjunto es una colección de objetos, pero no toda colección de objetos es un conjunto. Esta afirmación es importante, porque no toda agrupación de elementos es un conjunto o un sistema. De esta forma, el ser elemento de es una relación binaria entre dos objetos de la Teoría de Conjuntos. La importancia de la Teoría de Conjuntos radica en que a partir de ella se puede reconstruir toda la matemática.
Si bien el planteamiento es correcto y útil, presenta algunas paradojas. Una de ellas es la Paradoja de Rusell según la que algunos conjuntos no son miembros de si mismos. Así por ejemplo un conjunto de personas, como un equipo de fútbol, no es una persona. Poco después apareció el Teorema de Göedel que justifica que ningún sistema axiomático puede producir todos los teoremas de la Teoría de los Números, y por lo tanto la deducción de la matemática por la lógica será siempre incompleta.
Precisamente las proposiciones incompletas son las que son autoreferencias, como la paradoja de Rusell, que se vuelve en contra de su propio autor al permitir explicar los fallos de su propia teoría. Podemos ver en estas autoreferencias una fuente de limitaciones que vamos a tener siempre al intentar aplicar la lógica a los conceptos matemáticos. Y en la vida real las autoreferencias son cada vez más frecuentes, y por lo tanto las paradojas también los son. Tengamos en cuenta que aplicamos la lógica para construir los modelos mentales que comentamos en el primer capítulo del libro, y por lo tanto es normal la aparición de paradojas que nos confunden.
El principio holístico definido por Smuts hacia 1930, rompe con la visión reduccionista de Descartes y establece en cambio que “El todo no es igual a la suma de las partes”, lo cual ha sido generalmente interpretado como “El todo es más que la suma de las partes”.
En el ámbito empresarial es conveniente pensar que el todo es a veces “más” y con mucha frecuencia “menos” que la suma de las partes.
En los años 40 tenemos a Von Newman autor de la Teoría de Autómatas investigando el origen de la vida, y a Von Bertalanffy que expone la Teoría General de Sistemas como un intento de unificación de las teorías anteriores sobre sistemas cada una de un ámbito diferente. Según esta teoría las propiedades de los sistemas no pueden ser descritos de forma significativa en base al análisis de sus elementos separados. La comprensión de los sistemas solo es posible cuando se estudian los sistemas globalmente, involucrando todas las interdependencias de los subsistemas. La Teoría General de Sistemas se fundamenta en tres principios: - Los sistemas existen dentro de sistemas. - Los sistemas son abiertos. - Las funciones de un sistema dependen de su estructura.

Podemos citar también en los años 40 a la Teoría de la Información de Claude Shannon. Explica el proceso de transformación de la información a través de la Fuente, que es el componente que determina el tipo de mensaje que se transmitirá y su grado de complejidad, el Transmisor, que es el medio técnico que transforma el mensaje originado por la fuente en señales apropiadas, Canal, como medio que transporta las señales en el espacio, Receptor, que es el recurso técnico que transforma las señales recibidas, y Destino, como componente al cual está dirigido el mensaje, incluyendo el Ruido como aspecto significativo entendido como las distorsiones originadas en forma externa al proceso de comunicación. Los problemas que plantea Shannon, tienen que ver con la cantidad de información, la capacidad del canal de comunicación, el proceso de codificación que puede utilizarse para cambiar el mensaje en una señal y los efectos del ruido. En los sistemas encontramos elementos relacionados entre si tanto por canales físicos, como una mano lo está a su brazo, como por canales de información, como un semáforo indica si debemos o no cruzar una calle. En realidad estos últimos son los más frecuentes en el mundo real.
A principios de los años 50 Nober Wiener y Arthur Rosenblueth aplican los conceptos de la realimentación y el control, en un nuevo concepto, la Cibernética, con aplicaciones tecnológicas pero con una vocación de abordar las ciencias biológicas y sociales. En el capítulo siguiente se amplia este concepto. La Teoría de Juegos en los años 60 de John von Neumann realiza una interesante aportación al servir de base en la toma de decisiones en un entorno no definido. El objetivo de esta teoría no es el análisis de las probabilidades o de los elementos aleatorios sino del comportamiento estratégico de los jugadores. Son muy frecuentes las situaciones en las que el resultado final depende de las decisiones de diferentes elementos o jugadores. Por ello se dice de un comportamiento sigue una estrategia cuando se adopta teniendo en cuenta la influencia conjunta sobre el resultado propio y ajeno de las decisiones propias y ajenas. En esta teoría se plantea la existencia de dos clases de juegos. Si los jugadores pueden comunicarse entre ellos y negociar los resultados se tratará de juegos cooperativos, en los que las decisiones se centran en el análisis de las posibles coaliciones y su estabilidad. En cambio en los juegos no cooperativos los jugadores no pueden llegar a acuerdos previos; es el caso de los juegos conocidos el dilema del prisionero o el modelo del halcón y la paloma.
Hacemos otra parada un poco más adelante en la Sinergética, del griego cooperación, alumbrada por Hermann Haken de los años 70, que estudia el proceso de formación de las estructuras de los sistemas, al disminuir sus grados de libertad de un sistema inestable hasta hacerlo estable, mediante la aparición de un parámetro que esclaviza los grados de libertad del sistema, que es el llamado principio esclavizador. En este aspecto este concepto coincide con el paradigma de la Teoría de los Sistemas Disipativos de Prigogine. En resumen, podemos considerar a la Sinergética como un campo de investigación interdisciplinario que trata de la cooperación espontánea de diferentes subsistemas dentro de un sistema. Es útil para estudiar propiedades de los sistemas complejos que no se hallan en sus etapas iniciales pero sí como consecuencia de la cooperación de las partes. Aparecen así nuevas estructuras que podrían ser temporales, espaciales o funcionales.
A lo largo de este camino se fueron asentando conceptos nuevos como el de homeostasis, aportación de Canon, o capacidad de los seres vivos para mantener sus constantes vitales dentro de unos límites que los hacen viables a través de procesos de retroalimentación. Mide la proporción entre el valor de los cambios del entorno y el valor de los cambios en la estructura del sistema, de forma que un sistema con un alto índice de homeostasis implica que el sistema transforma de forma significativa su estructura ante cambios del entorno.
El concepto de equifinalidad de Von Bertalanffy que ilustra como muchos sistemas llegarán al mismo estado final sea cual sea el estado inicial y las condiciones externas. Y también el concepto de isomorfismo, que se deriva de la existencia de analogías entre el funcionamiento de los sistemas biológicos y los automáticos. Todo esto sirve de base para la aparición en los años 80 de las Ciencias de la Complejidad, como un conjunto de disciplinas con unos pocos rasgos distintivos: la vocación interdisciplinaria como contraposición a las diferentes disciplinas científicas y el holismo como visión de la globalidad frente a la especialización del reduccionismo.

Desarrollos posteriores
Teoría de las Catástrofes

Aparece en los años 90 de la mano del francés René Thom, y del danés Erik Christopher Zeeman, es según sus propios autores, una teoría eminentemente cualitativa, que sólo pretende obtener un orden de comprensión en el desorden de la discontinuidad. Un ejemplo puede ser el del cambio en la forma de un puente, el cual mientras se va acumulando peso sobre el mismo comienza a deformarse en una forma relativamente uniforme hasta que una vez superado cierto peso crítico el puente se cae. Su objetivo es representar discontinuidades observables en sistemas dinámicos. Su utilidad como instrumento de predicción de puntos de quiebra o ruptura es muy discutible. No obstante sirve para el estudio de crisis financieras, como fue en su día el “efecto Tequila” en base al conocimiento de la secuencia seguida por las variaciones de los elementos del sistema. Esta teoría fue duramente criticada por Gina Kolata en la revista Science como "vagamente formulado, basado en hipótesis falsas y que llevan a pocas predicciones que no fueran triviales".

Teoría de las Estructuras Disipativas

Creada por el Premio Nobel belga Ilya Prigogine, ofrece una nueva visión de los fenómenos irreversibles, en especial en el campo de la termodinámica. Un aspecto importante de este autor es señalar que el caos desemboca en estructuras ordenadas. El caos primigenio del Big Bang a desembocado en estructuras ordenadas: átomos, estrellas, vida. Se dice que un sistema es disipativo cuando pierde energía, o esta se degrada en forma de calor, y por lo tanto aumenta la entropía total del sistema. Según la Segunda Ley de la Termodinámica los sistemas aislados aumentan de forma natural su entropía hasta estabilizarse en su máximo valor en entropía o desorden. Así el hielo se convierte de forma natural en agua, y el agua en vapor. Este es su punto de equilibrio, aquel en el que la entropía deja de aumentar.

La aportación de Ilya Prigogine es establecer que los sistemas disipativos pueden estabilizarse en parámetros que no representan el estado de máxima entropía, ya que no son sistemas aislados y por lo tanto no rige la Segunda Ley de la Termodinámica. Así nos encontramos que los sistemas más comunes en el mundo real son sistemas abiertos, no aislados. Estos sistemas intercambian energía con su entorno. En estos sistemas en vez de la tendencia hacia un punto de equilibrio tradicional de máxima entropía podemos observar como permanecen en estados de “no-equilibrio” o “lejos del equilibrio”. Prigogine propone que en los sistemas complejos no lineales de hecho existen subsistemas fluctuantes los cuales en ocasiones se combinan y amplifican dando lugar a bifurcaciones, o atractores, repulsores o autoorganizaciones.
Las características que debe reunir un sistema complejo para que se produzca este proceso de estabilidad lejos del equilibrio son: en primer lugar que el sistema debe ser abierto, es decir que debe de tener elementos capaces de captar la energía del exterior así como elementos para expulsar la energía en otras formas. Además, el sistema debe tener una complejidad interna que le permita ser estable en un amplio rango de condiciones externas, de estructuras como para ser estable en más de un en tercer lugar el sistema debe de tener procesos de retroalimentación. Así en resumen la existencia de un flujo de energía que entra en un sistema le permite estabilizar sus parámetros con un nivel más elevado de energía libre y un nivel más bajo de entropía. Y así, tal y como Prigogine indicaba y como muchos años después confirmó con sus experimentos el biólogo Morowitz en 1978, cuando un flujo de energía circula a través de un sistema fuera de equilibrio, organiza sus estructuras y componentes de forma tal que le permite tomar, utilizar y almacenar cantidades crecientes de energía libre.
El nombre de estructura disipativa recoge la idea de que se trata de un sistema que de forma estable puede hallarse lejos de su punto teórico de equilibrio, debido a que la energía que disipa al exterior es igual que la energía que recibe.
Si bien esto puede parecer una teoría alejada de la realidad puede explicar porqué no se cumplen las teorías económicas clásicas, y determinados países pueden acumular grandes déficits públicos y de balanza de capitales sin que por ello el valor de su divisa se resienta. O la existencia de altas tasas de paro de forma estructural en muchas economías. O también la existencia de conflictos internacionales durante un largo periodo de años.

Teoría de las Bifurcaciones

Podemos considerar que al nacer somos ambidextros, no obstante cuando tomamos por primera vez un objeto con la mano estamos entrando en una bifurcación ya que nos especializamos en el uso de una mano en detrimento de la otra, de forma que las siguientes veces que hemos de tomar un objeto volvemos a utilizar la misma mano que utilizamos en la primera ocasión. Es posible que exista la misma probabilidad de usar la primera vez una u otra mano, pero hemos de usar una de ellas para tomar el objeto, y la elección inicial marcará de forma irreversible nuestro futuro.
Desde el punto de vista matemático Poincaré asigna a las bifurcaciones el origen de un nuevo significado al caos, definiendolo como una clase de orden compleja, sensitiva e impredecible. Esta teoría viene a explicar como se modifica el comportamiento de los sistemas en determinadas circunstancias, de forma tal que en vez de seguir una trayectoria temporal hacia un determinado atractor (objetivo) éste es sustituido por otro de forma brusca. Así, si el sistema seguía una determinada senda de crecimiento o desarrollo, en un determinado punto la modifica por otra que lo dirige hacia un objetivo completamente diferente. No importa que la trayectoria que seguía hasta este momento fuese uniforme o bien tuviese oscilaciones más o menos regulares, en determinado punto el sistema modifica de forma radical su dirección, propósito u objetivo.
La nueva trayectoria que sigue el sistema puede ser tan estable como la anterior o bien llevarle a un colapso. En este ultimo caso hablamos de bifurcaciones catastróficas. No ha cambiado la estructura del sistema, sino que llegado a un punto crítico del mismo, modifica su trayectoria hacia un nuevo atractor. Un aspecto significativo de este comportamiento es la ausencia de señales de aviso o de alarma que nos informen de la proximidad de una bifurcación en base a la historia del sistema. Tampoco los cambios en el entorno nos pueden anticipar la llegada a una bifurcación, ya que las mismas circunstancias del entorno observadas en el momento de la bifurcación pueden haberse dado en etapas anteriores del sistema sin repercusiones.

Atractores extraños : Los fractales

También en esta rápida secuencia podemos añadir al descubrimiento de los fractales de Benoit Mandelbrot, que explica algunas de las formas recurrentes de los seres vivos. Estas formas tienen como propiedades esenciales la auto similitud de la estructura, la complejidad infinita en un espacio finito y mostrar como causas simples pueden producir resultados complejos. Mandelbrot además diseño una nueva física, una nueva geometría, no euclidiana: la geometría fractal.

El caos determinista: El efecto mariposa

En el mundo que conocemos la causa y el efecto mantienen siempre una cierta proporción que responde a las leyes de la física. A medida que ejerzo más presión sobre el acelerador el vehículo adquiere más velocidad, y a mayor giro del volante mayor es el cambio de trayectoria. El esfuerzo que necesito hacer para mover un objeto es proporcional a su peso.
El matemático y después meteorólogo americano Edward Lorenz observó que en su simulador del mundo para el cálculo del tiempo atmosférico previsto, una pequeña variación en los valores iniciales mostraba como resultado unos pronósticos del estado del tiempo totalmente diferentes, observando que pequeñas variaciones en los datos de partida generaban una gran dispersión de los escenarios finales. Como ocurre tantas veces en la ciencia, las ideas de Poincaré se rescataban. Sin duda el pensador francés se había anticipado a su tiempo.
De una forma muy grafica se explica con el término acuñado por Lorenz: “el efecto mariposa” en el cual la simulación del clima en Mongolia se tornó absolutamente impredecible en función del ínfimo efecto de una simple mariposa monarca agitando sus alas a lo largo de la costa de California del Sur.
Estas situaciones tienen cuatro características esenciales: - Son entornos que presentan una gran sensibilidad a las condiciones iniciales, y existen retroalimentaciones. - Se pueden describir matemáticamente con ecuaciones diferenciales no lineales. - Son disipativas, es decir requieren aportes externos de energía. - Se pierde una pequeña parte de la información en cada una de las etapas del proceso, de forma que no es posible conocer las condiciones iniciales tras un tiempo.
Esta estructura recibe el nombre de caos determinista lo cual puede parecer una contradicción en los términos. Con ella quiere darse a entender que la perdida de la información que caracteriza al caos no se debe a circunstancias aleatorias sino a las precisas leyes deterministas de la física clásica. Por todo ello Lorenz con sus trabajos sobre el caos determinista nos ofrece una nueva visión del Universo. Como contrapunto a esta visión de Lorenz de que el caos genera en ocasiones situaciones imprevisibles, lo cual es real, tiene especial interés la visión de Prigogine de que el caos finaliza en estructuras ordenadas como se indicaba antes. Podemos considerar ciertas a ambas apreciaciones, y será la estructura del sistema la provoque un comportamiento u otro. Así como veremos posteriormente cuando un sistema se halle regulado por un bucle positivo nos encontraremos con el efecto mariposa, en cambio cuando se halle regulado por un bucle negativo veremos como se cumplen los postulados de Prigogine.
El efecto mariposa puede verse reflejado en el mundo empresarial en las imprevisibles consecuencias que puede tener encargar un pedido a un proveedor en ver de hacerlo a otro. Por el contrario podemos ver reflejados los postulados de Progogine en el momento de abrir las puertas unos grandes almacenes el primer día de rebajas. Al cabo de unos minutos cada cliente se habrá dirigido al departamento donde tiene más interés: deporte, ropa, calzado, etc.

Desarrollos actuales

Todos estos pasos de la historia reciente han aparecido como natural respuesta a las cada vez más patentes limitaciones del método científico basado exclusivamente en un enfoque reduccionista para abordar la complejidad de los problemas actuales, debido a que ya no es posible realizar experimentos porque existe un alto número de variables que intervienen sobre las que no siempre tenemos un exhaustivo conocimiento, y también por la posibilidad de que existan e intervengan factores que nos son desconocidos al trabajar en entornos o sistemas abiertos, difíciles de acotar. A la vez se han planteado nuevas preguntas, derivadas de la necesidad de comprender la esencia que convierte al todo en algo diferente de la suma de sus partes, es decir de la necesidad de comprender la aparición de las propiedades emergentes que posee el sistema en su conjunto, y que no son específicas de ninguno de sus elementos o componentes.
En realidad fueron los biólogos quieres primero aplicaron estos conocimientos ya que el estudio de lo seres vivos había quedado marginado de la ciencia, por trabajar con sujetos difíciles de cuantificar (¿cuanto pesa un corazón vivo?) y porque las pruebas son reproducibles con mucha dificultad. Su disciplina científica presenta la aparición de propiedades emergentes en los respectivos niveles de estudio: célula, individuo, grupo, y especie que no se pueden explicar únicamente en base a las propiedades físicas de los miembros del nivel inferior que lo componen.
Todo este largo camino se pudo empezar a concretar en multitud de aplicaciones prácticas con la aparición a finales del siglo pasado de potentes ordenadores (los injustamente denigrados IBM) y accesibles soportes de software (el demonizado Windows) que nos permiten aplicar todos estos principios, leyes y teorías a un ámbito cotidiano, como es la resolución de problemas en los ámbitos donde la complejidad no es la excepción sino la norma: la biología, la ecología, la economía, las ciencias sociales, y a la empresa.

Actualmente podemos hallar las aplicaciones prácticas agrupadas en diferentes disciplinas:
Ingeniería de Sistemas
Gestión de Sistemas
Investigación Operativa
Dinámica de Sistemas en función del tipo de problemas que se deban resolver.
Podemos decir que las características comunes de este conjunto de disciplinas son:
- Análisis de la estructura del sistema, es decir de los elementos y las relaciones.
- Visión abierta de los sistemas, de forma que no pueden percibirse de forma aislada del entorno.
- Relevancia especial de los elementos no materiales que se hallan en la estructura de los sistemas.
- Utilización del ordenador como instrumento de trabajo, en vez de ecuaciones matemáticas, para la creación de modelos y la simulación de alternativas.

Juan Martín García


Dinámica de sistemas

Ciencias de la complejidad
© Juan Martín García
ISBN 9781723935428