FdA #40 - El Misterio de los Fallos en Sistemas Complejos
O cómo los engranajes rebeldes nos enseñan sobre el caos ordenado.
“Esa división del trabajo en la que descansa nuestro sistema económico es el mejor ejemplo de un orden diariamente renovado.
En el orden creado por el mercado, los participantes están constantemente inducidos a responder a eventos de los que no tienen un conocimiento directo, de tal manera que se asegura un flujo continuo de producción, una coordinación de las cantidades de las diferentes cosas para que el flujo uniforme no se interrumpa y todo se produzca al menos tan económicamente como cualquiera pueda proporcionar las últimas cantidades por las que otros están dispuestos a pagar los costes.
Que se trata de un orden que consiste en la adaptación a las numerosas circunstancias que ninguna persona sola puede conocer completamente es una razón por la cual su existencia no es percibida por una simple inspección.
Está encarnado en relaciones tales como las que existen entre los precios y los costes de las mercancías y la distribución correspondiente de los recursos; y solo podemos confirmar que dicho orden existe después de haber reconstruido sus principios en nuestras mentes.“ - F.A. Hayek
La economía es un sistema complejo. Para lo que nos atañe es importante identificar varias cosas en este texto de Hayek:
el orden dentro del caos
operadores en el sistema que ignoran el sistema en su conjunto
coordinación que permite la producción
adaptaciones y resiliencia a fallos
orden que surge de forma espontánea
Todo esto sucede en cualquier sistema complejo. Hayek supo verlo en la economía de libre mercado, es un ejemplo perfecto de engranajes y piezas que, en conjunto, consiguen mover una máquina enorme y con una complejidad que ninguna de sus partes es capaz de llegar a entender en su totalidad.
¿Qué son los sistemas complejos?
Imagina que todos los engranajes de un reloj antiguo deciden rebelarse y moverse a su propio ritmo. ¿Qué pasaría con la hora que marca el reloj?
Este caos controlado, donde cada pieza parece tener su propia voluntad, es la esencia de los sistemas complejos. En este texto, exploraremos cómo estos sistemas, desde redes de transporte hasta el sistema inmunológico, funcionan y por qué, a veces, fallan de maneras inesperadas y fascinantes.
Vamos a adentrarnos juntos en un mundo donde cada pequeño cambio puede desencadenar una reacción en cadena de consecuencias sorprendentes.
Qué son
¿Qué tienen en común tu sistema inmune, la red de transporte de las grandes ciudades e Internet? Que todos ellos son sistemas complejos.
Los sistemas complejos tienen un nombre que ya los definen, pero hace falta bajar un poco más al barro para comprender de qué se trata.
Cuando un sistema está formado por muchas partes diferentes que interactúan entre sí de una forma que es muy difícil anticipar el comportamiento del sistema en su conjunto, estamos ante un sistema complejo.
Cada elemento del sistema puede depender de otros de diversas formas. Dentro de un sistema complejo las interconexiones pueden resultarnos caóticas. El comportamiento del sistema en su conjunto, nos puede parecer sorprendente.
Pero una de las cosas más fascinantes, es que las partes individuales que forman el total no tienen por qué entender el sistema en en su conjunto. De forma aislada, cada componente puede que hasta nos parezca inútil.
Ejemplo: el sistema inmune
Tu sistema inmune tiene una diversidad enorme de componentes. Cuando un patógeno externo entra en tu cuerpo a través de una herida, por ejemplo, algunas células liberan unas proteínas llamadas citocinas, que ayudan a que otras células, las defensoras, lleguen hasta los patógenos y los combatan.
Algunas de las células defensoras que llegan a la contienda, como si fueran el mismísimo ejército de los Rohirrim en la batalla del Abismo de Helm, son los macrófagos, que se comen -o fagocitan, de ahí su nombre- a las bacterias invasoras y se las llevan a otro lugar, para presentar fragmentos de las mismas a otro tipo de células que generarán anticuerpos para ese tipo de bacteria concreto.
Cada tipo de célula de forma aislada no sirve para nada y ni siquiera es consciente del dibujo global del sistema inmune, simplemente se dedican a fabricar proteínas, pero su trabajo en equipo es crucial para que vivamos.
Además, es necesario que exista un equilibrio especial. Si el sistema inmune tarda demasiado en responder o si su respuesta es débil, podemos sufrir una infección, mientras que si por el contrario, su respuesta es demasiado fuerte, podemos desarrollar una enfermedad autoinmune o una alergia.
Esto es solo una parte infinitamente reducida del funcionamiento del sistema inmune, pero sirve perfectamente como ejemplo de sistema complejo.
Si te interesa el tema, Inmune de Philipp Dettmer es un libro divulgativo sobre todo esto dirigido a los simples mortales que no somos inmunólogos.
Ejemplo: red de transporte urbano
Otro ejemplo es la red de transporte público que quizá uses. Normalmente se dispone de autobuses, trenes, tranvías y algunos otros medios. Todos ellos están interconectados y funcionan de manera coordinada para transportar a millones de personas cada día.
También entran en juego las calles, las vías de tren, estaciones, paradas de autobús o algunas señales de tráfico. Piensa también en los sistemas de control de flotas y seguimiento de los vehículos, o los sistemas de pago para los usuarios.
La complejidad radica en la coordinación de horarios y la gestión del tráfico. La comunicación efectiva entre los operadores del transporte es crucial para mitigar problemas y minimizar retrasos.
¿Cómo llegan a fallar los sistemas complejos?
Todos hemos visto un sistema complejo fallar, pero lo complicado es entender cuáles son las causas que han provocado el fallo. Puede que ni siquiera sea posible descubrir esas causas.
Hace ya más de dos décadas se publicó un artículo en la Universidad de Chicago dónde se trata este tema: How Complex Systems Fail.
El texto reúne 18 puntos que tratan de hacernos entender un poco mejor el cuerpo y la forma de un sistema complejo. Resumidamente son estos:
Son intrínsecamente peligrosos: siempre tienen riesgos inherentes debido a su complejidad y a la cantidad de componentes y procesos interdependientes.
Están bien defendidos contra los fallos: es habitual que existan múltiples capas de defensa para prevenir fallos.
Para que ocurra una catástrofe se requieren múltiples fallos: varios errores deben encadenarse y acumularse para crear una situación de peligro en el sistema en su totalidad.
Posiblemente exista una mezcla de fallos cambiantes y latentes: varios fallos pueden estar presentes y cambiar con el tiempo, incluso sin llegar a ser detectados.
Pueden funcionar aunque haya algún fallo latente: no es extraño que el sistema funcione en un estado degradado sin que los operadores lleguen a percibir nada, lo cual lleva a que sea más probable que se acumulen algunos de ellos.
El riesgo a catástrofe siempre esta ahí: debido a la naturaleza de estos sistemas, siempre hay cierto riesgo de que una catástrofe ocurra.
La atribución post-accidente a una causa raíz es fundamentalmente incorrecta: un solo fallo no suele ser la causa, normalmente es necesaria una combinación de factores.
El sesgo de retrospectiva afecta las evaluaciones de rendimiento humano tras un accidente: una vez sabemos el resultado de un evento nos da la sensación de que los eventos previos deberían haber sido más evidentes de lo que realmente fueron.
Los operadores humanos tienen roles duales: no solo producen los resultados deseados, sino que también trabajan para prevenir fallos.
Todas las acciones de los practicantes son apuestas: las decisiones siempre se toman en un contexto de incertidumbre, algo de lo que se pierde perspectiva cuando se analiza un accidente posteriormente.
Las acciones en la punta de lanza resuelven toda ambigüedad: las acciones de los operadores reducen la ambigüedad en el sistema, pero dichas acciones podrán ser vistas posteriormente como errores tras un accidente.
Los practicantes humanos son el elemento adaptable: los operadores ajustan el sistema en todo momento para maximizar la producción y minimizar los fallos adaptándose a circunstancias cambiantes.
La experiencia humana está en constante cambio: la experiencia necesaria para operar y gestionar sistemas complejos evoluciona con el tiempo y el avance tecnológico.
El cambio introduce nuevas formas de fallos: las modificaciones, especialmente con nuevas tecnologías, pueden introducir nuevas formas de fallos que ante no existían.
Las visiones de “causa” limitan la efectividad de las defensas contra eventos futuros: centrar la atención en una sola causa puede limitar la capacidad de desarrollar defensas eficaces contra futuras fallas.
La seguridad es una característica del sistema, no de sus componentes: ésta emerge del sistema en su conjunto, nunca de las partes de forma individual.
Las personas crean continuamente la seguridad: los operadores trabajan constantemente para mejorar y mantener esa seguridad.
Las operaciones sin fallos requieres experiencia con fallos: para evitar fallos es necesario aprender de ellos. La acumulación de experiencia hace mejorar continuamente las defensas y respuestas.
Conclusiones
Los sistemas complejos son de naturaleza dinámica, contienen multitud de interconexiones. Eso hace que estén predispuestos a fallos debidos a muchos posibles factores, algunos inevitables. Posiblemente siempre haya una parte del sistema complejo que está operando con pequeños fallos, que suelen pasar desapercibidos. Solo cuando muchos fallos latentes se acumulan y se relacionan suelen ocurrir catástrofes en el sistema.
Es habitual que se identifique un error humano como causa del fallo de un sistema complejo, pero en realidad estos son más bien síntomas de problemas más profundos. Una buena adaptación a pequeños fallos constantes puede ocultar problemas serios de los que no somos conscientes hasta que los fallos no se han acumulado de forma peligrosa. En este sentido, la redundancia o tolerancia a fallos en los sistemas complejos introduce la posibilidad de generar problemas inesperados.
Responder de forma efectiva a los fallos es clave. Esto determina en buena medida el impacto final de los incidentes. Una buena comunicación y resiliencia son la base fundamental para que el sistema complejo pueda manejar y recuperarse de los fallos. La investigación de los fallos “a toro pasado” puede estar sesgada y ser engañosa, ya que solemos simplificar demasiado la complejidad inherente a estos sistemas.
La seguridad y la eficiencia del sistema complejo dependerá en buena medida de la capacidad continua de los operadores para adaptarse y gestionar esa complejidad con los riesgos que puedan estar implicados.
Propuesta
Te propongo que ahora, desde esta perspectiva, si es que te resulta nueva, mires de nuevo a los sistemas complejos como la red de transporte, la economía de tu país o tu propio sistema inmune. Cualquiera sirve.
¿Crees que hay algún fallo latente? ¿Has vivido algún fallo total del sistema? ¿Alguien ha metido mano para intentar hacer cambios? ¿Has percibido en algún lugar el sesgo de retrospectiva? ¿Tienes algo más de empatía con los operadores del sistema? ¿Podrías haberlo echo mejor tu?
Recomendaciones de la Semana
💻️ Desarrollo de Software
El podcast de Syntax es uno de los más conocidos en el mundo del desarrollo web. En este episodio se destacan 11 hábitos de los desarrolladores altamente efectivos. Sinceramente, creo que son aplicables a cualquier profesión.
📖 Lecturas
En este post se destaca la importancia de estar abierto a cambiar de opinión y escuchar a los demás. Promueve la empatía, escuchar diferentes perspectivas y estar dispuesto a reevaluar nuestras creencias. También habla de interactuar con personas de opiniones diversas y evitar el pensamiento rígido para un crecimiento personal y profesional.
Miguel Ángel y Da Vinci, titanes del Renacimiento, sintetizaron múltiples disciplinas creando obras maestras. Patrocinados por iglesias y aristócratas, su arte reflejaba poder y evangelización. Hoy, el "renacentista digital" utiliza su marca personal y las redes sociales para crear y difundir su obra, independiente del mecenazgo tradicional, en una economía digitalizada.